SISTEMA DE TELECOMUNICACIONES
TEMA II
SISTEMAS DE TELECOMUNICACIÓN POR MEDIOS ÓPTICOS INTRODUCCIÓN Las tecnologías de la información y de las comunicaciones (TIC) son un término que se utiliza actualmente para hacer referencia a una gama amplia de servicios, aplicaciones, y tecnologías, que utilizan diversos tipos de equipos y de programas informáticos, y que a menudo se transmiten a través de las redes de telecomunicaciones.
Las TIC incluyen conocidos servicios de telecomunicaciones tales como telefonía, telefonía móvil y fax, que se utilizan combinados con soporte físico y lógico para constituir la base de una gama de otros servicios, como el correo electrónico, la transferencia de archivos de un ordenador a otro, y, en especial, Internet, que potencialmente permite que estén conectados todos los ordenadores, dando con ello acceso a fuentes de conocimiento e información almacenadas en ordenadores de todo el mundo.
Entre las aplicaciones se cuentan la videoconferencia, el teletrabajo, la enseñanza a distancia, los sistemas de tratamiento de la información, inventario de existencias; en cuanto a las tecnologías, son una amplia gama que abarca desde tecnologías “antiguas” como la radio y la TV a las “nuevas” tales como comunicaciones móviles celulares; mientras que las redes pueden comprender cable de cobre o cable de fibra óptica, conexiones inalámbricas o móviles celulares, y los enlaces por satélite. Por equipos se entenderán los microteléfonos para teléfonos, los ordenadores, y elementos de red tales como estaciones base para el servicio de radiofonía; mientras que los programas informáticos son el fluido de todos estos componentes, hay juegos de instrucciones detrás de todo esto desde los sistemas operativos a Internet.
Por tanto, están en cuestión servicios tan básicos como telefonía, y aplicaciones tan complejas como la “telemetría”, por ejemplo, para supervisar a distancia las condiciones de agua como parte de un sistema de pronóstico de inundaciones. Efectivamente, se puede disponer de muchos
servicios y aplicaciones en cuanto se cuenta con un servicio telefónico: el mismo tipo de tecnologías que se utilizan para transmitir la voz puede también transmitir el fax, datos y el video de comprensión digital. La importancia de las TIC no es la tecnología en sí, sino el hecho de que permita el acceso al conocimiento, la información, y las comunicaciones: elementos cada vez más importantes en la interacción económica y social de los tiempos actuales.
SISTEMAS DE COMUNICACIÓN ÓPTICOS La fibra óptica constituye el medio de transmisión por excelencia para los sistemas de comunicaciones ópticas. Desde sus primeras instalaciones, en las líneas que enlazaban las grandes centrales de conmutación, la fibra se está trasladando hoy en día hasta los mismos hogares, extendiéndose su uso a un mayor abanico de aplicaciones. Este papel destacado de las fibras es debido a sus muchas propiedades favorables, entre las que merecen destacarse: •
Gran capacidad de transmisión (por la posibilidad de emplear pulsos cortos y bandas de frecuencias elevadas).
•
Reducida atenuación de la señal óptica.
•
Inmunidad frente a interferencias electromagnéticas.
•
Cables ópticos de pequeño diámetro, ligeros, flexibles y de vida media superior a los cables de conductores.
•
Bajo costo potencial, a causa de la abundancia del material básico empleado en su fabricación (óxido de silicio).
Una fibra óptica se comporta como una guía onda dieléctrica, con la particularidad de poseer una geometría cilíndrica. En su configuración más extendida (fibra de índice abrupto o de salto de índice), se halla formada por un núcleo cilíndrico de material dieléctrico rodeado por otro material dieléctrico con un índice de refracción ligeramente inferior (cubierta de la fibra). La guía onda así establecida facilita que las señales se propaguen de manera confinada en su interior. Del análisis electromagnético de la propagación de las señales en las fibras se desprenden los posibles modos del campo que ésta es capaz de guiar. La propiedad de guiar o bien uno o bien múltiples de estos modos permite establecer una clasificación básica de las fibras: una fibra recibe el calificativo de multimodo cuando a través de ella pueden propagarse varios
modos; se dice que una fibra es monomodo si sólo admite la propagación del modo fundamental. Ahora bien, esta propagación de las señales a través del medio-fibra trae apareada una interacción con las partículas (átomos, iones, moléculas…) y accidentes (variaciones locales del índice de refracción, curvaturas, imperfecciones, etc.) existentes en el mismo, que se manifiesta en una atenuación y en una dependencia de la constante de propagación con respecto a la frecuencia o la polarización. Ambos fenómenos son causantes de una degradación de las señales que afecta negativamente a la comunicación, imponiendo límites a la longitud de los enlaces o al régimen binario alcanzable. La repercusión de estos mecanismos de degradación depende del diseño concreto de la fibra (material, geometría…) y, especialmente, de la longitud de onda de operación, condicionando, por consiguiente, la elección de uno y otra. Las fibras ópticas son filamentos de vidrio de alta pureza extremadamente compactos: El grosor de una fibra es similar a la de un cabello humano. Fabricadas a alta temperatura con base en silicio, su proceso de elaboración es controlado por medio de computadoras, para permitir que el índice de refracción de su núcleo, que es la guía de la onda luminosa, sea uniforme y evite las desviaciones, entre sus principales características se puede mencionar que son compactas, ligeras, con bajas pérdidas de señal, amplia capacidad de transmisión y un alto grado de confiabilidad debido a que son inmunes a las interferencias electromagnéticas de radiofrecuencia. Las fibras ópticas no conducen señales eléctricas por lo tanto son ideales para incorporarse en cables sin ningún componente conductivo y pueden usarse en condiciones peligrosas de alta tensión. Tienen la capacidad de tolerar altas diferencias de potencial sin ningún circuito adicional de protección y no hay problemas debido a los cortos circuitos. Tienen un gran ancho de banda, que puede ser utilizado para incrementar la capacidad de transmisión con el fin de reducir el costo por canal; De esta forma es considerable el ahorro en volumen en relación con los cables de cobre. Con un cable de seis fibras se puede transportar la señal de más de cinco mil canales o líneas principales, mientras que se requiere de 10,000 pares de cable de cobre convencional para brindar servicio a ese mismo número de usuarios, con la desventaja que este último medio ocupa un gran espacio en los ductos y requiere de grandes volúmenes de material, lo que también eleva los costos. Comparado con el sistema convencional de cables de cobre donde la atenuación de sus señales (decremento o reducción de la onda o frecuencia) es de tal magnitud que requieren de repetidores cada dos kilómetros para regenerar la transmisión, en el sistema de fibra óptica se pueden instalar tramos de hasta 70 km. Sin que haya necesidad de recurrir a repetidores lo que también hace más económico y de fácil mantenimiento este material. Originalmente, la fibra
óptica fue propuesta como medio de transmisión debido a su enorme ancho de banda; sin embargo, con el tiempo se ha planteado para un amplio rango de aplicaciones además de la telefonía, automatización industrial, computación, sistemas de televisión por cable y transmisión de información de imágenes astronómicas de alta resolución entre otros.
CONCEPTO DE TRANSMISIÓN En un sistema de transmisión por fibra óptica existe un transmisor que se encarga de transformar las ondas electromagnéticas en energía óptica o en luminosa, por ello se le considera el componente activo de este proceso. Una vez que es transmitida la señal luminosa por las minúsculas fibras, en otro extremo del circuito se encuentra un tercer componente al que se le denomina detector óptico o receptor, cuya misión consiste en transformar la señal luminosa en energía electromagnética, similar a la señal original. El sistema básico de transmisión se compone en este orden, de señal de entrada, amplificador, fuente de luz, corrector óptico, línea de fibra óptica (primer tramo), empalme, línea de fibra óptica (segundo tramo), corrector óptico, receptor, amplificador y señal de salida. En resumen, se puede decir que este proceso de comunicación, la fibra óptica funciona como medio de transportación de la señal luminosa, generado por el transmisor de LED'S (diodos emisores de luz) y láser. Los diodos emisores de luz y los diodos láser son fuentes adecuadas para la transmisión mediante fibra óptica, debido a que su salida se puede controlar rápidamente por medio de una corriente de polarización. Además su pequeño tamaño, su luminosidad, longitud de onda y el bajo voltaje necesario para manejarlos son características atractivas.
SISTEMAS DE COMUNICACIÓN DE FIBRA ÓPTICA Los bloques principales de un enlace de comunicaciones de fibra óptica son: Transmisor Receptor Guía de fibra
El transmisor consiste de una interface analógica o digital, un conversor de voltaje a corriente, una fuente de luz y un adaptador de fuente de luz a fibra. La guía de fibra es un vidrio ultra puro o un cable plástico. El receptor incluye un dispositivo conector, un fotodetector, un conversor de corriente a voltaje un amplificador de voltaje y una interface analógica o digital. En un transmisor de fibra óptica la fuente de luz se puede modular por una señal análoga o digital. Acoplando impedancias y limitando la amplitud de la señal o en pulsos digitales. El conversor de voltaje a corriente sirve como interface eléctrica entre los circuitos de entrada y la fuente de luz. La fuente de luz puede ser un diodo emisor de luz LED o un diodo de inyección láser ILD, la cantidad de luz emitida es proporcional a la corriente de excitación, por lo tanto el conversor voltaje a corriente convierte el voltaje de la señal de entrada en una corriente que se usa para dirigir la fuente de luz. La conexión de esa fuente a la fibra es una interface mecánica cuya función es acoplar la fuente de luz al cable. La fibra óptica consiste de un núcleo de fibra de vidrio o plástico, una cubierta y una capa protectora. El dispositivo de acoplamiento del receptor también es un acoplador mecánico. El detector de luz generalmente es un diodo PIN o un APD (fotodiodo de avalancha). Ambos convierten la energía de luz en corriente. En consecuencia, se requiere un conversor corriente a voltaje que transforme los cambios en la corriente del detector a cambios de voltaje en la señal de salida.
DESVENTAJAS DE LA FIBRA ÓPTICA A pesar de las ventajas antes enumeradas, la fibra óptica presenta una serie de desventajas frente a otros medios de transmisión, siendo las más relevantes las siguientes: La alta fragilidad de las fibras. Necesidad de usar transmisores y receptores más caros Los empalmes entre fibras son difíciles de realizar, especialmente en el campo, lo que dificulta las reparaciones en caso de ruptura del cable No puede transmitir electricidad para alimentar repetidores intermedios La necesidad de efectuar, en muchos casos, procesos de conversión eléctrica-óptica
La fibra óptica convencional no puede transmitir potencias elevadas No existen memorias ópticas CABLES ÓPTICOS Para poder utilizar fibras ópticas en forma práctica, estas deben ser protegidas contra esfuerzos mecánicos, humedad y otros factores que afecten su desempeño. Para ello se les proporciona una estructura protectora, formando así, lo que conocemos como cable óptico. Dicha estructura de cables ópticos variará dependiendo de sí el cable será instalado en ductos subterráneos, enterrando directamente, suspendido en postes, sumergido en agua etc. El propósito básico de la construcción del cable de fibra óptica es el mismo; Mantener estables la transmisión y las propiedades de rigidez mecánica durante el proceso de manufactura, instalación y operación. Las propiedades esenciales en el diseño del cable son la flexibilidad, identificación de fibras, peso, torsión, vibración, límite de tensión, facilidad de pelado, facilidad de cortado, facilidad de alineación del cable y la fibra, resistencia al fuego, atenuación estable, etc. Los parámetros para formar un cable especial son: 1. Esfuerzo máximo permitido en la fibra durante su fabricación, instalación y servicio; determina la fuerza mínima de ruptura de la fibra y la fuerza requerida para el miembro de tensión. 2. Fuerza lateral dinámica y estática máxima ejercida sobre la fibra, para determinar la configuración del cable y el límite de tolerancia de micro curvaturas. 3. Flexibilidad 4. Rango de temperatura y medio ambiente en donde el cable va a operar, paralela elección del tipo de materiales a utilizar tomando en cuenta su coeficiente de expansión térmica y su cambio de dimensiones en presencia de agua. Para cumplir estos requerimientos se observan las siguientes recomendaciones: 1. Evitar cargas o esfuerzos mecánicos sobre las fibras. 2. Aislar la fibra de los demás componentes del cable. 3. Mantener las fibras cerca del eje central y proporcionar espacio a las fibras para su mantenimiento. 4. Escoger los materiales de los elementos del cable con mínimas diferencias en sus coeficientes de expansión térmica.
PARÁMETROS DE UNA FIBRA ÓPTICA Existen varios parámetros que caracterizan a una fibra óptica. Se habla de parámetros estructurales y de transmisión que establecen las condiciones en las que se puede realizar la transmisión de información. Entre los parámetros estructurales se encuentra: El perfil de índice de refracción. El diámetro del núcleo. La apertura numérica. Longitud de onda de corte. En cuanto a los parámetros de transmisión se tiene: Atenuación. Ancho de banda. Inmunidad a las Interferencias.
El uso de medios transparentes para la propagación de ondas electromagnéticas en forma de luz hace que la fibra óptica no necesite voltajes ni de corrientes, esto lo convierte en un medio de comunicación 100% inmune a todo tipo de interferencias electromagnéticas a su alrededor y, por lo tanto, es un medio de comunicación altamente confiable y seguro. Este es uno de los principales factores que motivaron su uso militar ya que para poder obtener información de ella hay que provocarle un daño, daño que podría detectarse fácilmente con equipo especializado. Esto no sucede con el cobre, donde basta con dejar el conductor al descubierto. El hecho de no necesitar corrientes ni voltaje hace que la fibra óptica sea idónea para aplicaciones en donde se requiere de una probabilidad nula de provocar chispas, como el caso de pozos petroleros y las industrias químicas, en donde existe la necesidad de transportar la información a través de medios explosivos.
MICRO CURVATURA Fuerzas laterales localizadas a lo largo de la fibra dan origen a lo que se conoce como micro curvaturas. El fenómeno puede ser provocado por esfuerzos durante la manufactura e instalación y también por variaciones dimensionales de los materiales del cable debidos a cambios de temperatura. La sensibilidad a las micro curvaturas es función de la diferencia del índice de refracción, así como también de los diámetros del núcleo y del revestimiento. Es evidente que las micro curvaturas incrementan las pérdidas ópticas. CURVADO El curvado de una fibra óptica es causado en la manufactura del cable, así como también por dobleces durante la instalación y variación en los materiales del cable debidos a cambio de temperatura. Los esfuerzos que provoca la torcedura de las fibras son básicamente una fuerza transversal y un esfuerzo longitudinal. El es fuerzo longitudinal no provoca torcedura cuando trabaja para alargar la fibra, no hay cambio en las perdidas ópticas. Sin embargo, cuando trabaja para contraer a la fibra, este esfuerzo provoca que la fibra forme bucles y se curve, de tal manera que la perdida óptica se incrementa. Por lo tanto, al evaluar los diseños de los cables se debe poner especial atención en: La carga transversal trabajando en la fibra durante el cableado, instalación y utilización. El esfuerzo de contracción que ocurre a bajas temperaturas debido al encogimiento de los elementos del cable. Dadas las razones anteriores, el eje de la fibra puede curvarse severamente causando grandes incrementos en las perdidas ópticas. Para prevenir esta situación se toma en cuenta las siguientes consideraciones: Mantener un radio de curvatura determinada, seleccionando el radio y la longitud del cableado. Reducir variaciones técnicas de las fibras protegidas con pequeños coeficientes de expansión térmica disponiéndolas alrededor de un elemento con buenas propiedades térmicas. TIPOS BÁSICOS DE FIBRAS ÓPTICAS MULTIMODALES MULTIMODALES CON ÍNDICE GRADUADO MONOMODALES
FIBRA MULTIMODAL EN ESTE TIPO DE FIBRA VIAJAN VARIOS RAYOS ÓPTICOS REFLEJÁNDOSE A DIFERENTES ÁNGULOS COMO SE MUESTRA EN LA FIGURA.
Los diferentes rayos ópticos recorren diferentes distancias y se desfasan al viajar dentro de la fibra. Por esta razón, la distancia a la que se puede trasmitir esta limitada.
FIBRA MULTIMODAL CON ÍNDICE GRADUADO En este tipo de fibra óptica el núcleo esta hecho de varias capas concéntricas de material óptico con diferentes índices de refracción. La propagación de los rayos en este sigue un patrón similar mostrado en la figura.
En estas fibras él numero de rayos ópticos diferentes que viajan es menor y, por lo tanto, sufren menos el severo problema de las multimodales. FIBRA MONOMODAL Esta fibra óptica es la de menor diámetro y solamente permite viajar al rayo óptico central. No sufre del efecto de las otras dos pero es más difícil de construir y manipular. Es también más costosa pero permite distancias de transmisión mayores.
La fibra óptica ha venido a revolucionar la comunicación de datos ya que tiene las siguientes ventajas: Gran ancho de banda (alrededor de 14Hz) Muy pequeña y ligera Muy baja atenuación Inmunidad al ruido electromagnético Para transmitir señales por fibra óptica se utiliza modulación de amplitud sobre un rayo óptico, la ausencia de señal indica un cero y la presencia un uno. La transmisión de fibra óptica es unidireccional. Actualmente se utilizan velocidades de transmisión de 50, 100 y 200 Mbps, pero experimentalmente se han transmitido hasta Gbps sobre una distancia de 110 Kms.
CONSTRUCCIÓN
Núcleo, cubierta, tubo protector, búferes, miembros de fuerza, y una o más capas protectoras. Las principales variantes son: 1. Tubo suelto. Cada fibra está envuelta en un tubo protector.
2. Fibra óptica restringida. Rodeando al cable hay un búfer primario y uno secundario que proporcionan a la fibra protección de las influencias mecánicas externas que ocasionarían rompimiento o atenuación excesiva.
3. Hilos múltiples: Para aumentar la tensión, hay un miembro central de acero y una envoltura con cinta de Mylar.
4. Listón: Empleada en los sistemas telefónicos Tiene varios miembros de fuerza que le dan resistencia mecánica y dos capas de recubrimiento protector térmico.
En la foto de abajo se observa un cable de fibra óptica.
CONVERSORES LUZ- CORRIENTE ELÉCTRICA Este tipo de conversores convierten las señales ópticas que proceden de la fibra en señales eléctricas. Se limitan a obtener una corriente a partir de la luz modulada incidente, esta corriente es proporcional a la potencia recibida, y por tanto, a la forma de onda de la señal moduladora. Se fundamenta en el fenómeno opuesto a la recombinación, es decir, en la generación de pares electrón-hueco a partir de los fotones. El tipo más sencillo de detector corresponde a una unión semiconductora P-N. Las condiciones que debe cumplir un fotodetector para su utilización en el campo de las comunicaciones, son las siguientes: La corriente inversa (en ausencia de luz) debe de ser muy pequeña, para así poder detectar señales ópticas muy débiles (alta sensibilidad). Rapidez de respuesta (gran ancho de banda).
El nivel de ruido generado por el propio dispositivo ha de ser mínimo. Hay dos tipos de detectores los fotodiodos PIN y los de avalancha APD. Detectores PIN: Su nombre viene de que se componen de una unión P-N y entre esa unión se intercala una nueva zona de material intrínseco (I), la cual mejora la eficacia del detector. Se utiliza principalmente en sistemas que permiten una fácil discriminación entre posibles niveles de luz y en distancias cortas.
Detectores APD: El mecanismo de estos detectores consiste en lanzar un electrón a gran velocidad (con la energía suficiente), contra un átomo para que sea capaz de arrancarle otro electrón. Estos detectores se pueden clasificar en tres tipos: De silicio: presentan un bajo nivel de ruido y un rendimiento de hasta el 90% trabajando en primera ventana. Requieren alta tensión de alimentación (200-300V). De germanio: aptos para trabajar con longitudes de onda comprendidas entre 1000 y 1300 nm y con un rendimiento del 70%. De compuestos de los grupos III y V AMPLIFICADOR ÓPTICO En fibra óptica, un amplificador óptico es un dispositivo que amplifica una señal óptica directamente, sin la necesidad de convertir la señal al dominio eléctrico, amplificar en eléctrico y volver a pasar a óptico. AMPLIFICADORES DE FIBRA DOPADA Amplificadores en fibra son amplificadores ópticos que usan fibra dopada, normalmente con tierras raras. Estos amplificadores necesitan de un bombeo externo con un láser de onda continua a una frecuencia óptica ligeramente superior a la que amplifican.
Típicamente, las longitudes de onda de bombeo son 980 nm o 1480 nm y para obtener los mejores resultados en cuanto a ruido se refiere, debe realizarse en la misma dirección que la señal. Un amplificador óptico es capaz de amplificar un conjunto de longitudes de onda (WDM, wavelength division multiplexing).
AMPLIFICADOR DE FIBRA DOPADA CON ERBIO (EDFA) El amplificador de fibra dopada más común es el EDFA (del inglés, Erbium Doped Fiber Amplifier) que se basa en el dopaje con Erbio de una fibra óptica. Algunas características típicas de los EDFAs comerciales son: Baja figura de ruido (típicamente entre 3-6 dB) Ganancia entre 15-40 dB Baja sensibilidad al estado de polarización de la luz de entrada Máxima potencia de salida: 14 - 25 dBm Ganancia interna: 25 - 50 dB Variación de la ganancia: +/- 0,5 dB Número de láseres de bombeo: 1 - 6 Longitud de onda de bombeo: 980 nm o 1480 nm2 Ruido predominante: ASE (Amplified Spontaneous Emission) AMPLIFICADOR ÓPTICO DE SEMICONDUCTOR (SEMICONDUCTOR OPTICAL AMPLIFIER, SOA) Los amplificadores ópticos de semiconductor tienen una estructura similar a un láser FabryPerot salvo por la presencia de un anti reflectante en los extremos. El anti reflectante incluye un antireflection coating y una guía de onda cortada en ángulo para evitar que la estructura se comporte como un láser. El amplificador óptico de semiconductor suele ser de pequeño tamaño y el bombeo se implementa de forma eléctrica. Podría ser menos caro que un EDFA y puede ser integrado con
otros dispositivos (láseres, moduladores...). Sin embargo, en la actualidad, las prestaciones no son tan buenas como las que presentan los EDFAs. Los SOAs presentan mayor factor de ruido, menos ganancia, son sensibles a la polarización, son muy no lineales cuando se operan a elevadas velocidades... Su elevada no-linealidad hacen atractivos los SOAs para aplicaciones de procesado como la conmutación toda óptica o la conversión de longitud de onda. También se está estudiando su uso para implementar puertas lógicas.
AMPLIFICADORES RAMAN Estos dispositivos se basan en amplificar la señal óptica mediante el efecto Raman. A diferencia de los EDFAs y de los SOAs, los amplificadores Raman se basan en una interacción no lineal entre la señal óptica y la señal de bombeo de alta potencia. De esta forma, la fibra convencional ya instalada puede ser usada como medio con ganancia para la amplificación Raman. Sin embargo, es mejor emplear fibras especialmente diseñadas (fibra altamente no lineal) en las que se introducen dopantes y se reduce el núcleo de la fibra para incrementar su no linealidad. La señal de bombeo se puede acoplar a la fibra tanto en la misma dirección en la que se transmite la señal (bombeo codireccional) o en el sentido contrario (bombeo contra direccional). Es más habitual el bombeo contradireccional para evitar la amplificación de las componentes no lineales. El máximo de ganancia se consigue 13 Thz (unos 100 nm) por debajo de la longitud de onda de bombeo. Para obtener una buena amplificación es necesario usar potencias de bombeo elevadas (de hasta 1 w y hasta 1,2 w para amplificación en banda l en fibra monomodo estándar). Normalmente se emplean más de dos diodos de bombeo. el nivel de ruido que se obtiene es bajo especialmente cuando se usa junto con EDFAS .
CARACTERISTICAS DE TRANSMISIÓN EN LA FIBRA ÓPTICA
Los principales parámetros más importantes para la planificación de instalaciones de fibra óptica son:
Atenuación: O perdidas de luz en fibra óptica Multimodo y se divide en pérdidas intrínsecas las cuales dependen de la composición del vidrio y no pueden eliminarse, Las pérdidas extrínsecas ajenas a la fibra se originan a causa de impurezas. Respuesta en frecuencia de Banda Base: Es la técnica por la cual se transmite información en forma digital (sin modular) por el medio de transmisión físico.
EMPALME DE FIBRA ÓPTICA
La implementación práctica de sistemas de comunicaciones por fibra óptica requiere de la unión de diferentes tramos de cables para realizar enlaces largos. Esas uniones son de gran importancia para obtener una alta calidad de transmisión y reducido mantenimiento. Los empalmes de fibra óptica deben tener una atenuación baja y estable durante todo el tiempo de vida útil del sistema y sobre un amplio rango de condiciones ambientales.
MÉTODOS DE EMPALME Los empalmes de fibra; óptica se pueden realizar empleando uno de los tres métodos siguientes: Método De Fusión Método Mecánico Método De Unión Adhesiva
MÉTODO DE FUSIÓN
En este método las dos fibras son empalmadas aplicando calentamiento localizando entre los extr3mos de fibras prealineados, causando que las fibras se ablanden y se funda simultáneamente para formar un hilo de vidrio continuo. El calor de fusión es generado por el arco eléctrico de dos electrodos conectados a una fuente de alto voltaje. Este método ofrece la atenuación óptica más baja (menor de 0.1 dB) y la más alta confiabilidad. Es utilizado en enlaces de cables continuos y largos (decenas de Km.).
MÉTODO MECÁNICO
Un empalme mecánico consiste de cuatro componentes básicos: •
Una superficie de alineamiento (surco – o guías formadas por cilindros, varillas o por la esquina de un tubo de sección cuadrada.
•
Un retenedor (muelle, cubierta, etc.) para mantener las fibras sobre la superficie de alineamiento.
•
Un material de adaptación de índice de refracción (gel de silicona, adhesivos de curado UV, resina epóxica y grasas ópticas.
•
Un encaje o manguito de protección.
Con este método se consigue empalmes con perdidas típicas que varia entre 0.1 y 0.2 dB, a la temperatura ambiente (20° C). Sin embargo, los empalmes, mecánicos son sensitivos a los cambios de temperatura ambiental. Este método es excelente para sistemas de corto alcance (menor que 2Km).
MÉTODO DE UNIÓN ADHESIVA Por este método, un adhesivo es usado para empalmar las fibras. El alineamiento es proporcionado por un substrato, un tubo de vidrio transparente o un manguito.
En algunos métodos, los extremos cortados de las fibras son topados
en adhesivos
vulcanizados. El adhesivo es seleccionado para proporcionar una adaptación de índice de refracción y rigidez mecánica del empalme. La atenuación típica conseguida con este método es de 0.1 dB o menor. Sin embargo, son más sensitivos a los cambios de temperatura ambiental.
PRUEBAS DE TRANSMISIÓN La fibra óptica es un medio de transmisión completamente diferente a los conductores y líneas coaxiales de cobre, por la forma de transmisión de señales. , En consecuencia se requieren nuevas técnicas e instrumentos para la evaluación de las características de la fibra óptica. El propósito del presente informe es describir los fundamentos, instrumentos, procedimientos, desventajas y limitaciones de las diversas técnicas usadas en la actualidad para medir las características de transmisión por fibras ópticas. En particular se contemplara las técnicas de mediciones, mantenimiento e instalación de fibras ópticas, para determinar la atenuación, respuesta de banda base (Ancho de banda), continuidad, identificación y localización de averías. Para la realización de las mediciones de las fibras ópticas se exige el establecimiento de normativas que defina en cada una de ellas y establezca la fase de ejecución, limites exigidos, condiciones y métodos de trabajo para cada prueba según la situación. Tipos de Mediciones: Las mediciones dependen del tipo de fibra a medir, es decir, Multimodo o Monomodo y se clasifican en tres grupos, Pruebas de transmisión, pruebas ópticas y pruebas geométricas. Pruebas de Transmisión:
a) Fibra Multimodo: Atenuación óptica, respuesta en
banda (Ancho de banda),
Identificación y continuidad óptica, detección y localización de averías. b) Fibras Monomodo: Atenuación óptica dispersión Cromática, identificación y continuidad óptica, detección y localización de averías. Las características principales de transmisión de fibras ópticas se basan en la atenuación Óptica y en banda Base (Ancho de Banda), y la medición de estos parámetros condicionan de manera correlacionada la longitud de sección de repetición y velocidad de transmisión máxima a utilizarse. Pruebas Ópticas: a) Multimodo: Perfil del índice de refracción y apertura Numérica. b) Monomodo: Perfil de índice de refracción y longitud de corte. Pruebas geométricas: a) Fibra Multimodo: Diámetro del núcleo y revestimiento, error de concentridad y no circularidad del núcleo y revestimiento. b) Monomodo.- Diámetro del campo Monomodo, diámetro del revestimiento, error de concentridad, no circularidad del núcleo y del campo de propagación monomodal.
FASES DE APLICACIÓN: Se Recomiendan seguir las siguientes fases: -
Mediciones de laboratorio
-
Mediciones de fábrica
-
Mediciones de campo.
Mediciones en Laboratorio: Son principalmente dirigidas a la investigación y desarrollo, pero en casos particulares pueden ser empleados para pruebas y control de productos. Los requerimientos principales son la precisión y la sensitividad de las mediciones, utilizando su practicabilidad y comodidad menos exigentes. Durante esta etapa se miden con sumo cuidad los parámetros geométricos, ópticos y de transmisión. Los parámetros ópticos y geométricos también podrán medirse en muestras constituidas por largos de fibras o en muestras tomadas de largos de fabricación de cables.
Mediciones de Fabrica. Estas mediciones son principalmente dirigidas al control de calidad durante el proceso de producción de la fibra optima y cable. En algunos casos pueden dirigirse a pruebas de aceptación, si así lo solicita el comprador. En esta etapa es importante verificar la calidad del cable, con chequeo de sus márgenes de seguridad. Para este fin se requieren pruebas más rigurosas y precisas que deán información que aquellas requeridas por las condiciones de operación.
Mediciones de Campo. Estas mediciones son principalmente dirigidas a las pruebas de líneas, durante y posterior a la instalación, y para las sub siguientes mantenimiento, supervisión del funcionamiento del sistema. Esto nos permitirá comprobar que el cable se ha recibido en buen estado y que en cada una de las fases
en qu4e se divide la obra
satisface las características técnicas
especificadas para este tipo de instalaciones. Los requerimientos principales de esta etapa son: •
La practicabilidad de las técnicas y maniobrabilidad
de la instrumentación, como
instrumentos portátiles, que permitan mediciones precisas, en un amplio rango de condiciones ambientales. •
Las mediciones de características ópticas y geométricas no raramente afectadas por el proceso de cableado
e instalación, las mediciones se refieren mayormente a las
características de transmisión que son: Atenuación Óptica Detección y localización de averías Identificación de fibras Respuesta de banda Base. INSTRUMENTOS DE MEDICIÓN Ante creciente expansión de sistemas de transmisión óptica, se pone a disposición de los fabricantes y de usuarios planteados.
instrumentos de medición que satisfagan los requerimientos
Estos instrumentos deben caracterizarse por la determinación rápida y reproductiva de los valores de medición, y sobre toda su comodidad y simplicidad de manejo y/o operación, visualizando las mediciones en forma digital y gráfica, así mismo deben ser compatibles con la longitud de onda de trabajo del sistema de transmisión óptica.
TRANSMISIÓN ÓPTICA CARACTERÍSTICAS DE TRANSMISIÓN ÓPTICA Las principales características de una fibra óptica son: la atenuación óptica, y el ancho de banda; estos determinan la capacidad o velocidad de transmisión y la longitud de enlace de un sistema de comunicaciones.
ATENUACIÓN ÓPTICA Expresa una medida de cuanto se atenúa la potencia de la luz al propagarse por la fibra óptica. Los factores de atenuación pueden clasificarse según sus fuentes de generación en: Factores Intrínsecos: Que dependen de la composición de la fibra, tales como absorción, dispersión de Rayleigh, a imperfecciones estructurales. Factores Extrínsecos: Se originan por causas de impurezas, curvaturas, Micro curvaturas, empalmes y pérdidas por acoplamiento. Pérdidas por Absorción La pérdida por absorción corresponde a la pérdida en forma de calor causado por la absorción de luz mientras esta es transmitida a través de la fibra óptica. La absorción generalmente incluye absorción inherente del material(vidrio) y absorción por impurezas contenidas en el vidrio. Pérdidas por dispersión de Rayleigh Cuando la luz choca con partículas pequeñas comparadas con su longitud de onda, esta es reflejada en muchas direcciones. Este fenómeno se llama dispersión de Rayleigh. La dispersión de Rayleigh, por lo tanto ocasiona pérdidas; los cuales son inversamente proporcionales a la longitud de onda transmitida. Pérdidas por dispersión debido a las Imperfecciones Estructurales. Cuando una fibra óptica es producida, esta no presenta núcleo ni revestimiento perfectamente cilíndricos.
En general existen diversas concavidades y convexidades microscópicas entre las paredes del núcleo y el revestimiento, que causan dispersión de la luz y cierta cantidad de luz no puede pasar a través del núcleo y es radiada hacia el exterior Pérdidas por curvaturas Cuando una fibra óptica es curvada, se generan pérdidas por cuanto la luz que entra en la superficie limite entre el núcleo y el revestimiento en un ángulo crítico es radiada fuera de la fibra óptica. Pérdidas por Micro curvaturas Es generada por la reflexión del eje de la fibra óptica en el orden de algunos micromilímetros, cuando presiones desiguales son aplicadas a la fibra después de su fabricación. Pérdidas por empalme Son pérdidas causadas por diferencias entre los núcleos o entre los ángulos de dos fibras conectadas. Pérdidas por acoplamiento. Es generada cuando la fibra óptica es conectada a una fuente de luz o a un receptor de luz, esta pérdida esta relacionada con la apertura numérica de la fibra óptica.
ANCHO DE BANDA Y DISPERSIÓN TEMPORAL
El ancho de banda de una fibra óptica se define como la menor frecuencia de modulación para la cual la potencia de la luz se reduce hasta una fracción especificada generalmente a –3dB entre los puntos ópticos (-6dB entre los puntos eléctricos), del valor para frecuencia cero. El ancho de banda da una medida de la capacidad de transmisión de la fibra óptica. El ancho de banda de una fibra óptica es limitada por los mecanismos de dispersión temporal que distorsionan la señal óptica transmitida. Estos mecanismos de dispersión se clasifican en dos tipos: •
Dispersión Intermodal.
•
Dispersión Intramodal o Cromática.
Dispersión Intermodal: Resulta de la diferencia en el tiempo de propagación entre los nodos que siguen trayectorias lumínicas diferentes en una fibra óptica Multimodo.
En las fibras monomodo no existe el problema de dispersión Intermodal y la limitación del ancho de banda se debe solamente a los mecanismos de dispersión Intramodal. Dispersión Intramodal o Cromática: Resulta de las diferencias en el tiempo de propagación de los diferentes componentes espectrales de la señal transmitida. Estas pueden ser causadas por las propiedades dispersivas del material de la fibra (Dispersión material), o por los efectos de guía de la estructura de la fibra (Dispersión de guía de onda). La dispersión material es originada por la dependencia del índice de refracción del núcleo con la longitud de onda óptica. La dispersión de guía de onda es producto de las imperfecciones estructurales de la fibra óptica.
DISPOSITIVOS ÓPTICOS ACTIVOS
Tenemos: Fuentes Ópticas Detectores Ópticos.
FUENTES ÓPTICAS Las fuentes ópticas son componentes activos en un sistema de comunicaciones por fibra óptica, cuya función es convertir la energía eléctrica en energía óptica, de manera eficiente de modo que permita que la salida de luz sea efectivamente inyectada o acoplada dentro de la fibra óptica. Los requerimientos principales para una fuente óptica son: Dimensiones compatibles con el de la fibra. Linealidad en la característica de conversión electro – óptica. Características de emisión compatible con las características de transmisión de la fibra óptica. Coherencia. Gran capacidad de modulación. Suficiente potencia óptica de salida y eficiencia de acoplamiento. Funcionamiento estable con la temperatura. Confiabilidad. (Tiempo de vida útil). Bajo consumo de energía. Economía.
Los tipos de fuentes ópticas son: LED (Light Emitting Diode). LASER (Light Amplification by Stimulated Emission of Radiation)
DETECTORES ÓPTICOS. El detector es un componente esencial en un sistema de comunicaciones por fibra óptica y es uno de los elementos decisivos el cual determinará el funcionamiento del sistema total. Su función es convertir la señal óptica recibida en una señal eléctrica, el cual es luego amplificada antes de su procesamiento adicional. Cuando consideramos la atenuación de la señal a lo largo del alcance, el desempeño del sistema es determinado en el detector. Un mejoramiento en las características y en el funcionamiento del detector permitirá la instalación de pocas estaciones repetidoras y menores costos de instalación y mantenimiento. Los requerimientos para los detectores ópticos son los siguientes: Alta sensitividad en las longitudes de onda de operación. Alta fidelidad. Alta respuesta eléctrica a la señal óptica recibida. Reducido tiempo de respuesta (Amplio ancho de banda). Mínimo ruido. Estabilidad en las características de funcionamiento. Pequeñas dimensiones. Bajo voltaje de operación. Alta confiabilidad (Tiempo de vida). Bajo costo. Los tipos de detectores ópticos son: Fotodiodo PIN. Fotodiodo de avalancha APD.
TÉCNICAS DE TRANSMISIÓN ÓPTICA
Técnicas de Modulación y de detección óptica: Para transmitir información a través de un sistema por fibra óptica es necesario modular una propiedad de la portadora óptica con al señal de información. Esta propiedad puede ser la intensidad, la fase, frecuencia o polarización. La modulación por intensidad se consigue variando simplemente la corriente de excitación de la fuente óptica, en torno a un nivel de polarización, mediante la señal eléctrica de entrada. El detector óptico convertirá directamente la potencia óptica recibida en corriente eléctrica. Técnicas de Multiplexación: Para optimizar la transferencia de información sobre un enlace de comunicaciones por fibra óptica es usual multiplexar varias señales sobre una fibra simple. Es posible transmitir estas señales multicanales multilplexándolas en el dominio del tiempo (TDM), o de la frecuencia, como en un sistema de comunicaciones convencional, antes de la modulación de intensidad por fibra óptica. Por lo tanto, los esquemas de modulación digital pueden ser extendidos a la operación multicanal por la
Multiplexación por división en el tiempo (TDM). Alternativamente un
número de canales de banda base pueden ser combinados por la Multiplexación por División de Frecuencias (FDM).
TRANSMISORES LÁSERES SEMICONDUCTORES Los emisores de luz para comunicaciones ópticas que existen son de dos tipos: Emisores de luz no coherente: los diodos de luz (LED). Emisores de luz coherente: los láseres, y en concreto, los láseres semiconductores. En algunas aplicaciones se podrían usar indistintamente cualquiera de las dos fuentes, pero para situaciones con requisitos más exigentes, únicamente, los láseres dan una señal luminosa adecuada. Éstos emiten luz coherente, de gran intensidad y monocromática ( el ancho de banda es muy estrecho y facilita el acoplamiento a las fibras ópticas). Además son modulables hasta frecuencias de gigahercios. Para entender los fundamentos de la radiación láser antes es necesario conocer varios conceptos, como son: los procesos de absorción y emisión de radiación y la inversión de la población.
•
Absorción de la radiación: se produce cuando el electrón pasa del estado fundamental a un nivel energético más alto. Para poder pasar al estado excitado necesita absorber un fotón.
•
Emisión de la radicación: se produce cuando el electrón pasa del estado excitado al estado fundamental, desprende energía en forma de fotón, emite un fotón. Si el cambio de estado del electrón se produce de forma espontánea, sin que haya ninguna causa que lo propicie, entonces se produce luz normal y el fenómeno se conoce como emisión espontánea. Si el tránsito se produce por acción un fotón de igual energía que el electrón, estamos ante un proceso de emisión estimulada, donde el electrón al desprender energía lo hará en forma de otro fotón coherente con el primero (Einstein, 1917).
Proceso de emisión espontánea y emisión estimulada. Einstein mostró que la probabilidad de que el fotón sea absorbido por el átomo situado en el nivel inferior, equivale a la probabilidad de que dicho fotón provoque la emisión estimulada en el átomo situado en el nivel superior . ¿Cómo conseguir que la aumente? Fabrikant, razonó que todo depende la cantidad de átomos que hay en cada nivel. Si es mayor la cantidad de átomos en el nivel inferior, con mayor frecuencia sucederá la absorción de fotones y el rayo de luz se debilitará. Pero si es mayor la cantidad de átomos excitados, entonces más a menudo transcurrirá la emisión estimulada y el rayo de luz se intensificará. Por lo tanto, para que el haz se intensifique es necesario crear una situación de inversión de la población. La inversión de población: consiste en tener más átomos excitados que átomos en el estado fundamental. 2. Ganancia óptica La ganancia óptica es una propiedad que adquieren los materiales semiconductores cuando en ellos se consigue la situación de inversión de la población, que permite que se produzca el fenómeno de emisión estimulada, y que éste predomine frente al de emisión espontánea.
Para que un material tenga ganancia óptica la densidad de portadores inyectados en la zona activa ha de superar un valor determinado conocido como valor de transparencia (n 0). Esto se consigue, por ejemplo, inyectando electrones a una unión pn polarizada en directa. La ganancia del material, siendo sus unidades de inverso de longitud (normalmente cm-1) que se obtiene a partir de la siguiente ecuación:
donde vg = c/ng representa la velocidad de grupo en el material que compone la zona activa, y Rstim(w), Rabs(w) son las tasas de emisión estimulada y absorción en el material de la zona activa. En general, el cálculo de g(w) ha de realizarse de forma numérica, obteniéndose curvas que muestran su valor, en función de la energía de la radicación expresada en eV para diferentes valores de la densidad de portadores inyectados. Un ejemplo de este tipo de curva es la siguiente figura.
Espectros del coeficiente de ganancia tomando la densidad de portadores en la zona activa como parámetro. Para densidades inferiores a no (valor de transparencia, alrededor de 1·10 18 cm-3 en el caso de las curvas de la figura ), la ganancia óptica es siempre negativa (por debajo de cero), y por tanto, no se consigue emisión estimulada. Por el contrario, si la densidad de portadores inyectados es superior al valor de transparencia existen longitudes de onda para las que se produce emisión estimulada. Cuanto mayor es el valor de la densidad de portadores inyectados, mayor es la zona del espectro para la que se obtiene amplificación óptica. También puede observarse que el máximo valor de la ganancia se desplaza hacia longitudes de onda más cortas ( mayores valores
de energía) al incrementarse la densidad de portadores inyectados. Para un valor fijo de longitud de onda ( o de energía) las curvas anteriores muestran que a partir de un determinado valor de la densidad de portadores inyectados, la ganancia varía linealmente con n. De hecho es posible aproximar dicha relación a través de la expresión:
Donde σg es la denominada sección cruzada de ganancia o coeficiente de ganancia, siendo sus unidades de área y normalmente expresadas en cm2. De estas curvas puede deducirse que cuanto mayor es el dopaje del semiconductor, crece la ganancia óptica, porque aumenta la densidad de portadores. Y viceversa, cuanto menos impurezas inyectamos en el semiconductor, disminuye la cantidad de portadores y por tanto, la ganancia óptica disminuye. Con esto y la forma de las curva, se concluye que lo que interesa es trabajar en las zonas de los picos, donde se consigue una mayor ganancia con menos dopaje del semiconductor. 3. Realimentación y efecto umbral Para explicar el funcionamiento de la cavidad resonante en un láser semiconductor, se utiliza el modelo de láser más simple: la cavidad Fabry-Perot. En la figura se puede ver el esquema fundamental.
Cavidad Fabry-Perot. La cavidad Fabry-Perot se forma al introducir la heteroestructura entre dos espejos formados al cortar de forma recta y limpia el material a lo largo de los planos de corte de semiconductor. La reflexión se produce por la discontinuidad entre el medio semiconductor y el aire. La reflectividad de potencia de dicho espejo se puede calcular aplicando las fórmulas de Fresnel para incidencia normal.
donde n ext representa el índice de refracción del medio exterior, que en la mayoría de los casos será aire ( n
ext
≈ 1). En general, el índice de refracción de los materiales semiconductores
empleados ronda el valor n
ext
≈ 3.5, por lo que R ≈ 0.3, suficiente para la mayoría de las
aplicaciones.
Configuración geométrica de un láser de heteroestructura, mostrando sus dimensiones longitudinal, transversal y lateral. Como puede apreciarse en la figura anterior, la dirección en la que se forma la cavidad es paralela al plano de la unión pn y está físicamente localizada en la zona activa del semiconductor. Por otra parte, la inversión de población necesaria en la zona activa se consigue inyectando electrones a la zona activa en dirección perpendicular al plano de la unión pn. Las dimensiones típicas de la zona activa son, en cuanto a longitud de 100 a 500 µm, en anchura de 5 a 15 µm y en grosor de 0.1 a 0.5 µm. Por lo tanto, a todos los efectos, puede considerarse una guía de onda dieléctrica plana. En concreto, dentro de la estructura existen tres tipos de modos: 1.
Modos laterales, que son ondas estacionarias formadas en la coordenada y de la zona activa, determinan la forma y el perfil del campo eléctrico en dicha dirección.
2.
Modos transversales, que son ondas estacionarias formadas en la coordenada x de la zona activa, determinan la forma y el perfil del campo eléctrico en dicha dirección.
3.
Modos longitudinales, son ondas estacionarias formadas en la coordenada z de la zona activa y determinan el espectro de frecuencias emitido por el láser.
De los tres modos, la combinación de 1 y 2 resultan en los perfiles modales espaciales del campo, similares a los modos LP de una fibra óptica, mientras que los terceros, determinan las frecuencias propias de la cavidad que se emitirán en forma de radiación al exterior de ésta.
En la estructura de la cavidad Fabry-Perot, formada por dos espejos reflectantes separados una distancia L, el material comprendido entre ambos espejos es el medio amplificador y posee una constante de propagación dada por γ = (αc-g)/2+jβ, donde g es la ganancia óptica del medio, αc las pérdidas por absorción y scattering en el material y β la constante de fase. Una onda óptica incidente (linealmente polarizada, por ejemplo en dirección y) de amplitud de campo dada por Eiy sufre sucesivas reflexiones en los espejos que forman la cavidad, de forma que la onda a la salida de la estructura está formada por la interferencia múltiple de aquellas que van saliendo de la cavidad después de cada tránsito como se muestra en la siguiente figura.
Esquema y evolución de la señal en la zona activa de una láser Fabry-Perot. El campo eléctrico a la salida de la cavidad Fabry-Perot viene dado por:
Las condiciones de oscilación del láser Fabry-Perot se consiguen al forzar el que haya salida en ausencia de señal de entrada a la cavidad, es decir, anulando el denominador de la expresión anterior, con lo que se consigue:
Esta ecuación es compleja y puede desglosarse en una parte real y otra imaginaria: La parte real da la condición de ganancia umbral requerida para conseguir radiación láser:
La ganancia umbral es igual a la suma de las pérdidas de la cavidad: la intrínsecas del material de la cavidad αc y las pérdidas en los espejos. La parte imaginaria da la condición de fase:
A partir de la condición de fase pueden obtenerse las frecuencias propias de la cavidad FabryPerot o modos longitudinales, ya que β depende de la frecuencia a través de la expresión β= 2νπn´/c. Así pues las posibles frecuencias de oscilación de la cavidad vienen dadas por:
Por lo tanto, las posibles frecuencias son infinitas, y están separadas entre sí una cantidad constante:
donde τL el tiempo de tránsito correspondiente a una vuelta completa a la cavidad, y vale aproximadamente 10 psg. Aunque se ha dicho que las posibles frecuencias son infinitas, no todas cumplen la condición de amplitud, por lo que el láser sólo emitirá un conjunto limitado de éstas. Esto se explica gráficamente en la figura 6, donde se representan en el espectro las frecuencias propias de la cavidad Fabry-Perot junto con la curva de ganancia del material y las pérdidas. Sólo aquellas frecuencias para las que g≥gth, o sea, en las que su ganancia óptica sea mayor a la ganancia umbral, serán emitidas por el láser.
Espectro de emisión de un láser Fabry-Perot a partir del producto de la curva espectral de ganancia que compone su medio activo y del espectro periódico de la cavidad Fabry-Perot. 4. Funcionamiento de láser Para el análisis del funcionamiento del láser hay que partir de la ecuaciones de emisión (en este caso, particularizadas para el caso de láseres monomodo), que son la solución a las ecuaciones de Maxwell para el caso del láser.
donde P y N representan la cantidad o número de fotones y portadores en la cavidad respectivamente, τp es el tiempo de vida de los fotones , τn el tiempo de recombinación de los portadores, Resp es la tasa de emisión espontánea y G es la tasa de emisión estimulada o ganancia óptica de la cavidad. La definición o el valor de cada uno de los parámetros que determinan el funcionamiento del láser es: La cantidad de fotones viene dada en función del campo eléctrico:
donde ε0 es la permitividad del medio material, µ es el índice del modo, µg es índice de los portadores inducidos y ħw es la energía de un fotón. El número de portadores en la zona activa se define como:
donde n es la densidad de portadores y es prácticamente constante, V=Lwd es el volumen de la cavidad siendo L la longitud, w el ancho y d el grosor de la misma. La ganancia óptica se halla a partir de :
donde Γ es el factor de confinamiento, vg es la velocidad de grupo definida como vg= c/µg y g es una ganancia de la cavidad cuyo valor es: g = σg ·( n - n0 ) , donde σg es el coeficiente de ganancia diferencial, n0 la densidad de portadores requerida para alcanzar el nivel de transparencia y n la densidad de portadores. Como no se va a trabajar con densidad de portadores por unidad de volumen, sino con numero de portadores, se desarrolla un poco esta definición para llegar a otra expresión que convenga mejor: G = GN ·(N-N0) El tiempo de vida de los fotones:
donde αe son las pérdidas en los espejos, αint otras pérdidas intrínseca de la cavidad. El tiempo que tardan en recombinarse los portadores es:
La tasa de emisión espontánea, viene dada por:
donde todo lo contenido dentro del corchete se conoce como factor de inversión de la población y Ef es la energía de separación entre los niveles de Fermi. Por lo tanto la ecuación de emisión de la fase, se tiene el sistema de ecuaciones de emisión de láseres monomodo completo [1].
[1]
MICROONDAS Se denomina así la porción del espectro electromagnético que cubre las frecuencias entre aproximadamente 3 GHz y 300 GHz (1 GHz = 10 9 Hz), que corresponde a la longitud de onda en vacío entre 10 mm y 1mm. La propiedad fundamental que caracteriza a este rango de frecuencia es que el rango de ondas correspondientes es comparable con la dimensión física de los sistemas de laboratorio; debido a esta peculiaridad, las micras. Exigen un tratamiento particular que no es extrapolable de ninguno de los métodos de trabajo utilizados en los márgenes de frecuencias con que limita. Estos dos límites lo constituyen la radiofrecuencia y el infrarrojo lejano. En radiofrecuencia son útiles los conceptos de circuitos con parámetros localizados, debido a que, en general, las longitudes de onda son mucho mayores que las longitudes de los dispositivos, pudiendo así, hablarse de autoinducciones, capacidades, resistencias, etc., debido que no es preciso tener en cuenta la propagación efectiva de la onda en dicho elemento; por el contrario, en las frecuencias superiores a las de microondas son aplicables los métodos de tipo óptico, debido a que las longitudes de onda comienzan a ser despreciables frente a las dimensiones de los dispositivos. El método de análisis más general y ampliamente utilizado en microondas consiste en la utilización del campo electromagnético caracterizado por los vectores (E, B, D y H en presencia de medios materiales), teniendo en cuenta las ecuaciones de Maxwell, que rigen su comportamiento y las condiciones de contorno metálicos son muy frecuentes a estas frecuencias, cabe destacar que, por ejemplo, el campo E es normal y el campo H es tangencial en las proximidades externas de un conductor.
No obstante, en las márgenes externas de las microondas se utilizan frecuentemente los métodos de análisis correspondientes al rango contiguo del espectro; así, a frecuencias elevadas de las microondas son útiles los conceptos de rayo, lente, etc., ampliamente utilizados en óptica, sobre todo cuando la propagación es transversal electromagnética, (TEM, E y B perpendiculares entre sí y a la dirección de propagación) en el espacio libre. Por otro lado, a frecuencias baja las microondas son colindantes con las radiofrecuencias, y es útil la teoría de circuitos con parámetros distribuidos, en la que toma en cuenta la propagación efectiva que va a tener la onda en un elemento cualquiera. Así, un trozo de cable metálico, que en baja frecuencia representa simplemente un corto circuito que sirve para efectuar una conexión entre elementos, dejando equipotenciales los puntos que une, a alta frecuencia un sistema cuya frecuencia, por efecto peculiar, puede no ser despreciable y cuya autoinducción puede causar una impedancia que sea preciso tomar en cuenta. Entonces es preciso representar este cable a través de su impedancia (resistencia y autoinducción) por unidad de longitud. También en la parte de instrumentación experimental, generación y transmisión de microondas, estas tienen peculiaridades propias que obligan a utilizar con características diferentes a los de los rangos de frecuencias vecinos. Respecto a limitaciones que impiden su funcionamiento a frecuencias de microondas. Las líneas de baja frecuencia son usualmente abiertas, con lo cual, si se intenta utilizar a frecuencias elevadas, automáticamente surgen problemas de radiación de la energía electromagnética; para superar este inconveniente es necesario confirmar los campos electromagnéticos, lo que normalmente se efectúa por medio de contornos metálicos; así, los sistemas de transmisión usuales de microondas son, o bien líneas coaxiales, o bien, en general, guías de onda continuadas por conductores abiertos o tuberías. En este sentido es ilustrativo ver la evolución de un circuito resonante LC paralelo de baja frecuencia hacia una cavidad resonante, que es circuito equivalente en microondas. Como a alta frecuencia las inductancias y capacidades (electrostática, inducción electromagnética), cobran gran importancia, por pequeñas que sean, un circuito resonante para frecuencias relativamente altas puede ser sencillamente dos placas paralelas y una espira uniendo ambas placas; es para reducir aún más la inductancia se ponen varias espiras en paralelo, se llega a obtener una región completamente cerrada por paredes conductoras. SATÉLITES DEFINICIÓN DE SATÉLITE Se define como un cuerpo que gira alrededor de un planeta y describe una trayectoria elíptica, denominada orbita. Los satélites utilizados para la telecomunicación orbitan la Tierra a diferentes alturas dependiendo de su aplicación.
HISTORIA DE LOS SATÉLITES DE TELECOMUNICACIONES El hombre desde los albores de la humanidad siempre ha mirado el cielo con una mezcla de admiración y temor. El firmamento que lo rodeaba era la morada de dioses y espíritus superiores los cuales imaginaban a inmensa altura y le recordaban lo pequeña y lo mísera que era su existencia en comparación con la de aquellos. Hoy en día el cielo está habitado, no con los productos del alma humana como en la antigüedad , sino físicamente por máquinas que impasibles y desde la enorme ventaja que les reporta la altitud en la que se mueven intentan con su funcionamiento hacer nuestra vida lo mas llevadera posible. Los satélites artificiales inician su singladura en 1957 con el lanzamiento del Sputnik. En la actualidad la variedad de satélites artificiales que rodean la tierra es sorprendente. De toda esta amplia gama de dispositivos presentes nosotros nos vamos a centrar en el desarrollo de los satélites de telecomunicaciones asomándonos también a los satélites tipo GPS y los futuros PCS (Satélites de comunicación personal). BANDAS DE FRECUENCIAS UTILIZADAS POR LOS SATELITES Banda P Banda L Banda S Banda C
200-400 Mhz. 1530-2700 Mhz. 2700-3500 Mhz. 3700-4200 Mhz. 4400-4700 Mhz.
Banda X Banda Ku1 (Banda PSS) Banda Ku2 (Banda DBS) Banda Ku3 (Banda Telecom) Banda Ka Banda K 1Mhz.=1000.000Hz. 1 Ghz.= 1000.000.000 Hz.
5725-6425 Mhz. 7900-8400 Mhz. 10.7-11.75 Ghz. 11.75-12.5 Ghz. 12.5-12.75 Ghz. 17.7-21.2 Ghz. 27.5-31.0 Ghz.
La idea de los satélites de Telecomunicaciones apareció poco después de la II Guerra Mundial. En 1945 en el número de octubre de la revista Wireless World apareció un artículo titulado "Relés extraterrestres" cuyo autor era un oficial de radar de la RAF llamado Arthur C. Clarke. Clarke que mas tarde sería conocido principalmente por sus libros de ciencia ficción y de divulgación proponía en su artículo la colocación en órbita de tres repetidores separados entre si 120 grados a 36000 km. sobre la superficie de la tierra en una órbita situada en un plano coincidente con el que pasa por el ecuador terrestre. Este sistema podría abastecer de comunicaciones Radio y Televisión a todo el globo. Si bien Clarke fue el primero que expuso la idea del empleo de la órbita geoestacionaria para las comunicaciones esta ya rondaba por la cabeza de muchos otros. Al poco tiempo de terminar la guerra no existían medios para colocar satélites en órbita terrestre baja ni mucho menos geoestacionaria, los primeros experimentos de utilización del espacio para propagación de radiocomunicaciones lo realizó el ejercito americano en 1951 y en 1955 utilizando nuestro satélite natural, la luna, como reflector pasivo. El primer satélite espacial el Sputnik 1 llevaba a bordo un radiofaro el cual emitía una señal en las frecuencias de 20 y 40 Mhz. esta señal podía ser recibida por simples receptores y así lo hicieron muchos radioaficionados a lo largo del mundo realizándose la primera prueba de transmisión y recepción de señales desde el espacio. La primera voz humana retransmitida desde el espacio fue la del presidente norteamericano Dwight D. Eisenhower, cuando en 1958 en el contexto del proyecto SCORE se puso en órbita un misil ICBM Atlas liberado de su cohete acelerador con un mensaje de Navidad grabado por
el dirigente, quien opinaba que el espacio tenía poca utilidad práctica. La grabadora podía también almacenar mensajes para retransmitirlos más tarde, lo que dio origen a los llamados satélites de retransmisión diferida. Un Satélite posterior de este tipo fue el Courier 1B, lanzado el 4 de Octubre de 1960. Este satélite militar podía almacenar y retransmitir hasta 68.000 palabras por minuto, y empleaba células solares en lugar de los acumuladores limitados del SCORE. El primer satélite de comunicaciones verdadero, el Telstar 1, fue lanzado a una órbita terrestre baja, de 952 x 5632 km. Era también el primer satélite de financiación comercial, a cargo de la American Telephone and Telegraph. El Telstar 1 se lanzó el 10 de julio de 1962, y le siguió casi un año después el Telstar 2. Las estaciones terrestres estaban situadas en Andover, Maine (Estados Unidos), Goonhilly Downs (Reino Unido) y Pleumeur-Bodou (Francia). La primera retransmisión mostraba la bandera norteamericana ondeando en la brisa de Nueva Inglaterra, con la estación de Andover al fondo. Esta imagen se retransmitió a Gran Bretaña, Francia y a una estación norteamericana de New Jersey, casi quince horas después del lanzamiento. Dos semanas más tarde millones de europeos y americanos seguían por televisión una conversación entre interlocutores de ambos lados del Atlántico. No sólo podían conversar, sino también verse en directo vía satélite. Muchos historiadores fechan el nacimiento de la aldea mundial ese día.
Después del Telstar 1 siguieron el Relay 1, otro satélite de órbita baja, lanzado el 13 de diciembre de 1962, y el Relay 2, el 21 de enero de 1964. Se trataba de vehículos espaciales experimentales, como el Telstar, diseñados para descubrir las limitaciones de actuación de los satélites.
Como tales, constituían solo el preludio de acontecimientos mas importantes. El 26 de julio de 1963 el Syncom 2 se colocó en órbita sincrónica sobre el Atlántico. El Syncom 1 se había situado en el mismo lugar en febrero, pero su equipo de radio falló. La órbita del Syncom 2 tenía una inclinación de 28º, por lo que parecía describir un ocho sobre la tierra. Sin embargo se utilizó el 13 de septiembre, con el Relay 1, para enlazar Rió de Janeiro (Brasil), Lagos (Nigeria) y New Jersey en una breve conversación entre tres continentes. El Syncom 3 se situó directamente sobre el ecuador, cerca de la línea de cambio de fecha, el 19 de agosto de 1964, y se retransmitieron en directo las ceremonias de apertura de los juegos olímpicos en Japón. "En directo vía satélite": el mundo se sobrecogió al conocer las posibilidades de los satélites de comunicaciones. El primer satélite lanzado por esta espacialísima empresa fue el Intelsat 1, más conocido como Early Bird. El 28 de junio de 1965 entró en servicio regular, con 240 circuitos telefónicos. Era un cilindro de 0´72 metros de anchura por 0´59 metros de altura, y su peso era tan solo de 39 kg. Las células solares que lo envolvían suministraban 40 W. de energía, y para simplificar el diseño de sistemas estaba estabilizado por rotación, como una peonza. El Early Bird estaba diseñado para funcionar durante dieciocho meses, pero permaneció en servicio durante cuatro años. El Intelsat no es el único sistema de satélites de comunicaciones en funcionamiento. A medida que avanzaba la tecnología y descendían los precios, la conveniencia de los satélites de comunicaciones dedicados crecía. Resultaba atractivo, desde el punto de vista comercial, construir los satélites según las necesidades de los distintos estados, firmas, compañías de navegación y otras organizaciones con un gran volumen de tráfico de comunicaciones entre puntos separados por varios centenares de kilómetros. El primer país que contó con un sistema interior fue Canadá que lanzó el Anik 1 (mediante un cohete norteamericano) en noviembre de 1972. Objetivos del Sistema de satélites Hispasat son los siguientes: •
Teledifusión directa.
•
Capacidad para soportar el transporte de señales de televisión, radio y otras asociadas, de acuerdo con las necesidades nacionales actuales y previstas.
•
Soporte de comunicaciones especiales para la defensa nacional.
•
Canales para redes oficiales.
•
Canales para redes especializadas de datos, enlaces de banda ancha, servicios alternativos ante fallo en cables submarinos, telefonía rural, aplicaciones punto a punto y similares.
•
Soporte para programas de televisión destinados a la América de habla hispana.
SISTEMA SATÉLITE MULTIMISIÓN HISPASAT Está formado por dos unidades de vuelo (HISPASAT 1A y HISPASAT 1B) con una tercera unidad en proyecto en la actualidad. Un Centro de Control del Satélite y dos Centros de Control de la Carga Útil. La posición nominal de los dos satélites es 30º Oeste correspondiente a la asignación española para el Servicio de Radiodifusión Directa. Las características de la plataforma proporcionan a cada uno de los satélites una vida útil en torno a los 10 años. Esta plataforma garantiza el mantenimiento de la posición orbital con gran precisión (0.05º); y ofrece una potencia total superior a los 3.5 kw. la masa total de cada satélite es del orden de los 2150 kg. Esta plataforma sirve de soporte a la Carga Útil (antenas y repetidores) que determina la utilización del sistema.
Las misiones que cumple el satélite son las siguientes: •
Radiodifusión directa. Esta misión permite la utilización de 5 canales de televisión y portadoras de sonido asociadas en canales de 27 Mhz. Estos cinco canales son los asignados a España en la Conferencia CAMR-77 en la banda Ku 12.1-12.5 Ghz.
•
Servicio Fijo. La misión del Servicio Fijo esta diseñada para ofrecer los 16 transponedores de diversos anchos de banda (8 de 36 Mhz. 2 de 46 Mhz. 2 de 54 Mhz. y 4 de 72 Mhz.) en la banda de servicio fijo (14 Ghz./11-12 Ghz.).
•
Misión América. La misión América consiste en dos submisiones: La primera TV América consiste en dos canales (uno en cada satélite) que permiten el enlace ascendente desde cualquier zona del area de cobertura del servicio fijo.
El descenso de esta señal cubre una amplia zona de América que se extiende desde Nueva York a Buenos Aires. La submisión Retorno América consiste en dos canales de retorno desde América de 54 Mhz.y 72 Mhz. que permiten realizar el enlace ascendente en el área de cobertura americana y utilizan como enlace descendente dos de los canales del servicio fijo de este satélite. •
Misión Gubernamental. La misión gubernamental la forma dos transpondedores que utilizando la banda X (7-8 Ghz.) permiten el desarrollo de una serie de redes de comunicación estratégicas y tácticas dentro del area de cobertura que ofrecen las antenas de esta misión.
La red nacional más extensa de satélites fue desarrollada por la Unión Soviética a partir de abril de 1965, con una serie de satélites Molniya (relámpago) situados en órbita muy elíptica con el cenit sobre el hemisferio norte. De este modo, diversos centros del extenso territorio de la URSS quedaron unidos por programas de televisión en blanco y negro, teléfono y telégrafo. La órbita de 12 horas colocaba al satélite encima de la Unión Soviética durante los periodos fundamentales de comunicaciones, lo que suponía para las estaciones de tierra un blanco con un movimiento aparente muy lento. Cada una de las dos primeras series (Molniya 1 y 2) comprende cuatro pares de cada tipo de satélite, colocados a intervalos de 90º alrededor de la
órbita. La serie Molniya 3 es más completa, pues incorpora televisión en color además de telecomunicaciones. En combinación con los satélites trabajan las estaciones terrestres Órbita o de "toldilla", cada una de las cuales emplea una antena parabólica de bajo ruido y 12 metros de diámetro sobre un soporte giratorio. La antena se orienta hacia el satélite por medio de un mecanismo eléctrico de seguimiento.. Los satélites Molniya tuvieron un impacto social, político y económico considerable en el desarrollo del estado soviético (a menudo, con culturas y costumbres diferentes) en contacto mas estrecho con Moscú, y al establecer conexiones, a través de la Organización Intersputnik, con otros países socialistas, desde Europa Oriental a Mongolia. La red de largo alcance se perfecciona todavía más en la actualidad. En diciembre de 1975, a la familia de satélites de comunicaciones soviético se añadió el Raduga, cuya designación internacional es Statsionar 1. Su misión es la misma que en la serie Molniya, si bien describe una órbita geoestacionaria. Hoy en día, las comunicaciones vía satélite permiten monitorización de parámetros relacionados con el medio ambiente, facilitando las labores de prevención, detección, supresión y, en el peor de los casos, valoración de posibles daños del entorno medioambiental. En la línea de productos en banda ancha, la estaciones VSAT (Very Small Aperture Terminals) permiten desde hace tiempo la monitorización remota vía satélite en tiempo real de variables y propiedades físicas y químicas relacionadas con todas las disciplinas que se nos pueda imaginar, desde la calidad de las aguas en ríos, lagos y presas, pasando por caudales, temperaturas, niveles, hasta aplicaciones en el control de desplazamientos de tierras o medidas sísmicas, control de regadíos, etc.
SATÉLITES ORBITALES Los satélites no síncronos o también llamados orbitales, giran alrededor de la Tierra en un patrón elíptico o circular de baja altitud. Si el satélite esta girando en la misma dirección que la rotación de la Tierra y a una velocidad angula superior que la de la Tierra, la órbita se llama órbita prógrado. Si el satélite esta girando en la dirección opuesta a la rotación de la Tierra, o en la misma dirección, pero a una velocidad angular menor a la de la Tierra, la órbita se llama órbita retrograda. De esta manera, los satélites no síncronos esta alejándose continuamente o cayendo a tierra y no permanecen estacionarios en relación a ningún punto en particular de la Tierra. Por lo tanto los satélites no síncronos se tiene que usar cuando están disponibles, lo cual puede ser un corto periodo de tiempo, como 15 minutos por órbita.
Otra desventaja de los satélites orbitales es la necesidad de equipo complicado y costoso para rastreo en las estaciones terrestres. Cada estación terrestre debe localizar el satélite conforme esta disponible en cada órbita y después unir sus antenas al satélite y localizarlo cuando pasa por arriba. Una gran ventaja de los satélites orbitales es que los motores de propulsión no se requieren a bordo de los satélites para mantenerlos en sus órbitas respectivas. Otros parámetros característicos de los satélites orbitales, son el apogeo y perigeo. El apogeo es la distancia más lejana, de la Tierra, que un satélite orbital alcanza, el perigeo es la distancia mínima; la línea colateral, es la línea que une al perigeo con el apogeo, en el centro de la Tierra. SATÉLITES GEOESTACIONARIOS Los satélites geoestacionarios o geosíncronos son satélites que giran en un patrón circular, con una velocidad angular igual a la de la Tierra. Por lo tanto permanecen en una posición fija con respecto a un punto específico en la Tierra. Una ventaja obvia es que están disponibles para todas las estaciones de la Tierra, dentro de su sombra, el 100% de las veces. La sombra de un satélite incluye a todas las estaciones de la Tierra que tienen un camino visible a el y están dentro del patrón de radiación de las antenas del satélite. Una desventaja obvia es que a bordo, requieren de dispositivos de propulsión sofisticados y pesados para mantenerlos fijos en una órbita. El tiempo de órbita de un satélite geoesíncrono es de 24 h, igual que la Tierra. TIPOS DE SATELITES. a) Por su órbita: La visibilidad de un satélite depende de su órbita, y la órbita más simple para considerar es redonda. Una órbita redonda puede caracterizarse declarando la altitud orbital (la altura de la nave espacial sobre la superficie de la Tierra) y la inclinación orbital (el ángulo del avión orbital del satélite al avión ecuatorial de la Tierra). Cuando un satélite se lanza, se pone en la órbita alrededor de la tierra. La gravedad de la tierra sostiene el satélite en un cierto camino, y ese camino se llama una " órbita”. Hay varios tipos de órbitas, aquí son tres de ellos. o
Satélites de órbita geoestacionaria
o
Satélites de órbita baja (LEO)
o
Satélites de órbita elíptica excéntrica (Molniya)
Satélites Geoestacionarios (GEO) En una órbita circular ecuatorial de altitud 35.786 Km. Centenares de satélites de comunicaciones están situados a 36.000 Km. de altura y describen órbitas circulares sobre la línea ecuatorial. A esta distancia el satélite da una vuelta a la Tierra cada 24 horas permaneciendo estático para un observador situado sobre la superficie terrestre. Por tal razón son llamados geoestacionarios. Satélites de Orbita Media (MEO) Altitud de 9.000 a 14.500 Km. De 10 a 15 satélites son necesarios para abarcar toda la Tierra. Satélites de Orbita Baja (LEO) Altitud de 725 a 1.450 Km. Son necesarios más de unos 40 satélites para la cobertura total. Los satélites proyectan haces sobre la superficie terrestre que pueden llegar a tener diámetros desde 600 hasta 58.000 Km. Como se observa en la figura, los haces satelitales son divididos en celdas, cuyas frecuencias pueden ser reutilizadas en diferentes celdas no adyacentes, según un patrón conforme al Seamless handover. b) Por su finalidad: o
Satélites de Telecomunicaciones (Radio y Televisión)
o
Satélites Meteorológicos
o
Satélites de Navegación
o
Satélites Militares y espías
o
Satélites de Observación de la tierra
o
Satélites Científicos y de propósitos experimentales
Un gran ejemplo de satélite podría ser el IRIDIUM que es ocupado principalmente para el uso en la telefonía celular. Características: Iridium consta de 66 satélites LEO los cuales se encuentran a una altitud de 725-1450 Km., cada satélite pesa aproximadamente 700 Kg. su periodo de vida activa es de 5 a 8 años y su margen de enlace es de 16 dB.
Satélites Geoestacionarios (GEO) En una órbita circular ecuatorial de altitud 35.786 Km. Centenares de satélites de comunicaciones están situados a 36.000 Km de altura y describen órbitas circulares sobre la línea ecuatorial. A esta distancia el satélite da una vuelta a la Tierra cada 24 horas permaneciendo estático para un observador situado sobre la superficie terrestre. Por tal razón son llamados geoestacionarios.
•
Satélites geoestacionarios (GEO). Son los que se ubican en la órbita del mismo nombre, sobre la línea del Ecuador y a una altitud de 36 mil km. Son utilizados para la transmisión de datos, voz y video.
•
Satélites no geoestacionarios. Que a su vez se dividen en dos: o
Los Mediun Earth Orbit (MEO): ubicados en una órbita terrestre media a 10 mil km de altitud.
o
Los Low Earth Orbit (LEO): localizados en órbita más baja, entre 250 y 1500 km de altitud. Tanto los satélites MEO como los LEO, por su menor altitud, tienen una velocidad de rotación distinta a la terrestre y, por lo tanto, más rápida; se emplean para servicios de percepción remota, telefonía etc., por mencionar algunos de sus usos.
SATÉLITES DE COMUNICACIONES Se ubican en la intersección de la tecnología del espacio y la de las comunicaciones. Constituyen la aplicación espacial más rentable y, a la vez, más difundida en la actualidad. Las transmisiones en directo vía satélite ya son parte de nuestra cotidianeidad, por lo que no tienen ningún carácter especial. Para la difusión directa de servicios de televisión y radio, telefonía y comunicaciones móviles sólo son necesarios sencillos receptores y antenas parabólicas cada día más pequeñas.
SATÉLITES DE METEOROLOGÍA Estos satélites, aunque se puede afirmar que son científicos, son aparatos especializados que se dedican exclusivamente a la observación de la atmósfera en su conjunto. La comprensión de la física dinámica atmosférica, el comportamiento de las masas nubosas o el movimiento del aire frío o caliente resultan indispensables para realizar predicciones del clima, pues sus efectos impactan de manera irremediable las actividades de los seres humanos aquí en la Tierra. El primer satélite meteorológico fue el Tiros-1 (lanzado en abril de 1960); luego le siguieron los ESSA, ITOS, Nimbus, NOAA y Meteor, por mencionar algunos. A estos artefactos se debe el descubrimiento del agujero en la capa de ozono. Algunos de éstos se colocan en órbitas no geoestacionarias, como los que pasan sobre los polos de la Tierra y posibilitan una cobertura de toda la superficie de ella. Otros satélites meteorológicos de órbita geoestacionaria como el SMS, GOES y Meteosat pueden cubrir todo un hemisferio y permiten seguir el comportamiento de fenómenos como la temporada de huracanes, el avance de las grandes borrascas, los frentes fríos, el conocimiento de la temperatura de la atmósfera en cada nivel altimétrico, la presión, la distribución del vapor de agua y, con ello, el porqué de las sequías o los efectos de la contaminación, entre muchos otros fenómenos más.
Hoy en día, la Organización Meteorológica Mundial coordina la recolección, procesamiento y difusión de información y datos meteorológicos y oceanográficos provenientes de una constelación de satélites meteorológicos tanto geoestacionarios como de órbita polar, enlazados a 10 mil estaciones terrenas y mil estaciones de observación en altitud, además de otras fuentes de información meteorológica, provenientes de barcos, aeronaves, boyas y otros artefactos que trabajan de manera coordinada para transmitir diariamente a todo el mundo, en tiempo real, más de 15 millones de caracteres de datos y 2 mil mapas meteorológicos.
SATÉLITES DE NAVEGACIÓN Desarrollados originalmente con fines militares al marcar el rumbo de misiles, submarinos, bombarderos y tropas, ahora se usan como sistemas de posicionamiento global (GPS, por sus siglas en inglés) para identificar locaciones terrestres mediante la triangulación de tres satélites y una unidad receptora manual que puede señalar el lugar donde ésta se encuentra y obtener así con exactitud las coordenadas de su localización geográfica.
Los satélites actuales dedicados a esta tarea (Transit, Navstar GPS, Tsikada, Parus, Uragan, etc.) utilizan frecuencias bajas y medias que están abiertas al público, lo cual ha posibilitado la aparición de múltiples receptores comerciales. Una de las aplicaciones de estos satélites la realiza con éxito la navegación aérea, que está empezando a aprovecharla en los aterrizajes de las aeronaves, ello le supone una guía económica y muy segura para esas actividades.
En los sistemas GPS, tanto el satélite como el equipo receptor en Tierra emiten una señal con una determinada frecuencia, ambas sincronizadas gracias a los relojes atómicos que dichas unidades poseen, el receptor recibe la señal del satélite que se halla a gran altitud, la distancia entre ambos equipos hace que la señal proveniente del satélite llegue con una diferencia de fase con respecto a la señal emitida por el receptor. La medición de esta diferencia en las fases permite calcular la distancia que separa al equipo en Tierra del satélite. Utilizando tres satélites a la vez, podemos obtener las coordenadas de latitud, longitud y altitud del equipo receptor en Tierra. Usando un cuarto satélite es, incluso, posible conseguir datos sobre la velocidad con la que nos desplazamos y el nivel de precisión aumenta mucho. Otra faceta de los satélites de navegación se encuentra en la búsqueda y el rescate (COSPAS/SARSAT). En estos casos los receptores son vehículos dedicados a otras tareas, que además están equipados con receptores especiales. Cuando una embarcación se pierde en alta mar, puede enviar señales que el satélite recibirá y reenviará al puesto de rescate más próximo, incluyendo sus coordenadas aproximadas. SATÉLITES DE TELEDETECCIÓN Éstos observan el planeta mediante sensores multiespectrales, esto es que pueden censar diferentes frecuencias o "colores", lo que les permite localizar recursos naturales, vigilar las condiciones de salud de los cultivos, el grado de deforestación, el avance de la contaminación en los mares y un sinfín de características más. El aumento de la resolución (que permite ver con mayor claridad detalles más pequeños de la superficie) está llegando a extremos insospechados, a tal punto que las fotografías que obtienen pueden tener una clara aplicación militar. Para un mejor aprovechamiento de sus capacidades, los satélites de teledetección se suelen colocar en órbitas bajas y polares, a menudo sincronizadas con el Sol. Desde ellas, enfocan sus sensores, que son capaces de tomar imágenes en varias longitudes de onda o bandas espectrales. El satélite toma constantemente imágenes a su paso, engrosando los archivos que se pondrán a disposición del público y servirán como un acervo histórico de la evolución de la superficie terrestre. SATÉLITES MILITARES Son aquellos que apoyan las operaciones militares de ciertos países, bajo la premisa de su seguridad nacional. La magnitud de sus programas espaciales militares es tan grande y secreta que hasta hace poco sólo se podía valorar por el número de lanzamientos que suponía.
Uno de los aspectos fundamentales del equilibrio armamentista durante la Guerra Fría fue la posibilidad de una respuesta adecuada ante cualquier ataque enemigo. Para ello, era necesario conocer con la suficiente antelación el despegue de un misil desde cualquier punto del globo terráqueo. Entonces, se fabricaron los satélites de alerta inmediata, que detectan cualquier lanzamiento, tanto de cohetes comerciales como militares. En un principio, E.U. inició esta actividad utilizando grandes antenas terrenas, después lanzaron satélites del tipo Midas o DSP, los cuales poseen sensores infrarrojos que detectan el calor producido por los gases del escape de los motores de un misil. Dado que el tiempo de funcionamiento de los motores de uno de estos vehículos suele ser inferior a los 10 ó 15 minutos, la detección debe hacerse lo antes posible, dando tiempo a responder al ataque. Rusia, por su parte, usa los satélites Oko y Prognoz. Los océanos son un escenario en el que se han desarrollado espectaculares batallas navales y un lugar en el que patrullan barcos y submarinos de todas clases. Estos últimos pueden estar equipados con misiles nucleares y su movilidad y ocultación bajo el agua los hace muy peligrosos. Por eso, se han desarrollado satélites que tratan de localizarlos. Es el caso de los White Cloud americanos o los RORSAT/EORSAT soviéticos. Algunos satélites especiales -cuya identidad es protegida con mayor recelo- pueden realizar escuchas electrónicas (elint o inteligencia electrónica) que permiten captar conversaciones telefónicas o radiofónicas desde enormes distancias. Algunas de ellas podrían consistir en órdenes de ataque, las cuales hay que interceptar. Es tal el éxito de estos satélites que muchas de las transmisiones deben ser codificadas. Destacan aquí los programas Jumpseat, Chalet/Vortex, Orion, Magnum/Aquacade, Tselina, etcétera.
SISTEMA TELEFÓNICO INTRODUCCIÓN Cuando a finales del siglo XIX, Bell y Watson desarrollaron uno de los inventos más importantes en la historia del mundo, nunca imaginaron el alcance que la tecnología le daría al teléfono. Hoy en día los Laboratorios Bell son parte del crecimiento humano en la tecnología, desarrollando algunos de los inventos más importantes de la actualidad, como el transistor.
ANTECEDENTES HISTÓRICOS Los principios de la telefonía se remontan al año 1875 cuando Alexander Graham Bell invento el teléfono. En términos del volumen total de información que transporta, sin duda la telefonía sigue siendo el método más importante de las telecomunicaciones de larga distancia. La telefonía es la transmisión del sonido, particularmente la voz, hacia un lugar distante. La telefonía se logra mediante la conversión de las ondas de sonido de la voz del emisor de una onda eléctrica equivalente. Consideremos las características del sonido para entender como se lleva a cabo esta conversión. El sonido no es más que vibraciones del aire que nos rodea, causadas por bolsas de alta o baja presión de aire que han sido generadas por alguna forma de vibración mecánica. Por ejemplo un objeto golpeando a otro, o la vibración de las cuerdas bucales humanas durante la emisión de voz. Las ondas del sonido en el aire que nos rodea provocan que los objetos vecinos vibren en simpatía. El oído humano detecta el sonido mediante el uso de un diafragma muy sensitivo que vibra en sincronía con el sonido que lo impacta. El timbre de un sonido (que tan alto o bajo suena) depende de la frecuencia de vibración de sonido. En general, el sonido es una mezcla muy compleja de frecuencias, como se ilustra en la Figura 1b. La Figura 1a es un tono puro de una sola frecuencia. El rango de frecuencias típico audible para el ser humano es de 20-20,000 Hz. La música emplea un rango mas amplio de frecuencias. Sin embargo, para la voz inteligible solo se necesitan las frecuencias de 300 a 3,400 Hz. Si solo se recibe esta banda de frecuencias, la salida se degrada ligeramente pero es aun completamente comprensible y aceptable para la mayoría de los escuchas.
Figura 1.- a) Forma de onda de un tono puro (una frec.), b) Forma de onda típica de voz.
La Figura 2 ilustra un circuito telefónico simple, capaz de realizar conversión de la onda del sonido a una onda eléctrica. Consiste de un micrófono, una batería, una línea telefónica y un audífono.
Figura 2.- Circuito telefónico simple. Cuando no se habla sobre el micrófono, tanto el micrófono como el audífono, tienen una resistencia eléctrica constante y, por lo tanto, una corriente eléctrica estable fluye por el circuito. Cuando se habla sobre el micrófono, las ondas del sonido que inciden sobre el diafragma provocan que la resistencia eléctrica del dispositivo varié ligeramente. El cambio de resistencia provoca el correspondiente cambio de corriente. La Figura 3 ilustra este efecto con mas detalle. Como se ve, el resultado es la creación de una señal que varia casi en la misma forma que la onda de sonido original.
Figura 3.- Emisión de una onda de sonido sobre un circuito telefónico simple.
De manera inversa, en el audífono la señal eléctrica se convierte a sonido. El audífono simple que se ilustra en la Figura 3 se construye en base a un diafragma de hierro y un electroimán. La señal eléctrica variable que produce el micrófono, se traduce en una fuerza de atracción variable sobre el diafragma del audífono. Esto hace vibrar al aire circundante, reproduciendo la onda original del sonido. El proceso de conversión descrito es analógico ya que la forma de la onda eléctrica propagada a través de la red analógica es análoga a la forma de onda original del sonido.
MEDIOS Y CIRCUITOS DE TRANSMISION • INTENSIDAD DE LA SEÑAL, AUTOESCUCHA Y ECO En una red analógica, es importante que la intensidad de la señal eléctrica que se recibe sea suficiente para producir ondas de sonido que pueden ser escuchadas por el oyente. A este aspecto el circuito de la Figura 3 presentan un problema. El circuito es adecuado para las longitudes las líneas cortas, pero si se empleara una línea de gran longitud, entonces, debido a que la resistencia del micrófono resulta sustancialmente mas pequeña que la resistencia de la línea, el micrófono no podría estimular mucha fluctuación en la corriente del circuito. El resultado es la reproducción débil del sonido. Una forma de superar este problema es mejorando el circuito con el empleo de transformadores, como se ilustra en la Figura 4. Entre mayor sea el número de vueltas en el devanado secundario de cada transformador, mas se reduce el efecto de la resistencia de la línea. También se nota en la Figura 4 que se utilizan dos micrófonos y dos audífonos conectados a manera que el circuito sea capaz de manejar la comunicación bidireccional.
Figura 4.- Circuito telefónico básico bidireccional.
Un circuito telefónico real normalmente emplea un sistema mas complicado debido a que se necesita controlar el efecto de auto escucha y reducir la posibilidad de eco. En efecto, cuando la parte A habla, la voz se escuchara en el audífono B, pero también en el audífono A. Por lo tanto
el emisor sufrirá de autoescucha, es decir escuchara su propia voz. Si este efecto es muy alto, el emisor se verá perturbado. A la inversa, si no existe autoescucha el emisor tiene la impresión de que el teléfono esta muerto. Así, dentro de la circuitería del teléfono se incorporan circuito antiescucha para controlar el nivel de este efecto. Esto lo hace restringiendo el volumen de voz y de otros ruidos que se escuchan en el audífono del propio visor. El circuito antiescucha también reduce la dificultad de escuchar señales de entradas débiles en lugares ruidosos. El circuito representa el beneficio adicional de controlar el efecto indeseable del eco. Considérese de nuevo el extremo emisor A. La voz de A se reproduce en audífono B y, si el micrófono B capta mucha de esta energía, se regresa al audífono de A. El pequeño retardo debido al tiempo de la propagación de la señal (de ida y de regreso) significa que A escucha un eco ligeramente retardado de su propia voz. El circuito antiescucha en el aparato B ayuda a controlar este efecto, reduciendo la retroalimentación de señal de este audífono, hasta el micrófono del aparato B. La trayectoria del eco desde el micrófono de A, vía el audífono de B, micrófono de B y audífono de A, se elimina considerablemente. En las redes practicas, esta no es la única trayectoria posible del eco, debiéndose tomar aun mas precauciones para estos casos.
SISTEMAS AUTOMATICOS, BATERIA CENTRAL Y SOLICITUD DE LLAMADA Cuando el circuito de la Figura 4 se empleo en las primeras redes telefónicas, se presento el problema de que se necesitaba una batería individual para cada línea de abonado. Para superar esta situación, se desarrollo el sistema de batería central (BC) o común. En cada central, se incluya una gran batería, o sistema de fuerza, que proporciona la energía necesaria para todas las líneas de abonado conectadas a la central. La Figura 5 ilustra la configuración de batería central. Nótese que se ha agregado una bobina de alta impedancia al circuito. Esta forma parte de otra característica normal del circuito que se conoce como puente de transmisión (PT); sin la bobina de PT, las corrientes de voz procedentes de un teléfono serian cortocircuitadas por la batería y no se escucharía en el teléfono receptor; la bobina inductiva evita este corto, Se puede emplear una resistencia alta, pero esto tiene la desventaja de provocar la aparición de conversaciones en los demás teléfonos conectados a la misma central. Regresando ahora a la Figura 4, existen otras tres deficiencias que hacen al circuito inadecuado para uso directo en una red telefónica real. Estas son:
I)
El circuito siempre esta consumiendo energía eléctrica
II) El abonado no dispone de medios para solicitar a la central el establecimiento de llamadas con otros abonados. III) La central no dispone de medios para llamar al abonado solicitado (por ejemplo, timbrar el teléfono).
Los primeros dos problemas se pueden resolver introduciendo un interruptor que se active cuando el microteléfono se levante del soporte. De esta manera, el circuito telefónico esta abierto cuando el microteléfono esta colgado y deja de consumir energía cuando no se usa. Al utilizarse, el microteléfono se levanta y el circuito se cierra. La detección de este circuito en la central la prepara recibir el número telefónico del abonado solicitado, indicando esta situación con el envió del tono de marcar. Enseguida, el abonado que llama puede marcar el número en el aparato telefónico, el cual lo emite hacia la central por medio de uno de los dos siguientes métodos: I) Marcación por pulsos (de CD). II) Marcación por tonos.
Figura 5.- Puente de transmisión simple (PT).
El primer método, el más antiguo y el mas común, produce la conexión y desconexión del circuito de línea con una secuencia muy rápida. Se generan así los pulsos de CD que se emplean para indicar cada uno de los dígitos del número del destino, tantos pulsos como dígitos se marquen, con excepción del cero que equivale a diez pulsos. Los pulsos se emiten a razón de 10 pulsos/seg. Así, el dígito uno tomara un décimo de segundo para su envió, mientras que el dígito cero tomara un segundo. Entre cada dígito se deja un espacio mas grande, de medio segundo, con el objeto de que la central pueda diferenciar entre las secuencias de pulsos que presentan dígitos consecutivos del número completo. El espacio se conoce como una pausa interdigital. Típicamente, un número
telefónico contiene diez dígitos y toma de 6 a 15 segundos de su marcación en el teléfono, dependiendo de los valores de los dígitos reales. La marcación por tonos (señalización de multifrecuencia, MF) es mas reciente. Su empleo esta creciendo debido a que los dígitos se pueden emitir mas rápidamente (de 1 a 2 segundos) lo que reduce el tiempo de establecimiento de llamadas. La central se sigue alertando con el cierre inicial del circuito abonado, pero después del tono de marcar los dígitos se forman con determinado número de ráfagas cortas de tonos. En lugar de detectar los pulsos de CD, la central debe detectar la frecuencia de tonos para determinar el valor de los dígitos del número de destino. Cada dígito se representa como una combinación de dos frecuencias de tonos puros. El empleo
de dos tonos combinados reduce el riesgo de la mala operación si ruidos
interferentes se presentan en la línea. Después de recibir el número, la red de la central establece la conexión con el destino deseado y llama al abonado solicitado normalmente haciendo timbrar el teléfono. Esta tarea se consigue aplicando a la línea del abonado solicitado una corriente alterna intensa para accionar el timbre. A la vez, un tono de llamada se regresa al abonado solicitante. Como respuesta al timbrado, el abonado solicitado levanta su microteléfono y cierra el bucle de línea. Al detectar el bucle, la central suspende el timbrado y la conversación se puede iniciar. Al final de esta, el abonado llamante repone su microteléfono abriendo el bucle con lo que su línea se desconecta. La central responde liberando el resto de la conexión.
SISTEMAS DE TELEFONIA CELULAR La dificultad con los sistemas anteriores de radiotelefonía, fue la pequeña capacidad de números de usuarios. Esto se debió a que los primeros sistemas se diseñaron para tener una cobertura de área muy grande, pero tenían un número limitado de canales de radio disponibles dentro de cada zona. Además, el re-empleo de canales de radio en otras zonas se prohibía por el riesgo de interferencia, excepto donde las estaciones base estaban separadas por grandes distancias. Debido a que en los setentas hubo una gran demanda de radiotelefonía y debido a que la disponibilidad de canales de radio era (y aun es) un recurso limitado, hubo presión para desarrollar métodos revisados que hiciesen uso más eficiente del ancho de Banda de radio incrementando, grandemente, por lo tanto, la capacidad disponible de usuarios. El sistema que surgió se conoció como radio celular. Los componentes básicos de las redes de radio celular son lo centros de comunicación móvil (CCM), las estaciones base y las unidades móviles, como se ilustra en la Figura 6.
Figura 6.- Componentes básicos de una red de radio celular.
Las redes de radio celular hacen uso eficiente del espectro de radio, re-utilizando las mismas frecuencias de canal de radio en un gran número de estaciones base o células. Estructuradas en forma de panal de abejas, cada célula se mantiene pequeña para que la potencie de radiotransmisión que se requiere en esta estación base de transmisión se pueda mantener baja. Esto limita el área sobre la cual la señal de radio es efectiva, reduciendo así el área sobre la cual puede ocurrir la interferencia de señales de radio. Fuera de la zona de interferencia del transmisor, es decir, en una célula no adyacente a suficiente distancia de la primera se puede volver a ampliar las mismas frecuencias de canal de radio. Inicialmente cada célula es atendida por una estación base (EB) en su centro complementa con antenas direccionales y mas canales de radio a medida que el trafico aumenta. El empleo de la antena direccional ayuda a eliminar “sombras” de ondas de radio. Por ejemplo, sitúa tres antenas direccionales, una en cada esquina alterna de la célula, ayuda a eliminar lo efectos de sombra que, de otra manera pueden ocurrir cerca de los edificios altos dando una trayectoria de transmisión alterna. Las características de las redes de radio es su habilidad de acoplarse al nivel creciente de demanda primero utilizando más canales de radio y más antenas en la célula y después reduciendo el tamaño de las células, mediante división de las anteriores, para formar una multiplicidad de nuevas células. A la vez, solo se puede disponer de un número limitado de canales de radio dentro de una célula y esto limita el número de conversaciones telefónicas simultáneas. Incrementando el número de células, la capacidad total de las llamadas se puede elevar. El número de canales que se necesita en una célula se determina con la formula normal de Erlang.
La demanda total de llamadas durante la hora cargada del día, depende del número de solicitantes a la vez dentro de la célula. Reducir el tamaño de la célula tiene como efecto la reducción del número probable de estaciones móviles que se encuentran en ella a la vez, bajando la congestión. ESTABLECIMIENTO DE LAS LLAMADAS DE RADIO CELULARES Para el establecimiento o recepción de llamadas entre estaciones móviles, se emplea uno o más canales de radio de control (o de búsqueda). Si un usuario móvil desea hacer una llamada, el aparato portátil móvil explora los canales predeterminados para seleccionar el control de canal mas fuerte y lo monitorea para recibir información acerca del estado y disponibilidad de la red. Cuando el número telefónico de destino se ha marcado y se ha presionado la llave de envió, el aparato portátil móvil encuentra un canal de control libre y radia una solicitud de canal de usuario (es decir, un radioteléfono). Todas las estaciones de los canales de control y los monitorean para determinar las solicitudes de llamada. Cuando alguna estación base recibe tal solicitud, se envía un mensaje al centro de comunicación móvil (CCM) mas cercano que indica tanto el deseo de la estación móvil de establecer una llamada, como la intensidad de la señal de radio que se recibe desde el móvil. El CCM determina que estación base a recibido la mayor intensidad de señal y en base a eso determina en que célula se encuentra el móvil. Entonces, solicita al aparato portátil móvil identificarse con un número autorizado que se puede emplear para el cobro de la llamada. El procedimiento de autorización elimina cualquier posibilidad de fraude. Después de una autorización de llamada de salida, se asigna un canal libre de radio en la célula apropiada para el transporte de la propia llamada y la llamada se extiende hasta su destino sobre la red telefónica conmutada pública. A propósito, la célula apropiada no necesariamente necesita incluir la estación base mas cercana, redes celulares mas sofisticadas pueden también escoger el empleo de estaciones base adyacentes, si esto ayuda a aliviar la congestión de canales. Al final de la llamada, la estación móvil genera la señal de cuelgue o de terminación de llamada, que provoca la liberación del canal de radio y regresa al aparato portátil al estado de monitoreo del canal de control y búsqueda. Cada centro de comunicación móvil controla a cierto número de estaciones base de radio. Y si, durante el curso de la llamada, la estación móvil pasa de una célula a otra (lo cual es altamente probable pues las células son pequeñas), entonces el CCM esta capacitado para transferir la llamada y enrutarla vía una estación base diferente apropiada para nueva posición. El proceso de cambio a la nueva célula ocurre sin perturbar la llamada y se conoce como transferencia
automática se inicia ya sea mediante la estación base activa o mediante la estación móvil, dependiendo del tipo de sistema. Las intensidades relativas de señales que se reciben en todas las estaciones base mas cercana, se comparan entre si continuamente y cuando la intensidad de la señal de la estación en curso cae debajo de un umbral preestablecido, o es sobrepasada por la intensidad de señal disponible vía una estación base adyacente, entonces se inicia la transferencia automática.
TELEFONOS INALAMBRICOS
Telefonía inalámbrica es el nombre que se emplea para describir a los aparatos telefónicos conectados a la red telefónica común (fija). Pero en los que el aparato portátil se comunica con la red mediante un enlace de radio transmisión en lugar de alambres. La parte de soporte de una terminal telefónica inalámbrica actúa como un transceptor de radio (estación base) para conectar una trayectoria de radio hacia al aparato portátil, que también actúa como transceptor de radio. La estación base se conecta a la red telefónica publica en forma normal. La Figura 7 ilustra una configuración típica de telefonía inalámbrica. El alcance máximo
de estos sistemas es la
distancia típica de 50 metros.
Figura 7.- Teléfono inalámbrico.
Los teléfonos inalámbricos fueron populares por algún tiempo en USA y Japón antes de que aparecieran en Europa, debido a que las especificaciones de diseño Europeas (CEPT) eran más complejas, haciendo que los productos fuesen comparativamente caros. La excepción fue Alemania Occidental, en donde los teléfonos inalámbricos fueron rentados por Boundespots a un poco más de lo que costaba la renta de los teléfonos ordinarios.
Los teléfonos inalámbricos son muy simples en comparación con los teléfonos radio celulares, incorporando un canal convencional de radio bidireccional (duplex), con un sistema de señalización relativamente simple. Un obstáculo importante en el diseño de los teléfonos inalámbricos es el asegurar que los teléfonos abonados en recintos adyacentes no se interfieran entre si. El subscriptor no esta dispuesto a pagar las llamadas de su vecino próximo, que se hacen en la estación base equivocada. Esto es lo que puede suceder si un aparato portátil interfiere con la estación base más próxima, siendo la principal razón de las especificaciones estrictas de la CEPT. La ventaja de los teléfonos inalámbricos es la libertad de llevarlos por toda la casa, el jardín, el sótano, etc., evitando así que el usuario se aleje del teléfono y no escuche el timbre. Los teléfonos inalámbricos simples se pueden emplear sólo dentro del alcance de su propia estación base. Así, son inservibles fuera de casa, pero le da al usuario mayor movilidad dentro de sus propias instalaciones.
LOS NUEVOS SISTEMAS CELULARES DE RADIO FRECUENCIA RF Los sistemas de comunicaciones celulares RF de primera generación instalados entre principios y mediados de los ochenta, contaban con interfaces aéreas basadas en tecnología analógica. Entre ellos se encontraban AMPS (Sistema Telefónico Móvil Avanzado), NMT (Teléfono Móvil Nórdico) y TACS (Sistema de Comunicaciones de acceso Total), diseñados para ser usados en una zona geográfica específica y no para instalarse en otras áreas. No tenían mucho en común con excepción de usar la misma tecnología de interface aérea y la misma modulación. La tecnología de interfase aérea fue Acceso Múltiple por División de Frecuencia (FDMA) y la modulación de FM analógica pero con distintas desviaciones y espaciamiento de canales. Las bandas de frecuencia, protocolos de interfase aérea, número de canales y velocidades de datos eran diferentes. En general, estos sistemas proveían cobertura local y nacional. Al aumentar el número de subscriptores comenzaron a surgir problemas de capacidad. La necesidad de sistemas de segunda generación que añadieran capacidad era evidente. En adición, algunas áreas deseaban sistemas de comunicación entre países como en Europa. La instalación de GSM (Sistema Global para Comunicaciones Móviles) en 1992 marcó el inicio de los sistemas de segunda generación. NADC (Celular Digital de Norte América) y PDC (Celular Digital Personal) lee siguieron en Norteamérica y Japón, respectivamente. Par estos sistemas de segunda generación se combinaron las tecnologías de interfase aérea Acceso Múltiple por División en el Tiempo (TDMA) y FDMA para ayudar a proveer capacidad adicional. Nuevamente las bandas de frecuencia, los protocolos de interfase aérea, el número de canales, la velocidad de datos y, en su caso, la modulación, también fueron diferentes. Por ejemplo, GSM
usó GMSK (Cambio mínimo Gaussiano) y NADC usó DQPSK (Cambio de Fase por Cuadratura Diferencial) para el tipo de modulación. Estos sistemas proveían voz digital, privacía y capacidad adicional. En 1995 se introdujeron sistemas mejorados de segunda generación, a los que se les conoce como de segunda generación plus. Estos sistemas se centraron básicamente alrededor de crecer la banda de los sistemas existentes a frecuencias PCS de 2GHz así como en la distribución de sistemas cdmaOneTM (CDMA IS-95) en frecuencias tanto celular como PCS. Los sistemas cdmaOneTM introdujeron una tecnología de interfase aérea totalmente diferente a las comunicaciones celulares RF, usando acceso múltiple por división de código, que prometía aún mayor capacidad que los sistemas TDMA. Con la mayor demanda de sistemas con servicios de transmisión de datos, estos sistemas de segunda generación ofrecían servicios adicionales como mensajes cortos, y mejoraron la voz digital. A diferencia de los de primera generación diseñados para un área geográfica específica, estos sistemas de segunda generación y mejorados estaban planeados para instalarse internacionalmente. Actualmente se encuentran en desarrollo sistemas de tercera generación (3G). Se pretende que IMT - 2000 sea un estándar global que ofrezca servicios con mayor velocidad de bits en comparación con los servicios actuales por cable. Servicios como multimedia (video), Internet y correo electrónico son algunos de los que impulsarán el aumento en el número de suscriptores para los sistemas 3G.
DESARROLLO CDMA Un aspecto del desplazamiento comercial de CDMA es la necesidad de limpiar los canales analógicos de la frecuencia CDMA que está siendo usada. Esto se considera generalmente como un espacio a 1.75 MHz de ancho de la primera frecuencia CDMA instalada. Se requieren 1.23 MHz para el canal CDMA real que usa y también aproximadamente 250 Khz. a ambos lados. Esto es para prevenir la interferencia de CDMA con los canales analógicos o viceversa. El anillo interior de la zona de buffer está cargado con celdas que solamente transmiten un canal Piloto de CDMA. Esto se usa para permitir la transferencia asistida por el móvil a celdas análogas. Esto permite que la transferencia de CDMA a analógico ocurra de forma óptima, pero 124 celdas analógicas han sido limpiadas de la frecuencia CDMA. La ramificación de esto es que CDMA debe desplazarse del área de alto tráfico hasta el interior de las celdas de menor tráfico. Debe haber capacidad excedente en la zona de transición para ceder los 1.75 MHz usados en las celdas analógicas sin el aumento de capacidad derivado de la cobertura CDMA.
El escenario de congestionamiento más probable es aquel de un móvil vagabundo que transmite en una celda CDMA en algún lugar de las frecuencias CDMA. Esto no sería posible con móviles operando en forma adecuada y con espacio libre en el servicio analógico. La celda CDMA detecta potencia excedente en los puertos de la antena e inicia una medida defensiva. La primera acción es reducir la potencia del transmisor en la celda congestionada. Esto causa que sucedan dos cosas: 1. Todos los móviles en esa celda comienzan a transmitir a mayor potencia debido al control de potencia de laxo abierto. De esta manera, compiten de manera más efectiva con el causante del congestionamiento. 2. El efecto más significativo es que todas las celdas adyacentes serán más atractivas que la celda original para la mayoría de los móviles, que inician una transferencia suave y dejan la celda congestionada. Un transmisor en las frecuencias del móvil no está disponible para el público en general ya que es aquél en el que la estación base recibe frecuencias. Esto se debe a que cada teléfono móvil puede transmitir las frecuencias que recibe la estación base, pero solamente una estación base puede transmitir a las frecuencias del receptor del móvil. Si esto llega a suceder, sin embargo, las consecuencias son menos graves que cuando se congestiona la estación base. La estación base tiene una potencia mucho mayor que la de los móviles, por lo que es más inmune a los congestionamientos. Si la estación base tiene control de potencia del enlace adelantado, el móvil solicitará mayor potencia si FER se degrada. Esto asume que el móvil todavía podrá recibir el Canal Piloto. El piloto se congestiona, el móvil desactivará de inmediato el transmisor y la llamada se perderá cuando en el reloj de llamada perdida transcurran 5 segundos. El embotellamiento se limitará a la zona del transmisor y la ruptura de la celda no será de ayuda.
RUPTURA DE CELDAS Y CONTROL DE POTENCIA DE LAZO EXTERNO La celda saturada ha reducido su zona de cobertura al forzar transferencias de muchos de los móviles. Las celdas que la rodean han crecido hacia la zona original de la celda ofensora. Esto asume que hay capacidad disponible en las celdas aledañas. La estación base envía bits de control de potencia a la estación móvil cada 1.25 mseg. Si el móvil no está a plena velocidad, alguno de estos bits son ignorados. La estación base realiza la decisión de aumentar o disminuir con base en el Eb/No medido para ese móvil. Esto se compara contra un grupo de valores en el sitio celular basado en el terreno y los edificios. Un
ambiente benigno puede funcionar con un Eb/No más bajo que un ambiente con un gran número de rutas múltiples. Existe un segundo nivel de control opcional, el Lazo externo. Éste monitorea el FER del canal de tráfico y ajustará hacia arriba el punto de ajuste de Eb/No si el móvil tiene un enlace pobre, en este caso, se define como un FER superior a un punto definido, típicamente 1%. El lazo Externo no moverá el punto de ajuste Eb/No a un punto inferior al establecido originalmente. Esto es importante para prevenir transito de mala calidad. Un subscriptor sentado en un semáforo con vista a la celda tendrá un buen enlace con un Eb/No muy bajo. Si se mueve detrás de un edificio al cambiar la luz, el enlace podría volverse pobre si el punto de ajuste se hubiera reducido. La sincronización del lazo externo es muy lenta, debido al tiempo requerido para medir FER.
TDMA El principal objetivo del sistema de telefonía celular digital TDMA es proveer capacidad adicional. El sistema NADC provee in incremento de tres veces en la capacidad del sistema sobre el AMPS básico y en el futuro existe la posibilidad de una expansión a seis veces la capacidad sobre AMPS. Un objetivo clave del sistema es ser compatible para trabajar en ya sea un ambiente AMPS o en un ambiente NADC. Esta compatibilidad es necesaria debido a la enorme infraestructura instalada del sistema AMPS. Es interesante notar que GSM, la versión europea de TDMA, no tenía esta limitante de compatibilidad. Esto llevó al desarrollo de un sistema GSM que es muy diferente de NADC, aunque ambos están basados en la tecnología TDMA. Existen varios objetivos adicionales del nuevo sistema IS-136 que resultan inherentemente posibles con un sistema digital. La seguridad de voz y datos es uno de ellos; no es posible que un usuario encienda un aparato de radio y escuche una conversación digital. Además, actualmente son posibles muchas nuevas funciones como faxes, identificación de llamadas, mensajes breves y transmisión de datos a la baja velocidad con un teléfono digital. Y seguramente seguirán muchas nuevas funciones conforme los teléfonos se integren en otros dispositivos electrónicos, tales como las computadoras “palm-top” y PDA (Asistente personal de datos). Otro objetivo de un sistema digital es reducir el consumo y tamaño de las baterías.
DEFINICIONES E HISTORIA DEL TDMA
AMPS: Sistema Telefónico Móvil Avanzado; teléfonos celulares analógicos. NAMPS: AMPS de banda estrecha; inventado por Motorola, este sistema toma un canal AMPS de 30KHz y lo divide en tres canales de 10 KHZ, triplicando efectivamente la capacidad. TDMA: Acceso Múltiple por División en el tiempo. NADC: Celular digital de –norte América. Un sistema TDMA. DAMPS: AMPS Digita; otro nombre para NADC. Celular: Sistema telefónico que usa la banda de frecuencia de 800MHz. Existen sistemas celulares tanto analógicos como digitales. PCS: Sistema de comunicación personal. Este término tiene una gran variedad de significados, dependiendo de con quién se hable. Generalmente se considera como la banda de frecuencia de 1900 MHz. Solamente existen sistemas digitales en la banda PCS (no analógicos). IS-54A,B: Las normas provisionales que definen el sistema NADC original. IS-54 usa canales de voz digitales y canales de control analógicos. EIA/TIS 627: es la norma oficial. Una “norma provisional” debe ser aprobada después de 5 años. La mayoría de las personas se refieren tanto a la 627 como a la 54 como IS-54 IS-136: La norma EIA/TIA usa canales de voz digitales, además de preparar el camino para que TDMA sea usada en las nuevas frecuencias PCS. Es el estándar para Compatibilidad de Protocolos de Estación Móvil a Estación Base. Muchas personas se refieren a IS-136 como el estándar TDMA. En realidad TDMA es definida por IS-136-137-138 en adición a IS-641 para el codificador de voz. Generalmente las personas integran todas las normas en una y las llaman IS-136. IS-137: La norma EIS/TIA que define las normas mínimas de rendimiento de una estación móvil IS-136 Define límites para muchas pruebas RF. IS-138: La norma EIA/TIA que define las normas mínimas de rendimiento de una estación base IS-136. Define límites para muchas pruebas RF. IS-641-A: La nueva norma para el codificador de voz ACELP.
• HISTORIA DE TDMA.
• En 1979 entro en servicio en Escandinavia el primer sistema de celular NMT. • En 1983 el celular análogo obtiene su licencia por la FCC-AMPS • En 1987 se inician los trabajos de un sistema digital (TDMA) • En 1991 NAMPS desarrollado y promovido por Motorola • En 1992 NADC es anunciado este sistema. • En 1994 –IS-54 Es un sistema comercial instalado en Dallas. • En 1996 – IS-136 Se introduce.
Cada celda TDMA tiene una estación base de baja potencia (transmisor) diseñada solamente para cubrir un área local. Las celdas típicas pueden cubrir varios kilómetros, pero los nuevos conceptos como micro celdas y pico celdas pueden cubrir solamente una cuadra de una ciudad incluso solo una parte de un edificio. La antena de la estación base puede ser omnidireccional, bidireccional o de haz enfocado, dependiendo del entorno. Todas las estaciones base dentro de un sistema están conectadas al interruptor de control del sistema celular, el conmutador Telefónico Móvil (MTX) o la Oficina Central de Comunicación Telefónico Móvil (MTSO) o el Centro de Conmutación Móvil (MSC). Esta conexión puede ser por línea terrestre o un enlace de microondas. El MTX o MTSO se conectan a la oficina telefónica local del sistema de cableado telefónico. Cuando el móvil llega al borde de una celda, el teléfono es transferido a una celda adyacente, siempre y cuando exista un canal libre. Si no hay un canal libre en la celda adyacente, la
llamada se degradará y eventualmente se
perderá. De está manera, el teléfono móvil puede viajar a cualquier lugar de la zona de cobertura y continuar la conversación.
CODIFICADOR DE CANAL Y VOZ El propósito de un codificador de voz es reducir la cantidad de voz que necesita ser transmitidos. Menos datos transmitidos por usuario resultan en un número mayor de usuarios que pueden estar en el sistema al mismo tiempo. Los teléfonos y codificadores de voz estándar realizan muestreos a 8 Khz. Este valor se encuentra muy por encima de la velocidad Nyquist de 6 Khz. (El espectro de voz humana se considera generalmente a 3 Khz.).
Mientras los teléfonos estándar requieran de 64 Kbps para transmitir datos de voz, un codificador de voz ACELP puede transmitir los mismos datos solamente 7400 bps. El objetivo es obtener codificadores de voz que trasmitan los mismos datos en solo 4 kbps. El codificador logra esta comprensión usando tablas de búsqueda. Un codificador de voz toma los datos de audio digital y usan logaritmos matemáticos y tablas de búsqueda para reducir la cantidad de datos a enviar. La codificación de canal añade Bits la corriente de datos de audio con el fin de asegurar la transmisión adecuada de los datos de audio. Primero señala corrección y detección de errores a los bits de datos más importantes. Se añade información de control para mantener un canal de tráfico. Se añade bits de sincronización para ayudar a la estación base a decodificar los datos adecuados. Dado que se trata de un sistema TDMA y la sincronía es crítica, se añade bits de guarda para evitar la sobre posición con la ranura de tiempo de algún usuario diferente. Los datos son entonces entre lazados entre dos ranuras de tiempo para evitar los efectos de desvanecimiento e interferencia. Finalmente, los datos son colocados en paquetes que se transmiten solamente durante las ranuras de tiempo asignadas.
BIBLIOOGRAFÍA
[1]
Wayne Tomasi Sistemas de Comunicaciones Electrónicas (2000), Pearson Education
[2]
Robert G. Krieger Guía de Electrónica Práctica, (1992), McGraw - Hill.
[3]
Enrique Herrera Pérez Introducción a las Telecomunicaciones Modernas (1998), Limusa
[4]
Hewlett - Packard Seminario de Comunicaciones Inalámbricas.
[5]
M.C. Erick Gastellóu H. Tesis de Maestría, (2000), B.U.A.P.
[6]
J. M. Rowell Materiales Fotónicos.
[7]
Jardón - Linares Sistemas de Comunicaciones por Fibra Óptica (1999), Alfaomega