MODULO
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA -UNAD FACULTAD DE CIENCIAS BÁSICAS E INGENIERÍA UNIDAD DE INGENIERÍA APLICADA COROZAL, 2009
COMITÉ DIRECTIVO
Jaime Alberto Leal Afanador Rector
Gloria Herrera Vicerrectora Académica
Roberto Salazar Ramos Vicerrector de Medios y Mediaciones Pedagógicas
Maribel Córdoba Guerrero Secretaria General
MÓDULO CURSO CÁLCULO INTEGRAL SEGUNDA EDICIÓN
© Copyright Universidad Nacional Abierta y a Distancia
ISBN
2009 COROZAL, Colombia
CONTENIDO UNIDAD 1: INTRODUCCIÓN A LAS MICROONDAS Capitulo 1. CONCEPTO DE MICROONDAS 1.1 Definición de Microondas 1.2 Generación de Ondas 1.3 Usos 1.4 Red por Microondas 1.5 Internet por Microondas Capitulo 2. APLICACIONES DE LA INGENIERÍA DE MICROONDAS. 2.1 Radar 2.2 Radiometría 2.3 Radiocomunicaciones 2.4 Sistemas de telefonía Celular 2.5 Conexiones de Ordenadores y Periféricos Capitulo 3. REDES INALÁMBRICAS 3.1 WLAN 3.2 Estandarización 3.3 Compatibilidad con otras Redes Existentes 3.4 WIFI (WIRELESS FIDELITY) 3.5 WMAN
UNIDAD 2: LÍNEAS DE TRANSMISIÓN Y DIAGRAMA DE SMITH Capitulo 1 LÍNEAS DE TRANSMISIÓN 1.1 Corrientes Y Voltajes En Líneas 1.2 Transmisión De Potencia 1.3 Modos de Propagación y de Corte 1.4 Modos TEM 1.5 Modos Te y Modos Tm Capitulo 2 LÍNEAS DE GEOMETRÍA SENCILLA 2.1 Línea De Laminas Planoparalelas 2.2 Guía Rectangular 2.3 Guía Circular 2.4 Línea Coaxial 2.5 Coeficientes De Reflexión Y Transmisión
Capitulo 3 EL DIAGRAMA DE SMITH: USOS Y APLICACIONES 3.1 Cálculo De Impedancias A Partir Del Coeficiente De Reflexión 3.2 Cálculo De La Razón De Onda Estacionaria (Vswr) 3.3 Transformación De Impedancias 3.4 Cálculo De Admitancias 3.5 Localización De Máximos Y Mínimos De Voltaje Y Corriente
UNIDAD
3: RADIO-ENLACE INSTRUMENTOS DE MEDIDA.
DE
MICROONDAS,
ANTENAS
Capitulo 1 RADIO-ENLACE DE MICROONDAS 1.1 Radio-Enlace De Microondas 1.2 El Multiplexor Primario 1.3 Muldem (Multiplexing Secundario Y Servicio) 1.4 Modem / Transceivers 1.5 Detalles Del Sistema De Energía Eléctrica Capitulo 2. ANTENAS E INSTRUMENTOS DE MEDIDA 2.1 Campos De Radiación De Una Antena. 2.2 Polarización, Directividad, Ganancia E Impedancia De Antena 2.3 Campos De Medida De Antenas 2.4 Antenas Pequeñas Y Antenas Resonantes 2.5 Grandes Antenas, Reflectores Capitulo 3. INSTRUMENTOS BÁSICOS DE MEDIDA DE FRECUENCIA DE MICROONDAS 3.1 Amplificador Selectivo 3.2 Medidas De Longitud De Onda 3.3 Analizadores De Espectro 3.4 Sensibilidad 3.5 Osciloscopios FUENTES BIBLIOGRÁFICAS APÉNDICES
E
INTRODUCCION El curso de Microondas corresponde al componente básico profesional del Programa de Ingeniería de Telecomunicaciones, tiene como objetivo desarrollar habilidades y adquirir capacidades en la utilización de métodos y técnicas para desarrollar análisis de las comunicaciones, bajo la estrategia de educación abierta y a distancia.
El curso tiene 3 créditos académicos los cuales comprenden el estudio independiente y el acompañamiento tutorial, con el propósito de: Comprender los aspectos técnicos y de gestión de la disciplina de las Comunicaciones a través de las Microondas. Preparar a los estudiantes en las técnicas de gestión necesarias para planificar,
organizar,
supervisar
y
controlar
proyectos
de
Telecomunicaciones. Fomentar en el estudiante técnicas de gestión en las Microondas.
Este curso está compuesto por tres unidades didácticas a saber: Unidad 1. Introducción a las microondas: se presenta una vista general sobre la definición de: Conceptos de microondas, aplicación de la ingeniería de microondas, redes inalámbricas. Unidad 2. Líneas de transmisión y diagrama de Smith: se trata de analizar las líneas de transmisión, modos de propagación y propiedades de corte, líneas de geometría sencilla, diagrama de Smith usos y aplicaciones. Unidad 3. Radio-enlace de microondas, antenas e instrumentos de medida: se contemplan los aspectos relacionados con radio enlace de microondas, antenas, instrumentos básicos de medidas. El curso es de carácter teórico y la metodología a seguir será bajo la estrategia de educación a distancia. Por tal razón, es importante planificar el proceso de: Estudio Independiente: se desarrolla a través del trabajo personal y del trabajo en pequeños grupos colaborativos de aprendizaje.
Acompañamiento tutorial: corresponde al acompañamiento que el tutor realiza al estudiante para potenciar el aprendizaje y la formación.
El sistema de evaluación del curso es a través de la evaluación formativa, que constituye distintas formas de comprobar el avance en el autoaprendizaje del curso. En este sentido, se realizarán tres tipos de evaluación alternativas y complementarias, estas son: Autoevaluación: evaluación que realiza el estudiante para valorar su propio proceso de aprendizaje. Coevaluación: se realiza a través de los grupos colaborativos, y pretende la socialización de los resultados del trabajo personal. Heteroevaluación: Es la valoración que realiza el tutor.
El Sistema de interactividades vincula a los actores del proceso mediante diversas actividades de aprendizaje que orientan el trabajo de los estudiantes hacia el logro de los objetivos que se pretenden, de la siguiente manera: Tutor-estudiante: a través del acompañamiento individual Estudiante-estudiante: mediante la participación activa en los grupos colaborativos de aprendizaje. Estudiantes-tutor: a través del acompañamiento a los pequeños grupos colaborativos de aprendizaje. Tutor-estudiantes: mediante el acompañamiento en grupo de curso Estudiantes-estudiantes: en los procesos de socialización que se realizan en el grupo de curso.
Para el desarrollo del curso es importante el papel que juega los recursos tecnológicos como medio activo e interactivo, buscando la interlocución durante todo el proceso de diálogo docente-estudiante: Los materiales impresos en papel, se han convertido en el principal soporte para favorecer los procesos de aprendizaje autodirigido.
Sitios Web: propician el acercamiento al conocimiento, la interacción y la producción de nuevas dinámicas educativas. Sistemas de interactividades sincrónicas: permite la comunicación a través de encuentros presenciales directos o de encuentros mediados (chat, audioconferencias, videoconferencias, tutorías telefónicas) Sistemas de interactividades diferidas: permite la comunicación en forma diferida favoreciendo la disposición del tiempo del estudiante para su proceso de aprendizaje, mediante la utilización de correo electrónico, foros, grupos de discusión, entre otros.
El acceso a documentos adquiere una dimensión de suma importancia en tanto la información sobre el tema exige conocimientos y planteamientos preliminares, por tal razón es imprescindible el recurso a diversas fuentes documentales y el acceso a diversos medios como son: bibliotecas electrónicas, hemerotecas digitales e impresas, sitios Web especializados.
En la medida de que usted adquiera el rol de estudiante, interiorice y aplique los puntos abordados anteriormente, podrá obtener los logros propuestos en este curso, así como un aprestamiento en los enfoques de las comunicaciones a través de microondas mediante la estrategia de educación a distancia.
UNIDAD 1 INTRODUCCIÓN A LAS MICROONDAS
OBJETIVOS DE LA UNIDAD IDENTIFICAR
EL
RANGO
DE
FRECUENCIA
DE
LAS
MICROONDAS. CONOCER
LAS
DIFERENTES
BANDAS
DE
RADIOFRECUENCIAS. DISTINGUIR LOS DIFERENTES USOS Y APLICACIONES DE LAS MICROONDAS. CONOCER E IDENTIFICAR LAS DIFERENTES CLASES DE REDES INALÁMBRICAS.
CAPITULO 1. CONCEPTO DE MICROONDAS 1.1 DEFINICIÓN DE MICROONDAS Se denomina microondas a unas ondas electromagnéticas definidas en un rango de frecuencias determinado; generalmente de entre 300 MHz y 300 GHz, que supone un período de oscilación de 3 ns (3xl0 -9 s) a 3 ps (3xl0-12 s) y una longitud de onda en el rango de 1 m a 1 mm. Otras definiciones, por ejemplo las de los estándares IEC 60050 y IEEE 100 sitúan su rango de frecuencias entre 1 GHz y 300 GHz, es decir, longitudes de onda de entre 30 cm. a 1 mm. El rango de las microondas está incluido en las bandas de radiofrecuencia, concretamente en las UHF (ultra-high frequency, frecuencia ultra alta en español) (0.3 - 3 GHz), 5HF (super-high frequency, super alta frecuencia) (3 - 30 GHz) y EHF (extreme// high frequency, extremadamente alta frecuencia) (30 - 300 GHz). Otras bandas de radiofrecuencia incluyen ondas de menor frecuencia y "mayor longitud de onda que las microondas. Las microondas de mayor frecuencia y menor longitud de onda —en el orden de milímetros— se denominan ondas milimétricas, radiación terahercio o rayos T. La existencia de ondas electromagnéticas, de las cuales las microondas forman parte del espectro de alta frecuencia, fueron predichas por Maxwell en 1864 a partir de sus famosas Ecuaciones de Maxwell. En 1888, Heinrich Rudolf Hertz fue el primero en demostrar la existencia de ondas electromagnéticas mediante la construcción de un aparato para producir ondas de radio
Figura 1. Torre de telecomunicaciones mediante microondas en Wellington Nueva Zelanda. El rango de frecuencias de microondas es utilizada para transmisiones de televisión (500 - 900 MHz, dependiendo de los países) o telefonía móvil (850- 900 MHz) y (1800 -1900 MHz).
1.2 LA GENERACIÓN DE ONDAS Las microondas pueden ser generadas de varias maneras, generalmente divididas en dos categorías; dispositivos de estado sólido y dispositivos basados en tubos
de vacío. Los dispositivos de estado sólido para microondas están basados en semiconductores de silicio o arsenuro de galio, e incluyen transistores de efecto campo (FET), transistores de unión bipolar (BJT). Diodos Gunn y diodos IMPATT. Se han desarrollado versiones especializadas de transistores estándar para altas velocidades que se usan comúnmente en aplicaciones de microondas. Los dispositivos basados en tubos de vacío operan teniendo en cuenta el movimiento balístico de un electrón en el vacío bajo la influencia de campos eléctricos o magnéticos, entre los que se incluyen el magnetrón, el klystron, el TWT y el girotón Una de las aplicaciones más conocidas de las microondas es el horno microondas, que usa un magnetrón para producir ondas a una frecuencia de aproximadamente 2.45 GHz. Estas ondas hacen vibrar o rotar las moléculas de agua, lo cual genera calor. Debido a que la mayor parte de los alimentos contienen un importante porcentaje de agua, pueden ser fácilmente cocinados de esta manera.
1.3 USOS En telecomunicaciones, las microondas son usadas en radiodifusión, ya que estas pasan fácilmente a través de la atmósfera con menos interferencia que otras longitudes de onda mayores. También hay más ancho de banda en el espectro de microondas que en el resto del espectro de radio. Usualmente, las microondas son usadas en programas informativos de televisión para transmitir una señal desde una localización remota a una estación de televisión mediante una camioneta especialmente equipada. Protocolos inalámbricos LAN, tales como Bluetooth y las especificaciones de Wi-Fi IEEE 802.11g y b también usan microondas en la banda ISM, aunque la especificación 802.11a usa una banda ISM en el rango de los 5 GHz. La televisión por cable y el acceso a Internet vía cable coaxial usan algunas de las más bajas frecuencias de microondas. Algunas redes de telefonía celular también usan bajas frecuencias de microondas. En la industria armamentística, se han desarrollado prototipos de armas que utilicen la tecnología de microondas para la incapacitación momentánea o permanente de diferentes enemigos en un radio limitado.2 La tecnología de microondas también es utilizada por los radares, para detectar el rango, velocidad y otras características de objetos remotos; o en el máser, un dispositivo similar a un láser pero que trabaja con frecuencias de microondas.
Figura 2. Proyecto ADS. El Active Denial System (ADS, Sistema Activo de Rechazo) es un proyecto del Ejército de los Estados Unidos en fase de desarrollo para el uso de microondas como arma no letal. El ADS produciría un aumento de la temperatura corporal de un individuo situado a una distancia de hasta 500 metros, mediante el mismo sistema que utiliza un horno microondas.' Bandas de frecuencia de las microondas Bandas de frecuencia de microondas Banda
P
L S C X
Inicio (GHZ)
0,2 1 2 4 8
Final (GHZ)
1
Ku K
K,
12 18
26,5 30 40 50 60 75
2 4 8 12 18 26,5 40
Q
U
V
E
W
F
D
90
110
50 60 75 90 110 140 170
1.4 RED POR MICROONDAS Una red por microondas es un tipo de red inalámbrica que utiliza microondas como medio de transmisión. El protocolo más frecuente es el IEEE 802.11b y transmite a 2.4 GHz, alcanzando velocidades de 11 Mbps (Megabits por segundo). Otras redes utilizan el rango de 5,4 a 5,7 GHz para el protocolo IEEE 802.1 1a. 1.4.1 INTERNET POR MICROONDAS Muchas empresas que se dedican a ofrecer servicios de Internet, lo hacen a través de las microondas, logrando velocidades de transmisión y recepción de
datos de 2.048 Mbps (nivel estándar ET5I, El), o múltiplos.
¿Cómo funciona este servicio? El servicio utiliza una antena que se coloca en un área despejada sin obstáculos de edificios, árboles u otras cosas que pudieran entorpecer una buena recepción en el edificio o la casa del receptor y se coloca un módem que interconecta la antena con la computadora. La comunicación entre el módem y la computadora se realiza a través de una tarjeta de red, que deberá estar instalada en la computadora. La comunicación se realiza a través de microondas, en España en las bandas de 3,5 o 26 GHz. La tecnología inalámbrica trabaja bien en ambientes de ciudades congestionadas, ambientes suburbanos y ambientes rurales, al sobreponerse a los problemas de instalación de líneas terrestres, problemas de alcance de señal, instalación y tamaño de antena requeridos por los usuarios. Las etapas de comunicación son: 1. Cuando el usuario final accede a un navegador de Internet instalado en su computadora y solicita alguna información o teclea una dirección electrónica, se genera una señal digital que es enviada a través de la tarjeta de red hacia el módem. 2. El módem especial convierte la señal digital a formato analógico (la modula) y la envía por medio de un cable coaxial a la antena.
3. La antena se encarga de radiar, en el espacio libre, la señal en forma de ondas electromagnéticas (microondas). 4. Las ondas electromagnéticas son captadas por la radio base de la empresa que le brinda el servicio, esta radio base a su vez la envía hacia el nodo central por medio de un cable generalmente de fibra óptica o de otra radio de gran capacidad para conexiones punto a punto en bandas de frecuencia disponibles (6GHz, 13GHz, 15GHz, 18GHz, 23GHz, 26GHz o 38GHz).
5. El nodo central valida el acceso del cliente a la red, y realiza otras acciones como facturación del cliente y monitoreo del desempeño del sistema. 6. Finalmente el nodo central dirige la solicitud hacia Internet y una vez que localiza la información se envía la señal de regreso a la computadora del
cliente. Este proceso se lleva a cabo en fracciones de segundo.
¿Qué ventajas tiene?
-Alta velocidad de comunicación con Internet, lo que permite bajar software, música y videos en mucho menor tiempo. -Permite acceder a videoconferencias en tiempo real. -Alta calidad de señal. -Conexión permanente. -Permite la comunicación entre equipos de cómputo que se encuentren en diferentes edificios.
¿Qué desventajas presenta? Para uso doméstico, el costo económico del servicio resulta muy elevado. Se tiene que cubrir un costo de instalación y una mensualidad seis veces mas alta que la solicitada para un acceso vía línea telefónica (claro hay que considerar que éste sistema permite conectar alrededor de 12 computadoras al mismo tiempo y por supuesto la alta velocidad de acceso). -Por ahora, la cobertura al igual que en el caso del acceso vía cable módem, sólo esta habilitada para unas cuantas ciudades de la República Mexicana. Finalmente podemos decir que por el momento, las empresas que ofrecen este servicio se dedican principalmente al mercado empresarial, pero en un futuro muy cercano podemos esperar que éste servicio de acceso a la Red a través de radiofrecuencia se difunda con mas vigor a los usuario hogareños a través de un costo más accesible.
¿Cómo contratar el servicio de una red por microondas? 1. Contratar los servicios de una compañía que brinde el servicio en la localidad. 2. El siguiente equipo que proporciona la empresa con la que se contrate el servicio: Antena aérea, Módem, y un hub o concentrador (aparato que permite conectar más de una computadora).
3. Una computadora PC, Mac o Laptop con una velocidad superior a los 100Mhz, 25Mb de espacio libre en disco duro y 32Mb en memoria RAM. 4. Una tarjeta de red ETHERNET con conector 10/100 baseT. Un navegador de Internet instalado en la computador como. por ejemplo, Internet Explorer, Netscape, Ópera o Monzilla Firefox Alta velocidad de comunicación con Internet, lo que permite bajar software, música y videos en mucho menor tiempo. 5. Permite acceder a videoconferencias en tiempo real. 6. Alta calidad de señal. 7. Conexión permanente. 8. Permite la comunicación entre equipos de cómputo que se encuentren en diferentes edificios.
CAPITULO 2. APLICACIONES DE LA INGENIERÍA DE MICROONDAS INTRODUCCIÓN El empleo de las señales electromagnéticas de alta frecuencia ha experimentado un importante desarrollo desde mediados del siglo xx. Sus aplicaciones son numerosas y se extienden a ámbitos muy diversos, en los cuales se aprovechan las posibilidades que ofrece la radiación electromagnética tanto para transmitir información como para suministrar energía. El concepto de «microonda» no está adscrito a un margen de frecuencias con unos límites universalmente aceptados, y suele utilizarse más bien para identificar señales en cuya generación, propagación y procesado se utilizan un conjunto de técnicas muy específicas que no se emplean ni en la Electrónica de baja frecuencia ni en la Óptica. Con este criterio puede considerarse que las «microondas» son todas aquellas ondas electromagnéticas con frecuencias comprendidas entre unos 300 MHz y unos 300 GHz. En las bandas más utilizadas en radiocomunicaciones (entre unos 2 MHz y unos 2 GHz) también es habitual llamar a las señales «señales de radiofrecuencia» o señales RF. No sería justo disociar completamente el estudio de las microondas del de las señales RF. De hecho, ambos tipos de ondas comparten no sólo bandas de frecuencia de interés sino también muchas aplicaciones importantes. En este capitulo se tratarán algunas de las aplicaciones más destacadas que se benefician del uso de la radiofrecuencia y las microondas.
2.1. RADAR 2.1.1. Orígenes del Radar El término RADAR es un acrónimo constituido por las primeras letras de las palabras Radio Detección And Ranging. Los fundamentos teóricos y los componentes constitutivos básicos de los sistemas de radar ya eran bien conocidos a principios del siglo XX. En 1864 J.C. Maxwell publicó sus ecuaciones, catalogando a la luz como una onda electromagnética. Gracias a ello, rápidamente se llegó a la conclusión de que al igual que la luz, las ondas de radio podían ser reflejadas por objetos metálicos y refractadas por objetos dieléctricos. Estas propiedades fueron verificadas experimentalmente por Hertz, cuyos principales trabajos fueron publicados en Annalen der Physik entre 1887 y 1892 . Hertz realizó una notable labor en el desarrollo de sistemas para la generación, propagación y detección de ondas electromagnéticas de alta
frecuencia. Su instrumentación fue diseñada para medidas a frecuencias comprendidas entre los 50 y los 500 MHz. Por otra parte, otros dos descubrimientos clave en el desarrollo de los radares también datan del siglo XIX: Christian Johann Doppler descubrió el efecto que lleva su nombre en 1842, y en 1897 Ferdinand Brown inventó el osciloscopio de rayos catódicos, ampliamente utilizado para monitorizar señales de radar. El primer sistema de radar práctico se atribuye a Christian Hülsmeyer, quien en 1904 patentó un «dispositivo para navegación de barcos y detección de obstáculos» cuya finalidad era esencialmente evitar la colisión de barcos. Este dispositivo fue ofrecido a la marina alemana, pero suscitó entonces un escaso interés debido a que en aquella época no existía aún una necesidad apremiante de este tipo de aplicaciones. A comienzos de la Segunda Guerra Mundial se experimentó el primer gran desarrollo de los radares, como respuesta a la necesidad de disponer de algún método de detección eficaz y de largo alcance que fuera capaz de localizar aviones, barcos o carros de combate en condiciones de visibilidad deficientes. En la década 1930-1940 se realizaron estudios exhaustivos de la tecnología de radar simultáneamente en distintos países, como Gran Bretaña, Alemania, Estados Unidos, Italia, Japón, Francia y la antigua Unión Soviética. La mayor parte de los radares construidos en aquella época funcionaban a frecuencias de VHF (por debajo de unos 200 MHz), a excepción de algunos diseños alemanes que operaban a 375 y 560 MHz. No obstante, en 1939 Henry A. H. de Boot y John T. Randall inventaron el magnetrón en la Universidad de Birmingham, un generador de alta potencia que permitió realizar diseños de radares a frecuencias de microondas con un elevado alcance. Un año después este invento fue cedido a Estados Unidos, y los investigadores del en aquel entonces recientemente constituido Instituto de Tecnología de Massachussets (MIT) lo utilizaron como componente clave en sus célebres desarrollos de la tecnología del radar . Uno de los modelos de radar más significativos que desarrolló el MIT fue el SCR584, que incorporaba un sistema de control de fuego. Este sistema operaba en el rango de 2,7 - 2,9 GHz y estaba dotado de una antena parabólica de 2 m de diámetro. A pesar de sus orígenes militares, en la actualidad los radares han encontrado importantes aplicaciones civiles tales como navegación marítima y aérea, cartografía, control de tráfico en aeropuertos, sistemas de aterrizaje, altimetría y
predicción meteorológica. 2.1.2. Principio de Funcionamiento En su versión más simple, un sistema de radar consiste esencialmente en un emisor de señal que ilumina el cuerpo a detectar, y un receptor que detecta la señal reflejada procedente del cuerpo iluminado. Si la señal se emite de modo constante, el radar se denomina radar de onda continua o radar CW. Si el emisor y el receptor comparten la misma antena, el radar recibe el nombre de monoestático, llamándose biestático en caso contrario. La ecuación del radar (1.1) permite estimar el cociente entre la potencia recibida y la transmitida. Su versión más básica es aplicable a radares monoestáticos en los que pueden despreciarse las pérdidas de señal en el medio y en los que la distancia entre el objeto y el radar es muy superior a la longitud de onda de la señal emitida, PREC PTRANS =
G2 λ2 σ (4Π)3 r4
(1.1)
Donde r es la distancia del objeto al radar, λ es la longitud de onda de la señal y G y σ son dos parámetros característicos de la antena y del objeto iluminado respectivamente. G recibe el nombre de ganancia y es un factor adimensional que proporciona información sobre la capacidad de la antena para concentrar la radiación emitida en una dirección privilegiada. El factor σ tiene dimensiones de superficie, recibe el nombre de sección eficaz de radar y podemos definirla como el cociente entre la potencia total reflejada por el objeto y la densidad de potencia incidente en el mismo. Los radares permiten determinar la velocidad de objetos móviles a partir del efecto Doppler : Si el radar ilumina un objeto en movimiento existirá un desplazamiento en frecuencia que en ausencia de efectos relativistas será proporcional a la velocidad del objeto, a través de la expresión:
f= 2f0V
(1.2)
C donde V es la velocidad relativa del objeto, fo la frecuencia de la señal emitida y C la velocidad de la luz en el medio existente entre el radar y el objeto. El factor 2 que aparece en esta expresión 8 (1.2)(y que no figura en la expresión clásica del efecto Doppler) es el resultado de que la onda emitida sufra una doble compresión o expansión en su trayectoria: la primera en su viaje de ida hasta el objeto y la segunda en su regreso desde el objeto hasta la antena receptora.
Una vez que la antena ha recibido la señal procedente de un objeto en movimiento, el desplazamiento Doppler se mide con la ayuda de un componente que tiene una gran relevancia: el mezclador. En próximos capítulos se tratará con detalle este componente de uso tan común en los sistemas de microondas. De momento lo consideraremos como una «caja negra» con dos entradas y una salida en la que se obtiene una señal proporcional al producto de las dos entradas. El mezclador es por tanto un elemento no lineal que, generalmente, suministrará a su salida una señal cuyo espectro tendrá distintos armónicos; de entre los cuales siempre será posible seleccionar el que más interese mediante un filtro. En un sistema de radar se podrían aplicar las señales emitida y recibida a las dos entradas del mezclador. Mediante operaciones trigonométricas simples puede comprobarse que si ambas señales son sinusoidales, a la salida del mezclador obtendríamos un armónico con frecuencia igual a la diferencia de las dos frecuencias de entrada. Bastaría por tanto con filtrar y medir la frecuencia de este armónico para obtener finalmente la velocidad del objeto. La elección del filtro más apropiado para la identificación del armónico de interés se puede realizar sin demasiados problemas con una estimación preliminar del orden de magnitud de la velocidad del objeto. Es interesante observar que al ser la velocidad de un cuerpo generalmente muy inferior a la velocidad de la luz, la ecuación fundamental del efecto Doppler indica que la frecuencia del armónico que ha sido filtrado, f, es muy inferior a la de la señal emitida. En definitiva, es posible utilizar un mezclador y un filtro para obtener información de una señal de frecuencia generalmente muy elevada (la que se recibe) a partir de otra señal de frecuencia mucho menor que puede ser caracterizada experimentalmente con más facilidad. Esta peculiaridad hace que los mezcladores sean prácticamente imprescindibles no sólo en los radares, sino también en cualquier sistema que utilice señales de microondas. En el radar tan sencillo que acabamos de describir existen limitaciones importantes. No puede saberse si el objeto se acerca o se aleja, puesto que el mezclador proporciona dos armónicos con frecuencias ± f. Tampoco puede determinarse a qué distancia se encuentra el objeto. Para superar estas limitaciones es necesario recurrir a un radar de pulsos.
2.1.3. Radares De Pulsos Los radares de pulsos utilizan secuencias de señales de alta frecuencia emitidas a intervalos periódicos, en lugar de utilizar señales monocromáticas. Estos instrumentos no sólo superan las limitaciones del radar descrito en el apartado anterior, sino que también ofrecen ventajas adicionales: consumen mucha menos potencia y permiten que la emisión y la recepción puedan realizarse en tiempos distintos. Esta última posibilidad es sumamente interesante puesto que la potencia emitida por un radar es generalmente muchos órdenes de magnitud superior a la recibida, y esta diferencia en los niveles de potencia hace que sea difícil aislar el receptor del emisor en los radares monoestáticos. Utilizando distintos tiempos en la emisión y la recepción se minimiza el riesgo de producir interferencias. La elección de la frecuencia de repetición y la duración de los pulsos es particularmente importante. Los pulsos de una duración muy corta ofrecen buenas resoluciones en la medida de la posición del objeto, pero también son más difíciles de detectar. Por otra parte, una frecuencia elevada en la emisión de pulsos permite obtener la información sobre los objetos iluminados por el radar en menor tiempo y con mayor precisión, pero puede dar lugar a errores sistemáticos derivados de ambigüedades en la medida de las posiciones. Este tipo de problemas surge cuando la antena emite más de un pulso en el tiempo que transcurre desde que se emite hasta que se recibe el primer pulso. En estas circunstancias el radar no puede determinar unívocamente cuándo se emitió cada uno de los pulsos recibidos, puesto que la posición del radar o de los objetos iluminados cambian habitualmente durante la emisión de los pulsos y puede ocurrir que un pulso emitido con posterioridad a otro llegue primero a la antena receptora, por haber incidido en un objeto más próximo. Este problema da lugar a que exista un alcance máximo que puede medirse sin ambigüedades, y que será tanto menor cuanto mayor sea la frecuencia de repetición de los pulsos. Existen algunos procedimientos para aumentar este alcance, por ejemplo, etiquetar los pulsos (es decir, darles formas diferentes) o bien emitir los pulsos a intervalos no uniformes. Sin embargo, es claro que a pesar de estos procedimientos es necesario buscar un buen compromiso entre el alcance máximo sin ambigüedades y la resolución. En la práctica, la frecuencia de repetición de pulsos en los radares se fija habitualmente en torno a 100 Hz - 100 kHz2. Puede parecer que es relativamente fácil diseñar un sistema de radar que utilice señales con espectros en los que se acumule la energía en torno a estas frecuencias, pero en la práctica el uso de estas señales daría lugar a una seria dificultad tanto en la transmisión como en la recepción. Esta dificultad se deriva del hecho de que para poder intercambiar
energía electromagnética con un medio infinito de una forma eficiente es necesario utilizar antenas cuyos tamaños son tanto mayor, cuanto mayor es la longitud de onda de la señal utilizada. Con la transformada de Fourier puede comprobarse que un tren de pulsos constituye una señal en banda base, es decir, la mayor parte de la energía de la señal se localiza en las frecuencias más bajas. Así pues, no resulta práctico utilizar señales en banda base para intercambiar energía con un medio infinito; y por tanto el diseño de un radar pulsado plantea el problema de transmitir y recibir los pulsos con una frecuencia razonable pero utilizando para ello antenas de dimensiones razonables. La clave para resolver este problema hay que buscarla en un componente que ya conocemos: el mezclador. Con una electrónica de radar más complicada es posible conseguir que el transmisor emita una señal consistente en el producto de una sinusoide de alta frecuencia por el tren de pulsos. Esta señal tiene un espectro con la misma forma que el de un tren de pulsos, pero que acumula la mayor parte de la energía en torno a la frecuencia de la sinusoide. Las señales de estas características, en las que la energía no se acumula en torno al origen de frecuencias, reciben el nombre genérico de señales paso banda. A la sinusoide empleada se le llama habitualmente portadora. Con estos principios básicos, ya estamos en condiciones de hacer algunas consideraciones sobre el margen de frecuencias que sería más apropiado para aplicaciones de radar. ¿Debemos maximizar la frecuencia de emisión, minimizarla, o buscar una frecuencia «intermedia»? Reduciendo la frecuencia se dificulta el diseño de una antena de alta ganancia. Por otra parte, al aumentar la longitud de onda se perdería resolución en la localización del objeto, con el problema añadido de que la obtención de la velocidad podría ser muy lenta pues haría falta más tiempo para identificar correctamente la señal. Más aún, la caracterización de señales de bajas frecuencias es complicada por la aparición de contribuciones al ruido generado en el receptor con densidades espectrales de potencia inversamente proporcionales a la frecuencia (ruido 1 l f). Tampoco puede incrementarse excesivamente la frecuencia de la señal emitida por un radar. La ecuación del radar indica que esta potencia disminuye con la longitud de onda, y por otra parte las frecuencias más elevadas sufren mayores atenuaciones en la atmósfera, especialmente si las condiciones climatológicas no son favorables. El problema de recibir niveles de potencia débiles a frecuencias elevadas se agravaría aun más por el hecho de que la medición precisa de la potencia se hace
más difícil al aumentar la frecuencia de la señal. Así pues, hay que buscar un buen compromiso en la selección de las frecuencias más idóneas, y en la práctica este compromiso sitúa las frecuencias óptimas en las bandas de microondas. 2.1.4. Radares De Apertura Sintética El mezclador ofrece la posibilidad de acumular la mayor parte de la energía de la señal en bandas de altas frecuencias, pero generalmente es importante disponer de antenas de elevadas dimensiones para conseguir un buen alcance y resolución en un radar. A pesar de ello, en la actualidad existen sistemas de radar que utilizan un ingenioso procedimiento para conseguir grandes resoluciones y alcances sin emplear antenas de grandes dimensiones: son los radares de apertura sintética (SAR). Este tipo de radares se emplea con profusión en análisis y cartografía de superficies desde el aire o el espacio. La Figura muestra cómo se emiten los pulsos en un SAR. El radar aprovecha el movimiento del avión, satélite o trasbordador donde está instalado para conseguir que los pulsos «vean» la antena que los emite con unas dimensiones aparentes superiores a las reales. La emisión de los pulsos hacia el área que se desea caracterizar se realiza de forma oblicua, de tal manera que los pulsos obtenidos en la recepción proporcionan información sobre la rugosidad del terreno. Las superficies con menor rugosidad, como por ejemplo los ríos, mares o capas de hielo, reflejan los pulsos de una forma prácticamente especular; lo que da lugar a que el radar no reciba prácticamente ningún pulso. Debido a ello, en las imágenes generadas por un SAR estas superficies aparecen en color negro. La reflexión de los pulsos en las superficies regulares, como los edificios, es esencialmente distinta de la que se produce en las zonas de vegetación, lo cual da lugar a distintos tipos de texturas que permiten identificar la naturaleza del terreno. Mediante un procesado digital de la señal recibida es posible reconstruir una imagen del área iluminada incluso en condiciones climatológicas muy deficientes. En la Figura 1.3 también se puede observar una imagen obtenida con un radar de apertura sintética que utiliza señales de unos 15 GHz. Esta imagen, de una resolución de 1 m, fue realizada con barridos a distancias antena-superficie comprendidas entre 2 y 15 km. El radar Lynx, que opera a frecuencias similares, fue diseñado en los Sandia National Laboratories y puede proporcionar resoluciones de hasta 0,1 m con distancias comprendidas entre 25 y 80 km . El principio de funcionamiento de los radares de apertura sintética fue ideado por Cari Wiley en 1957. Pero no fue hasta la década de 1990 a 2000 cuando el radar de apertura sintética comenzó a demostrar brillantemente todas sus posibilidades. En 1989 la NASA utilizó el trasbordador Atlantis para lanzar al espacio la sonda Magallanes, la cual alcanzó la órbita de Venus quince meses después. El radar de
apertura sintética instalado en la sonda permitió cartografiar el 98% de la superficie de Venus con una resolución de 100 m.
(a)
(b)
(c)
Figura 1.3. Radar de Apertura Sintetica. a ) vista frontal de las secuencias de pulso emitidos y recibidos. b) vista lateral. c) detalle de la ciudad de Washington obtenida con un SAR
Este mapa se obtuvo en tres barridos que fueron realizados por la sonda desde septiembre de 1990 hasta septiembre de1992. En julio de 1991 la Agencia Espacial Europea (ESA) puso en órbita el satélite ERS-1 a una altura de 780 Km sobre la Tierra . Con una antena de dimensiones 10 x 1m. El radar de apertura sintética de este satélite fue capaz de obtener mapas de la superficie terrestre con una resolución de 30 m. Cuatro años después la ESA puso en orbita un satélite muy similar el ERS-2, con la misma instrumentación mas un sistema de interferometría para analizar la composición química de la atmósfera terrestre. El ERS-2 fue situado en una Órbita de tandem respecto del ERS-1 de manera que el primero seguía la misma trayectoria de su predecesor, iluminando la misma área de la superficie terrestre con un retraso de de 24 h. Este sistema fue capaz, de proporcionar una inestimable información sobre cambios en la superficie terrestre, tanto en tierra firme como en los océanos. Sin verse apenas afectado por las condiciones atmosféricas. La agencia espacial canadiense también ha desarrollado un programa de misiones que aprovechan las posibilidades de los radares de apertura sintética.
En 1995 la NASA puso en órbita el RADARSAT-1 canadiense, el cual opera a una sola frecuencia pero permite obtener mapas de distintas dimensiones con resoluciones que pueden variar entre los 10 y los 100 m. El AIRSAR de la NASA constituye un complejo sistema que utiliza múltiples frecuencias y polarizaciones para optimizar las resoluciones y la identificación del tipo de superficie iluminada. Fue instalado en un avión DC-8. y realizó su primera misión en 1988 posteriormente se instalaron dos antenas de la misma frecuencia y separadas a una distancia fija con las cuales se pudieron obtener imágenes de una misma superficie en tiempos distintos, Mediante técnicas de interferometria es posible aprovechar estas imágenes tomadas en tiempos distintos para construir mapas en relieve de la zona iluminada. El sistema SIR-C/X-SAR fue desarrollado en un proyecto conjunto a la NASA y las agencias espaciales alemana (DARA) e italiana (ASI). Este sistema puesto en órbita por la NASA en dos ocasiones durante 1994 también permite realizar medidas a frecuencias y polarizaciones distintas. Posteriormente fue perfeccionado en el año 2000 el trasbordador Endeavor lo colocó en la órbita terrestre. El trasbordador se dotó de un mástil de 60 m, al final del cual se instalaron dos nuevas antenas receptoras sintonizadas a dos frecuencias distintas, en una misión que duró once días, el sistema permitió realizar con una gran precisión mapas en relieve de la superficie terrestre comprendida entre los 60° latitud Norte y los 59° latitud Sur, lo que constituye en torno al 80% de la superficie total de la Tierra.
2.2 RADIOMETRIA La radiometría es un área de la tecnológica muy reciente y en continua expansión. Los radiómetros permiten obtener información sobre un cuerpo mediante la detención y análisis del espectro de la radiación emitida por dicho cuerpo. Así pues a diferencia del radar, un radiómetro es capaz de obtener información sin necesidad de enviar señales al objeto que se desea analizar. Entre las múltiples aplicaciones de la radiometría se destacan el análisis de suelos atmósfera terrestre, radiación solar, radiación cósmica. etc.
2.2.1 Aprovechamiento Del Ruido Térmico El principio de funcionamiento de un radiómetro está basado en el hecho de que todos los cuerpos emiten radiación electromagnética debido a las vibraciones de sus átomos. En un material en el que existen electrones libres estas mismas vibraciones dan
lugar a fluctuaciones en las velocidades de los electrones, las cuales originan a su vez el bien conocido ruido térmico. Un radiómetro utiliza una antena para captar la radiación electromagnética procedente del cuerpo que se desea caracterizar. Esta radiación induce a su vez una determinada potencia de ruido térmico en el receptor, a partir de la cual se puede obtener la temperatura del cuerpo. Con medidas de la potencia de ruido a distintas frecuencias es posible extraer el espectro de emisión del cuerpo, con el cual se puede obtener a su vez información sobre su composición química. Así pues, un radiómetro es esencialmente un medidor de potencia de alta sensibilidad que se aprovecha de algo generalmente considerado como no deseable: el ruido. La existencia de una fuerza electromotriz aleatoria debida a la agitación térmica de las cargas libres en un cuerpo fue postulada en 1918 por Walter Schottky y descubierta experimentalmente por Johnson en 1926. En 1928 Johnson publicaría un estudio detallado de su sistema de medida, el cual puede ser considerado como el primer radiómetro [15]. Utilizando un amplificador de válvulas de vacío que funcionaba a frecuencias de audio y un termopar, Johnson midió la fuerza electromotriz generada por resistencias de distintos valores, formas y composición que fueron mantenidas en equilibrio a una temperatura conocida. En sus medidas observó que la potencia asociada al voltaje generado, es decir el valor medio del cuadrado del voltaje dividido por la resistencia, era independiente de la geometría y composición de la resistencia pero era proporcional a su temperatura. Sintonizando el amplificador a distintas frecuencias, Johnson también comprobó que esta potencia de ruido era independiente de la frecuencia, pero aumentaba proporcionalmente con el ancho de banda del amplificador. Sus medidas le llevaron a una expresión analítica para la potencia disponible en el caso de un sistema de medida ideal en el que la amplificación del voltaje generado fuera la misma a todas las frecuencias y estuviera restringida a un ancho de banda concreto, <V2 > W= 4R= kT f (1.3) Donde T es la temperatura de la resistencia, k la constante de Boltzmann y f margen de frecuencias en el que funciona el circuito de medida. Johnson sólo verificó esta expresión experimentalmente, pero simultáneamente a este trabajo, H. Nyquist publicó un modelo teórico que permitía llegar a esta misma expresión utilizando únicamente las leyes de la mecánica estadística. Asimismo, Nyquist postuló que en aquellas circunstancias en las que la mecánica estadística clásica no fuera válida haría falta corregir esta expresión según las leyes de la mecánica cuántica, las cuales establecen que el factor kT ha de ser sustituido por:
hf
(1.4)
Ehf / kT-1 por donde h es la constante de Planck. Si bien esta corrección no incluye la energía del punto cero , es muy meritorio que Nyquist la considerase, pues en aquella época la recientemente desarrollada mecánica cuántica aún contaba entre sus detractores o científicos de gran prestigio, entre los que se encontraba Albert Einstein3.
La corrección cuántica da lugar a modificaciones de la potencia de ruido generada que son prácticamente imposibles de medir en condiciones normales de operación. Solamente cuando el cuerpo que genera el ruido se encuentra a temperaturas criogénicas, o bien cuando la potencia se mide en márgenes de frecuencia superiores a 10-100 THz, es necesario utilizar la mecánica cuántica para evitar errores importantes. El gran impacto causado por el trabajo de Nyquist en los investigadores posteriores ha hecho que la Ecuación (1.3) reciba el nombre de «Teorema de Nyquist». Sus consecuencias son realmente importantes, puesto que este teorema establece las dos «reglas de oro» más básicas para conseguir medidas de alta sensibilidad: reducir el ancho de banda del sistema de medida y diseñarlo para que funcione a temperaturas lo más bajas posibles. 2.2.2. Algunos Detalles A Considerar En El Diseño Los componentes constitutivos de un radiómetro generan ruido térmico. Así pues, la potencia total que se mide en un radiómetro tendrá dos contribuciones aparentemente indistinguibles: el ruido procedente del cuerpo a caracterizar y el generado por el propio radiómetro. Para poder extraer correctamente la temperatura del cuerpo es necesario recurrir a una calibración. En un proceso de calibración típico se mide inicialmente la potencia cuando el radiómetro se excita con una fuente de ruido patrón (por ejemplo, un cuerpo cuya temperatura ya se conoce). Una vez realizada la calibración se haría la medida, y la comparación de las potencias medidas en ambos casos nos proporcionaría la temperatura buscada. Las frecuencias más apropiadas para cada aplicación de radiometría pueden variar desde 1 GHz hasta las frecuencias de las bandas ultravioleta. Sin embargo, si nos centramos en los radiómetros de microondas, a las frecuencias más altas podremos medir potencias de ruido elevadas con un modesto ancho de banda porcentual, pero entonces la medida precisa de la potencia se haría más difícil, y además al centrar nuestra atención en la parte de la radiación a las frecuencias más elevadas se perdería alcance en la detección a distancia de los cuerpos por
las mismas razones mencionadas en el apartado que hemos dedicado al radar. Por otra parte, el uso de frecuencias más bajas que las correspondientes a las bandas de microondas no es apropiado tampoco en los sistemas de radiometría, debido a la necesidad de utilizar grandes antenas. La posibilidad de medir a distancia temperaturas en el interior de cuerpos es una ventaja importante de la radiometría de microondas. Si sólo estuviésemos interesados en distribuciones térmicas de superficies, un sistema basado en censores de infrarrojos sería más compacto y preciso. La radiometría de infrarrojos también puede ofrecer excelentes resultados en el estudio de las distribuciones térmicas en la superficie terrestre, siempre y cuando el cielo esté despejado. Cuando las condiciones climatológicas son adversas la radiometría de microondas suele ser la alternativa más viable para estudiar no sólo la superficie de la Tierra sino también su atmósfera. En la práctica es frecuente utilizar microondas e infrarrojos para conseguir la mayor versatilidad posible. De hecho, el estudio del contenido de determinadas moléculas de especial relevancia en las capas atmosféricas requiere el uso de bandas de frecuencias concretas que se localizan desde las microondas hasta las del infrarrojo lejano, con longitudes de ondas milimétricas y sub-milimétricas. El diseño de circuitos e instrumentación para estas longitudes de onda entraña una gran dificultad, y sólo muy recientemente se han comenzando a explotar las posibilidades de la radiometría en estas bandas.
2.2.3. Estudio De La Tierra Desde El Espacio Los satélites ERS-1 y ERS-2 de la ESA no sólo fueron dotados de radares de apertura sintética. También se instalaron en ellos sistemas de radiometría de microondas e infrarrojos. El radiómetro de infrarrojos del ERS-1, dotado con cuatro canales a distintas longitudes de onda (1,6, 3,7, 11 y 12 μm), se utilizó con éxito para realizar medidas de la temperatura de la superficie de mares y océanos. Por su parte, el radiómetro de microondas de este satélite dispone de dos canales de 23,8 y 36,5 GHz, y con él se pudo extraer importante información sobre el contenido de agua líquida y vapor de agua de la atmósfera. Esta información también permitió realizar correcciones a la calibración del radiómetro de infrarrojos para alcanzar excelentes precisiones en las medidas de temperatura, del orden de 0,3 K en ausencia de nubes. El radiómetro de infrarrojos del ERS-2 es una versión mejorada de su antecesor,
en la que se añadieron más canales en longitudes de onda pertenecientes al espectro visible (0,55, 0,67 y 0,87 μm). Con estos canales adicionales fue posible monitorizar zonas de vegetación para investigar el avance de la desertización de la superficie terrestre. El radiómetro de microondas del ERS-2, esencialmente igual a su predecesor, ofreció esta vez abundante información sobre la evolución de las capas de hielo en las zonas polares. Las misiones EOS, coordinadas por la NASA y con participación de distintos países de todo el mundo, abarcan la utilización de tres satélites, TERRA, AQUA y AURA4. Estas misiones tienen como objetivo el estudio global de la Tierra, tanto de su superficie como de su atmósfera. El AURA dispone de un sistema de radiometría de múltiples canales, el MLS (Microwave Limb Sounder), para el estudio de la composición química de la estratosfera y la troposfera. Las frecuencias de diseño fueron seleccionadas para determinar los contenidos en la atmósfera de distintos componentes de interés, y abarcan desde los 119 GHz para medidas de presión y temperatura hasta 2,5 THz para el estudio de las concentraciones de OH.
2.3. RADIOCOMUNICACIONES 2.3.1. ¿Cómo Se Puede Propagar Energía Electromagnética? Las propiedades de la capa más externa de la atmósfera, la ionosfera, permiten diferenciar los mecanismos más apropiados para transmitir campos electromagnéticos a largas distancias. La ionosfera está constituida por un plasma, es decir, un conjunto de partículas cargadas de ambos signos que tiene una carga neta nula o prácticamente nula, y que presenta un comportamiento colectivo5. Las cargas que existen en la ionosfera son consecuencia directa de la radiación cósmica y muy especialmente de la solar. Cuando una onda electromagnética incide en un plasma, éste se puede comportar como un metal o como un dieléctrico, dependiendo de que la frecuencia de la onda sea muy baja o muy alta, respectivamente. Todo plasma tiene una frecuencia característica que delimita su comportamiento como conductor de su comportamiento como dieléctrico: la frecuencia de corte o frecuencia de plasma. Esta frecuencia aumenta proporcionalmente con la raíz cuadrada de la densidad de partículas cargadas. Los mecanismos óptimos para transmitir energía electromagnética a grandes distancias dependen en gran medida de la frecuencia de la onda. La Figura 1.4
muestra un esquema de las posibles formas en las que se puede propagar una onda a través de la atmósfera. Cuando las frecuencias son muy bajas (con longitudes de onda del orden de 100 km o superiores) la ionosfera y la superficie terrestre actúan como dos grandes conductores que confinan toda la energía transmitida, y las señales pueden propagarse como si estuvieran en el interior de una gran guía de onda. A frecuencias más elevadas, desde unos 3 kHz hasta 1 -2 MHz, la forma más eficaz de transmitir energía a un medio es concentrándola fundamentalmente en las cercanías de la superficie terrestre, de manera que la propagación se realice por ondas de superficie. Las ondas de superficie aprovechan el efecto de difracción en cada obstáculo que encuentran para alcanzar distancias muy elevadas con potencias de emisión razonables. Este mecanismo de propagación se utiliza en las clásicas emisoras de radio AM. Cuando las frecuencias son superiores a los 2 MHz es posible aprovechar el efecto que se conoce con el nombre de Sky-wave. Este efecto es una consecuencia directa de la falta de homogeneidad de la ionosfera. A frecuencias del orden de la frecuencia de corte media de la ionosfera, en torno a unos 8 MHz, una onda procedente de la superficie terrestre que incida oblicuamente en la ionosfera sufre múltiples refracciones que dan lugar a un cambio en la dirección de propagación. De esta manera, si las ondas son emitidas hacia la ionosfera acaban por regresar a la superficie terrestre mediante refracciones múltiples. Gracias a ello, es teóricamente posible comunicar dos enlaces muy distantes entre sí que no pudieran intercambiar señales de forma directa a causa de la curvatura de la Tierra. Las transmisiones de señales basadas en el aprovechamiento de la ionosfera no pueden ofrecer grandes prestaciones debido a la variabilidad de este medio, lógicamente la concentración de iones no es la misma de día que de noche. También varía con la distancia de la Tierra al Sol, y por tanto depende de la estación del año. Tampoco resulta demasiado fiable transmitir señales basándonos en las ondas de superficie, dado que ésta también es extremadamente variable. Sin embargo, cuando las frecuencias de emisión se encuentran por encima de unos 30 MHz la ionosfera se hace transparente a la radiación electromagnética, y además comienza a ser relativamente fácil diseñar antenas de dimensiones razonables que sean capaces de concentrar la radiación en direcciones privilegiadas. Gracias a ello podemos utilizar satélites que permiten comunicar todos los puntos de la superficie terrestre. La transmisión de señal en una dirección privilegiada recibe habitualmente el nombre de transmisión punto apunto o LOS (Line Of Sight). Este es el mecanismo de propagación más habitual en los sistemas de comunicación modernos. Así pues, no resulta extraño que las microondas sean tan relevantes en la transmisión de señal a largas distancias, Pero tal y como veremos en el próximo apartado, aún
hay más motivos para destacar esta relevancia.
(a
(b)
(c)
(d)
Figura 1.4 Mecanismos de Propagación a) Guía de onda, b) Ondas de Superficie, c) Sky-wave, d) LOS 2.3.2. ¿Cómo Se Puede Transmitir Información? Una onda monocromática pura no permite transmitir información. Si se quiere enviar datos, es necesario utilizar técnicas de modulación, en las cuales se modifica una onda de forma controlada en base al mensaje que se desea transmitir. Tradicionalmente la transmisión de información se ha realizado mediante sistemas analógicos, en los que se emplean las conocidas técnicas de AM, FM y PM. En cada una de estas técnicas se modifica cada uno de los tres atributos de una onda: la amplitud (AM), la frecuencia (FM) o la fase (PM). En la actualidad las comunicaciones se realizan mayoritariamente mediante sistemas digitales. En estos sistemas el mensaje es previamente digitalizado, es decir, convertido a secuencias de bits (unos y ceros), que son las que finalmente se transmiten. Para transmitir esta secuencia es preciso a su vez asignar formas de onda de una duración predeterminada a cada bit o grupo de bits. La modulación puede ser binaria o m-aria. En la primera se utilizan sólo dos formas de onda distintas:
Una para representar al 1 y otra para el 0. En la segunda se agrupan los mensajes en bloques de n bits cada uno, los cuales reciben el nombre de símbolos. En un sistema m-ario el número total de símbolos es m = 2", y cada uno emplea una única forma de onda. De este modo se pueden alcanzar elevadas velocidades de transmisión. La modulación también se clasifica en los tipos ASK, FSK o PSK, dependiendo de que se utilice la amplitud, la frecuencia o la fase para diferenciar las formas de onda representativas de los bits o símbolos. Por ejemplo, en QPSK se utilizan 4 símbolos. También son muy comunes las técnicas de modulación en las que se diferencian los símbolos utilizando tanto las amplitudes como las fases, como en la técnica QAM. En los sistemas de modulación QAM se pueden alcanzar velocidades de transmisión de bit muy elevadas a base de incrementar el número de símbolos, pero a medida que aumenta el número de símbolos aumenta también la dificultad para distinguir unos de otros en la recepción. Debido a ello los sistemas QAM de mayor capacidad son más interesantes en transmisión de video digital por cable (DVB-C), en los que el medio de transmisión no degrada las formas de onda tanto como lo pueda hacer la atmósfera. La utilización de frecuencias para diferenciar formas de onda en sistemas m-arios ha tenido un desarrollo más limitado debido fundamentalmente al elevado ancho de banda que alcanzan las señales. Tanto en la modulación binaria como en la m-aria el número total de formas de onda distintas que pueden transmitirse es siempre finito. Gracias a ello el receptor conoce a priori todas las posibles formas de onda que pueden haberse emitido, lo que facilita considerablemente la reconstrucción del mensaje transmitido incluso en condiciones muy adversas en las que las señales sufren fuertes alteraciones en su propagación desde el emisor al receptor. Los sistemas digitales permiten por tanto la recepción de mensajes con un grado de fidelidad que no puede conseguirse en un sistema analógico, pero a cambio hay que pagar un precio por ello. La electrónica del sistema se complica considerablemente debido en gran parte a que todos los elementos constitutivos deben estar sincronizados, y además las señales digitales ocupan anchos de banda sensiblemente mayores que las analógicas. Este último detalle fuerza el uso de una electrónica más complicada para generar, transmitir y recibir las señales, y también de unas técnicas de simulación más complejas para modelizar estas señales. En la práctica, las señales que contienen la información a transmitir se «montan»
en portadoras con una frecuencia que es muy superior al ancho de banda de la señal6. De este modo el espectro de la forma de onda que finalmente se transmite tiene toda la información deseada, pero a pesar de su complejidad se puede representar prácticamente como una línea recta en la banda de frecuencias en la que funcionan los emisores y receptores. Gracias a ello se simplifican los diseños de los emisores y receptores así como la modelización de las señales, pues a efectos de transmisión éstas se pueden considerar como si fueran prácticamente monocromáticas. Y éstas no son las únicas ventajas de utilizar frecuencias altas, Con un mismo sistema de comunicación se pueden emitir simultáneamente múltiples señales con mensajes diferentes, simplemente asignando a cada mensaje portadoras de frecuencias que difieren muy poco en la escala del ancho de banda del sistema de transmisión, pero que son suficientemente distintas en la escala del ancho de banda de cada señal.
2.4. SISTEMAS DE TELEFONÍA CELULAR Uno de los estándares de transmisión más ampliamente divulgados en telefonía móvil es el estándar GSM. El primer operador de GSM surgió en Finlandia en 1992, y en muy poco tiempo se extendió a prácticamente todo el mundo exceptuando Japón y Estados Unidos, en donde se desarrollaron otros sistemas. En sus especificaciones originales se asignó a GSM la banda de 890-915 MHz para la transmisión desde el móvil a la estación base (enlace ascendente) y 935960 MHz para la recepción (enlace descendente). No obstante, pronto se produjo una saturación de los canales en algunos países, lo que forzó la habilitación de dos bandas adicionales: 880-890 MHz para enlace ascendente y 925-935 MHz para el descendente. En sus especificaciones actuales, el sistema GSM también utiliza bandas de 1.800 MHz. Muchos de los refinamientos de los sistemas de telefonía celular se centran en dos objetivos importantes: Evitar las interferencias y transmitir la máxima cantidad de información en el menor tiempo posible y con el menor ancho de banda posible. La transmisión y la recepción no sólo se hacen a distintas frecuencias, sino también en tiempos distintos, Al igual que como ocurre en los radares, en un teléfono móvil la diferencia entre las potencias de las señales recibida y transmitida es muy considerable, y por tanto la separación de ambas señales tanto en el dominio del tiempo como de la frecuencia, minimiza los riesgos de que las señales emitidas contaminen a las recibidas en el receptor.
El área total de cobertura GSM se divide en células de forma hexagonal y dimensiones variables que dependen del volumen de tráfico en la zona. Dado que el ancho de banda es una figura de mérito importante, en GSM se recurren a varios procedimientos para aprovecharlo al máximo. GSM utiliza una técnica de modulación que recibe el nombre de GMSK (Gaussian Mínimum Shift Keying). Esta técnica es una variante de la modulación FSK binaria en la que se seleccionan apropiadamente las frecuencias de las dos formas de onda representativas de cada bit para facilitar la detección con el menor ancho de banda posible. Con el objeto de minimizar este ancho de banda, la señal a emitir es previamente filtrada con un filtro que tiene un ancho de banda inferior al de la propia señal. De esta forma se puede conseguir un buen aprovechamiento del canal a expensas de una ligera deformación de la señal. En cada canal el tiempo de transmisión GSM se estructura en tramas de 4,615 ms de duración, que a su vez se dividen en ocho intervalos o ráfagas de modo que ocho usuarios distintos puedan utilizar el canal en conversaciones simultáneas, repartiendo equitativamente el tiempo de transmisión. Asimismo, células suficientemente separadas entre sí pueden utilizar las mismas frecuencias de emisión y recepción. Las especificaciones de los estándares GSM también establecen que bajo mandato específico de la red los móviles puedan cambiar de frecuencia de una trama a otra, con lo que se evita así la posibilidad de que una determinada fuente de interferencias inhabilite completamente una comunicación. Esta modalidad de funcionamiento recibe el nombre de saltos de frecuencia (frequency hopping). También se posibilita la utilización de la técnica de transmisión discontinua, «DTX», en virtud de la cual únicamente hay emisión de señal cuando el usuario está hablando. Dado que una persona habla por término medio menos del 40% del tiempo total que dura la comunicación, este procedimiento no sólo reduce las posibilidades de que se produzcan interferencias sino que también repercute en ahorros sustanciales del consumo de la batería. Todos estos detalles ilustran sólo parcialmente los enormes esfuerzos que se hacen en los sistemas de comunicación actuales para aprovechar al máximo el ancho de banda, para transmitir la mayor cantidad posible de bits en el menor tiempo posible, y para evitar los problemas de interferencias y saturaciones. Sólo hay una forma de reducir simultáneamente todas estas dificultades: aumentar las frecuencias de emisión. El sucesor del sistema GSM, el UMTS, utiliza bandas de frecuencia comprendidas
entre 1,9 y 2,2 GHz, y permite una velocidad de transmisión de hasta 2 Mb/s. Con estas velocidades es posible realizar videoconferencias. Cuando se utilizan frecuencias portadoras superiores a los 3 GHz en los sistemas de telefonía celular aparece la desventaja de que la atenuación de las señales en las zonas de alta vegetación y en el interior de los edificios es significativa, dificultándose así la extensión de la cobertura. A pesar de ello no cabe descartar el uso futuro de frecuencias más elevadas a las que se emplean en los sistemas de comunicaciones actuales, pues el desarrollo continuo de la tecnología de microondas hace que valga la pena afrontar estos inconvenientes.
2.5 CONEXIÓN DE ORDENADORES Y PERIFÉRICOS Las redes de área local sin hilos (WLAN, de Wireless Local Área Network} han experimentado un fuerte desarrollo en la década 1990-2000; como respuesta a la necesidad de comunicar sistemas de ordenadores sin necesidad de cableado, y también de ofrecer acceso a redes de datos a cada vez mayor número de usuarios móviles. En WLAN la transmisión de datos también se realiza a frecuencias de microondas. En 1997 se estableció uno de los estándares de WLAN más ampliamente divulgados, el IEEE 802.11. Este estándar genérico dispone de distintas versiones que son continuamente actualizadas7. En 1999 se aprobó el estándar IEEE 802.11a, en el que se establecieron frecuencias del orden de 5 GHz para incrementar la disponibilidad del ancho de banda y poder obtener así mayores velocidades de transmisión. Otros estándares también proponen frecuencias de microondas, como HIPERLAN (5,1-5,3 GHz) o HIPERLAN II (5,4-5,7 GHz). Las microondas son excelentes candidatas para las comunicaciones sin hilos a corta distancia. En 1998 surgió el estándar Bluetooth, fundamentalmente desarrollado e impulsado por las empresas Ericsson, INTEL, IBM, Nokia y Toshiba. Este estándar utiliza portadoras desde 2.402 a 2.480 MHz para ofrecer conectividad en componentes de ordenadores, periféricos, teléfonos móviles, etc., a distancias de hasta 10 m. La conectividad de instrumentos a estas frecuencias tiene el gran atractivo de que permite comunicar una gran variedad de componentes sin necesidad de cableado y a través de paredes, ofreciendo generalmente mayor versatilidad que la comunicación por infrarrojos.
El estándar Bluetooth emplea sofisticadas técnicas para evitar errores en la recepción de señales a causa de interferencias procedentes de otros sistemas que utilicen las mismas frecuencias. 2.5.1 TRANSMISIÓN VÍA SATÉLITE Las frecuencias más habitualmente utilizadas en los primeros satélites artificiales se encuentran en torno a 6 GHz para la emisión desde la estación y 4 GHz para la emisión desde el satélite (enlace 6/4 GHz). A estas frecuencias los componentes son relativamente económicos, el ruido cósmico no es importante, la ionosfera es prácticamente transparente a la radiación y las pérdidas en la atmósfera son suficientemente bajas (son especialmente problemáticas las pérdidas debidas a las lluvias). El enlace descendente (emisión desde el satélite) suele utilizar la frecuencia más baja de las dos asignadas al sistema, puesto que las pérdidas en la atmósfera son menores a las frecuencias más bajas y resulta más complicado emitir señales de alta potencia desde un satélite que desde la estación de control. La saturación de los enlaces en torno a 6 y 4 GHz ha hecho que también se utilicen enlaces a otras frecuencias como las bandas de 14 y 12 GHz. Los satélites Hispasat, que proporcionan canales de televisión digital y servicios de telefonía a parte de Europa y las dos América, utilizan estas frecuencias. Los Hispasat emplean la modulación QPSK con recepción en la banda 12-12,5 GHz. Al igual que en cualquier otro sistema de recepción de televisión digital vía satélite, las antenas receptoras son generalmente antenas parabólicas que tienen adosado un LNB (Low Noise Block). Este componente consta esencialmente de un amplificador de bajo ruido y un mezclador, el cual convierte en frecuencia las señales recibidas, obteniéndose a la salida portadoras del orden de 1 GHz. Si la antena es colectiva y alimenta más de ochenta usuarios se emplea un sistema de transmodulación digital que recibe la señal en QPSK y la distribuye a los usuarios con portadoras de UHF y modulación QAM. Las microondas tienen también aplicaciones en otros campos como el de la medicina que las usan en las terapias de calor, tratamiento del cáncer, etc. En el campo Científico tiene aplicabilidad en los aceleradores de partículas, técnicas de espectroscopia, fabricación de plasmas. En lo que respecta al campo Industrial las microondas tienes su aplicabilidad en el calentamiento de alimentos, calentamientos de productos industriales, Agricultura y Ecología.
CAPITULO 3 REDES INALÁMBRICAS (WIRELESS) INTRODUCCIÓN Gracias al avance de la tecnología, hoy es posible que toda clase de información trátese de voz, datos, audio o video- sea digitalizada y enviada por diversos canales, o bien, recibida a través de cualquier dispositivo, en cualquier sitio, a cualquier hora y en cualquier lugar. Existen diversas modalidades o tecnologías de redes inalámbricas, entre las que destacan Wi-Fi y WIMAX para corto/medio alcance, y Bluetooth para muy corto alcance o Home RF, pero también otras, que empiezan a cobrar fuerza, como es RFID para la identificación de productos por radiofrecuencia. En este capítulo se explicarán en detalle las redes locales Inalámbricas (WLAN), haciendo especial énfasis en el estándar Wi-Fi. También, se comentará el luego estándar WiMAX, para aplicaciones Wireless MAN, así como alguna que puede ser considerada como WPAN, como es el caso de RFID o lectura de etiquetas mediante radiofrecuencias. 3.1. WLAN (WIRELESS LOCAL AREA NETWORK) Una de las áreas de mayor potencial en la evolución futura de las telecomunicaciones es la transmisión inalámbrica digital de banda ancha. Idealmente, un sistema inalámbrico de banda ancha permitiría la transmisión de cualquier tipo de información digitalizada (audio, video, datos) desde cualquier lugar y en cualquier momento, con posibilidad de transmitir en tiempo real de ser necesario. Una red de área local Inalámbrica o WLAN (Wireless Loca/Área NetworK) es un sistema de comunicación de datos flexible muy utilizado como alternativa a la LAN cableada o como una extensión de ésta. Emplea tecnología de radió frecuencia que permite mayor movilidad a los usuarios, al minimizarse las conexiones cableadas. Las WLAN han adquirido importancia en muchos campos. Incluido el empresarial, residencial, industrial y educativo, entre otros. Comparación entre una Red de Área Amplia y WLAN En las redes de área amplia (WAN), es Importante considerar varios puntos para tener una red perfecta, con un eficiente transporte de datos, voz y vídeo en un área amplia. Estas consideraciones incluyen: calidad del servicio (QoS), control de admisión, compresión de voz y de encabezados IP y grupos de servidores para procesamiento de señales digitales.
En el caso de una red de área local (LAN o WLAN), se puede decir que los requisitos son similares, añadiéndole quizá dos más en el caso de las redes locales inalámbricas o WLAN: la movilidad y la seguridad. El primero es evidente, pues al tratarse de una red wireless los usuarios se podrán conectar siempre que se encuentren en el área de cobertura de la misma, sin necesidad de disponer de una conexión cableada, y la segunda es inherente a la utilización de una interfaz aire entre el terminal de usuario y el punto de acceso a la red, un medio de por sí inseguro, ya que cualquiera podría tener acceso a la Información que viaja por el aire, si no se toman tas medidas adecuadas, y hacer un uso fraudulento de la misma. Convergencia Hablar de convergencia es hablar de movilidad total y, hoy por hoy, eso ya puede ser una realidad, gracias a la operatividad de las redes móviles de 2,5G, 3G y las WLAN, que soportan la conmutación de paquetes y ofrecen un ancho de banda adecuado para soportar tanto aplicaciones residenciales como profesionales. Ventajas Es clara la alta dependencia en los negocios de las redes de comunicación. Por ello la posibilidad de compartir información sin que sea necesario buscar una conexión física permite mayor rapidez de conexión, movilidad y comodidad. Así mismo, la red puede ser más extensa sin tener que mover o instalar cables. Respecto a una LAN tradicional, una WLAN ofrece las siguientes ventajas: Movilidad. Información en tiempo real en cualquier lugar de la organización o empresa para todo usuario de la red. El que se obtenga en tiempo real supone una mejora de la Productividad y efectividad con que se presta el servicio. Facilidad de instalación. Evita obras para tirar cable por paredes y techos, lo cual supone que la instalación sea más rápida y sencilla. Flexibilidad. Permite llegar donde el cable no puede o sería muy costoso. Reducción de costes. Cuando se dan cambios frecuentes o el entorno es muy dinámico el coste inicialmente más alto de la red sin cable es significativamente más bajo, además de tener mayor tiempo de vida y menor gasto de instalación, Escalabilidad. El cambio de topología de red es sencillo y trata por igual a pequeñas y grandes redes.
Pero comparando las LAN con las WLAN, también encontramos algunas desventajas claras como: la estandarización, la seguridad, el coste, el alcance y la velocidad. Tanto es así que las LAN siguen siendo la solución adecuada para lugares donde se necesite una gran velocidad o donde realizar obras no sea un impedimento, mientras que las WLAN son una solución más específica. La siguiente tabla resume estos aspectos.
Velocidad de transmisión Costes de instalación Movilidad Flexibilidad Escalabilidad Seguridad Demanda Configuración e instalación Presencia en empresas Integridad Coste de expansión Licencia
WLAN
LAN cableada
11 - 54 Mbps
100 Mbps o más
Medio Sí
Alto No
Muy alta Alta Alta Baja Fácil
Baja Muy alta Alta Muy alta Media
Baja Alta Medio No (Uso Común)
Alta Alta Alto No
Comparación entre las redes WLAN y las redes LAN convencionales. No obstante, siempre es posible combinar en un mismo entorno una LAN con una WLAN y aprovecharse de las ventajas que ofrecen ambas.
3.1.1. Aplicaciones El uso más frecuente de las WLAN es como extensión de las redes cableadas de modo se da una conexión a un usuario final móvil. Otro uso que empieza a tener una gran aceptación es como punto de acceso a Internet en lugares públicos (aeropuertos, estaciones, campus universitarios, hoteles etc.) lo que se conoce como hot spots, es decir sitios con una alta densidad de usuarios que necesitan una conexión a breó. También, en el hogar como una acceso inalámbrico al router de ADSL y, en el futuro, para la interconexión de los distintos sistemas automatización de la vivienda domótica. En pocos años, las WLAN se utilizarán como punto de entrada a las redes los operadores móviles de 3G (UMTS), permitiendo tanto terminales de voz como datos.
Algunos otros ejemplos particulares del uso de las WLAN, son los siguientes: En hospitales, los datos del paciente son transmitidos de forma instantánea En pequeños grupos de trabajo que necesiten una puesta en marcha rápida de una red (por ejemplo, grupos de auditores o analistas). En entornos dinámicos, se minimiza la sobrecarga causada por extensiones de redes cableadas, movimientos de éstas u otros cambios instalando red sin cable. En centros de formación, universidades, corporaciones, etc., donde se usa una red sin cable para tener fácil acceso a la información, intercambiar ésta y aprender, En viejos edificios es también más adecuada que una LAN ya que evita hacer obras. Los trabajadores de almacenes pueden intercambiar información con una base de datos central mediante una red sin cable, de modo que aumenta la productividad. Corporaciones: Con WLAN los empleados pueden beneficiarse de una red móvil para el acceso al correo electrónico, compartir ficheros, y acceso Web, independientemente de dónde se encuentren en la oficina. Educación: Las instituciones académicas que soportan este tipo de conexión móvil permiten a los usuarios con ordenadores portátiles conectarse a la red de la universidad para intercambio de opiniones en las clases, para acceso a Internet, etc. Finanzas: Mediante un PC portátil y un adaptador a la red WLAN, los representantes pueden recibir información desde una base de datos en tiempo real y
mejorar la velocidad y calidad de los negocios. Los grupos de auditorias contables incrementan su productividad con una rápida puesta a punto de una red. Sanidad: WLAN permite obtener información en tiempo real, por lo que proporciona un incremento de la productividad y calidad del cuidado del paciente eliminando el retardo en el tratamiento del paciente, los papeles redundantes, los posibles errores de trascripción, etc. Fabricación: WLAN ayuda al enlace entre las estaciones de trabajo de los pisos de la fábrica con los dispositivos de adquisición de datos de la red de la compañía. Almacenes: En los almacenes, terminales de datos con lectores de código de barras y enlaces con redes WLAN, son usados para introducir datos y mantener la posición de las paletas y cajas. WLAN mejora el seguimiento del inventarlo y reduce los costes del escrutinio de un inventario físico. Servicios públicos: Una WLAN permite la transferencia automática de datos en los transportes públicos (autobuses, metro, trenes, aeropuertos, etc.) facilitando la compra de billetes, la facturación de equipajes, la Idealización de vehículos, el control de pasajeros, etc. Tecnología WLAN de banda estrecha Se transmite y recibe en una banda específica de frecuencia, lo más estrecha posible para el paso de información. Los usuarios tienen distintas frecuencias de comunicación de modo que se evitan las interferencias. Así mismo un filtro el receptor de radio se encarga de dejar pasar únicamente la señal esperada en la frecuencia asignada. La tecnología de microondas que se emplea en este tipo de redes no es realmente una tecnología de LAN. Su papel principal es el de interconectar LAN vecinas, lo que requiere antenas en ambos extremos del enlace y visibilidad entre ellas. Las microondas se emplean para evitar el tendido de un cableado entre edificios. Una desventaja del uso de esta tecnología es que el uso de una determinada banda de frecuencias requiere la autorización del organismo regulador local. Tecnología WLAN de banda ancha La técnica de espectro expandido es actualmente la más utilizada en las WLAN. Inicialmente, las técnicas de espectro expandido fueron desarrolladas con el propósito de combatir las interferencias en las comunicaciones militares, lo cual se logra expandiendo -ensanchando- el espectro de la señal transmitida sobre determinadas bandas de frecuencias.
Esta técnica es la empleada por la mayor parte de los sistemas Inalámbricos. Fue desarrollada por los militares en la Segunda Guerra Mundial para una comunicación segura, fiable y en misiones criticas. Se consume más ancho de banda pero la señal amas difícil de detectar. El receptor conoce los parámetros de la señal que se ha difundido y en caso de no estar en la frecuencia/código correcto, la señal aparece como ruido de fondo. Hay dos tipos de tecnología en banda ancha: la de salto de frecuencia y la de secuencia directa. Salto de frecuencia Mediante la técnica de salto de frecuencia o FHSS (Frecuency-Hopping Spread spectrum) información se transmite utilizando una serie pseudoaleatoria de frecuencias posteriormente, el mensaje es recibido por un receptor que cambia de frecuencias en sincronía con el transmisor. El mensaje es recibido únicamente cuando la secuencia de frecuencias de transmisión es conocida por el receptor, que la sigue. Esto hace posible que varios transmisores y receptores funcionen simultáneamente en una misma banda de frecuencias sin interferir el uno con el otro. Para un receptor no sincronizado FHSS es como un ruido de impulsos de corta duración. Secuencia directa Mediante la técnica de secuencia directa o DSSS (Direct-Sequence Spread Spectrum), la información a ser transmitida es multiplicada por una secuencia binaria pseudoaleatoria; por lo que un receptor recibirá correctamente dicha información únicamente si dicha secuencia es conocida, para poder realizar el proceso inverso. Como cada transmisor emplea una secuencia distinta, es posible que varios transmisores operen en la misma área sin interferirse. Para un receptor cualquiera DSSS es un ruido de baja potencia y es ignorado. Diferencias entre FHSS y DSSS Los sistemas que usan la técnica de salto de frecuencia consumen menos potencia que los que emplean secuencia directa y generalmente son más económicos. Por otra parte, los sistemas que operan con secuencia directa alcanzan velocidades de bits mucho más alta; en tanto que la velocidad de transmisión en aquellos que operan con salto de frecuencia está limitada en la práctica a alrededor de 2 Mbps. Por lo tanto, en donde se requiera un rendimiento óptimo y la interferencia no sea un problema, es recomendable utilizar sistemas de secuencia directa. Pero si lo que se desean son unidades móviles pequeñas y baratas la técnica de salto de frecuencia es la más adecuada.
3.1.2. Funcionamiento En las WLAN se utilizan ondas de radio o infrarrojos para llevar la información de
un punto a otro sin necesidad de un medio físico. Las ondas de radio son normalmente referidas a portadoras de radio ya que éstas únicamente realizan la función de llevar la energía a un receptor remoto. Los datos a transmitir se superponen (modulan) a la portadora de radio y de este modo pueden ser extraídos exactamente en el receptor final. De este modo la señal ocupa más ancho de banda que una sola frecuencia. Varias portadoras pueden existir en Igual tiempo y espacio sin interferir entre ellas, si las ondas son transmitidas a distintas frecuencias de radio. Para extraer los datos el receptor se sitúa en una determinada frecuencia ignorando el resto. En una configuración típica de las WLAN los puntos de acceso (transceiver) se conectan a la LAN, en un lugar fijo, mediante cableado normalizado. El punto de acceso recibe la información, la almacena y transmite entre la WLAN y la LAN cableada. Un único punto de acceso puede soportar un pequeño grupo de usuarios y puede funcionar en un rango de al menos treinta metros y hasta varios cientos. El usuario final accede a la red WLAN a través de adaptadores. Estos proporcionan una Interfaz entre el sistema operativo de red del cliente o NOS (Network Operating System) y el canal de radio, vía una antena. La naturaleza de la conexión sin cables es transparente al sistema del diente. 3.1.3. Configuraciones La configuración de una WLAN puede ser simple o compleja. En la Figura 1.6 se ven los dos tipos de configuraciones básicos,
Red con Punto de Acceso Figura 1.6 Conexión directa (peer-to-peer) y a través de puntos de acceso.
3.1.3.1. Red peer-to-peer La más básica se da entre dos ordenadores equipados con tarjetas adaptadoras para WLAN, de modo que pueden poner en funcionamiento una red independiente siempre que estén dentro del área que cubre cada uno. Esto es llamado red de igual a igual (peer-to-peer) o red ad-hoc. Una red ad-hoc es, una red simple donde se establecen comunicaciones entre las varias (pocas) estaciones en un área de cobertura dada sin el uso de un punto de acceso o servidor. Cada cliente tendría únicamente acceso a los recursos de otro diente pero no a un servidor central. Este tipo de redes no requiere administración o preconfiguración. 3.1.3.2. Cliente y punto de acceso Instalando un punto de acceso o AP (Access Point) se puede doblar el rango en el cuál los dispositivos pueden comunicarse, pues actúan como repetidores. Desde que el punto de acceso se conecta a la red cableada cualquier cliente tiene acceso a los recursos del servidor y además actúan como mediadores en el tráfico de la red en la vecindad más inmediata. Cada punto de acceso puede servir a varios clientes, según la naturaleza y número de transmisiones que tienen lugar. Existen muchas aplicaciones en el mundo real que tienen entre 15 y 50 dispositivos diente que acceden a un mismo punto de acceso. 3.1.3.3. Múltiples puntos de acceso y "roaming" Los puntos de acceso tienen un rango finito, del orden de 150 metros en lugares cerrados y 300 metros en zonas abiertas. En zonas grandes como por ejemplo un campus universitario o un edificio es probablemente necesario más de un punto de acceso. La meta es cubrir el área con células que solapen sus áreas de modo que los clientes puedan moverse sin cortes entre un grupo de puntos de acceso. Esto es llamado "roaming". 3.1.3.4. Uso de un punto de extensión Para resolver problemas particulares de topología, el diseñador de la red puede elegir usar un punto de extensión para aumentar el número de puntos de acceso a la red, de modo que funcionan como tales pero no están enganchados a la red cableada como los puntos de acceso. Los puntos de extensión funcionan como su nombre índica, extienden el rango de la red retransmitiendo las señales de un diente a un punto de acceso o a otro punto de extensión. Los puntos de extensión pueden encadenarse para pasar mensajes entre un punto de acceso y clientes lejanos de modo que se construye un "puente" entre ambos.
3.2 Estandarización El Comité de Estándares IEEE 802 formó el Grupo de Trabajo de estándares de redes LAN Inalámbricas 802.11 en 1990. El Grupo de trabajo 802-11 asumió la tarea de desarrollar una norma global para equipos de radio y redes que operaban en la banda de uso libre de 2,4 GHz, para tasas de datos de 1 y 2 Mbps y, así, en 1999, al igual que hizo con las LAN cableadas, estandariza en el primer estándar WLAN, recogido en la IEEE 802.11, La definición de este estándar supone un hito importante en el desarrollo de esta tecnología, puesto que los usuarios pueden contar con una gama mayor de productos compatibles. Este estándar no especifica una tecnología o implementación concretas, sino simplemente el nivel físico y el subnivel de control de acceso al medio, siguiendo la arquitectura de sistemas abiertos OSI. Actualmente la versión más conocida es la 802.11b que proporciona una velocidad de transferencia de datos de hasta 11 Mbps. La mayoría de los productos del mercado WLAN son de esta versión, que se conoce con el nombre comercial de Wi-Fi. Diversas empresas han trabajando en el desarrollo de la versión 802.11a capaz de llegar a los 54 Mbps utilizando la banda de 5 GHZ y, en el ano 2003, se ha aprobado una versión compatible con la 802.11b (a 11 Mbps) y la 802.11b+ (a 22 Mbps), la 802.11g, que puede llegar a alcanzar los 54 Mbps, utilizando la misma banda de frecuencias, lo que se consigue cambiando el modo de modulación de la señal, pasando a utilizar, además de DSSS, OFDM (Orthogonal Frequency División Multiplexing). El Grupo de Trabajo 802.11 ha completado el estándar recientemente. La norma no especifica tecnologías ni aplicaciones, sino simplemente las especificaciones para la capa física y la capa de control de acceso al medio (MAC). La norma permite a los fabricantes de equipos inalámbricos de radio LAN construir equipos interoperables de red. IEEE 802.11
IEEE 802.11a
IEEE 802.11b
IEEE 802.11g
Aplicación
Wireless
Wireless
Wireless
Wireless
Modulación
FHSS/DSSS
QFDM
DSSS
DSSS/OFDM
Rango de frecuencias Tasa binaria
2,4 GHz
5 GHz
2,4 GHz
2,4 GHz
1-2 Mbps
20-54 Mbps
Estándares IEEE 802.11.
5,5 - 11 Mbps 5,5- 11-22-54 Mbps
La nueva versión del estándar, 802.11g, recientemente aprobada, permite aumentar las velocidades de las redes 802.11b (con las que son compatibles) hasta valores cercanos a los de 802.11a, conjugando así las ventajas de ambas variantes. A la hora de evaluar los estándares para WLAN se debe tener en cuenta no sólo la velocidad teórica que nos ofrecen, sino también la velocidad real de transferencia. Así, la velocidad nominal de 802.11b es de 11 Mbps, pero las pruebas llegan a conseguir una velocidad efectiva de 4 a 6 Mbps. Hoy día y, aunque la velocidad ideal del 802,11g (compatible con e! 802,11b) es de 54 Mbps, en un entorno real (fuera de un laboratorio de pruebas) y según diferentes fabricantes de equipos, la velocidad no superaría los 11 Mbps (debido a que la interferencia de dispositivos a la misma frecuencia puede afectar a su rendimiento). En cambio, el 802.11a, en pruebas reales, tiene una tasa real de transferencia de entre 20 y 30 Mbps. 3.2.1 Selección del producto Son varios los factores a considerar a la hora de comprar un sistema inalámbrico para la instalación de una red WLAN. Algunos de los aspectos a tener en cuenta, además del coste de los propios equipos, son presentados a continuación:
3.2.2 Cobertura La distancia que pueden alcanzar las ondas de radiofrecuencia (RF) o de infrarrojos (IR) es función del diseño del producto y del camino de propagación, especialmente en lugares cerrados. Las Interacciones con objetos, paredes, metales, e incluso la gente, afectan a la propagación de la energía. Los objetos sólidos bloquean las señales de IR, lo cual impone límites adicionales. La mayor parte de los sistemas de redes inalámbricas usan RF porque pueden penetrar la mayor parte de lugares cerrados y obstáculos. El rango de cobertura de una WLAN típica va de 30 a 100 metros. Puede extenderse y tener posibilidad de alto grado de libertad y movilidad utilizando puntos de acceso (microcélulas) que permiten "navegar" por la LAN. 3.2.3 Rendimiento Depende de la puesta a punto de los productos así como del número de usuarios, de los factores de propagación (cobertura, diversos caminos de propagación, etc.), y del tipo de sistema inalámbrico utilizado; Igualmente depende del retardo y de los cuellos de botella de la parte cableada de la red. Los usuarios de Ethernet o Token Ring no experimentan generalmente gran diferencia en el funcionamiento cuando utilizan una red inalámbrica. Estas proporcionan suficiente rendimiento
para las aplicaciones más comunes de una LAN en un puesto de trabajo, incluyendo correo electrónico, acceso a periféricos compartidos, acceso a Internet, y acceso a bases de datos de aplicaciones multiusuario. 3.2.4 Integridad y fiabilidad Estas tecnologías para redes inalámbricas se han probado durante más de 50 años en sistemas comerciales y militares. Aunque las interferencias de radio pueden degradar el rendimiento, éstas son raras en el lugar de trabajo. Los robustos diseños de las probadas tecnologías para WLAN y la limitada distancia que recorren las señales, proporciona conexiones que son mucho más robustas que las conexiones de teléfonos móviles y proporcionan integridad de datos de igual manera o mejor que una red cableada.
3.3 Compatibilidad con otras redes existentes La mayor parte de las WLAN proporcionan un estándar de interconexión con redes cableadas, como Ethernet. Los nodos de la red inalámbrica son soportados por el sistema de la red de la misma manera que cualquier otro nodo de una red LAN, aunque con los drivers apropiados. Una vez instalado, la red trata los nodos inalámbricos igual que cualquier otro componente de la red. 3.3.1 Interoperabilidad de los dispositivos inalámbricos Los consumidores deben ser conscientes de que los productos WLAN de distintos vendedores pueden no ser compatibles para operar juntos, principalmente por tres razones: Diferentes tecnologías no interoperarán. Por ejemplo, un sistema basado en la tecnología de salto de frecuencia (FHSS), no comunicará con otro basado en la tecnología de secuencia directa (DSSS). Sistemas que utilizan distinta banda de frecuencias no podrán comunicarse entre si aunque utilicen la misma tecnología. Aún utilizando Igual tecnología y banda de frecuencias ambos vendedores, los diferentes sistemas podrían no comunicarse entre si debido a diferencias de implementación de cada fabricante.
Figura 1.7. Punto de acceso Wi-Fi a 2.4 GHz. 3.3.2 Interferencia y coexistencia La naturaleza en que se basan las redes Inalámbricas implica que cualquier otro producto que transmita energía a la misma frecuencia puede potencialmente dar cierto grado de interferencia en un sistema WLAN. Por ejemplo los hornos de microondas, si bien es cierto que la mayor parte de fabricantes diseñan sus productos teniendo en cuenta las interferencias por microondas, podrían constituir una fuente potencial de interferencias. Otro problema es la colocación de varias WLAN en lugares próximos. Mientras unas redes Inalámbricas de unos fabricantes interfieren con otras redes inalámbricas, hay otras redes que coexisten sin interferencia. Este asunto debe tratarse directamente con los vendedores del producto. 3.3.3 Licencias En los Estados Unidos, la Comisión Federal de Comunicaciones (FCC) regula la transmisión por radio, Incluida la empleada en las redes inalámbricas. Otras naciones tienen su correspondiente Autoridad Reguladora Nacional (ARN); así, en España es la SETSI la que asigna el espectro y sus decisiones se recogen en el CNAF (Cuadro Nacional de Asignación de Frecuencias). Típicamente las redes inalámbricas se diseñan para operar en porciones del espectro de radio donde el usuario final no necesita una licencia para utilizar las ondas de radio, En los Estados Unidos y Europa la mayor parte de las redes difunden en una de las bandas de ISM (de Instrumentación, Científicas o Médicas). Estas incluyen 902-928 MHz, 2,400-2,483 GHz (PIRE máx. 100 mW), 5,150-5,350 GHz; (PIRE máx. 200 mW para interiores), y 5,470-5,725 GHz (PIRE máx. 200 mW y 1.000 mW para interiores y exteriores, respectivamente). Para poder vender productos de sistemas WLAN en un país en particular, el fabricante debe asegurar la certificación por la ARN en ese país y asegurar que la potencia límite establecida (PIRE) no se supera.
3.3.4 Simplicidad y facilidad de uso Los usuarios necesitan muy poca información a añadir a la que ya tienen sobre redes LAN en general, para utilizar una WLAN. Esto es así porque la naturaleza inalámbrica de la red es transparente al usuario, las aplicaciones trabajan de igual manera que lo hacían en una red cableada, los productos de una WLAN incorporan herramientas de diagnóstico para dirigir los problemas asociados a los elementos inalámbricos del sistema, etc. Las WLAN simplifican muchos de los problemas de instalación y configuración que atormentan a los que dirigen la red. Ya que únicamente los puntos de acceso de las redes inalámbricas necesitan cable, ya no es necesario llevar cable hasta él usuario final. La falta de cable hace también que los cambios, extensiones y desplazamientos sean operaciones triviales en una red Inalámbrica. Finalmente, la naturaleza portable de las WLAN permite a los encargados de la red preconfigurarlas y resolver problemas antes de su instalación en un lugar remoto; es decir, una vez configurada la red puede llevarse de un lugar a otro con muy poca o ninguna modificación.
3.3.5 Seguridad en la comunicación Puesto que la tecnología inalámbrica se ha desarrollado en aplicaciones militares, la seguridad ha sido unos de los criterios de diseño para los dispositivos inalámbricos. Normalmente se suministran elementos de seguridad dentro de la WLAN, haciendo que éstas sean más seguras que !a mayor parte de redes cableadas. Es muy complicado que los receptores no sintonizados escuchen el tráfico que se produce en la LAN. Por lo cual las complejas técnicas de encriptado hacen imposible para todos, incluso los más sofisticados, acceder de forma no autorizada al tráfico de la red. En general los nodos individuales deben tener habilidad la seguridad antes de poder participar en el tráfico de la red. 3.3.6 Costes La instalación de una WLAN incluye los costes de infraestructura para los puntos de acceso y los costes de usuario para los adaptadores de la red inalámbrica. Los costes de infraestructura dependen fundamentalmente del número de puntos de acceso desplegados. El valor de los puntos de acceso se ha reducido mucho en los últimos años. El número de puntos de acceso depende de la cobertura requerida y del número de tipo de usuarios. El área de cobertura es proporcional al cuadrado del rango de productos adquiridos. Los adaptadores son requeridos para las plataformas estándar de ordenadores y su precio suele estar por debajo de los 100 euros, si no son muy sofisticados.
El costo de instalación y mantenimiento de una WLAN generalmente es mas bajo que el de una red cableada tradicional, por dos razones: En primer lugar una red WLAN elimina directamente los costes de cableado y el trabajo asociado con la Instalación y reparación. En segundo lugar una red WLAN simplifica los cambios, desplazamientos y extensiones, por lo que se reducen los costes Indirectos de los usuarios al no requerirse todo el equipo de trabajo y de administración de la red. 3.3.7 Escalabilidad Las redes WLAN pueden ser diseñadas para ser extremadamente simples o bastante complejas. Las WLAN pueden soportar un amplio número de nodos y/o extensas capas físicas añadiendo puntos de acceso para dar energía a la señal o para extender cobertura.
3.3.8 Efectos en la Salud La potencia de salida de los sistemas WLAN es muy baja, mucho menor que la de teléfono móvil. Puesto que las señales de radio se atenúan rápidamente con la distancia, la exposición a la energía de radio-frecuencia en el área de la WLAN es muy pequeña Las WLAN deben cumplir las estrictas normas de seguridad dictadas por el gobierno y la industria y en base a su respeto, no se han atribuido nunca efectos secundarios en la salud a causa de una WLAN.
3.4 WI-FI
WIRELESS FIDELITY
Wi-Fi (Wireless Fidelity) es e! nombre coloquial de la familia de estándares IEEE 802.11 para redes locales inalámbricas (WLAN) que soportan el estándar IEEE 802.11x, Fue creado en 1999 por una asociación de empresas fabricantes de dispositivos Wi-FI, conocida por WECA (Wireless Ethernet Compatibility Alliancé) que, recientemente cambió su nombre a Wi-Fi Alliance. Su trabajo, desarrollado en paralelo al promoción y educación llevados a cabo por WLANA (Wireless LAN Alliance), ha tribuido a abaratar los precios, creando un auténtico mercado internacional en expansión, ya que productos de distintos fabricantes con el sello WI-Fi deben funcionar correctamente entre sí. Aunque en muchas aplicaciones compite con Bluetooth y UWB (Ultra Wide Band), trata de tecnologías complementarias y no enfrentadas. Wi-Fi se ha diseñado,
básicamente, para eliminar la necesidad de conectarse a una red LAN empleando un cable de red, tal y como se ha venido haciendo hasta ahora. Por otro lado, Bluetooth está mas orientado a la interconexión directa de dispositivos inalámbricos en entornos más reducidos (como un hogar) y con menos necesidades de ancho de banda.
Figura 1.8. Logotipo de certificación Wi-Fi La topología de una red Wi-Fi más común es aquella en la que los equipos móviles se comunican entre si a través de un dispositivo intermedio denominado punto de acceso (access point). El usuario, una vez conectado a un punto de acceso, podrá ir moviéndose libremente por las zonas en las que haya cobertura y, en su movimiento, irá cambiando de punto de acceso (roaming) según las necesidades, de manera que se mantenga una conexión a red en condiciones. Aparte de la utilización de Wi-Fi en hot-spots, una aplicación que se está extendiendo con gran rapidez es en el entorno residencial, como punto de acceso de los usuarios, que pueden conformar una LAN inalámbrica, conectada al router de acceso a Internet, que le ofrecen los operadores al contratar una línea ADSL. De esta manera, se pueden conectar desde cualquier estancia de la casa, desde uno o varios PC. 3.4.1 Capa física La capa física de cualquier red define la modulación y la señalización características de la transmisión de datos. En la capa física, se definen dos métodos de transmisión RF(Radiofrecuencia) y un IR(Infrarrojo). El funcionamiento de la WLAN en bandas RF ilícitas, requiere la modulación en banda ancha para reunir los requisitos del funcionamiento en la mayoría de los países. Los estándares de transmisión RF son los saltos de frecuencia (FHSS) y la secuencia directa (DSS5). Ambas arquitecturas se definen para operar en la banda de frecuencia de 2,4 GHz, ocupando típicamente los 83 MHz de banda desde los 2,400 GHz hasta 2,483 GHz. 3.4.2 Seguridad En el estándar se dirigen suministros de seguridad como una característica optativa para aquellos afectados por la escucha secreta, es decir, por el "fisgoneo".
La seguridad de los datos se realiza por una compleja técnica de codificación, conocida como WEP (Wired Equivalent Prívacy Algorithm). WEP se basa en proteger los datos transmitidos en el medio radio, usando una clave de 64 o 128 bits y el algoritmo de encriptación RC4. WEP, cuando se habilita, sólo protege la información del paquete de datos y no protege el encabezamiento de la capa física para que otras estaciones en la red puedan escuchar el control de datos necesario para manejar la red. Sin embargo, las otras estaciones no pueden distinguir las partes de datos del paquete. WPA (Wi-Fi Protected Access) es una mejora sobre WEP que utiliza claves dinámicas para encriptar las comunicaciones de forma que hacen prácticamente invulnerables las redes inalámbricas. Se ha desarrollado para sustituir al WEP hasta que el estándar 802.11i del IEEE esté finalizado. 3.4.3 Previsiones futuras El estándar WLAN IEEE 802,11 será una de las primeras generaciones de regularización para las redes LAN Inalámbricas. Este estándar sentará la base para la norma de la siguiente generación y dirigirá las demandas para una mayor actuación, una mayor tasa de datos y más bandas de frecuencia. La interoperabilidad entre los productos WLAN de fabricantes diferentes será importante para el éxito del estándar. Estos productos se Implementarán en tarjetas ISA o PCMCIA para el uso en ordenadores personales, PDA, portátiles o aplicaciones de escritorio. Las aplicaciones WLAN se están desarrollando en su mayor parte en mercados verticales y se espera que algunas aplicaciones horizontales mantengan la infraestructura de la red 802.11 que hay Instalada. Con el tiempo se espera que el aumento de demanda para productos 802.11 Incremente la competencia y hagan las WLAN más competitivas y baratas, para casi todas las aplicaciones que requieren conectividad inalámbrica. En el horizonte está la necesidad para tasas de datos más altas y para aplicaciones que requieren conectividad inalámbrica a 10 Mbps y superior. Esto les permitirá a las redes inalámbricas igualar la tasa de datos de la mayoría de las LAN; en concreto, algo que ya está sucediendo con el nuevo estándar WiMAX.
3.5 WMAN (WIRELESS METROPOLITAN AREA NETWORK)
3.5.1. WiMAX (Worldwide interoperability for Microwave Access) 3.5.1.1 INTRODUCCIÓN Las redes Wi-Fi permiten la construcción de las denominadas "mícroceldas", que son áreas de cobertura de un radio inferior a las pocas centenas de metros. Pero, si queremos asociar mícroceldas próximas para constituir redes inalámbricas de mayor obertura, el procedimiento comúnmente empleado es la interconexión de cada una de éstas a las redes públicas cableadas de operadores. Este modelo, habitual en las grandes ciudades, es de difícil implantación en zonas rurales y dispersas y, además, condiciona el despliegue a la existencia de una red de cobertura amplia, habitual mente constituida mediante redes fijas.
Figura 1.9. Logotipo de WiMAX
Considerando esta limitación, el consorcio IEEE ha establecido un grupo de trabajo, el 802.16, para proponer una tecnología inalámbrica de largo alcance para redes MAN Inalámbricas o WMAN (Wireless MAN). El resultado ha sido la aprobación en 2002 del estándar IEEE 802.16, al que añadió en el año 2003 el anexo 802.16a, cuyas características más destacables son una importante compatibilidad técnica con la serie 802.11 (lo que facilitará la inmediata salida de productos al mercado), y el permitir flujos binarios entre 50 y 100 Mbps (típicamente 70 Mbps) con rangos de cobertura cercanos a los 50 kilómetros. WIMAX (Worldwide interoperability for Microwave Access) es un nuevo estándar del IEEE (802.16) para la comunicación inalámbrica a alta velocidad (ancho de banda de 70 Mbps o más) y a larga distancia (50 Km) tanto en zonas urbanas como rurales, utilizando microondas. 3.5.1.2 VARIANTES Existen dos variantes de este estándar: 802.16a, que trabaja en la banda de 2 a 11 GHz y que puede operar sin que haya visión directa entre la estación base y los usuarios. 802.16, que opera en la banda de 10 a 66 GHz y que necesita trabajar con visión directa, pero ofrece un mayor ancho de banda. Los productos basados en la tecnología 802.16a pueden proporcionar conectividad de banda ancha inalámbrica con nivel garantizado de servicio (QoS)
para las aplicaciones empresariales (como videoconferencia o VolP), y a los hogares para las aplicaciones de banda ancha residenciales. Estos productos también permitirán que los proveedores de servicios ofrezcan servidos de voz y de datos.
Figura 1.10. Entorno de utilización de WiMAX
3.5.2 WPAN (WIRELESS PERSONAL AREA NETWORK)
3.5.2.1. RFID (RADIO FREQUENCY IDENTIFICATION) La tecnología de etiquetas de radiofrecuencia o RFID (Radio Frequency Identification) consiste en unas etiquetas parecidas a las de código de barras pero que incluyen un pequeño transceptor radioeléctrico y una memoria en la que es posible almacenar Información. Esta etiqueta se coloca adherida en los productos, como si fuese u etiqueta de precio o un código de barras.
Esta tecnología, aunque pueda parecer muy nueva, no lo es tanto, pues se desarrolló durante la Segunda Guerra Mundial, con el objetivo de Identificar si los barcos y aviones eran amigos o enemigos; lo que si es novedoso es su aplicación al etiquetaje de los artículos. Gracias a estas etiquetas y mediante el uso de ondas de radio, los responsables de los centros logísticos o comerciales podrán controlar la ubicación, el estado, su
número y otro tipo de información sobre sus productos sin necesidad de intervención humana, ni tener un acceso directo a los mismos, acelerando los procesos de Inventario y permitiendo optimizar los stocks. También, evitan el robo de mercancías, ya que si no han sido desactivados antes dan lugar a una alarma al pasar por el arco detector a la entrada/salida de la tienda. Otra de sus posibles aplicaciones seria para efectuar el pago automático de la mercancía adquirida al pasar por caja, ya que los artículos se irían contabilizando al echarse al carrito de la compra. Pero, también, presenta algunos inconvenientes, entre los que se encuentra la falta de estandarización actual y la gran cantidad de datos que generan, y que si la empresa no tiene sus sistemas de proceso adaptados para su tratamiento, puede llegar a colapsarlos.
Dependiendo de la tecnología RFID empleada, esta etiqueta es capaz de responder con la información almacenada si se estimula con una radiación electromagnética adecuada, para lo que se emplea un lector de etiquetas, como se ve en la figura. 3.5.2.2 Tipos de etiquetas Las etiquetas pueden ser de soto lectura o de lectura/grabación y se clasifican generalmente, dentro de dos gamas de frecuencia; 125 kHz (baja frecuencia) y 13,5 MHz (alta frecuencia). También, las etiquetas RFID pueden ser "pasivas" (no requieren de ninguna fuente de energía pues ésta se extrae de la radiofrecuencia) o "activas" (contienen una batería pequeña para aumentar el rango de operación). Las pasivas son muy económicas y encuentran un amplio ámbito de aplicación; al no necesitar energía pueden durar muchos años y no se desgastan con el uso. Por el contrario, las activas necesitan de una fuente de energía, por lo que son más grandes y su aplicación se restringe a la identificación de vehículos y cargas pesadas; suelen
durar unos diez años. Están disponibles en ambos casos en una amplia gama de estilos y de materiales, desde etiquetas de papel a otras de plástico o vidrio, para satisfacer cualquier uso. La tecnología de RFID es extremadamente versátil y se puede aplicar a una gama diversa de sectores comerciales e Industriales, para:
Protección de mercancías. Identificación y seguimiento. Confirmación de la propiedad. Verificación de la autenticidad. Almacenamiento y actualización de la información referente objetos a personas específicos.
RFID combinado con la tecnología de códigos electrónicos de productos o EPC (Electronic Product Codes) puede convertirse en una gran ayuda para disminuir y mejorar la gestión logística de los almacenes, centros comerciales y el sector minorista, en general. 3.5.3 COMUNICACIONES RADIOELÉCTRICAS Las comunicaciones radio eléctricas se caracterizan por el empleo el aire y las ondas de radio como soporte de la comunicación a diferencia de lo que ocurre con sus homologas cableadas, no requieren de un medio físico, como un cable de cobre o una fibra óptica, para el establecimiento de la comunicación. En efecto, la idea que subyace a toda red radio es la de conectividad total, tanto temporal (conexión disponible en cualquier momento) como espacial (conexión disponible en cualquier lugar). Las ventajas que poseen las redes inalámbricas son: Flexibilidad: dentro de la zona de cobertura de la red inalámbrica los nodos se podrán comunicar libremente y no estarán "atados" a un cable. Poca planificación con respecto a las redes cableadas: antes de cablear una zona se debe pensar mucho sobre la distribución física de los equipos, mientras que con una red inalámbrica sólo nos tenemos que preocupar de que quede dentro de la cobertura de la red. Robustez frente eventos inesperados (tropezón de un usuario con un cable, terremoto, etc.) ante los que una red cableada podría llegar a quedar completamente inutilizada. En estos casos, una red inalámbrica puede sobrevivir bastante mejor a este tipo de percances. Por otro lado, los inconvenientes son: Calidad de servicio: las redes inalámbricas ofrecen una peor calidad de
servicio que sus homologas cableadas. Por otra parte, hay que tener en cuenta también la tasa de error debida a las interferencias. Esta se puede situar alrededor de 10-4 frente a las 10-10 de las redes cableadas, lo que significa que hay 6 órdenes de magnitud de diferencia (aproximadamente de cada megabit transmitido, 1 Kbit será erróneo). Esto puede llegar a ser imposible de implantar en algunos entornos industriales con fuertes campos electromagnéticos y ciertos requisitos de calidad. Mayor coste: aunque, cada vez más. se están abaratando los costes asociados a estas tecnologías, todavía resultan más caras que las redes cableadas en la mayoría de los casos. Restricciones, estas redes requieren de la asignación de una banda dentro del espectro radioeléctrico, Éste está muy saturado hoy día y las redes deben amoldarse a las reglas que existan dentro de cada país. Seguridad: Por una parte, seguridad e integridad de la información que se transmite. Este campo está bastante criticado en casi lodos los estándares actuales que, según dicen, no se deben utilizar en entornos críticos en los que un "robo" de datos pueda ser peligroso. Por otra parte, este tipo de comunicación podría interferir con otras redes de comunicación (policía, bomberos, hospitales, etc.) y esto hay que tenerlo en cuenta en el diseño.
ACTIVIDADES DE LA UNIDAD
Realizar
un
cuadro
comparativo
entre
las
diferentes
bandas
de
Radiofrecuencias utilizadas en las microondas.
Investigar y hacer un artículo técnico sobre las aplicaciones de las Microondas en el campo de la Medicina, en el campo científico y en el campo industrial.
Realizar
un
ensayo
sobre
los
efectos
nocivos
de
las
ondas
electromagnéticas contra la salud.
Realizar un cuadro comparativo entre las diferentes redes inalámbricas.
UNIDAD 2 LÍNEAS DE TRANSMISIÓN Y DIAGRAMA DE SMITH
OBJETIVOS DE LA UNIDAD
Conocer e identificar las diferentes líneas de transmisión (feeder) Conocer los diferentes modos de propagación. Conocer el diagrama de Smith. Realizar cálculos de relación de onda estacionaria Realizar operaciones utilizando el diagrama de Smith.
CAPITULO 1. LÍNEAS DE TRANSMISIÓN La energía electromagnética no sólo se puede transmitir a través de un medio infinito, sino también a través de un medio confinado en una línea de transmisión o guía de ondas. La diferenciación de ambos términos nos sigue unas reglas universalmente aceptadas. Generalmente se discrimina «línea» de «guía» reservando el término «guía» para las líneas constituidas por un solo conductor. Dado que se presentarán numerosos resultados y propiedades que son totalmente generales, se utilizará preferentemente el término «línea». Este término lo emplearemos para designar cualquier objeto físico que se utilice como soporte para propagar campos, independientemente del número de conductores que tenga.
En la teoría de circuitos de baja frecuencia se asume implícitamente que las dimensiones de los circuitos son muy pequeñas en comparación con la longitud de onda. Gracias a ello, podemos suponer que cuando una corriente alterna circula por un cable, por ejemplo, en un instante dado tanto la amplitud como la fase de esta corriente es la misma en todos los puntos del cable. En las líneas que se utilizan para transmitir señales de alta frecuencia generalmente no es posible hacer este tipo de aproximaciones. A pesar de ello, y tal y como veremos en este apartado, la teoría de líneas de transmisión nos permite aprovechar muchas de las leyes y propiedades que se estudian en electrónica de baja frecuencia. 1.1 CORRIENTES Y VOLTAJES EN LÍNEAS Comencemos deduciendo las ecuaciones básicas que deben satisfacer los voltajes y corrientes en una línea de transmisión. Estas ecuaciones asumen implícitamente que por la línea se propaga un modo TEM, es decir, que las componentes longitudinales de los campos eléctrico y magnético son siempre nulas. Esta hipótesis es necesaria para garantizar la unicidad en las definiciones de V e I. Existen líneas no TEM en las cuales hay infinitas maneras de definir voltajes y corrientes, pero incluso en estas líneas se pueden establecer convenios que permiten utilizar los conceptos, definiciones y conclusiones que se van a presentar en este apartado.
Para poder aplicar las leyes de Kirchoff dividiremos la línea a estudiar en secciones de una longitud Az., que consideraremos muy inferior a la longitud de la onda. Un modelo circuital preciso debe considerar las pérdidas y el almacenamiento de energía en cada una de estas secciones. Un posible modelo equivalente (existen muchos otros igualmente válidos) podría ser una red RLC como la de la Figura 2.1. En este modelo GAz. Simula las pérdidas dieléctricas, RA, las pérdidas en los
conductores y los elementos reactivos LAz. y CAz, el almacenamiento de energía magnética y eléctrica, respectivamente. Aplicando las leyes de Kirchoff se obtienen las siguientes expresiones
(2.1)
(2.2)
R, G, L, y C son parámetros definidos por unidad de longitud. Dividiendo por la longitud de la sección y tomando el límite a longitudes diferenciales se obtienen las ecuaciones del telegrafista,
(2.3)
(2.4)
Figura 2.1 Modelo equivalente de una sección de línea de longitud muy pequeña en comparación con la longitud de onda. En aquellos casos en los que se puede utilizar la notación fasorial estas ecuaciones quedan reducidas a un sistema de ecuaciones de una variable, (2.5)
(2.6) Derivando ambas expresiones con respecto a z y sustituyendo términos se
obtienen dos ecuaciones de Helmholtz desacopladas para V e /,
(2.7)
(2.8) donde la constante de propagación viene dada por
En ausencia de pérdidas (R = G = 0) la constante de propagación coincide con la de fase, la cual se puede expresar como
Como ya se ha visto en el análisis de ondas planas, las ecuaciones de Helmholtz admiten como soluciones una superposición de una onda incidente y una reflejada,
Imponiendo la relación (2.5)
Las líneas de transmisión se caracterizan habitualmente por un parámetro con dimensiones de resistencia que recibe el nombre de impedancia característica, y que se define como el cociente entre la tensión y la corriente en ausencia de ondas reflejadas,
esta impedancia es un número real en una línea sin pérdidas. La impedancia característica estándar que más se utiliza en las líneas de transmisión de alta frecuencia es de 50 Ohm. Con esta definición la corriente puede expresarse como
1.1.1 LÍNEAS TERMINADAS EN CARGAS Si una línea tiene una longitud finita, es razonable suponer que lo que se conecte al final de la línea constituye una discontinuidad que será en general una fuente de reflexiones. La impedancia característica nos brinda la posibilidad de calcular la amplitud del voltaje reflejado a partir de la impedancia que se conecta al final de la línea, la cual recibe el nombre genérico de impedancia de carga. Si se toma como origen de coordenadas el punto de la línea en donde se conecta la carga, los voltajes y corrientes totales deberán satisfacer la relación
Donde Z, es la impedancia de carga. Así pues particularizando (2.13) y (2.18) para z = 0,
Con esta relación se llega a una conclusión importante: para evitar reflexiones en una línea es necesario terminarla en una impedancia de carga igual a la impedancia característica de la línea. En líneas de transmisión es habitual definir un coeficiente de reflexión asociado a la carga como el cociente entre el voltaje reflejado y el incidente en el plano de conexión de la carga. Esta definición también se puede extender a cualquier punto de la línea de transmisión,
Recordemos que todos los valores de z en estas ecuaciones son negativos, puesto que se ha tomado como origen de coordenadas el plano de conexión de la carga y las ondas de voltaje incidente se propagan hacia valores de z crecientes.
Consecuentemente, en una línea con pérdidas terminada en una carga arbitraria el coeficiente de reflexión sufre una atenuación exponencial a medida que se mide en puntos más alejados de la carga que genera las reflexiones. También puede extenderse la definición de impedancia a cualquier punto de la línea,
Donde en la última igualdad se ha supuesto que las pérdidas son despreciables. El coeficiente de transmisión se define de la misma forma que en el caso de ondas planas,
También son ampliamente utilizados los parámetros de pérdidas de inserción (IL) y pérdidas por retorno (RL), que son el coeficiente de reflexión y el de transmisión en dB,
El cociente Z/ZC recibe el nombre de impedancia normalizada. Asimismo, también es habitual definir en líneas sin pérdidas una razón de onda estacionaria en voltaje como
El voltaje oscila entre un máximo de amplitud V0+ (1 + | ΓL |) y un mínimo de amplitud V+0 (1-- | ΓL | ). Así pues
1.2 TRANSMISIÓN DE POTENCIA En alta frecuencia es difícil medir directamente voltajes y corrientes, en gran parte debido a que no se pueden construir con facilidad circuitos abiertos y cortocircuitos. No obstante, las ondas de voltaje y corriente también permiten evaluar el flujo de potencia en la línea, que es habitualmente lo que se mide. Según la teoría de circuitos este flujo es
Sustituyendo en las soluciones de la ecuación de ondas para V e I se obtiene
O bien
Si las pérdidas no son elevadas la impedancia característica es real y por tanto
Esta potencia está expresada en términos de la amplitud del voltaje incidente en la carga. Sin embargo es más práctico expresarla en función del voltaje suministrado por el generador que alimenta la línea. Para ello simularemos el generador con una impedancia interna ZG en serie con una fuente de voltaje VG tal y como se muestra en la Figura 2.2. Suponiendo que este generador se encuentra en el punto de coordenada Zgen, el voltaje en el punto de conexión del generador con la línea será
Por otra parte, si se llama Zin a la impedancia de entrada vista por el generador,
Asi pues, el voltaje incidente en la carga resulta ser:
Figura 2.2. Línea de transmisión alimentada por un generador de impedancia ZG
Por tanto, el flujo total de potencia en la línea es:
Esta expresión general proporciona abundante información de interés práctico. Veamos algunos de los resultados que se pueden obtener a partir de ella: a) Si la carga está adaptada a la línea, entonces la potencia suministrada a la carga se maximiza con un generador de impedancia nula. Esta potencia máxima será igual a
No obstante, en la práctica los generadores de alta frecuencia se diseñan para tener una impedancia de entrada igual a la característica de las líneas convencionales, que suele ser de 50 Ohm. Gracias a ello es más fácil diseñar el generador para que suministre a la línea una potencia más estable y menos sensible con respecto a la carga que se conecte. b) En ausencia de pérdidas en la línea, la potencia suministrada a la carga puede hacerse independiente de la Idealización del generador si se utiliza 1) un generador acoplado o 2) una carga acoplada. Si el generador está acoplado
En esta expresión queda patente como se distribuye la potencia en una línea. La potencia suministrada a la carga P (0) es la diferencia entre la potencia incidente en la carga Pinc menos la reflejada Pref Asimismo, es interesante observar que una vez que el generador está acoplado, entonces la máxima transferencia de potencia se produce cuando la carga está acoplada. Si es la carga la que está acoplada,
c) En ausencia de pérdidas, si el generador y la carga están acoplados entonces la potencia suministrada a la carga es igual a la mitad de la generada. La potencia generada es donde Zin es la impedancia vista por el generador.
En numerosas ocasiones la impedancia del generador viene impuesta y es preciso estudiar cómo modificar la impedancia que presenta la línea al generador para conseguir máxima transferencia de potencia del generador a la línea. Para ello calculemos la potencia suministrada a la línea. Esta potencia se puede obtener a partir de Zin y viene dada por
Para obtener bajo qué circunstancias se maximiza esta potencia basta con igualar a cero las derivadas con respecto a la parte real e imaginaria de la impedancia de entrada, lo que da lugar a un importante resultado: la máxima transferencia de potencia se produce cuando la impedancia vista por el generador es igual al complejo conjugado de la impedancia del mismo. A la potencia que suministra el generador a una impedancia igual al complejo conjugado de su impedancia interna se le llama, potencia disponible, y viene dada por
(2.4 1)
1.3 MODOS DE PROPAGACIÓN Y PROPIEDADES DE CORTE Cada una de las posibles soluciones a las ecuaciones de Maxwell en una línea de transmisión recibe el nombre genérico de modo. Los modos en los que pueden propagarse los campos se clasifican habitualmente según el valor que adopten las componentes longitudinales de los campos magnético y eléctrico. Ya conocemos los modos TEM, en los que tanto Ez como Hz son nulos. Por otra parte, también existirán soluciones en las que se anule Ez (modos TE, también llamados modos H) o Hz, (modos TM, también llamados modos E). No obstante, no todos los modos que se propaguen por cualquier línea son de tipo TEM, TE o TM. Existen líneas que por su complejidad tienen modos híbridos, en los cuales ni Ez ni Hz son nulos. (2.42) Veamos cómo se determinan los modos y cuáles son sus propiedades más interesantes. La complejidad de las ecuaciones de Maxwell fuerza la necesidad de hacer algunas hipótesis de partida, 1) Los campos tienen una dependencia armónica. 2) No existen fuentes de campo en el interior de la línea. 3) El medio en el que se confinan los campos es isótropo, homogéneo, lineal y no tiene pérdidas. 4) Los modos son ondas que se propagan en una única dirección y un único sentido. Tal y como se hace habitualmente, la dirección de propagación se hará coincidir con el eje z, y el sentido de avance del modo será hacia z = +∞. Estas hipótesis permiten escribir las expresiones generales para los fasores representativos de los modos de la siguiente forma:
Donde β es la constante de fase de la onda guiada. No todas las funciones que adopten esta forma van a satisfacer las ecuaciones de Maxwell. De hecho, al imponer estas ecuaciones se llega a un interesante resultado: Las componentes de los campos no son independientes entre sí, sino que existen ecuaciones que permiten determinar todas las componentes transversales a la dirección de propagación únicamente a partir de las longitudinales. Estas ecuaciones de ligadura se obtienen sin necesidad de aplicar ninguna condición de contorno, y son las siguientes:
donde por definición el factor kc llamado constante de corte, viene dado por
k es la constante de fase de una onda plana que se propagaría por el medio que confina el campo en la línea si este medio fuera infinito,
Las Ecuaciones (2.47)-(2.50) serán referenciadas a menudo y para recordarlas las llamaremos ecuaciones TPL (Transversales a Partir de Longitudinales). En líneas como la coaxial o la guía circular es preferible utilizar coordenadas cilíndricas. Las ecuaciones TPL en estas coordenadas son
En general, la constante de corte no va a ser nula, y en consecuencia ni la constante de propagación ni la longitud de onda de los campos confinados coincidirán necesariamente con las correspondientes a una onda que se propague por un medio ilimitado. De hecho, puede darse la circunstancia de que por una misma línea se propague una superposición de modos de distintas longitudes de onda. Es importante recordar que el hecho de que se obtengan en medios infinitos longitudes de onda distintas a las de una línea no implica que la frecuencia en la línea cambie. La frecuencia de una onda está determinada por el generador que la produce, y no por el medio en el que la onda se propaga. Generalmente Infrecuencia es un dato que se impone a las ecuaciones de Maxwell, mientras que la longitud de onda es un resultado
que se obtiene cuando se especifica la geometría de la línea a través de las condiciones de contorno, así como los medios constitutivos de la línea. En los ejemplos de líneas que se van a estudiar en este capítulo se ilustrarán dos propiedades importantes de la constante de corte: 1) Es un número real positivo. 2) Depende únicamente de las propiedades geométricas de la línea y a lo sumo de sus medios constitutivos. Existen líneas en las que la constante de corte ni siquiera depende del medio, sino únicamente de la geometría. Por ejemplo: las guías rectangulares y circulares, la línea coaxial y la línea de láminas planoparalelas. En guías no homogéneas, como por ejemplo, las guías parcialmente llenas de un dieléctrico, la constante de corte depende también de la permitividad de los medios. Las propiedades de la constante de corte permiten definir una serie de términos de interés: Modos evanescentes. Modos que se atenúan a medida que se propagan por la línea. Para que estos modos se atenúen es necesario que la constante de fase sea imaginaria, y por tanto que la constante de corte sea superior a k. Dado que se ha hecho la hipótesis de que la línea no tiene pérdidas, esta atenuación no es de carácter disipativo. Frecuencia de corte. Frecuencia a la cual se anula la constante de fase. Utilizando la propia definición de constante de corte podemos obtener inmediatamente una expresión para esta frecuencia:
Es fácil aclarar el significado físico la frecuencia de corte. Supongamos que la frecuencia con la que el generador alimenta la línea es inferior a la de corte. Entonces k < kc y en consecuencia el modo sería evanescente. Así pues, la frecuencia de corte de un modo es la mínima frecuencia a la cual debe sintonizarse el generador que alimenta la línea para que el modo se propague. Longitud de onda de corte. Se define como
Para que un modo se propague, es necesario que su longitud de onda de corte sea superior a la de la onda plana asociada en el medio no confinado. A,
Longitud de onda en la guía. Es la distancia entre dos puntos de igual fase en ausencia de reflexiones,
Modo fundamental. Modo de propagación que tiene la frecuencia de corte más baja. A partir de esta definición se deduce inmediatamente que si deseamos que por la línea se propague sólo un modo, entonces una forma de lograrlo consistiría en seleccionar una frecuencia que sea superior a la de corte del modo fundamental, e inferior a la de corte del modo inmediatamente superior. En estas condiciones se propagará sólo el modo fundamental. Si la frecuencia viene impuesta, entonces sería necesario buscar otra geometría de línea que tenga las constantes de corte apropiadas. Los modos de orden superior dificultan la utilización práctica de la línea y complican el análisis de los campos. Por tanto, en la práctica es habitual diseñar las líneas con geometrías adecuadas que garanticen la propagación de un único modo. No obstante, puede darse la circunstancia de que la configuración de campos del modo fundamental no sea la más adecuada. En estos casos es posible seleccionar frecuencias suficientemente altas para que se propague el modo de orden superior que se desee, y utilizar geometrías adecuadas en la excitación de la línea que permitan generar este modo sin que aparezcan otros de frecuencia de corte más baja. No obstante, en estas circunstancias cualquier posible discontinuidad que pudiera existir en la guía podría dar lugar a propagación multimodo. Modos degenerados. Son aquellos que tienen una misma frecuencia de corte. Impedancia del modo. Los modos se caracterizan no sólo por una constante de propagación sino también por una impedancia, que recibe el nombre de impedancia de la onda o bien impedancia del modo. Esta impedancia se define de distinta forma para cada tipo de modo. Para un modo TEM se definirá como la impedancia intrínseca del medio. En el caso de los modos TE y TM la definiremos mediante las siguientes expresiones,
La impedancia del modo es por tanto un número real positivo en una línea constituida por materiales sin pérdidas. En líneas disipativas es habitual extender estas definiciones
utilizando la constante de propagación en lugar de la de fase,
A continuación describiremos brevemente cómo se calculan los modos y qué propiedades tienen, y justificaremos la utilidad de estas definiciones de impedancia. 1.4 MODOS TEM 1.4.1 Propiedades La constante de fase coincide con la de una onda plana Supongamos que las componentes longitudinales de E y H son nulas. Entonces las Ecuaciones TPL, (2.47)-(2.50), indican que la única posibilidad que habría de que los campos totales no fueran nulos sería haciendo que se anulase k,.. Por tanto, si por la línea se propaga un modo TEM, entonces su constante de corte es nula. Así pues,
Con esta propiedad es evidente que si en una línea se propaga un modo TEM, éste será siempre el modo fundamental. Los campos satisfacen la Ecuación de Laplace en el plano perpendicular a la dirección de propagación Esta propiedad es un resultado directo de la ecuación de ondas. Si se impone esta ecuación a las componentes transversales de los campos,
y se asumen soluciones de la forma
se obtiene la Ecuación de Laplace tanto para como para e como para h,
donde el subíndice t identifica las dos dimensiones transversales,
De esta forma la obtención de los campos en un modo TEM queda reducida a resolver un problema en 2 dimensiones. El hecho de que el campo eléctrico satisfaga la Ecuación de Laplace es especialmente relevante porque gracias a ello es posible utilizar algunos resultados importantes de las leyes de la Electrostática. Los campos son conservativos Hagamos uso del siguiente teorema: «Si el rotacional de un campo es nulo, entonces el campo es conservativo y puede obtenerse a partir del gradiente de una función escalar.» Las ecuaciones de Maxwell garantizan que los campos transversales cumplen este requisito,
Así pues,
Este resultado tiene una importante consecuencia: en una guía construida con un tubo conductor hueco de sección arbitraria no es posible propagar un modo TEM. Si así fuera el potencial eléctrico en el interior del conductor sería constante, lo que daría lugar a un campo nulo. Las potenciales también satisfacen la Ecuación de Laplace Si se impone que no hay cargas en el interior de la línea, la divergencia del campo eléctrico es nula y por tanto el potencial también deberá satisfacer la Ecuación de Laplace,
El mismo razonamiento se puede aplicar al potencial magnético.
1.4.2 CÁLCULO DE LOS MODOS TEM Una vez conocido el campo eléctrico, el campo magnético se puede obtener a partir de las ecuaciones de Maxwell,
Es interesante observar que en un modo TEM el módulo del campo eléctrico total dividido por el del campo magnético total es independiente del punto donde se mide el campo, e igual a la impedancia del modo. Gracias a ello es posible caracterizar de forma «compacta» el modo en una línea sin pérdidas a partir de un sólo número real positivo ZTEM En resumen, el procedimiento para obtener la configuración de campos en un modo TEM se podría esquematizar en los siguientes pasos: a) determinar la solución general de la Ecuación de Laplace para el potencial eléctrico y aplicar las condiciones de contorno, b) calcular el campo eléctrico a partir del gradiente del potencial, y finalmente c) calcular el campo magnético a partir del rotacional del campo eléctrico.
1.5. MODOS TE Y MODOS TM 1.5.1 MODOS TE Anulando la componente 7. del campo eléctrico las ecuaciones TPL se pueden simplificar a las siguientes expresiones:
En este caso la constante de propagación no tiene por qué ser nula para obtener una solución distinta a la trivial. Para determinar la componente longitudinal del campo magnético es necesario resolver la ecuación de Helmholtz,
Puede demostrarse que en un modo TE las condiciones de contorno generales quedan reducidas a (2.85)
donde n es la coordenada normal a la superficie conductora. Imponiendo esta condición de contorno a la solución general para h. se reducen el número de constantes arbitrarias y posteriormente se pueden aplicar las ecuaciones TPL para determinar el resto de las componentes. En resumen, el procedimiento para obtener la configuración de campos en un modo TE se podría esquematizar en los siguientes pasos: a) obtener la solución general a la ecuación de Helmholtz para la componente longitudinal del campo magnético, b) aplicar las condiciones de contorno y obtener Kc. , y c) calcular las demás componentes a partir de las ecuaciones TPL. Si se particulariza la ecuación de Maxwell para el rotacional de E a un modo TE se obtiene un interesante resultado,
Así pues, la impedancia de la onda tal y como se ha definido permite obtener una relación entre los campos transversales similar a la existente en un modo TEM (Ecuación 2.79). 1.5.2 MODOS TM Los campos de un modo TM se calculan de forma totalmente análoga a los de un modo TE. Imponiendo que la componente longitudinal del campo magnético es nula en las ecuaciones TPL se obtiene
Al igual que en el caso anterior, la constante de corte no es nula. La componente longitudinal del campo eléctrico se puede obtener de la ecuación de Helmholtz en dos dimensiones,
En este caso, las condiciones de contorno para e, permitirán obtener las constantes de corte y por tanto las de propagación. Consecuentemente, los campos de un modo TM pueden determinarse esencialmente en dos pasos: a) obtener la solución a la ecuación de Helmholtz para e, y aplicar las condiciones de contorno. Con ellas se obtendrán los valores de Kc. y se reducirá el número de constantes arbitrarias; b) calcular todas las demás componentes de E y H a partir de las ecuaciones TPL. Análogamente a como ocurre con los modos TE, se puede aprovechar la impedancia de la onda para relacionar los campos transversales,
CAPITULO 2 LÍNEAS DE GEOMETRÍA SENCILLA Una vez obtenidas las propiedades generales de los modos, es necesario particularizar para poder conseguir más información de una línea. El siguiente paso a seguir es aplicar las condiciones de contorno. Estas condiciones se obtienen a partir de la geometría de la línea se aplican para reducir parcialmente el numero de constantes arbitraria que aparecen en las soluciones generales de los campos. Sólo en algunos casos concretos se obtendrá solución única, cuando sea posible conocer de qué forma se ha excitado la línea. La Figura muestra la geometría de las líneas que se van a considerar junto con la nomenclatura que va a utilizarse. Se describirán las propiedades principales de cada línea y los resultados finales de los campos. 2.1 LÍNEA DE LAMINAS PLANOPARALELAS La estimación analítica de los campos en la línea de láminas planoparalelas es posible haciendo la hipótesis de que la anchura de las láminas es muy superior a la separación entre las mismas. La Tabla 3 muestra las expresiones analíticas para los campos correspondientes; la Figura 2.4 muestra la distribución de campos en los primeros modos de propagación, Esta línea soporta el modo TEM. y por tanto este modo es el fundamental. Conociendo la diferencia de potencial entre las dos placas en una sección arbitrarla de la línea, es posible determinar unívocamente los campos de este modo en lodos los puntos de la línea. Utilizando estos campos y el modelo circular equivalente se puede determinar la impedancia característica
Figura 2.3. Líneas de geometría sencilla: a) línea de láminas planoparalelas, b) guía rectangular, c) línea coaxial y d) guía circular.
Para que se satisfagan las condiciones de contorno en la línea es necesario que se anule la componente Ex en los modos TE y Ez en los modos TM. En ambos casos existen infinitos valores de Kc que permiten satisfacer esta propiedad. Por tanto existen infinitos modos TE y TM, los cuales se identifican con un único subíndice. Los modos de frecuencia de corte inmediatamente superior al fundamental son degenerados: el TE1 y el TM1. La constante de corte para ambos es inversamente proporcional a la separación entre las láminas, y por tanto para poder alcanzar el mayor ancho de banda posible en propagación monomodal es necesario minimizar esta separación. Resultados similares pueden encontrarse en el resto de las líneas, en las que generalmente será necesario reducir la sección para maximizar el ancho de banda. Esta reducción va siempre acompañada por una disminución de la potencia máxima que puede transmitirse. En la línea de láminas planoparalelas las impedancias de los modos TE y TM están relacionadas con los campos transversales a partir de las siguientes expresiones,
Figura 2.4 —Vista frontal de la distribución de campos en una línea de láminas planoparalelas. Modo TEM (a), modo TM1 (b), modo TE1 (c). La línea continua corresponde al campo eléctrico, la discontinua al magnético. Así pues, la impedancia de la onda tal y como la hemos definido es también un cociente de componentes de campos transversales, cociente que no depende del punto de la línea donde se determine el campo. Si se hubiera considerado un modo que se propagase en sentido de z decreciente hubiera aparecido un signo negativo en el cociente, de manera que la impedancia siempre es un número real positivo en una línea sin pérdidas. 2.2 GUÍA RECTANGULAR La guía rectangular es una de las líneas de transmisión más ampliamente utilizadas. De hecho, es posible encontrar numerosos fabricantes que suministran una gran variedad de componentes en bandas de frecuencia localizadas desde 0,3 GHz hasta 325 GHz. Esta guía es especialmente adecuada para propagar señales de frecuencias elevadas, con longitudes de onda del orden de milímetros. Las expresiones de los campos se encuentran en la Tabla 3, y la Figura 2.5 muestra algunos de sus modos de propagación. Al estar constituida por un conductor hueco, la guía rectangular tan sólo soporta modos TE y TM. La dependencia de las componentes de los campos respecto de las coordenadas transversales aparece como el producto de dos funciones oscilatorias (senos y cósenos). Como consecuencia de ello, al imponer las condiciones de contorno se obtiene una serie doblemente infinita de constantes de corte y por tanto cada modo está caracterizado por dos subíndices distintos. En los modos TMmn ni m ni n se anulan, puesto que haciendo cero cualquiera de estos dos órdenes en las ecuaciones de los campos se obtiene la solución trivial (campos nulos).
Figura 2.5. Campos de distintos modos en una guía rectangular. De arriba a abajo, modo TE10, TE20, TE11 y TM11. De izquierda a derecha, plano y = b/2, plano E y vista frontal. El plano E es el x = a/2 para los modos TE0 y TM11, el x = 3a/4 para el TE20, y el x = a para el TE11. En la práctica las guías rectangulares más comúnmente empleadas se diseñan de forma que a = 2b. Estas guías reciben el nombre de guías normalizadas, y su banda de operación monomodal está delimitada por las frecuencias de corte de los modos TE10 (modo fundamental) y el TE20. El campo eléctrico del modo fundamental tiene dos propiedades interesantes: 1. Es máximo en el centro de la cara ancha de la guía. 2. Es independiente de la coordenada y. 3. Apunta en una dirección constante y paralela a las caras laterales. Debido a ello, el plano YZ recibe el nombre de plano E. Por motivos análogos el plano XZ se denomina plano H. Asimismo, es interesante observar que en el modo fundamental h, se anula en el centro de la cara ancha de la guía, y por tanto en este plano tanto E como H son perpendiculares a la dirección de propagación.
En la guía rectangular las impedancias de los modos TE y TM están relacionadas con los campos transversales,
La guía rectangular también es especialmente útil para transmitir grandes cantidades de potencia. La potencia máxima de pico que puede soportar una guía rectangular está determinada por el campo de ruptura del dieléctrico donde se confinan los campos. Sin embargo, la potencia máxima media que puede transportar la guía está más limitada por las pérdidas conductoras y dieléctricas, las cuales pueden elevar considerablemente la temperatura física de la guía. Las potencias máximas de pico en los modos TE mn, se pueden calcular mediante la expresión
Donde Emax es el campo de ruptura (2,9 MV/m en el caso del aire seco a temperatura ambiente y presión de una atmósfera). Esta expresión es aplicable cuando m y n son iguales o mayores que la unidad. En caso de que no sea así podemos obtener la potencia máxima con las siguientes expresiones
La potencia máxima de pico disminuye con la frecuencia de operación. Esta potencia podría aumentarse llenando la guía con un dieléctrico en lugar de aire, puesto que el campo de ruptura en los dieléctricos es mayor que el del aire. No obstante, la utilización de dieléctricos puede limitar la potencia máxima media a causa de las pérdidas. La capacidad de potencia también puede incrementarse presurizando la guía con aire o un gas inerte. 2.3 GUÍA CIRCULAR Las guías circulares presentan un ancho de banda menor que las coaxiales a igualdad de radios externos, pero permiten transmitir mayor potencia y son más fáciles de mecanizar. Las expresiones para los campos se encuentran en la siguiente Tabla 4, y la Figura 2.6 muestra la distribución en algunos modos. A pesar de la aparente existencia de dos constantes distintas a determinar en las expresiones de los campos, una de estas
dos constantes puede hacerse nula seleccionando apropiadamente la dirección transversal que establezca el origen para el ángulo Φ.
Los campos de los distintos modos están expresados en términos de las funciones de Bessel de primera especie Jn Estas funciones no pueden calcularse analíticamente pero sí numéricamente con algoritmos muy sencillos, basados generalmente en fórmulas de recurrencia.
Figura 2.6. Campos de distintos modos en una guía circular. De arriba a abajo, modo TE, TM, y TEg,. De izquierda a derecha, plano lateral y vista frontal. En el modo TE, el plano lateral corresponde al que se indica en el plano frontal con la línea de puntos. Generalmente esta precisión es más que suficiente para simular campos en líneas y guías. El programa MATLAB incorpora rutinas basadas en las librerías IMSL, con las que se obtienen mayores precisiones. Para que se satisfagan las condiciones de contorno en las paredes de la guía es necesario que se anule la componente EΦ en p = a. Debido a que las funciones de Bessel y sus derivadas presentan un comportamiento oscilatorio, para cada orden de J o de su derivada existen infinitos valores de Kc que satisfacen las condiciones de contorno.
Por tanto, cada modo está etiquetado por dos subíndices. El primero se corresponde con el orden de la función de Bessel, y el segundo indica la raíz de esta función, P nm (en el caso de los modos TM), o de su derivada, Pnm (en los modos TE). A diferencia de la guía rectangular, por convenio se suele asignar la letra n al primer subíndice, para mantener la compatibilidad con la nomenclatura habitual de las funciones de Bessel. También por convenio las raíces se identifican a partir del subíndice m = 1, y por tanto no existen modos TMNO ni TEno.
Tanto p’nm como Pnm están tabuladas en numerosas referencias. El modo fundamental es el TE11 y el inmediatamente superior el TM01,. El ancho de banda en propagación monomodal se puede aproximar por la expresión
donde a está expresada en cm. De forma análoga a como ocurre con la línea de láminas planoparalelas y la guía rectangular, las impedancias de los modos TE y TM se pueden obtener a partir de cocientes de campos transversales,
2.4 LÍNEA COAXIAL El modo fundamenta de la línea coaxial es el TEM, para el cual las expresiones de los campos son extremadamente sencillas. Al igual que como ocurre en la línea de láminas planoparalelas, conociendo la diferencia de potencial entre los dos conductores en una sección arbitraria de la línea es posible determinar una solución única para los campos de este modo. Los modos TE y TM están determinados por las funciones de Bessel de primera y segunda especie, Jn e Yn. Las expresiones para los campos se muestran en la anterior Tabla 4. y la siguiente Figura 2.7 muestra la distribución de estos campos para algunos modos de interés. Las constantes de corte deben obtenerse numéricamente resolviendo las ecuaciones no lineales que se indican en la Tabla 4, a las cuales se llega imponiendo las condiciones de contorno.
Figura 2.7. Distribución de campos en distintos modos de una línea coaxial. De arriba a abajo, modo TEM, TE, y TMg, De izquierda a derecha, plano lateral y vista frontal. El modo inmediatamente superior al TEM es el TE11. Su constante de corte se puede aproximar mediante la expresión
Las impedancias de los modos en la línea coaxial también pueden obtenerse a partir de la ecuación (2.100). La impedancia característica de esta línea puede determinarse mediante el modelo circuítal equivalente, el cual se puede obtener a partir de las expresiones de los campos en el modo TEM,
2.5 COEFICIENTES DE REFLEXIÓN Y TRANSMISIÓN Cada vez que una onda incida en una discontinuidad, se generarán ondas reflejadas. El caso más simple que puede ilustrar este tipo de situaciones consiste en una onda plana que incide perpendicularmente en una frontera plana de dos medios eléctricamente distinta, y en la que no existe ninguna densidad de corriente libre. En el medio de procedencia de la onda, que llamaremos medio 1, los campos se pueden expresar como una superposición de una onda incidente y una reflejada,
En el medio 2, medio al que se transmite la onda, no habría reflexión y por tanto todo el campo existente en 2 se propagará en el sentido de z creciente,
Imponiendo las condiciones de contorno en la frontera de los medios (plano z = 0) es posible obtener una relación entre el cociente de impedancias intrínsecas y las amplitudes de los campos incidente y reflejado. Esta relación es
De la Ecuación (2.107) se puede obtener el cociente entre el campo reflejado y el incidente, el cual se denomina coeficiente de reflexión Y. Este factor es idéntico para las dos direcciones X e Y gracias a la isotropía de los medios, y
Es interesante observar que cuando el medio 2 es un conductor ideal, su impedancia intrínseca tiende a cero y por tanto el coeficiente de reflexión tiende a -1. A partir de las condiciones de contorno también se obtiene la amplitud del campo transmitido, el cual también tiene la misma dirección que el campo incidente y se puede expresar como
donde el factor T recibe el nombre de coeficiente de transmisión.
2.5.1 POLARIZACIÓN La dirección del campo eléctrico de una onda plana en un plano perpendicular a la dirección de propagación define la polarización de dicha onda. Consideremos una onda plana se propaga en la dirección Z. El campo eléctrico se puede expresar como,
Las amplitudes de las componentes del campo £, y Ey determinan los posibles tipos de polarización. La expresión general para el campo en el dominio del tiempo es
Donde p representa la fase de las amplitudes del campo en cada dirección. Analizando esta expresión se observa que para que el campo no cambie de dirección, es decir, para que la onda sea linealmente polarizada, es necesario que o bien una de las dos amplitudes sea nula o bien que Cuando la dirección del campo varía con el tiempo se dice que la polarización de la onda es no lineal. Este tipo de polarización incluye la polarización circular, de gran interés práctico, y que se produce cuando el módulo del campo es constante. Dado que la perpendicularidad con respecto a la dirección de propagación debe conservarse, la dirección del campo debe mantenerse en el plano XY y por tanto el campo sólo puede variar rotando en tomo al eje de propagación. El sentido de la rotación está determinado por las fases de las amplitudes. A modo de convenio, la institución americana IEEE define la polarización como positiva cuando al hacer coincidir el pulgar de la mano derecha con el sentido de avance de la onda, el resto de los dedos indica el sentido de rotación del campo. En este caso se dice que la onda es RHCP (Right Hand Circularly Polarized), siendo LHCP (Eeft Hand Circularly Polarized) en caso contrario. La Figura muestra los dos tipos de polarización circular para el campo eléctrico. Se pueden obtener expresiones sencillas para los campos de las ondas RHCP y LHCP a partir de (2.112) si se impone que el módulo del campo eléctrico sea constante y que la derivada del ángulo formado por el campo eléctrico con el eje x sea positiva (en una onda RHCP) o negativa (en una LHCP),
Figura 2.8. Polarización LHCP (a) y RHCP (b) Si la onda se propagase hacia z = - ∞ sería necesario intercambiar los signos,
Una onda circularmente polarizada puede descomponerse como la suma de dos ondas linealmente polarizadas con direcciones ortogonales (formando un ángulo de 90°) lo que permite transmitir simultáneamente dos canales de información, uno en cada dirección, con interferencias mínimas.
CAPITULO 3. EL DIAGRAMA DE SMITH: USOS Y APLICACIONES La siguiente Figura 2.9. muestra el diagrama de Smith. Este diagrama es una herramienta gráfica que fue ideada en 1939 por Phillip Smith, ingeniero de la compañía RCA, para el cálculo y la transformación de impedancias en líneas de transmisión. A pesar de que en la actualidad estas tareas se pueden realizar sin dificultad mediante ordenadores y calculadoras electrónicas, el diagrama de Smith aún se emplea con profusión en los instrumentos de medida de redes de alta frecuencia (analizadores vectoriales de redes) e incluso en programas de CAD de circuitos de alta frecuencia para representaciones gráficas y diseño de redes de acoplo. Asimismo, constituye una valiosa herramienta educativa para facilitar la comprensión de las técnicas de acoplo. 3.1 LOCALIZACIÓN DE CARGAS El diagrama de Smith es una representación del coeficiente de reflexión en un diagrama polar. Cualquier coeficiente de reflexión se puede localizar en el diagrama simplemente trazando un círculo de radio igual al módulo, y localizando la posición que corresponde en este círculo a un ángulo igual a la fase del coeficiente de reflexión, tomando como origen de coordenadas el semieje horizontal derecho. El centro del diagrama representa un coeficiente de reflexión nulo (o bien una impedancia igual a la característica de la línea), mientras que la periferia representa los coeficientes de reflexión de módulo unidad. En particular, el extremo derecho del eje horizontal representaría un circuito abierto (fase = 0°) mientras que el izquierdo sería un cortocircuito (fase = 180°).
3.2 CÁLCULO DE IMPEDANCIAS A PARTIR DEL COEFICIENTE DE REFLEXIÓN Para determinar la impedancia a partir del coeficiente de reflexión, el diagrama de Smith tiene un conjunto de círculos y arcos de círculo que representan líneas de resistencia y reactancia constantes.
Figura 2.9. El diagrama de Smith. En la figura se muestra una carga de una impedancia normalizada de valor 0,6 + j1,8. El coeficiente de reflexión es de módulo 0,78 y fase 54°. La admitancia normalizada (punto simétrico) es de 0,17- j0.5, y VSWR es en torno a 9. La impedancia en un punto de la línea situado a (0,2 - 0,175) גּes de 1,2 + J2,6. El primer máximo de voltaje está a una distancia (0,25 - 0,175) גּde la carga, y el primer máximo de corriente a una distancia (0,5-0,175) גּDistribuido por Analog Instruments, Co-, P.O. Box 808, New Providence, NJ 0974. El semicírculo superior del diagrama constituye la zona inductiva, mientras que el inferior abarca las reactancias capacitivas. La impedancia está normalizada respecto a la impedancia característica de la línea. De este modo, la localización de una carga en un punto del diagrama permite determinar simultáneamente tanto la impedancia tanto como el coeficiente de reflexión.
3.3 CÁLCULO DE LA RAZÓN DE ONDA ESTACIONARIA (VSWR) El diagrama de Smith también permite obtener la razón de onda estacionaria que se establece en una línea cargada con una impedancia distinta a su impedancia característica. Las cargas que presentan impedancias normalizadas reales y de módulo mayor que la unidad tienen la peculiaridad de que su impedancia es numéricamente igual a la razón de onda estacionaria que originan. Este resultado se obtiene inmediatamente comparando
Así pues, para obtener el valor de VSWR basta con trazar una circunferencia centrada en el origen del diagrama y que pase por el punto que representa la carga. La escala del semieje derecho proporciona el valor de VSWR en su intersección con la circunferencia, 3.4 TRANSFORMACIÓN DE IMPEDANCIAS Las escalas de que dispone el diagrama de Smith permiten obtener gráficamente la impedancia y coeficiente de reflexión en cualquier posición de la línea a partir del valor de estos dos parámetros en cualquier otro punto de la línea. En el caso de una línea sin pérdidas, para transformar una impedancia conocida en una posición determinada basta con trazar un círculo centrado en el origen y que pase por el punto correspondiente a la carga conocida. La distancia del segundo punto se localiza mediante un desplazamiento por el círculo en el sentido de las agujas del reloj o viceversa, dependiendo de que el segundo punto esté mas cerca o más lejos del generador que el primero, este desplazamiento es igual a un ángulo dado por el doble de la longitud eléctrica existente entre ambos puntos, .
Es interesante observar que una vuelta completa en el diagrama equivale a un desplazamiento de una semilongitud de onda a lo largo de la línea. También puede verse que la impedancia en la línea se hace real en los puntos localizados en el eje horizontal, los cuales aparecen en la línea cada cuarto de longitud de onda. En estos puntos se encuentran los máximos (puntos de intersección con el semieje real derecho) y mínimos (puntos de intersección con el semieje real izquierdo) de voltaje existentes en la línea. Cuando la línea tiene pérdidas, el desplazamiento a través de la línea desde la carga conocida da lugar a impedancias cuya representación en el diagrama de Smith corresponde
a una espiral que colapsa en el centro del diagrama. Para localizar la impedancia en cualquier punto de una línea con pérdidas, es necesario recordar que el coeficiente de reflexión a una distancia de la carga viene dado por
Así pues, la impedancia en cualquier punto de la línea podría localizarse desde el punto correspondiente a desplazándose por el círculo de VSWR constante en dirección al generador (sentido de avance de las agujas del reloj) hasta un punto P que estuviera a un ángulo 2βl respecto del punto original, y después reduciendo el módulo del coeficiente de reflexión en una cantidad 2βl Para ello bastaría con trazar una Línea que uniera P con el centro del diagrama, y localizar el punto que tiene un coeficiente de reflexión de magnitud e-2αl
Dado el carácter ambivalente de los círculos en el diagrama (representan simultáneamente conductancias y resistencias, o bien reactancias y suceptancias), cuando se desea transformar una admitancia de carga a una determinada distancia a lo largo de la línea, basta con utilizar el mismo procedimiento que con las impedancias. 3.5 CÁLCULO DE ADMITANCIAS El diagrama de Smith también permite determinar la admitancia a partir de la impedancia y viceversa. Para comprobarlo basta con considerar la impedancia en un punto de la línea situado a un cuarto de longitud de onda de la impedancia de carga.
Así pues, para obtener la admitancia normalizada en el diagrama de Smith basta con localizar el punto simétrico al correspondiente a la impedancia con respecto al origen. 3.5.1 LOCALIZACIÓN DE MÁXIMOS Y MÍNIMOS DE VOLTAJE Y CORRIENTE Los máximos de voltaje en una línea sin pérdidas se pueden determinar a partir de la ecuación de voltajes, deduciéndose:
Así pues, el voltaje es máximo cuando se verifica la relación
En
estos puntos el coeficiente de reflexión es un número real positivo y por tanto la impedancia es real y mayor que la unidad,
Consecuentemente, para localizar el primer máximo bastará con encontrar la distancia que hay entre la impedancia de carga Z L, y el primer punto en el cual la impedancia sea real y mayor que la unidad. El mínimo de voltaje estaría a una distancia igual a 1/4 de longitud de onda. De Forma totalmente análoga pueden determinarse máximos y mínimos de corriente. En este caso el máximo de corriente se obtendría buscando la distancia entre la impedancia de carga y el primer punto en el cual la impedancia sea real y menor que la unidad.
UNIDAD 3 RADIO-ENLACE DE MICROONDAS, ANTENAS E INSTRUMENTOS DE MEDIDA.
OBJETIVOS DE LA UNIDAD CONOCER EL MICROONDAS.
EQUIPO
MODULADOR
DE
RADIO
IDENTIFICAR Y DIFERENCIAR LOS EQUIPOS INDOOR Y OUTDOOR. CONOCER EL MULTIPLEXOR PRIMARIO. CONOCER E IDENTIFICAR EL MULDEM. DIFERENCIAR LOS DIFERENTES TIPOS DE MODULACIÓN. IDENTIFICAR QUE ES UN TRANSCEIVER. CONOCER LAS DIFERENTES RAMIFICACIONES QUE SE USAN ENTRE LA ANTENA Y TRANSCEIVER. APRENDER ACERCA DE LOS DETALLES DE LOS SISTEMAS DE ENERGÍA ELÉCTRICA EN UN ENLACE DE RADIO.
INTRODUCCIÓN Para el diseñador de enlaces de radio, es muy importante conocer cómo trabajan los Sistemas de radio, porque las características de los equipos afectan dramáticamente el rendimiento total de la red. Los estándares de rendimiento de un Radio-enlace son derivadas de los estándares basados en la ITU-T, que definen los límites para los enlaces ó circuitos de extremo-a-extremo. Se hará un intento en este capítulo para proporcionar un entendimiento básico de lo que pasa con la señal de un usuario final a otro. Se ha escogido un canal de la voz para ilustrar esto; por consiguiente, el concepto de PCM ha sido incluido. El trayecto de un circuito de voz sobre un sistema de radio se muestra en la figura 3.1.
Figura 3.1. Trayectoria de transmisión de un circuito de voz.
CAPITULO 1. RADIO-ENLACE DE MICROONDAS El equipo modulador de radio microonda puede ser dividido a grandes rasgos en tres Categorías: interior, la unidad divisora, y todo lo externo. El multiplexor primario es usualmente externo a la radio. 1.1.1 Equipo Para Ubicación En Interiores (ALL INDOOR) Los equipos tradicionales de microondas están albergados en un bastidor metálico o “racks” de 19 pulgadas (21 en U.S.A.) en la sala de equipos de transmisión. Conexión vía cable coaxial o guía de onda transporta la señal de RF a la antena montada en una torre. El equipo es a menudo de construcción modular, para propósitos de mantenimiento. Diferentes diseños son normalmente requeridos para diferentes capacidades y bandas de frecuencia. Los equipos para ubicación en interiores son apropiados para rutas de gran distancia que requieren una alta potencia de salida y arreglos para ramificación de multi-frecuencia. Un diseño típico es mostrado en la figura 3.2.
Figura 3.2 Típica configuración todo interno.
1.1.2 La Unidad Divisora (Rf Externos) El equipo de microonda modulador se ha puesto fuera del acercamiento tradicional que consiste en estantes grandes de equipo montado adentro. Lo abastece para el acceso de redes donde el espacio es limitado y el equipamiento comúnmente es preferido. Basado en alta frecuencia (por ejemplo 23GHz) la arquitectura del enlace que tiene el sistema de circuitos eléctricos de RF montado externamente para evitar las propias pérdidas en la guía de onda, el equipo está ahora disponible en más frecuencias y capacidades en una disposición montada de división. En ésta disposición la banda base y circuitería del modem es montada en una unidad interior, la cual es normalmente independiente de la frecuencia. Esto está conectado al exterior de la unidad que alberga a la circuitería de RF por medio de un cable coaxial de bajo costo. El cable transporta la señal de banda base o la frecuencia Intermedia además de la energía y las señales que realizan las tareas rutinarias. Los sistemas de modulación de fase requieren una señal de frecuencia intermedia para la conexión de subida y bajada. Mientras que los sistemas FSK pueden transportar una señal de banda base alta y baja por el cable. La unidad exterior es a veces independiente de la capacidad. La configuración de la unidad de división se muestra en la figura 3.3.
Figura 3.3 típica configuración de unidad dividida.
1.1.3 Equipo De Exteriores (Outdoor) Por medio de la transmisión por radio microonda que está siendo usada en las mícroceldas backhaul (concentración de transmisores en puntos de transmisión para ser emitida más tarde) en redes celulares, hay un requerimiento para estar capacitado para montar un radio enlace en la trayectoria de borde del gabinete. La antena necesita ser físicamente pequeña y el radio enlace no provocará mucha potencia. La operación del equipo de radio es por ejemplo: el equipo estación con tasas de línea El o T1 que puede ser alimentado directamente dentro del radio y puede ser relocalizado en el mismo recinto. Una obvia consecuencia de una transmisión de radio externa es que, si hay un requerimiento para extender el circuito E1 a otra localización, se requiere un cable multipar para transportar las señales de tráfico, alarma, administración, y energía. Un ejemplo de equipo total externo es mostrado en la figura 3.4.
Figura 3.4 Típica radio todo externo (outdoor).
1.1.4 Diagrama De Bloque De Un Sistema Básico De Radio. Los diversos bloques que constituyen un sistema de radio son mostrados en figura 3.5.
Figura 3.5 Diagrama de bloque de un sistema de radio microonda El servicio de usuario final (voz o dato) está alimentado al multiplexor primario donde es convertido a una señal digital de 64 Kbps y multiplexado dentro de una señal E1 (o T1). Esta señal es entonces convertida a la capacidad de transmisión global por un multi-plexor secundario. Una cabecera es adicionada a la tasa de datos de transmisión para transportar diversos servicios, y esto agrega propiedad, la señal de radio banda base es entonces modulada y convertida a la frecuencia de portadora de RF. La señal es entonces alimentada a la antena para transmitirla. En la dirección de recepción la señal es capturada por la antena y filtrada por medio de una unidad de ramificación para ser alimentada al receptor donde es convertida a una señal de FI y demodulada. Los servicios son quitados de la tasa de bits de transmisión y las diversas señales demultiplexadas retornan a su forma original. El multiplexor primario convierte la información digital de regreso al dato original o señal de audio.
1. 2 EL MULTIPLEXOR PRIMARIO Podría requerirse infinidad de anchos de banda para transmitir una voz humana sobre un sistema de transmisión sin ninguna distorsión. La voz humana no lo hace, sin embargo, tiene una igual distribución de energía. Cuanto más de esta energía es distribuido a través del espectro de frecuencia desde aproximadamente 100 Hz a 6000 Hz. La máxima densidad espectral ocurre en aproximadamente 450 Hz para la voz de un hombre y 550 Hz para una mujer de edad adulta. Se ha encontrado que limitando el ancho de banda de la señal de voz a 300 Hz< f < 3400Hz, una señal de voz de alta calidad puede ser transmitida. Esto es conocido en telefonía como un canal de audio. En sistemas digitales nuestro objetivo es convertir la señal de voz analógica en una señal digital. El proceso que es usado es conocido como modulación de código de pulsos (PCM). El proceso PCM tiene cuatro componentes: muestreo, cuantización, codificación, y multiplexación de tiempo. 1.2.1 MUESTREO El proceso de muestreo es ejecutado por multiplicación de la señal analógica con una señal periódica de pulso de muestreo. El proceso es ilustrado por la figura 3.6, la cual muestra las señales de la voz analógica original y el pulso de muestreo adicionalmente así como también la señal muestreada resultante en ambos dominios del tiempo y frecuencia. Es importante darse cuenta de que el proceso de muestreo no causa distorsión. La señal original esta limitada en banda y por esto, siempre que sea muestreada lo suficientemente rápido, puede ser completamente reproducida en los pulsos analógicos. Después del muestreo la señal será presentada como las bandas superior e inferior alrededor de las armónicas de la señal muestreada. Usando un filtro pasabajo, la señal original puede ser extraída fuera. El teorema de muestreo de Nyquist dice que ningún contenido de información se destruye en una señal limitada en banda siempre y cuando la señal de muestreo sea por lo menos al doble del más alto componente de frecuencia en la señal. Si la frecuencia de muestreo esta incrementado más allá de esta, las bandas laterales sencillamente se moverán separadamente más allá, haciendo la señal original más fácil para extraerla fuera pero no aumentando la calidad de la señal. Una frecuencia de muestreo de 8 KHz ha sido escogida por la ITU-T con una tolerancia de 50 ppm, La mayor frecuencia, asumiendo un perfecto filtro pasa bajo
es de esta manera 4 KHz (la mitad de 8 KHz). Los filtros no son perfectos, por lo tanto, esta frecuencia permite para una banda de seguridad de 600 Hz. El filtro que limita la señal de audio a 3400 Hz es llamado un filtro anti-aliasing.
Figura 3.6 Señales muestreadas en los dominios del tiempo y frecuencia. 1.2.2 Cuantización La cuantización es el proceso de obtener un valor discreto de un valor analógico. Recordar que el proceso de muestreo convierte una señal analógica de onda continua en una serie de pulsos analógicos. Estos pulsos contienen toda la información presente en la señal original de banda limitada. En el proceso de cuantización los valores de los pulsos analógicos son acotados dentro de niveles discretos. Este proceso es requerido en orden a tener un número limitado de valores muestreados para codificarlos en una palabra digital. Ocho ó 16 niveles son requeridos para un diálogo comprensible y 128 niveles son requeridos para una alta calidad de diálogo. Esto es una aproximación de dirección única y causa distorsión, una vez que el muestreo se ha sido cuantizado, es imposible reproducir una réplica de la señal original. La distorsión causada por este proceso provoca ruido de cuantización. Si fueran escogidos unos niveles de cuantización uniformes,
una señal con un valor alto podría tener una mejor relación S/N que una con un valor pequeño. En realidad lo opuesto es deseado. Pulsos de gran amplitud son fácilmente escuchados y, en consecuencia, pueden tolerar un alto nivel de ruido. Este problema es resuelto por compansión.
1.2.3 Compansión
Figura 3.7 Curva de compansión de ley A. Compansión es un acrónimo para comprimir y descomprimir. Un algoritmo no lineal es usado por medio del cual más valores de cuantización son adjudicados a los valores muestreados pequeños, de esta manera se está logrando una relativa relación de error constante para todas las muestras. En la Región 1 de la ITU (Europa y África), la curva de cuantización de ley A es usada para acotar las muestras. Esto es una característica de 13 segmentos cuyas características son definidas por la ITU [1]. En la Región 2 (América), una ley de 15 segmentos llamada la ley μ es usada. La parte de valores positivos de la característica de compansión de la ley A es mostrada en la figura 3.7.
El algoritmo de la ley A fue implementado en los 60’s cuando la circuitería no podía lograr una curva logarítmica. Una aproximación lineal de esta manera fue usada. Esto se puede ver en la figura 3.7 donde la mitad del rango de los valores de voltaje de entrada son acotados dentro de 16 niveles de cuantificación. Los siguientes ocho están determinados más allá de 16 niveles, y así sucesivamente. Los valores de amplitud pequeña son de este modo determinados con muchos más valores cuantizados, resultando en una perfeccionada relación S/N. Usando esta aproximación, la relación S/N de todas las muestras, grandes y pequeñas, está más uniforme. 1.2.4 Codificación El Proceso de cuantificación usando la ley A genera un total de 256 valores (1128). Esto puede ser codificado en forma binaria usando ocho bits (256 - 28) de la curva de compansión, mostrada en la figura 3.8.
El bit de signo especifica si la muestra tiene un valor de amplitud positiva o negativa. Los siguientes tres bits especifican en cuál de los ocho intervalos se sitúa el valor. Los últimos cuatro bits especifican a cuál de los 16 valores esta cerca al valor de la muestra actual. El proceso de codificación resulta en un código de ocho bits (byte) que es una representación de un canal de audio. 1.2.5 Multiplexación De Tiempo El proceso final es cronometrar de manera múltiple las señales en una trama. El muestreo es hecho en 8 KHz, que es, 8000 muestras/seg para cada canal de audio. El intervalo de muestreo puede ser calculado de: T = 1/f = 1/8000 = 125μs La duración de cada pulso es 3.9 μs; por lo tanto, es posible transmitir muestras de otros canales de audio en el intervalo de tiempo entre varias muestras. Antes de la segunda muestra del primer canal está disponible para transmitir, 32
muestras (125 μs/3.9 μs) que pueden ser intercalados en ese tiempo. Esto es conocido como multiplexación por división de tiempo. Cada muestra consiste de ocho bits ocupados que es conocido como una porción de tiempo dentro de la trama. Con una velocidad de muestreo de 8 KHz, una porción de tiempo de 8 bits así tiene una transmisión de bit a razón de 64 Kbps. Esto es una razón fundamental dentro de los sistemas de telecomunicaciones y es conocido como E0 (Europa) o T0 (U.S.). Una trama con 32 intervalos tiene una transmisión de bit a razón de 2048 Kbps (2Mbps). Usualmente solo 30 intervalos son disponibles para uso de canales debido a que el intervalo 0 es usado para la sincronización de la trama y el intervalo 26 para señalización. Esta señal de 30 canales (o a veces 31 canales) es conocida como E1, En los Estados Unidos una tasa de trama se basa en el sistema Bell que usa canales de 2464 Kbps más una trama de bit extra que conforman una señal de 1.544 Mbps. Esto es conocido como T1 o DS-1 (señal digital, nivel 1). 1.2.6 Equipo Multiplexor Primario Un multiplexor primario usado para los circuitos de voz es a veces llamado un banco de canal y convierte 30 (o 24) canales de voz dentro de una trama E1 (o T1). Con datos que se ponen más predominantemente en las redes, una mezcla de voz y dato es a veces requerido para ser multiplexado dentro de la tasa de la trama. Los multiplexores flexibles con un rango de interfaces de voz y dato son disponibles de esta manera. Opciones de voz o interfaces de conmutación. Las interfaces de datos incluyen opciones síncronas, asíncronas, ISDN, X.25, o ADPCM. Los más sofisticados multiplexores realizan la limpieza del circuito y permite la conexión cruzada y las características de gestión.
1.3 MULDEM (MULTIPLEXING SECUNDARIO Y SERVICIO) El rendimiento de E1 ( o T1 ) normal de un multiplexor primario no es solo la señal usada en las redes de transmisión. En algunos casos un multiplexor secundario externo es requerido. La entrada a un sistema de radio es usualmente uno o más de las proporciones de líneas normales tales como E1, T1, E3, o STM-1. El sistema de radio necesita transportar estas señales transparentemente al otro extremo del enlace. En otras palabras, esto no debe manosear a la señal de cualquier manera. La primera cosa que la radio necesita hacer es crear una señal compuesta de las varias entradas, que esto puede modular y transmitir al otro
extremo, esto necesita multiplexar las varias entradas y agregar cualquier cabecera que es requerida. 1.3.1 Multiplexación Y Demultiplexación En las radios digitales muy tempranas, multiplexación se hizo externamente a la radio. El requerimiento para transporte múltiple E1s, sin embargo, llevado a las fabricaciones de la radio incluso el multiplexación secundaria funcione en la propia radio. Una aplicación típica es una radio de 4 por 2Mbit/s (4E1) donde multiplexar 2 a 8Mbit/s es construir en la radio. Una señal de 8Mbit/s compuesta, qué no necesitan tener una interfaces de PPU normal, Así reduciendo costo y complejidad, está internamente disponible a la radio a ser modulada y transmitida al otro extremo. En la dirección opuesta, la señal de 8Mbit/s es demultiplexada en los cuatro flujos de E1 con una interfase normal según PPU G.703, donde la comparación con SDH es hecha. 1.3.2 Canales De Cabecera El sistema de radio tenga otra señal que esta necesita transmitir. Esto podría ser para uso interno de la función de gobierno de la casa de la radio; los canales de datos extra para datos o los sistemas de supervisión, un alambre de orden de ingeniería (EOW), añade corrección de errores en adelanto (FEC), como discutido debajo. Hace esto, un canal de cabecera de radio complementaria es usualmente agregada a la señal produce una proporción agregada que excede la frecuencia de línea de la ITU. Esta señal es una señal propietaria que podría ser diferente para cada fabricante. Esto obviamente agrega ancho de banda a la señal banda base y por consiguiente se mantendrá tan pequeño como sea prácticamente posible para que la señal agregada se ubique dentro del ancho de banda requerido. Un ejemplo de una cabecera complementaria de radio formando una señal agregada propietaria es mostrado en la figura 3.9
Figura 3.9. Cabecera complementaria.
1.3.2.1 Canales de Datos y Supervisión Más sistema de radio puede llevar un número limitado de canales de datos en la capacidad de la cabecera de radio. Varios canales de datos de baja velocidad y de alta velocidad síncrono o asíncronos, se crean. El dato es llevado usualmente en uno o dos canales de cabecera de 64kbits que determina que opción puede ser usada simultáneamente. 1.3.2.2 Engineering Order Wire Un EOW es disponible en mas equipos habiliten al personal de mantenimiento sé capaz de comunicarse sobre la radio sin usar equipos de mutiplexación. Un auricular normal, usualmente de frecuencias múltiples de tono dual (DTMF), normalmente se usa con una interfaces análogas de dos alambres El canal de cabecera normalmente se lleva sobre un canal de 64Kbit/s para una señal de audio de 300 a 3400Hz. Si calidad alta de transmisión no es requerida, más que un canal del alambre pedido puede proporcionarse sobre un canal de 64Kbit/s de señal usando una proporción reducida del ancho de banda del audio (usualmente 300 a 2400Hz). Uno necesita tener el cuidado para no caerse en forma de cascada demasiados EOWs en la ruta porque el ruido de cuantización del proceso de conversión análogo digital puede hacer el ruido del canal. Señalización puede proporcionarse usando E&M por circuitos de seis alambres y en banda DTMF para circuitos de dos alambres y seis alambres 1.3.2.3 Corrección de error en adelanto (Forward Error Correction – FEC–) El FEC es normal en la mayoría de los sistemas de radio de microondas moderno encuentra la alta calidad del objetivos proporción del error de fondo. FEC es una técnica de detección y corrección de error eso puede ocurrir sobre el enlace, basado en codificación de bloques, usa bits extra lleva en cabecera de radio hace la detección de error. Corrección de error que usa algunos de la codificación de espaldera, donde la codificación es echa en la fase modulación sin adicionar bit de cabecera, no es discutida aquí. Simplemente FEC basado en adicionar bits de cabecera se hace realizando un algoritmo matemático en el bit y transmitiendo este código al extremo opuesto, sí un diferente código es recibido, un error ha ocurrido. Solo un número limitado de combinación de bit son permitidos por la técnica de codificación; así, no sólo enlate los errores se descubra pero un número limitado de errores pueda ser
corregidos. Un código Reed-Solomon con 20 bytes de corrección de 244, por ejemplo, corrija a 10 bytes en cada bloque. FEC no proporcione mucha mejora bajo la condición de desvanecimiento pero tiene la actuación excelente contra el error del goteo, como se muestra en la figura 4.10. Modernos sistemas de radio pueden lograr las proporciones de errores residuales comparable al sistema de fibra 1.3.2.4 Canales Laterales (Wayside) En el medio a la aplicación de capacidad alta, tal como sistemas de 34Mbit/s, uno quiere a menudo evitar tener que instalar un caro multiplexor de 2 a 34 en un sitio si acceso un solo canal E1 es requerido. Por esta razón, la fabricación de la radio a menudo oferta que un solo use canales que llevó en la cabecera de radio que puede ser transportada a un sitio de nodo y entonces incorporado en el tráfico principal.
1.3.3 Filtro De Banda Base Filtro de banda base se hace para limitar el ancho de banda de la señal. La formación de la señal de banda base es muy importante. El ancho de banda infinito se exigiría asegurar que los pulsos de la entrada no estaban apagados de forma alguna, cual es obviamente no posible o deseable. Un filtro práctico que resulta en puntos del cruce por cero sen la frecuencia de Nyquist es un filtro de cosenos levantado [2]. El ancho de banda de una señal de nivel múltiple con forma de banda base puede ser calculado de BW = [baseband bit rate/log2M]. (1 + α)
(3.1)
Donde α es el factor de rolloff de filtro y M es el M-ary valor de modulación (p.e.: 16-QAM, M=16). Como implicado antes es importante que la filtración de la señal no resulta en interferencia entre símbolos de llevando y arrastrando las colas de la señal. Un filtro de Nyquist con un factor de rolloff de 0.5 es usualmente usado eso asegura que las colas de los pulsos adyacentes son en demodulación durante cero. Esta forma de pulsos de Nyquist con la cola cruzando por cero en el punto de muestreo (sampling) es ilustrado en la figura 3.11
1.3.4 Diagrama De Bloque Del Muldem Básico Los varios bloques que constituyen la sección de la modulación de un sistema de radio típico se muestran en la figura 3.12.
Figura 3.12. Diagrama de Bloques de la sección Muldem de un Sistema de Radio
1. 4
MODEM / TRANSCEIVERS
Un modem es un palabra es acortado de modulador-demodulador. La señal de banda base tiene que ser transportado sobre un portador de frecuencia de radio y esto se hace por modulación de la señal banda base hacia portadora de una IF o RF. 1.4.1 MODULADORES 1.4.1.1 Tipos de modulación Dos tipos importantes de modulación existen para el sistema de radio digital, es decir, modulación directa y modulación indirecta. Modulación directa es cuando no existe portadora de IF. La señal banda base es directamente aplicada al modulador, así reduciendo costo y complejidad. Modulación indirecta involucra primero convirtiendo la señal banda base, a una IF y entonces convirtiendo esto entonces a una frecuencia de RF. Existen tres tipos importantes de modulación digital: amplitud, fase, o frecuencia modulada. Desde que es una señal digital, esta modulación cambia la señal entre dos estados. En modulación de amplitud, codificando on-off (OOF) es usado cuando el valor de la amplitud es cambiado entre cero y alguna amplitud predeterminada; en modulación de fase (PSK) la fase es cambiada por 180 grados; y en modulación de frecuencia la frecuencia son cabidas entre dos valores de frecuencias, los dos más comúnmente usa métodos de modulación para los equipos de radio de microondas son basado en multinivel FSK y n-QAM, cuáles son basadas en una combinación de métodos previamente discutidos. Estos esquemas usan modulación de mutisimbolos reduce el ancho de banda los requisitos esquemas de modulación de multisimbolos, mientras requiriendo uno más alto. 1.4.1.2 FSK FSK es rentable y esquema de modulación robusto. Esto no es sensible a la amplitud y variaciones de fase (ruido y fluctuación) y de no requiere el transmisor backoff. La potencia de salida de transmisión superior es así posible. La señal puede ser directamente modulada hacia la portadora sin la necesidad para una frecuencia IF, así simplificando la circuitería y reduciendo costos. Incoherente (nonphase synchronous) reservas pueden ser utilizadas. Detectores de frecuencia
modulada tiene la circuitería más simple porque ellos son remotamente menos afectado por la amplitud y variaciones de la fase que los esquemas coherentes. Un modem económico puede así se proporcione con la ganancia del sistema adecuada. 1.4.1.3 QAM Demoduladores coherentes proporcionan mejora los umbrales del receptor; por consiguiente, para maximizar la ganancia del sistema, la modulación de fase es a menudo escogido a pesar del costo agregado y complejidad. Para ancho de banda medio eficiente a sistemas de alta capacidad, QAM es la modulación preferida. Permítanos empezar por considerando un sistema tecla mayúscula de la bi-fase básica (B-PSK). Una señal portadora es cambiada en fase por 180 grados representa el hilo binario de 0s y 1s. Sí una gráfica este en un diagrama de fase esto aparecería como mostrado en la figura 3.13.
Figura 3.13: Modulación PSK Para partir en dos el ancho de banda con modulación multi-símbolo, un segundo modulador B-PSK puede ser empleado operando en el primer cuadrante. Si el flujo binario entrante fuese dividido en dos enviando los bits alternados al par de moduladores BPSK, cuatro fases diferentes alternativas existen, como se muestra en la figura 3.14a. Note que en QPSK la fase cada vector tiene la misma amplitud; esto es solo la fase que es diferente. En la práctica, es algunas veces llamado afinando cambios de diferentes fases (DPSK) desde este no es el valor de la fase absoluta que es usado la diferencia de fase entre dos estados de fase. Ahora considero 16QAM. En este caso el flujo entrante se divido en cuatro fases con cada modulador de fase manipulando cuatro bits incluyendo los valores de los cuatro bits es mostrado en la figura 3.14b La fase de los vectores no solo difieren en fase pero también en amplitud así partiendo en dos el requerimiento en ancho de banda comparado con QPSK. En otras palabras el mínimo S/N de transmisión de radio requerido en demodulador es grande con nivel de modulación. La decisión de la modulación es así un déficit entre el ancho de banda estrecho y desempeño. La alta capacidad del sistema SDH usa 128 QAM cual permite un 155Mbit/s de señal ajusta un canal de ancho de banda de 28MHz.
1.4.2 DEMODULADORES 1.4.2.1 Tipos de Demoduladores Dos principales tipos de demoduladores son usados para detectar señales digitales: detectores de envolvente y demoduladores coherentes. Los detectores de envolvente usan un simple diodo detector para extraer la envolvente de la señal. Para sistemas basados en fase tal como PSK ó QAM no hay variación de envolvente, por consiguiente, demodulación coherente (síncrona) es requerida. En este método la señal portadora modulada entrante es mezclada con una réplica exacta (en fase y frecuencia) de la portadora de FI. Un filtro pasa-bajo es usado luego para recuperar la señal de bandabase. La réplica de la portadora requerida es generada usando un lazo “Costas”, el cual usa un PLL para estabilizar la frecuencia de la portadora extraída de la señal de RF entrante, convertida a FI. Además, para esta señal de FI recuperada, una señal de reloj de banda base es recuperada para el proceso de demodulación. Este tipo de demodulación es más
costoso debido a la complejidad para obtener la sincronización de fase, pero esto da como resultado un mejor nivel de umbral para el recetor. 1.4.2.2 Ecualización Adaptiva Para vencer los efectos del fading dispersivo, causado por condiciones de multitrayectoria, radios para tiros largos frecuentemente usarán ecualizadores para reducir los efectos del desvanecimiento. Los ecualizadores estáticos basados en frecuencia pueden ser usados a frecuencias de FI para ecualizar la respuesta en frecuencia. Esto usualmente es realizado usando circuitos simples de pendiente y choque (bump). Por ejemplo, si tres filtros notch son usados para detectar el nivel de amplitud a lo largo del ancho de banda del recetor, una pendiente o “notch” puede ser detectado. Para generar la pendiente opuesta o choque, la respuesta puede ser ecualizada. Una técnica más poderosa que puede ecualizar la respuesta en fase es hecha en el dominio del tiempo, esta es llamada ecualización adaptiva transversal (TAE). El concepto básico es usar una serie de registros de desplazamiento como una línea de retardo. La distorsión de la señal retardada puede ser detectada, y agregando el factor de retardo correcto y colocando la señal de retorno en sí misma, la distorsión puede ser ecualizada. Esta necesita ser hecho para la condición de fase mínima y no mínima; además, los “taps” de retroalimentación y alimentación directa son requeridos. En el pasado, una combinación de líneas de retraso analógica y digital fue usada para retardos positivos y negativos respectivamente, causando una curva desigual para las dos condiciones. Desde que las líneas de retraso se usan, la curva es usualmente la misma para ambas condiciones. A mayor número de taps en los ecualizadores, mejor el rendimiento del mismo 1.4.3 DIAGRAMA DE BLOQUES BÁSICO DE UN MODEM La construcción de varios bloques que forman el modelo de un sistema de radio típico es mostrada en la figura 3.15
Figura 3.15 Diagrama de Bloques de la sección MODEM de un sistema de radio 1.4.4 TRANSCEIVERS La sección de RF que abarca el módulo de transmisor y receptor es conocido como Transceiver. 1.4.4.1 Transmisor Una vez que las señales entrantes son multiplexadas y combinadas con los canales de cabecera, la señal de banda base es modulada como se mencionó anteriormente, luego esta señal es convertida o subida a portadoras de RF y amplificada mediante un amplificador de potencia. Los transceivers modernos son sintetizados, significando que un oscilador de referencia es usado para derivar la frecuencia RF usando un oscilador local que es controlado por voltaje (VCO). Usando el VCO sintetizado, las frecuencias del transceiver pueden ser seleccionadas por software a través de un amplio rango. El amplificador de Potencia es diseñado para ser lineal tanto como sea posible.; sin embargo, de todas maneras se introducirá algo de distorsión. Para mantener la distorsión a un nivel mínimo, la señal es predistorsionada antes de la amplificación, lo que produce la cancelación de la distorsión total en el amplificador de potencia. La linealidad es importante, aunque los amplificadores de potencia pueden amplificar hasta su nivel de saturación, un transmisor “back-off” es aplicado apropósito para mejorar la linealidad y consecuentemente el umbral del receptor. El transmisor
usualmente tiene además un circuito de control automático de ganancia (AGC) para mantener la potencia de salida constante ante variaciones de temperatura que puedan ocurrir. 1.4.4.2 RECEPTORES En la dirección del receptor, la portadora modulada es convertida o bajada a una frecuencia de FI antes de la demodulación, Esto se logra mezclando la señal de RF con la de un oscilador local VCO sintetizado. Un circuito AGC asegura que la salida de FI se mantiene constante aunque varíe el nivel de la señal de RF. Esta señal del AGC usualmente es usada para medir la fuerza de la señal recibida. 1.4.4.2.3 Diagrama de Bloques de un Transceiver Básico Los bloques de construcción de la sección del transceiver de un sistema de radio típico son mostrados en la figura 3.16.
Figura 3.16 Diagrama de Bloques de la sección del Transceiver de un sistema de radio
1.4.5 RAMIFICACIÓN La unidad de ramificación es un término genérico para describir la circuitería de las interfaces de la antena al transceiver. Se incluye filtros, combinadores y aisladores. 1.4.5.1 DUPLEXER La misma antena es usada para transmitir y recibir. La unidad de ramificación filtra la señal y combina las dos señales sobre una antena. El filtrado de la señal de transmisión es hecho para asegurar que el espectro transmitido no cause interferencia en los canales adyacentes. Varios estándares limitan el espectro de transmisión permisible para cada banda de operación. En la dirección de recepción, la señal es filtrada para eliminar alguna señal parásita, siendo transferida luego a la circuitería de demodulación, y limitar el ruido térmico, el cual es proporcional al ancho de banda del receptor. El filtrado de RF en este nivel es medianamente básico ya que en sistemas de radio modernos, el espectro de RF es limitado por un filtro pasabanda, formando así la señal en el espectro requerido. La combinación de las señales de transmisión y recepción sobre una misma antena es logrado por un dispositivo llamado Circulador. La combinación del circulador y filtro es usualmente llamado duplexor o diplexer. Un circulador transfiere la señal con muy baja pérdida al puerto deseado mientras que brinda un alto aislamiento para la señal no deseada en el otro puerto. Además la señal de transmisión es transferida a la antena con muy baja pérdida y muy poca fuga en el receptor con la misma situación en la dirección de recepción, como se muestra en la figura 3.17. Es muy importante para el planificador de radio, entender las pérdidas por ramificación e incluirlos en los cálculos de diseño. Uno necesita chequear cuidadosamente las hojas de especificaciones para determinare si la potencia de salida, por ejemplo, incluye o no perdidas por ramificación. No será posible predecir exactamente el nivel de recepción esperada si las pérdidas por ramificación no se incluyen. 1.4.5.2 RAMIFICACIÓN HOT-STANDBY En una configuración de hot-standby sólo un par de frecuencias es usado para los dos sistemas de radio. Entonces no es posible transmitir simultáneamente por ambos sistemas.
Un conmutador de transmisión es requerido para transmitir una u otra señal. Realmente ambos transmisores transmiten una señal, pero sólo uno esta conmutado hacia la antena. La otra señal es transmitida a una carga ficticia. Esto podría reducir la señal de transmisión por encima de 0.5 dB. En la dirección de recepción, la señal es fraccionada en dos trayectos y ambas señales son demoduladas con la mejor señal que ha sido seleccionada Dividir la señal en dos trayectos significa que cada señal es reducida por 3 db, sin embargo, en la práctica esta pérdida es típicamente de 3.5 dB a 4 dB. Un diagrama de una configuración hotstandby es mostrada en la figura 3.18
Figura 3.17 Configuración 1+ 0 (Con duplexor en ramificación)
Figura 3.18 Diagrama de Bloques de ramificación HSB
1.4.5.3 RAMIFICACIÓN DE DIVERSIDAD DE FRECUENCIAS En diversidad de frecuencias ambos transmisores son transmitidos simultáneamente y cada señal es alimentada a su respectivo receptor sin un conmutador de transmisor o un receptor híbrido. Las pérdidas son
significativamente menores que con la configuración hotstandby. Las pérdidas por circulador y filtros son típicamente de dolo 0.1dB cada uno. El diagrama de ramificación es mostrado en la figura 3.19.
Figura 3.19 diagrama de bloques de ramificación FD 1.4.5.4 RAMIFICACIÓN EN DIVERSIDAD DE ESPACIO En la Figura 3.19. Diagrama de bloques de ramificación FD Con diversidad de espacio, solamente un par de frecuencias es usado. Sólo un transmisor necesita ser conectado, sin embargo, para tener protección del equipo tanto como protección de trayectoria, la ramificación de transmisión es frecuentemente igual a la configuración hotstandby. Usualmente la cima de la antena es usada para la trayectoria de transmisión. En la dirección de recepción se usan dos antenas y cada una alimenta a su respectivo receptor. Una antena de transmisión y dos de recepción son requeridas en cada dirección. Entonces, se requerirá un total de cuatro antenas. La configuración típica de ramificación para una diversidad de espacio es mostrada en la figura 3.20
Figura 3.20 Diagrama de Bloques de ramificación SD
1.4.5.5 RAMIFICACIÓN DE DIVERSIDAD HÍBRIDA Para un rendimiento extra en trayectorias bastante largas o dificultosas, la diversidad de frecuencias y diversidad de espacio pueden ser combinadas. Esto es llamado diversidad híbrida. En un sistema de frecuencia 1 a 1 puede ser costó bastante efectivo porque sólo se requiere tres antenas para dar espacio completo y mejora en la diversidad de frecuencias en ambas direcciones. Esto es realizado para transmitir la señal desde el segundo trayecto de diversidad de frecuencias en la antena más baja en el final. La distribución es mostrada en la figura 3.21
Figura 3.21. Diagrama de bloques de diversidad de híbridos con tres antenas.
El mejor acondicionamiento de diversidad puede ser obtenido usando cuatro antenas y cuatro receptores, dado que hay tres trayectos separados (con sus correspondientes factores de mejora) que pueden ser considerados. Esto se muestra en la figura 3.22
Figura 3.22. Diagrama de bloques de diversidad de Espacio con cuatro receptores 1.4.6 CARACTERÍSTICAS DEL EQUIPO Los planificadores del enlace necesitan estar enterados de las características del equipo de radio para especificar el equipo correcto y usar los parámetros correctos en el diseño de radio enlace. Las características más importantes que normalmente se incluye en una hoja de especificaciones son discutidas en la sección siguiente. 1.4.6.1 DETALLES DE RF 1.4.6.1.1 Rango de Frecuencia El equipo de radio está diseñado para operar sobre cierto rango de frecuencia. Equipo no sintetizado será sintonizado en el canal actual que está siendo usado antes de entregar para localizarlo. Equipo sintetizado puede ser sintonizado mediante programación para el canal de frecuencia del lugar; sin embargo aun cuando operará sobre un gran rango de frecuencias, no siempre cubrirá la banda de frecuencia, entonces más de un transceiver podría ser requerido. Diferentes transceivers son usualmente requeridos para las bandas altas y bajas. El rango del equipo del transceiver debería ser chuequeado contra el plan de frecuencia que está siendo usado. Uno debería determinar que se tiene que hacer para
sintonizar el radio en un canal de frecuencia específico. Este además incluirá diferentes requerimientos de ramificación. 1.4.6.1.2 Separación Tx/Rx El mínimo espaciamiento permisible por el radio será especificado. Esta es una función del filtrado de RF y el aislamiento de ramificación. El planificador de radio necesita chequear la especificación del equipo con el plan de frecuencias que se está usando. 1.4.6.1.3 Espaciamiento de Canales Uno necesita chequear que el espaciamiento de canal requerido es soportado por el equipo. El filtrado y la técnica de demodulación determinarán el espaciamiento del canal. Los filtros del canal, los cuales forman parte de la ramificación, son a menudo requeridas en las frecuencias bajas (7 GHz) para encontrarse en los límites de ancho de banda fijados por la ITU. 1.4.6.1.4 Estabilidad de Frecuencia La estabilidad de la portadora RF es normalmente especificada en partes por millón (ppm). Un ppm corresponde a 1Hz en 1MHz o 1KHz en un gigahertz. Si la estabilidad de una portadora de 7 GHz es dada como 3 ppm, el desbalance permitido es 21KHz. 1.4.7 CARACTERÍSTICAS DEL TRANSMISOR 1.4.7.1 Potencia de Salida del transmisor La potencia de salida del transmisor es usualmente especificada en el módulo de salida de transmisión o en la brida (flange) de la antena en dBm. En el último caso, las pérdidas de ramificación de transmisión ya están incluidas. Uno debería chequear si están especificadas las figuras típicas o garantizadas. Las figuras típicas tienden a ser de 3dB a 4db mejores que las garantizadas. 1.4.7.2 Control de Potencia Transmitida La potencia de salida de transmisión puede a menudo ser atenuada usando fijaciones de software en la radio. Un control adaptivo de potencia de transmisión llamado Control Automático de Potencia de Transmisión (ATPC) es usado para disminuir la interferencia atenuando la potencia de transmisión bajo condiciones de no desvanecimiento y entonces aumentando la potencia durante el fading. Esto se hace monitoreando el nivel de recepción y devolviendo esta información al transmisor. Si reduciendo el EIRP. Durante el fading, esta atenuación es removida,
de esta manera, restaurar el margen de fading en el diseño completo incluye vencer efectos del fading. 1.4.7.3 Espectro de Salida y Emisiones Espurias Para reducir la interferencia en otros sistemas, las emisiones espúreas de un transmisor necesitan ser reducidas con un adecuado filtrado. Las máscaras de salida del transmisor y la emisión espúrea limitan relativamente a la frecuencia de portadora especificada en los estándares del equipo. 1.4.8 CARACTERÍSTICAS DEL RECEPTOR 1.4.8.1 Umbral del Receptor 10-6 y 10-3 El umbral del receptor es un parámetro crítico de obtener dado que este es uno de los principales parámetros usados para determinar el margen de fading. Estrictamente hablando, este es un valor de 10-3 que es usado para el margen de desvanecimiento (Fading) dado que las interrupciones totales (outages) están basados en SES. Los usuarios a menudo prefieren el valor de 10-6 como un nivel de calidad mínimo para datos. Uno debería usar los valores de umbral garantizado en los cálculos. Uno puede estar claro si los valores son relativos a la brida de la antena o especificada a la entrada del receptor. Los valores de umbral del receptor son valuadas en dBm. Ellos siempre serán valores negativos, típicamente alrededor de -70dBm a –90 dBm. 1.4.8.2 Nivel Máximo de Recepción Para saltos cortos, uno necesita estar seguro de no exceder el máximo nivel de entrada del receptor. Si el nivel de la señal es muy fuerte, pueden ocurrir errores debido a la saturación de los circuitos del receptor. Si los niveles son extremos, daños irreversibles podrían ocurrir. Los fabricantes de equipos especificarán el máximo nivel de sobrecarga del receptor. Niveles máximos son valuados es dBm, típicamente alrededor de –15dBm. 1.4.8.3 Margen de Fading Dispersivo El margen de fading dispersivo (DFM) son usualmente valuados por 10-6 y 10-3. Como con los valores umbral del receptor, el valor de 10-3 es el correcto para usar en el margen de fading. Los ecualizadores adaptivos mejoran dramáticamente los valores del DFM. El valor del DFM para equipos debería típicamente ser 10db mejor que el margen de fading plano requerido. Los valores de DFM son valuados en decibeles y varían de alrededor de 35 dB (sin ecualizadores) a algo mejor que 70dB.
1.4.9 RELACIÓN C/I El planeamiento de frecuencia requiere algunos parámetros de equipo para el cálculo de la interferencia. La relación C/I mínima que el demodulador puede tolerar es importante, como lo es la red de filtros de discriminación (NFD).. Los fabricantes normalmente proporcionarán curvas o tablas de valores para esos parámetros. En sistemas digitales, las interferencia en el umbral es más crítico que interferencias bajo condiciones de no desvanecimiento; además se requieren los valores de umbral a interferencia (T/I). 1.4.10 INTERFACES DIGITALES Es importante especificar la interfase de bandabase que el equipo de radio requiere porque existen diferentes estándares. La interfase normal de radio cumple con la ITU-T G.703 y puede ser una conexión coaxial de 75 Ohm desbalanceado o una conexión de cable de par trenzado de 120 ohm balanceada. Esto frecuentemente necesita ser especificada antes de entregar el equipo; sin embargo, en algunos equipos, ambas opciones son soportadas y se puede seleccionar mediante software. Los radios de alta capacidad con STM-1 tienen una conexión óptica para ser conectada a un ADM. Una opción eléctrica es a menudo incluida adicionalmente. 1.4.11 INTERFASE DE ADMINISTRACIÓN Y ALARMA Los equipos modernos son configurables mediante software usando una PC. Usualmente, un enlace puede ser fijado, configurado y monitoreado sin tener que hacer algún ajuste físico al equipo. Otro avance reciente es el uso de un navegador Web estándar para acceder al radio enlace usando una conexión Ethernet. Proveyendo a cada radio terminal una dirección IP, los radios pueden ser accesados sobre Internet, apareciendo en formato HTML en el display. Esto permite a uno acceder a algún elemento en la red de manera remota con una PC. Obviamente se requiere seguridad, para asegurar que sólo personal autorizado tenga acceso a esta información. Además se requiere una conexión a un sistema de administración de red. Estos días esto es usualmente una conexión Ethernet. La mayoría de radios además tienen varias entradas y salidas de alarmas. Las entradas son requeridas para llevar las alarmas de un equipo externo colocado sobre el sistema de radio. Esta puede ser además una estación de alarmas tal como una alarma de puerta o una luz en la torre. Algunas veces se provee salidas confiables para controles, por ejemplo, uno puede querer apagar una alarma visual o audible en una estación. Las interfaces de alarma y administración son usualmente alcanzables del panel frontal del equipo en conectores tipo DB o tipo Ethernet (10 Base t).
1.5
DETALLES DEL SISTEMA DE ENERGÍA ELÉCTRICA
1.5.1 RANGO DE VOLTAJE DE ENTRADA La mayoría de equipos de telecomunicaciones de microondas operan con 48 V DC; sin embargo muchos sitios todavía tienen fuentes de poder de 24 V DC. Algunos equipos de radio tienen un amplio rango de entrada que acepta fuentes de 24 ó 48 V en ambas polaridades. Sin embargo, un convertidor externo de energía puede ser requerido para el equipo que no cubre este rango. El equipo instalado en áreas urbanas no tiene fuente DC, entonces se puede necesitar conversores para que el equipo opere con la fuente de energía principal. Una pequeña batería de reserva debería ser incluida en caso ocurra un corte de energía. 1.5.2 CONSUMO DE POTENCIA Para concluir los requisitos para las fuentes de alimentación de estaciones y capacidad de batería, uno necesita agregar el consumo total de todos los equipos. Los valores de consumo de potencia necesitan ser considerados. Estos valores son dados en Watts. 1.5.3 COMPATIBILIDAD ELECTROMAGNÉTICA Se está volviendo más importante el cumplir con las especificaciones del medio ambiente. En Europa, es obligatorio que el equipo cumpla estrictamente con los estándares de compatibilidad electromagnética (EMC). Además, se han fijado límites en aspectos como rango operacional de temperatura, protección (contra agua, humedad y polvo), golpes y vibración, transporte y almacenamiento. 1.5.4 CERTIFICACIÓN DE LOS EQUIPOS En muchos países existen entidades reguladores de telecomunicaciones (En Perú el MTC requiere que el equipo esté “homologado”) quienes frecuentemente insistirán que el equipo sea aprobado antes de ser instalado en una red, esto usualmente incluye proveer conformidad de equipos para estándares internacionales, con particular énfasis en aspectos relacionados al medio ambiente, EMC (Compatibilidad Electromagnética), y espectros de transmisión. El
planificador de radio debería asegurarse que el equipo que está siendo usado está aprobado ó certificado para su uso en los países que así lo demanden o soliciten. 1.5.5 SISTEMA DE TIERRA Se requiere una muy buena “tierra” del orden de 2 ohmios o menos para la adecuada operación de los equipos. 1.5.6 SISTEMA ELÉCTRICO DE EMERGENCIA Se emplea grupo electrógeno con encendido automático ante la presencia de un fallo en el suministro eléctrico principal 1.5.7 PROTECCIÓN ELÉCTRICA DE LOS EQUIPOS a) Contra Transitorios b) Contra Descargas Atmosféricas c) Contra disturbios en el voltaje de alimentación d) UPS
CAPITULO 2. ANTENAS E INSTRUMENTOS DE MEDIDA INTRODUCCIÓN Las antenas son un tipo muy particular de circuitos cuya misión más importante es generar ondas de radiación con alto rendimiento. Además tienen, en muchos casos, la posibilidad de dirigir esa radiación en una dirección o direcciones preferentes. En los tres primeros apartados de este capítulo se introduce al funcionamiento y caracterización de una antena. Dedicamos una parte final a una descripción de los tipos más frecuentes de antenas 2.1 CAMPOS DE RADIACIÓN DE UNA ANTENA. 2.1.1 CAMPO LEJANO Si partimos de la idea de que todo elemento de corriente variable en el tiempo genera una onda radiada, cualquier circuito eléctrico produce una radiación electromagnética. Normalmente, en circuitos electrónicos de informática, control o comunicaciones, esa radiación es muy pequeña. Las antenas son circuitos diseñados para conseguir una fuerte radiación, de forma que la mayor parte de la potencia de entrada se traduce en una onda radiada. Para determinar la forma en que radia una antena debemos sumar todas las contribuciones de todos los elementos de corriente que forman la antena. Cuando consideramos la antena limitada a un cierto volumen y miramos el campo eléctrico que produce a una distancia grande, la forma de la onda generada se parece mucho a una onda esférica. En esta onda los frentes de fase son esferas centradas en el centro de la antena y la amplitud y la fase dependen de la distancia a la antena de la misma forma en todas las direcciones. La amplitud y fase pueden ser diferentes para cada dirección, pero el campo eléctrico es siempre perpendicular a la dirección de propagación, que es la del radio de la esfera. Estas condiciones son las que se denominan de Campo Lejano. La forma que puede tomar una antena es muy variada y estamos acostumbrados a ver antenas de hilos, como los monopolos y dipolos, antenas conectadas a guías de onda, como las bocinas, y antenas más complejas como las formadas por reflectores parabólicos. En cualquier caso, siempre encontramos un par de terminales o una conexión a una línea de transmisión que será la puerta de entrada a la antena. Cuando conectamos la antena a un generador sinusoidal a la frecuencia «f», se puede escribir el campo eléctrico radiado por una antena de la forma general siguiente:
Figura 2.1 Antena dipolo en el eje Z del sistema de Coordenadas Las variables (r, θ, y Ф) son las coordenadas esféricas referidas a un sistema de coordenadas en el que antena está aproximadamente en el centro. I 0 es la corriente de excitación o representa una magnitud proporcional a la excitación de la antena. Fθ (θ, Ф) y FФ (θ, Ф) son funciones complejas de los ángulos de dirección. k0=2πf/v0 es el número de onda. En la Ecuación (2.1) se aprecian algunas de las condiciones mencionadas del campo lejano. El campo radiado es proporcional a la amplitud de la corriente de entrada, lo que implica una relación lineal entre ambas magnitudes. La onda se propaga según la coordenada radial, respecto de la que hay una atenuación de la forma (1 / r) y una variación de fase lineal de la forma (-k0 r). El campo es perpendicular al vector radial ya que no tiene componente en el vector unitario r. La amplitud y fase relativas de las componentes de campo den variar para diferentes direcciones de propagación. Una magnitud de gran importancia en antenas es la densidad de potencia que la antena produce en un punto dado del espacio. La densidad de potencia corresponde al módulo del vector de Poynting, que en condiciones de campo lejano apunta siempre en la dirección del radio (r) y viene dado en módulo por:
Donde n=120 π es la impedancia del vacío. A modo de ejemplo podemos ver el campo que radia un dipolo de media longitud de onda. Esta antena, muy frecuente en sistemas de comunicaciones, consiste en un hilo de media longitud de onda, conectad generador en su punto medio, tal como se muestra en la Figura 2.1. El campo radiado por un dipolo de λ / 2 es de la forma:
(2.3)
Donde I0 es la corriente de entrada y L es la longitud del dipolo que debe ser aproximadamente de media longitud de onda. Puede apreciarse en la ecuación anterior que la amplitud del campo es proporcional a la corriente de entrada. Sólo tenemos una componente vectorial y esta depende sólo de la coordenada angular de elevación (θ). 2.1.2 Diagramas De Radiación Para ver la forma en que una antena radia y cuales son las direcciones preferentes de radiación, podemos eliminar de la Ecuación (2.1) la dependencia con el radio (r). Las dos funciones que dependen de los de dirección (θ y Ф), representan las componentes vectoriales del campo radiado. Lo normal es representar estas funciones normalizadas respecto del valor máximo, eliminando así la dependencia de la excitación. Tenemos dos funciones de dos variables, lo que resulta difícil de presentar de forma gráfica. En muchos casos, como hemos visto en el dipolo, la dependencia de los diagramas con una de las variables se ha perdido, o es poco importante. Incluso es posible que una de las componentes sea mucho más pequeña que la otra. Es frecuente representar la forma de variación de cada una de las componentes en función de una de las variables dejando constante la otra. Estas representaciones, ya sea en polares o en cartesianas, se denominan diagramas de radiación. En la mayor parte de los casos, para conseguir apreciar detalles de radiación en direcciones en que el campo radiado es pequeño, se utilizan unidades logarítmicas en lugar de las unidades lineales. Así, las funciones de campo normalizadas se pueden representar en dB utilizando la conversión dada por:
En la Figura 2.2 se presenta el diagrama en polares de una antena dipolo junto con una representación tridimensional del diagrama. Este tipo de representaciones es útil para hacerse una idea gráfica de la forma de radiación. Para la definición cuantitativa de la forma de radiación de la antena resulta más útil el diagrama cartesiano convencional. No siempre nos interesa representar directamente las componentes de campo en las direcciones de los vectores unitarios θ y Ф. Puede que sea otro vector de
polarización el que nos interese, como veremos en el apartado de polarización. Otras veces nos interesa representar sólo la densidad de potencia radiada en una dirección, lo que nos lleva a combinaciones de las funciones anteriores. Una de las funciones que resulta frecuente representar es el diagrama de potencia dado por:
Dentro del diagrama de una antena suelen definirse algunos parámetros que nos describen su comportamiento y sobre todo permiten especificar su funcionamiento en un conjunto de valores numéricos reducido. Lo normal es que una antena se diseñe para concentrar la radiación en una dirección dada, y es para ese tipo de antenas para las que se suelen definir los siguientes parámetros: Dirección de apuntamiento (θ0 y Ф0 ). Dirección que corresponde al máximo de radiación de la antena. Haz principal o lóbulo principal. Margen angular correspondiente a la zona próxima al máximo y comprendido entre éste y los mínimos relativos que lo rodean.
Figura 2.2. a) diagrama en esféricas de un dipolo en λ/2 (escala Lineal) b) Diagrama en polares (escala logarítmica)
Figura 2.3. Parámetros de un diagrama de radiación Anchura del haz principal entre puntos de -3 dB (BW3dB). Margen angular entre las dos direcciones próximas al máximo principal cuya amplitud está 3 dB por debajo del máximo. Nivel de lóbulos secundarios (SLL). El mayor de los máximos secundarios medido respecto al máximo principal, en dB. Relación delante—atrás (BLL). Relación en dB de la radiación principal a la obtenida en la dirección opuesta. En la Figura 2.3 se presenta un diagrama directivo típico y se puede apreciar la forma de medir cada uno de estos parámetros. Es importante destacar que estos no son los únicos parámetros que definen un diagrama dado y que dependerá mucho del tipo de antena y la aplicación a que se dedique la lista de parámetros que la especifican.
2.2 POLARIZACIÓN, DIRECTIVIDAD, GANANCIA E IMPEDANCIA DE ANTENA Si nos fijamos en una dirección cualquiera (θ, Ф ) en la zona de campo lejano y expresamos el vector campo dado por la Ecuación (2.1) en función del tiempo obtenemos la siguiente expresión:
Para un valor dado de la distancia r, el campo describe una elipse en el plano normal a la dirección de propagación (plano de polarización). La excentricidad y orientación de la elipse depende de la relación de amplitudes de las componentes de campo según los vectores unitarios (| Fθ / FФ |), y de la diferencia de fase entre ellas (α θ – α Ф). Si normalizamos el vector campo respecto de la amplitud eficaz,
podemos escribir (2.1) en función de un vector unitario ( e ) de polarización, de la siguiente forma:
El vector unitario de polarización describe entonces la forma de variación en el tiempo del campo eléctrico en el plano normal a la dirección de propagación y es de módulo unidad (e. e* = 1). Puede ponerse como dos componentes lineales complejas de la forma:
En la Figura 2.4 se presenta la forma general de variación de la amplitud y dirección del campo en el tiempo, donde se definen los parámetros más importantes de la elipse de polarización. Los parámetros más importantes que definen la elipse son los siguientes:
La polarización de la onda puede reducirse a una polarización lineal cuando se cumple alguna de las condiciones siguientes:
Figura 2.4—Elipse de polarización. Que una de las componentes es nula. Entonces la polarización es lineal en la otra componente. Que la diferencia de fase entre ellas es cero o π radianes. La polarización es lineal formando un ángulo ( δ) con el vector unitario (Ф).
La polarización es circular cuando ambas componentes poseen la misma amplitud y están en cuadratura, es decir, la diferencia de fases es α = ± πI2. El sentido de giro viene impuesto por el signo de la define siempre para una onda emitida por el observador, que se propaga según la dirección del vector que indica la dirección de propagación, llamado radiovector. Un parámetro de gran interés en la medida de polarización es la relación axial o relación entre los ejes mayor y menor de la elipse. La relación axial suele indicarse en dB y viene dada por la expresión:
La medida de polarización puede realizarse midiendo las componentes ortogonales del campo el midiendo directamente la relación axial. Esta última forma de medida está normalmente asociada a que miden la amplitud y en los que resulta muy difícil o imposible hacer medidas fiables de la relación entre las diferentes componentes del campo. En muchas ocasiones se desea conocer hasta qué punto la polarización de una antena se ajusta a una forma deseada. Por ejemplo, si la polarización deseada es lineal vertical, nos interesa saber cuál es la componente vertical del campo y cuál es la magnitud de la polarización horizontal. Cuando definimos una polarizacion
como la deseada ( ec ) , siempre podemos encontrar la polarización contraria o más propiamente dicho, la polarización ortogonal a ella, que será la no deseada ( ex), tal que ec . ex*= 0. Así, la polarización ortogonal a una polarización lineal (α = 0 o α = +- π ) es otra polarización lineal con el campo eléctrico perpendicular al de la primera. La polarización ortogonal a una polarización circular (α = π/2, A θ = AФ) es la otra polarizacion circular que gira en sentido opuesto (α = -π/2, Aθ = AФ ). Cualquier vector unitario de polarización puede descomponerse en dos componentes ortogonales. Los coeficientes asociados a esa descomposición se denominan componentes copolar (CP) y contrapolar (XP) respecto de la polarización deseada. La relación entre dichas componentes y su expresión en dB es la forma mas frecuente de expresar hasta que punto la antena satisface la condición de polarización deseada.
2.2.1. Directividad, Ganancia De Antena E Impedancia De Antena Los diagramas de radiación nos dan una idea de niveles relativos de campo o de potencia que la antena radia en cada dirección. Para obtener una medida absoluta de la capacidad de la antena para concentrar la radiación en una dirección determinada respecto a las demás, se define la directividad. La directividad viene dada por cociente entre la densidad superficial de potencia radiada en una dirección dada y la que radiaría isotrópica con la misma potencia total radiada. Entendemos por antena isotrópica la que radia la misma densidad de potencia en todas las direcciones. La densidad de potencia de la antena isotrópica a una distancia <r>>puede obtenerse dividiendo la potencia radiada por la superficie de la esfera de radio «r» (s=4 π r2) en función de los parámetros conocidos, la directividad se puede escribir como:
Puede apreciarse que la directividad es una función de los ángulos de dirección que toma la misma forma que el diagrama de potencia. Normalmente se llama «Directividad de una Antena» al valor máximo de la función directividad. lo que supone que la directividad de una antena es siempre superior a la unidad. La integral del denominador requiere conocer el campo radiado en todas las direcciones del espacio, lo que a veces es difícil de medir. Un parámetro similar a la directividad es la «Ganancia de Antena». En este caso la potencia de normalización no es la potencia radiada sino la potencia entregada a la antena en sus terminales. La relación entre ambas potencias es un factor de rendimiento (p), que dependerá de las pérdidas en componentes internos de la antena o en la corriente en los conductores que la forman,
Cuando conectamos un generador o transmisor a una antena, la relación de tensión y corriente en los terminales de entrada permite modelar la antena como una impedancia compleja (Zα). La potencia entregada a la antena dependerá fundamentalmente del generador y de los niveles de adaptación entre la impedancia del generador y la de la antena. La máxima transferencia de potencia entre el generador y la antena se produce cuando ambas impedancias son conjugadas entre sí (adaptación de impedancias). De acuerdo con la Figura 2.5, la potencia transferida del transmisor a la antena puede escribirse como:
Donde: P1 es la potencia disponible del generador (transmisor). Zα = Rα + j Xα es la impedancia de entrada a la antena. Z g = R g + j X g es la impedancia asociada al generador (impedancia de salida del transmisor). Γα es el coeficiente de reflexión de la antena respecto a la impedancia del generador. Como ya hemos indicado, no toda la potencia entregada a la antena se traduce en potencia radiada. El cociente entre la potencia radiada y la entregada corresponde al rendimiento de radiación (p). De forma similar, la parte real de la impedancia de entrada de una antena puede dividirse en dos partes. La primera representa la potencia radiada por la antena, y se denomina resistencia de radiación (Rrad), mientras que la otra representa la potencia disipada por efecto Joule, y se denomina resistencia de pérdidas (Rp), ya sea en la superficie de los conductores
o en elementos disipativos propios del diseño de la antena. Podemos entonces expresar la resistencia de entrada y el rendimiento de radiación como:
Figura 2.5. Circuito equivalente de antena en transmisión.
2.2.2 Caracterización De Una Antena En Recepción 2.2.2.1 Reciprocidad Si aplicamos a una antena los principios de reciprocidad, el comportamiento de la antena en recepción está definido por su comportamiento en transmisión. En una antena dada, la tensión inducida en sus bornes de salida en circuito abierto será proporcional al campo eléctrico que llega a la antena. En este sentido la antena se comporta como un generador cuya impedancia interna es la misma que tiene la antena en transmisión. La tensión inducida en la antena depende de la dirección de llegada de la señal y de su polarización, de forma que se puede establecer un diagrama de recepción que será el mismo que el de transmisión. En cuanto a la polarización, la condición de máxima tensión se obtiene para el caso en que la polarización del campo recibido sea la misma que la que produce la antena en transmisión. De esta forma la tensión que el campo eléctrico induce en los terminales de la antena se puede escribir como:
Donde: e0 es el vector de polarización del campo incidente referido al sistema de coordenadas de la antena receptora. E0 es la amplitud y fase de dicho campo en el centro nominal de la antena.
λ es la longitud de onda. n0=120π es la impedancia característica del vacío.
e (θ, Ф) es el vector unitario de polarización de la antena receptora en la dirección de recepción. F(θ, Ф), es el diagrama de radiación en transmisión para una corriente de entrada de 1A. Tanto el vector de polarización como el diagrama de radiación vienen determinados por el comportamiento de la antena en transmisión, de forma que podemos obtener los parámetros en transmisión y determinar en función de ellos los de recepción. 2.2.2.2 Pérdidas Por Desacoplo De Polarización Se denomina factor de pérdidas por polarización al producto escalar del vector de polarización del campo incidente y el vector de polarización de la antena receptora. Normalmente se define ese factor en potencia, con lo que nos solemos referir al cuadrado del módulo del producto indicado. Esta magnitud puede tomar valores entre cero y uno. Cuando ambas polarizaciones son iguales el acoplamiento es máximo y cuando son ortogonales el acoplamiento es nulo. Hay que tener en cuenta que la formulación de ambos vectores debe realizarse sobre el mismo sistema de coordenadas, por lo que necesariamente uno de ellos (el del campo recibido) no se define sobre el sistema de coordenadas del transmisor, sino respecto de la antena receptora. Esa es la razón por la que no se aplica el conjugado a uno de los vectores en el cálculo del factor de pérdidas de polarización. Es frecuente definir este factor de pérdidas en decibelios. 2.2.2.3 Área Equivalente De Absorción En recepción se define el área equivalente de absorción como el cociente entre la potencia recibida y la densidad superficial de potencia del campo incidente. Este parámetro representa el área de una superficie plana que puesta normal al vector de Poynting incidente, recogiese toda la potencia del campo que incide sobre ella. De esta forma la potencia que la antena receptora puede dar a una carga adaptada o potencia disponible Pdis viene dada por el producto del área equivalente de absorción Ae por el vector de Poynting incidente
Figura 2.6. Circuito equivalente de recepción. Por supuesto, la potencia recibida depende de la dirección de llegada de la señal y por tanto el área equivalente depende de las coordenadas esféricas de dirección. En todo este razonamiento se supone una adaptación perfecta de polarización. Si aplicamos los principios de reciprocidad, se puede obtener una relación entre el área equivalente de una antena y su ganancia.
Igual que ocurre con la ganancia, se suele especificar como área equivalente de una antena el valor en la dirección de máxima radiación. Como veremos más adelante, en antenas de grandes dimensiones en longitudes de onda, como las antenas de apertura o las agrupaciones de antenas, el área equivalente está íntimamente asociada a la superficie real de la antena. De hecho, puede definirse un rendimiento de apertura como la relación entre el área equivalente de la antena y la superficie física que cubre,
La antena se puede representar en recepción como un generador equivalente cuya impedancia interna es la impedancia de antena y cuyo generador asociado tiene una tensión dada por (2.19). La potencia realmente entregada a la carga dependerá de los niveles de adaptación entre la impedancia de carga y de antena, tal como se presenta en la Figura 2.6.
Donde: Pr es la potencia entregada al receptor. Pdis es la potencia disponible en los terminales de la antena. ZL= RL + jXL es la impedancia de carga (impedancia de entrada al receptor).
ΓL es el coeficiente de reflexión de la carga respecto a la impedancia de antena.
2.2.3
Ecuación De Transmisión De Friis
Para determinar la potencia recibida en un enlace por radio debemos tener en cuenta la antena transmisora, la antena receptora y el espacio que las separa. Si admitimos que la antena receptora está lejos de la transmisora, podemos considerar el campo lejano radiado por la antena transmisora como campo incidente en la antena receptora. De esta forma obtenemos la potencia recibida combinando las Ecuaciones (2.16) a (2.21) como:
Las pérdidas de enlace, obtenidas como cociente entre la potencia recibida y la potencia de transmisión, se pueden descomponer en un conjunto de factores que se identifican con los diferentes elementos del enlace.
Las pérdidas de propagación en espacio libre representan el proceso de expansión de la onda esférica, de forma que la densidad superficial de potencia disminuye conforme aumenta la superficie esférica en la que se expande. La dependencia con la frecuencia de este factor hace pensar en mayores pérdidas para frecuencias más altas. Esta tendencia se compensa con la ganancia de las antenas. En frecuencias altas la ganancia de una antena puede ser mucho mayor que en frecuencias bajas, siendo aproximadamente proporcional al cuadrado de la frecuencia a igualdad de dimensiones geométricas. Esta proporción compensa con creces el factor de pérdidas por espacio libre. Las pérdidas de polarización y de desadaptación suponen siempre una reducción en la potencia máxima de recepción.
2.2.4 Medida De Diagramas .Campo Lejano En un campo de medida de antenas se establece un enlace entre un transmisor y un receptor y se mide la relación de potencia transmitida a recibida (pérdidas de transmisión). Conociendo las dimensiones del enlace y los parámetros de una de las antenas, podemos determinar los parámetros de la otra antena. La antena bajo medida puede trabajar tanto en transmisión como en recepción. Normalmente se trabaja con las antenas en recepción, pero sólo en antenas activas es preceptivo trabajar en el modo para el que la antena esté diseñada. En adelante consideramos que la antena transmisora forma parte del campo de medida y genera en la zona de la antena a medir un frente de onda que debe ser plano y homogéneo (campo lejano). La medida del diagrama de antena se basa en situar la antena a medir en la zona de recepción y modificar su orientación anotando los valores de la potencia recibida o de las pérdidas en el enlace. La potencia obtenida es una función de la orientación de la antena (ángulos del sistema esférico), que forma la función del diagrama de potencia. Esta función suele normalizarse al valor máximo y se representa en dB. Si consideramos un sistema formado por el transmisor y el receptor con la antena transmisora asociada al sistema de medida, podemos analizar el campo que se produce en la zona de recepción, donde se localiza la antena bajo medida. El campo en la zona de recepción difiere de una onda plana homogénea tanto en amplitud como en fase. La diferencia de fase se debe fundamentalmente a que la distancia entre transmisora y receptora está limitada y la onda será una onda esférica en lugar de ser una onda plana, tal como se muestra en la Figura 2.7.
Figura 2.7. Limitaciones del campo lejano. Si tomamos como referencia de fase la del punto central del sistema, el error de fase en cualquier otro punto del plano de medida a una distancia «d» del punto central es la siguiente:
El error máximo de fase admitido en un sistema de medida dependerá de la precisión deseada en la medida de diagramas de radiación, sobre todo en la zona de los lóbulos secundarios. Normalmente se considera que el error máximo no debe superar el valor π/2, lo que supone una limitación en las dimensiones máximas de la antena bajo medida (L) dada por:
El error de amplitud está asociado al diagrama de radiación de la antena transmisora. Normalmente la zona de medida se ilumina con el haz principal, con su máximo coincidiendo con el centro de dicha zona. El rizado en la zona de medida vendrá impuesto por el rizado del diagrama en el ángulo correspondiente junto con la mayor distancia al plano de medida. Este último efecto suele ser despreciable en situaciones normales. Como criterio general suele considerarse que el rizado de amplitud no debe superar 1dB. Esta condición limita la directividad máxima de la antena transmisora para un determinado campo de medida.
2.2.5 Medida De Polarización La medida de polarización de una antena depende mucho de las características de polarización esperadas para esa antena. Lo más frecuente es intentar establecer el nivel de la componente de polarización deseada y el nivel de la ortogonal a ella o no deseada. Como cualquier polarización puede descomponerse en dos componentes ortogonales, las magnitudes asociadas a la componente deseada (CP) y a la no deseada (XP) nos indican la calidad de la polarización. Por ejemplo, si la polarización establecida para una antena es lineal vertical, la ortogonal a ella es la polarización lineal horizontal y la relación polar/contrapolar, descrita por la Ecuación (2. 14), se obtiene con las medidas respectivas con una sonda de polarización vertical y horizontal. A veces no disponemos de sondas con la polarización adecuada para la medida de las componentes polar y contrapolar. Por ejemplo, cuando deseamos medir una polarización circular y sólo disponemos de sondas con polarización lineal. En este caso, la medida puede realizarse en las dos componentes lineales (vertical y horizontal) y determinar la elipse de polarización por cálculo aplicando las Ecuaciones (2.9) a (2.12). Este proceso requiere medir tanto la amplitud como la fase relativa de las antenas, lo que muchas veces resulta complicado o no nos ofrece la precisión requerida. Una forma de hacer la medida en polarización circular consiste en utilizar una sonda de polarización lineal giratoria.
Si la sonda gira a una velocidad grande comparada con la velocidad de giro del posicionador de antena, la potencia de salida oscilará entre un valor máximo y un valor mínimo que se corresponden con los ejes mayor y menor de la elipse de polarización. En esa medida la relación (diferencia en dB) entre el máximo y el mínimo nos da la relación axial. La relación copolar/contrapolar en polarización circular corresponde a las componentes circular a izquierdas y a derechas, dependiendo de cual sea la deseada. La ecuación que nos permite pasar de la relación axial a la polar/contrapolar es la siguiente:
Las magnitudes que intervienen en esta ecuación deben estar en la forma de factor y no en dB. 2.2.6 Medida De Ganancia La medida de ganancia, a través de la medida de campo de radiación requiere una serie de medidas absolutas de potencia que pueden inducir a errores importantes o resultar incómodo si transmisor y receptor están alejados. La forma más frecuente de hacer la medida de ganancia es por comparación de la antena a medir con una antena patrón de ganancia conocida. En el caso de que no se disponga de una antena calibrada, se puede hacer una medida con tres antenas diferentes, siempre que estén acopladas en polarización o conozcamos las pérdidas de polarización asociadas al enlace. 2.2.6.1 Medida De Ganancia Por Comparación Con Una Antena Calibrada Cualquier antena puede calibrarse para hacer una medida de ganancia, aunque lo más normal es disponer de antenas de banda ancha con polarización lineal como antenas calibradas para la medida de ganancia. Las más habituales son las antenas logo-periódicas de dipolos en las frecuencias más bajas (hasta 1 o 2 GHz) y las antenas de bocina alimentadas con guía de onda en las frecuencias más altas. El proceso de medida consiste en calibrar el campo con la antena conocida en la misma posición que utilizaremos para la antena a medir. De acuerdo con la ecuación de transmisión (2.24), la potencia medida (Pcal) es directamente proporcional a la ganancia de la antena. Sustituyendo la antena patrón por la antena a medir, se obtiene una nueva medida de potencia (Pmed), que será proporcional a la ganancia de la antena con la misma constante de proporcionalidad. Si las condiciones de medida no han variado, la relación entre las potencias medidas nos da la variación de la ganancia entre ambas antenas.
En este proceso de medida es necesario tener algunas precauciones para evitar errores de medida. Entre ellas, las más importantes son las siguientes: La polarización de ambas antenas debe ser la misma y normalmente con una buena adaptación entre las antenas patrón y sonda y entre la antena a medir y la sonda. De la Ecuación (2.24) se aprecia que cualquier discrepancia entre los factores de pérdidas por polarización de las antenas supone un error directo en la medida de ganancia. La distancia entre antenas debe ser la misma en ambos casos y estar en la zona de campo de radiación. En general es fácil asegurar que los errores por distancia son pequeños. Es más frecuente cometer errores por situarnos demasiado cerca, en una zona en que no se cumple la condición de campo lejano (2.32) para la antena patrón o para la antena a medir. Debe hacerse una medida de las pérdidas por desadaptación de impedancias de la antena a medir y de la antena patrón. Lo normal es que la antena patrón esté bien adaptada y tenga muy bajas pérdidas por esta causa, pero la antena a medir puede tener unas pérdidas importantes que además dependan mucho de la frecuencia. 2.2.6.2 Medida De Ganancia Con Tres Antenas Cuando no disponemos de una antena calibrada, podemos hacer una medida con dos antenas iguales y determinar el resto de los factores de la ecuación de Friis (2.24) por medidas directas de los parámetros (distancia entre antenas, frecuencia, niveles de adaptación y acoplo de polarización). Si no tenemos dos antenas iguales o no podemos asegurar que tengan la misma ganancia, puede realizarse una medida similar con tres antenas. En este caso es necesario realizar tres medidas, tomando las tres combinaciones posibles de dos de ellas, y formando el enlace de medida. Si conocemos los parámetros del campo los y los asociados a las pérdidas de las antenas (polarización y adaptación de impedancias), podemos escribir el siguiente sistema de ecuaciones:
Aunque el efecto de las pérdidas por desacoplo de polarización puede ser importante, normalmente se trabaja con la misma polarización para todas las antenas y se busca que estas pérdidas sean lo más bajas posible.
2.3. CAMPOS DE MEDIDA DE ANTENAS 2.3.1 Cámaras Anecoicas El modelo de medida de antenas planteado en el apartado anterior se supone que no existe ningún objeto entre la antena transmisora y la receptora. La onda esférica que se genera en la antena transmisora no debe encontrar ningún obstáculo que perturbe la onda esférica en la zona de recepción. La situación más parecida a la de espacio libre es la que se obtiene mediante una cámara anecoica. Consiste en una sala en la que las paredes, el techo y el suelo están cubiertos de un material absorbente de radiaciones electromagnéticas. De esta forma la onda incidente en las paredes no genera reflexión alguna. El material absorbente está formado por conos de esponja de carbono, por placas de ferrita o por combinaciones de ambos. La calidad del material se caracteriza por su reflectividad para una onda de incidencia normal en función de la frecuencia. La reflectividad se define como el cociente entre la potencia de la onda reflejada y la onda incidente en el supuesto de una onda plana incidiendo sobre una superficie plana indefinida. Los valores normales de reflectividad para una cámara anecoica deben estar por debajo de -30dB en todo el margen de frecuencias de trabajo.
En general, para conos absorbentes, la reflectividad aumenta al disminuir la frecuencia, de forma que por debajo de una cierta frecuencia límite la reflectividad es demasiado alta para trabajar correctamente. Esta frecuencia depende de la altura de los conos, siendo más baja para conos más altos. En la Figura 2.8 se presenta una fotografía de una cámara anecoica donde se aprecia el posicionador de la antena bajo medida y los conos absorbentes de las paredes y suelo. 2.3.2 Campo Abierto Reflexión En El Suelo Cuando no se dispone de una cámara cerrada, o las dimensiones del campo de medida son muy grandes, se puede establecer un sistema de medida abierto entre dos torres que disten entre si la distancia necesaria entre transmisor y receptor. En este tipo de campos la reflexión en el suelo puede ser importante y resulta muy difícil reducir la reflectividad del suelo con materiales absorbentes, sobre todo si tienen que soportar la humedad temperaturas extremas.
Figura 2.8. Campo de medida en una cámara anecoica. (Cámara anecoica de la ETSI de Telecomunicación de la Universidad Politécnica de Madrid). Una de las formas de reducir la influencia de la reflexión en el suelo consiste en diseñar la antena transmisora para que tenga un nulo en el diagrama de radiación en la dirección del rayo reflejado. En la Figura 2.9 se presenta un esquema de este tipo de montaje. Se puede ajustar el diagrama de la antena o la altura sobre la torre para conseguir esta condición de nulo.
Figura 2.9. Campo de medida abierto sin reflexión. La otra forma de tener en cuenta la reflexión en el suelo consiste en ajustar las alturas para asegurar que el rayo reflejado se une al rayo directo en fase en el punto de recepción (zona de medida). Cuando la distancia entre torres es muy grande resulta difícil ajustar un nulo en la dirección del rayo reflejado. En ese caso el campo en la zona de recepción se compone de dos partes, una procedente del rayo directo y otra del reflejado, tomando la forma:
Donde R es el coeficiente de reflexión complejo del suelo. Cuando la distancia entre torres es grande, el diagrama de la antena transmisora será muy parecido para el rayo directo y el reflejado, podemos suponer que la polarización es vertical u horizontal y que se mantiene en el proceso de reflexión (Figura 2.10). La distancia que recorre el rayo reflejado es muy parecido a la del rayo directo, por lo que el efecto de atenuación es muy parecido. En esas condiciones la diferencia mas importante entre ambos rayos es un factor de amplitud por reflexión (coeficiente de reflexión del suelo) y un factor de fase por la diferencia de caminos. En la Ecuación (2.39) se destaca esta aproximación, lo que supone que el campo recibido E es proporcional al campo de rayo directo Ed multiplicado por un factor que depende del tipo de suelo, la distancia y la altura de
las torres. Si llamamos δ a la diferencia eléctrica de caminos entre el rayo directo y el reflejado, y α a la fase de R, E se puede escribir como:
Cuando el ángulo de elevación es pequeño, el coeficiente de reflexión se aproxima a la unidad en módulo y a la fase de 180°, sobre todo en superficies lisas y húmedas, como lagos y campos de labor. En superficies rugosas, la dispersión de potencia producida por la rugosidad reduce el coeficiente de reflexión. Se considera superficie rugosa cuando la profundidad media de la rugosidad es superior a la longitud de onda dividida por el seno del ángulo de elevación (Δh > λ / sen(y)). En una zona muy accidentada y en frecuencias altas es posible encontrar reflexiones en otros puntos además del suelo, tales como edificios, montañas, etc. En estas situaciones es necesario hacer un estudio detallado de las reflexiones para establecer el campo de medida.
Figura 2.10. Campo abierto de medida con reflexión controlada.
Figura 2.11. Factor de atenuación en campos de reflexión en función de la altura. a) Parámetro el coeficiente de reflexión. b) Parámetro la frecuencia.
Aun suponiendo el coeficiente de reflexión constante, el factor de atenuación o ganancia del campo depende de la diferencia de fase δ entre los rayos directo y reflejado. Para minimizar esta influencia es necesario que ambas contribuciones al campo se sumen en fase, por lo que se debe cumplir la condición:
Si considerarnos un rizado del campo de hasta 1 dB, la altura 4, puede tomar valores entre un valor mínimo y un valor máximo cuyo margen define la zona de medida con error limitado. En el caso panicular de que el coeficiente de reflexión sea R =-1,el primer margen obtenido es:
A partir de esta zona se producen mínimos y máximos de campo que se repiten de forma periódica con la altura. Cualquiera de los máximos posee la misma forma y permite definir una zona de medida de las mismas dimensiones. En la Figura 2.11 a se presenta la forma que toma el campo eléctrico en función de la altura h2, y del coeficiente de reflexión del suelo para unas dimensiones dadas del sistema de medida. En todas las curvas se considera que la fase del coeficiente de reflexión es de 180°. Al cambiar la frecuencia cambia la posición y dimensiones de la zona de campo constante, por lo que este tipo de sistemas tiene limitado el margen de frecuencias de medida y es necesario modificar la configuración al pasar de una banda de frecuencias a otra. En la Figura 2.11 b se presenta el factor de atenuación en función de la altura pero tomando la frecuencia como parámetro.
Para establecer la zona de medida en un campo dado, se mide el campo en función de la altura de la antena receptora y se establece la zona de medida para un rizado máximo de 1 dB. Esta zona depende de la frecuencia, por lo que se definen diferentes alturas para las diferentes bandas de frecuencia que se desean utilizar en el sistema. Normalmente la máxima variación de la frecuencia dentro de cada una de estas bandas no supera un 25%. 2.3.3 Medida En Campo Próximo Por teoría electromagnética sabemos que el campo lejano de radiación de una antena está relacionado con el campo próximo a ella. De hecho, los teoremas de equivalencia permiten obtener el campo radiado partiendo de los campos en una superficie cualquiera que rodea la antena. Según esta teoría, si conocemos el campo e una superficie que rodea la antena, podemos calcular el campo lejano de radiación. La gran ventaja de este sistema de medida es que permite utilizar instalaciones de pequeño tamaño, como las cámaras anecoicas, para obtener los parámetros de campo lejano de una antena. A cambio, requiere un proceso de medida largo y u proceso posterior de cálculo. Las ecuaciones que relacionan el campo próximo y el campo de radiación se denominan de Transformación son ecuaciones integrales, Uno de los problemas para obtener el campo de radiación a partir del campo próximo es que necesitamos realizar medidas de modulo y fase y en ambas polarizaciones y en toda la superficie que rodea la antena para poder realizar las integrales de transformación. En realidad, como en toda transformación, existe una distancia máxima entre los puntos de medida que es necesario respetar si deseamos realizar una integración numérica con cierta precisión. En la práctica se utilizan tres formas de medida en campo próximo: campo próximo esférico, cilíndrico y plano. 2.3.3.1 Campo próximo esférico En su forma y estructura es similar al campo lejano salvo que no satisface la Ecuación (2.32) de distancia entre la antena transmisora y la receptora. No obstante, la distancia entre ambas debe ser superior a unas pocas longitudes de onda y por supuesto superior a las dimensiones de la antena a medir. La antena transmisora o como suele denominarse en estos casos, la sonda de medida, debe moverse sobre una esfera que rodea la antena a medir. En realidad es la antena a medir la que gira alrededor de un punto o centro de giro, mientras la sondase mantiene fija. En la Figura 2.12 se presenta de forma esquemática un montaje de medida en una cámara anecoica. La sonda no tiene movimiento alrededor del sistema de posición de la antena,
pero debe permitirse el giro de la sonda para medir las dos componentes de polarización. Normalmente se utilizan sondas de polarización lineal y se miden las dos componentes en polarización vertical y horizontal, que corresponderán a los vectores unitarios según las coordenadas esféricas. Las ecuaciones de transformación relacionan el campo medido en las coordenadas esféricas θ’ y Ф‘a una distancia r’ del centro de la antena, con el campo lejano en las coordenadas θ y Ф. En realidad la sonda de medida no es un detector ideal de campo eléctrico y hay que tener en cuenta su propio diagrama y vector polarización, por lo que las ecuaciones de transformación deben incluir estos factores. Para una integración numérica de precisión, es necesario conocer el campo en puntos de la superficie esférica que no disten más de media longitud de onda.
Figura 2.12. Posicionadores en el sistema de campo próximo cilíndrico. 2.3.3.2 Campo próximo cilíndrico En este caso el principio es el mismo pero el giro del posicionador se realiza sólo en el plano horizontal, mientras que la sonda de medida se desplaza en una línea vertical. De esta forma se consigue situar la sonda, de forma relativa a la antena a medir, en puntos de una superficie cilíndrica. Por lo demás las condiciones de medida y las precauciones a tomar son las mismas que en el sistema esférico. En general, el sistema cilíndrico posee la ventaja de que permite medir antenas más pesadas y sobre todo más grandes en la dimensión vertical (agrupaciones lineales). Como inconveniente tiene la necesidad de construir un sistema de desplazamiento vertical de la sonda con la precisión necesaria. Normalmente la precisión requerida es de una fracción pequeña de la longitud de onda (del orden de una centésima), por lo que resulta más complejo en frecuencias altas. En la Figura 2.13 se presenta un esquema de la estructura del sistema de medida.
Figura 2.13. Posicionadores en el sistema de campo próximo cilíndrico 2.3.3.3. Campo próximo plano Es uno de los sistemas más extendidos por su capacidad de medida de grandes antenas. Consiste en un posicionador cartesiano que permite desplazar la sonda de medida sobre los puntos de un plano. Por supuesto, se supone que la antena a medir radia de forma preferente en las direcciones de dicho plano y su radiación hacia atrás es despreciable. Este es el caso de las grandes antenas de alta frecuencia como las antenas reflectoras o las agrupaciones de antenas. La antena queda fija en un soporte mientras la sonda se desplaza por los nudos de una retícula cartesiana en el plano de medida (Figura 2.14). El sistema cartesiano permite medir antenas de gran tamaño. La distancia de la sonda a la antena se reduce a unas pocas longitudes de onda, lo que permite reducir la dimensión de la cámara de medida a poco más que la dimensión de la antena.
Figura 2.14. Esquema de Posicionadores en el sistema de campo próximo plano. 2.3.4 CAMPO COMPACTO La condición de campo lejano sugiere que la condición real para una medida correcta no es tanto la distancia entre las antenas como que en la antena a medir, actuando como receptora, exista un frente de onda plano y uniforme. Esta condición de un frente de onda plano se puede generar a partir de un frente de onda esférico a través de una lente o de un espejo parabólico. Esta es la forma de obtener un frente de onda plano en los sistemas de campo compacto (compact range). La antena transmisora se sitúa en el foco de un paraboloide de revolución, radiando un frente de onda esférico suficientemente uniforme en amplitud. En la zona central del reflector obtendremos un frente de onda plano, donde los planos de fase constante son perpendiculares al eje del paraboloide. Este proceso para generar una especie de campo lejano artificial tiene bastantes problemas entre, los que destacan los siguientes: No se puede colocar el alimentador en el centro del paraboloide porque la sombra que produce distorsiona fuertemente el campo. Normalmente se utilizan reflectores parabólicos descentrados (offset), formados por una sección no simétrica de paraboloide iluminado por una alimentador descentrado.
El diagrama del alimentador unido a la diferencia de caminos en el tramo alimentador-reflector produce una variación de amplitud en la zona de campo plano. Requiere alimentadores de diagrama muy amplio aun a costa de perder bastante potencia. La reflexión modifica la polarización de la onda incidente, de forma que no se conserva la polarización en toda la zona del frente de onda plano. Obliga a diseñar reflectores con una gran distancia focal para reducir estos efectos de polarización. La difracción en los bordes del reflector parabólico genera un campo disperso que produce un rizado de amplitud y fase en la zona de campo plano. Se suele minimizar cortando el borde del reflector en forma de dientes triangulares que dispersan en campo fuera de la zona de interés. Los sistemas de medida de campo compacto suelen situarse en el interior de cámaras anecoicas para reducir en lo posible la influencia de reflexiones no deseadas en objetos ajenos al sistema de medida.
Figura 2.15. Campo compacto con doble reflector E.T.S.I de Telecomunicaciones Universidad Politecnica de Madrid.
2.4. ANTENAS PEQUEÑAS Y ANTENAS RESONANTES Las antenas que tienen unas dimensiones inferiores o iguales a media longitud de onda en la frecuencia de funcionamiento forman un conjunto con características comunes. Tradicionalmente, en las bandas de VLF a HF la construcción de antenas con dimensiones superiores a media longitud de onda resulta difícil por sus grandes dimensiones físicas. En estas frecuencias son típicas las antenas de hilo, como monopolos, dipolos o espiras. En frecuencias más altas, las antenas pequeñas se pueden utilizar directamente o como parte de una antena más sofisticada, corno puede ser el alimentador de un reflector o el elemento de una
agrupación. Las antenas pequeñas tienen diversos aspectos en común entre los que destacamos los siguientes: El diagrama de radiación es poco directivo. En general poseen diagramas con lóbulos anchos, de forma que la variación del campo lejano con las coordenadas angulares es pequeña. Pueden tener una o varias direcciones de nulos de radiación, pero no suelen tener lóbulos secundarios. La directividad es baja. Como consecuencia del anterior, la máxima directividad de la antena no suele superar los 3 dB. La impedancia de entrada corresponde a un circuito resonante. Las dimensiones de la antena o el circuito de entrada se ajustan para que la impedancia sea real, obteniendo una variación de la parte imaginaria con la frecuencia que puede aproximarse por la de un circuito resonante. Puede definirse un factor de calidad como circuito resonante. La banda de trabajo está centrada en la frecuencia de resonancia y limitada por el factor de calidad.
2.4.1 Antenas Pequeñas Las antenas cuyas dimensiones son mucho menores de media longitud de onda forman un conjunto muy útil en frecuencias bajas, donde otro tipo de antena resulta muy grande. Las antenas más utilizadas son el dipolo y monopolo cortos y las antenas de bobina. En general, las antenas pequeñas poseen una impedancia de entrada con una parte reactiva importante, que obliga a utilizar circuitos de adaptación externos. El factor de calidad suele ser alto, por lo que la banda de trabajo es pequeña. Las pérdidas disipativas son altas, de forma que el rendimiento es pequeño y la resistencia de pérdidas es una parte importante de la impedancia de entrada. Todos estos efectos aumentan al reducir el tamaño eléctrico de la antena. Son típicas como antenas pequeñas las antenas de paraguas, formadas por un monopolo corto sobre un plano de masa terminado en una capacidad que forman un entramado de hilos, corno se indica en la figura 2.16.
Figura 2.16. Esquema de una antena de paraguas Entre las antenas de bobina pequeñas, las más utilizadas son las formadas por una bobina sobre una ferrita que ofrece una buena impedancia en reducido tamaño, aunque las potencias que son capaces de soportar son pequeñas por saturación de las ferritas. Son típicas las utilizadas en receptores de reducido tamaño para onda media. 2.4.2 Antenas De Hilo Entre las antenas resonantes, las antenas de hilo con diferentes estructuras se utilizan en todas las bandas de frecuencia. Las antenas más frecuentes son los dipolos y monopolos, aunque también se utilizan los anillos, hélices resonantes y combinaciones de todas ellas. Una de las estructuras más frecuentes es el dipolo resonante de media longitud de onda sobre un plano conductor. Normalmente la alimentación se realiza partiendo de un cable coaxial. Para conseguir que la masa del coaxial se una a la masa del plano conductor sin que afecte a la alimentación equilibrada del dipolo, se utiliza un circuito de compensación o balun que se verá más adelante, como se indica en la Figura 2.17. Una antena muy popular por su sencillez de construcción es el dipolo doblado, que se ha utilizado mucho en antenas de recepción de TV en VHF y UHF, ya sea solo o en combinación de dipolos parásitos formando la antena Yagui. Consiste en una varilla plegada formando un bucle alargado y alimentado en el centro un balun. Mediante este sistema se consigue que la impedancia de 75 Ohm típica del dipolo, aumente hasta unos 300 Ohm. Además se consigue aumentar la banda de adaptación desde un 10% al 30% aproximadamente. En la Figura 2.18 se presenta una biografía de una amena de espira utilizada en un radió-goniómetro de onda corta, de forma que el diagrama de la combinación formada por el monopolo central y la espira produce un diagrama de tipo cardioide
con un solo nulo. La posición del nulo de recepción es la que permite detectar la dirección de llegada de la emisión buscada.
Figura 2.17. Esquema de dipolo sobre plano de masa. a) Vista superior b) esquema de conexiones.
Figura 2.18 Antena de un radiogoniómetro 2.4.3 Antenas De Ranura Las antenas de ranura están asociadas a las líneas de transmisión cerradas: coaxiales, guías de onda, líneas triplaca, etc. Están formadas por una ranura sobre uno de los planos conductores que cierra la línea. Se sitúan de forma que corten las líneas de corriente del modo principal y tienen una longitud próxima a media longitud de onda, con lo que se consigue que se genere un campo en la ranura y se radie una parte de la potencia que se propaga en la línea de
transmisión. No es frecuente ver antenas de ranura individuales. Normalmente se utilizan para formar agrupaciones de antenas, ya sea lineales o planas, producidas sobre la misma estructura de línea de transmisión. Una de las antenas más utilizadas en sistemas de radar de microondas es la guía de onda ranurada. En ese caso se realizan las ranuras sobre la cara estrecha de una guía de ondas. Las ranuras se realizan con una inclinación que define la relación entre la potencia radiada por cada ranura y la potencia que se propaga en la guía de ondas. La potencia sobrante se recoge en una carga adaptada en el extremo. En la Figura 2.19 se presenta un esquema de una antena en guía rectangular.
Figura 2.19 Antena ranuras en guía rectangular 2.4.4 Antenas De Parche Con la aparición de las estructuras impresas utilizadas como líneas de transmisión en microondas, aparece también la antena impresa o antena de parche. En principio se puede ver como una línea de transmisión de tipo microstrip de longitud igual a media longitud de onda y terminada en circuito abierto en ambos extremos. En realidad es una antena similar a un dipolo sobre plano de masa, con la diferencia de que la antena está formada por una metalización impresa sobre un substrato dieléctrico, la distancia al plano dé masa suele ser mucho más pequeña de un cuarto de longitud de onda y la forma de alimentación es diferente de la del dipolo. El uso de circuitos impresos en microondas ha hecho muy popular esta antena como una extensión natural de dichos circuitos. En muchos casos se integra parte del circuito pasivo (redes de adaptación y filtros) o activo (amplificadores y conversores) en los mismos substratos que forman parte de la antena impresa. En la Figura 2.20 se presentan algunas de las formas de los parches y tipos de alimentación.
Figura 2.20. Formas de los parches y tipos de alimentación 2.4.7 Balun En sistemas de radio es muy frecuente utilizar el cable coaxial como línea de transmisión, por estar apantallada y ser de bajas pérdidas y fácil de construir. Por otra parte, las antenas están necesariamente asociadas a un plano de masa o una estructura puesta a masa, ya sea como parte integrante del diseño de la antena o como simple soporte de las partes mecánicas que la forman. Esto significa que la masa del coaxial debe ir unida necesariamente a la masa de la estructura, lo que en ocasiones impide alimentar adecuadamente la amena. El ejemplo más sencillo es el del dipolo resonante sobre plano de masa presentado en la Figura 2.17, que necesita tensiones, respecto a tierra, iguales y de distinto signo en cada uno de los dos puntos de entrada. Un BALUN (BALanced to UNbalanced transformer) es un circuito que permite pasar de una línea balanceada en la que ambos hilos tienen tensiones simétricas respecto a tierra, a una línea no balanceada en la que uno de los hilos esta a tensión nula. El balun más sencillo es un transformador, como se indica en la Figura 2.2 la. El transformador es un circuito sencillo y funciona en un margen muy amplio de frecuencias. De todas formas no siempre es posible utilizar un transformador, ya que en frecuencias altas o en niveles altos de potencia las pérdidas y desequilibrios del transformador lo hacen poco recomendable. En estos casos es conveniente utilizar circuitos basados en líneas de transmisión mucho más grandes pero que soportan mejor la potencia y tienen bajas pérdidas. Los balunes en líneas de transmisión están basados en muchos casos en transformadores de cuarto de onda, lo que hace que sean necesariamente selectivos en frecuencia. En la Figura 2.21 b se presenta el esquema de un balun típico de coaxial, en el que se aprecia la línea equilibrada y en el que se basa el balun utilizado en la Figura 2.17. En la Figura 2.21c se presenta un balun para
línea impresa basado en un divisor de potencia y desfasador. En muchas ocasiones no es necesario incluir un circuito específico que haga las funciones de un balun, ya que la antena produce por si sola la transformación de un modo puesto a tierra a un modo equilibrado. Ese es el caso de las antenas de lazo, las transiciones de coaxial a guía en las antenas de bocina o las antenas de parche o dipolos alimentados por acoplamiento con ranuras acopladas a su vez a las líneas impresas.
Figura 2.21 Circuitos de Balun a) Transformador b) Balun Coaxial c) Balun en Microstrip.
Figura 2.22. Antena de onda progresiva en forma de rombo 2.4.8 Antenas De Banda Ancha E Independientes De La Frecuencia Todas las antenas descritas en el apartado anterior tienen una banda limitada alrededor de una frecuencia de resonancia. Algunas de ellas, como el dipolo doblado, consiguen una banda apreciable, pero para alcanzar un comportamiento más uniforme con la frecuencia es necesario evitar los efectos resonantes. A continuación se describen algunos de los mecanismos por los que se pueden conseguir antenas con bandas superiores a una octava.
2.4.8.1 Antenas De Onda Progresiva Se basan en generar una onda progresiva sobre una estructura radiante. La onda pierde parte de su potencia en el campo de radiación conforme progresa por la estructura, de forma que en el extremo se instala una carga que recoge la potencia sobrante y evita las reflexiones. La forma más clásica de este tipo de antenas la constituye la antena en V y su extensión en la antena rómbica. En ella se excita una onda progresiva sobre un hilo situado horizontalmente a una cierta distancia de tierra. Si la distancia es del orden de un cuarto de longitud de onda, la corriente de la onda progresiva produce una radiación en un cono que tiene por eje el mismo hilo. El plano de masa ayuda a concentrar la radiación en el plano vertical del hilo. Normalmente se combinan dos hilos en forma de V para aumentar la directividad y en ocasiones se cierra en forma de rombo para poder utilizar cargas equilibradas entre ambos brazos de la línea. En la Figura 2.22 se presenta un esquema de estas antenas. El haz principal forma un cierto ángulo con la dirección de los hilos que depende de la longitud y sobre todo de la velocidad de propagación de la corriente en la línea. Su uso se ha extendido mucho por su sencillez de montaje, sobre todo en frecuencias de HF y VHF. En frecuencias de UHF y superiores se utilizan estructuras impresas con el mismo principio de antenas de onda progresiva. En milimétricas se han utilizado también líneas de transmisión dieléctricas en las que se recortan discontinuidades que generan una radiación progresiva de la onda. 2.4.8.2 Antenas Espirales Las antenas espirales se basan en el principio de escala electromagnética. Si una estructura se amplía en un factor de escala en todas sus dimensiones, su funcionamiento se mantiene si escalamos la longitud de onda en el mismo factor. En este sentido, las espirales son estructuras autoescalables, de forma que al multiplicar sus dimensiones por un factor cualquiera nos queda la misma estructura. Esto significa que una antena basada en una forma espiral puede funcionar a cualquier frecuencia. En realidad, las espirales equiangulares se extienden en teoría desde un origen con tamaños que tienden a cero hasta el infinito. En la realidad es necesario truncar esta estructura matemática y por lo tanto limitar la banda de frecuencias de trabajo. En cualquier caso, se consiguen varias octavas de funcionamiento para una antena dada. En la Figura 2.23a se presenta una antena espiral equiangular en la que se aprecia una vista de la placa impresa. Estas antenas se construyen planas o sobre
conos, consiguiendo en estas últimas una mayor ganancia. La polarización del campo es circular en todas ellas. En el caso de antenas planas, la radiación se produce en ambas direcciones normales al plano que contiene la antena. Para evitar la radiación en una dirección se suele utilizar una cavidad metálica. En general esto supone una resonancia que reduce considerablemente la banda de trabajo. Si se quiere mantener la banda, se utiliza material absorbente de radiaciones en la cavidad, con lo que se asegura la banda a costa de una reducción en la ganancia. En la Figura 2.23b se ha dibujado una sección transversal donde se representa la cavidad y material absorbente encargado de eliminar el lóbulo posterior de radiación.
Figura 2.23. Antena espiral equiangular. a) Metalización en espiral. b) Sección con la cavidad y diagrama aproximado. 2.4.8.3 Antenas Logo-Periódicas Podemos aplicar el mismo principio de escalado a otras estructuras siempre que limitemos los factores de escala a unos valores discretos. Una de las antenas más utilizadas en sistemas de medida es la antena logo-periódica de dipolos. Consiste en combinar varios dipolos en la misma estructura para conseguir que la antena sea autoescalable por un factor dado (k). Eso significa que si funciona a una frecuencia f1 también lo hará a kf1 y a k2f1 y en general a kn f1. Cuando el factor de escala k es próximo a la unidad, el conjunto de frecuencias comprendido entre los dos valores discretos de escalado queda cubierto por la banda de trabajo del elemento que forma la antena, en este caso el dipolo. Por supuesto en esta antena también tendremos un problema de truncado, de forma que las frecuencias más baja y más alta de trabajo estarán definidas por los dipolos más largo y más corto respectivamente. En la Figura 2.24 se aprecia una antena logo-periódica de dipolos con la línea de alimentación.
Figura 2.24 Antena logo-periódica de polarización lineal 2.5. GRANDES ANTENAS, REFLECTORES 2.5.1 ANTENAS DE BOCINA Aunque existen antenas de bocina muy grandes, podemos encontrar bocinas de tamaños muy diferentes, desde pequeñas bocinas de apenas una longitud de onda en su apertura hasta centenares de longitudes de onda. La bocina es la antena formada por la extensión natural de la guía de onda. La mayor parte de las bocinas están formadas simplemente por un ensanchamiento gradual de las dimensiones de la guía de ondas, manteniendo las características de campo del modo principal de la guía. En este sentido, las más utilizadas son la bocina piramidal y la bocina cónica. la primera conectada a una guía rectangular y la segunda a una guía circular. Por su carácter no resonante, las bocinas son antenas de banda ancha, que normalmente cubren toda la banda de la guía de ondas a la que van conectadas. Además, son antenas en las que el modelo de campos, su propagación a lo largo de la bocina y su forma de radiación, se ajustan muy bien a los valores medidos, por lo que en muchas ocasiones se toman como patrones de medida en la medida de polarización y de ganancia. En general, las antenas de apertura son más directivas cuanto mayor es su apertura. Esta directividad puede deteriorarse si la fase del campo en la apertura no es constante. Por la forma que toman las bocinas, el modo que se excita en la apertura tiene un frente de fase esférico, lo que supone un error de fase respecto del frente de fase plano, que aumenta con el ángulo de abocinamiento y con la anchura de la bocina. Para una longitud dada, el error de fase aumenta con las dimensiones de la apertura, por lo que el aumento de ganancia asociado al
aumento de dimensiones se ve limitado por el error de fase en la boca. La condición de ganancia máxima lleva a una relación entre las dimensiones de la boca y la longitud de onda para cada tipo de bocina. Esta relación depende del modo que se excita y de la forma de la bocina. La relación entre los valores de los lados, la longitud de la bocina y la longitud de onda debe satisfacer las siguientes relaciones en la bocina piramidal óptima:
La directividad que se puede obtener con las bocinas piramidales óptimas suporte un rendimiento de apertura algo superior al 50% pudiendo ponerse en función de las dimensiones como:
En el caso de una bocina cónica, la forma del campo eléctrico en la boca corresponde al modo TE11, lo que produce polarización lineal en la dirección del campo eléctrico.
Figura 2.25 Bocina piramidal optima. En el origen de LE y LH está en el vértice nominal de la pirámide.
Figura 2.26 Bocina Cónica Lisa De igual modo en que las piramidales, en la bocina cónica la condición de máxima ganancia para una longitud dada de bocina se obtiene para un diámetro de la boca dado por la condición:
La directividad máxima para una bocina óptima se puede poner en función de las dimensiones de la boca como:
Además de estas bocinas, son importantes otros tipos de antenas de bocinas como las que se basan en guías con resalte, que ofrecen bandas de funcionamiento grandes, o las bocinas corrugadas, que permiten reducir considerablemente su longitud manteniendo un bajo error de fase en la boca. 2.5.2 Antenas Reflectoras Las antenas reflectoras y en particular el reflector parabólico, son las antenas más utilizadas en aplicaciones donde se requiere una gran directividad. Son muchos los tipos de reflectores utilizados en diversas antenas. Desde el reflector plano, reflector diédrico a los reflectores más frecuentes del tipo cilindro parabólico o paraboloide de revolución. El reflector más usual es el parabólico, que está formado por un paraboloide de revolución metálico con una antena alimentadora situada en el foco. La reflexión del campo en el reflector transforma una onda incidente con frentes de fase esféricos en una onda plana, consiguiendo en el plano de su apertura un campo en fase y bastante uniforme en amplitud, lo que supone un diagrama muy directivo en la dirección normal a dicho plano. Las antenas utilizadas como alimentadoras pueden ser muchas, aunque las más frecuentes son las bocinas, dipolos o hélices. La antena alimentadora debe concentrar el campo en la dirección del reflector, para evitar que una parte de la potencia que genera se pierda fuera de la zona de reflexión (spillover). Por otro lado, para conseguir una variación de amplitud pequeña en la apertura del conjunto, es necesario que el diagrama de la alimentadora sea lo más uniforme posible hacia el reflector. Ambos requisitos suelen ser contradictorios, llegando a una situación de compromiso en la que se concentra el haz principal de la antena alimentadora hacia el reflector, manteniendo una relación de campo del centro al borde de unos 8 a 10dB. En general las características de ganancia y polarización se degradan al aumentar el ángulo con que se ve el reflector desde el foco (2θ0), o lo que es lo mismo al reducir la relación de distancia focal a diámetro (f/d). El valor óptimo se estima para f/d=0,5, lo que supone un ángulo θ= 53°. En la Figura 2.27 se presenta un
dibujo esquemático de una sección de paraboloide, donde se indican las dimensiones más importantes. La superficie del paraboloide viene dada por una ecuación que en esféricas y si tomamos el eje Z como el eje de simetría del paraboloide, se puede poner como:
Figura 2.27 Esquema de un reflector parabólico La ecuación que liga la relación diámetro a distancia focal con el semiángulo de apertura del paraboloide, viene dada por:
Además de la variación de amplitud en la apertura o la potencia no incidente en el reflector, otros efectos que influyen sobre la directividad son la sombra del alimentador, la rugosidad del reflector y otros muchos que dependen de los tamaños y frecuencia de trabajo. En esas condiciones, el rendimiento de apertura de un reflector es del orden del 50 al 60%, de forma que la directividad se puede poner aproximadamente como:
Además del reflector simple, en antenas muy grandes o de prestaciones especiales, se utilizan reflectores dobles como en las antenas Casegrain. En este caso la onda generada en el alimentador es reflejada primero en un reflector hiperbólico para producir otra onda esférica que incide sobre el reflector parabólico principal. Este sistema tiene ventajas en grandes antenas porque evita llevar la señal con líneas de transmisión hasta el foco. Otras estructuras utilizadas son los reflectores «offset» o descentrados, que eliminan el efecto de la sombra del alimentador tomando una sección asimétrica del reflector. Una parte importante de
la investigación actual en antenas se centra en los materiales y formas de los reflectores para conseguir efectos especiales con la frecuencia y diagramas conformados a una especificación especial. 2.5.3. Agrupación De Antenas Una de las formas cada vez más utilizadas en grandes antenas es la agrupación (array) de pequeñas antenas trabajando en común, es decir, alimentadas desde un terminal común mediante redes lineales. Frente a otros tipos de antenas de gran tamaño, las agrupaciones presentan la ventaja de tener un diseño más versátil, permitiendo controlar de forma casi independiente la alimentación de cada uno de los elementos que forma la agrupación y por tanto la forma de los diagramas de radiación generados. Una de las grandes ventajas de este control es que las variaciones de fase en la alimentación de los elementos permite modificar la dirección de apuntamiento de la antena (phased arrays). Esta capacidad de barrido electrónico de la dirección de apuntamiento se aprovecha para sistemas tipo radar y radio-faros permitiendo antenas de gran estabilidad mecánica. A continuación se hace una pequeña descripción de algunas de las agrupaciones más frecuentes. 2.5.3.1 Agrupaciones Lineales La agrupación de varios elementos iguales a lo largo de una línea permite controlar el diagrama de radiación en el plano que contiene la línea de la antena. Cuando todos los elementos tienen la misma orientación, el diagrama de radiación puede ponerse como un producto del diagrama de un elemento por un factor que depende solo del número, posición y forma de excitación de los elementos (factor de grupo o array factor), lo que se conoce como Principio de multiplicación de diagramas. La forma más sencilla de situar los elementos en la línea de la antena es equiespaciados una distancia d. La longitud total de la antena en ese caso será el producto del número de elementos por la distancia que los separa (L = Nd). La máxima directividad se obtiene para una agrupación que tiene todos los elementos alimentados con la misma amplitud. En ese caso la directividad teórica depende sólo de la longitud de la agrupación y es independiente de la dirección de apuntamiento y del número de elementos. Para una agrupación de elementos isótropos, viene dada por la expresión:
En realidad no podemos separar los elementos todo lo que queramos, cuando la distancia entre ellos supera media longitud de onda, pueden aparecer lóbulos de difracción en los que se pierde una parte importante de la potencia y que están
dirigidos en alguno de los sentidos del eje de la antena. En ese caso la ecuación de la directividad deja de ser cierta. Normalmente se sitúan los elementos a una distancia entre media y una longitud de onda, evitando siempre la aparición de lóbulos de difracción. La dirección de apuntamiento del haz principal, dentro del plano que contiene el eje de la antena, depende de la fase relativa de la corriente de alimentación de los elementos. Cuando la diferencia de fase entre cada dos elementos consecutivos es α, la dirección de apuntamiento viene dada por (2.50), donde θ0 es el ángulo que forma con el eje de la agrupación.
La polarización del campo radiado depende del elemento utilizado y puede controlarse independientemente de la forma y directividad del diagrarna. En la Figura 2.28 se presenta una agrupación lineal de dipolos alimentada con una red de líneas bifilares con divisores de potencia simples y estructura en paralelo.
Figura 2.28 Agrupación lineal de dipolos alimentados en paralelo
2.5.3.2 Agrupaciones Planas Aunque más complejas, las agrupaciones planas permiten obtener una mayor directividad y control del diagrama que las lineales. La forma más utilizada a la hora de colocar los elementos de una agrupación en un plano es la reticular rectangular, o la circular. La primera sitúa los elementos radiantes en los nudos de una retícula rectangular, de forma que puede verse y analizarse como una agrupación de agrupaciones lineales. En este caso se sigue cumpliendo el principio de multiplicación de diagramas y se puede analizar el comportamiento de la agrupación independientemente del elemento utilizado para construirlo. Una agrupación plana posee la capacidad de apuntar el haz principal en cualquier dirección, controlando
la fase relativa entre elementos en una línea y en una columna. Si consideramos que el elemento radiante sólo radia en un semiespacio (situación frecuente si se utiliza un plano de masa), la dirección de apuntamiento es única y la directividad máxima de la antena viene dada por:
Donde Lx=Nxdx y Ly= Ny dy son las longitudes de los lados de la retícula. Nx y Ny el número de elementos o por fila o por columna y dx y dy la distancia que los separa. Si situamos el plano de la agrupación en el plano xy, dirección de apuntamiento depende de la diferencia de fase entre los elementos de cada fila (αx) y de columna (αy) y se puede escribir como:
2.5.4 ANTENAS ADAPTATI VAS La capacidad de controlar el diagrama a través de los coeficientes de alimentación no se reduce sólo a la dirección de apuntamiento. Se puede controlar la dirección de nulos del diagrama, niveles relativos en diferente direcciones e incluso la diferencia de fase entre la recepción de señales en función de la dirección de llegada. Todas estas características se pueden aprovechar plenamente si disponemos de una red de distribución lineal que sea variable, de forma que podamos controlar de forma independiente la amplitud y fase de alimentación de cada elemento de la agrupación. En la Figura 2.29 se presenta un esquema de lo que puede ser una agrupación trabajando en recepción con un control independiente de la alimentación de cada uno de los elementos. Este esquema, que contiene amplificadores de ganancia variable y desfasadores variables, es lo que se conoce como una agrupación activa. Por supuesto, podemos formar la misma agrupación en transmisión con grandes ventajas sobre la agrupación pasiva. Una de las ventajas más importantes del esquema en transmisión es lo que se denomina la amplificación distribuida. Si deseamos radiar una potencia dada, no es necesario disponer de un amplificador que aporte toda la potencia. Podemos obtener la misma potencia con un gran número de amplificadores con tal de que su contribución se sume en el campo de radiación.
Figura 2.29 Esquema de una agrupación activa Aunque puede parecer muy costoso incluir un amplificador y desfasador para cada uno de los elementos de la agrupación, los grandes avances en los circuitos integrados de RF y microondas permite actualmente pensar en agrupaciones activas con un gran número de elementos y relativo bajo costo. Podemos hacer el control de la amplitud y fase utilizando un procesador digital que nos permita conocer en cada momento el diagrama que sintetizamos. Más interesante resulta hacer depender ese diagrama de las señales recibidas y en eso consiste una antena adaptativa. Actualmente destacan dos aplicaciones importantes de las antenas adaptativas: el control de diagramas para recepción óptima de una señal (adaptación a una referencia) y detección de ángulos de llegada. En el primer caso se utiliza un proceso iterativo para conseguir el óptimo de una función error que resulta de comparar la señal recibida con una señal de referencia. Este proceso permite minimizar el ruido e interferencias con que se recibe una señal dada si conocemos algunas de sus características (modulación, codificación, dirección de llegada, etc.) En la Figura 2.30 se presenta un esquema de bloques en el que se ha resumido el control de amplitud y fase en un factor complejo y se esquematiza el control adaptativo en función del error respecto a la referencia. Este sistema se está utilizando con éxito en diversos sistemas de comunicaciones fijas y móviles. En el segundo caso simplemente se analiza la señal obtenida en cada uno de los elementos y a través de un proceso estadístico de correlación se puede determinar la dirección de llegada de todas las señales que alcanzan la antena. Este tipo de procesos es muy útil en sistemas de localización, radar,
radiotelescopios, etc.
Figura 2.30 Esquema de una agrupaci贸n adaptativa
CAPITULO 3. INSTRUMENTOS BÁSICOS DE MEDIDA DE FRECUENCIA DE MICROONDAS 3.1 AMPLIFICADOR SELECTIVO 3.1.1 PRINCIPIO DE FUNCIONAMIENTO La Figura muestra un esquema del panel frontal de un amplificador selectivo típico, también llamado medidor de onda estacionaria. Un amplificador selectivo es esencialmente un receptor de baja frecuencia que tiene una banda muy estrecha, generalmente centrada en torno a 1 kHz, y que dispone de un regulador de ganancia. Estos instrumentos son empleados habitualmente para monitorizar niveles relativos de señal y medir razones de onda estacionaria. Para poder utilizarlos es necesario disponer de un diodo detector que presente una respuesta cuadrática, o bien de un bolómetro que opere en su zona lineal. Asimismo, también es necesario que la señal esté modulada en amplitud, y que el espectro de la señal moduladora se encuentre dentro de la banda de frecuencias del amplificador. La señal moduladora puede ser una onda cuadrada o una sinusoidal. En el primer caso la señal de entrada al amplificador no sería monocromática, pero la mayor parte de la energía de esta señal seguiría estando concentrada dentro de la banda del amplificador y por tanto no se degradaría la sensibilidad de forma apreciable. Generalmente los amplificadores selectivos disponen de tres tipos de escala: 1. Escala normal, para medida general de VSWR. 2. Escala en dB, para medida de cocientes de potencia o bien valores de VSWR en dB. 3. Escala expandida, para medida de VSWR bajas. Es importante ajustar los controles del amplificador para utilizarlo con el tipo de generador y detector de que se disponga. Algunos modelos disponen de controles para seleccionar la impedancia del dispositivo. En particular, los diodos detectores pueden presentar impedancias muy elevadas si no están polarizados, e impedancias muy bajas si se polarizan. Algunos modelos de amplificadores disponen de redes propias para la polarización del detector. Asimismo, los amplificadores selectivos generalmente permiten al usuario seleccionarla frecuencia central y el ancho de banda. El amplificador selectivo puede utilizarse también con bolómetros, y de hecho algunos modelos de estos instrumentos disponen de circuitos de compensación. Cuando los niveles de señal son suficientemente elevados es posible sustituir el amplificador selectivo por un milivoltímetro de alterna, dado que la escala en dB del amplificador selectivo es equivalente a la escala estándar de un milivoltímetro,
3.1.2 MEDIDA DE COCIENTES DE POTENCIA Una de las medidas más básicas que se puede realizar con un amplificador selectivo consiste en determinar cocientes de potencia, como por ejemplo ganancias o atenuaciones. Si además se dispone de una sección de línea con sonda móvil, también se puede utilizar el amplificador selectivo para determinar diferencias entre los niveles de campo eléctrico existentes entre dos puntos de una línea en la que haya reflexiones. Un posible procedimiento a seguir para realizar esta medida sería el siguiente: 1. Situar la sonda detectora en el punto en el que se oblonga la señal más elevada de los dos. 2. Ajustar la ganancia del amplificador selectivo hasta que la aguja del instrumento se encuentre en el origen de escala, situado el extremo derecho de la misma. 3. Deslazar el detector al segundo punto. en estas circunstancias la aguja indicaría el cociente de campos. expresado en dB. existente entre ambos puntos. 3.1.3 RAZÓN DE ONDA ESTACIONARIA 3.1.3.1 Valores bajos de VSWR Las escalas del amplificador selectivo permiten medir de forma directa el valor de VSWR aplicando el procedimiento descrito, en el Apartado anterior a dos puntos de la línea donde se obtenga un máximo y un mínimo de campos respectivamente. La escala normal generalmente tiene dos subescalas, la primera de ellas puede abarcar todo el rango de posibles valores de VSWR, desde 1 a ∞. La segunda permite realizar una medida mas precisa cuando VSWK > 3.2. Para utilizar esta segunda subescala basta con seguir el mismo procedimiento que el descrita en el Apartado anterior, pero al final del proceso de medida se debe aumentar la ganancia del amplificador en 10 dB, Una vez hecho esto la lectura de la aguja indica el valor mas preciso de VSWR según esta subescala. La razón de por qué esta subescala comienza en 3,2 es fácil de entender: cuando se aumenta la ganancia en 10 dB el detector se encuentra localizado en un mínimo de señal. Por tanto si la respuesta del detector es ideal, este aumento de ganancia equivale a una medida de una onda estacionaria ficticia con una VSWR 10 dB inferior a la real. Para que esta VSWR ficticia sea exactamente de 1, es necesario que el cociente real de campos sea de 10 dB - 0 dB = 10 dB. Este cociente equivale a una VSWR real de VSWR real = 1010/20 = 3.1623
(2.53)
Las escalas expandidas generalmente están calibradas para rangos de VSW comprendidos entre 1 y 1,3, o bien entre 1 y 2 Estas escalas habitualmente están marcadas en color rojo para facilitar su identificación. La escala en dB. Utilizada para medir cocientes de potencia, lógicamente también permite determinar el valor de VSWR en dB. Esta escala está calibrada entre 0 y 10 dB. Puede apreciarse en indicador que, tal y como cabria esperar el valor de 10 dB esta alineado con el valor de 3,2 en la escala normal de VSWR. 3.1.3.2 Valores elevados de VSWR Cuando se miden valores de VSWR moderados o bajos el problema de que el detector presente un margen de potencias limitado en respuesta cuadrática no es demasiado grave, pues en este caso siempre se podrá reducir el nivel de señal del generador hasta hacer que el máximo de campo se localice dentro de la zona cuadrática del detector
Figura 2.31. Medidor de onda estacionaria v esquema de sus escalas, El modelo es el Hewlett-Packard 415-E. Sin embargo, supongamos que las reflexiones son tan elevadas que la diferencia de señales entre el máximo y el mínimo de campo es más amplia que el margen de potencias de señal en el que el dispositivo presenta una respuesta cuadrática. Si se reduce la potencia del generador para que el máximo de señal se encuentre dentro de la zona de respuesta cuadrática, entonces también se disminuye la potencia en el mínimo y se corre el riesgo que este sea indectable. En estas circunstancias no es posible medir VSWR. Puesto que en lugar de detectar la señal generada por un mínimo de campo se detectaría ruido.
Existen dos métodos alternativos de medida de razones de onda estacionaria elevadas. El primero de ellos consiste en utilizar un atenuador variable calibrado. El montaje a realizar se muestra en la Figura 2.32 siguiente Un posible procedimiento a seguir .sería el siguiente: 1. Ajustar inicialmente el atenuador a una posición de mínima atenuación. 2. Situar la sonda de la guía ranurada en un mínimo de señal. 3. Ajustar la ganancia del medidor de onda estacionaria hasta que indicase un valor de referencia cualquiera. 4. Desplazar la sonda hasta un máximo, y para la misma ganancia del amplificador selectivo ajustar el atenuador calibrado hasta obtener el valor de referencia fijado previamente. La atenuación introducida seria la razón de onda estacionaria medida en dB VSWRdB = 20log10 (VSWR) (2.54) En este procedimiento no existiría ningún problema con la falta de respuesta cuadrática en el dispositivo. Puesto que este recibe la misma potencia tanto en el máximo como en el mínimo. El segundo método de medida de razones de onda estacionaria elevadas tienen la ventaja respecto al primero de que no necesita ningún atenuador calibrado. Recibe el nombre de "Método indirecto" se basa en calcular la razón de onda estacionaria a partir de dos parámetros directamente medibles: 1. Cociente entre el campo en un punió arbitrario Zp y el campo en un mínimo. 2. Distancia del punto intermedio al mínimo más próximo. La elección de Zp es totalmente arbitraria, siempre y cuando el cociente de campos en la sonda E (Zp) / Emin sea lo suficientemente bajo como para poderse medir dentro de la zona de respuesta cuadrática. Veamos cómo se determina la expresión que relaciona la razón de onda estacionaria con este cociente de campos. Para ello supondremos inicialmente que se mide VSWR en una guía rectangular. Si bien todo este desarrollo es igualmente aplicable a cualquier línea de transmisión.
Figura 2.32. Montaje para la medida de razones de onda estacionaria elevadas.
Figura 2.33. Diagrama fasorial para la obtención de máximos y mínimos de campo.
Donde se considera el signo
+
si el mínimo más próximo está a la derecha del
punto, y el signo — en caso contrario. Sustituyendo Lp, tendremos:
En el diagrama de la figura 2.33 se puede observar fácilmente que tanto el signo más como el menos conducen al mismo módulo. Consecuentemente,
Sustituyendo | ΓL | en función de la razón de onda estacionaria y haciendo uso de las relaciones trigonométricas se llega finalmente a la expresión
Tal y como se mencionó anteriormente, la elección de p está condicionada por la respuesta ideal del detector. Si suponemos que se pueden medir directamente valores de VSWR inferiores a 4, entonces 4 es el máximo valor que puede adoptara. Lo más usual es medir distancias a puntos que están a 6 dB por encima del mínimo de señal, lo que equivale a un factor p de 1O6/20 = 1,99526. Con el medidor de onda estacionaria y la guía ranurada la medida por el método indirecto es inmediata, los pasos a seguir serían los siguientes: 1. Situar la sonda en un mínimo. 2. Ajustar la ganancia del medidor hasta que la escala del mismo indique una señal de —6 dB (o una razón de onda estacionaria de 2). 3. Desplazar la sonda hasta leer 0 dB (o una razón de onda estacionaria de 1). El valor del desplazamiento, medido en la regleta de la guía ranurada, sería d. En caso de que este valor resulte ser inferior a la precisión de la regleta, se podría escoger un valor de p superior, o bien medir directamente el valor de 2d, es decir
la distancia entre dos puntos simétricos respecto al mínimo. 3.1.4 MEDIDAS DE IMPEDANCIA Con un amplificador selectivo y una sección de línea ranurada con una sonda móvil se puede medir fácilmente el valor de la impedancia de carga. El módulo del coeficiente de reflexión puede obtenerse a partir de la razón de onda estacionaria,
Por otra parte, tal y como se demostró en el método indirecto de medida de VSWR, la fase del coeficiente de reflexión está relacionada con la distancia de un mínimo de señal cualquiera á la carga mediante la expresión
Consecuentemente, el coeficiente de reflexión complejo que presenta una carga en una línea sin pérdidas puede obtenerse en términos de la razón de onda estacionaria generada y la distancia de la carga a un mínimo de señal. Una vez calculado el coeficiente de reflexión, se obtienen inmediatamente las pérdidas de retomo en el plano de carga,
También puede definirse un factor de pérdidas de inserción,
La impedancia normalizada se obtiene a partir de la relación
El diagrama de Smith ofrece un elegante método alternativo para determinar la impedancia, en el que no es necesario hacer uso de la relación anterior. Las cargas que presentan impedancias normalizadas reales y de módulo mayor que la unidad tienen la peculiaridad de que su impedancia es numéricamente igual a la razón de onda estacionaria que originan. Gracias a esta propiedad, se puede emplear directamente la escala del semieje real Re (Z / Z c) > 1 para trazar el círculo de VSWR constante en el que se encuentra la carga cuya impedancia se desea conocer. Alternativamente, también se podría determinar este círculo con la escala inferior izquierda que aparece al pie de la carta, o bien con la escala del semieje real Z < 1, para el cual la impedancia es el inverso de la razón de onda estacionaria. Una vez determinado el círculo, la distancia al primer mínimo permite encontrar el punto del diagrama de Smith que representa la carga. Para ello basta con trazar un ángulo de valor igual a la fase obtenida anteriormente, utilizando la
escala de fases en grados sexagesimales que rodea al diagrama. 3.2 MEDIDAS DE LONGITUD DE ONDA Cuando no se conoce la frecuencia de la señal puede ser útil medir la longitud de onda. Esta medida se puede hacer con la ayuda de una sección de guía ranurada y un amplificador selectivo. Del diagrama fasorial de la Figura se puede deducir inmediatamente que los máximos y mínimos de campo se repiten a intervalos de λ g / 2. Por tanto, una posible manera de medir λg sería la siguiente: 1. Situar la sonda en un mínimo de señal. 2. Desplazar la sonda hasta volver a detectar un mínimo. El desplazamiento realizado sería una semilongitud de onda. La longitud de onda es un parámetro que sólo depende de la frecuencia de la señal y de la geometría de la guía, pero no de su terminación. Por tanto, ésta se puede seleccionar apropiadamente para realizar la medida con la mayor facilidad posible. Lógicamente no sería una buena idea utilizar una carga adaptada, pues no se distinguirían apenas los máximos de los mínimos de campo y por tanto no sería posible hacer la medida con precisión. En general siempre resultará recomendable utilizar cargas que produzcan elevadas reflexiones, pues así los mínimos de campo serán muy acusados y podrán localizarse con la máxima precisión que permita la resolución de la regleta de la guía ranurada. Cuando se necesitan precisiones mayores entonces es necesario recurrir a un ondámetro. El ondámetro es una sección de guía que tiene acoplada una cavidad resonante cuyas dimensiones pueden modificarse. Si se ajustan las dimensiones de la cavidad hasta conseguir que la frecuencia de la señal sea una de las frecuencias de resonancia de la cavidad, entonces se produce una caída en el nivel de señal detectado, lo que permite identificar la frecuencia de la señal y por tanto la longitud de onda. 3.3 ANALIZADORES DE ESPECTRO Una buena parte de las técnicas de medida en el dominio de la frecuencia están basadas en el Analizador de espectro. Este instrumento ofrece una gran versatibilidad pudiéndose medir con el, la frecuencia, potencia, distorsión y ruido, Entre sus principales aplicaciones se encuentra la caracterización de señales moduladas, las medidas de distorsión lineal y no lineal, medidas de perdidas de conversión de mezcladores y medidas de pureza espectral, ruido de fase y estabilidad de osciladores. Los analizadores de espectros disponen de controles para elegir las unidades de medida, permitiendo medir potencias o voltajes en unidades absolutas (mW o V
respectivamente) o bien logarítmicas (dBm o dBV, respectivamente), No obstante, no por ello hay que pensar que un analizador de espectros debe dar los mismos valores de potencia que un medidor de potencia. Los medidores de potencia proporcionan el valor de la potencia media, un analizador de espectros mide potencia de pico. Además, debe tenerse en cuanta que el medidor de potencia es un instrumento de banda ancha que integra todas las componentes de la señal dentro del margen de operaciones del medidor. En un analizador de espectro puede modificarse el ancho de banda de medida para determinar potencias «parciales» concentradas en un determinado margen de frecuencia 3.3.1 TIPOS DE ANALIZADORES DE ESPECTROS Los analizadores de espectros se pueden clasificar en cuatro grupos: 1. Analizadores en tiempo real. 2. Analizadores dinámicos de señales. 3. Analizadores de filtro sintonizados. 4. Analizadores superheterodinos. La Figura 2.34a muestra un esquema de un analizador de espectros en tiempo real. También llamado analizador de múltiples filtros. Este instrumento utiliza un divisor de potencia de múltiples salidas, las cuales alimentan un grupo de canales con filtros pasabanda fijos, cada uno de ellos terminado en un detector. De esta manera las distintas Componentes en Frecuencia de la señal se detectan simultáneamente, y gracias a ello se obtienen espectros en tiempo real. Este diseño de analizador se ha empleado tradicionalmente para caracterizar señales a frecuencias bajas, en el rango de las frecuencias de audio. No obstante, en la actualidad existen analizadores en tiempo real que cubren márgenes de frecuencia de DC hasta 3 GHz.
Figura 2.34. Esquema de distintos analizadores de espectros: a) de tiempo real, b) dinámico, c) de filtro sintonizado. En la Figura 2.34b se muestra un diagrama de bloques de un analizador dinámico de señales. El analizador dinámico es un instrumento digital, en el cual se muestra la señal en el dominio del tiempo y se calcula numéricamente su espectro con ayuda de un microprocesador, utilizando técnicas basadas en la transformada de Fourier. En estos instrumentos se obtiene Información sobre la amplitud. La Frecuencia, y la fase de la señal. En la práctica, los analizadores dinámicos se utilizan generalmente a frecuencias bajas. Tradicionalmente se diseñaron para aplicaciones de audio (hasta unos 100KHz), dado que permiten hacer análisis en tiempo real de espectros variables con el tiempo. Sin embargo, recientemente se han hecho muy populares en ingeniería de microondas debido a que constituyen una opción competitiva para realizar medidas de ruido 1/f en transistores.
Los analizadores de filtro Sintonizado pueden representarse esquemáticamente mediante el diagrama de la Figura 2.34c, este tipo de medidas dispone de un filtro pasobanda cuya Frecuencia central puede ser modificada mediante control electrónico, gracias a lo cual se puede medir el espectro de la señal mediante un barrido. Dado que el control de esta Frecuencia central se realiza mediante un generador en forma de diente de sierra, el eje x de la pantalla del instrumento representa un valor proporcional a la frecuencia. Su principal limitación es que solo proporciona información sobre la magnitud del espectro, y no la fase. Debido a ello, el analizador de filtro sintonizado no permite reconstruir la señal en el dominio del tiempo. Este tipo de instrumentos es de bajo costo, pero sus prestaciones no son tan altas como las del analizador Superheterodino. El analizador Superheterodino es indudablemente el analizador de espectros más ampliamente utilizado en ingeniería de microondas, Este tipo de analizadores permite caracterizar espectros de señales hasta frecuencias del orden de 300GHz., ofrece una gran resolución en Frecuencia, y opera en régimen lineal en márgenes de amplitud de señal que superan los 100dB. Al igual que el analizador de filtro sintonizado, el superheterodino solo proporciona información sobre la magnitud del espectro. 3.3.2 EL ANALIZADOR SUPERHETERODINO En la Figura 2.35 se muestra un esquema simplificado del analizador superheterodino. A diferencia del analizador de Filtro mencionado, en el superheterodino el barrido se refleja mediante el control electrónico de la Frecuencia de un oscilador lineal que alimenta una etapa de mezclado.
La señal de diente de sierra se utiliza simultáneamente para el barrido horizontal y para controlar esta Frecuencia; de esta manera, a medida que aumenta el voltaje de esta onda el mezclador se sintoniza para Frecuencias de entrada cada vez mas altas, y al mismo tiempo la traza en la pantalla se desplaza de izquierda a derecha, generándose así la representación del espectro. En ausencia de señal, la traza es esencialmente una línea recta contaminada por ruido que recibe nombre de línea de base. A la salida de un mezclador se obtienen, entre otros, dos componentes en frecuencia de valores iguales o la suma y la diferencia de las dos Frecuencias de entrada del mezclador, la de la señal y la del oscilador local. Cualquiera de estos dos componentes podría servir, en principio para obtener una
frecuencia intermedia arbitraria. Sin embargo en la práctica la frecuencia intermedia no puede ser cualquiera, sino que debe seleccionarse para que no se encuentre dentro de la banda en la que debe medir el analizador. Veamos por qué.
Figura 2.35. Analizador Superheterodino Consideremos que el analizador debe medir señales en la banda de 300 Khz a 3 GHz y se elige una frecuencia intermedia de 1,5 GHz Si a la entrada del instrumento hubiera una señal de 1.5 GHz, ésta produciría en el bloque de mezclado una salida a 1.5 GHz debido a que a la salida del mezclador también se obtienen armónicos a las frecuencias de entrada, los cuales proceden del termino lineal del desarrollo de la Ecuación (2.72). En estas circunstancias se obtendría una salida constante e independiente del barrido horizontal, lo que impediría realizar la medida. Este efecto recibe el nombre de IF feedthrough, y para evitarlo es necesario no que el filtro pasabaja previo a la etapa mezclado elimine señales de entrada con frecuencia igual a la intermedia.
Una vez elegida la frecuencia intermedia, puede seleccionarse apropiadamente la banda de operación del oscilador local para obtener el barrido deseado. Si en nuestro ejemplo se elige como frecuencia intermedia 3.5 GHz, entonces puede cubrirse toda la banda de frecuencias de interés con un oscilador local que suministre señal entre 3.5 GHz + 300 KHz y 3.5 GHz + 3 GHz, Utilizando frecuencias de microondas es posible diseñar con facilidad Componentes con anchos de banda muy elevados, pero también es difícil diseñar componentes con anchos de bandas muy estrechos. Debido a este problema, la utilización de frecuencias del orden de 1 GHz en la etapa final de mezclado no permite obtener elevadas resoluciones en frecuencias. El detector que hay a la salida del amplificador integra en un único nivel de señal todas las componentes en frecuencia que pasan por el filtro de frecuencia intermedia. Por tanto, para que el resultado obtenido en la pantalla sea similar al espectro de la señal, es
necesario que el filtro tenga un ancho de banda mucho mas estrecho que el espectro de la señal a medir. Consecuentemente, es habitual incluir en los analizadores de espectros distintos, etapas de mezclado, típicamente dos a cuatro, que disminuyen progresivamente la frecuencia intermedia hasta valores del orden de 1-2 MHz. A estas frecuencias es más fácil implementar filtros muy selectivos. El filtro de frecuencia intermedia mas baja será lógicamente el que establezca la resolución del instrumento. Un analizador de espectros típico ofrece resoluciones de orden de 50 kHz. No obstante, en la actualidad existen analizadores de espectro que ofrecen resoluciones del orden de 10 Hz. Estas resoluciones se consiguen con la ayuda de filtros digitales. En un filtro digital la señal se muestra filtrada en el dominio del tiempo gracias a lo cual se pueden realizar las medidas de alta resolución en tiempos razonables. En anchos de banda del orden de 10Hz, el filtrado digital permite realizar medidas del espectro del orden de 50 veces más rápidamente que con filtrado analógico. Los analizadores que cubren frecuencias hasta 20 - 26.5 GHz o más no emplean una circuitería tan simplificada como la de la Figura 2.35. Si lo hicieran, sería necesario utilizar osciladores lineales que funcionasen a frecuencias muy elevadas y en bandas muy amplias, del orden de 20 y 50 GHz, o más. En lugar de ello, el oscilador local no alimenta de forma directa al mezclador si no a través de un banco de multiplicadores en frecuencia que se seleccionan mediante un conmutador controlado electrónicamente, tal y como se muestra en la Figura 2.36. Para medir a frecuencias mayores suelen utilizarse cuatro etapas de mezclado.
Figura 2.36. Banco de multiplicadores para el bloque de mezclado de un analizador de banda ancha. 3.3.3 CONTROLES DE UN ANALIZADOR DE ESPECTROS
3.3.3.1 Ancho de banda de resolución La resolución establece la capacidad de un analizador para distinguir dos componentes en frecuencia muy próximos entre sí. Los analizadores de espectros permiten seleccionar el ancho de banda del filtro IF de frecuencia más baja, y por tanto la resolución. Este ancho de banda de resolución suele designarse con las iniciales RBW (Resolution Bandwidth). Lógicamente es importante seleccionar siempre un ancho de banda de filtro menor que las mínimas separaciones en frecuencia que se desean medir. Por otra parte, tal y como se indicó en la Ecuación (1.3), a medida que se reduce el ancho de banda de un sistema de medida se reduce también el ruido térmico. Consecuentemente, la señal a la salida del bloque de mezclado será menos ruidosa si disminuimos el ancho de banda del filtro. De esta manera no sólo se mejora la resolución, sino también la sensibilidad del instrumento. No obstante, en algunas aplicaciones pueden interesar anchos de banda elevados, por ejemplo cuando se necesite determinar la potencia total asociada a una banda de frecuencias concreta, o cuando se desee medir ruido. Un buen analizador de espectros puede medir niveles de potencia del orden de -145 dBm a mínima resolución. 3.3.3.2 Ancho de banda de medida (Span) El ancho de banda de medida o span es la anchura del margen de frecuencias en el cual se desea medir el espectro. Este factor puede variar entre cero y toda la banda de frecuencias que cubra el analizador. Cuando el span se ajusta a cero (opción que suele etiquetarse con las palabras «Zero Span»), el oscilador local deja de barrer en frecuencia y el analizador se comporta como un receptor superheterodino convencional con una frecuencia central igual a la seleccionada. Con la opción «Zero Span» se puede demodular de forma directa una señal AM. Para ello basta con aplicar una señal de este tipo al analizador, seleccionar una frecuencia central igual a la portadora y un ancho de banda de resolución mayor que el ancho de banda del espectro de la señal para evitar distorsión. En estas circunstancias se visualizaría la variación con el tiempo de la señal moduladora. La opción «Zero Span» también se suele utilizar para demodular señales pulsadas y medir tiempos de subida, de caída y anchuras de pulsos. También puede ser útil para demodular señales FM, aunque introduciendo bastante distorsión. Esta posibilidad es factible en los analizadores dotados de filtro IF en los que la banda de transición presente una caída suave de la amplitud. En estas circunstancias se puede sintonizar el analizador a la frecuencia central de la banda de transición, lo que da lugar a que se produzca una conversión de
FM a AM: las variaciones en frecuencia dan lugar a variaciones en la amplitud. Estas variaciones de amplitud son finalmente demoduladas por el detector del instrumento. 3.3.3.3 Tiempo de barrido El tiempo de barrido es el tiempo que tarda el analizador en barrer todo el margen de frecuencias en el que se hace la medida. Este factor coincide con el periodo de la señal de diente de sierra siempre y cuando ésta sea ideal, es decir, el tiempo durante el cual ésta decrece es nulo. En principio, puede parecer que siempre será interesante seleccionar un tiempo de barrido lo más corto posible: cuanto menor sea, tanto más rápida será la medida. Sin embargo, no es posible realizar la medida correctamente con cualquier tiempo de barrido. Toda la circuitería del analizador presenta un retardo en su respuesta y en particular el filtro de resolución, que es el que determina el ancho de banda del instrumento. Este retardo hace que las señales necesiten un tiempo no nulo para pasar a través del filtro, dando lugar a errores si se elige un tiempo de barrido demasiado corto. Los analizadores de espectros disponen de controles para regular el tiempo de barrido. En algunos modelos hay funciones para calcular automáticamente la velocidad de barrido óptima, o bien se incluyen luces de aviso o señales acústicas cuando se produce un barrido excesivamente rápido. Para comprender mejor los efectos de un barrido inadecuado, consideremos la medida de una señal monocromática. Si se quiere hacer la medida correctamente, es necesario que la señal sea detectada «en el mismo instante» en que se representa en pantalla. La señal será detectada durante el intervalo de tiempo en el que su frecuencia sea «barrida» por el analizador. En la Figura 2.37a se ilustra cómo obtener este intervalo de tiempo, al que llamaremos tp. Si seleccionamos un ancho de banda de resolución muy amplio facilitamos el «paso» de la señal en el tiempo correcto por un doble motivo: el filtro presenta un retardo menor, y además está «Abierto» durante más tiempo a la señal de entrada.
Figura 2.37. Distorsión del espectro por un barrido excesivamente rápido . En la Figura 2.37b se representa el barrido aparente del filtro en todo el margen de frecuencias. Este barrido se realiza a una velocidad Vb dada por
Donde SPAN es el ancho de banda de medida y ts, es el tiempo de barrido. Por tanto tp estará dado por la relación
Por otra parte, el retardo de la representación en pantalla vendrá determinado fundamentalmente por el retardo td del filtro, que es inversamente proporcional a su ancho de banda y por tanto se puede expresar a partir de la relación
Donde ψ es una constante que depende de la forma de la función de transferencia del filtro. Para los filtros de forma gaussiana que se utilizan típicamente en los analizadores este factor tiene un valor de 2 o 3; mientras que para filtros de forma más cuadrada puede alcanzar valores de 10 a 15. Si se igualan t p, y td obtendremos el tiempo de barrido mínimo que tenemos que seleccionar para que la señal sea representada en pantalla sin que se aprecie el retardo entre detección y representación.
Supongamos que hemos seleccionado un tiempo de barrido muy rápido. ¿Qué ocurriría entonces? La señal no podría pasar por el filtro en el tiempo en el que éste permanece abierto para ella. Como consecuencia de ello se producirá el paso de una parte de la señal o toda ella en un intervalo de tiempos inadecuado en el que el filtro está fuera de banda para la señal, produciéndose una atenuación. Asimismo, los componentes en frecuencia de la señal llegarán con retraso a la pantalla, haciendo que aparezcan representados en frecuencias superiores a las reales. La Figura 2.37c ilustra estos efectos, los cuales pueden cuantificarse con modelos matemáticos. 3.3.3.4 Ancho de banda de video (VBW) El control de ancho de banda de video permite regular el ancho de banda del filtro de video previo a la monitorización en pantalla. Este factor no debe confundirse con el ancho de banda de resolución. El filtro de video es un filtro pasabaja que se inserta después del bloque de detección, tal y como se muestra en la Figura.2.37 Este filtro permite eliminar la potencia de ruido en las frecuencias altas, gracias a lo cual se puede mejorarla sensibilidad. Los analizadores disponen generalmente no de un solo filtro sino de un banco de filtros que pueden seleccionarse en función de la velocidad de barrido elegida. Cuando se elige un filtro de banda muy estrecha con velocidades de barrido muy elevadas, entonces se produce una infravaloración de la amplitud de la señal. Típicamente, los filtros de video tienen frecuencias de corte que varían entre unos pocos Hz hasta 100 kHz o más. 3.3.3.5 Promediado Algunos instrumentos tienen la posibilidad de presentar en pantalla no el espectro calculado después de una sola medida, sino el espectro promediado de múltiples medidas. De esta manera no se reduce el ruido generado por el instrumento, pero sí es posible reducir la amplitud de las fluctuaciones en la línea de base, lo que permite detectar señales débiles que en otro caso no podrían observarse. Con el factor de promediado (Averaging Factor) se especifican el número total de medidas a promediar. Para evitar que el proceso de representación de la traza sea excesivamente lento, es habitual ir representando los promedios parciales, según se van haciendo las medidas. En términos matemáticos, el nuevo valor a representar vendrá dado por la expresión
Donde k es el orden de la medida (k = 1...N, siendo N el número total de medidas a promediar), A total nuevo es el nuevo valor a representar, Atotal anterior es el valor representado después de realizar la medida previa (es decir, el promedio de todas la medidas anteriores) y Anuevo es la nueva medida. El factor de promediado N suele ser una potencia entera de 2. 3.3.3.6 Atenuación RF El control de atenuación RF permite regular la atenuación introducida a la entrada del instrumento y por tanto la sensibilidad. La atenuación RF también permite mejorar el acoplo del instrumento en una amplia banda de frecuencias. En la práctica el acoplo de un analizador de espectros se especifica en términos de su VSWR, al igual que en cualquier otro instrumento. Típicamente este factor es del orden de 2,0 a atenuación mínima e inferior a 1,3 para atenuaciones superiores a 10 dB. La posibilidad de modificar la atenuación RF permite, asimismo, medir señales con amplitudes muy dispares, buscando en cada momento el compromiso más adecuado entre sensibilidad en la medida y riesgo de generar armónicos espúreos por problemas de no linealidad. Una manera sencilla de determinar si el analizador se encuentra o no en su zona lineal durante una medida consiste en modificar el control de atenuación RF y comprobar como varían las amplitudes de los armónicos que aparezcan en la pantalla. En régimen lineal, el nivel de ruido de la línea de base aumentará y las amplitudes de todos los armónicos decrecerán en un mismo factor. En cambio, si el analizador genera armónicos espúreos, la modificación del nivel de RF dará lugar a alteraciones entre las amplitudes relativas de los armónicos observados. En algunos analizadores hay un acoplamiento automático de la atenuación RF con la amplificación IF. En estas circunstancias, al aumentar la atenuación RF se incrementa al mismo tiempo la ganancia IF y por tanto el nivel de señal visualizado en pantalla se mantiene constante.
En estas circunstancias, el analizador introduce distorsión de la señal cuando al actuar sobre el control de atenuación RF se observan cambios en la amplitud de las líneas.
3.3.3.7 Acoplo/Desacoplo de controles Debido a la posibilidad de cometer errores en la medida al seleccionar una combinación inadecuada de parámetros, los analizadores de espectros tienen generalmente opciones para acoplar dos o más controles; de modo que al modificar uno de ellos se modifiquen el resto automáticamente para que la medida sea óptima. Las funciones de acoplo varían dependiendo del modelo de analizador. Las más comunes son las de acoplo entre el ancho de banda de resolución y span, o también la de acoplo ancho de banda de resolución - barrido en tiempo - ancho de banda de video - span.
3.4 ESPECIFICACIONES CLAVES EN LOS ANALIZADORES DE ESPECTROS 3.4.1 Sensibilidad La sensibilidad suele expresarse en términos de un factor que recibe el nombre de nivel de ruido representado o Displaced Average Noise Level (DANL). Este factor se define como el nivel de la línea de base en ausencia de señal, para una atenuación RF nula y después de haber reducido el ancho de banda de resolución y el de video lo suficiente como para que la línea sea esencialmente recta, sin fluctuaciones. También suele definirse la sensibilidad de un analizador de espectros como la mínima potencia que ha de tener una señal sinusoidal para poder ser detectada. Como criterio, suele considerarse que la señal se puede detectar cuando su potencia se encuentra a 3 dB por encima del DANL. Debido fundamentalmente a que las pérdidas de conversión en un mezclador se incrementan con el ruido, a frecuencias de microondas el DANL aumenta al aumentar la frecuencia. Este efecto es claramente observable en los analizadores de banda muy ancha. Por otra parte, a frecuencias bajas la existencia de ruido 1/f y otros efectos espúreos hace que el nivel de ruido de un analizador también aumente al reducirse la frecuencia. Como consecuencia de ello, en las especificaciones se divide la banda total de operación en sub-bandas y se indica el DANL para cada una de ellas. El ruido interno generado por el analizador es fundamentalmente térmico, y por tanto tiene una densidad espectral de potencia independiente de la frecuencia. Consecuentemente, el factor DANL es proporcional al ancho de banda de resolución. Puede obtenerse el incremento en dB del DANL en función del incremento del ancho de banda de resolución desde un valor (RBW)ini a un valor (RBW)fin ,
a partir de la relación
3.4.2 Margen dinámico El margen dinámico es un factor que indica el rango de amplitudes que puede visualizarse. Este rango está limitado por la sensibilidad del analizador en la zona de bajas potencias y por la distorsión armónica en la zona de potencias elevadas. En cualquier red de dos puertas no lineal esta distorsión se caracteriza en términos de un factor que recibe el nombre de punto de compresión de 1 dB. A medida que se incrementa la potencia de señal a la entrada de la red, la potencia a la salida aumentará linealmente hasta llegar a una situación de saturación, debido fundamentalmente al comportamiento no lineal de los detectores, amplificadores y mezcladores que haya en la red. En estas circunstancias, se define el punto de compresión de 1 dB como la potencia que hay que aplicar a la entrada de la red para que la potencia a la salida sea 1 dB inferior a la potencia de salida que se obtendría si la red fuera perfectamente lineal. La siguiente Figura 2.38 ilustra esta definición. En los analizadores de espectros, la no linealidad es producida fundamentalmente por las etapas de mezclado.
Figura 2.38. Punto de compresión de 1 dB. Habitualmente se utilizan dos definiciones distintas de margen dinámico. La primera es el cociente entre la potencia máxima y la mínima que se pueden mostrar simultáneamente en la pantalla del analizador. Los analizadores de gama media permiten medir simultáneamente señales que se diferencian en 80 dB o más. También se define el margen dinámico como el cociente entre el punto de compresión de 1 dB y la sensibilidad. La mayor parte de los fabricantes de analizadores suelen especificar la definición que utilizan.
3.4.3 Precisión en frecuencia y derivas lentas (long term drift) La precisión en frecuencia de un analizador está limitada por la inestabilidad en la frecuencia de salida de sus osciladores locales. Esta inestabilidad da lugar a derivas lentas en las frecuencias que se miden con el analizador, y son más importantes al poco tiempo de encender el instrumento. Por tanto, es recomendable dejar siempre un periodo de calcinamiento del analizador (en tomo a media hora) antes de realizar una medida. En las especificaciones de un analizador, la precisión en frecuencia suele indicarse en porcentaje de la frecuencia de medida. 3.4.4 Bandas laterales de ruido y derivas rápidas (short term drift) Los osciladores también presentan fluctuaciones rápidas en la frecuencia de salida llamadas Short-term drift lo que da lugar a una forma de ruido que recibe el mimbre de ruido fase Estas fluctuaciones no solo degradan la sensibilidad en las bandas de frecuencias mas bajas. También producen un ensanchamiento en la base de las líneas del espectro que se esta midiendo, cuando estas tienen una amplitud suficientemente elevada respecto al nivel de ruido de la línea de base. Este ensanchamiento da lugar a que la línea del espectro aparezca en la pantalla como montada sobre un pequeño pedestal, y recibe el nombre de bandas laterales de ruidos. En la Figura 2.39a, la que se muestra una línea espectral contaminada por esta forma de ruido. Las bandas laterales de ruido degradan lógicamente la resolución, pudiendo incluso ocultar líneas de baja amplitud que se encuentren en las inmediaciones de otra de mayor amplitud. Al igual que en el caso del ruido térmico, el ruido de banda laterales es función del ancho de banda de resolución, pues la potencia total de cualquier tipo de ruido se obtiene siempre por integración de su densidad espectral extendida a toda la banda de frecuencias del receptor, Por tanto, resulta conveniente especificar las bandas de ruido en términos de una densidad espectral a una determinada separación de frecuencia de la línea del espectro llamada frecuencia de offset. Esta densidad se expresa en dBc/Hz, del ingles dB-carrier /Hz o dB por encima de la potencia de cada línea espectral (un valor negativo de dBc/Hz indicará por tanto una Potencia inferior a la de la línea). En algunos casos, se indica a distintas frecuencias de offset para proporcionar información sobre cómo varia la altura del ensanchamiento.
Figura 2.39. Efectos producidos en las líneas espectrales por las inestabilidades short-term de los osciladores: a) línea con bandas laterales de ruido, b) línea con ruido FM residual. Las especificaciones de bandas laterales de ruido permiten determinar si se puede detectar una señal débil una determinada separación en frecuencia de una línea espectral de elevada amplitud. Por ejemplo, supongamos que se desea medir una señal con una potencia 60 dB más débil que una línea espectral localizada a 10 kHz de la señal y en un analizador que se encuentra ajustado a un RBW de 1 kHz. Entonces es posible determinar las especificaciones mínimas que debe cumplir el analizador para poder hacer la medida. Basta con normalizar los 60 dB a un ancho de banda de 1 Hz,
Por tanto, el analizador deberá presentar unas bandas laterales de ruido inferiores a -90 dBc/Hz a una frecuencia de offset de 10 kHz. 3.4.5 Ruido FM residual Las bandas laterales de ruido son el resultado de la integración de las fluctuaciones de frecuencia producidas por la inestabilidad de los osciladores locales. Si el barrido se realiza lo suficientemente rápido, es posible observar directamente estas fluctuaciones. En este caso las líneas espectrales aparecen representadas como picos ruidosos tales y como se muestra en la Figura 2.39. Este efecto es una manifestación distinta de un mismo fenómeno (el ruido de fase), y recibe el nombre de ruido FM residual. Es visible de forma directa cuando el ancho de banda de resolución es menor que la fluctuación pico a pico de la modulación en frecuencia. Cuando este .nicho de banda es muy estrecho, pueden incluso aparecer varios picos bien delimitados por cada línea espectral autentica.
El ruido FM residual suele especificarse en términos de frecuencia pico a pico. La medida de la frecuencia pico a pico de esta modulación se realiza para un tiempo determinado, lo que establece un limite máximo a la frecuencia de offset que contribuye a este ruido, Por ejemplo, cuando se indica que el ruido FM es de 1 kHz pico a pico para 2 ms. el ruido de bandas laterales con una frecuencia de offset inferior a 500 Hz no contribuye al ruido FM que se ha especificado. 3.4.6 Respuestas residuales Los analizadores de espectros generan señales espúreas incluso sin aplicar ninguna señal de entrada. Estas señales son originadas principalmente a causa de los mezcladores, bien por procesos de automezclado o bien por fugas desde la puerta del oscilador local hasta la puerta de salida. En un buen analizador estas respuestas tienen potencias del orden de - 110 dBm, 3.4.7 ANALIZADOR DE ESPECTROS CON GENERADOR SINCRONIZADO En algunos diseños de analizadores de espectros se ofrece la posibilidad de utilizar generadores sincronizados con el barrido interno del instrumento. El generador sincronizado puede estar integrado en el propio analizador o también puede ser externo, en cuyo caso se comunica con el instrumento a través de un cable de datos, cómo se muestra en la Figura 2.40. A través del cable de datos, el analizador controla al generador para que este suministre en cada instante una señal de frecuencia igual a la frecuencia que mide el instrumento en ese instante.
Figura 2.40. Esquema de la conexión de un generador externo sincronizado a un analizador de espectros para obtener la respuesta en frecuencia de un circuito arbitrario.
3.5 OSCILOSCOPIOS La caracterización experimental de una señal o de un circuito puede hacerse en el dominio del tiempo o en el dominio de la frecuencia, La medida del dominio del tiempo puede considerarse en muchos aspectos la mas intuitiva de las dos. Este tipo de medidas se realiza de hecho con los instrumentos más habitualmente utilizados en los laboratorios, como son los multímetros o los osciloscopios. Las
medidas en el dominio del tiempo ofrecen La gran versatilidad en el sentido de que las técnicas aplicadas son igualmente válidas para caracterizar procesos transitorios o estacionarios, o bien para caracterizar todo tipo de circuitos y sistemas, independientemente de que sean lineales o no. Históricamente, el osciloscopio fue un componente clave en el desarrollo de los sistemas de radar. En ingeniería de microondas, se utiliza fundamentalmente para monitorizar las señales de salida de los detectores, las cuales son de baja frecuencia. No obstante, en la actualidad existen osciloscopios con anchos de banda suficientemente elevados como para medir de forma directa señales de alta frecuencia, lo que amplia aún mas la utilidad de este instrumento en ingeniería de microondas. 3.5.1 OSCILOSCOPIOS ANALÓGICOS Y DIGITALES El osciloscopio es básicamente un instrumento de visualización gráfica que muestra señales eléctricas en el dominio del tiempo. Gracias a su capacidad para reproducir formas de onda, los osciloscopios permiten medir la amplitud y la frecuencia de una señal, así como el desfase entre dos señales. Debido a la elevada impedancia de entrada que presentan, estos instrumentos generalmente miden voltajes, pero con sondas adecuadas se pueden utilizar también para medir corrientes, Algunos modelos de osciloscopios permiten seleccionar la impedancia de entrada, entre un valor elevado (típicamente 1 MOhm en paralelo con una capacidad de unos 10 pF) y un valor de 50 Ohm, que es la impedancia de entrada estándar en alta frecuencia, En cada caso las especificaciones para los voltajes máximos de entrada difieren sustancialmente. Cuando se selecciona una impedancia de entrada elevada, se pueden aplicar voltajes de pico del orden de 200 - 300 V o incluso más. En cambio con impedancias de 50 Ohm las tensiones máximas de pico se reducen a 5 -10 V. En ocasiones puede ser necesario presentar al circuito impedancias superiores a 1 MOhm. En estas circunstancias se pueden utilizar sondas con atenuación. Las típicas que atenúan voltajes en un factor 10 presentan al circuito impedancias del orden de 10 MOhm. Los osciloscopios están dotados de una característica interesante para aplicaciones de monitorización de señales procedentes de receptores: disponen de un control de acoplamiento que permite filtrar (acoplamiento AC) o no (acoplamiento DC) la componente de continua de una señal. Los diodos detectores proporcionan un nivel de continua cuando son excitados, por una señal de microondas. Si se utiliza unas señales de microondas moduladas
en amplitud, entonces el detector proporcionará a la salida una señal igual a la envolvente con un nivel de continua adicional. En estas circunstancias el nivel de continua no proporciona información útil y dificulta la amplificación. Mediante una comparación directa de las formas de onda visualizadas con acopiamientos AC y DC, se puede identificar rápidamente la contribución del nivel de continua a la amplitud total de la señal detectada. Los osciloscopios analógicos están basados en un tubo de rayos catódicos (CRT) por el que se propaga un haz de electrones. Estos instrumentos disponen de dos pares de placas deflectoras que se utilizan para controlar la trayectoria del haz. Este haz incide finalmente en una pantalla fosforescente tal y como se muestra en la Figura 2.41a. El voltaje de la señal a caracterizar se aplica, atenuado o amplificado, a las placas horizontales (eje y). En las placas verticales (eje x) se aplica un voltaje en forma de diente de sierra, Al ser este voltaje proporcional al tiempo, el haz reconstruye en la pantalla la forma de la señal. Tradicionalmente, los osciloscopios analógicos han sido alternativa favorita en muchas aplicaciones. Son económicos, permiten visualizar señales en tiempo real y pueden medir oscilaciones de muy alta frecuencia, hasta 1 GHz. No obstante, en la actualidad los osciloscopios digitales se han Impuesto a los analógicos en la medida de señales de microondas. Ello es debido a que los analógicos presentan una limitación difícil de superar en la velocidad a la cual el haz escribe en la pantalla su trayectoria, debido a que el proceso químico de dibujar la traza en la pantalla da lugar a un retardo que no es despreciable en la representación de señales de alta frecuencia. Esta limitación no existe en los osciloscopios digitales, en los cuales se pueden medir señales con frecuencias de hasta 50 Ghz si se utilizan sondas apropiadas. Asimismo, los analógicos también están limitados por la velocidad mínima de barrido del haz, lo que impide visualizar apropiadamente señales de frecuencias muy bajas. Esta limitación tampoco existe en los digitales.
Figura 2.41. Esquema de un osciloscopio: a) analógico, b) digital. Los osciloscopios digitales deben su nombre a que convierten la señal aplicada en niveles discretos mediante un conversor analógico digital. Una vez digitalizada, la señal se almacena en un buffer de memoria y se visualiza en la pantalla, tal y como se muestra en la Figura 2.41b anterior. Una de las principales limitaciones intrínsecas de los osciloscopios digitales se encuentra en su resolución. La resolución de estos aparatos está determinada por el número de bits utilizados para digitalizar la forma de onda. El proceso de digitalización está asociado inevitablemente a un truncamiento. Cuanto mayor sea el número de bits, tanto mayor será el número de niveles en la digitalización y consecuentemente tanta mayor fidelidad se conseguirá en la reconstrucción de la forma de onda. Los osciloscopios digitales más económicos tienen una resolución de 8 bits, los de mayores prestaciones alcanzan e incluso superan los 14 bits.
Figura 2.42. Panel frontal de dos oscilo acopios de banda ancha: a) digital, b) de fósforo digital. Cortesía de Tektronix. Un osciloscopio de gran resolución no tiene por qué tener una gran sensibilidad. Los osciloscopios analógicos y digitales típicos tienen sensibilidades del orden de 1-10 mV, En la Figura 2.42a se muestra en el panel frontal de un osciloscopio digital moderno de 50 GHz. Este instrumento dispone de cuatro canales con entrada BNC rodeadas con un sistema de conectores tipo <<pin>> para alimentación de etapa preamplificadoras, así como una unidad de disco estándar para guardar las medidas en disquetes convencionales de 3.5 pulgadas. 3.5.2 OSCILOSCOPIOS DE FÓSFORO DIGITAL Los modelos estándar de osciloscopios digitales no permiten visualizar formas de onda en tiempo real, como los analógicos. Si bien los digitales permiten capturar y medir transitorios con facilidad, no disponen de facilidades para estudiar hasta que punto fluctúa la amplitud de una señal. En un analógico, el grosor y el nivel intensidad de la traza en la pantalla fosforescente proporciona esta información de forma directa, al menos cualitativamente. A cada instante, cuanto mayor es la intensidad en un determinado nivel de amplitud, mayor tiempo pasa la traza en ese nivel. Una traza muy fina en un osciloscopio analógico indica una señal muy poco ruidosa, una traza más gruesa indicara una señal más ruidosa. Si la traza tiene una intensidad uniforme en la dirección <<y>>, las amplitudes se distribuyen uniformemente en todo el rango de posibles valores. Si la traza no tiene una intensidad uniforme, dominara un determinado nivel de amplitud sobre el resto de Ios valores representados. Asimismo, los osciloscopios digitales estándar no disponen de la facilidad para comparar dos señales en tiempo real, como los analógicos. Sin embargo existen modelos de osciloscopios digitales que superan estas limitaciones: son los osciloscopios de fósforo digital. Los osciloscopios de fósforo digital disponen de pantallas en las que se muestran las amplitudes de la señal con graduaciones de color que Indican cómo y cuanto fluctúan estas amplitudes. De esta manera se simula una representación gráfica en tres dimensiones de información, amplitud, tiempo y distribución de amplitudes.
Con estas características es posible detectar anomalías en las señales que no podrían detectarse con un osciloscopio convencional, y caracterizar formas de onda complicadas como las que aparecen en los sistemas de modulación digital. Los osciloscopios de fósforo digital actuales pueden medir señales superiores a 1 GHz pero no alcanzan los anchos de banda tan elevados que se pueden conseguir en los digitales estándar. En la figura 2.42b se muestra el panel frontal de un osciloscopio de fósforo digital de 4 GHz .Tal como puede apreciarse, la traza en este instrumento tiene grosor claramente visible. A diferencia del osciloscopio digital mostrado en la figura 2.42a. Este grosor, junto con el grado de intensidades en la traza, proporciona información sobre el ruido que contamina la señal.
FUENTES BIBLIOGRAFICAS El presente modulo fue diseñado teniendo en algunos contenido de los siguientes textos biográficos:
Ingeniería de Microondas (Técnicas Experimentales), Prentice Hall, José Miguel Miranda, José Luis Sebastián, Manuel Sierra, José Marginada. (con sus respectivas referencias).
Comunicaciones Inalámbricas, Alfaomega – RA-MA, David Roldan.
Tecnologías de Telecomunicaciones, Alfaomega, José Manuel Huidobro Moya, Ramón J. Millán Tejedor, David Roldan Martínez.
Diapositivas de Internet.
APENDICES
PREFIJOS Y FACTORES DE CONVERSION
CONSTANTES FISICAS
PROPIEDADES ELECTRICAS DE ALGUNOS MATERIALES
CODIGOS DE GUIAS RECTANGULARES
GRUPOS DE TRABAJO 802.11
GRUPO
CONTENIDO
802.11
IR, Banda 2,4 GHz transmisión hasta 2 Mb/s
802.11a
Banda 5 GHz transmisión hasta 54 Mb/s. América
802.11b
Banda 2,4 GHz transmisión hasta 11 Mb/s
802.11d
Funcionamiento en niveles variables de potencia
802.11e
Calidad de Servicio
802.11f
Protocolo para la comunicación entre APs en un DS
802.11g
Banda 2,4 GHz, transmisión hasta 54 Mb/s
802.11h
Banda 5 GHz transmisión hasta 54 Mb/s. Europa
802.11i
Seguridad (corrección de fallos al protocolo WEP)
802.11j
Banda de 4,9 y 5 GHz en Japón
802.11k
Mejoras en la medición de recursos de radio
802.11m
Revisión e interpretación de los estándares
802.11n
Alto rendimiento
802.11p
Acceso inalámbrico para vehículos en movimiento
802.11r
Roaming rápido
802.11s
Mallado del ESS (Extended Service Set)
802.11t
Recomendaciones para evaluación de rendimiento
802.11u
Interoperabilidad con redes externas
802.11v
Gestión de redes inalámbricas
BANDAS DE FRECUENCIAS
GENERALIDADES DE CONEXIÓN DE UNA ANTENA
COMPARACION TECNOLOGIAS INALAMBRICAS MOVILES
Tipo de red
Estándar
WWAN
WMAN
WLAN
WPAN (Personal)
(Wide)
(Metropolitan)
(Local)
GSM/GPRS/UMTS
IEEE 802.16
IEEE 802.11
IEEE 802.15
(LMDS, WiMAX)
(WiFi)
(Bluetooth)
Velocidad
9,6/170/2000 Kb/s
15-134 Mb/s
1-2-11-54 Mb/s(*)
721 Kb/s
Frecuencia
0,9/1,8/2,1 GHz
2-66 GHz
2,4 y 5 GHz
2,4 GHz
Infrarrojos Rango
35 Km
1,6 – 50 Km
70 - 150 m
10 m
Técnica radio
Varias
Varias
FHSS, DSSS,
FHSS
OFDM Itinerancia
Sí
Sí
Sí
No
Equivalente
Conexión telef.
ADSL, CATV
LAN
Cables de
a:
(módem)
(roaming)
conexión
ALCANCE EN FUNCION DE LA FRECUENCIA
Las frecuencias altas se atenúan más. Por tanto a mayor frecuencia menor alcance
Enlace punto a punto
Enlace punto a multipunto (Antena omnidireccional)
(antena direccional)
Alcance (Km)
Alcance (Km)
BANDAS DE FRECUENCIA NO LICENCIADAS ISM (INDUSTRIALCIENTIFCO - MEDICO)