Unidad i conceptos basicos

Page 1

Comunicaciones Digitales

Comunicaciones Digitales Introducción: El contenido de este curso esta dividido en cuatro partes las cuales se enfocan en los siguientes temas; La primera parte esta dedicada a revisar los fundamentos de los sistemas de comunicación modernos. Revisando temas tales como; tópicos de señales y sistemas y modulación análoga. El repaso se enfoca a la teoría y conceptos básicos de modulación análoga. Se revisan los conceptos de señales eléctricas y sistemas lineales, se revisan los conceptos de correlación, convolución, densidad espectral de potencia y ortógonalidad. Se explican los conceptos de modulación AM y sus diversas variantes. Asimismo, se explica la modulación en ángulo y sus dos variantes la modulación en frecuencia y la modulación en fase, revisando los conceptos de PLL y VCO que son usuales en los sistemas de modulación en ángulo. La segunda parte se refiere a una introducción a la modulación digital, empezando con conceptos básicos de modulación digital tales como muestreo, cuantización y codificación. Se revisan los conceptos de codificación de la señal fuente explicando diversos tipos de codificación de la señal fuente tales como; PCM, PPM, PWM y PCM Delta. Enseguida se revisan los conceptos básicos de modulación y de-modulación digital, con sus tres variantes; PSK, FSK y QAM. Asimismo se revisan las implementaciones de cada una de las variantes y se hace una comparación ente algunas de ellas. La tercera parte se enfoca a la codificación para control de errores (codificación de canal), aquí se revisan los diversos códigos mas utilizados y sus características, se revisan los códigos cíclicos, los códigos de bloque y los códigos convolucionales. Se analizan ejemplos de cada uno de estos códigos usando códigos usados en los sistemas de comunicación prácticos, tales como; los códigos de CRC, BCH y Reed – Salomon. En la parte final se introducen los conceptos de BER, FER y entrelazado. En la última parte se proporciona una introducción a la teoría de compresión. Se dan formulas para calcular la capacidad máxima de un canal de comunicación y se proporcionan la teoría y los parámetros para calcular una medida de la información. Se proporciona una introducción a la compresión de datos. Se introducen conceptos tales como; compresión con pérdida, compresión sin pérdida, los fundamentos y las técnicas mas utilizadas para la compresión de imágenes y de audio, con un enfoque muy especial al algoritmo MPEG y sus diversas variantes. Al final se proporcionan apuntes extras de repaso de matemáticas y de lecturas adicionales de los temas vistos en el curso. Asimismo se proporcionan una lista de bibliografía y de ligas de Internet con los temas del curso.

Dr. Víctor Hinostroza

i


Comunicaciones Digitales Objetivos del curso. Objetivo general: Introducir a los asistentes a los fundamentos teóricos de las modulaciones análoga y digital. Incluyendo conceptos de modulación de portadora, modulación de fuente, modulación de canal, teoría de información y compresión. Con énfasis en las aplicaciones prácticas y realizando algunas prácticas de refuerzo. Objetivos específicos: o Hacer una explicación de la modulación análoga de portadora. Iniciando con la modulación por amplitud (AM), revisando sus fundamentos teóricos y sus diversos tipos. Enseguida se dará una introducción a la modulación en ángulo, con sus dos versiones; Modulación en frecuencia y modulación en fase. Incluyendo conceptos tales como VCO y PLL. o Establecer los fundamentos de la codificación de la señal fuente. Utilizando conceptos tales como; Muestreo, cuantización, codificación, etc. Revisando los métodos más comunes de modulación por pulso; PCM, PAM, PPM, PWM, Delta, Delta diferencial y adaptiva. o Hacer una explicación de la modulación digital de portadora. Revisando los tres tipos principales de modulación digital; Por amplitud (ASK), por frecuencia (FSK) y por fase (PSK) y las variantes de cada uno de estos tipos. o Realizar una explicación de la codificación de canal. Enfocado a las técnicas más comunes de corrección de errores. (FEC) Revisando los códigos más usados y sus características. o Introducir a los conceptos básicos de la teoría de información o Introducir a los conceptos básicos de las técnicas de compresión más usadas y sus fundamentos matemáticos.

Dr. Víctor Hinostroza

ii


Comunicaciones Digitales Criterios de evaluación: 1- Exámenes: Tres exámenes con valor del 50 % de la calificación total. Fechas tentativas:

Segunda semana de febrero: Unidad II Tercera semana de abril: Unidad III Tercera semana de mayo: Unidad IV Formato típico de examen: 5 preguntas teóricas (50 %) y 4 problemas de aplicación (50 %) sobre temas vistos en el período antes del examen. Hay ejemplos de exámenes de semestres pasados en UACJ-Online. 2- Actividades complementarias a la clase: Valor 40% de calificación total. 2.1 Búsqueda bibliográfica (20%): Investigación bibliográfica individual, sobre un tema específico, con el fin de ampliar el contenido de la clase. Según temas de lista anexa. Se espera que el reporte final cubra exhaustivamente el tema seleccionado, con una extensión entre 20 a 30 paginas. 2.2 Tareas (20%): Solución, por equipos o personal, de un conjunto de problemas relacionados con la clase. Típicamente alrededor un problema por mes por alumno. La unidad I se evaluara en base a problemas. Actividades con tres entregas de avances, cada entrega en la segunda semana de cada mes (febrero, marzo y abril), la última versión incluye presentación en la clase. 2 – Trabajo extra-clase: Valor 10% de calificación total. Prácticas de laboratorio (Mínimo 6). Exposiciones en clase. Asistencia. Y cualquier otra actividad relacionada con la clase y que pueda ser evaluada.

Los trabajos que se entreguen deberán tener contenido técnico/científico (No wikipedia, no información comercial, no información intrascendente, ni irrelevante). Como es común que se prefiera la Internet como fuente de información hay que escoger sitios con contenidos técnicos (universidades, centros de investigación y corporaciones), no sitios comerciales. Además se deben usar cuando menos tres referencias de libros, revistas o artículos científicos.

Dr. Víctor Hinostroza

iii


Comunicaciones Digitales Posibles temas de investigación para Comunicaciones Digitales Temas: 1. Modulación delta y sigma delta. 2. Turbo códigos 3. Fundamentos de video digital, codificación de video MPEG-2 y MPEG-4 4. Fundamentos de audio digital, codificación de audio AC3, MP3 y MP4 5. Detección coherente y no coherente. 8. Códigos concatenados y entrelazados. 9. Codificación BCH 10. Codificación Reed-Salomon 11. Codificación de enrejado (trellis). 12. Codificación convolucional. 13. Algoritmo de decodificación de Vitervi. 14. Codificación Aritmética. 15. Codificación Huffman. 16. Sistemas GPS 17. Codificación JPEG/JPEG2000 18. Sistemas de telefonía celular LTE 19. Sistemas de telefonía celular HSPA 20. Sistemas de localización satelital GPS. 21. Sistema de telefonía celular GSM 22. Sistema de telefonía celular CDMA 23. Sistema de identificación RFID 24. Redes inalámbricas de 3ª. Generación (Wi-MAX) 25. Señales de ultra amplio ancho de banda UWB. 26. Técnicas de acceso múltiple para LANs. 27. Tema a propuesta del alumno, previa autorización del maestro. 28. Inicio de proyecto de titulación.

Estructura de documento a entregar: 1. 2. 3. 4. 5. 6. 7. 8.

Portada (simple; Nombre matricula, materia, etc.) Resumen (máximo 200 palabras) Contenido o índice Introducción (una cuartillas) Teoría sobre el tema Aplicaciones prácticas o ejercicios. Conclusiones (una cuartillas) Referencias, bibliografía y ligas de Internet.

Dr. Víctor Hinostroza

iv


Comunicaciones Digitales

Comunicaciones digitales. Contenido: Introducción. Objetivos del curso. 1. Repaso y conceptos básicos 1.1 Señales y sistemas 1.2 Series y transformada de Fourier 1.3 Variable aleatoria 1.4 Modulación y de-modulación 1.5 Conceptos básicos 1.5.1 Correlación 1.5.2 Convolución 1.5.3 Densidad espectral 1.5.4 Ruido 1.5.5 Decibeles 1.6 Capacidad de canales de información 1.6.1 Modelos de canal 1.6.2 Caracterización de canal 2. Modulación digital 2.1 Teorema de muestreo y señales PAM y PCM 2.2 Modulación PCM, delta, diferencial y adaptiva 2.3 Modulación y de-modulación Digital 2.3.1 Modulación por fase (PSK) 2.3.2 Modulación por frecuencia (FSK) 2.3.3 Modulación QAM 2.4 Códigos de línea 2.5 Detección coherente y no coherente. 3. Codificación para control de errores (FEC) 3.1 Fundamentos y definiciones 3.2 Códigos de bloque 3.3 Códigos cíclicos y CRC 3.4 Códigos convolucionales 3.5 Turbo códigos 4. Compresión de datos: 4.1 Introducción a la compresión. 4.2 Compresión sin pérdidas. 4.3 Compresión con pérdidas 4.4 Compresión de imágenes y audio 4.5 Algoritmos de compresión Apéndice A. Repaso de Matemáticas Bibliografía, referencias y ligas de Internet.

Dr. Víctor Hinostroza

v


Comunicaciones Digitales

Unidad I. Repaso y conceptos básicos. Introducción. En esta unidad se revisarán los conceptos básicos comunes a los sistemas de comunicación, tales como los conceptos de un sistema digital de comunicación y la definición de sus partes, conceptos sobre señales y sus relaciones matemáticas, series y transformadas de Fourier, introducción a la modulación, repaso de probabilidad y fundamentos de teoría de información. Elementos de un sistema digital de comunicación. Los elementos comunes a cualquier sistema digital de comunicación se muestran en la figura 1.1 y se describen a continuación. Fuente de información. La fuente de información puede ser análoga, por ejemplo; voz o video o puede ser digital, por ejemplo; información binaria proveniente de una computadora. Codificación de fuente. La codificación de fuente es un proceso que convierte la información de la fuente a digital, si esta es análoga y además convierte esta información binaria a otro código, que requiere menos cantidad de bits por fracción de información. Codificación de canal. Esta codificación agrega información redundante a la salida de la codificación de fuente, para asegurar su integridad, corregir errores y a veces su seguridad. Modulador digital. La modulación realizada en esta parte se hace para adecuar la información (banda base) al medio que se use para su transmisión. (pasa-banda) Generalmente es una translación de frecuencia o una translación de nivel o ambas. Canal de comunicación. Medio físico sobre el cual se envía la información de transmisor a receptor. Este medio puede ser un cable, fibra óptica, el aire o un enlace satelital. El paso por el canal distorsionara la señal proveniente del transmisor. De-modulador digital. Proceso inverso a la modulación, se hace una translación de frecuencia de pasa-banda a banda base. La salida del de-modulador es una aproximación de la información original. Decodificador de canal. Reconstruye la aproximación de la salida del de-modulador a la información original del modulador de canal, haciendo uso de la información redundante agregada en el modulador de canal del transmisor. Decodificador de fuente. Reconstrucción final de la información original de la fuente. La diferencia entre la versión original de la fuente y la salida del decodificador de la fuente es una medida de la distorsión del sistema de comunicación.

Dr. Víctor Hinostroza

1


Comunicaciones Digitales Muestreo. Proceso mediante el cual la información de la fuente es convertida a muestras discretas tomadas a intervalos regulares. La mínima frecuencia a la cual estas muestras deben ser tomadas es una frecuencia al menos igual a 2 veces la frecuencia máxima de la información. Cuantización. Error introducido por la acción de muestreo y se refiere a la diferencia en valor entre la muestras discretas y el valor real de la información.

Fuente de Información

Codificador de fuente

Modulador Digital

Codificador de canal

Transmisor

Canal de Comunicación

Receptor

Transductor

Decodificador De fuente

Decodificador De canal

De modulador Digital

Figura 1.1 Elementos de un sistema de comunicación digital. 1.1 Señales y sistemas Señales. Una señal es una cantidad eléctrica que esta definida por tres características principales; Amplitud, fase y frecuencia. La amplitud es el valor escalar instantáneo que se indica en unidades, normalmente Volts de la señal. La frecuencia es un valor que nos indica, asumiendo que una señal es periódica, el numero de veces que el periodo se repite en un intervalo de tiempo, las unidades de frecuencia son Hertz. La fase es un valor que indica el valor instantáneo de la amplitud dentro del periodo de la señal. La figura 1.2 muestra una señal seno y sus características.

Dr. Víctor Hinostroza

θ

2


Comunicaciones Digitales

1 0.8

Sen θ

0.6

Amplitud

0.4 0.2 0 -0.2

Cos θ

-0.4 -0.6 -0.8 -1

0

2

4

6

8

10

12

14

16

18

20

T (a)

(b)

Figura 1.2 Características de una señal. En la figura 1.2 (a) se puede ver que la amplitud es el valor instantáneo definido por la fase de la onda en ese instante, por lo cual nos podemos ayudar de la figura 1.2 (b) donde se puede ver que la fase esta definida por un valor angular θ donde este valor es el ángulo que forma un vector con un circulo de radio igual ala amplitud de la señal y la componente del vector en el eje x es igual al coseno de θ y la componente del vector en y es igual al seno de θ, la amplitud y la frecuencia de la señal esta definida por la siguiente ecuación: V(t) = A sin  t Donde  = 2πf es la frecuencia angular de la señal y f es la frecuencia en Hertz. Refiriéndonos a la figura R.2 (a) f esta definida por el reciproco del periodo T: f 

Donde

1 T

y también f  f = frecuencia;

c

 c = velocidad de la luz;

λ = longitud de onda

Clasificación de señales. Una señal puede ser aleatoria o determinística, puede ser periódica o no periódica, puede ser continua o puede ser discreta. Las señales aleatorias son aquellas que hay cierto grado de incertidumbre en su valor de amplitud en cualquier tiempo, por ejemplo las señales de televisión. Las señales deterministicas, son aquellas que no hay incertidumbre con respecto a su valor en cualquier tiempo, por ejemplo la señal de onda seno de la figura 1.2. Las señales periódicas son aquellas que sus valores se repiten en un cierto periodo de tiempo, por ejemplo de nuevo la sonda seno de la figura 1.2. Las señales no periódicas no repiten sus valores en el tiempo, por ejemplo, una señal de ruido. Las señales discretas son aquellas que tiene un rango de valores contable y cada uno de estos valores puede ser asignado a un número real. Las señales continuas tienen un rango de valores infinito y presentan cambios de valores que se pueden asignar a un número. 1.2 Serie y transformada de Fourier. Dr. Víctor Hinostroza

3


Comunicaciones Digitales

Dominio del tiempo y dominio de la frecuencia. Como se menciono anteriormente una señal tiene como características la amplitud, la fase y la frecuencia. Se puede observar como varia la señal con el tiempo si usamos una gráfica de amplitud contra tiempo. Estas gráficas se dice que están en el dominio del tiempo, porque el parámetro de variación es el tiempo. También se puede observar como varia la señal con la frecuencia, se puede hacer una gráfica de amplitud contra frecuencia. Estas gráficas se dice que están en el dominio de la frecuencia, porque el parámetro de variación es la frecuencia. La herramienta matemática para pasar del dominio del tiempo al dominio de la frecuencia es la transformada de Fourier. Esta transformada se puede definir con las siguientes ecuaciones: (a)

(b)

1

1

0.9

0.9

0.8

0.8

0.7

0.7

0.6

0.6

0.5

0.5

0.4

0.4

0.3

0.3

0.2

0.2

Figura 1.3 Señal continua (a) y señal discreta (b)

0.1

0

0

5

10

15

20

25

30

35

40

0.1 0

45

Transformada de Fourier.

0

5

10

15

20

25

30

35

40

45

Transformada inversa de Fourier

1.3 Ejemplos de transformadas y transformada inversa de Fourier.

X  j  

 xt e

 jt

dt



1 xt   2

 X  j e

jt

d



La figura 1.6 (a) muestra una señal compleja en el dominio del tiempo y la figura 1.6 (b) muestra la misma señal en el dominio de la frecuencia. Se pasa de un dominio a otro con la transformada de Fourier y la transformada inversa de Fourier respectivamente. En la figura 1.6 es fácil ver el contenido espectral de la onda en el dominio del tiempo, ya que es una sola onda senoidal. Por lo contrario, en la figura 1.6 no es fácil ver el contenido espectral en el dominio del tiempo, pues la onda es muy compleja y formada de muchas frecuencias fundamentales, frecuencias que es más fácil ver en el dominio de la frecuencia. Serie de Fourier La serie de Fourier sirve para representar señales continuas periódicas por medio de una serie de componentes senoidales. El espectro de frecuencia de esta serie muestra las varias componentes sinusoidales que forman una señal de tiempo continuo dada. En general, el espectro de frecuencia es una función compleja de la variable de frecuencia y es usualmente especificada en términos de un espectro de amplitud y uno de fase. Se comienza por considerar señales periódicas. En este caso, el espectro de frecuencia de la señal se puede generar mediante la representación de la señal como una suma de sinusoides, que se conoce

Dr. Víctor Hinostroza

4


Comunicaciones Digitales como una serie de Fourier. Esta denominación se conoce así en honor del físico francés Jean Baptiste Fourier (1768 – 1830) 500

1

450

0.8

400

0.6

350

0.4

300

0.2 0

250

-0.2

200

-0.4

150

-0.6

100

-0.8

50

-1

0 0

2

4

6

8

10

12

14

16

18

20

0

0.01

0.02

0.03

0.04

0.05

0.06

0.07

0.08

0.09

0.1

Figura 1.4 Dominio del tiempo y dominio de la frecuencia.

F

1

0.8

0.6

0.4

-

F 1

0.2

0

-0.2

-0.4 -5

-4

-3

-2

-1

0

1

2

3

4

5

Figura 1.5 Transformada de una onda cuadrada.

-5

60

-10

40

-15 -20

20

F

0

-25 -30 -35

-20

-40 -45

-40 -50 -55

-60 500

1000

1500

2000

2500

3000

3500

4000

4500

6

7

8

9

10

11

12

13 4

x 10

Figura 1.6 Señal compleja y su transformada de Fourier. Cabe señalar que también se puede generar una representación del dominio de la frecuencia de una señal no periódica. Esta representación se defina en términos de la Transformada de

Dr. Víctor Hinostroza

5


Comunicaciones Digitales Fourier. En contraste con una señal periódica, los espectros de una señal no periódica consisten en una continuación de frecuencias. Serie de Fourier para señales periódicas Se busca poner cualquier función x(t) como un sumatoria de senos y cosenos, esto es, como un sumatoria de puesto que cualquier función senoidal se puede poner en forma de exponencial compleja. Para una señal periódica definimos el desarrollo en serie de Fourier como:

A la vista de la exponencial compleja podemos observar que al variar los valores de k tenemos una función periódica de periodo:

Para averiguar los coeficientes del desarrollo en serie de Fourier haremos:

Serie de Fourier para señales discretas periódicas. Los sistemas que trabajan con señales procedentes de un muestreo previo están cada día más extendidos. En el trabajo con ordenador no nos queda más remedio que trabajar con muestras tomadas lo más pegadas posibles, es decir con un frecuencia de muestreo mayor. La serie de Fourier discreta es simplemente una modificación de la serie de Fourier tradicional, pero sustituyendo las integrales por sumatorias de las muestras, y el periodo ahora en vez de ser T (número real) será N, siendo N un número entero, de forma que se define la serie de Fourier discreta como: Dr. Víctor Hinostroza

6


Comunicaciones Digitales

Siendo ahora

Que tenga un número máximo de discontinuidades.

La transformada de Fourier es una particularización de la transformada de Laplace con S=jw (siendo w=2πf), y se define como:

Y su transformada inversa se define como:

Se menciono anteriormente que la transformada de Fourier se usa con señales no periódicas. Con la introducción de la función delta(t) a principios de este siglo es posible calcular la transformada de Fourier de una señal periódica: Sabiendo que Y que la transformada de Fourier tiene la propiedad de dualidad:

Obtenemos que De esta forma, podemos calcular la transformada de Fourier de cualquier señal periódica x(t) de potencia media finita, esto es:

Dr. Víctor Hinostroza

7


Comunicaciones Digitales

Ya que

Luego para una x(t) periódica se cumple que:

Transformada de Fourier Una característica clave de la teoría de las series de Fourier de las señales periódicas es la definición de los espectros de amplitud y de fase de señales periódicas. Se sabe que el espectro de amplitud de salida es igual al producto del espectro de amplitud de la señal periódica de entrada por la función magnitud | H(w) | del sistema, donde w = nw0 y el espectro de la fase de la salida es igual a la suma del espectro de la fase de la señal periódica de entrada más la función de la fase L H(w) del sistema, donde w = nw0. Surge entonces la pregunta acerca de que si es posible definir las conexiones de espectros de amplitud y de fase para señales no periódicas. La respuesta es sí y la construcción analítica para hacer esto es la transformada de Fourier. La transformada de Fourier muestra una secuencia en la que se aumenta el periodo de una señal periódica. Como se verá enseguida los coeficientes de la serie de Fourier para una función rectangular se obtiene al evaluar en las frecuencias armónicas la función sinc. En otras palabras, la función sinc es la envolvente de los coeficientes de Fourier, como se aprecia en la figura 1.7. Al aumentar el periodo, la frecuencia fundamental 1/T se hace menor, por lo que los coeficientes son muestras del sinc a intervalos menores. En el límite, las muestras están al lado una de la otra, es decir, se tiene una función continua de la frecuencia. La transformada rápida de Fourier es simplemente un algoritmo rápido para la evaluación numérica de integrales de Fourier y su importancia radica en la rapidez de cálculo conseguida, importante en otro tipo de aplicaciones: ecualización y filtrado en equipos de audio/vídeo en tiempo real, comunicaciones, etc.

Dr. Víctor Hinostroza

8


Comunicaciones Digitales

F (t) T0Fk

1 1

Figura 1.7 Ejemplos de transformada de Fourier. Transformada rápida de Fourier (FFT) La diferencia de velocidad de cálculo entre la tradicional transformada discreta y la FFT aumenta según aumenta el número de muestras a analizar, según se puede apreciar en la figura 1.8, ya que mientras una aumenta el número de operaciones necesarias para la resolución de forma exponencial, la otra lo hace de forma prácticamente lineal. Explicación del algoritmo FFT El algoritmo FFT lo único que busca es resolver de la manera más eficiente posible la siguiente expresión:

donde como sabemos . La evaluación directa de esta sumatoria implica N^2 multiplicaciones. Haciendo una serie de reordenaciones, conseguiremos con la FFT reducirlo a N*Log2(N) operaciones. Primero se deben separar las muestras pares y las impares:

Dr. Víctor Hinostroza

9


Comunicaciones Digitales

Figura 1.8 Consideraciones acerca de la FFT

A continuación sacamos fuera de la sumatoria impar la exponencial E-jkW :

Si observamos esta expresión, podemos ver que si ponemos. Y=FFT(x[0], x[2], x[4], ..., x[N-2]) y Z=FFT(x[1], x[3], x[5], ..., x[N-1]) entonces

El problema ha sido reducido al cálculo de dos FFTs de tamaño N/2 y realizar N multiplicaciones complejas. Es conveniente observar que el bit menos significativo de k determina siempre si k es par o impar. Repitiendo este proceso reiteradamente, conseguimos extraer la transformada de x.

Dr. Víctor Hinostroza

10


Comunicaciones Digitales Propiedades de la transformada de Fourier. Como toda función lineal la transformada de Fourier, también cumple las siguientes propiedades:

Linealidad

a(x) + b(y)

aX(jω) + bY(jω)

Translación en el tiempo

x(t-t0)

e jt0 X  j 

Translación en la frecuencia

e jt xt 

X(j(ω-ω0))

Conjugación

x*(t)

X*(-j ω)

Inversión en el tiempo

x(-t)

X(-j ω)

Cambio de escala en tiempo y Frecuencia

x(at)

Convolución

x(t)*y(t)

1  j  X  a  a  X(j ω)Y(j ω)

Teorema de Parseval 

1  xt  dt  2 2

 X  j 

2

d



Formas de onda no senoidales. Cualquier onda periódica puede ser representada por una serie de ondas senos y cosenos, por medio de la serie de Fourier, que esta representada por la siguiente ecuación: e(t) = Co+An cosnt Bn sin n t La forma de onda triangular esta representada por la serie:

v(t ) 

V V  2 

1 1 1   senf  2 sen2 f  3 sen3 f  4 sen4 f  .......

Y la ecuación de la onda rectangular esta representada por: 1 3 5 v(t )  senf  sen3 f  sen3 f  sen5 f  ......... 3 5 9

Dr. Víctor Hinostroza

11


Comunicaciones Digitales 1.3 Variable aleatoria. Termino usado para designar una regla mediante la cual se asigna un valor a cada resultado posible de un experimento. Sea λi el posible resultado de un experimento. Entonces, podemos asignar un numero real X(λi) a cada posible resultado del experimento. X( ) se define como una variable aleatoria de λi. Una variable aleatoria puede ser discreta o continua. Frecuentemente el resultado de un experimento aleatorio se denota con un número:    

el resultado de lanzar un dado, el número de unidades defectuosas entre 10 unidades seleccionadas, el tiempo que hay que esperar para que se presente una falla en un circuito, el número de estaciones de una red de computadoras que requieren la atención del servidor de la red en un momento dado

A un número tal, le llamamos variable aleatoria. Hay que poner atención al hecho de que una variable aleatoria no es una variable en el sentido usual. Las variables que estamos acostumbrados a manejar son, por ejemplo: el peso de un cohete que va quemando el combustible que lo impulsa, la distancia del piso a un objeto que cae hacia él, la concentración de una solución dentro de un tanque conforme pasa el tiempo, etc. En los ejemplos anteriores el valor de la variable puede cambiar con el tiempo, pero es predecible a partir de las leyes de la mecánica, la química, la hidráulica o alguna otra ciencia. Con una variable aleatoria la situación es enteramente diferente. El valor de una variable aleatoria no se puede conocer con exactitud de antemano a la realización del experimento. ¿Qué otros ejemplos de variables aleatorias se le ocurren además de los mencionados arriba? Al contestar esta pregunta tenga en cuenta que el azar debe jugar algún papel en la medición de la variable y que su valor no debe ser predecible. Una variable aleatoria presenta dos características importantes: 1. Una colección (conjunto) de valores posibles al que llamamos imagen de la variable aleatoria (antes lo llamábamos espacio muestral). 2. Una probabilidad asociada a los posibles resultados la cual queda expresada mediante una función de probabilidad. Variables aleatorias discretas. Las variables aleatorias que tienen un conjunto de posibles valores discreto, se llaman discretas. Estas variables son el resultado de contar. ¿Cuáles de las variables aleatorias mencionadas arriba son discretas? ¿cuáles son discretas? Pueden tomar solo valores discretos, ejemplo los números binarios. Normalmente se muestran como puntos en una gráfica. A la función: f(x) = P(X = x) se le llama función de probabilidad de X. Esta función es una función ordinaria de las que estudiamos en los cursos de matemáticas; no tiene nada de aleatorio. Dicho de otra forma, una vez determinados los valores de las

Dr. Víctor Hinostroza

12


Comunicaciones Digitales probabilidades, la función de probabilidad es una función común y corriente, tiene su dominio y su gráfica. Hay algunos hechos importantes respecto a esta función: 1. Para una variable aleatoria discreta los valores posibles son los únicos para los cuales esta probabilidad es diferente de cero. Dicho de otra forma, no nos hace daño ampliar el dominio de la función de probabilidad a todos los reales, pero va a valer cero casi siempre excepto en un conjunto discreto de puntos. 2. El valor de la función de probabilidad depende esencialmente de la variable aleatoria a la que nos referimos, cuando no sea claro a cuál variable nos referimos, es conveniente poner el símbolo de la variable como subíndice para la función: fX(x). Tomando un ejemplo de dados. En este juego se gana si el resultado es par y se pierde si es non; la cantidad que pierde o gana será el doble del resultado. Su ganancia (positiva si ud. gana, negativa si pierde) es una variable aleatoria y su imagen es S = {-22, -18, -14, -10, -6, 4, 8, 12, 16, 20, 24} Terminar la tabla de la función de probabilidad de Y. Y -22 -18 -14 -10 -6 4 8 12 16 20 24 f(y) Una vez que haya llenado la tabla anterior, calcule la probabilidad de que gane Ud. más de 8 pesos; la probabilidad de que pierda más de 10 pesos; la probabilidad de que su ganancia esté entre -10 y +16 inclusive; la probabilidad de que su ganancia o pérdida exceda a 9 pesos.  

f(x) debe ser siempre mayor o igual a 0 la suma de f(x) para todos los valores de x debe dar 1

Variables aleatorias continuas. Pueden tomar valores continuos, se grafican por medio de funciones continuas. Teorema de bayes. Veamos un problema que nos llevará a una regla interesante de cálculo de probabilidades que se llama: el teorema de Bayes. En una etapa de la producción de un artículo se aplica soldadura y para eso se usan tres diferentes robots. La probabilidad de que la soldadura sea defectuosa varía para cada uno de los tres, así como la proporción de artículos que cada uno procesa, de acuerdo a la siguiente tabla. Robot A

Dr. Víctor Hinostroza

prob. defect. Proporción Procesados 0.002 18%

13


Comunicaciones Digitales B C

 

0.005 0.001

42% 40%

Cuál es la proporción global de defectos producida por las tres máquinas Si tomo un artículo al azar y resulta con defectos en la soldadura, cuál es la probabilidad de que haya sido soldado por el robot C.

(I) La primera pregunta nos va a llevar a lo que se conoce con el nombre de fórmula de la probabilidad total. Queremos conocer la proporción global de defectos de los tres robots. Después de reflexionar un momento se ve que si todas las soldaduras las pusiera el robot C, habría pocos defectos, serían 0.001 o 0.1%. En cambio, si todas las pone el B, tendríamos cinco veces más: 0.005 o 0.5%. De modo que en nuestra respuesta debemos tener en cuenta las diferentes proporciones de lo maquinado en cada robot. Nuestra idea es empezar por descomponer el evento ``defectuoso'' en ``viene del robot A y es defectuoso'' o ``viene del robot B y es defectuoso'' o ``viene del robot C y es defectuoso''. En símbolos tendremos P(d) = P(A y d) + P(B y d) + P(C y d) ó P(d) = P(A) P( d|A) + P(B) P( d|B) + P(C) P( d|C) Antes de ponerle números y resolver nuestro problema fijémonos en la fórmula obtenida. 1. Hay tres eventos A, B y C que o son ajenos y o cubren todo el espacio muestral. 2. Conocemos las probabilidades de cada uno de ellos. 3. Además, conocemos las probabilidades condicionales de otro evento dado cada uno de ellos. La fórmula de arriba se llama fórmula de la probabilidad total. Llenando con nuestros números, tenemos que P(d) = (0.18)(0.002) + (0.42)(0.005) + (0.40)(0.001) o sea que P(d) = 0.00286 casi 3 piezas por cada mil. Es bueno comparar este resultado con los porcentajes de soldaduras defectuosas de cada robot por separado. Podemos ver que el resultado se encuentra entre todas ellas y se encuentra relativamente cerca de los porcentajes de los robots más utilizados (el B y el C). Esto es muy razonable. Dr. Víctor Hinostroza

14


Comunicaciones Digitales (II) La segunda pregunta es, a la vez más simple y más complicada. Nos va a llevar a lo que se conoce con el nombre de teorema de Bayes. La probabilidad que buscamos es una condicional pero al revés de las que tenemos. Buscamos P( C | d) para calcularla usamos la definición de probabilidad condicional: P( C | d) = [P(C y d)] / [P( d )] El numerador (lo de arriba) lo calculamos con P(C y d ) = P(C) P(d|C) y el denominador lo calculamos con la fórmula de probabilidad total P(d) = P(A) P( d|A) + P(B) P( d|B) + P(C) P( d|C) juntando las dos tenemos la fórmula de Bayes: P(C|d) = [P(C) P(d|C)] / [P(A) P( d|A) + P(B) P( d|B) + P(C) P( d|C)] Aplicándola a nuestro caso tenemos P(C|d) = [(0.40)(0.001)]/[(0.18)(0.002) + (0.42)(0.005) + (0.40)(0.001)] o sea P(C|d) = [0.0004]/[0.00286] = 0.1399 casi 14%. O sea que si tomamos una pieza al azar, la probabilidad de que haya sido soldada por el robot C es alta, 40%. Pero, como ese robot produce sólo 1 de cada mil soldaduras defectuosas, al saber que la pieza seleccionada es defectuosa, la probabilidad de que provenga del robot C disminuye a solamente 14%. Esto quiere decir que, en este caso el saber que la soldadura es defectuosa, nos provee con una gran cantidad de información. Si analizáramos, usando de nuevo la fórmula de Bayes las probabilidades de los robots A y B, tendríamos P(B|d) = 0.7343 y P(A|d) = 0.1259

Comparadas con las probabilidades de cada máquina sin saber que la pieza es defectuosa vemos un gran incremento en la probabilidad de B.

Dr. Víctor Hinostroza

15


Comunicaciones Digitales Si, por el contrario la pieza no hubiese tenido defectos de soldadura, el mismo teorema de Bayes nos daría: P(A|no d) = 0.1802

P(B|no d) = 0.4191

P(C|no d) = 0.4007

Las probabilidades no son idénticas a las probabilidades no condicionales, pero la diferencia es muy pequeña. Para apreciar mejor el cambio, pongamos en una sola tabla las probabilidades iniciales y las condicionales obtenidas bajo el conocimiento de la soldadura de la pieza. Robot P() P( |d) P( |no d) A 0.18 0.1259 0.1802 B 0.42 0.7343 0.4191 C 0.40 0.1399 0.4007 Es tan grande el éxito de los tres robots en el soldado correcto que el saber que la pieza no tiene defectos, prácticamente no altera las probabilidades de produción en uno u otro. Por el contrario, el robot C es tan bueno, comparado con el B que, al saber que la pieza es defectuosa, las probabilidades cambian dramáticamente. En este ejemplo el cálculo de probabilidades condicionales nos cuantifica algo que el sentido común nos dice de otra forma. Note que la fórmula de Bayes nos sirvió para pasar de las probabilidades no condicionales a las condicionales. Otro ejemplo clásico del uso del teorema de Bayes es un problema de oro y plata. Hay tres bolsas que tienen, cada una dos monedas. Las de la primera son de oro, las de la segunda son de plata y las de la tercera son una de plata y otra de oro. Se escoje una bolsa al azar y de ella una moneda también al azar. Si la moneda es de oro, ¿cuál es la probabilidad de que la otra moneda en la bolsa sea de oro también? Primero notemos que la segunda bolsa no pudo haber sido elegida (porque no tiene monedas de oro), sólo pudo haber sido seleccionada la primera o la tercera. Si la bolsa elegida hubiese sido la tercera, el evento cuya probabilidad nos interesa no se realiza. De modo que el evento que nos interesa es equivalente a que se haya elegido la primera bolsa. Una vez establecido lo anterior, apliquemos el teorema de Bayes para calcular P(I|oro) = [P(I)P(oro|I)] / [P(I)P(oro|I) + P(II)P(oro|II) + P(III)P(oro|III)] Las probabilidades que entran al lado derecho de la igualdad las sacamos, inmediatamente, de las condiciones del problema y después de hacer cuentas tenemos: P(I|oro) = 2/3

Dr. Víctor Hinostroza

16


Comunicaciones Digitales Este problema es clásico porque existe una ``solución'' a la que muchas personas llegan y es falsa. El argumento es el siguiente. Como todas las bolsas son igualmente posibles, y el hecho de que la primer moneda extraída sea de oro, nos indica que no se trata de la segunda bolsa. Concluímos que las dos bolsas restantes tienen igual probabilidad y, por tanto, la probabilidad de que la otra moneda sea de oro es 1/2. Lo que está mal es que lo que averiguamos, al saber que la moneda extraída es de oro, es algo más que el rechazo de la segunda bolsa. Si sólo nos dijeran que la bolsa escogida al azar no fué la segunda, sin informarnos del metal de la moneda sacada, todavía tendríamos incertidumbre respecto a la primer moneda; Todavía podríamos apostar a si ésta es de oro o de plata. Al decirnos que la moneda fue de oro, estamos aprendiendo algo más, y eso echa por tierra el argumento de ``igual probabilidad para las dos bolsas restantes''. Lo interesante del problema es que, si nos hubieran dicho que la moneda sacada fué de plata, aplicando la fórmula de Bayes, llegamos a la conclusión de que la probabilidad de que la otra moneda sea también de plata es 2/3 [¡Haga Ud. las cuentas!]. Es decir, si vamos a apostar al metal de la otra moneda, nos conviene apostar por el metal de la primera. Este ejemplo nos lleva a reflexionar sobre el uso adecuado de la información contenida en ``lo dado'' en el cálculo de la probabilidad condicional. Distribuciones de probabilidad. Función de distribución. Cuando la imagen de una variable aleatoria es un intervalo real decimos, que la variable es continua. La matemática que utilizamos para las variables continuas es diferente a la de las discretas Por eso empezamos nuestro estudio con las discretas. Aún no acabamos con las variables discretas, todavía nos faltan por discutir temas muy importantes. Pero antes, hablaremos de una noción que es común a las discretas y a las continuas. Una función muy útil en el cálculo de probabilidades de una variable aleatoria es la función de distribución. Esta función se define de igual forma para continuas y discretas: F ( x)  P( X  x)

La función de distribución tiene las siguientes propiedades: 1.

F ()  0 F ( )  1

2. F es una función no decreciente. 3. F sirve para calcular probabilidades así: P(a  X  b)  F (a)  F (b)

Dr. Víctor Hinostroza

17


Comunicaciones Digitales Para las variables aleatorias discretas hay que tener cuidado con el hecho de que la primera desigualdad es estricta y la segunda nó. Ejemplo 5. Sí la imagen de X son todos los enteros, P(2<X≤5) se puede calcular haciendo la resta F(5)-F(2). Pero la probabilidad P(2< X<5) se obtiene restando F(5)- F(1) ¿Cómo se calcula P(2≤X<5)? Ejemplo 6. F ( x)  1  e ( .7 x ) para x > 0. Mostrar que es una distribución y usarla para calcular P(X≥1.0), P(0.7<X<1.0), P(X<0.7), P(X>1.0 ó X≤0.4)

Función de probabilidad. La función de probabilidad p(x) de una variable aleatoria discreta es una regla definida para cada numero x con p(x) = Prob[X=x] tal que:

p(x) ≥0

y

 p ( x)  1 x

Función de distribución de probabilidad acumulada. (CDF) Esta función esta relacionada con una variable aleatoria y esta definida como la probabilidad de que el resultado de un experimento estará dentro de un limite definido como X(λ) ≤ x, donde x es un valor dado. La probabilidad dependerá del valor x y también en X( ) o sea la regla según la cual se asignan valores a los resultados del experimento. F ( x)  Pr ob(X  x   p( y) y x

Lim x→-∞ F(x) = 0 y Lim x→∞ F(x) = 1

Una notación simplificada de la función acumulada de probabilidad seria: Fx(x) = P(X<x) Función de densidad de probabilidad. Esta función esta definida en términos de la función acumulada de probabilidad CDF como: f x x 

d Fx x  dx

Entonces:

F x    f x dx x



o

Dr. Víctor Hinostroza

F x    f x dx b

a

18


Comunicaciones Digitales Función de distribución de probabilidad acumulada. La función de distribución acumulada para una variable continua X esta definida como:

F ( x)  Pr ob(X  x 

x

 f ( y)dy



Lim x→-∞ F(x) = 0 y Lim x→∞ F(x) = 1

Valor esperado. El valor esperado de una variable discreta con probabilidad p(x) es:

EX      xp ( x) x

el valor esperado de una variable continua con pdf p(x) es:

EX    

 xf ( x)dx



Variancia. La variancia de una variable X es:

 2  EX   2    x   2 p( x)

Si X es discreta

x

  E X     2

2

 x   

2

f ( x)dx

Si X es continua



Figure 1.9 ejemplo de una función de distribución de probabilidad acumulada.

Desviación estándar. La desviación estándar de X es    2 Dr. Víctor Hinostroza

19


Comunicaciones Digitales

Coeficiente de correlación. El coeficiente de correlación entre dos variables aleatorias es:

 ij 

 ij  i j

No es mayor de uno en magnitud y esta definido por las desviaciones estándar de las variables. Definición de un proceso estocástico En otras palabras, un proceso estocástico se define por una ley de probabilidad que gobierna el comportamiento de una variable x a lo largo de un horizonte temporal t. De tal manera que para diferentes momentos del tiempo t1 < t2 < t3… podemos obtener la probabilidad de que los valores correspondientes x1, x2, x3… se sitúen dentro de un rango específico: P(a1 < x1 < b1) P(a2< x2 < b2) P(a3 < x3 < b3) P( a4 < x4 < b4) Procesos estocástico estacionarios. La temperatura en algún lugar de la tierra es un proceso estocástico estacionario, es decir que las propiedades estadísticas de esta variable han sido constantes durante largos periodos de tiempo (que por el calentamiento global va a ser un nuevo factor a considerar). De tal manera que, aunque la temperatura esperada puede depender en parte de la del DIA de hoy, la temperatura media esperada para el 1ro de enero del próximo año y su varianza, casi no dependen de la temperatura de hoy, y su valor es igual al valor esperado del 1ro de enero y su varianza, siendo igual también a la temperatura esperada para el 1ro de enero del tercer año –contando desde ahora mismo- y a su varianza, etc. Por otra parte, las acciones de una compañía son un ejemplo de un proceso estocástico no estacionario, porque el valor esperado de las mismas puede crecer sin limites lo que implica también que la varianza del precio en el año T va aumentando conforme aumente T. Tanto la temperatura ambiental en una región como el precio de las acciones de una compañía son procesos estocásticos continuos en el tiempo, porque el índice del tiempo t es una variable continua (dado que las variables varían continuamente en el tiempo). Por el contrario, los procesos estocásticos discretos en el tiempo son aquellos en que los valores de las variables sólo varias en momentos determinados (discretos) del tiempo. De forma similar, y como lo mencionamos anteriormente, el conjunto de valores xt (los estados), también pueden ser continuos o discretos.

Dr. Víctor Hinostroza

20


Comunicaciones Digitales

Figura 1. 10 Evolución de un variable aleatoria en el tiempo. Proceso estacionario en sentido amplio. Un proceso X(t) es estacionario en sentido amplio si satisface las siguientes condiciones: 1. mX(t) = E[X(t)] es independiente del tiempo 2. RX(t1, t2) depende solo de la diferencia de tiempos τ = t1 - t2, y no de t1 y t2 individualmente. Proceso estacionario en sentido estricto. Un proceso X(t) es un proceso estacionario estricto si para todo {t1, t2, . . . , tn}, las v.a (Xt1, Xt2 , . . . Xtn) tienen la misma distribución conjunta que (Xt1+h, Xt2+h, . . . Xtn+h) . P. E. estricto  P. E. débil, pero no al contrario, en general: P. E. débil ; no puede ser un P. E. estricto. Promedios estadísticos. Para un tiempo dado, un proceso aleatorio define una variable aleatoria; para un conjunto de tiempos dados, define un vector aleatorio. La media y la varianza son números determinísticos que dependen del tiempo. La media o esperanza de un proceso aleatorio X(t) es una función determinística del tiempo denotada mX(t), donde en un instante t0, la media del proceso corresponde a X(t0). De modo que mX(t)= E[X(t)] para toda t. 

 xf

E[X(t0)] = mx(t0) =

X 9 to )

( x)dx



Otro concepto importante es la función de auto-correlación, la cual describe la densidad espectral de potencia y el contenido de potencia de una gran cantidad de clases de procesos aleatorios. La función de autocorrelación de un proceso aleatorio X(t), denotado RX(t1, t2), está definido por RX(t1, t2)= E[X(t1) X(t2)]. Esto es:

R X (t1 , t 2 )  

 

x1 x2 f X (t1), X (t 2) ( x1 x2 )dx1dx2

La media y autocorrelación de un proceso estacionario se denotan mX y RX(τ). A partir de la definición de autocorrelación tenemos:

Dr. Víctor Hinostroza

21


Comunicaciones Digitales

RX (t1, t2) = Rx(t2 ,t1) RX(  ) = Rx(-  )

Figura 1.11 Momentos de un proceso estocástico La correlación cruzada entre dos procesos aleatorios X(t) y Y(t) está definida como: RX (t1, t2)= E(X(t1)Y(t2) En general:

RXY (t1, t2) = RXY (t2, t1)

Dos procesos aleatorios X(t) y Y(t) son conjuntamente estacionarios en sentido amplio, o simplemente, conjuntamente estacionarios, si tanto X(t1) y Y(t2) son estacionarios individualmente y la correlación cruzada RXY(t1, t2) depende tan solo de τ = t1 - t2. Tenemos así que: RXY(  ) = RXY(-  ) Recorrido aleatorio de estado discreto y tiempo discreto. Uno de los ejemplos más simples de un proceso estocástico es el recorrido aleatorio de estado discreto y tiempo discreto. En este caso, x(t) es una variable aleatoria que comienza con un valor conocido x0, y a los largo de los periodos t =1, 2, 3... va variando a razón de saltos unitarios hacia arriba o hacia abajo con una probabilidad asociada del 50% en cada caso. Como los saltos son independientes entre sí, la evolución de xt puede describirse mediante la siguiente ecuación:

xt 1  xt   t donde  t es una variable aleatoria con una distribución de probabilidad de: Dr. Víctor Hinostroza

22


Comunicaciones Digitales

prob (  t = 1) = prob (  t = -1) = 50% para t = 1, 2, 3, 4,… Denominamos a x(t) un proceso de estados discretos porque sólo puede tomar valores discretos. Así, si x0 = 0, para los valores impares de t, los posibles valores de x(t) son (-t, ...... , -3 , -1 , 1 , 3 , ...... , t) mientras que para los valores pares de t los valores de x(t) serían (-t, ...... , -4 , -2 , 0 , 2 , 4 , ...... , t). La distribución de probabilidad para x(t) procede de la distribución binomial (ver figura1.23). Para t pasos, la probabilidad de que haya n saltos hacia abajo y t-n hacia arriba es igual a:

 t  t t!  2  2 t n!(t  n)! n Así por ejemplo, la probabilidad de que para 4 pasos haya 3 saltos hacia abajo y uno sólo hacia arriba es igual a (ver figura 1.24).:

 4  4 4!  2  2 4  0.25  25% 3!(4  3)!  3 Por otro lado, la probabilidad de que xt tome el valor t-2n en el instante t es igual a:

t  Prob ( xt  t  2n)   2 t n Así, por ejemplo, la probabilidad de que x(4) = 4 - (2 x 3), es decir x(4) = -2 es igual al 25%. Para todos los demás valores las probabilidades se pueden ver en la figura 1.25. Observe que el rango de posibles valores que x t puede tomar aumenta con el valor de t, lo mismo que le ocurre también a la varianza de x t (tal y como se puede observar en la parte inferior de la figura 1.13). Por eso x t es un proceso no estacionario. Debido a que la probabilidad de un salto hacia arriba o hacia abajo es el 50%, en el momento t el valor esperado de x t es igual a 0 para cualquier valor de t. La generalización del proceso Con objeto de generalizar este proceso vamos a cambiar las probabilidades de los saltos hacia arriba o hacia abajo. Llamemos p a la probabilidad de ascenso, mientras que q (=1-p) será la de descenso. Si suponemos que p > q tendremos un recorrido aleatorio con tendencia (ascendente en nuestro caso al ser p > q). Para t = 0, el valor esperado de xt siendo t > 0 será superior a cero e irá aumentando conforme aumente t. Por tanto, para t pasos, la probabilidad de que haya n saltos hacia abajo y t-n hacia arriba es igual a:

Dr. Víctor Hinostroza

23


Comunicaciones Digitales

Fig. 1.12 La distribución de probabilidad para xt procede de la distribución binomial En al figura 1.13 Aquí se muestra un ejemplo para p = 75% y q = 25%. La línea roja indica la evolución del valor medio esperado que, como se ve, tiene una tendencia ascendente. También se aprecian las nuevas probabilidades de los valores de x(t) para t = 4; así como los valores de las varianzas en cada periodo (por cierto, observe algo interesante: la varianza aumenta proporcionalmente al tiempo t; la varianza para t=3 es igual a la de t=1 por 3, etcétera)

 t  t n n   p q n Otra forma de generalizarlo es dejar que el tamaño del salto en cada instante t sea una variable aleatoria continua. Por ejemplo, que siga una distribución normal de media cero y desviación típica σ. Entonces, diremos que x(t) es un proceso estocástico de estado continuo y tiempo discreto.

Dr. Víctor Hinostroza

24


Comunicaciones Digitales

Fig. 1.13 La combinación sólo se puede realizar 4 veces con una probabilidad unitaria del 6,25%

Proceso de reversión a la media Otro ejemplo de este último tipo de proceso estocástico es el denominado proceso auto regresivo de primer orden o AR(1), que viene dado por la siguiente ecuación: X(t) = α + βxt-1 + εt donde α y β son constantes, con –1 < β < 1, y εt es una variable aleatoria normalmente distribuida de media nula. Este proceso es estacionario, y x(t) tiene un valor esperado a largo plazo igual a α/(1-β), independientemente de cuál sea su valor actual (este valor se obtiene haciendo x(t) = x(t-1) = x en la ecuación anterior y despejando x). El proceso AR(1) se denomina también proceso de reversión a la media, porque el valor de x(t) tiende hacia su valor esperado a largo plazo. Hay muchos procesos en la vida diarias que siguen una “reversión a la media”, por ejemplo, la altura de las personas tiende a un valor medio, el arrojar una moneda al aire varias veces seguidas para contar las “caras” o las “cruces” tiende a un valor del 50% para cada una de ellas, los fondos de inversión con un buen comportamiento el año pasado tenderán a la media del mercado en años sucesivos, etcétera. Una expresión matemática que muestra este proceso es: x(t) = xt-1 – b[xt-1 – E(x)] + εt

Dr. Víctor Hinostroza

25


Comunicaciones Digitales

Figura 1.14 Los valores de Xt aumentan conforme aumenta t, asĂ­ como su varianza por lo que es un proceso no estacionario.

Figura 1.15 EvoluciĂłn del valor de la media y varianza

Dr. VĂ­ctor Hinostroza

26


Comunicaciones Digitales

donde E(X) es el valor medio esperado de la variable aleatoria X, y b es la velocidad con la que se aproxima el valor de la variable X a su valor medio (velocidad de ajuste, o porcentaje de la diferencia entre el valor de x y su valor esperado que se elimina en cada periodo de tiempo). De tal manera que si el valor de x(t-1) es superior al valor medio esperado, el valor de x(t) probablemente será inferior a dicha valor esperado. La expresión 5 se puede alterar convenientemente para que sea idéntica a la 4: x(t) = xt-1 - b xt-1 + b E(x) + εt x(t) = b E(x) + (1-b) xt-1 + εt x(t) = α + βxt-1 + εt, donde β es igual a (1-b) y α es igual a b E(x) En la figura 1.16 se muestra un ejemplo de este proceso. Para ello suponemos que una variable aleatoria, cuyo valor actual es 15, tiene un valor medio esperado de 20 y oscila con una desviación típica de 5. La velocidad de ajuste a su valor medio esperado es del 10%. Las ecuaciones representativas podrían ser: x(t) = x(t-1) – 0,1 [x(t-1) – 20] + N(0,5), o también, x(t) = 0,1 x (20) + (1-0,1) xt-1 + N(0,5) = 2 + 0,9 x(t-1) + N(0,5)

Figura 1.16 Reversión a la media con un valor inicial. En la figura 1.17 se muestra el mismo ejemplo pero con una velocidad de ajuste superior e igual al 75%, lo que hace que las oscilaciones sean más bruscas y comprimidas en el tiempo. Dr. Víctor Hinostroza

27


Comunicaciones Digitales

Figura 1.17 Reversión a la media con un valor inicial. Procesos de reversión a la media con saltos Una versión más sofisticada del proceso de reversión a la media analizado en el apartado anterior es hacer que el valor de la variable x sufra saltos en momentos del tiempo aleatorios. Por ejemplo, este tipo de modelos sirve para modelizar el comportamiento de los precios de la electricidad en un mercado libre (Leizpig Power Exchange LPX, por ejemplo). La ecuación del mismo es: x(t) = α + βxt-1 + εt + ηtφt El sumando ηtφt se encarga de modelizar los picos de los precios utilizando un proceso binomial simple. Así ηt, que indica si se produce o no el salto en el momento t, puede tomar un valor igual a la unidad con una probabilidad λ (es decir, se produce un salto) o tomar un valor nulo con una probabilidad 1-λ (no se produce el salto). Mientras que φt, que indica el tamaño del salto, sigue una distribución normal con una media (μφ) y una distribución típica (σφ). En la figura 8 se puede observar el resultado de la ecuación 6 para una simulación de un mes, por horas, de precios de la electricidad. 1.4 Modulación y de-modulación. Modulación es el proceso de preparar la señal para envió por un medio de transmisión, este proceso se puede llevar a cabo en banda base, es decir la banda de frecuencias original de la señal, ejemplo, una red de computadoras donde la señal se modula en banda base y así se transmite. O por medio de una translación de frecuencia se puede hacer en lo que se llama modulación pasa banda, en este caso existe una translación de frecuencia de una banda de frecuencias baja a una banda de frecuencias alta. Ejemplo, la señal de televisión en cable, se pasa de una señal de 6 MHz a una frecuencia desde 50 a 750 MHz según sea el canal asignado. La figura 1.10 muestra la operación de modulación y su contraparte la demodulación. En la modulación se pasa la señal de una banda base (baja frecuencia) a una Dr. Víctor Hinostroza

28


Comunicaciones Digitales pasa banda. (alta frecuencia) En la de-modulación se pasa la señal de una pasa banda (alta frecuencia) a una banda base. (baja frecuencia) Típicamente la modulación se lleva a cabo modificando alguna de las características de las señales; Amplitud, frecuencia o fase. Cuando modulamos en amplitud, la amplitud de la señal es el parámetro que usamos para modificar las características de la señal que se va a modular, llamada señal portadora porque es la señal que “porta” la información de la señal original. En la figura 1.18 la señal modulante (información) es la señal con ancho de banda ωm y la señal moduladora (portadora) es la señal con ancho de banda ωc.

Amplitud Modulación 2ωm

De-modulación ωm

Frecuencia Banda base

ωc Pasa banda

Figura 1.18 Proceso de modulación de-modulación. Modulación en amplitud. Modulación en amplitud es el proceso de cambiar la amplitud de una portadora de frecuencia relativamente alta de acuerdo a la amplitud de la señal modulante. (información) Con la modulación en amplitud la información se imprime sobre la portadora en forma de cambios de amplitud. La señal modulante puede tener la forma de la siguiente ecuación: vm (t )  Am sen( m t )

Donde Am es la amplitud máxima de la señal modulante y ωm es la frecuencia de esta señal. La señal portadora puede tener la forma de la siguiente ecuación: vc (t )  Ac sen( c t )

Donde Ac es la amplitud máxima de la señal portadora y ωc es la frecuencia de esta señal. Multiplicando las dos señales se obtiene la señal modulada en amplitud: La figura 1.19 muestra estas tres señales y su relación en el tiempo. En la figura 1.19 se puede ver que la onda modulante, modula a la onda portadora tanto en sus partes positivas como negativas, es decir, produce una señal con dos bandas laterales. A esta señal se le conoce como una señal modulada en amplitud con doble banda lateral. (AM-DSB) Es decir, cada frecuencia que se multiplique por la portadora producirá una frecuencia suma (fc

Dr. Víctor Hinostroza

29


Comunicaciones Digitales + fm) y una frecuencia diferencia. (fc - fm). Si no es una sola frecuencia la que modula, sino una banda de frecuencias entonces se tendrá una banda lateral a ambos lados de la portadora como se muestra en la figura 1.20. 1 0.8 0.6 0.4 0.2 0 -0.2 -0.4 -0.6 -0.8 -1

0

1

2

3

4

5

6

7

8

9

10

0

1

2

3

4

5

6

7

8

9

10

0

1

2

3

4

5

6

7

8

9

10

1 0.8 0.6 0.4 0.2 0 -0.2 -0.4 -0.6 -0.8 -1

1 0.8 0.6 0.4 0.2 0 -0.2 -0.4 -0.6 -0.8 -1

Figura 1.19 Las tres partes de una onda modulada en amplitud. La figura 1.21 muestra ejemplos de modulación en amplitud, de una onda cuadrada, de una onda triangular y de una onda diente de sierra. Tipos de modulación AM. Se observa en los ejemplos de modulación AM que vimos anteriormente que al modular en amplitud el ancho de banda resultante es el doble del ancho de banda de la información original, debido a la generación de dos bandas laterales que desafortunadamente contienen la misma información cada una de ellas. Por lo tanto, se han desarrollado técnicas para

Dr. Víctor Hinostroza

30


Comunicaciones Digitales reducir el ancho de banda necesario y de ahí han resultado varios tipos de modulación en amplitud, los cuales son los siguientes:

Multiplicación

fm

fc

f c - fm fc fc+ fm

Figura 1.20 Frecuencias laterales resultantes de la modulación en amplitud.

Banda lateral inferior

Banda lateral superior

fc Figura 1.21 Bandas laterales resultantes de la modulación en amplitud.

Modulación en amplitud con doble banda lateral. (AM-DSB) Este es el tipo de modulación que vimos en las paginas anteriores. En la cual al hacer la multiplicación de las dos señales se generan las dos bandas laterales de igual tamaño. Modulación en amplitud con banda lateral suprimida. (AM-SSB) Para evitar que se tenga que usar el doble de ancho de banda requerido se usa la modulación AM-SSB, en este tipo de modulación, por medio de un filtro se elimina una de las bandas laterales, después de la modulación y se usa una sola banda lateral, reduciendo por lo tanto el ancho de banda requerido. La figura 1.32 muestra un ejemplo de modulación AM-SSB. Modulación con banda lateral vestigial. (AM-VSSB) En este tipo de modulación se elimina solo parte de una de las bandas laterales, y se usa esa parte para modular información adicional. La figura 1.15 muestra un ejemplo de este tipo de modulación. Modulación en ángulo.

Dr. Víctor Hinostroza

31


Comunicaciones Digitales En este tipo de modulación la amplitud de la portadora es constante y la característica que contiene la información es el ángulo de la fase instantánea de la señal portadora. Existen dos variantes de este tipo de modulación, la modulación en frecuencia y la modulación en fase. La modulación ángulo se define por la siguiente ecuación: v(t )  A cos[ c t   (t )]

En donde A y ωc son constantes y la información esta contenida en φ(t) y es función de la señal moduladora. La modulación en frecuencia se obtiene variando la frecuencia instantánea de la portadora en función de la información. Si la señal moduladora es:

Vm t   Vm cos m t  la frecuencia de la señal portadora será:

   c  K f Vm cos m t  Donde ω = 2πf y

f  fc 

Kf 2

Vm cos m t   f c  f cos m t 

Aquí se observa que la variación de la frecuencia de la señal portadora es proporcional a la amplitud de la señal moduladora. Siendo que  

d el ángulo vale: dt

   dt  2  fdt  2   f c  f cos m t dt  2  f c  

 f sin 2f m t  2f m 

Resumiendo la señal modulada será:

  f VFM t   Vc cos 2f c t  sin 2f m t  fm  

Dr. Víctor Hinostroza

32


Comunicaciones Digitales

Frecuencia Modulante

Frecuencia portadora

6

Frecuencia modulada

1

6

0.8

5

4

0.6

4

0.4

2

0.2

3

0

2

0

-0.2 -2

-0.4

1

-0.6

-4

0 -0.8

-1

0

1

2

3

4

5

6

7

8

9

10

2

-1

0

1

2

3

4

5

6

7

8

9

10

1

0

1

2

3

4

5

6

7

8

9

10

0

1

2

3

4

5

6

7

8

9

10

0

2

4

6

10

12

14

16

18

0.4

0.8

1.5

-6

0.3

0.6 1

0.2 0.4

0.5

0.1

0.2

0

0

0

-0.2

-0.5

-0.1

-0.4 -1

-0.2 -0.6

-1.5 -2

-0.3

-0.8

0

1

2

3

4

5

6

7

8

9

10

7

-1

0

1

2

3

4

5

6

7

8

9

10

1

-0.4

0.6

0.8

6

0.4 0.6

5

0.2

0.4 4

0.2

3

0

0 -0.2

-0.2

2

-0.4

-0.4

1 -0.6

-0.6

0 -1

-0.8

0

2

4

6

8

10

12

14

16

18

20

-1

0

2

4

6

8

10

12

14

16

18

20

-0.8

8

20

Figuras 1.22 Ejemplos de modulación en amplitud (AM) Banda lateral superior

Figura 1.23 Modulación AM-SSB Modulación en fase. La modulación en fase se obtiene variando, en función de la información, la fase de la relación: v(t )  Vc cos c t   

Si la señal moduladora es: vm t   Vm sin m t 

Dr. Víctor Hinostroza

33


Comunicaciones Digitales Entonces:

   0  K pVm   sin m t  Banda lateral superior

Banda lateral inferior vestigial

Figura 1.24 Modulación de amplitud con banda lateral residual. La figura 1.25, muestra la señal moduladora y la señal modulada en frecuencia. 7

1

6

0.8 0.6

5

0.4

4 0.2

3

0

2

-0.2 -0.4

1 -0.6

0

-0.8

1

2

3

4

5

6

7

8

1

1.5

2

2.5

3

3.5

Figura 1.25 Señal modulada en frecuencia En general tenemos: VPM t   Vc cos c t   sin m t 

Hay que notar que esta ecuación se parece mucho a la ecuación de modulación en frecuencia. d Siendo que   el ángulo vale: dt



d   c   m cos m t  dt

la frecuencia será:

Dr. Víctor Hinostroza

34


Comunicaciones Digitales f  f c  f m cos m t 

6

1 0.8

5

0.6

4

0.4 0.2

3

0

2 -0.2 -0.4

1

-0.6

0 -0.8

-1

0

1

2

3

4

5

6

7

8

9

10

-1

0

1

2

3

4

5

6

7

8

9

10

Figura 1.26 Modulación en fase Otra vez la señal moduladora determina la fase instantánea de la señal portadora. La figura 1.26 muestra un ejemplo de modulación en fase. Espectro de una señal FM:

v(t )  cos(ct  sen mt ) Convirtiendo a :

cos(ct  senmt )  cos ct cossenmt   senctsensenmt  Entonces: cos( sen mt )  J 0 (  )  2 J 2 (  ) cos 2 mt  2 J 4 (  ) cos 4 mt  ......  ......  2 J n (  ) cos 2n nt  .......

y

sen( sen mt )  2 J1sen mt  2 J 3 (  ) sen3 mt  ......  ......  2 J 2 n 1 (  ) sen(2n  1) nt  ....... Entonces: v(t )  J 0 (  ) cos  c t  J1 (  )[cos( c   m )t  cos( c   m )t ]  J 2 (  )[cos( c  2 m )t  cos( c  2 m )t ]  J 3 (  )[cos( c  3 m )t  cos( c  3 m )t ]  ...................................

Dr. Víctor Hinostroza

35


Comunicaciones Digitales La figura 1.28 muestra una señal modulada en frecuencia, con diferentes índices de modulación. Se muestra tanto en el dominio del tiempo como en el de la frecuencia. Aquí se puede observar que al aumentar el índice de modulación se incrementa el ancho de banda de la señal modulada.

Figura 1.27 Funciones de Bessel

Dominio del tiempo

Dominio de la frecuencia

Índice de Modulación

m=0 ωc= 5ωm

Dr. Víctor Hinostroza

36


Comunicaciones Digitales

m = 0.5

m = 0.75

m = 1.0

m = 1.5

m = 2.0

Dr. VĂ­ctor Hinostroza

37


Comunicaciones Digitales

m = 2.5

m = 3.0

Figura 1.28 Señal modulada en frecuencia con diferentes índices de modulación.

m

f fm

f  K1Vm

donde:

1.5 Conceptos básicos 1.5.1 Correlación. Una herramienta útil en análisis de señales y sistemas es la correlación. La correlación obtiene la información sobre las señales en base a promedios temporales y su transformada de Fourier permite obtener funciones de densidad espectral de energía o potencia, dependiendo de las características de las señales y sistemas bajo estudio. Las herramientas basadas en correlación de señales y su transformada de Fourier, son usadas en el análisis de procesos. La correlación nos da una medida de la similitud entre dos señales. No existe la propiedad conmutativa, por lo que dadas dos señales x(t) e y(t) se definen dos correlaciones: 

RXY (t )  x(t ) * * y (t ) 

 x( ) y( )d

 

RYX (t )  y (t ) * *x(t ) 

 y( ) x( )d



Dr. Víctor Hinostroza

38


Comunicaciones Digitales La correlación es utilizada para diferentes señales, a continuación se muestran algunas de ellas. Correlación para señales de energía. La correlación entre dos señales de energía está dada definida por cualquiera de los las ecuaciones siguientes.

Las dos primeras ecuaciones están dadas para señales reales y las dos últimas para las señales son complejas. La única diferencia entre la convolución y la correlación es que en la convolución la señal se gira en el tiempo antes de comenzar los corrimientos y en la correlación el giro de la señal se omite. Entonces, para las señales de energía, existe una relación matemática simple entre convolución y correlación como sigue:

entonces si usamos la identidad

donde el símbolo * expresa complejo conjugado. Finalmente la correlación puede expresarse como el producto de dos funciones trasformadas.

Correlación en tiempo continúo para señales de potencia. La correlación entre dos señales de potencia se define como

Dr. Víctor Hinostroza

39


Comunicaciones Digitales Las dos últimas ecuaciones están dadas para señales reales y las dos primeras para las señales son complejas. Para dos señales periódicas cuyo producto tiene un periodo T, la forma general de la correlación para señales de potencia puede ser reemplazada por:

La razón de tener dos definiciones, una para señales de energía y otra para señales de potencia es que si aplicamos la definición para señales de energía a señales de potencia, el resultado seria infinito y si aplicamos la definición para señales de potencia a señales de energía, el resultado seria cero. Si se correlaciona una señal de energía con una de potencia se debe utilizar la formula de la correlación para señales de energía Auto-correlación. La correlación de una señal consigo misma se denomina autocorrelación: 

R XX (t )  x(t ) * *x(t ) 

 x( ) x(  t )d



La auto-correlación representa la similitud entre una señal y ella misma desplazada. El máximo de una auto-correlación se obtiene cuando no hay desplazamiento (t = 0). La autocorrelación es simétrica con respecto al origen, ya que Rxx(t)=Rxx(-t). La auto-correlación se usa ampliamente en el análisis de señales. Es especialmente útil en la detección o reconocimiento de señales enmascaradas por ruido agregado. La autocorrelación suele emplearse para encontrar periodos. Algunas propiedades de funciones de correlación. Las funciones de correlación cuenta con varias propiedades, a continuación se enumeran algunas de ellas. Simetría. Examinando la función de auto-correlación para argumentos negativos se tiene, Rf (-‫ = )خ‬lim 1/T ∫ Rf (-‫ = )خ‬lim 1/T ∫ Rf(-‫ = )ﺡ‬Rf *(‫)ﺡ‬

f*(t) f(t -‫ ) خ‬dt T/2 –T/2 f* (‫ ى‬-‫ )خ‬f(‫ )ى‬d‫ى‬ –T/2

T/2

Por lo tanto la parte real de Rf ( ‫ )ﺡ‬es una función par: y si f(t) tiene valores reales, se tiene que Sf(-ω) = Sf*(-ω).

Dr. Víctor Hinostroza

40


Comunicaciones Digitales

Figura 1.29 Ejemplos de correlación. Valor cuadrático medio. La función de auto-correlación Rf ( ‫ )ﺡ‬evaluada en ‫ = ﺡ‬0 es igual al cuadrático medio de la señal f(t). Rf ( 0) = lim 1/T ∫ Rf (0)=f2t

–T/2

f*(t) f(t) dt

T/2

Periodicidad. Si f (t+T) = f (t) para toda t, entonces Rf (‫ﺡ‬+T) = Rf (‫ )ﺡ‬para toda ‫ﺡ‬ La demostración se efectúa fácilmente efectuando las integrales y aplicando la definición de la periodicidad. 1.5.2 Convolución La convolución nos ayuda a determinar la respuesta que un sistema ejerce en una señal de entrada. Primero vamos a definir como se forma cualquier función o señal. Cualquier señal puede expresarse como una superposición de impulsos unitarios de diferentes amplitudes. Entonces matemáticamente podemos definir cualquier señal como:

Dr. Víctor Hinostroza

41


Comunicaciones Digitales

Sabemos que un sistema invariante en el tiempo no cambia su comportamiento con el tiempo, entonces la respuesta al impulso h(t) a una serie de impulsos desplazados δ (t- τ ) se puede expresar como h(t-τ ). Cuando esos impulso desplazado los afectamos por la amplitud de una señal f(t) podemos expresar una salida en términos de este impulso desplazado y la respuesta al impulso del sistema f1(t) [h(t) δ (t- τ )]= f1(t)h(t- τ ) =y1(t).Luego, podemos expresar la salida y(t) en términos de su respuesta al impuso y de su entrada si integramos todos los puntos de la función, así quedaría definida la “integral de la convolución para sistemas invariantes en el tiempo.”

o también con respecto a dos funciones invariantes en el tiempo:

Algunas relaciones de convolucion. La integral en la convolución tal como se presento anteriormente, rigen siempre que el sistema sea lineal e invariante con el tiempo. Además, si es causal (es decir físicamente realizable), entonces h(t) = 0 para todo t < 0 y no hay contribución a la integración en la ecuación para (t- :0 < (‫ﺡ‬ g(t) = ∫ f(‫ )ﺡ‬h (t - ‫ )ﺡ‬d‫ ;ﺡ‬t h(t) causal -∞ Ocurre a menudo que la entrada f(t), también satisface la condición f(t) = 0 para t<0, y la ecuación anterior se simplifica: g(t) = ∫ 1f(‫ )ﺡ‬h (t - ‫ )ﺡ‬d‫ ;ﺡ‬h(t) causal. 0 Propiedades de la convolución. A continuación se enumeran algunas propiedades útiles de la convolución. Ley conmutativa :

f1(t) * f2(t) = f2(t) * f1(t)

Figura 1.30 Ley conmutativa de la convolución Dr. Víctor Hinostroza

42


Comunicaciones Digitales Ley distributiva

f1 (t) [ f2 (t) + f3 (t) ] = f1 (t) + f2 (t) * f1 (t) + f3 (t)

Convolución que implica funciones de singularidad. La respuesta a un escalón unitario es la integral indefinida de la respuesta a un impulso unitario. Esto se muestra como sigue: ∞ ∞ u(t) * h(t) = ∫ u(‫ )ﺡ‬h (t - ‫ )ﺡ‬d‫ ∫ = ﺡ‬h (t - ‫ )ﺡ‬d‫ﺡ‬ 0 0 cambiando la variable de integración, sea x = t - ;‫ﺡ‬ u(t) * h(t) = ∫ t h (x) dx -∞

Figura 1.31. Ley asociativa de la convolución. Ley asociativa

f1 (t) [ f2 (t) * f3 (t) ] = [f1 (t) * f2 (t)* f3 (t)]

Las pruebas de estas propiedades se hacen a partir de las definiciones de la integral y los posibles cambios en el orden de integración. Este resultado da un método para determinar la respuesta a un impulso de un sistema en el laboratorio. Aunque técnicamente la función escalón unitario existe por siempre, la mayoría de los sistemas tiene una respuesta al impulso de duración relativamente corta. Si se usa un generador de ondas cuadradas de baja frecuencia, cuya razón de repetición es mucho mayor que la duración de la respuesta a un impulso del sistema, este, para todo propósito practico, percibe un escalón. Tras registrar la respuesta al escalón del sistema, puede tomarse la derivada del grafico de salida en función del tiempo. Esta será la respuesta del sistema a un impulso. La convolución como la función impulso unitario se hace a partir de las propiedades integrales de la función impulso: ∞ f(t) * ∂ ( t - t0 ) = ∫ f (‫( ∂ )ﺡ‬t- t0 - ‫ )ﺡ‬d‫ﺡ‬ -∞ = f ( t - t0 )

Dr. Víctor Hinostroza

43


Comunicaciones Digitales

Figura 1.32 Relaciones de convolución Por lo tanto, la convolución de una función son el impulso unitario, la produce exactamente aunque la retrasa (o adelanta) por el retraso (o adelanto) del impulso. Interpretación gráfica de la convolución. La interpretación grafica de la convolución permite visualizar los resultados de las más abstractas operaciones matemáticas. Supóngase que se quiere hallar la convolución de dos funciones dadas f1(t) y f2(t). Las operaciones que han de efectuarse se basan en la integral de la convolución: Primero se enumeran, paso a paso, las operaciones necesarias: 1. Reemplazar t por ‫ ﺡ‬en f1(t), quedando f1(‫)ﺡ‬. 2. Reemplazar t por (-f ne (‫ﺡ‬2(t). Esto hace girar a la función f2(‫ )ﺡ‬alrededor del eje vertical pasando por el origen del eje. 3. Trasladar todo el sistema de referencia de f2(-‫ )ﺡ‬en una cantidad t. (por lo que concierne a la integración, t no es mas que un parámetro). Entonces, la traslación t es la diferencia entre el sistema de referencia móvil y el fijo. El origen del sistema móvil esta en ‫ = ﺡ‬t; el origen fijo, en ‫ = ﺡ‬0. la función en el sistema móvil representa f2 ( t - f ,ojif ametsis le ne nóicnuf al ;(‫ﺡ‬1(‫)ﺡ‬. 4. En cualquier desplazamiento relativo entre los ejes de referencia, por ejemplo, t0 , debe hallarse el área bajo el producto de las dos funciones, 5. Este procedimiento debe repetirse para diferentes valores t = t0 desplazandoprogresivamente el sistema móvil y hallando los valores de la integral de convolucion en esos valores de t. Para funciones continuas esto puede hacerse por integración directa. Para funciones continuas por tanto, el producto será continuo por tramos y deberá integrarse sobre cada sección continuas. 6. Si el desplazamiento del sistema móvil es a loo largo del eje negativo ‫( ﺡ‬a la izquierda), t es negativo. Si es sobre el eje positivo ‫( ﺡ‬a la derecha), t es positivo. Ejemplo 1. Calcule la convolución de las siguientes funciones:

y

.

Solución: Usando la definición e integración por partes, tenemos que

Dr. Víctor Hinostroza

44


Comunicaciones Digitales

Ejemplo 2. Calcule la convolución de las funciones: y

.

Solución Usando la definición e integración por partes

Para calcular la integral

del ejemplo anterior, hemos usado la identidad

Otras identidades que pueden ser útiles en el cálculo de integrales similares son

Dr. Víctor Hinostroza

45


Comunicaciones Digitales 0 t 2− 0

t;0 f0≤t lt;1 1≤t t;2 t≥2

1.5.3 Densidad espectral En el procesamiento de señales y en física, la densidad espectral, ó la densidad espectral de la energía es una función real positiva de una variable aleatoria asociada con un proceso estocástico estacionario, o una función deterministica en el dominio del tiempo, que tiene dimensiones de potencia ó energía en Hz. La densidad espectral captura el contenido de la frecuencia de un proceso estocástico y ayuda a identificar periodicidades. En física, las señales son usualmente ondas, como una onda electromagnética, o una vibración aleatoria. La densidad espectral de la onda, es multiplicada por un factor apropiado, para determinar la energía llevada por la onda, en unidades de frecuencia. Esto es conocido como la Densidad Espectral de Potencia (PSD) o la Distribución Espectral de potencia (SPD) de una señal. Las unidades de la PSD son comúnmente expresadas en Watts por Hertz (W/Hz) ó Watts por Nanómetros (W/nm). Densidad espectral de energía. La densidad espectral de energía de una señal describe como la energía de una señal ó una serie de tiempo es distribuida con la frecuencia. Si f(t) es una señal de energía finita, la densidad espectral de la señal es el cuadrado de la magnitud de la transformada de Fourier de la señal. X T ( ) 

1 2

2

 f (t )e

it

dt 



F ( ) F * ( ) 2

Donde ω es la frecuencia angular y F(ω) es la transformada de Fourier continua de f(t) y F*(ω) es su complejo conjugado. Si la señal es discreta con valores fn sobre un numero infinito de elementos, la densidad espectral de la senal es. X T ( ) 

1 2

2

f

n  

n

e

it

dt 

F ( ) F * ( ) 2

Donde F(ω) es la transformada discreta de Fourier de fn. Densidad espectral de potencia La definición de energía espectral de potencia requiere que la transformada de Fourier de la señal exista, es decir, que la señal sea integrable. Una alternativa es la Densidad Espectral de Potencia, que describe como la potencia de la señal esta distribuida con la frecuencia. La

Dr. Víctor Hinostroza

46


Comunicaciones Digitales potencia puede ser la potencia física ó por conveniencia con señales abstractas , puede ser definido como el cuadrado del valor de la señal, esto es, la potencia actual de la señal si es aplicado un voltaje de carga de 1 ohm, Esta potencia instantánea es definida como: P  s(t ) 2

Puesto que una señal con potencia promedio distinta a cero no es integrable, la transformada de Fourier no existe para este caso. Afortunadamente, el teorema de WienerKhinchin provee una simple alternativa. La PSD es la transformada de Fourier la función de auto correlación R( ) , de la señal si la senal puede ser tratada como proceso estocástico estacionario. Esto nos da la formula, 

S ( f )   R( )e 2if d 

La potencia de la señal esta dada en frecuencia y puede ser calculada integrando sobre las frecuencia positivas y negativas. F2

 F1

F1

 F2

P   S ( f )df  

S ( f )df

La PSD de una señal existe si y solo si la señal es un proceso estacionario en el sentido amplio WSS. Si la señal no es estacionaria, la función de auto-correlación debe de ser una la función de dos variables, entonces la PSD no existe. Un proceso estocástico Z(t) es llamado estacionario en el sentido amplio si y solo si m z (t )  cons tan te Rz (t , s)  Rz (t  s)

Demostración Definamos X(t) como proceso aleatorio WSS. W(t), que tiene una media de potencia, dada en Watts por la constante E [| X(t)] 2|. El total de la media esta distribuido sobre el rango de frecuencias. Esta distribución de frecuencia esta descrita por Sx(ω), que es la densidad espectral de potencia. Sx(ω) es no negativo (Sx(ω)> 0) y, y para un valor real X (t), con paridad par (Sx(ω)= Sx(-ω)). Por lo tanto, la área bajo Sx es proporcional a la media de potencia X(t); que es 1 Potencia media en X (t )  2

 Sx( )d



Un proceso aleatorio X(t) no es absolutamente integrable, y T[X(t)] no converge para la mayoría de las aplicaciones prácticas, por lo tanto no podemos usar la definición |T[X(t)]|2 como el espectro de potencia, se utiliza como una función aleatoria generalizada en teoría de densidad espectral de potencia.

Dr. Víctor Hinostroza

47


Comunicaciones Digitales Tenemos una alternativa para el espectro de potencia, definamos T>0 denotando la longitud del intervalo con respecto a el tiempo, y definamos un proceso truncado  0, | t | T

X T (t )  X (t ), | t | T

Un proceso truncado puede ser representado como X T (t )  X (t )rect (t / 2T )

Donde rect(t/2T) es la longitud de la ventana, ver figura

La señal XT es completamente integrable, la transformada de Fourier FXT ( ) 

X

T

(t )e  jwt dt



Existe para cada valor de ω, FXT (ω) es una variable aleatoria, Ahora, el teorema de Parseval establece que 

T

2 2  | X T (t ) | dt   | X T (t ) | dt 

T



1 2

 | FX

T

( ) | 2 d



Ahora, dividimos ambos lados de la ecuación en 2T y obtenemos 1 2T

T

1 T| X T (t ) | dt  4T 2

 | FX

T

( ) | 2 d



El lado izquierdo es el promedio de potencia de una muestra particular XT donde XT es una variable aleatoria el promedio sobre toda la función esta dada por 2  1   1 T  2   E | X ( t ) | dt  E | F (  ) | d    T  XT  4T   2T T  Que lleva a 1 2T

2

T

1 T| X T (t ) | dt  4T  E[| FXT ( ) | }d 2

Dr. Víctor Hinostroza

48


Comunicaciones Digitales Como T → ∞, la lado izquierdo de la fórmula para el promedio de potencia de X(t) es 1 AvgPwr  2

2

| FXT ( ) | Limit T   [ E[ 2T }]d

la cantidad 2

| F ( ) | Limit Sx( )   [ E[ XT }] T  2T 

Esta ultima formula representa la cantidad de densidad espectral de un proceso X(t), el espectro de densidad de potencia Sx(ω) es un valor real, de una función no negativa. Si X(t) es un valor real el espectro de potencia es una función par de ω. Esta tiene unidades en Watts/Hz y muestra el rango de frecuencia donde se encuentra la potencia. Teorema de Wiener-Khinchine Este teorema asume que X(t) es un proceso estacionario WSS con auto- correlación Rx(ζ). El espectro de potencia Sx(ω) es la transformada de auto correlación de Fourier Rx(ζ). Recordemos que el espectro de potencia de una procesos reales (la demostración puede ser generalizada para incluir procesos aleatorios complejos) aleatorios X(t) es 2

| F ( ) | Limit Sx( )   [ E[ XT }] T  2T 

Donde X T (t )  X (t ), | t | T

 0, | t | T

Tomamos la transformada inversa de Fourier de S para obtener 1 T [ S ( )]  2 1

T 1 [ S ( )] 

2

Limit E | T [ X T ] | j  T   [ 2T ]e d

Limit 1 T   2T

T

T

 1 T E[ X (t1 ) X (t 2 )] 2 T

e



j ( t1 t 2  )

 d  dt 2 dt1 

Por teoría de la transformada de Fourier sabemos que 1 2

e

j ( t1 t 2  )

d   (t1  t 2   )



Dr. Víctor Hinostroza

49


Comunicaciones Digitales Si utilizamos esta propiedad, tenemos que Limit 1 T [ S ( )]  T   2T 1

T

T

  R(T

2

 T1 ) (T1  T2   )dt 2 dt1

T T

T 1[S ( )]  R( )

Esto es conocido como y utilizado como el teorema de Wiener-Khinchine: La transformada de auto-correlación de Fourier es el espectro de densidad que simbólicamente se escribe como. R( )  S ( )

Propiedades La densidad espectral de f(t) y la auto-correlación de f(t) forman un par de transformadas de Fourier. La densidad espectral es calculada usando las técnicas de la transformada de Fourier, pero existen otros métodos como el de Welch y el de entropía máxima. Uno de los resultados del análisis de Fourier es el teorema de Parseval el cual establece que el área bajo curva de densidad espectral de energía es igual a el área bajo el cuadrado de la magnitud de la señal, la energía total es: 



f (t ) dt   ( )d 2



Ejemplo 3. Considere la señal determinística X(t) = Aexp[j ω0y]. Está es una señal no real, entonces, esperamos no obtener de manera automática el espectro de potencia. Aplicamos una ventana rect(t/2T) a X(t) y obtenemos. X T (t )  Ae[ j 0 t ]rect[

t ] 2T

La transformada de Fourier de XT esta dada por FX T ( )  T [ Ae[ j 0 t ]rect[

t ]]  2 ATSa[(   0 )T ] 2T

Donde Sa(x)={sen(x)}/x, para T tenemos Sx( ) 

TSa 2 [(   0 )T ] | FXT ( ) | 2  2A 2 [ ] 2T 

Es resultado de la aproximación de espectro de potencia de X(t) es presentado por la figura 1.45, el área de esta gráfica es independiente de T, entonces

Dr. Víctor Hinostroza

50


Comunicaciones Digitales

TSa 2 (T )



d  1

También se puede utilizar las propiedades de la función delta y obtenemos 2

2 Limit | FXT ( ) | 2 Limit TSa [(   0 )T ] Sx( )   [ ]  2A [  2A 2 (   0 ) T  2T T    

Figura 1.33 Aproximación del espectro de potencia. Ortogonalidad El mecanismo actual que permite calcular la Transformada de Fourier está basado en otro concepto matemático, la ortogonalidad. Ortogonalidad significa que dos funciones no se traslapen, la suma de los valores obtenidos de su producto es igual a 0.

Figura 1.34 Espectro de potencia

Algunos tipos de funciones tienen la característica de ser ortogonales, esto es fácil verlo en detalle con ondas sinusoidales. Para se calcula la integral del producto de una función de onda sinusoidal de 2 Hz con otra de 3 Hz. Lo interesante del resultado, el cual esta dibujado a continuación, es que todos los valores son positivos, y si se suman todos los valores obtenidos

Dr. Víctor Hinostroza

51


Comunicaciones Digitales del producto de las 2 ondas el resultado es 0. Podemos ver el espectro de potencia en la figura 1.34. Las ondas sinusoidales son ortogonales porque se traslapan únicamente con ellas mismas. La multiplicación, lo cual indica la proximidad de los valores obtenidos en el producto. Este método se utiliza mucho para medir la similitud entre dos funciones.

Figura 1.35 Ortogonalidad de dos señales senoidales. 1.5.4 Ruido Se define como el proceso aleatorio mediante el cual señales indeseadas se agregan a la señal fuente en un sistema de comunicación. Hay varias fuentes de ruido entre las cuales se pueden mencionar las siguientes: 1) Ruido térmico. Ruido generado por la interacción de las moléculas en los materiales. Es decir, el movimiento libre de los electrones de las órbitas externas entre átomos. Se llama ruido térmico porque varia con la temperatura. Normalmente generado en componentes pasivos (resistencias, capacitores y bobinas) 2) Otra fuente de ruido es la utilización de componentes activos en los equipos de transmisión y recepción (transistores y circuitos integrados.) 3) Otra fuente de ruido es el llamado ruido atmosférico, ruido que proviene del espacio de diversas fuentes. 4) Ruido generado por el hombre. Las maquinas e instalaciones eléctricas de gran tamaño generan ruido de un rango muy diverso de frecuencias, este ruido influye en los sistemas de comunicación. Relación señal a ruido (SNR.) Relación que indica cuanto se acerca el valor del ruido respecto a la señal que se transmitió. Se indica con la división de la amplitud de la señal entre la amplitud del ruido en un sistema.

SNR 

s(t ) n(t )

Donde s(t) es el nivel de la señal y n(t) es el nivel del ruido Dr. Víctor Hinostroza

52


Comunicaciones Digitales

Calculo del ruido en una resistencia. Se ha encontrado experimentalmente que el voltaje del ruido en una resistencia, tiene una distribución de probabilidad de Gauss, con un ancho de banda finito df y un voltaje igual a: 2

v n  4kTRdf Donde T es la temperatura en grado Kelvin, k es la constante de Boltzmann k = 1.37*10-23 J/0K Figura de ruido. La figura de ruido se define como la cantidad de ruido adicional que un dispositivo, circuito o equipo agrega al ruido típico del sistema. 1.5.5 Decibeles. En sistemas de comunicación muy a menudo es necesario confrontar las relaciones entre las mediciones de varios niveles de señal y medir niveles exactos de señal a través de todo el sistema. Es deseable que los cálculos para determinar esas relaciones o cálculos exactos sean lo más simple posible para evitar la posibilidad de error. Para llevar a cabo esto se ha seleccionado un sistema de cálculo basado en el decibel. (dB) El decibel es una cantidad que indica una relación en lugar de una cantidad en sí, es decir, nos indica que una cantidad es 5 veces mayor que otra o que una cantidad es 10 veces mayor que otra. El dB es una relación entre dos cantidades que se miden con un mismo parámetro. Ej. Potencia o Voltaje. Cuando se consideran las condiciones normales en un sistema, se encuentra que una cantidad q1 es mayor que una cantidad q2 nos referimos a una ganancia de señal y cuando una cantidad q1 es menor a una cantidad q2 nos referimos a una pérdida de señal y como usamos valores logarítmicos (dB), un signo positivo indicará una ganancia y un signo negativo indicará una pérdida. Hay dos cosas importantes que recordar, 1) El dB es usado en un sistema para representar solamente pérdida o ganancia y 2) El dB siempre expresa una relación de cantidades y nunca una cantidad definida. Dado que los niveles de señal en los sistemas de comunicación son muy pequeños y están representados por relaciones en lugar de cantidades fijas, se hace necesario encontrar una forma de representar estos valores. La representación en Decibeles es una manera sencilla y que cubra una amplia gama de valores en una cierta escala. Atendiendo a esto se usan los valores en una escala logarítmica. Aunque esto parezca complicado, es una manera sencilla de representar valores muy dispares y con una exactitud aceptable. Así un valor en Decibeles es una representación logarítmica de una relación de dos valores. Para expresar ganancia de potencia directamente se usa esta ecuación:

Dr. Víctor Hinostroza

53


Comunicaciones Digitales

P2 P1 Para expresar ganancia de potencia en términos de voltaje y corriente se usan estas ecuaciones: Ganancia de potencia en dB  10 log 10

2

Ganancia de potencia en dB  10 log 10

V  V P2  10 log 10  2   20 log 2 P1  V1   V1

Ganancia de potencia en dB  10 log 10

I P2  10 log 10  2 P1  I1

  

2

 I    20 log 2    I1 

Con estas ecuaciones se puede expresar que la potencia es directamente proporcional a la corriente o al voltaje (P =V2 / R) o (P = I2 * R) ya que la resistencia (o impedancia) para sistemas de comunicación, es estándar, por lo tanto la resistencia es igual y desaparece de los términos. Otro estándar que se usa muy comúnmente es el de dBmV. Esta señal de referencia para mediciones de señal y representa una relación de una señal de un valor fijo de 1 miliVolt o 1*10-3 Volts y otra señal desconocida. Este es un valor de potencia ya que la impedancia o resistencia es fija. Por lo tanto 0 dBmV = 1 mV de señal a través de una resistencia fija, debido a que: V   1mV  0 dBmV  20 log 10  2   20 log   20 log(1)  1mV   V1 

Ejemplo. ¿Cuántos dBmV tendrá una señal que tiene un nivel de 20 mV? Solución: V Potencia en dBmV  20 log 10  2  V1

  20mV    20 log   20 log( 20) = 26 dBmV  1mV  

Enseguida se muestra la tabla 2.1 de conversión de dBmV a mV, para mostrar la relación entre estas dos cantidades e ilustrar más su uso:

Tabla 1.1. Conversión de dBmV a miliVolts dBmV -40 -39 -38 -37

Dr. Víctor Hinostroza

mV 0.01 0.01 0.01 0.01

dBmV -9 -8 -7 -6

mV 0.35 0.4 0.45 0.5

dBmV 22 23 24 25

mV 12.59 14.13 15.85 17.78

54


Comunicaciones Digitales -36 . . . . .

0.02 . . . . .

-5 . . . . .

0.56 . . . . .

26 . . . . .

19.95 . . . . .

-12 -11 -10

0.25 0.28 0.32

19 20 21

8.91 10 11.22

50 51 52

316.23 354.81 398.11

Otras definiciones de valores logarítmicos dBc dBi dBm

dB relativo a la potencia de la portadora dB Ganancia con respecto a una antena isótropica dB referido a un miliwatt

1.6 Capacidad de canales de información En todo proceso de comunicación siempre tenemos que usar un medio físico para transmitir los datos del origen al destino. Este medio físico es lo que denominamos canal.

Figura 1.36 Canal de comunicación. Idealmente, el estado físico a la entrada del canal determina una única salida. Sin embargo el canal nunca estará totalmente aislado del exterior, y siempre se introducirá ruido aditivo, que altere de forma aleatoria los datos que viajan por el canal en mayor o menor medida. Debido a ello una misma entrada en el canal puede producir diferentes salidas, cada una de ellas con una determinada distribución de probabilidades condicional P(Y/X), y entradas diferentes pueden tener la misma salida, lo que las hace indistinguibles. De esta forma la estimación de la entrada que haga el destino en función de la salida siempre tendrá una probabilidad de error no nula. Veremos que codificando de forma adecuada cada símbolo fuente en secuencias de símbolos de canal Xn (codificador de canal) con suficiente redundancia podemos estimar Xn a partir de Yn, con una probabilidad de error tan baja como se quiera. Este nivel de redundancia mínimo lo determinará la capacidad del canal, según demostrará Shannon en su teorema de codificación.

Dr. Víctor Hinostroza

55


Comunicaciones Digitales Una primera idea intuitiva de lo que conocemos por capacidad de un canal podría ser cual es el máximo de información que podemos transmitir por el canal por cada uso que hacemos de él (o dicho de otro modo, cuál es la mínima redundancia que debe tener los símbolos de canal) para tener controlada la probabilidad de error. Observemos que esta medida sería directamente proporcional a la velocidad de transmisión de información, pues para un mismo canal, con el mismo ancho de banda, la tasa de símbolos de canal que se pueden enviar por unidad de tiempo es fija. 1.6.1 Modelos matemáticos de un canal de comunicación. En el diseño de un canal de comunicación, es conveniente construir modelos matemáticos del canal de comunicación que reflejen las características más importantes del medio de transmisión. En lo siguientes parágrafos se muestra una descripción breve de los modelos matemáticos mas usados para describir muchos de los medios físicos usados en la practica. El canal con ruido aditivo. El modelo matemático más simple es el modelo del canal con ruido aditivo. Como se ilustra en la figura 1.47. En este modelo la señal transmitida s(t) es corrompida por un proceso aleatorio de ruido aditivo n(t) El canal de filtro lineal. Otra forma de caracterizar el canal de comunicación es por medio de un filtro, normalmente un filtro pasa bajos, que simbolizan características que tienen ciertos medios de comunicación, como el cable de par trenzado, que tienen una respuesta a la frecuencia similar a la de un filtro pasa bajos. La figura 1.37 simboliza un canal de este tipo.

Canal

s(t) +

r(t) = s(t) + n(t)

Canaln(t)

Figura 1.37 Modelo de un canal con ruido aditivo. El canal con filtro lineal variante en el tiempo. Ciertos tipos de medios físicos, como la propagación por medios atmosféricos, tienen características variantes en el tiempo. Este tipo de medios puede ser modelados por un canal con filtro lineal variante en el tiempo. Los filtros variantes en el tiempo son caracterizados por la respuesta al impulso h(τ; t) donde h(τ; t) es la respuesta del canal en le tiempo t, debido a un impulso aplicado en el tiempo t -. La figura 1.38 ilustra este modelo.

Dr. Víctor Hinostroza

56


Comunicaciones Digitales

s(t)

Filtro lineal h(t)

+ r(t) = s(t)*h(t) + n(t) n(t)

Figura 1.38 El canal de filtro lineal con ruido aditivo.

r (t )  s(t ) * h( , t )  n(t ) 

 h( ; t )s(t   )d  n(t )



s(t)

Filtro lineal variante en el tiempo h(t)

+ r(t) n(t)

Figura 1.39 Modelo de un canal con filtro lineal variante en el tiempo. 1.6.2 Caracterización de Canal Canales discretos. Sistemas que dado un símbolo a la entrada ofrecen uno a la salida y vienen caracterizados por: o o o

Ax alfabeto finito de entrada, con |Ax| = n. Ay alfabeto finito de entrada, con |Ay| = m. Q Matriz estocástica de probabilidades condicionales: da el conjunto de valores P(y/x) que expresan la probabilidad de observar a la salida el símbolo y dado que se envió x. También se puede dar gráficamente mediante un diagrama de transiciones, figura 1.51

Canales sin memoria. Un canal es sin memoria si la distribución de probabilidades de la salida solo depende de la entrada actual en el canal y es independiente de entradas anteriores al canal. Sólo estudiaremos canales discretos sin memoria, que quedan caracterizados totalmente por la matriz Q.

Dr. Víctor Hinostroza

57


Comunicaciones Digitales Capacidad de un Canal En un canal discreto sin memoria se define la capacidad de canal como:

Figura 1.38 Diagrama de transiciones

Como ya se vio anteriormente al hablar de información mutua, I(X;Y) nos dice la información que conocemos del símbolo de entrada X por cada símbolo de salida Y, es decir la información que hacemos llegar a la salida desde la entrada del canal cada vez que hacemos uso de él. Lo que nos queda de información de X -es decir H(X/Y)=H(X)-I(X;y)por conocer tendremos que "estimarlo", y en esa estimación es donde se puede producirse el error. Como I(X;Y) depende de la fuente que nos de una distribución u otra de X, definimos la capacidad abstrayendo el hecho de que el canal esté conectado a una fuente u otra, viendo la relación entre X e Y para la fuente que mejor aprovecha el canal (la que consigue transmitir más información por cada símbolo de canal). Canal binario sin ruido En este caso X=f(Y) I(X;Y)=H(X); y entonces:

Máximo que se alcanzará para una distribución uniforme de X. Al estar el canal libre de error es lógico que cada símbolo de canal pueda transmitir la máxima información posible, que para símbolos binarios, como los de este canal es un bit. En un canal ideal podemos transmitir información con probabilidad de error nula y sin ninguna redundancia. Dr. Víctor Hinostroza

58


Comunicaciones Digitales

Figura 1.40 Ejemplo de canal binario Canal ruidoso con salidas no traslapadas

Figura 1.41 Ejemplo de canal ruidoso Como antes X=f(Y)

C=1 bit/símbolo

Este canal también está libre de errores pues dada la salida, solo una entrada puede haberla provocado. De ahí que su capacidad sea, como en el caso anterior, de 1 bit por uso del canal.

Dr. Víctor Hinostroza

59


Comunicaciones Digitales

Figura 1.42 canal binario simétrico Canal Binario Simétrico También se le denomina BSC (binary simmetric channel)

Valor máximo que se consigue para una distribución uniforme de X, puesto que consigue una distribución uniforme de Y. Observación: P(error) = P(X=x0) P(Y=y1/X=x0) + P(X=x1) P(Y=y0/X=x1) = p P(X=x0) + p P(X=x1) = p H(P(error)) = H(p) En la expresión de la capacidad vemos como H(p) resta bits de información, resultado perfectamente coherente con el hecho de que H(p) es precisamente la entropía de la probabilidad de error. Cuanto más impredecible sea el error menor será la capaciadad del canal. o o

En el caso p=0 (ó p=1) estamos en el caso ideal de canal sin ruido. En el caso p=1/2 tenemos C=1-1=0 bits. En este caso la salida del canal sería totalmente aleatoria y no dependería de la entrada; es equivalente a que no exista el canal. Por esta razón no podemos transmitir ninguna información por el canal.

Dr. Víctor Hinostroza

60


Comunicaciones Digitales

Figura 1.43 canal binario con borrado '?' es el símbolo de borrado. Se denomina así porque cuando lo obtenemos a la salida no aporta ninguna información sobre la entrada del canal, pues p(x0/?) = p(x1/ ?) Veamos como afectan los símbolos de borrado a la capacidad del canal:

Alcanzando el máximo cuando la distribución de X es uniforme. En este ejemplo la capacidad del canal es precisamente de 1 bit (la máxima información que pueden tener los símbolos binarios del canal) menos la tasa de símbolos de borrado que recibo. Canal Simétrico. Un canal discreto sin memoria es simétrico si y solo si:  

Las filas de la matriz Q son permutaciones entre sí, y Las columnas de Q son permutaciones entre sí

Un canal discreto sin memoria es débilmente simétrico si y solo si:  

Las filas de la matriz Q son permutaciones entre sí, y Las columnas suman lo mismo

Teorema de Codificación de Canal El teorema de codificación de canal nos va a mostrar qué codificadores es posible usar para transmitir información por un determinado canal de manera fiable. Sin embargo, dado que los canales son ruidosos, podemos conseguir una codificación de canal cuya Perror tienda a cero. El teorema de Shannon nos mostrará que dada la capacidad del canal, la respuesta

Dr. Víctor Hinostroza

61


Comunicaciones Digitales depende sólo del caudal de información (por símbolo de canal) que inyectemos a éste, o dicho de otro modo, de lo redundantes que sean los símbolos que inyectamos al canal. Por Ejemplo 2. Si mediante un canal queremos transmitir símbolos de una fuente con un alfabeto de 26 símbolos equiprobables, la probabilidad de error será 1/2. Pero si codificamos esa fuente en 13 símbolos de canal bien elegidos, (por ejemplo: A,C,E,...,Y.) cada una de esas entradas nos dará un conjunto de salidas disjunto del conjunto de salidas de cualquier otra entrada. Podemos distinguir con una Perror = 0 a la salida del canal, cual es la entrada. Suponiendo que A,C,E,...,y son equiprobables estamos consiguiendo Perror = 0 con un caudal de información de log2 (13 bits/símbolo) Esto mismo que hemos hecho lo podemos hacer para cualquier canal si codificamos cada símbolo fuente mediante una secuencia de símbolos de canal lo suficientemente larga.

Figura 1.44 Canal con baja probabilidad de error Sea un canal binario simétrico con probabilidad de error de 10-3. Mediante un codificador de canal, voy a corresponder cada símbolo de fuente con una palabracódigo muy larga. En principio cualquier Yn es posible, pero según el principio de equipartición asintótica, todos los bits de Yn serán iguales a los de Xn menos Pen=10 bits que serán erróneos. (Secuencias típicas de Yn dado que a la entrada tenemos Xn. Estas secuencias pertenecerán con probabilidad uno a este subconjunto cuando n crece hasta infinito. Si codificamos una fuente binaria como palabra código de 104 bits: W1 ---> 000000...0 W2 ---> 111111...1 Es posible decodificar perfectamente que secuencia se mandó, aunque tenga diez errores, con una Perror totalmente despreciable. Sin embargo, aunque sea posible

Dr. Víctor Hinostroza

62


Comunicaciones Digitales decodificar, la eficiencia de de este sistema sería es muy pobre. Suponiendo que W1 y W2 son equiprobables, el resultado sería

Si el canal fuese de 64 Kbps, el caudal sería de tan solo 6.4 bits por segundo. Cadencia de un codificador: R

donde M es el número de símbolos a la entrada del decodificador y n es la longitud de las palabras código de la salida del decodificador. Este parámetro nos mide la eficiencia de un codificador, dándonos la tasa de bits por símbolo de salida que obtendríamos si nuestra fuente de produjese M símbolos equiprobables (fuente con máxima entropía o cantidad de información). En general, con cualquier canal, para una secuencia de entrada tendremos un conjunto de salidas típicas Yn. Todas estas secuencias son de similar probabilidad, dado que a la entrada tenemos Xn secuencias conjuntamente típicas. Para decodificar sólo tendremos que agrupar las secuencias Yn posibles en esos conjuntos, y estimar el mismo símbolo origen para cada conjunto. Según el principio de equipartición asintótica esta estimación tendrá una P e despreciable. Para poder realizar este decodificador, los conjuntos deben ser disjuntos, ya que si no fuera así no podríamos decidir según el mismo criterio: La propiedad de equipartición nos dice que cada secuencia X1n que se envié por el canal tendra 2n(H(Y/Xn=X1n)) salidas posibles. En media cada conjunto de salidas conjuntamente típicas tendrá 2nH(Y/X) elementos y nos encontraremos 2nH(Y) salidas posibles en total. En este caso para codificar W símbolos tenemos que encontrar W grupos disjuntos de secuencias conjuntamente típicas.

Sólo podemos enviar 2nI(X;Y) secuencias de longitud n que pueden ser distinguidas a la salida con una Pe tan pequeña como queramos. Si obtuviésemos un codificador que cumpliese

Estas relaciones nos indican que no podemos transmitir con una cadencia mayor que la información mutua entre X e Y para tener una comunicación libre de errores. Tenemos por Dr. Víctor Hinostroza

63


Comunicaciones Digitales tanto, un compromiso entre velocidad de transmisión, compresión de la información (R alto) y comunicación libre de errores.

Problemas resueltos Unidad I:

1. Para cada una de las siguientes funciones g(t) graficar; g(t/4) , g(-2t), g(t-1) y g(t)/4 g (t)

g (t) 2

1

-1

2

-2

Solución: g (t/4)

g (t/4) 2

1

-4

8

-8 g (-2t)

g (-2t) 2

1

1/2

Dr. Víctor Hinostroza

-1

1

64


Comunicaciones Digitales

g (t-1)

g (t-1) 2

1

2

1

g (t)/4

g (t)/4 1/2

1/4

1

1

3. Se tiene una señal con las siguientes características: f(t) = 1 cuando t < -1, Graficar:

f(t) =- t cuando -1≤ t ≤,1

a) -4f(2t )

f(t) = -1 cuando t > 1

b) -5f(t)

c) 2f(4(t -3))

Solución: similar al anterior 4. Si g(t) =2x2-4x+8, simplifique cada función a. g(z) d. g(jt)

b. g(u+v) c. g(ejt) e. g (( jt  3)  ( g ( jt  3) / 2) / 2

Solución: a) g(z) = 2(z)2 -4(z) + 8 = 2z2 -4z +8 b) g(u + v) = 2(u + v)2 -4(u + v) +8 = 2u2 + 2v2 – 4u – 4v +8 c) g(ejt) =2(ejt)2 - 4(ejt) + 8 = 2(ej2t)-4(ejt) +8 = (etj -2)2 d) 5. Encontrar las partes pares e impares de la función g(t) = 4t2 - 5t + 8 Solución: Parte par gpar(t) = {g(t)+ g(-t)}/2

Dr. Víctor Hinostroza

Parte non gnon(t) = {g(t)- g(-t)}/2

65


Comunicaciones Digitales gpar(t) = [(4t2 - 5t + 8) + (4t2 + 5t + 8)]/2 = 4t2 +8 gnon (t) = [4t2 - 5t + 8) - (4t2 + 5t + 8)]/2 = -5t 6. De la señal modulada en ángulo xc(t) = 10cos[(106)πt + 5sen2π(103)t] Encontrar la máxima desviación en fase y frecuencia. Solución: El índice de modulación de una señal modulada en ángulo es Φ(t) = β sen (ωmt ) Para la desviación en frecuencia: En este caso β=5 Por lo que

Para la desviación en fase:

   dt  2  fdt  2   f c  f cosmt dt  2  f c  

 f sin 2f mt  2f m 

o 286 grados. 7. Un amplificador tiene como entrada una señal de 26.6 miliWatts y como salida una señal de 60 dBm, ¿Cuál es la ganancia del amplificador? Solucion: Pent = 26.6 milliwatts

Psal = 60 dBm

Primero hay que convertir la entrada a dBm’s

Como ya la entrada y la salida del amplificador están en dBm’s solo hay que hacer la resta para encontrar la ganancia. Ganancia = Psal - Pent = 60 – 14.24 = 45.75 dB’s o 37670 8. Graficar la correlación para cada uno del siguiente par de señales. Dr. Víctor Hinostroza

66


Comunicaciones Digitales

x1(t) = 6 sen(12πt) , x2(t) = 5 sen (12πt) Solución: Ambas funciones tienen la misma frecuencia, así que la solución tendrá una frecuencia igual.

R12(τ) = -15 sen(12πτ) La grafica es una onda senoidal. 9. Considere la señal modulada en ángulo xc(t) = 10 cos [2π(106)t + 0.1 sen (103)πt] Encontrar la máxima desviación de fase y de frecuencia. Solución: similar al problema 6.

Problemas Unidad I. 2. Hacer la gráfica resultante de las siguientes funciones continuas: a) 3sen(1x103πt)*cos(1x102πt) b) e-3tsen(3πt) c) 4tsen(102πt) d) e-tt 3. Para cada una de las siguientes funciones g(t) graficar; g(-t) , -g(2t), g(t-3) y g(t/2)

Dr. Víctor Hinostroza

67


Comunicaciones Digitales

g (t)

g (t) 3

2

-2

3

-3

3. Se tiene una señal con las siguientes características: f(t) = 1 cuando t < -1, Graficar:

a) -5f(t - 5)

f(t) = t cuando -1 ≥ t ≤,1

f(t) = -1 cuando t > 1

b) 3f(-t)

c) 2f(2(t + 1))

9. Si g(t) =x2-3x+4, simplifique cada función a. g(z) d. g(jt)

b. g(u+v) c. g(ejt) e. g (( jt  3)  ( g ( jt  3) / 2) / 2

10. Encontrar las partes pares e impares de la función g(t) = 4t2 - 5t + 8 11. De la señal modulada en ángulo xc(t) = 10cos[(108)πt + 5sen2π(103)t] Encontrar la máxima desviación en fase y frecuencia. 12. Un amplificador tiene como entrada una señal de 2 miliWatts y como salida una señal de 30 dBm, ¿Cuál es la ganancia del amplificador? 13. Graficar la correlación para cada uno del siguiente par de señales. x1(t) = 6 sen(12πt) , x2(t) = 5 sen (12πt) 10. Si g(t) =7e-2t-3, simplifique cada función a. g(3) d. g(jt)

b. g(2-t)

c. g(t/10+4)

e. g (( jt  3)  ( g ( jt  3) / 2) / 2

9. Para cada una de las siguientes funciones g(t) graficar; g(-t) , -g(t), g(t-1) y g(2t)

Dr. Víctor Hinostroza

68


Comunicaciones Digitales g (t) 4

g (t)

3

-2

-3

10. Cual será la longitud de onda de las siguientes frecuencias: 1 kHz, 290 MHz y 2.8 GHz ¿Cual será el tamaño de la antena para cada una de estas frecuencias, sí el mínimo tamaño de antena para transmitirlas eficientemente es 1/10 de la longitud de onda? 11. Encontrar las partes pares e impares de la funciones a. g(t) = 2t2 - 3t + 6

b. g(t) = 20 cos(40πt – π/4)

c. sinc(t)

d. g(t) = t(2-t)(1+4t)

12. Una señal de televisión de 540 MHz se envía por un cable coaxial. La señal llega a su destino después de viajar X Kilómetros en el cable y le toma 3000 longitudes de onda viajar esa distancia. La velocidad de las ondas en el cable es 75% de la velocidad de la luz. ¿Cuál es la distancia X recorrida? 13. Grafique las partes pares e impares de la siguientes funciones g (t) g (t) 1 1 1 -2

2

-1

14. La distancia entre la tierra y un satélite artificial es de 30,000 Km. Cual será la frecuencia de una señal, si son necesarias 1* 109 longitudes de onda para que esta señal viaje entre el satélite y tierra. 15. Una función g[n] esta definida por

Dr. Víctor Hinostroza

69


Comunicaciones Digitales   2, n  4   g[n ]  n,  4  n  1  4  , 1 n n

Gráficar

a. g[-n]

g[2 - n]

c. g[n/2]

16. Graficar la correlación para cada uno de los siguientes pares de señales. a. x1(t) = 6 sen(12πt) , x2(t) = 5 sen (12πt) b. x1[n)] = 6 sen(12πn/12) , x2[n] = 5 sen (12πn/12) c. x1(t) = 6 sen(12πt) , x2(t) = 5 sen (12πt-π/4) 17. Encontrar la auto-correlación de la siguiente senal x1(t) = 5 sen(24πt) - 2 cos (18πt) 18. Encontrar la densidad espectral de potencia de las siguientes señales. a. x[n] = Aδ[n-n0]

b. x(t) = e-100tu(t)

δ

19. hacer la gráfica resultante de las siguientes funciones continuas: i. 5sen(5x106πt)*2cos(4x104πt) ii. e-tsen(2πt) iii. t*4sen(104πt) iv. e-t*2t

20. Cual es la gráfica resultante de la correlación de dos señales triangulares. 21. Cual es la gráfica resultante de la convolución de dos señales triangulares. 22. Hacer la expansión de serie de Fourier de las siguientes funciones: Sen (t) +sen (5t) │Sen 2πf0t│ 23. Un amplificador tiene como entrada una señal de 2 miliWatts y como salida una señal de 30 dBm, ¿Cuál es la ganancia del amplificador?

Dr. Víctor Hinostroza

70


Comunicaciones Digitales 24. Cuantos amplificadores se necesitaran para cubrir con fibra óptica un enlace de Ciudad Juárez a Torreón, si la pérdida de la fibra óptica es de .15 dB/Km y cada amplificador tiene una amplificación de 35 dB. 25. Una señal con amplitud modulada se compone de dos señales; la moduladora que es una onda cuadrada binaria con las siguientes características, un uno lógico se representa con +5 Voltios y un cero lógico se representa con +2.5 Voltios. La señal portadora en una onda senoidal con una amplitud de 10 Voltios de pico a pico ¿Cual es el índice de modulación de la señal modulada? 26. Convertir a decibeles (dBm’s) las siguientes cantidades, con respecto a un valor de 1 miliwatt: 10, 100, 1x105, 15647 .125, 1.267, 123.6867, 1x10-12 27. Una señal m(t) tiene un ancho de banda ωm. Esta señal se traslada en frecuencia multiplicándola por la señal cos ωct. Encontrar el valor de ωc tal que el ancho de banda de la señal transmitida es 1% de la frecuencia de la portadora ωc . 28. Considere la señal modulada en ángulo xc(t) = 10 cos [2π(106)t + 0.1 sen (103)πt] Encontrar la máxima desviación de fase y de frecuencia. 29. Una portadora es modulada en ángulo con la suma de dos señales senoidales xc(t) =A cos(ωct + β1 sen ω1t β2 + senω2t) donde ω1 y ω2 no están relacionadas harmónicamente. Encontrar el espectro de xc(t). 30. Considere la señal modulada en ángulo xc(t) = 10 cos (2π108t + 200 cos 2π103t) Encontrar la máxima desviación de fase y de frecuencia. 31. Considere la señal modulada en ángulo xc(t) = 10 cos [2π(106)t + 0.1 sen (103)πt] Encontrar la máxima desviación de fase y de frecuencia.

Dr. Víctor Hinostroza

71


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.