36 MIGUEL ÁNGEL LAGUNAS HERNÁNDEZ
5. El máximo de la información mutua Para derivar el máximo de I(X;Y) asumiremos el caso de un canal lineal caracterizado por la matriz Hc y con ruido gaussiano aditivo de matriz de autocorrelación R0. En estas condiciones, el vector recibido Y también será gaussiano; la expresión (18) se reduce a (21), considerando que Y es igual HX+W, siendo W el vector de ruido más interferencia en el receptor. æ det R ö -1 y ÷ = Lnéêdet I + R0 H c Rx H cH ùú I ( X N ;Y N ) µ Lnçç ÷ ë û è det R0 ø H -1 =Ln éëdet I N + Rc Rx ùû con Rc = H c R0 H c
(
(
)
)
(21.a) (21.b)
Esta expresión es, por decirlo de algún modo, la versión matricial de la formulada para la capacidad de la fórmula de Shannon dividida por el ancho de banda. Nótese que el segundo término es como una SNR, dado que ruido e interferencia juegan el papel de denominador, pues su matriz es la inversa. El resto no es más que la señal que llega al receptor después de atravesar el canal de transmisión. En (21.b) se comprime aún más la formula, siendo evidente que la información mutua solo depende del canal, la señal transmitida y el ruido y/o interferencia. Finalmente, existe una diferencia con la ecuación de Shannon, y es que la información mutua no muestra el ancho de banda de transmisión; es decir, si la medida de C (usando log2) eran bps (bits por segundo), como se ha mencionado previamente, las unidades de la información mutua serán bits por segundo por Hz, como ya se ha dicho. La expresión de la información mutua revela que, al contrario de la potencia que reside en la traza de la matriz de covarianza o autocorrelación de la señal transmitida,- la calidad del sistema reside, en cierto modo, en su determinante. Además, de nuevo esta calidad o velocidad de transmisión crece logarítmicamente con la potencia, lo que equivale a que la capacidad crece linealmente con el ancho de banda y logarítmicamente con la SNR recibida.