Econometría, Apuntes del Método de los Mínimos Cuadrados Ordinarios Equipo T-Económica Edición corregida y aumentada.
Contenido 1.
Modelo Bivariado ...............................................................................................................................2 1.1.
Método de los Mínimos Cuadrados Ordinarios (MCO). ............................................2
1.1.1.
Propiedades algebraicas ................................................................................................6
1.1.1.1. Bondad de ajuste del modelo .................................................................................9 1.1.2.
Propiedades estocásticas ............................................................................................ 10
1.1.2.1. ¿qué hay de
? ......................................................................................................... 16
1.1.3.
Estimador de la varianza
1.1.4.
Inferencia en el modelo bivariado .......................................................................... 20
1.1.4.1. Inferencia para
...................................................................................... 18
.................................................................................................... 21
1.1.4.2. El elipsoide de confianza ...................................................................................... 24 2.
Referencias ......................................................................................................................................... 26
3.
Anexos .................................................................................................................................................. 27 3.1.
Propiedad algebraica de la covarianza ......................................................................... 27
3.2.
Propiedad algebraica de la varianza .............................................................................. 27
Modelo Bivariado
Economistas y llegados por esa vía a esto de los datos: la discusión de R, Python y Stata es de segundo orden. Pónganse a estudiar teoremas y a entender problemas económicos. Decidan si quieren formarse como actores de la causa o como sus eternos asistentes de investigación. Walter Sosa Escudero
1. Modelo Bivariado Suponga que usted desea comprobar la validez de la hipótesis keynesiana del consumo, hipótesis que dice lo siguiente 0 < =
+
<1
+
(1.1)
para el cual, se tiene un conjunto de datos del consumo e ingresos ( , ). El método de los mínimos cuadrados ordinarios (MCO) permitirá contrastar la validez estadística de tal hipótesis planteada. Este método, es un método simple de estimación puntual de parámetros, el cual goza de algunas propiedades deseables que iremos analizando a lo largo de estos apuntes. 1.1. Método de los Mínimos Cuadrados Ordinarios (MCO). Supongamos que existe una relación subyacente entre las variables ( , ), de la siguiente forma =
+
+
= [ | ]+
, [ | ]=
+
(1.2)
A la relación (1.2) se le denomina función de regresión poblacional (FRP), puesto que es la verdadera relación que subyacente entre las variables ( , ). Sin embargo, esta relación no es observable directamente, por lo que, al tener un conjunto de datos, una muestra de dicha población, podemos aproximar esta relación subyacente por una estimación, la cual está dada por la siguiente relación1 =
1
+
+
(1.3)
Gujarati y Porter (2010), pp. 37-45.
2
Modelo Bivariado
que se denomina función de regresión muestral (FRM). Donde
se denomina error
muestral, el cual =
−
−
=
(1.4)
−
donde =
(1.5)
+
Elevando (1.4) al cuadrado y sumando, obtenemos lo siguiente =
−
−
(1.6)
A la expresión (1.6), también se le conoce como función de pérdida, y como tal, el objetivo es minimizar dicha pérdida. Entonces, el problema de los mínimos cuadrados consiste en encontrar el juego de parámetros min ,
=
−
,
tal que minimicen (1.6), esto es
−
(1.7)
Esta función de pérdida cuadrática tiene la ventaja que, como es una función convexa y suave, esta tiene mínimo local, que, por el teorema local-global, este mínimo local también es global, y, sobre todo, permite el uso de los métodos de optimización tradicionales. Las condiciones de primer orden (CPO) para el problema (1.7) son2 = −2
−
−
= −2
−
−
=0
=0
(1.8)
(1.9)
reordenando (1.8) y (1.9), tenemos
2
Aquí, debemos recordar una versión de la regla de la cadena, la cual establece que [ ( ) ′( ).
( )] =
3
Modelo Bivariado
+
=
+
(1.10)
=
(1.11)
Las ecuaciones (1.10) y (1.11) son conocidas como ecuaciones normales3, podemos expresar este sistema en la siguiente forma matricial
=
(1.12)
De la expresión anterior (1.12), podemos notar que la matriz de coeficientes es una matriz simétrica, esto es que, es igual a su transpuesta,
= .
(1.13)
=
desarrollando la matriz inversa4 de la expresión anterior, tenemos ∗
=
−
1 ∑
− ∑
(1.14) −
Desarrollando el producto de matrices de la expresión anterior, tenemos finalmente el conjunto de estimadores que resuelve (1.7), los cuales son
3
En efecto, existe otro método de estimación de parámetros que consiste en maximizar la probabili-
dad de que la perturbación o término de error se distribuya con una distribución normal, este método es conocido como estimación de máxima verosimilitud. 4
En una matriz cuadrada de dimensión n, la matriz inversa está definida como
=
Adj .
4
Modelo Bivariado
∗
∗
=
∑
=
∑
−∑
∑
− ∑
∑
∑
−∑ ∑
(1.15)
∑
(1.16)
− ∑
Analicemos el numerador de (1.16), podemos probar que5 −
(
=
− ̅ )(
− )
(1.17)
Del denominador de (1.16), podemos probar lo siguiente6 −
(
=
(1.18)
− ̅)
remplazando (1.17) y (1.18) en (1.16), tenemos que ∗
=
∑ ( − ̅ )( − ) cov( , ) = = ∑ ( − ̅) var( )
,
(1.19)
Aquí, podemos recordar la definición del coeficiente de correlación, la cual establece que
,
cov( , )
=
var( ) var( )
=
,
⟺
,
=
,
(1.20)
remplazando (1.20) en (1.19) tenemos ∗
=
,
=
,
5
La prueba de (1.17) puede revisarse en el Anexo 3.1.
6
La prueba de (1.18) puede consultarse en el Anexo 3.2.
(1.21)
5
Modelo Bivariado
Siendo la expresión (1.21) válida solo para el modelo bivariado. Cabe señalar que, para obtener los estimadores no ha sido necesario asumir alguna propiedad estocástica acerca del término de error 1.1.1.
.
Propiedades algebraicas
El estimador MCO posee las siguientes propiedades algebraicas, las mismas que repasamos a continuación Propiedad 1 La suma de las estimadas
es igual a la suma de las observadas
. Esto es
= Prueba Para probar esta propiedad, sumaremos la expresión (1.5) teniendo =
+
(1.22)
Sin embargo, por la ecuación normal (1.10) se tiene +
=
(1.23)
Entonces, de (1.22) y (1.23) concluimos que =
⟹
=
(1.24)
Propiedad 2 La suma de los residuos es cero =0 6
Modelo Bivariado
Prueba Para probar esta propiedad utilizaremos la expresión (1.4), teniendo (
=
−
)=
−
(1.25)
que, por el resultado conseguido en la propiedad 1, tenemos =0
(1.26)
Propiedad 3 La suma del producto cruzado de la variable explicativa es, las variables
y los residuos es cero. Esto
y son ortogonales o independientes.
=0 Prueba Para probar esta propiedad, tomaremos en cuenta lo siguiente, sea =
=
(
−
)=
−
−
−
=
−
−
−
Por la ecuación normal (1.11) tenemos que =0
(1.27)
7
Modelo Bivariado
Propiedad 4 La suma del producto cruzado de la variable estimada es, las variables
y los residuos es cero. Esto
y , son ortogonales o independientes.
=0 Prueba Para probar esta propiedad, debemos tener en cuenta lo siguiente =
+
=
+
que, con los resultados conseguidos por las propiedades 2 y 3, tenemos =0
(1.28)
Cabe señalar que, en la literatura econométrica, dadas las propiedades 3 y 4, los residuos también son denominados perturbaciones esféricas7 así como su contraparte poblacional
.
Propiedad 5 La suma de cuadrados de
podemos descomponerla en la suma de cuadrados para
más la suma de cuadrados de los residuos. =
+
Prueba Para demostrar esta propiedad, debemos recordar que
Puede probarse que, de satisfacerse las propiedades antes mencionadas, el vector formado por ( , , ) no es más que las proyección ortogonal del radio al interior de una esfera (Wonnacott y Won7
nacott, 1979, p. 397).
8
Modelo Bivariado
=
+
(1.29)
elevando al cuadrado (1.29) y sumando (
=
) =
+
+2
+
(1.30)
Por la propiedad 4, tenemos =
+
(1.31)
con lo que queda probada esta propiedad. 1.1.1.1. Bondad de ajuste del modelo Sin embargo, a partir de (1.29), también podemos encontrar otra relación fundamental. En efecto, a partir de esta expresión y la propiedad 1 se tiene −
=(
− )+
(1.32)
elevando al cuadrado (1.32) y sumando (
− ) =
(
− ) +2
(
− )
+
(1.33)
Por la propiedad 4 tenemos lo siguiente (
− ) =
(
− ) +
(1.34)
La expresión (1.34) podemos interpretarla en términos de la varianza. En efecto, el lado izquierdo es la varianza total, el cual, puede ser descompuesta en varianza explicada y varianza residual. = ∑(
)
+ ∑(
)
(1.35) ∑
Dividiendo la expresión (1.34) por la expresión al lado izquierdo, se tiene 9
Modelo Bivariado
1=
∑( ∑(
∑ − ) + ∑( − ) − )
(1.36)
reordenando la expresión anterior, tenemos lo siguiente ∑( ∑(
− ) = − )
=1−
∑ ∑( − )
Siendo (1.37) la bondad de ajuste del modelo (1.3). Este indicador
(1.37) ∈ [0,1], cuanto
más cercano esté el indicador a la unidad, mejor representará el modelo (1.3) a la serie de datos8. 1.1.2.
Propiedades estocásticas
Antes de continuar, es necesario recordar algunas de las propiedades de la esperanza matemática y la varianza. Sean las constantes ( , ) y dos variables aleatorias ( , ), entonces, las siguientes, son propiedades de la esperanza matemática9 ( )= (
)=
(
+
(1.38) ( ) )=
(1.39) ( )+
=
( )
( )
(1.40) (1.41)
y, para la varianza, enunciamos las siguientes propiedades var( ) = 0 var(
)=
(1.42) var( )
(1.43)
8
Véase Wonnacott & Wonnacott (1979), pp. 395-396.
9
Para una revisión de todas estas propiedades a partir de la función generatriz de momentos, véase
Hoel (1971), Capítulo VI.
10
Modelo Bivariado
var(
)=
+
var( ) +
var( ) + 2
cov( , )
(1.44)
Una generalización útil de (1.44) es la siguiente var
=
Si además,
y
var( ) + 2
cov( ,
)
(1.45)
, son variables aleatorias independientes, entonces cov
,
= 0.
Por lo que (1.45) se reduce a var
=
var( )
(1.46)
Ahora, podemos establecer los siguientes supuestos sobre el término de perturbación : [ ]=0
(1.47)
var( ) =
(1.48)
cov
,
=0
(1.49)
cov( ,
)=0
(1.50)
El supuesto (1.48) implica el supuesto de varianza constante u homocedasticidad. El supuesto (1.49), implica la no existencia de correlación serial. El supuesto (1.50) por general es interpretado de esta forma, la variable explicativa muestreo repetido, por lo que las variables
y
es constante o fija en
son ortogonales o independientes10.
Estos supuestos, son cruciales, porque nos ayudarán a probar un resultado importante, que se enuncia a continuación. Teorema de Gauss-Markov El estimador MCO, es el mejor estimador (de varianza mínima) lineal e insesgado.
10
Véase Hu (1979), p. 50. Gujarati y Porter (2010), pp. 61-69.
11
Modelo Bivariado
La prueba de este teorema la dividiremos en dos partes. a. El estimador
es insesgado
Podemos expresar (1.19) de la siguiente manera =
∑(
− ̅ )( − ) ∑ ( − ̅)
(1.51)
que, desarrollando el numerador
=
1 ∑ ( − ̅)
(
− ̅) −
(
− ̅)
remplazando (1.2) en el resultado anterior, tenemos =
∑ ( − ̅) ∑ ( = ∑ ( − ̅)
+ + )( ∑ ( − ̅)
− ̅)
que, desarrollando nuevamente el numerador
=
1 ∑ ( − ̅)
(
− ̅) +
(
− ̅) +
(
− ̅)
quedando momentáneamente =
1 ∑ ( − ̅)
(
− ̅) +
(
− ̅)
(1.52)
inspeccionando el primer término entre corchetes de (1.52) (
[ (
− ̅) =
− ̅) − ̅(
(
− ̅) − ̅
− ̅ )] =
(
(
− ̅)
− ̅)
(1.53) 12
Modelo Bivariado
utilizando (1.53), podemos expresar (1.52) nuevamente 1 ∑ ( − ̅)
=
(
− ̅) +
(
− ̅)
por lo que =
+
∑ ( − ̅) ∑ ( − ̅)
(1.54)
Aplicando el operador esperanza a ambos miembros de (1.54), nos queda =
+
por lo que
∑ ( − ̅) = ∑ ( − ̅)
+
∑ ( − ̅) [ ] = ∑ ( − ̅)
(1.55)
es insesgado.
b. El estimador
tiene varianza mínima
A partir de (1.54), aplicamos el operador varianza en ambos miembros, obteniendo lo siguiente var
= var
+
∑ ( − ̅) ∑ ( − ̅) = var( ) + var ∑ ( − ̅) ∑ ( − ̅)
(1.56)
utilizando las propiedades de la varianza vistas anteriormente, tenemos var
=
∑ ( − ̅ ) var( ) ∑ ( − = [∑ ( − ̅ ) ] [∑ ( −
̅) = ∑( ̅) ]
− ̅)
(1.57)
Ahora, definamos el siguiente estimador lineal =
(1.58)
tal que =
− ̅ + ∑ ( − ̅)
(1.59) 13
Modelo Bivariado
Remplazado (1.2) en (1.58) tenemos (
=
+
)
+
(1.60)
desarrollando la expresión (1.60) nos queda =
+
+
(1.61)
sea insesgado, es necesario que ∑ = 0 y ∑ = 1, para lo cual, debe satisfacerse que ∑ = 0y∑ = ∑ ( − ̅ ) = 0. En efecto, dado (1.59) se tiene Para que
1 ∑ ( − ̅)
=
(
− ̅) +
La expresión anterior, es cero si ∑ =
1 ∑ ( − ̅)
(
(1.62) = 0. Además
− ̅) +
(1.63)
que, por (1.53) =1+ por lo que ∑ el estimador =
(1.64) = 0 para que ∑
= 1. De acuerdo con las condiciones anteriores,
es insesgado. En efecto, la expresión (1.61) se reduce a lo siguiente
+
(1.65)
que, aplicando el operador esperanza a ambos miembros, se tiene [
]=
(1.66)
Ahora, aplicando el operador varianza a la expresión (1.65), se tiene
14
Modelo Bivariado
var(
)=
var( ) =
(1.67)
A partir de (1.59), elevamos al cuadrado =
( − ̅) 2 ( − ̅) + + [∑ ( − ̅ ) ] ∑ ( − ̅)
(1.68)
y sumando =
∑ ( − ̅) 2 ∑ ( − ̅) + + [∑ ( − ̅ ) ] ∑ ( − ̅)
(1.69)
nos queda =
1 + ∑ ( − ̅)
(1.70)
Remplazado (1.70) en (1.67) obtenemos lo siguiente var(
)=
1 + ∑ ( − ̅)
=
∑(
− ̅)
+
(1.71)
que, recordando (1.57), podemos rescribir (1.71) de la forma var(
) = var
+
(1.72)
por lo que var(
) > var
QED.
Quedando, de esta manera, demostrado el teorema.
15
Modelo Bivariado
Figura 1. Diagrama de las clases restringidas de estimadores consideradas en el Teorema de Gauss-Markov. Fuente: Wonnacott y Wonnacott (1979), p. 27.
En la figura anterior, se presenta un diagrama clásico mostrando las clases de estimadores que están consideradas en este teorema, dentro del cual se muestra la posición del estimador MCO en el mismo. 1.1.2.1. ¿qué hay de
?
Construir un argumento similar al del apartado a. de la sección anterior es laborioso, por lo que es mejor empezar a partir de (1.10). En efecto, de esta expresión tenemos que =
+
̅⟺
=
−
(1.73) ̅
teniendo en cuenta la definición de la FRP en (1.2) =
1
=
−
+
1
̅=
1
+
( 1
+
+
−
̅=
)−
+
̅
̅+
1
−
̅
(1.74)
aplicando el operador esperanza a (1.74) y teniendo en cuenta el resultado (1.55) tenemos =
(1.75) 16
Modelo Bivariado
por lo que el estimador timador var
es insesgado. Asimismo, para encontrar la varianza del es-
optamos por aplicar el operador varianza (1.45) a (1.74), encontrando que =
1
var
(1.76)
+ ̅ var
recordando (1.57) se tiene var
=
var
=
+
̅ ∑(
− ̅)
=
1+
∑(
̅ − ̅)
∑ ∑(
(1.77)
− ̅)
Para probar el teorema de Gauss-Markov para el coeficiente
, debemos seguir el
mismo argumento dado a partir de (1.58), el cual se deja de ejercicio para el lector. Ahora, recordemos que la covarianza de dos variables aleatorias es igual cov( , ) = (
)− ( ) ( )
(1.78)
por lo que cov( ,
)=
−
( )
(1.79)
a partir de (1.73) podemos encontrar lo siguiente =
−
1
̅=
− ̅
(1.80)
recordando la definición de la FRP (1.2) =
1
(
+
+
) − ̅
(1.81)
quedando
17
Modelo Bivariado
=
+
1
̅+
(1.82)
− ̅
Aplicando el operador esperanza en (1.82) y recordando (1.55) tenemos =
+
̅− ̅
(1.83)
Debemos tener en cuenta el resultado (1.54). En efecto, elevando al cuadrado (1.54) se tiene =
+
∑ ( − ̅) ∑ ( − ̅)
+
2
∑ ∑(
( − ̅) − ̅)
(1.84)
aplicando el operador esperanza a la expresión anterior =
+
∑(
(1.85)
− ̅)
remplazando (1.85) en (1.83) y, reduciendo, nos queda =
−
̅ ∑(
(1.86)
− ̅)
finalmente, remplazando (1.86) en (1.79) y recordando las expresiones (1.55) y (1.75) se tiene cov( ,
)=−
̅ ∑(
(1.87)
− ̅)
que es la expresión para la covarianza. 1.1.3.
Estimador de la varianza
En esta sección, encontraremos un estimador para
, toda vez que este parámetro es
desconocido. A partir de (1.32), tenemos =(
− )−(
− )
(1.88) 18
Modelo Bivariado
ahora, aplicando el operador de media a (1.2), se tiene =
+
̅+
(1.89)
Si bien, una consecuencia del supuesto (1.47) es que
= 0; este término, será conser-
vado en la expresión (1.89) porque es funcional a nuestro propósito, por lo que si restamos (1.89) de la expresión (1.2), nos queda −
=
(
− ̅) + (
− )
(1.90)
Ahora, a partir de (1.10) se tiene =
+
(1.91) ̅
recordando además que, restando (1.91) de la expresión (1.5), tenemos −
=
(
(1.92)
− ̅)
Remplazando (1.90) y (1.92) en (1.88), tenemos lo siguiente =−
(
−
− ̅) + (
− )
(1.93)
que, elevando al cuadrado y sumando, obtenemos =
(
−
− ̅) − 2
−
(
− ̅ )(
− ) (1.94)
+
(
− )
Reordenando la expresión (1.54) y, elevando al cuadrado, tenemos −
=
∑ ( − ̅) ∑ ( − ̅)
(1.95)
remplazando (1.95) en (1.94), nos queda
19
Modelo Bivariado
∑ ( − ̅) ∑ ( − ̅)
=
+
−
(
− ̅) − 2
∑ ( − ̅) ∑ ( − ̅)
(
− ̅ )(
− )
1
reduciendo la expresión anterior, conseguimos lo siguiente =
[∑ ( − ̅ )] [∑ ( − ̅ )] −2 + ∑ ( − ̅) ∑ ( − ̅)
−
1
que, reduciendo la expresión anterior nos queda =
−
1
−
[∑ ( − ̅ )] ∑ ( − ̅)
Ahora, aplicando el operador esperanza a ambos miembros de la expresión, tenemos =
−
despejando
−
= ( − 2)
, ahora
, obtenemos la estimación para la varianza del término de
error =
∑
(1.96)
−2
con el cual, podemos expresar nuevamente (1.57) de la siguiente manera var
=
∑(
− ̅)
=
∑ ( − 2) ∑ (
que es la estimación para var 1.1.4.
− ̅)
(1.97)
.
Inferencia en el modelo bivariado
A los supuestos (1.47)-(1.50), añadiremos el siguiente
20
Modelo Bivariado
↝
(0,
)
(1.98)
1.1.4.1. Inferencia para Por (1.54), podemos apreciar que
es una función lineal respecto de
. Entonces, por
la propiedad reproductiva de la distribución normal, tenemos que ↝
,
∑(
(1.99)
− ̅)
De acuerdo a lo anterior, el siguiente indicador (estandarización), se distribuye con (0,1) −
↝
(0,1)
(1.100)
var A continuación, definiremos la distribución -Student. Definición (Distribución -Student) Una distribución = donde
es una variable aleatoria del tipo
√ ↝
(0,1) y
↝
, en el que, denota los grados de libertad, además
y
son variables aleatorias distribuidas independientemente11. Sin embargo, para satisfacer (1.100), es necesario conocer la varianza poblacional
,
que no conocemos, sino su estimación , que, remplazando en (1.100), hace que el indicador, ya no se distribuya con (0,1) sino con .
11
Hoel (1971), p. 258.
21
Modelo Bivariado
−
↝
(1.101)
var
Para probar (1.101), dividiremos tanto el numerado como el denominador por el siguiente factor var
, a partir del cual, podemos desarrollar algebraicamente la si-
guiente expresión
−
−
−
−
var
var
var
=
var
=
= var var
var
∑(
− ̅)
∑ ( − 2) ∑ (
− ̅)
var −
−
−
var
var
var
= ∑ ( − 2)
√ −2 (1.102)
= −2 −2
( − 2)
El numerador de (1.102), se distribuye con (0,1) −
↝
(0,1)
var
(1.103)
Mientras que, el denominador lo hace con
( − 2)
↝
(1.104)
22
Modelo Bivariado
por lo que, la expresión (1.101) se distribuye con , puesto que es la suma de variables con distribución (0,1) con − 2 términos en la sumatoria12. Con esta información, podemos construir el intervalo de confianza para el estimador , siendo el intervalo, el siguiente :
=0⟺
∈
+
(1.105)
var
,
siendo la anterior, una prueba de significancia de dos colas, donde , se denomina nivel de significancia, por lo que 1 − , es el nivel de confianza. Recordemos que el intervalo de confianza (dos colas) se construye de la siguiente manera: Pr −
≤
,
≤
=1−
,
(1.106)
remplazando (1.101) en la expresión anterior, tenemos
Pr ⎛−
,
≤
≤
,
var
⎝ despejando Pr
−
−
⎞=1−
(1.107)
⎠
en el intervalo, finalmente se tiene
,
var
≤
≤
+
,
var
=1−
(1.108)
a partir del cual, se obtiene (1.105).
12
Para una prueba de esta afirmación véase Johnston (1975), p. 22.; Goldberberg (1970), p. 185. y
Novales (1993), capítulo 2, sección 2.8.
23
Modelo Bivariado
Figura 2. Prueba de dos colas en la Distribución -Student. Las áreas sombreadas corresponden al nivel de significancia , repartidos en ⁄2 por cada lado.
1.1.4.2. El elipsoide de confianza Aquí debemos recordar (1.100) −
↝
(0,1)
(1.109)
var Definamos también la siguiente distribución, la distribución Definición (Distribución Una distribución
.
)
es una variable aleatoria del tipo
= Donde
↝
(0,1), en el que , denota los grados de libertad siendo
variables
aleatorias independientes13. Dada la definición anterior y (1.109), entonces
⎛ ⎝ 13
− var
⎞ +⎛ ⎠
⎝
− var
⎞ ↝
(1.110)
⎠
Hoel (1971), p. 252.
24
Modelo Bivariado
dado el nivel de confianza 1 − , la región conjunta de confianza (1.110) está dada por
⎛ ⎝
− var
⎞ +⎛ ⎠
⎝
− var
⎞ ≤ (1 − )
(1.111)
⎠
el cual, es una elipse14 de confianza (en general, la denominaremos, elipsoide de confianza) cuyo lado mayor está dado por max
var
, var
. Sin embargo, la ex-
presión (1.111) supone que los coeficientes son independientes, lo cual, no es necesariamente cierto a partir de (1.87), esto es, que cov( ,
) ≠ 0. De acuerdo a lo anterior,
es necesario introducir la matriz de covarianza de los estimadores en la expresión (1.111), de la siguiente manera − −
− −
Σ
≤ (1 − )
(1.112)
donde Σ es la matriz de covarianza de los estimadores, esto es, Σ = cov( ), entonces Σ = cov( ) =
var
cov( ,
)
var
(1.113)
siendo esta matriz, una matriz simétrica; además, cabe señalar que, la diagonal principal está compuesta por las varianzas de los estimadores. Recordemos que, las expresiones presentes en (1.113) están dadas en (1.77), (1.57) y (1.87). Aquí, los ejes mayor y menor del elipsoide (1.112) están dados por los vectores característicos de esta matriz y cuyas longitudes son proporcionales a las raíces cuadradas de sus raíces características. Sin embargo, al igual que los casos anteriores, el elipsoide (1.112) supone que es conocida
14
, lo cual no es necesariamente cierto, si en la misma, remplazamos
por su
Véase Lehmann (1989), Capítulo VII.
25
Modelo Bivariado
estimación
, expresión (1.96), entonces, la expresión (1.112) queda de la siguiente
manera − −
Σ
− −
≤ (1 − )ℱ(
,
)
(1.114)
donde ℱ, representa la distribución ℱ-Snedecor15. 2. Referencias Hoel, P. (1971). Introduction to Mathematical Statistics (Fourth Edition). John Wiley & Sons. Goldberger, A. (1970). Teoría Econométrica. Biblioteca Tecnos de Ciencias Económicas. Editorial Tecnos, Madrid. Gujarati, D. y Porter, D. (2010). Econometría (Quinta Edición). McGraw-Hill, Interamericana Editores S. A. de C. V. Johnston, J. (1975). Métodos de Econometría (Tercera Edición). Vicens Vives, Barcelona. Hu, T. (1979). Econometría, Un Análisis Introductorio. Fondo de Cultura Económica. Lehmann, Ch. (1989). Geometría Analítica. Editorial Limusa, México. Novales, A. (1993). Econometría (Segunda Edición). McGraw-Hill, Interamericana de España S.A. Wonnacott, R. & Wonnacott, T. (1979). Econometrics (Second Edition). John Wiley & Sons.
15
Para una prueba, véase Novales (1993), Capítulo IV y, Wonnacott y Wonnacott (1979), Capítulo
XII.
26
Modelo Bivariado
3. Anexos 3.1. Propiedad algebraica de la covarianza A partir del numerador de (1.16), tenemos −
−
= 1
−
1
=
̅
=
−
[
−
−
− ̅
−
−
̅ +
+
̅
̅ −
(
̅
[
=
+ ̅ ]=
− ̅
̅
− ̅ )(
−
− )
− ̅
+ ̅ ]
(3.1)
QED. 3.2. Propiedad algebraica de la varianza A partir del denominador de (1.16), se tiene −
= 1
−
−
−2
̅
−
1
=
=
̅ +
−
̅
−
=
̅ +
̅
̅ −
−2 ̅
̅
+
̅
27
Modelo Bivariado
[
−2 ̅
+ ̅ ]=
[
− ̅]
(3.2)
QED.
28