ANEXO II – Optativo – Desarrollos Algebraicos 1. Estimador por Razón: Conveniencia del uso del MERa en relación al MESE n
∧
Debe tenerse presente que R =
∑y i =1 n
i
, al ser una función muestral es una variable. xi 1 N ∑ yi ∑ i =1 y Y N i =1 Si fuese constante, sería: R = para todo i. = = i N 1 X xi xi N∑ i =1
)
En ese caso, la parte variable de las Variancias de todos los Estimadores ( ∑ ( yi − R.xi ) ) se anularía, y es la situación ideal para utilizar el Estimador por Razón, ya que en estos casos el R es igual en todos los pares de valores de X e Y de cada unidad. Analizando esa parte variable de las Variancias (que es igual en los tres Estimadores presentados: Razón, Promedio y Total), y desarrollando el cuadrado de la expresión se llega a: n
n
n
n
i =1
i =1
i =1
i =1
∑ ( yi − Rˆ . xi )2 = ∑ y i2 + Rˆ 2 .∑ xi2 − 2. Rˆ .∑ yi .xi =
= s y .Rˆ 2 .sx2 − 2.Rˆ .sx , y Si 2
expresión de
)
∑ ( yi − R. xi)
se considera que ρˆ =
Mediante algunos pasos algebraicos:
s x,y s x .s y
⇒ s x , y = ρˆ .( s x .s y ) se tiene otra
en función de ? , que puede resultar de utilidad para analizar el Sesgo
del Estimador por Razón.
El Sesgo de los Estimadores en el MERa Sabiendo que los Estimadores del MERa son sesgados, si se identifica con B el Sesgo de un Estimador, las formas de expresión “teóricas” del Sesgo del Estimador por Razón para cada uno de los Parámetros analizados son: Concepto Total
Sesgo del Estimador por Razón
B ( yˆ R ) =
( R − σ (2Xˆ ) − ρ .σ ( Xˆ ) .σ ( Yˆ ) ) X
Promedio
(1 − f ) 2 B ( yˆ R ) = .( R.S Xˆ − ρ .S Yˆ .S Xˆ ) n
Razón
(1 − f ) B( Rˆ ) = .( R.S Xˆ 2 − ρ.S Yˆ .S Xˆ 2 n. X
Donde ρ =
Cov x, y σ x .σ y
)
es el Coeficiente de Correlación entre las variables x e y.
Lo importante de estas expresiones es que permite aproximarse a la idea de cuándo es conveniente el uso del Estimador por Razón en lugar del MESE. Siendo las Variancias de los Estimadores del Total: En el MESE à Var ( yˆ ) =
N 2.
(1 − f ) 2 .[S Y ] n
2 ˆ y en el MERa à Var (Y R ) = N .
(*) = R 2 S
2 x
[
]
[
]
(1 − f ) (1 − f ) . S Y2 + R 2 S x2 − 2 R ρ S x S y = N 2 . . S Y2 + (*) tal que: n n
− 2RρSxS
Var ( yˆ )
(*)
y
Según el valor que tome (*) convendrá o no la utilización del Estimador por Razón. Particularmente interesan los casos en que sea negativo (< 0), ya que de esa forma disminuye la Variancia del Estimador por Razón respecto a la del MESE representado en ( ). Despejando: Si
(*) = R 2 . S
2 x
− 2 . R .ρ .S x .S
y
< 0
; será:
R 2S
2 x
< 2RρSxS
y
; y
despejando ? :
R 2 . S x2 2 .R .S x .S
< ρ
; donde simplificando: R . S
x
2 .S
y
y
< ρ
; y siendo R = y x
es posible
transformar esa desigualdad en: ? > CV(x) / 2. CV(y) ; con lo cual, el ? queda expresado en función de la relación que tengan los dos Coeficientes de Variación de las variables X e Y, de donde es posible concluir: • Si ambos CV fueran aproximadamente iguales, sería:
?>1/2
Es decir que conviene el uso del R ˆ antes que el Estimador por MESE, siempre que el Coeficiente de Correlación sea mayor a 0,5. • Si los CV no fuesen iguales, dependiendo de la relación que se tenga entre ellos, es posible despejar a partir de qué valor del ? vale la pena utilizar el Rˆ (puede ser algo menor o algo mayor al 0,5).
2. Estimador por Regresión (MERe): Fundamentos Partiendo de la forma de expresar una recta de regresión: y i = ß 0 + ß 1 ⋅ x i Donde los Parámetros de la recta son los coeficientes:
ß0 = Es la ordenada al origen ß1 = Es la pendiente de la recta Estos coeficientes de la recta, estimados por ejemplo, por el Método de los Mínimos Cuadrados, permiten obtener estimaciones de Yi al darle valores a Xi. Los Estimadores de los dos coeficientes son usualmente identificados con: b0 y b1 .
Caso general de ß0 diferente de 0 y ∧
xx x x xx x x x x x x xx x
=
y Re g
ß1
xx x a x xx
En el MERe lo que se quiere valorizar es la función de (obteniendo
las
estimaciones de los Parámetros ß i ), para obtener una estimación de la variable dependiente Y. Con el Método de los Mínimos Cuadrados se llega a: n
ß0 b1 =
xi
X
0
yˆreg = y + b1 (X − x )
regresión
∑ (y i − y ) ⋅ (x i − x ) i= 1
n
∑ (x i − x )
2
(
; b0 = y - b1 ⋅ X − x
)
i= 1
En el caso particular que la ordenada al origen sea 0: ß0 = 0 y su Estimador b0 = 0 ; ß1 seguiría siendo la pendiente de la recta. En este caso se podría utilizar sin inconvenientes el Estimador por Razón: ) = R
y i = b1 ⋅ x i
donde b1
Caso particular de ß0 = 0
y xx x x xx x x x x x x x x xx x
∧
yR =
El Estimador por Razón puede ser considerado un caso particular del Estimador por Regresión, donde ß0 = 0, y será:
ß1
xx x a x xx
xi
0
X
n
∑y
y i y ˆ ⋅ X ; de donde si ߈ 1 ≈ ; x i ≈ X equivale a la ecuación y i =߈ 1 ⋅x i yˆR = i=n1 ⋅ X = ⋅ X = R x x ∑xi i=1
Los Modelos de Regresión Los Modelos de Regresión pueden ser: ü
No Centrado :
Yi = β 0 + β 1 ⋅ X i = Yi = α + β ⋅ X i ü
Centrado:
Yi = ß 0 + ß 1 ⋅ (X i − X ) = ß 0 + ß 1 ⋅ X i − ß 1 ⋅ X = ß 0 − ß 1 ⋅ X + ß{1 ⋅ X i = a + ß ⋅ X i 142 43 ß
a
Siendo ß 0 y ß1 (o a y ß) los Parámetros de la relación, con sus Estimadores b0 y b1 será:
yi= b0 + b1⋅ (xi −x)
ˆ ov ( ) sˆ Cˆov ( x, y ) C sˆ y x, y y ?ˆ ⋅ sˆ x ⋅ sˆ y sˆ y ˆ sˆ y siendo ߈1 = b1 = = ⋅ = ⋅ = ? ⋅ = r ⋅ 2 2 2
ˆ ov C (x; y) ˆ ? = Recordando que sˆ x ⋅ sˆ y entonces
sˆ x
sˆ x
sˆ y
sˆ x
ˆ ov ?ˆ ⋅ sˆ x ⋅ sˆ y = C (x;y)
sˆ y
sˆ x
sˆ x
Será
sˆ y
߈1 = b1 = r ⋅
sˆ x n
Finalmente, siendo: b1 =
∑ (y i − y ) ⋅ (x i − x ) i =1
n
∑ (x i − x )2 i =1
Dada yi = b0 + b1 ⋅ ( xi − x ) n
aplicando la sumatoria hasta n en ambos miembros y luego dividiendo por n queda:
n
∑ y i ∑ [b 0 + b1 ⋅ (x i − x )] i =1
=
n y=
i =1
n
n
n
i= 1
i= 1
∑ b 0 + ∑ [b1 ⋅ (x i − x )] n
n
=
n ⋅ b0 + n
b1 ⋅ ∑ [(x i − x )] i =1
n
= b0 +
b1 ⋅ 0 n
y = b0 n
Recordando que
∑ [(x i − x )] = 0
(la suma de los desvíos es cero).
i =1
yˆreg= y + b1 (X − x) y = b0
Promedio Muestral
Valor de la variable xi valorizado en el Parámetro de x que corresponda ( X )
3. Estimador de Horvitz – Thompson y posteriores: Expresiones y Desarrollos Algebraicos Tomando como punto de partida las siguientes expresiones y conceptos: ü
n ) Y = N .∑ pi. yi (1) ; siendo esta expresión el Estimador con el MESE dentro del MAS. i =1
n
ü
yi i =1 pi
yˆH - T = ∑
(2) ; es el Estimador de H-T dentro del MAS.
Es muy simple apreciar las vinculaciones entre pi , pi y N: (N . pi) = 1 / p i pi = 1 / (N . pi ) ; siendo: pi = Xi / X pi = X / (N . Xi ) = X / Xi lo que dependiendo de los valores de cada Xi, originará valores de p i menores o mayores que 1. En el caso particular de probabilidades iguales (pi = 1 / N) ; p i = 1
n
;
∑ pi = n i=1
Propiedades del Estimador de H-T Esperanza El Estimador de H-T es Insesgado. Para demostrarlo se utiliza un Vector Aleatorio ε (i) que solo puede tomar 2 valores (variable dicotómica): ε ( i) = 1 Si la iésima unidad está en la muestra. ε ( i) = 0 Si la iésima unidad no está en la muestra.
En este caso estamos en un modelo Binomial, y ya se sabe que en este modelo : E(e (i); e(j) ) = p i, j E (e(i) ) = p i ; 2 (3) Var (e (i) ) = E (e(i) ) − E(e (i) ) 2 = pi − p i2 = p i ⋅ (1 − p i ) ( ) ( ) ( )( ) Cov e (i); e (j) = E e (i); e (j) − E e(i) E e (j) = pi, j − p i ⋅ p j
[
[
]
]
Al Estimador H-T se lo puede expresar sumando la variable en estudio hasta N y agregando el vector aleatorio, el cual toma como valor la unidad en los n elementos seleccionados, y en los restantes es igual a cero, en consecuencia le quita la variabilidad a la variable y se la traspasa al vector aleatorio. Su Esperanza es la siguiente: N N n y N y Ny y E(yˆH−T ) = E ∑ i = E ∑ i ⋅ e(i) = ∑ i ⋅ E(e(i) ) = ∑ i ⋅ pi =∑ yi i =1 p i i =1 i=1 pi i=1 pi i=1 pi
⇒ es un estimador Insesgado .
El resultado es el Parámetro Total de la Población, con lo cual se demuestra que el Estimador H-T de un Total es Insesgado, con la única condición que todos los πi ≠ 0, ya que de serlo, en Muestreo significaría que es una muestra que no tiene posibilidad de ser elegida.
Variancia Recordando la propiedad de la Variancia relativa a la suma de una constante por una variable: Var (∑ a i ⋅y i ) = ∑ a 2i ⋅ Var ( y i ) + 2 ⋅ ∑ i
n y Será: Var (yˆ H− T ) = Var ∑ i i=1 p i
∑a j >i
i
⋅ a j ⋅ Cov(y i ⋅ y j )
N y = Var ∑ i ⋅ e (i) i=1 p i
Donde la Variancia del Estimador de Horvitz y Thompson, sumando nuevamente hasta N y agregando el vector aleatorio, la expresión (3) quedaría: N
y 2i
i =1
pi
Var (yˆ H− T ) = ∑
2
⋅ s 2 (e (i) ) + 2 ⋅ ∑∑ y i ⋅ y j i
j >i
p i;j − p i ⋅ p j pi ⋅ p j
(4)
Esta es la “verdadera” Variancia del Estimador (es decir que no es un Estimador), donde: ü
ε (i ) : es el Vector Aleatorio ;
ü
πi : es constante al sumar hasta N (ya que toma valores 0 o 1).
Con algunas transformaciones: Siendo:
∑ pi = n y
n
∑ π ij = (n – 1) . π i i
la expresión (4) queda:
y y s 2 ( yˆH−T ) = ∑∑(pi; j − pi ⋅ p j ) ⋅ i − j i j>i p i p j N
N
2
(5)
Que es otra forma de expresar la “verdadera” Variancia del Estimador.
Estimadores de la Variancia del Estimador Horvitz y Thompson propusieron el siguiente Estimador de la Variancia del Estimador del Total expresada en (4): a)
sˆ 2 ( yˆ H−T ) = ∑ y i ⋅
n n (p i;j − p i ⋅ p j ) (1 − π i ) + 2 ⋅ ∑∑ yi ⋅ y j ⋅ πi p i ⋅ p j ⋅ p i;j i j >i
(6)
Si bien este es un Estimador Insesgado, en base a simulaciones se probó que es un Estimador poco confiable, ya que se presenta inestable e incluso, bajo ciertas circunstancias puede llegar a ser negativo (cosa que por definición no es posible para una medida de Dispersión). Yates y Gruñid, y en forma independiente Sen, propusieron en 1953 un segundo Estimador de la Variancia del Total que sigue la forma dada en (5), y que se considera superior al anterior.
p ⋅ p − p i; j yi y j ⋅ − sˆ 2 ( yˆY −G −S ) = ∑ ∑ i j p p i j >i p i; j j i n
b)
2
n
(7)
Este Estimador también es Insesgado. Para su demostración hay que utilizar el vector ε(s) y se le aplica el operador Esperanza. En algunas aplicaciones prácticas, se verificó que el cálculo de estas Variancias pueden presentar el inconveniente de que el producto de π i por π j puede ser menor que π ij. De ser así la expresión (π i π j - π ij) podría ser negativa y contribuir negativamente al cálculo de la Variancia. Sin embargo si algún sumando es menor que cero la verdadera Variancia no se verá afectada, pero si lo pueden ser las Estimaciones provenientes de algunas de las posibles muestras. Esto en general sucede si la Población y la Muestra son pequeñas, y si se aplica el Estimador de la Variancia de H-T dado en (6), su inestabilidad puede generar valores negativos. También sobre la base de pruebas empíricas, se afirma que el Estimador de la Variancia propuesto por Y-G-S dado en (7) rara vez toma valores negativos, y es aconsejable utilizarlo en lugar del propuesto por H-T. En un estudio posterior, Brewer modificó la forma de selección y Rao pudo demostrar que con esta modificación el Estimador de la Variancia de Y-G-S da siempre positivo. Otro problema asociado es que si el tamaño de la muestra es mayor que 2 (lo que debería ser lógico), se complica el cálculo de los π i y mucho más el de los π ij. Existen métodos que simplifican el cálculo de los π i pero para los π ij no se disponen de expresiones sencillas para n > 2, y son difíciles de calcular aún con computadoras.
Cálculo de πi y πij para una Muestra de tamaño n extraída de una Población N Lo desarrollado hasta el momento, se refirió específicamente al proceso de Estimación. Es necesario entrar en el proceso de selección de las unidades de una población con probabilidad variable y SR (*).
(*)
Si la extracción fuese CR, sería: π i
= Pi . n.
Para la aplicación de las expresiones incluidas en los Puntos previos, se necesitan calcular los π i y π ij. Para hacerlo se parte, como es usual, de que extraerá una Muestra de tamaño n de la Población N. La selección SR con probabilidad variable consiste en extraer la 1ª Unidad con probabilidad Pi y la 2ª unidad se selecciona entre la (n – 1) restantes, donde a cada una se le adjudica la probabilidad [Pj / (1 - Pi)], y así sucesivamente. ü
En la selección del 1º elemento, la probabilidad es Pi (se resalta: distinta en cada unidad).
ü
Para el 2º elemento la probabilidad será: Pi / (1 – Pi) (ya que de los n elementos iniciales, el 1º seleccionado ya no existe).
ü
Para las siguientes unidades, en cada paso se van reconstruyendo las probabilidades con los elementos que quedan.
En definitiva el valor de π i sería por ejemplo para i = 1:
P P P p1 = P1 + P2 ⋅ 1 + P3 ⋅ 1 + P4 ⋅ 1 1 − P3 1 − P4 1 − P2 En este caso la parte que aparece entre paréntesis en la fórmula, corresponde a la probabilidad de que P1 aparezca en segundo lugar porque primero apareció cada una de las restantes unidades. Tendiendo a hallar una fórmula general, con el fin de completar la sumatoria de 1 a N, se suma y 4 P1 P P resta , y con algunos pasos algebraicos se obtiene para i = 1: p1 = P1 ⋅ 1 - 1 + ∑ i 1 − P1 1 − P1 i =1 1 − Pi 4 P P Con lo cual la fórmula general para π i queda: pi = Pi ⋅ 1 - i + ∑ i 1 − Pi i=1 1 − Pi
(8)
Para los π ij debe considerarse que la unidad aparezca en la 1ª y no en la 2ª extracción, o no aparezca en la 1ª y si en la 2ª (tener presente que al ser SR es imposible que la misma unidad aparezca en ambas extracciones). Siendo que es la probabilidad de que las unidades i- ésima y jésima estén ambas en la muestra, en el ejemplo (para i = 1 y j = 2), π12 es la probabilidad de que aparezca la unidad 1 en la primera extracción y la unidad 2 en la segunda o la unidad 2 en la primera y la unidad 1 en la segunda. La expresión genérica queda: pi; j = Pi ⋅
Pj 1 − Pi
+ Pj ⋅
1 Pi 1 = Pi ⋅ P j ⋅ + 1− P 1− P 1 − Pj i j
(9)
A esta forma de calcular las π i y π ij se la suele llamar “forma natural de cálculo”. En realidad, es muy complicado calcular los πij cuando el tamaño de la muestra es mayor que dos, o requiere formas especiales de selección que demoran y complican los cálculos. En consecuencia, pese al apoyo recibido de la informática, es aún raro seleccionar Muestras multivariables de tamaño moderado, aún de tamaño pequeño con probabilidad variable y SR.
Selección con Probabilidades Desiguales (con Variable Auxiliar) y Con Reposición (CR) Con un análisis similar al hecho para las Muestras SR, se parte de que se tiene una población de N elementos: U1 ; U2 ; …. Ui; ....; UN , sobre la que se miden dos variables: Xi :
X1 , X2 , ... , XN ;
Conocida (variable auxiliar)
Yi :
Y1 , Y2 , ... , YN ;
Desconocida (variable en análisis, dependiente)
Se desea estimar Y con la ayuda de la X conocida, es decir, utilizando por ejemplo un Estimador por Razón, presuponiendo la existencia de cierta relación entre ambas. N
Parámetro a estimar el Total: Y = ∑ yi (podría ser cualquier otro). i =1
N
Al ser la variable Xi conocida, se conoce su Total: X = ∑ X i con lo cual es posible construir las Pi : i =1
P1 =
X1 ; X
P2 =
X2 ; ... ; X
PN =
XN que varían (o pueden variar), de unidad en unidad. X
La selección se realizará con Probabilidad Proporcional al Tamaño (PPT), y el Estimador será el de Hansen y Hurwitz: yˆ PPS =
1 n yi ⋅∑ n i =1 Pi
yˆ PPS =
1 n yi 1 n y X n y ⋅∑ = ⋅ ∑ i = .∑ i n i =1 P i n i =1 X i n i =1 X i X
Estimador proporcional al tamaño. Mediante algunos pasos algebraicos:
; pero
Yi Y ≈ Xi X
= K constante, entonces será:
n yˆPPS = X ⋅ ∑ K = X ⋅ n ⋅ K = X ⋅ K
n
i=1
n
La “verdadera” Variancia del Estimador (es decir la Variancia Poblacional), será: y 1 n sˆ ( yˆ PPS ) = ⋅ ∑ Pi. i − yˆ PPS n i=1 Pi 2
2
n y 1 ⋅ ∑ i − yˆ PPS y su Estimador: sˆ ( yˆ PPS) = n ⋅ (n − 1) i=1 Pi 2
2