Sesión12

Page 1

Distribuciones Continuas Curso PI-2610 Curso Probabilidad y Estadística I Marco Alvarado Peña

Sesión 12


Objetivos de Aprendizaje 1. Dar a conocer los conceptos b谩sicos de medidas de tendencia central y de dispersi贸n.

2


Índice Distribuciones Continuas………………………………………………..1 Objetivos de Aprendizaje……………………………………….........2 Distribución Exponencial……………………………………………..6 (Teoría de colas y confiabilidad) Caso especial de D.Gama……..6 Consideraciones………………………………………………………8 Ejemplos………………………………………………………….........9 Ejemplos de Distribución Exponencial…………………………….10 Distribución Gamma………………………………………………….13 Distribución normal…………………………………………………..15 El Valor Z – Estandarizar……..………………………………...…117 Distribución Normal…………………………………………………..21 Función Densidad y Distribución de Probabilidad………………..21 Figuras importantes………………………………………………….23 Consideraciones………………………………………………………25 Teorema central del límite (TLC)…………………………………...27 Prueba de normalidad – Test cuantitativos…………………………….28 Distribuciones que se derivan del muestreo…………………….29 Distribución T de Student…………………………………………...29 Distribución ji-cuadrada……………………………………………..31 3


Distribuciรณn F de Fisherโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆ..34 Inferencia Estadรญsticaโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆ...37 Intervalo de confianza (I.C)โ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆ.38 Tamaรฑo de la muestraโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆ43 IC para Varianzasโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆ44 Prueba de Hipรณtesis Estadรญsticaโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆ...46 Hipรณtesis Nula y Alternativaโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆ...47 Riesgos para la toma de Decisiรณnโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆ..โ ฆโ ฆ552 Errores Tipo I vs. Tipo IIโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆ.53 P-Valueโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆ.56 Ejemplo 3-3โ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆ..58 Para los mismos datos de la Tensiรณnโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆ..61 Ejemplo 3-6 Montgomeryโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆ...63 Comparaciรณn de Dos Muestrasโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆ.64 Ejemplosโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆ...64 Hipรณtesis de 2 Muestrasโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆ..65 Prueba para la Igualdad de Dos Mediasโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆ..67 Distribuciรณn Muestral de ๐ ๐ โ ๐ ๐ โ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆ.69 Prueba- t: Igualdad de 2 Mediasโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆ.โ ฆโ ฆ..70 (1-ฮฑ)% Intervalo de Confianza para ๏ ญ1-๏ ญ2โ ฆโ ฆโ ฆโ ฆโ ฆโ ฆโ ฆ.โ ฆโ ฆโ ฆ71 4


Hipótesis de 2 Muestras…………………………………………….72 Estadísticos Muestrales……………………………………………..73 Prueba Estadística F…………………………………………….…..74 Comparaciones Muestrales Pareadas………………………….…75 Muestras pareadas……………………………………………….….79 Datos Experimento Pareado..……………………………………...79 Análisis Muestra Pareada…………………………………………..80 Delta (B-A) vs. Corredor…………………………………………….81 Hipótesis Estadística…………………………………………………82 Prueba Pareada-t……………………………………………………83 Intervalo de Confianza……………………………………………….85 Referencias…………………………………………………………….87

5


DistribuciĂłn Exponencial (TeorĂ­a de colas y confiabilidad) Caso especial de D.Gama Explica fenĂłmenos de la vida real como por ejemplo lĂ­neas de espera, (teorĂ­a de colas). Esta distribuciĂłn se usa para modelar tiempos de espera para la ocurrencia de un cierto evento.

−đ?œ†đ?‘Ľ đ?‘“(đ?‘Ľ) = {đ?œ†đ?‘’ , 0

đ?‘?đ?‘Žđ?‘&#x;đ?‘Ž đ?‘Ľ ≼ 0 đ?‘‘đ?‘’ đ?‘œđ?‘Ąđ?‘&#x;đ?‘œ đ?‘šđ?‘œđ?‘‘đ?‘œ

đ??š(đ?‘Ľ) = đ?‘ƒ(đ?‘‹ ≤ đ?‘Ľ) = {

0 đ?‘?đ?‘Žđ?‘&#x;đ?‘Ž đ?‘Ľ < 0 1 − đ?‘’ −đ?œ†đ?‘Ľ đ?‘?đ?‘Žđ?‘&#x;đ?‘Ž đ?‘Ľ ≼ 0

E [X] = 1/Îť V (X) = 1/Îť2

6


Para ejemplificar lo anterior se presentan los grĂĄficos a continuaciĂłn:

Fig 1. TeorĂ­a de colas y confiabilidad

(X ≤ x) = F(x) = 1 − e ↑ −đ?œ†x P (X > x) = 1 − F(x) = 1 − e ↑ − Îťx P (a ≤ X ≤ b) = F(b) − F(a) = (1 − e ↑ − Îťb) − (1 − e ↑ − Îťa) P (a ≤ X ≤ b) = e ↑ − Îťa − e ↑ − Îťb

7


Consideraciones La distribución exponencial es el equivalente continuo de la distribución geométrica discreta. Esta ley de distribución describe procesos en los que: - Nos interesa saber el tiempo hasta que ocurre determinado evento, sabiendo que, - El tiempo que pueda ocurrir desde cualquier instante dado t, hasta que ello ocurra en un instante tf, no depende del tiempo transcurrido anteriormente en el que no ha pasado nada.

De hecho la distribución exponencial puede derivarse de un proceso experimental de Poisson con las mismas características, pero tomando como variable aleatoria, en este caso, el tiempo que tarda en producirse un hecho.

8


Ejemplos 1- El tiempo que tarda una partícula radiactiva en desintegrarse. El conocimiento de la ley que sigue este evento se utiliza en Ciencia para, por ejemplo, la datación de fósiles o cualquier materia orgánica mediante la técnica del carbono 12, C14.

2- El tiempo que puede transcurrir en un servicio de urgencias, para la llegada de un paciente.

3- En un proceso de Poisson donde se repite sucesivamente un experimento a intervalos de tiempo iguales, el tiempo que transcurre entre la ocurrencia de dos sucesos consecutivos sigue un modelo probabilístico exponencial. Por ejemplo, el tiempo que transcurre entre que sufrimos dos veces una herida importante.

9


Ejemplos de Distribución Exponencial Ejemplo 1. Suponga que un sistema contiene cierto tipo de componente cuyo tiempo de falla en aùos estå dado por T. La variable aleatoria T se modela bien mediante la distribución exponencial con tiempo medio para la falla β = 5. Si se instalan cinco de estos componentes en diferentes sistemas, ¿cuål es la probabilidad de que al menos dos aún funcionen al final de ocho aùos?

SoluciĂłn La probabilidad de que un componente dado aĂşn funcione despuĂŠs de ocho aĂąos estĂĄ dada por: P (T > 8) =

1 5

x

âˆŤ8 e-1/5

dt = đ?‘’ −8/5 = 0.2

RepresĂŠntese con X el nĂşmero de componentes que funcionan despuĂŠs de ocho aĂąos. Entonces con el uso de la distribuciĂłn binomial: P (X ≼ 2) = ∑5đ?‘Ľ=2 b(x: 5. 0.2)= 1- ∑5đ?‘Ľ=0 b(x: b. 0.2)= 1- 0.7373 = 0.2627

10


Ejemplo 2. Se sabe que el tiempo de espera de una persona que llama a un centro de atenciĂłn al pĂşblico, para ser atendido por un acesor es una variable aleatoria exponencial con Âľ= 5 minutos. Encuentre la probabilidad de que una persona llame al azar en un momento y tenga que:

a) Esperar a la sumo 5 minutos R/ La probabilidad es de 0.6321

b) Al menos 10 minutos R/ La probabilidad es de 0.1353

c) Entre 3 y 10 minutos R/ La probabilidad es de 0.4135

11


Ejemplo 3. Se sabe que el gasto mensual de agua en metros cĂşbicos en cierta localidad, tiene Âľ= 10. a) ÂżCuĂĄl es la proabilidad de que una familia que consume menos de 3 metros cĂşbicos al mes? R/ La probabilidad de que se consuma menos de 3 đ?‘š3 es de 0.2592

b) ÂżCuĂĄl es la probabilidad de que el consuo emnsual reabse los 40 metros cĂşbicos? R/ La probabilidad que el consumo rebase los 40 đ?‘š3 es de 0.018

12


DistribuciĂłn Gamma Este modelo es una generalizaciĂłn del modelo Exponencial ya que, en ocasiones, se utiliza para modelar variables que describen el tiempo hasta que se produce p veces un determinado suceso. Su funciĂłn de densidad es de la forma:

đ?‘“(đ?‘Ľ) =

1 đ?‘? { đ?›ź Γ(đ?‘?)

0

đ?‘Ľ

đ?‘’−đ?›ź đ?‘Ľđ?‘?−1 , đ?‘Ľ > 0 , đ?‘Ľâ‰¤0

Como se puede observar, este modelo depende de dos parĂĄmetros positivos: Îą y p. La funciĂłn Γ(p) es la denominada funciĂłn Gamma de Euler que representa la siguiente integral: ∞

Γ(đ?‘?) = âˆŤ0 đ?‘Ľ đ?‘?−1 đ?‘’ −đ?‘Ľ đ?‘‘đ?‘Ľ Que verifica Γ(đ?‘? + 1) = đ?‘?Γ(đ?‘?), con lo que si, p es un nĂşmero entero positivo, Γ(đ?‘? + 1) = p!

13


Decimos que una variable aleatoria x, sigue una distribuciĂłn gamma si su “PDFâ€? (la funciĂłn de su distribuciĂłn de probabilidad) es:

�(�; �, � ) =

1 { � � Γ (� )

đ?‘Ľ đ?›źâˆ’1

đ?‘’ −đ?‘Ľđ?›˝ , đ?‘Ľ > 0

0

,

otra manera

Donde tanto đ?›˝ como đ?›ź son positivos: (đ?›˝, đ?›ź ) > 0 Cuando β = 1 a esta distribuciĂłn le llamamos “Gamma EstĂĄndarâ€?:

đ?‘Ľ đ?›źâˆ’1 đ?‘’ −đ?‘Ľ đ?‘“(đ?‘Ľ; đ?›ź, đ?›˝ ) = { Γ(đ?›ź )

,� ≼ 0 0

, otra manera

Valor esperado: E(x) = Îź = Îą β Varianza: V(x) = Ďƒ2 = Îą β2 *Caso especial: Cuando Îą = 1 la distribuciĂłn gamma es una exponencial con β=

1 đ?œ†

14


DistribuciĂłn normal Es la distribuciĂłn continua mĂĄs importante, tanto en estadĂ­stica teĂłrica como aplicada. Si X es una variable aleatoria normal, entonces su funciĂłn de d.p. estĂĄ dada por

đ?‘“ (đ?‘Ľ ) = {

−đ?‘Ľ

1 đ?œŽâˆš2đ?œ‹

1 đ?‘Ľâˆ’đ?œ‡ 2 ) − ( đ?‘’ 2 đ?œŽ

,

đ?‘Ľâˆˆâ„?

donde Îź (mu) es la media y Ďƒ (sigma) es la desviaciĂłn estĂĄndar (Ďƒ2 es la varianza). Suponga una variable aleatoria X~ N(Îź, Ďƒ2), para calcular la probabilidad de que esta variable tome valores entre dos nĂşmeros a y b, entonces se calcula el ĂĄrea bajo la curva entre a y b (mediante mĂŠtodos numĂŠricos ya que la integral de la funciĂłn de distribuciĂłn no tiene soluciĂłn analĂ­tica). 15


Fig 2. DistribuciĂłn normal

Cuando es una distribuciĂłn normal con parĂĄmetros đ?œ‡ = đ?‘œ đ?‘Ś đ?œŽ 2 = 1, entonces a la distribuciĂłn se le conoce como distribuciĂłn normal estĂĄndar (N(0,1)) y los valores de las probabilidades estĂĄn ya tabulados.

Estandarizar una variable es fĂĄcil, puesto que si X tiene una distribuciĂłn normal con đ??¸(đ?‘‹) = đ?œ‡ đ?‘Ś đ?‘‰(đ?‘‹) = đ?œŽ 2 , entonces la variable (estandarizada).

z=

(đ?‘Ľâˆ’đ?œ‡ ) đ?œŽ 16


El Valor Z – Estandarizar

z=

(đ?‘Ľâˆ’đ?œ‡ ) đ?œŽ

En esta ecuaciĂłn, Îź es la media, Ďƒ es la desviaciĂłn estĂĄndar y x es un valor que nos gustarĂ­a evaluar. - x- Îź esta diferencia calcula que tan lejos se estĂĄ de la media miu. - Cuando se divide por Ďƒ, se estĂĄ calculando cuantas desviaciones estĂĄndar se estĂĄ de la media.

17


Zona 1: đ?? Âą đ?&#x;? đ??ˆ 68.26% de los datos se esperan contener dentro de una desviaciĂłn estĂĄndar de la media Zona 2: đ?? Âą đ?&#x;? đ??ˆ 95.46% de los datos se esperan contener dentro de dos desviaciones estĂĄndar de la media Zona 3: đ?? Âą đ?&#x;‘ đ??ˆ 99.73% de los datos se esperan contener dentro de tres desviaciones estĂĄndar

Fig 3. Ă reas bajo la curva de la distribuciĂłn

18


Ejemplo El tiempo de entrega de un producto se distribuye normal con media 60,5 y desviaciĂłn estĂĄndar 5,9. Si un tiempo de entrega es de 70, ÂżcuĂĄntas desviaciones estĂĄndar tiene respecto de la media? z= ( z= (

đ?‘Ľâˆ’đ?œ‡ đ?œŽ

)

70−60.5 5.9

)

= 1.61

Si estamos considerando una zona con Îź Âą 3 Ďƒ entonces 1,61 desviaciones estĂĄndar de la media estĂĄ al interno del ĂĄrea de la zona de 3 Ďƒ.

Fig 4.DesviaciĂłn 1,61

19


¿Cuántas desviaciones estándar tiene el tiempo de 100 respecto de la media?

z= (

100−60.5 5.9

)

= 6.69

Este valor está muy lejos de la zona de aceptación, recuerde que la zona de aceptación está definida por μ ± 3 σ , lo que indica que algún cambio ha ocurrido en las operaciones normales del proceso.

Fig 5. Desviación 6.69

20


DistribuciĂłn Normal - Una de las mĂĄs importantes en la EstadĂ­stica. - MatemĂĄtico AlemĂĄn Karl Friedrich Gauss (1777-1855) - Muchos de los fenĂłmenos del mundo real se comportan bajo esta estructura probabilĂ­stica. - Cuando una variable aleatoria representa a una poblaciĂłn que tiene un comportamiento probabilĂ­stico normal el histograma tiene una forma mĂĄs o menos simĂŠtrica.

FunciĂłn Densidad y DistribuciĂłn de Probabilidad La funciĂłn de densidad de la variable aleatoria normal X, con media Îź y varianza Ďƒ2, es

1 đ?‘›(đ?‘Ľ; đ?œ‡, đ?œŽ) = {√2đ?œ‹đ?œŽ

đ?‘’

1 −(2)[(đ?‘Ľâˆ’đ?œ‡)/đ?œŽ]2

,

−∞ < đ?‘Ľ < ∞,

Donde đ?œ‹ = 3,14159... y e = 2,71828

21


*Nota: Los errores en las mediciones cient铆ficas se aproximan extremadamente bien mediante una distribuci贸n normal. Una variable Aleatoria continua X que tiene la forma de campana se dice que sigue una Distribuci贸n Normal.

Fig 6. Densidad y Distribuci贸n de Probabilidad

22


Figuras importantes

Fig 7. Curvas normales con μ1 < μ2 y σ1 = σ2

Fig 8. Curvas normales con μ1 = μ2 y σ1 < σ2

23


Fig 9. Curvas normales con μ1 < μ2 y σ1 < σ2

24


Consideraciones - La moda, que es el punto sobre el eje horizontal donde la curva es un mĂĄximo, ocurre en đ?‘Ľ = đ?œ‡

- La curva es simĂŠtrica alrededor de un eje vertical a travĂŠs de la media đ?œ‡ - La curva tiene sus puntos de inflexiĂłn en đ?‘Ľ = đ?œ‡ Âą đ?œŽ, es cĂłncava hacia abajo si đ?œ‡ − đ?œŽ < đ?‘‹ < đ?œ‡ + đ?œŽ, y es cĂłncava hacia arriba en cualquier otro punto.

- La curva normal se aproxima al eje horizontal de manera asintĂłtica conforme nos alejamos de la media en cualquier direcciĂłn.

- La ĂĄrea total bajo la curva y sobre el eje horizontal es igual a 1.

- Es una buena aproximaciĂłn para la binomial y la hipergeomĂŠtrica.

25


AtenciĂłn La funciĂłn de probabilidad normal depende de Îź y Ďƒ y como estos valores tienen un dominio de Âąâˆž entonces puede existir un nĂşmero infinito de curvas para cada Îź y Ďƒ.

Para evitar esto se ha encontrado una curva normal reducida o estandarizada que tenga un valor medio igual a cero y una varianza igual a 1, de tal manera que cualquier distribuciĂłn normal de Îź y varianza Ďƒ2 se puede convertir o estandarizar a otra distribuciĂłn.

Z=

đ?‘Ľâˆ’đ?œ‡ đ?œŽ

En consecuencia de lo anterior la funciĂłn densidad es: 1

đ?‘“ (đ?‘Ľ ) = {√2đ?œ‹

đ?‘’ −đ?‘Ľ

2 /2

26


Teorema central del lĂ­mite (TLC) Una de las razones por las que la distribuciĂłn normal es tan importante es debido al TLC que en un caso particular afirma: Sea x1, x2, ..., xn una muestra aleatoria de cualquier poblaciĂłn, y sea đ?‘ĽĚ… la media muestral; entonces, independientemente de cĂłmo sea la distribuciĂłn de la poblaciĂłn de donde se extrajo la muestra, la distribuciĂłn de đ?‘ĽĚ… se aproxima a la normal N (Îź,Ďƒ2) conforme n crece. La forma lĂ­mite de la distribuciĂłn de z=

đ?‘‹Ě…− đ?œ‡ đ?œŽ/ √đ?‘›

conforme n-->∞, es la

distribución normal eståndar N(0,1). Como puede apreciar es muy similar a la z estandarizada de la Distribución normal, sin embargo como se estå trabajando con muestras la desviación eståndar debe ser dividido entre raíz de n. - En algunos casos la aproximación puede ser buena para n pequeùa n<10. - En otros casos se necesita un n grande, n>100. - En el caso en que las x tengan la misma distribución y no sea radicalmente diferente a la normal, entonces un n≼4 es suficiente. 27


El p-value es la significancia de la

Prueba de normalidad – Test cuantitativos

prueba, es el área bajo la

Es posible usar test cuantitativos para calcular el p-value asociado a la

distribución de referencia que

hipótesis nula del tipo de distribución.

esta mas allá del valor del estadístico de prueba

Existen muchas pruebas para verificar la normalidad, entre las que se encuentran las siguientes: - Ji-cuadrada para bondad de ajuste (para cualquier distribución) - Kolmogorov – Smirnov - Shapiro – Wilks - Anderson – Darling (para dist. Gauseana o Normal), usaremos ésta prueba ya implementada en Minitab: Stat/ Basic Stat/ Normality Test

28


Distribuciones que se derivan del muestreo DistribuciĂłn T de Student Es una distribuciĂłn de probabilidad que surge del problema de: - Estimar la media y desviaciĂłn de una poblaciĂłn normalmente distribuida cuando el tamaĂąo de la muestra es pequeĂąo.

Debido a que si se obtiene una muestra aleatoria de tamaĂąo n de una poblaciĂłn cuya distribuciĂłn es normal, entonces el estadĂ­stico:

T=

đ?‘ĽĚ… − đ?œ‡ đ?‘†/ √đ?‘›

âˆź T – Student (v)

Grados de libertad (dt)

v = n-1

29


En la siguiente figura se muestra la grรกfica de densidades T y la normal. Como se aprecia la distribuciรณn T es similar a la normal (0,1), excepto que tiene colas mรกs pesadas.

GRAPH / PROBABILITY DISTRIB PLOT

Fig 10. Colas pesadas

30


DistribuciĂłn ji-cuadrada Usada para hacer inferencias acerca de la desviaciĂłn estĂĄndar Ďƒ. Sean Z1, Z2, ..., Zk, v.a. ind., âˆź N (Îź = 0, Ďƒ2 = 1), entonces la v.a. : X2= Z21 +... + Z2k

X âˆź X2k

Si se obtiene una muestra de tamaĂąo n, entonces el estadĂ­stico:

2

X=

(đ?‘›âˆ’1)đ?‘† 2 đ?œŽ2

Tiene una distribuciĂłn ji-cuadrada con n-1 grados de libertad (S2, es la varianza muestral).

31


Conforme crecen los grados de libertad se aproxima a una distribuci贸n normal.

GRAPH / PROBABILITY DISTRIB PLOT

Fig 11. Distribuci贸n ji-cuadrada

32


La distribución X2 tiene muchas aplicaciones en inferencia estadística. La más conocida es la de denominada prueba X2 utilizada como prueba de independencia y como prueba de bondad de ajuste y en la estimación de varianzas.

Pero también está involucrada en el problema de estimar la media de una población normalmente distribuida y en el problema de estimar la pendiente de una recta de regresión lineal, a través de su papel en la distribución t de Student.

Aparece también en todos los problemas de análisis de varianza por su relación con la distribución F de Snedecor, que es la distribución del cociente de dos variables aleatorias independientes con distribución X2.

33


DistribuciĂłn F de Fisher Sean W y Y variables aleatorias ji-cuadrada independientes con u y v grados de libertad, respectivamente. Entonces el cociente F =

đ?‘Š/ đ?‘˘ đ?‘Œ/ đ?‘Ł

tiene una distribuciĂłn F con u grados

de libertad en el numerador, y v en el denominador, cuya funciĂłn de densidad de probabilidad estĂĄ dada por:

đ?‘“ (đ?‘Ľ ) =

đ?‘˘ đ?‘˘ đ?‘˘ 2 (2)−1 (đ?‘˘+đ?‘Ł ) ( 2 đ?‘Ł) đ?‘Ľ

�

�

�

( ) ( ) [( ) đ?‘Ľ + 1] 2 2 đ?‘Ł {

� 2

( )−1

0<x<∞

34


Densidades F para diferentes grados de libertad. La distribuci贸n F se encuentra centrada con respecto a 1, y los dos par谩metros le dan flexibilidad.

Fig 12. F de Fisher

35


La importancia de la distribución F radica en que es de especial utilidad para hacer inferencia cuando se comparan varianzas, ya que si se tienen dos poblaciones con distribución normal y varianzas σ21 y σ22, respectivamente, y se toman muestras aleatorias de cada población, de tamaño n1 y n2, respectivamente, entonces la variable aleatoria formada por el cociente F =

𝑆12 / 𝜎12 𝑆22 / 𝜎22

sigue una distribución F con n1

y n2 grados de libertad en el numerador y denominador, respectivamente, donde S21 y S22 son las varianzas muestrales.

36


Inferencia Estadística La inferencia estadística es una parte de la estadística que comprende los métodos y procedimientos para deducir propiedades de una población estadística, a partir de una pequeña parte de la misma.

Fig 13. Inferencia Estadística

37


Intervalo de confianza (I.C) - Un intervalo construido alrededor de un par谩metro de una distribuci贸n.

- En este caso, un intervalo es construido alrededor de la media muestral usando la distribuci贸n muestral para capturar un % de la distribuci贸n.

Fig 14. Intervalo de confianza

38


Intervalo de confianza indica un rango “donde puede estar el parĂĄmetroâ€? con cierto nivel de seguridad o confianza. Construir un intervalo al 100(1 – đ?›ź)% de confianza para un parĂĄmetro desconocido đ?œƒ consiste en estimar dos nĂşmeros (estadĂ­sticos) L y U, de manera que la probabilidad de que đ?œƒ se encuentre entre ellos sea 1 – đ?›ź, es decir, đ?‘ƒ(đ??ż ≤ đ?œƒ ≤ đ?‘ˆ) = 1 − đ?›ź, donde L y U forman el intervalo de confianza buscando [L, U].

- Intervalo de Confianza Bilateral: El riesgo se distribuye igualmente en ambos lados đ?‘ƒ(đ??ż ≤ đ?œƒ ≤ đ?‘ˆ) = 1 − đ?›ź

- Intervalo de Confianza Unilateral: El riesgo es concentrado en un lado, đ?‘ƒ(đ??ż ≤ đ?œƒ) = 1 − đ?›ź, đ?‘ƒ(đ?œƒ ≤ đ?‘ˆ) = 1 − đ?›ź

39


IC para la media cuando n > 30 datos

IC para la media cuando n < 30 datos

(đ??ˆ đ?’„đ?’?đ?’?đ?’?đ?’„đ?’Šđ?’…đ?’?)

(đ??ˆ đ?’…đ?’†đ?’”đ?’„đ?’?đ?’?đ?’?đ?’„đ?’Šđ?’…đ?’?)

Intervalo de confidencia bilateral

đ?‘ĽĚ… − đ?‘§đ?›ź/2

đ?œŽ √đ?‘›

≤ đ?œ‡ ≤ đ?‘ĽĚ… + đ?‘§đ?›ź/2

đ?œŽ √đ?‘›

Intervalo de confidencia superior

đ?œ‡ ≤ đ?‘ĽĚ… + đ?‘§đ?›ź

đ?œŽ √đ?‘›

Intervalo de confidencia inferior

đ?‘ĽĚ… − đ?‘§đ?›ź

đ?œŽ √đ?‘›

≤đ?œ‡

Intervalo de confidencia bilateral

đ?‘ĽĚ… − đ?‘Ąđ?›ź/2,đ?‘›âˆ’1

đ?‘ √đ?‘›

≤ đ?œ‡ ≤ đ?‘ĽĚ… + đ?‘Ąđ?›ź/2,đ?‘›âˆ’1

đ?‘ √đ?‘›

Intervalo de confidencia superior

đ?œ‡ ≤ đ?‘ĽĚ… + đ?‘Ąđ?›ź,đ?‘›âˆ’1

đ?‘ √đ?‘›

Intervalo de confidencia inferior

đ?‘ĽĚ… − đ?‘Ąđ?›ź,đ?‘›âˆ’1

đ?‘ √đ?‘›

≤đ?œ‡

40


Siguiendo con el ejemplo del grosor de discos En tabla 2.1 la caracterĂ­stica de calidad del producto (disco) es su grosor, que debe ser de 1.20 mm con una tolerancia de Âą 0.10mm. Determine el intervalo de confianza de la media.

đ?‘ĽĚ… Âą đ?‘Ąđ?›ź,đ?‘›âˆ’1 2

đ?‘ √đ?‘›

= 1,1786 Âą 1,97928 ∗ 0,270 / √đ?‘›

1,18341

1,17387

Student's t distribution with 124 DF P( X <= x ) x 0,025 -1,97928 STAT/BASIC STATISTICS/1T 1

Fig 15. Grosor de discos

41


Ejemplo 4.2 En el proceso de fabricación de discos para computadoras una de las variables críticas es el rendimiento del formato. Se toma una muestra aleatoria de n=10 discos de la producción del último turno, se formatean y se reporta el rendimiento de cada disco. Los datos obtenidos son: 96.11, 91.06, 93.38, 88.52, 89.57, 92.63, 85.20, 91.41, 89.79, 92.62 Con base en estos datos interesa estimar, de manera puntual y por intervalo, la media y la desviación estándar para la población de discos de dicho turno.

Fig 16. Ejemplo

42


TamaĂąo de la muestra TamaĂąo de muestra n para lograr que la estimaciĂłn de una media poblacional đ?œ‡ tenga como error mĂĄximo a un nĂşmero E. Para un error de estimaciĂłn estĂĄ dado đ?‘Ąđ?›ź,đ?‘›âˆ’1 2

đ?‘ √đ?‘›

, despejando n se obtiene:

đ?‘Ąđ?›ź/2,đ?‘›âˆ’1 ∗ đ?‘† 2 đ?‘›= ( ) đ??¸ Como đ?‘Ą(đ?›ź/2,đ?‘›âˆ’1) depende de n, y ĂŠsta es la incĂłgnita, entonces para propĂłsitos prĂĄcticos y con tamaĂąos de muestra mayores que 30, el valor de đ?‘Ą(đ?›ź/2,đ?‘›âˆ’1) puede tomarse como 2. De esta manera, đ?‘› =

4 ∗ đ?‘†2 đ??¸2

43


IC para Varianzas I.C. bilateral

(đ?‘› − 1)đ?‘ 2 (đ?‘› − 1)đ?‘ 2 2 ≤đ?œŽ ≤ 2 2 đ?‘‹đ?›ź/2,đ?‘›âˆ’1 đ?‘‹1−đ?›ź/2,đ?‘›âˆ’1

I.C. superior

(đ?‘› − 1)đ?‘ 2 đ?œŽ ≤ 2 đ?‘‹1−đ?›ź,đ?‘›âˆ’1 2

I.C. inferior

(đ?‘› − 1)đ?‘ 2 ≤ đ?œŽ2 2 đ?‘‹đ?›ź,đ?‘›âˆ’1

44


Determine el intervalo de confianza para la desviaciĂłn estĂĄndar del ejemplo 4.2

Fig 17. DesviaciĂłn estĂĄndar

Distrib. Chi-Cuadrado:

(đ?‘›âˆ’1)đ?‘ 2 đ?‘żđ?&#x;?đ?œś/đ?&#x;?,đ?’?−đ?&#x;?

≤ đ?œŽ2 ≤

(đ?‘›âˆ’1)đ?‘ 2 đ?‘żđ?&#x;?đ?œś/đ?&#x;?,đ?’?−đ?&#x;?

45


Prueba de Hipótesis Estadística - Una hipótesis es una declaración sobre los parámetros de una población. - Los parámetros deben estar identificados antes de hacer el análisis. - En general no tenemos datos poblacionales pero si tenemos datos muestrales de los cuales calculamos estadísticos. - Usamos estos estadísticos para hacer inferencias sobre los parámetros verdaderos de la población. - Debido a que hacemos inferencias, hay algún riesgo asociado con las decisiones que hacemos. - Por lo tanto, nunca debemos pensar de nuestros estadísticos como estimadores puntuales, más bien como intervalos sobre los cuales tenemos algún nivel de confianza que estemos prediciendo con exactitud los verdaderos parámetros de la población.

46


Hip贸tesis Nula y Alternativa

Fig 18. Hip贸tesis Nula y alternativa

47


Por ejemplo, la afirmación “este proceso produce menos de 8% de defectuosos” se puede plantear estadísticamente, en términos de la proporción p desconocida de artículos defectuosos que genera el proceso, como se hace a continuación: Ho : p = 0.08 → comúnmente se plantea como una igualdad, lo cual facilita tener una distribución de probabilidad de referencia específica HA : p < 0.08 / HA : p > 0.08 → se aceptará como cierta sólo en caso de rechazar la hipótesis nula

48


HipĂłtesis alternativa unilateral

HipĂłtesis alternativa bilateral

đ??ťđ?‘œ : đ?‘? = 0.08 este proceso

đ??ťđ??´ : đ?‘? ≠0.08 se observan menos de

produce 8% de defectuosos

8% de defectuosos como mĂĄs de 8% de defectuosos

Probar una hipĂłtesis consiste en investigar, con base en la evidencia contenida en una muestra aleatoria, si lo afirmado por Ho es verdad o no, y en caso de ser falso, se toma como verdadera la HA.

La estrategia para probar la hipĂłtesis parte del supuesto de que Ho es verdadera, y si los resultados de la investigaciĂłn contradicen en forma suficiente dicho supuesto, entonces se rechaza Ho y se acepta la HA.

En caso de que los resultados de la investigaciĂłn no demuestren claramente la falsedad de Ho, ĂŠsta no se rechaza. Es decir, la hipĂłtesis nula es verdadera mientras no se demuestre lo contrario.

49


Fig 19. Hip贸tesis nula

50


Si en efecto, Ho es verdad, el valor del estadístico de prueba debería caer dentro del rango de valores más probables de su distribución asociada, el cual se conoce como región de aceptación. Pero si cae en una de las colas de su distribución asociada, fuera del rango de valores más probables (en la región de rechazo), es evidencia en contra de que este valor pertenece a dicha distribución.

Fig 20. Región de aceptación-rechazo

51


Riesgos para la toma de DecisiĂłn

Error Tipo I - Incorrectamente Rechazar Ho cuando ĂŠsta es

Ho verdadera

Ho falsa

Aceptar Ho

DecisiĂłn correcta

Error tipo II đ?›˝

Rechazar Ho

Error tipo I �

DecisiĂłn correcta

Verdadera - � = Probabilidad de cometer un error tipo I

Error Tipo II - Incorrectamente Aceptar Ho cuando ĂŠsta es Falsa - đ?›˝ = Probabilidad de cometer un error tipo II - 1 − đ?›˝ = đ?‘?đ?‘&#x;đ?‘œđ?‘?. de rechazar Ho cuando es falsa, Potencia del Test

Fig 21. Riesgos para la toma de DecisiĂłn

52


Errores Tipo I vs. Tipo II Caso de un Juicio

Hipótesis - H0: Acusado es inocente y debe salir libre - H1: Acusado es culpable y debe ser castigado

Riesgos Error Tipo I

Castigar una persona inocente

Error Tipo II

Liberar a una persona culpable

Ho verdadera

Ho falsa

Aceptar Ho

Decisión correcta

Error tipo II 𝛽

Rechazar Ho

Error tipo I 𝛼

Decisión correcta

53


Fabricación de un paracaídas

Hipótesis - H0: Paracaídas abrirá exitosamente - H1: Paracaídas fallara al abrir

Riesgos Error Tipo I

No vender un buen paracaídas (perder una venta)

Error Tipo II

Vender un paracaídas que no se abrirá (perder un cliente)

54


Agregar una segunda maquina a la línea de producción: H0: 1 = 2 - Máquina 1 tiene la misma media que la maquina 2 - El cambio debe ser implementado. H1: 1  2 - Máquina 1 no tiene la misma media que la maquina 2 - El cambio no debe ser implementado

Riesgos α-riesgo

No usar la nueva máquina aunque tenga la misma media que la máquina antigua

β-riesgo

Usar la nueva máquina aunque tenga una media diferente que la máquina antigua

55


P-Value - El valor P representa la probabilidad de que la estadística de prueba tome un valor al menos tan extremo como el valor observado en ella cuando Ho es verdadera - Representa el nivel de significancia () más pequeño que conduciría al rechazo de Ho - Se acostumbra calificar como significativa a la estadística de prueba (y los datos) cuando se rechaza la hipótesis nula Ho, por lo que podemos considerar el valor P como el nivel  más pequeño en el que los datos son significativos - El Valor P es usado para determinar si existe suficiente evidencia para rechazar la hipótesis nula en favor de la alternativa - El valor P es la probabilidad de rechazar incorrectamente la hipótesis nula

Fig 22. Regla de Decisión

56


Fig 23. Valores de P

57


Ejemplo 3-3 Libro Control EstadĂ­stico de la Calidad de D. Montgomery, 3 Ed. La resistencia a la tensiĂłn media de una fibra sintĂŠtica es una caracterĂ­stica de calidad importante. Al fabricante le gustarĂ­a probar la hipĂłtesis de que la resistencia media es 50 psi, utilizando alfa = 0,05. Por la experiencia anterior del fabricante, ĂŠste estĂĄ dispuesto a asumir que la resistencia a la tensiĂłn tiene una distribuciĂłn aproximadamente normal, sin embargo se desconoce la media y la varianza de la resistencia a la tensiĂłn. Se selecciona una muestra de 16 ejemplares de prueba de la fibra y se determina su tensiĂłn.

TensiĂłn: 48,89; 52,07; 49,29; 51,66; 52,16; 49,72; 48,00; 49,96; 49,20; 48,10; 47,90; 46,94; 51,76; 50,75; 49,86;51,57 đ??ťđ?‘œ : đ?œ‡ = 50 đ?‘?đ?‘ đ?‘– đ??ťđ??´ : đ?œ‡ ≠50 đ?‘?đ?‘ đ?‘–

�=

đ?‘ĽĚ… − đ?œ‡ ~ đ?‘‡ − đ?‘†đ?‘Ąđ?‘˘đ?‘‘đ?‘’đ?‘›đ?‘Ą (đ?‘Ł − 1) đ?‘†/đ?œ‡

58


One-Sample T: tension Test of mu = 50 vs not = 50 Variable N

Mean StDev SE Mean

tension 16 49,864 1,661

95% CI

T

P

0,415 (48,979. 50,750) -0,33 0,749

Stat/BS/1 t 1 sample/options/not equal

Fig 23. Valores de P

Fig 24. Ejemplo 3-3

59


Al fabricante le preocupa que los valores de la resistencia sean bajos đ??ťđ?‘œ : đ?œ‡ ≤ 50 đ?‘?đ?‘ đ?‘– đ??ťđ??´ : đ?œ‡ > 50 đ?‘?đ?‘ đ?‘– One-Sample T: tension Test of mu = 50 vs > 50 95% Lower Variable N

Mean StDev SE Mean

TensiĂłn 16 49,864 1,661

0,415

Bound

T

P

49,136 -0,33 0,626

Stat/BS/1 t 1 sample/options/ greater thanl

Fig 25. Valores de resistencia bajos

60


Para los mismos datos de la TensiĂłn đ??ťđ?‘œ : đ?œŽ 2 = 3 đ??ťđ??´ : đ?œŽ 2 ≠3

(đ?‘› − 1)đ?‘† 2 EstadĂ­stico de la prueba es đ?‘‹ = 2 2

Test and CI for One Variance: tension Method Null hypothesis

Sigma-squared = 3

Alternative hypothesis Sigma-squared not = 3 Statistics Variable N StDev Variance tension 16 1,66

2,76

95% Confidence Intervals CI for Variable Method

CI for StDev

Variance

tension Chi-Square (1,23. 2,57) (1,51. 6,61) Test Variable Method tension Chi-Square

Statistic DF P-Value 13,80 15

0,918

61


Fig 26. Otra tensi贸n

62


Ejemplo 3-6 Montgomery En una muestra aleatoria de 80 rodamientos de cigĂźeĂąales para motor, 15 de los rodamientos tiene un acabado superficial cuya aspereza rebasa lo que permiten las especificaciones. Determine el intervalo de confianza de la fracciĂłn disconforme del proceso.

Suponiendo que es apropiada la aproximaciĂłn normal de la distribuciĂłn binomial, el IC del 95% đ?‘?Ě‚ =

đ?‘Ľ 15 = = 0,1875 đ?‘› 80

đ?‘?Ě‚ (1 − đ?‘?Ě‚ ) đ?‘?Ě‚ (1 − đ?‘?Ě‚ ) đ?‘?Ě‚ − đ?‘§đ?›ź/2 √ ≤ đ?‘? ≤ đ?‘?Ě‚ − đ?‘§đ?›ź/2 √ đ?‘› đ?‘› Normal with mean = 0 and standard deviation = 1 P( X <= x )

x

0,025 -1,95996 IC: [0.10197, 0,27302] (Exel)

Test and CI for One Proportion Sample X N Sample p 1

95% CI

15 80 0,187500 (0,108914. 0,290328) 63


Comparaciรณn de Dos Muestras Ejemplos - Media nueva mรกquina vs. Media mรกquina de referencia. - Partes del suplidor A vs. Suplidor B. - Ajustes temperatura actuales vs. Ajustes propuestos de temperatura. - Condiciรณn actual vs. Condiciรณn propuesta.

64


HipĂłtesis de 2 Muestras Se desea probar las hipĂłtesis: đ??ť0 : đ?œ‡1 = đ?œ‡2

vs.

đ??ť0 : đ?œ‡1 ≠đ?œ‡2

Fig 27. HipĂłtesis de dos muestras

65


Muestras aleatorias tomadas de cada poblaciĂłn

Fig 28. Muestras aleatorias

Usar đ?œ’Ě…1 − đ?œ’Ě…2 como el mejor estimado de la diferencia en medias de la poblaciĂłn ď ­1- ď ­2

66


Prueba para la Igualdad de Dos Medias Prueba estadĂ­stica de đ?œ’Ě…1 − đ?œ’Ě…2 - Estimado / Dev Std (Estimado) đ?‘Ą=

Ě… 1 −đ?œ’ Ě…2 đ?œ’ Ě… 1 −đ?œ’ Ě…2 ) đ?‘†đ?‘‡đ?‘‘đ??ˇđ?‘’đ?‘Ł (đ?œ’

- DistribuciĂłn Muestral de đ?‘ĽĚ…1 − đ?‘ĽĚ…2 Asumir que las dos muestras provienen de la misma poblaciĂłn (ď ­1= ď ­2) ÂżQuĂŠ tan aparte estarĂ­a đ?œ’Ě…1 − đ?œ’Ě…2 por casualidad aleatoria?

Fig 29. DistribuciĂłn muestral

67


Del Teorema del LĂ­mite Central

đ?‘ đ?‘Ąđ?‘‘đ??ˇđ?‘’đ?‘Ł(đ?œ’Ě…1 ) =

đ?‘ đ?‘Ąđ?‘‘đ??ˇđ?‘’đ?‘Ł(đ?œ’Ě…2 ) =

đ?œŽ1 √đ?‘›1

Combinando ambas

đ?œŽ12 đ?œŽ22 √ ) đ?‘†đ?‘Ąđ?‘‘đ??ˇđ?‘’đ?‘Ł(đ?œ’Ě…1 − đ?œ’Ě…2 = + đ?‘›1 đ?‘›2

đ?œŽ2 √ đ?‘›2

68


Ě…đ?&#x;? − DistribuciĂłn Muestral de đ??Œ Ě…đ?&#x;? đ??Œ

đ?‘†đ?‘Ąđ?‘‘đ??ˇđ?‘’đ?‘Ł(đ?œ’Ě…1 − đ?œ’Ě…2 ) = √

đ?œŽ12 đ?‘›1

+

đ?œŽ22 đ?‘›2

đ?œŽâˆš

1 đ?‘›1

+

1 đ?‘›2

Se simplifica si đ?œŽ1 = đ?œŽ2 Fig 30. DistribuciĂłn muestral

69


Prueba- t: Igualdad de 2 Medias

Caso 1: đ??ˆ1 = đ??ˆ2

Desconocidas pero iguales đ?‘Ą=

đ?œ’Ě…1 − đ?œ’Ě…2 1 1 đ?‘†đ?‘? √đ?‘› + đ?‘› 1 2

Con n1+n2-2 g.l (đ?‘›1 − 1)đ?‘ 12 + (đ?‘›2 − 1)đ?‘ 22 đ?‘†đ?‘? √ đ?‘›1 + đ?‘›2 − 2 Sp “promedio pesadoâ€? de s1 y s2 Caso 2: đ??ˆ1 <> đ??ˆ2

Desconocidas pero no iguales đ?‘Ą=

đ?œ’Ě…1 − đ?œ’Ě…2 đ?‘†2 đ?‘†2 √ 1+ 2 đ?‘›1 đ?‘›2

Con g.l “ajustados� 2

đ?‘†2 đ?‘†2 (đ?‘›1 + đ?‘›2 ) 1 2 đ?‘Ł= 2 −2 2 (đ?‘†1 /đ?‘›1 ) (đ?‘†22 /đ?‘›2 )2 + đ?‘›1 + 1 đ?‘›2 + 1 70


(1-Îą)% Intervalo de Confianza para ď ­1-ď ­2 Un intervalo de confianza tiene la forma: Estimado Âą valor t tabulado *(Desv. Estd del estimado) đ?‘Ą0.025;đ?‘›1+đ?‘›2−2 ≈ 2 Un IC del 95% es aprox. +/- 2 desv. estd.

Fig 31. Intervalo de confianza

71


Estimado Âą valor t tabulado*(Desv. Estd del estimado) Caso 1: đ??ˆ1 = đ??ˆ2

1 1 (đ?œ’Ě…1 − đ?œ’Ě…2 ) Âą đ?‘Ąđ?›źâ „2;đ?‘›1+đ?‘›2−2 ∗ đ?‘†đ?‘? √ + đ?‘›1 đ?‘›2

Caso 2: đ??ˆ1 ≠đ??ˆ2

đ?‘ 12 đ?‘ 22 (đ?œ’Ě…1 − đ?œ’Ě…2 ) Âą đ?‘Ąđ?›źâ „2;"đ?‘Žđ?‘‘đ?‘—đ?‘˘đ?‘ đ?‘Ąđ?‘’đ?‘‘" ∗ √ + đ?‘›1 đ?‘›2

HipĂłtesis de 2 Muestras Se desea probar la hipĂłtesis: đ??ť0 : đ?œŽ1 = đ?œŽ2

vs.

Fig 32. HipĂłtesis de 2 muestras

đ??ť1 : đ?œŽ1 ≠đ?œŽ2

72


EstadĂ­sticos Muestrales - Muestras aleatorias tomadas de cada poblaciĂłn

Fig 33. EstadĂ­sticos Muestrales

- Usar đ?‘†1 â „đ?‘†2 como el mejor estimado de la razĂłn de las desviaciones estĂĄndar de la poblaciĂłn đ?œŽ1 â „đ?œŽ2 - Si las muestras tienen la misma desviaciĂłn estĂĄndar (Ďƒ1= Ďƒ2), entonces đ?‘†1 â „đ?‘†2 debe estar cercano a 1

73


Prueba EstadĂ­stica F - Para probar la igualdad de las desviaciones estĂĄndar, la prueba estadĂ­stica es dada por:

đ?‘ 1 2 đ??š=( ) đ?‘ 2 - Cuando H0 es verdadera, el estadĂ­stico F sigue una distribuciĂłn F con n1-1 y n2-1 grados de libertad

74


Comparaciones Muestrales Pareadas - Se utiliza para comparar dos poblaciones donde las observaciones de una muestra pueden ser pareadas con las observaciones en la otra muestra.

Ejemplos - Cada unidad es sometida a ambos tratamientos - Observaciones antes y después en las mismas unidades 

Dos sistemas de metrología midiendo las mismas unidades

- Grupos de unidades son partidas. Mitad de cada grupo es asignada aleatoriamente a cada tratamiento Ejemplo de Tenis de Carrera Un fabricante desea comparar dos materiales diferentes para hacer las suelas de las tenis para correr - Material A: Estándar - Material B: Mas barato

Se desea cambiar al Material B pero se teme que este sea menos durable. 75


Suponga que se ha escogido incluir los siguientes factores y niveles en un experimento: - Material: A y B - 10 corredores ¿Cómo se diseñaría este estudio? Propuesta Diseño 1

Fig 34. Propuesta de diseño 1

- Partir aleatoriamente los diez corredores en dos grupos de igual tamaño -

Asignar un grupo para usar tenis hechas con material A y asignar el otro grupo para usar tenis hechas con material B

76


- Los corredores se ejercitan como de costumbre por un periodo especificado de semanas y retornan las tenis al fabricante - El desgaste del tenis es medido para cada par y los datos son analizados usando una prueba-t de dos muestras

ÂżEs ĂŠste el mejor diseĂąo para este estudio?

77


Propuesta Diseño 2

Planteamiento muestras pareadas - Asignar aleatoriamente una tenis del Material A y una del Material B al pie izquierdo y derecho de cada corredor

¿Es éste un mejor diseño?

Fig 35. Propuesta de diseño 2

78


Muestras pareadas

Datos Experimento Pareado

Son aquellas en las que los

Diseño: Experimento Pareado

datos de ambas poblaciones se

Amount of Wear (mm)

pueden ver como pares porque

Jogger

Material A

Material B

tienen algo en común y no son

1

13.2

14.0

independientes.

2

8.2

8.8

3

10.9

11.2

4

14.3

14.2

5

10.7

11.8

6

6.6

6.4

7

9.5

9.8

8

10.8

11.3

9

8.8

9.3

10

13.3

13.6

nA= 10

NB= 10

̅ A = 10.6 X

̅ B = 11.0 X

SA= 2.45

SB= 2.52

¿Cómo se analizarían estos datos? 79


Anรกlisis Muestra Pareada Calcular una nueva columna con la diferencia en degaste para cada corredor Delta (B-A) = XB - XA Jogger

Material A

Material B

Delta (B-A)

1

13.2

14.0

0.8

2

8.2

8.8

0.6

3

10.9

11.2

0.3

4

14.3

14.2

-0.1

5

10.7

11.8

1.1

6

6.6

6.4

-0.2

7

9.5

9.8

0.3

8

10.8

11.3

0.5

9

8.8

9.3

0.5

10

13.3

13.6

0.3

Analizar la columna de deltas, no los datos iniciales

80


Delta (B-A) vs. Corredor - ¿Puede ud. indicar en este gráfico si los dos materiales tienen el mismo desgaste? - ¿Cómo se pueden comparar estadísticamente?

Fig 36. Gráfico Delta vs. Corredor

Si los materiales tienen el mismo desgaste, el delta promedio debe estar cercano a 0. 81


HipĂłtesis EstadĂ­stica Se quiere probar la hipĂłtesis: đ??ť0 : đ?œ‡đ??´ = đ?œ‡đ??ľ Desgaste medio verdadero es el mismo para ambos

đ??ť1 : đ?œ‡đ??´ ≠đ?œ‡đ??ľ versus

materiales A y B

Desgaste medio verdadero es diferente para los materiales A y B

Nota: La hipĂłtesis puede tambiĂŠn ser establecida como đ??ť0 : đ?œ‡đ??ľ − đ?œ‡đ??´ = 0

Vs.

đ??ť1 : đ?œ‡đ??ľ − đ?œ‡đ??´ ≠0

Fig 37. HipĂłtesis estadĂ­stica

82


Prueba Pareada-t - Aplicar mĂŠtodos muestrales a la columna de deltas

Jogger

Material A

Material B

Delta (B-A)

1

13.2

14.0

0.8

2

8.2

8.8

0.6

3

10.9

11.2

0.3

4

14.3

14.2

-0.1

5

10.7

11.8

1.1

6

6.6

6.4

-0.2

7

9.5

9.8

0.3

8

10.8

11.3

0.5

9

8.8

9.3

0.5

10

13.3

13.6

0.3

- Recuerde el estadĂ­stico t de una sola muestra

đ?‘Ą=

đ?œ’Ě… − đ?œ‡0 đ?‘†â „ √đ?‘›

Con n-1 grados de libertad, donde n es el nĂşmero de pares. 83


- Probar la hipĂłtesis que el delta promedio es 0 usando a = 0.05 Pair 1 2 3 4 5 6 7 8 9 10

N Rows

Delta (B-A) 0.8 0.6 0.3 -0.1 1.1 -0.2 0.3 0.5 0.5 0.3

đ?‘Żđ?&#x;Ž : đ?? đ?‘Š − đ?? đ?‘¨ = đ?&#x;Ž vs.

đ?‘Żđ?&#x;? : đ?? đ?‘Š − đ?? đ?‘¨ ≠đ?&#x;Ž

đ?‘Ą=

đ?œ’Ě… − đ?œ‡0 0.41 − 0 = = 3.35 đ?‘†â „ 0.39â „ √đ?‘› √10

Prob ( t > |3.35| ) = 0.0085

10

Mean (Delta(B-A))

0.41

Std Dev (Delta(B-A))

0.39

ConclusiĂłn

84


Intervalo de Confianza - ÂżQuĂŠ tan diferentes son los materiales? - Determine un intervalo de confianza que contenga la verdadera diferencia đ?œ’Ě… Âą đ?‘Ąđ?›źâ „2,đ?‘›âˆ’1 ∗ đ?‘†â „ √đ?‘› - Un intervalo de confianza del 95% para el ejemplo de los tenis para correr 0.41 Âą 2.26 ∗ 0.39â „ = (0.13,0.69) √10

ConclusiĂłn

85


- RemoviĂł la variabilidad de corredor a corredor de la comparaciĂłn.

- Mejoro la precisiĂłn (se redujo el error estĂĄndar) del estimado đ?œ‡đ??´ − đ?œ‡đ??ľ Ăł đ?œ‡đ?‘‘ . - Resultando en una comparaciĂłn mas sensitiva que el planteamiento de dos muestras independientes.

86


Referencias

Moya, M. y Robles,N. (2010). Probabilidad y Estad铆stica: Un Enfoque te贸rico y pr谩ctico. Cartago: Tecnol贸gico de Costa Rica.

87


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.