ESTADISTICA

Page 1

5.1. Experimentos con un factor. Se llaman Experimentos Factoriales a aquellos experimentos en los que se estudia simultáneamente dos o más factores, y donde los tratamientos se forman por la combinación de los diferentes niveles de cada uno de los factores. Los experimentos factoriales en si no constituyen un diseño experimental si no que ellos deben ser llevados en cualquiera de los diseños tal como D.C.A. ; D.B.C.A.; D.C.L. Los experimentos factoriales se emplean en todos los campos de la investigación, son muy utiles en investigaciones exploratorias en las que poco se sabe acerca de muchos factores.

VENTAJAS: 1.- Permite estudiar los efectos principales, efectos de interacción de factores, efectos simples y efectos cruzados. 2.- Todas las unidades experimentales intervienen en la determinación de los efectos principales y de los efectos de interacción de los factores, por lo que el número de repeticiones es elevado para estos casos. 3.- El número de grados de libertad para el error experimental es alto, comparándolo con los grados de libertad de los experimentos simples de los mismos factores, lo que contribuye a disminuir la variancia del error experimental, aumentando por este motivo la precisión del experimento.

DESVENTAJA: 1.- Se requiere un mayor número de unidades experimentales que los experimentos simples y por lo tanto se tendrá un mayor costo y trabajo en la ejecución del experimento. 2.- Como en los experimentos factoriales c/u de los niveles de un factor se combinan con los niveles de los otros factores; a fin de que exista un balance en el análisis estadístíco se tendrá que algunas de las combinaciones no tiene interés práctico pero deben incluirse para mantener el balance. 3.- El análisis estadistíco es más complicado que en los experimentos simples y la interpretación de los resultados se hace más dificil a medida de que aumenta el número de factores y niveles por factor en el experimento.


CONCEPTOS GENERALES: FACTOR.- Es un conjunto de tratamientos de una misma clase o característica. Ejemplo: tipos de riego, dosis de fertilización, variedades de cultivo, manejo de crianzas, etc. FACTORIAL.- Es una combinación de factores para formar tratamientos. NIVELES DE UN FACTOR.- Son los diferentes tratamientos que pertenecen a un determinado factor. Se acostumbra simbolizar algún elemento "i" por la letra minuscula que representa al factor y el valor del respectivo subindice. Ejemplo: A: Tipos de riego: Secano Goteo Aspersión Niveles: a0 a1 a2

TIPOS DE FACTORES: 1.- Factores Cuantitativos. 2.- Factores Cualitativos.

1.- FACTORES CUANTITATIVOS.- Son aquellos factores cuyos niveles son cantidades numéricas. Ejemplo: Factor A : Dosis de fertilización Niveles : 10 Kg/Ha (ao), 20Kg/Ha (a1), 30Kg/Ha (a2).

2.- FACTORES CUALITATIVOS.- Son aquellos factores cuyos niveles son procedimientos o cualidades.


Ejemplo:

Factor A: Variedades de cultivo Niveles : Variedad 1, Variedad 2. TIPOS DE EXPERIMENTOS FACTORIALES: Los experimentos factoriales para un determinado diseño se diferencian entre si, por el número de factores y por la cantidad de niveles de estos factores que intervienen en el experimento. Para simbolizar se usa la letra del factor:

pA x qB dos factores "A y "B", con "p" niveles para "A" y "q" niveles para "B" Número de factores.

2A 2B = 2A x 2B 2 x 2 22 Número de niveles de c/factor (4 tratamientos). Número de factores.

3A 3B = 3A x 3B 3 x 3 32 Número de niveles ( 9 tratamientos ). Número de factores.

4A 4B = 4A x 4B 4 x 4 42 Número de niveles ( l6 tratamientos ).

EFECTOS DE LOS EXPERIMENTOS FACTORIALES:

1.- EFECTO PRINCIPAL.- Es una medida del cambio en el promedio entre los niveles de un factor, promediado sobre los diferentes niveles del otro factor. Ejemplo: Dosis de Nitrogeno en las U.E. 2.- EFECTO INTERACCION.- Es una medida de cambio que expresa el efecto adicional resultante de la influencia combinada de dos o más factores.


Ejemplo: Efecto conjunto de nitrogeno y fosforo. 3.- EFECTO SIMPLE.- Es una medida de cambio en los promedios de los niveles de un factor, manteniendo constante, uno de los niveles del otro factor.

COMPARACIONES MÚLTIPLES Con las pruebas F empleadas se demostraba si las diferencias entre varias medias eran significativas, pero no informaban si una media en particular (o medias) difieren en forma significativa de otra media considerada (o grupo de medias). En el caso de los pesos de los recubrimientos puede ser importante que los laboratorios difieran unos de los otros. Si un experimentador tiene ante sí k medias, parece razonable probar entre todos los pares posibles, esto es efectuar k.(k-1)/2 pruebas t bimuestrales. Esto no es eficiente. Para ello se utilizan Pruebas de Comparaciones Múltiples, y entre ellas la Prueba del Rango Múltiple de Duncan. Las suposiciones básicas son, en esencia, las del análisis de la varianza en una dimensió para tamaños muestrales iguales. La prueba compara el Rango de Mínima Significancia, Rp, dado por: Rp

aquí

s r p x

es una estimación de:   x n

y puede calcularse como: s x

MSE n

donde MSE es la media de los cuadrados de error en el Análisis de Varianza. El valor de rp depende del valor deseado de significancia y del número de grados de Libertad correspondiente a la MSE, que se obtienen de tablas existentes en la bibliografía (Miller y Freund, “Estadística para Ingenieros”, tablas 12–a, para =0.05 y 12–b, para =0.01, con p=2,3,…,10 y para varios grados de libertad entre 1 y 120). Ejemplo: Con respecto a los datos de los pesos de los recubrimientos de estaño, aplicar la prueba del Rango Múltiple de Duncan para probar cuáles medias de los laboratorios difieren de las otras empleando un nivel de significancia de 0.05. Para ello se ordenan, en orden creciente, las cuatro medias muestrales:


Laboratorio Media luego, se calcula s

B C D A 0.227 0.230 0.250 0.268 usando MSE = 0.0015 del Análisis de Varianza:

0.0015

x

12

0.011

siendo el número de grados de libertad a, se obtienen los valores de rp: p rp multiplicando rp por P Rp

2 2.85

= k.(n-1) = 44. Por interpolación, en la Tabla 12-

3 3.00

4 3.09

3 0.033

4 0.034

= 0.011: 2 0.031

El rango de las cuatro medias es 0.268 – 0.227 = 0.041, que excede a R4 = 0.034, que es el rango significativo mínimo. Esto era de esperar, porque la prueba F indicó que las diferencias entre las cuatro medias eran significativas con a = 0.05. Para probar que hay diferencias significativas entre tres medias adyacentes, se obtienen los rangos de 0.038 y 0.023 respectivamente para 0.230, 0.250, 0.268 y 0.227, 0.230, 0.250. Puesto que el primero de estos valores sobrepasa a R3 = 0.033, las diferencias correspondientes no son significativas. Por último en el caso de parejas adyacentes de medias, ningún par adyacente tiene rango mayor que el rango significativo mínimo R2 = 0.031. Esto se resume:

donde se ha dibujado una línea bajo cualquier conjunto de medias adyacentes para las cuales el rango es menor que un valor correspondiente de Rp , esto es, bajo cualquier conjunto de medias adyacentes, para las cuales las diferencias no son significativas. Se concluye así que el Laboratorio A obtiene los pesos medios de recubrimiento más alto que los Laboratorios B y C.

Verificación Supuestos del Modelo


Para estimar los parámetros , minimizando: k

n

 

1,

2,

3

y

4

se puede emplear mínimos cuadrados

yij     i2

i 1 j 1

con respecto a y a las

i

, sujetas a la restricción

Esto se puede hacer por el método de los Multiplicadores de Lagrange. Derivando la penúltima expresión respecto de e igualando a cero: k

n

 

2 yij     i

i 1 j 1 k n

k

n

 

yij 

 

yij  k n  0

i 1 j 1 k n

0 k

 



i 1 j 1

n

 

i

0

i 1 j 1

0

i 1 j 1

para un i dado: n

j 1

2 yij     i

n

0

j 1

n

i

j 1

n

yij 

j 1

5.2. Experimentos con dos factores.


Algunos diseños experimentales clásicos. Un diseño experimental es una regla que determina la asignación de las unidades experimentales a los tratamientos. Aunque los experimentos difieren unos de otros en muchos aspectos, existen diseños estándar que se utilizan con mucha frecuencia. Algunos de los más utilizados son los siguientes: Diseño completamente aleatorizado. El experimentador asigna las unidades experimentales a los tratamientos al azar. La única restricción es el número de observaciones que se toman en cada tratamiento. De hecho si ni es el número de observaciones en el i-ésimo tratamiento, i = 1,...,I, entonces, los valores n1,n2,...,nI determinan por completo las propiedades estadísticas del diseño. Naturalmente, este tipo de diseño se utiliza en experimentos que no incluyen factores bloque. El modelo matemático de este diseño tiene la forma:

Diseño en bloques o con un factor bloque. En este diseño el experimentador agrupa las unidades experimentales en bloques, a continuación determina la distribución de los tratamientos en cada bloque y, por último, asigna al azar las unidades experimentales a los tratamientos dentro de cada bloque. En el análisis estadístico de un diseño en bloques, éstos se tratan como los niveles de un único factor de bloqueo, aunque en realidad puedan venir definidos por la combinación de niveles de más de un factor nuisance. El modelo matemático de este diseño es:

El diseño en bloques más simple es el denominado diseño en bloques completos, en el que cada tratamiento se observa el mismo número de veces en cada bloque. El diseño en bloques completos con una única observación por cada tratamiento se denomina diseño en bloques completamente aleatorizado o, simplemente, diseño en bloques aleatorizado. Cuando el tamaño del bloque es inferior al número de tratamientos no es posible observar la totalidad de tratamientos en cada bloque y se habla entonces de diseño en bloques incompletos.


Diseños con dos o más factores bloque. En ocasiones hay dos (o más) fuentes de variación lo suficientemente importantes como para ser designadas factores de bloqueo. En tal caso, ambos factores bloque pueden ser cruzados o anidados. Los factores bloque están cruzados cuando existen unidades experimentales en todas las combinaciones posibles de los niveles de los factores bloques. Diseño con factores bloque cruzados. También denominado diseño fila-columna, se caracteriza porque existen unidades experimentales en todas las celdas (intersecciones de fila y columna). El modelo matemático de este diseño es:

Los factores bloque están anidados si cada nivel particular de uno de los factores bloque ocurre en un único nivel del otro factor bloque. Diseño con factores bloque anidados o jerarquizados. Dos factores bloque se dicen anidados cuando observaciones pertenecientes a dos niveles distintos de un factor bloque están automáticamente en dos niveles distintos del segundo factor bloque. En la siguiente tabla puede observarse la diferencia entre ambos tipos de bloqueo.


Plan esquemรกtico de experimentos con dos factores bloque


Diseños con dos o más factores. En algunas ocasiones se está interesado en estudiar la influencia de dos (o más) factores tratamiento, para ello se hace un diseño de filas por columnas. En este modelo es importante estudiar la posible interacción entre los dos factores. Si en cada casilla se tiene una única observación no es posible estudiar la interacción entre los dos factores, para hacerlo hay que replicar el modelo, esto es, obtener k observaciones en cada casilla, donde k es el número de réplicas. El modelo matemático de este diseño es:

Generalizar los diseños completos a más de dos factores es relativamente sencillo desde un punto de vista matemático, pero en su aspecto práctico tiene el inconveniente de que al aumentar el número de factores aumenta muy rápidamente el número de observaciones necesario para estimar el modelo. En la práctica es muy raro utilizar diseños completos con más de factores. Un camino alternativo es utilizar fracciones factoriales que son diseños en los que se supone que muchas de las interacciones son nulas, esto permite estudiar el efecto de un número elevado de factores con un número relativamente pequeño de pruebas. Por ejemplo, el diseño en cuadrado latino, en el que se supone que todas las interacciones son nulas, permite estudiar tres factores de k niveles con solo k2 observaciones. Si se utilizase el diseño equilibrado completo se necesitan k3 observaciones. Diseños factoriales a dos niveles. En el estudio sobre la mejora de procesos industriales (control de calidad) es usual trabajar en problemas en los que hay muchos factores que pueden influir en la variable de interés. La utilización de experimentos completos en estos problemas tiene el gran inconveniente de necesitar un número elevado de observaciones, además puede ser una estrategia ineficaz porque, por lo general, muchos de los factores en estudio no son influyentes y mucha información recogida no es relevante. En este caso una estrategia mejor es utilizar una técnica secuencial donde se comienza por trabajar con unos pocos factores y según los resultados que se obtienen se eligen los factores a estudiar en la segunda etapa. Los diseños factoriales 2k son diseños en los que se trabaja con k factores, todos ellos con dos niveles (se suelen denotar + y -). Estos diseños son adecuados para tratar el tipo de problemas descritos porque permiten trabajar con un número elevado de factores y son válidos para estrategias secuenciales.


Si k es grande, el número de observaciones que necesita un diseño factorial 2k es muy grande (n = 2k). Por este motivo, las fracciones factoriales 2k-p son muy utilizadas, éstas son diseños con k factores a dos niveles, que mantienen la propiedad de ortogonalidad de los factores y donde se suponen nulas las interacciones de orden alto (se confunden con los efectos simples) por lo que para su estudio solo se necesitan 2k-p observaciones (cuanto mayor sea p menor número de observaciones se necesita pero mayor confusión de efectos se supone). En los últimos años Taguchi ha propuesto la utilización de fracciones factoriales con factores a tres niveles en problemas de control de calidad industrial.

5.3. Experimentos con tres factores. Diseños Factoriales con tres Factores. Análisis de varianza Tomando un factorial de tres factores asociado con un DCA el modelo estadístico apropiado es:

Donde efecto del

nivel del factor

.

Este modelo se supone cuando el investigador se interesa únicamente en los a niveles del factor a, en los b niveles del factor b y en los c niveles del factor c presentes en el experimento. Estas suposiciones están sintetizadas en:

La tabla ANOVA será: Tabla 2.. ANOVA para un factorial de tres factores en un DCA Fuente de variación g.l Suma de Cuadrados Cuadrados medios Tratamientos A B


Fuente de variación g.l Suma de Cuadrados Cuadrados medios C AB AC BC ABC Error Experimental Total Los valores F se calcularán mediante la relación del cuadrado medio para el efecto en investigación y el cuadrado medio del error experimental.

5.4. Comparación de las medias de los tratamientos. PRUEBAS DE DIFERENCIA DE MEDIAS O DE COMPARACIONES MÚLTIPLES Cuando se rechaza la hipótesis nula de no diferencia de más de dos medias (H0: 1 = 2 = … = k) en un análisis de varianza surge la pregunta acerca de cuáles pares de medias son diferentes, puesto que el rechazo de una hipótesis nula con cuatro tratamientos (H0: 1 = 2 = 3 = 4), podría deberse a uno o varios de los seis pares de diferencias que se pueden tener, esto es: 1 2o 1 3o 1 4o 2 3o 2 4o 3 4 Existen varios procedimientos para determinar cuáles son los pares de medias que son diferentes. El primero de estos procedimientos, y el más utilizado en el pasado, es el de la Diferencia Significativa Mínima (DSM) de Fisher publicada en 1935 en su libro The Design of Experiments. Este procedimiento es una extensión de la prueba t de Student para el caso de comparación de dos medias con varianza ponderada. Otros procedimientos más recientemente usados para el mismo propósito son: la prueba de Student-Neuman-Keuls, la prueba de Diferencia Significativa Honesta de Tukey (DSH), la prueba del Rango múltiple de Duncan, la prueba de Dunnett y la prueba de Scheffé, entre otras. Véase Steel and Torrie y Federer. PRUEBA DE DIFERENCIA SIGNIFICATIVA MÍNIMA (DSM).DE FISHER Cuando el análisis de varianza indica la existencia de una diferencia significativa se desea conocer cuál de los pares de medias causa la diferencia. Cuando las muestras son de igual tamaño la Diferencia Significativa Mínima (DSM) de Fisher nos ayuda a localizar esta fuente. La Diferencia Significativa Mínima (DSM) se define como la diferencia mínima que podría existir entre dos medias de muestras significativamente diferentes. Para obtener la


fórmula para la DSM, se usa la prueba t de Student para la diferencia entre dos medias cuando las varianzas no son diferentes cuyo estadístico de contraste es:

Además, si se considera ni = nj = n, entonces Si este valor calculado es mayor que el valor teórico (de tablas) decimos que la diferencia entre 1 y 2 es significativa. Así, la DSM puede considerarse como la menor de las diferencias

donde

, es decir,

y

, por lo tanto, se tiene:

[13.6] Ejemplo 2: Calcule la DSM de Fisher para los datos del ejemplo 1

Los valores absolutos de las diferencias entre en la siguiente tabla. Tabla

Valores

del ejemplo 1 se muestran

absolutos

de

las

diferencias

del ejemplo 1

0.204

0.022

0.348

entre


0.226

0.144 0.370

Como se puede observar, las diferencias que exceden (DSM) están entre las medias ,y

, por lo tanto, sólo difieren las medias

4

de

1y

de

3.

Es importante tener presente que la prueba DSM sólo se debe emplear cuando el ANDEVA ha conducido al rechazo de H0. Si las muestras no son del mismo tamaño no se debe usar DSM. PRUEBA DE DIFERENCIA SIGNIFICATIVA HONESTA (DSH) DE TUKEY La prueba de Diferencia Significativa Honesta (DSH) de Tukey, al igual que la DSM, sólo se debe usar después que se ha rechazado la hipótesis nula en el análisis de varianza y cuando todos los tamaños de muestra son iguales; pero a diferencia de la DSM emplea el valor . En lugar de . Este valor q se obtiene de la tabla T-8, para el nivel de significancia , el número de tratamientos K y los grados de libertad del error, entonces:

[13.7] Ejemplo 3: Para los datos del ejemplo 1 y = 0.05,

Los valores absolutos de las diferencias entre en la siguiente tabla. Valores

del ejemplo 1 se muestran

absolutos

de

las

diferencias

del ejemplo 1

0.204

0.022

0.348

entre


0.226

0.144 0.370

Como se puede observar, las diferencias que exceden (DSH) están entre las medias ,y

, por lo tanto, sólo difieren las medias

4

de

1y

de

3.

Es importante tener presente que la prueba DSH sólo se debe emplear cuando el ANDEVA ha conducido al rechazo de H0. Si las muestras no son del mismo tamaño no se debe usar DSH. PRUEBA DEL RANGO MÚLTIPLE DE DUNCAN La Prueba del Rango múltiple Duncan es otra prueba para determinar la diferencia entre pares de medias después que se ha rechazado la hipótesis nula en el análisis de varianza. Este procedimiento emplea los valores de la tabla T-9 y consiste en calcular varios "rangos" (Duncan los llama rangos significativos mínimos) dados por la fórmula:

[13.8] donde p toma valores entre 2 y K (K es el número de tratamientos), d se obtiene de la tabla T-9 y el CMError se obtiene de la tabla de ANDEVA respectiva. Ejemplo 4: Se realizó un experimento para determinar la cantidad (en gramos) de grasa absorbida por 48 donas (doughnuts) usando ocho tipos diferentes de grasas (aceites y mantecas). Las medias para los ocho tratamientos se muestran a continuación:

Se usaron seis "donas" en cada tipo de grasa y se obtuvo un cuadrado medio del error de 141.6, los grados de libertad del error son 48 8 =40. Seleccionando = 0.05 para este ejemplo, los rangos de Duncan son:


Los valores 3.300, 3.266,..., 2.858 se obtuvieron de la tabla de Duncan (T-9) para 2 p 8 y 40 grados de libertad.

= 0.05,

El siguiente paso es ordenar las medias en orden creciente para establecer los "rangos".

El rango entre las medias máxima y mínima se compara con D8, esto es, , entonces existe diferencia significativa entre las grasas 4 y 7.

El próximo paso es comparar subconjuntos de siete medias con el rango D7. , entonces , entonces Como los dos exceden el rango D7 se subdividen estos dos subconjuntos en conjuntos de seis medias. , entonces , entonces , entonces Nuevamente éstos exceden D6, entonces éstos se subdividen en subconjuntos de cinco medias , entonces , entonces , entonces


, entonces Como las medias para las grasas 3, 2, 6 y 1 están incluidos en el conjunto 43261 que fue no significativo, los rangos de las medias en el subconjunto 3261 no se comparan con D4; solamente los rangos de las medias en el subconjunto 2615 se comparan con D4; por lo tanto, , entonces Los otros subconjuntos de cuatro medias (3,2,6,1) y (6,1,5,3) no se comparan con D4 porque ya fueron declarados no significativos en los conjuntos de cinco medias. Por lo tanto, el proceso termina. Los resultados se muestran gráficamente en la siguiente figura, donde las medias que están debajo de una línea no son significativamente diferentes.

El investigador puede concluir que las cantidades absorbidas usando las grasas 4 y 3 son significativamente mayores que las 5, 8 y 7, y que la 2 es significativamente mayor que las 8 y 7 y las demás grasas no son significativamente diferentes en relación con la cantidad absorbida. PRUEBA DE DUNNETT En muchos experimentos uno de los tratamientos es el control, y el investigador está interesado en comparar cada una de las otras K 1 medias de los tratamientos contra el control, por lo tanto, existen K 1 comparaciones. Un procedimiento para realizar estas comparaciones es la prueba de Dunnett (desarrollada en 1964). Si se supone que el control es el tratamiento a, entonces se desea probar las hipótesis

El procedimiento de Dunnett es una modificación de la prueba t. Para cada hipótesis se calcula el valor absoluto de la diferencia de medias observadas


El rechazo de la hipótesis nula se realiza con una probabilidad de error tipo I,

si

, donde la constante se busca en la tabla T-10. Observe que f es el número de grados de libertad del error y es el nivel de significación asociado con todos las K 1 pruebas y utilizado en el análisis de varianza. Ejemplo 5: En el ejemplo 1, la compañía desea comparar todas las otras plantas con la planta A que es la que cumple con los requisitos (control), por lo tanto, la prueba de Dunnett sería más adecuada que la de Fisher o la de Tukey para este caso.

En consecuencia, la única planta que difiere significativamente de la planta A es la D. PRUEBA DE SCHEFFÉ Esta prueba es similar a la prueba de Tukey, difiere de ella en que en vez de usar la tabla T-8 para obtener valores "studentizados" q utiliza la tabla F de Fisher (T-7) para obtener el factor

donde K es el número de tratamientos y el nivel de significación.


Este factor dos medias

se multiplica por el error estรกndar de la diferencia entre para obtener la cantidad:

[13.9] que se compararรก con las diferencias entre los pares de medias de los tratamientos. Ejemplo 6: Usando los datos del ejemplo 4, se tiene:

Si la diferencia entre cualquier par de medias excede este valor se dice que hay diferencia significativa entre las medias comparadas. Las diferencias entre las ocho medias se muestran en la siguiente tabla. Tabla

Valores

absolutos

de

las

diferencias

del ejemplo 4

3

7

9

13

20

23

24

4

6

10

17

20

21

2

6

13

16

17

4

11

14

15

7

10

11

3

4 1

entre


En este ejemplo todas las diferencias entre los pares de medias son menores que 27.3, por lo que no hay diferencia significativa entre los pares de grasas. NOTA: Todas las pruebas estudiadas para comparar pares de medias requieren que todos los tratamientos tengan el mismo número de observaciones n. Algunos autores, entre ellos Snedecor y Cochran, han recomendado usar la media armónica nh entre los tamaños de muestra nj cuando el número de observaciones no es el mismo. Aparentemente esta aproximación no altera el error de Tipo I. 5.5. Diseño de bloques totalmente aleatorizado. Diseño de bloques completos aleatorizados. El ejemplo clásico, que utiliza un diseño de bloques aleatorizado, es un experimento agrícola en el que se comparan diferentes fertilizantes según su capacidad de aumentar el rendimiento de una cosecha en particular. En lugar de asignar los fertilizantes al azar a muchas parcelas en un área grande de composición de suelos variable, se deben asignar los fertilizantes a bloques más pequeños compuestos de parcelas homogéneas. La variación entre estos bloques, que es probablemente más significativa comparada con la uniformidad de las parcelas dentro de un bloque, elimina el error experimental en el análisis de varianza. Una disposición típica para el diseño de bloques completos aleatorizados con el uso de tres mediciones en cuatro bloques es el siguiente. bloque 1 t2 t1 t3

bloque 2 t1 t3 t2

bloque 3 t3 t2 t1

bloque 4 t2 t1 t3

Las t denotan la asignación a los bloques de cada uno de los tres tratamientos. Por supuesto, la asignación real de los tratamientos a unidades dentro de los bloques se realiza al azar. Una vez que el experimento termina, los datos se pueden registrar como en el siguiente arreglo de 3x4: Tratamiento 1 2 3

Bloques:

1 y11 y21 y31

2 y12 y22 y32

3 y13 y23 y33

4 y14 y24 y34

donde yij representa la respuesta que se obtiene al utilizar el i-ésimo tratamiento en el jésimo bloque.


Generalicemos y consideremos el caso de k tratamientos que se asignan a b bloques. Los datos se pueden resumir como se muestra en el arreglo rectangular de kxb de la siguiente tabla

1

2

j

b

total

media

1

y11

y12 

y1 j

y1b

T1.

y1.

2

y21

y22  y2 j  y2b

T2.

y2.

i

yi1

yi 2

yib

Ti.

yi.

k

yk 1

yk 2 

yk .

total

T.1

media

y.1

 

yij

 ykj

 ykb

Tk .

T.2

 T. j

 T.b

T..

y.2

y. j

y.b

y..

Se supondrá que las variables yij i=1,2,...,k y j = 1,2,...,b, son valores de variables independientes que tienen distribuciones normales con media mij y varianza común s2. Definimos Ti. = suma de las observaciones para el i-ésimo tratamiento. T.j = suma de las observaciones para el j-ésimo bloque. T.. = suma de todas las bk observaciones. yi. = media de las observaciones para el i-ésimo tratamiento y. j

= suma de las observaciones para el j-ésimo bloque. y.. = suma de todas las bk observaciones.

Representamos como tratamiento. Es decir,

i.

el promedio de las b medias poblacionales para el i-ésimo

b

 i. 

 j 1

ij

b

De manera similar, el promedio de las medias poblacionales para el j-ésimo bloque, se define como


k

. j 

 i 1

ij

k

y el promedio de las bk medias, se define como k



b

  i 1

ij

j

kb

Para determinar si parte de la variación en nuestras observaciones se debe a diferencias entre los tratamientos, consideremos las pruebas.

H0 : H1 : al menos dos de las medias no son iguales. Cada observación se puede escribir de la forma

yij  i   ij

donde ij mide la desviación del valor observado yij de la media poblacional de esta ecuación que se prefiere se obtiene al sustituir

ij.

La forma

yij    i   j donde i es, el efecto del i-ésimo tratamiento y j es el efecto del j-ésimo bloque. Se supone que los efectos del tratamiento y del bloque se pueden sumar. De aquí, podemos escribir

yij     i   j   ij Nótese que el modelo parece el de la clasificación unilateral, la diferencia esencial es la introducción del efecto de bloque j. El concepto básico es muy semejante al de la


clasificación unilateral excepto que debemos tomar en cuenta en el análisis el efecto adicional debido a los bloques, pues ahora controlamos de manera sistemática la variación en dos direcciones. Si imponemos ahora las restricciones k

 i 1

b



0

i

j

j 1

y

0

Entonces

   

 j

b

i . 

j 1

i

   i

b

y

    k

. j 

i 1

i

 j

k

   j

La hipótesis nula de que las k medias de tratamiento es equivalente ahora a probar la hipótesis

i.

son iguales, y por tanto iguales a ,

H0 : =0 H1 : al menos una es diferente de cero. Cada una de las pruebas de tratamiento se basará en una comparación de estimaciones independientes de la varianza poblacional común s2. Estas estimaciones se obtendrán al dividir la suma total de cuadrados de nuestros datos en tres componentes por medio de la siguiente identidad. Identidad de suma de cuadrados.

 y k

b

i 1 j 1

 y..  b  yi.  y..   k   y. j  y..  2

ij

k

2

i 1

b

2

j 1

   yij  yi  y. j  y..  k

b

2

i 1 j 1

La identidad de suma de cuadrados se puede representar de manera simbólica con la ecuación SST = SSA + SSB + SSE donde:


SST    yij  y..  k

b

2

i 1 j 1 k

SSA  b  yi.  y.. 

2

i 1

SSB  k   y. j  y..  b

2

j 1

SSE    yij  yi  y. j  y..  k

b

2

i 1 j 1

Podemos mostrar que los valores esperados de las sumas de cuadrados de tratamiento, bloque y error están dados por

k

E ( SSA)  (k  1)  b i2 2

i 1

b

E ( SSB)  (b  1)  b  2j 2

j 1

E(SSE)  (b  1)(k  1) 2 Si los efectos de tratamiento s2 y podemos calcular la varianza como

s12 

, s12 es un estimador insesgado de

SSA k 1

Por bloques tenemos el mismo caso si estimador insesgado de s2 y podemos calcular la varianza como

s22 

SSB b 1

s22 también un


Una tercera estimación de s2, basada en (k-1)(b-1) grados de libertad e independiente de s12 y s22 es

s2 

SSE b  1k  1

Para probar la hipótesis nula de que los efectos de tratamiento son todos iguales a cero, calculamos la razón 2 1 1 2

f 

s s

que es un valor de la variable aleatoria F1 que tiene una distribución F con k-1 y (k-1)(b-1) grados de libertad. La hipótesis nula H0 se rechaza en el nivel de significancia cuando f1 >fa[k-1, (k-1)(b-1)] Análisis de variancia para probar Suma de Fuente de cuadrados variación Tratamientos SSA Bloques SSB Error SSE

Grados de libertad

Cuadrado medio f calculada

k-1 b-1 (k-1)(b-1)

s12 =SSA/(k-1) s22 =SSB/(b-1) s2=SSE/ (k-1)(b-1)

s1/s s2/s

Total SST bk-1 rechazamos H0, al nivel de significancia a cuando f1 >fa[k-1, (k-1)(b-1)]

Ejemplo 1 Se consideran cuatro diferentes máquinas M1, M2, M3 y M4 para el ensamblaje de un producto particular. Se decide que utilizar seis operadores diferentes en un experimento de bloques aleatorizados para comparar las máquinas. Las máquinas se asignan en orden aletorio a cada operador. La operación de las máquinas requiere destreza física y se


anticipa que habrá una diferencia entre los operadores en la rapidez con la que operan las máquinas. Se registra la cantidad de tiempo en segundos para ensamblar el producto

Maquina 1 2 3 4 total

operador

1 42.5 39.8 40.2 41.3 163.8

2 39.3 40.1 40.5 42.2 162.1

3 39.6 40.5 41.3 43.5 164.9

4 39.9 42.3 43.4 44.2 169.8

5 42.9 42.5 44.9 45.9 176.2

6 43.6 43.1 45.1 42.3 174.1

TOTAL 247.8 248.3 255.4 259.4 1010.9

Pruebe la hipótesis nula.

Del análisis de los valores P tenemos que este es igual a 0.048, por lo tanto, para un nivel de significacancia del 0.05 tenemos que el valor P es más pequeño, por lo cual la hipótesis debe ser rechazada y no existe evidencia de que las máquinas trabajen a la misma velocidad.

Ejemplo 2 Se utilizaron cuatro clases de fertilizantes f1, f2, f3 y f4 para estudiar el rendimiento en el cultivo de fríjol. El suelo de dividió en tres bloques, cada uno de los cuales contiene 4 parcelas homogéneas. A continuación se presentan los rendimientos en kilogramos por parcela, así como los tratamientos correspondientes: Bloque 1 f1 = 42.7 f3 = 48.5 f4 = 32.8 f2 = 39.3

Bloque 2 f3 = 50.9 f1 = 50.0 f2 = 38.0 f4 = 40.2

Bloque 3 f4 = 51.1 f2 = 46.3 f1 = 51.9 f3 = 53.5

a) Realice un análisis de varianza con un nivel de significacancia de 0.05, y utilice el modelo de bloques aleatorios por completo


Del análisis de varianza podemos ver que con un nivel de significancia de 0.05 que el valor P es 0.030. Esto significa que la hipótesis debe ser rechazada y no hay evidencia de que los rendimientos de fríjol sean iguales.

Que es un residuo para un diseño de Bloques completamente aleatorio La formulación de bloques completamente aleatorios es otra situación experimental en la cual la gráfica hace que el analista se sienta cómodo con una “imagen ideal” o con la detección de dificultades. Hay que recordar que el modelo para bloques completamente aleatorios es

yij     i   j   ij Con las restricciones impuestas k

 i 1

i

b



0 y

j 1

j

0

Para determinar qué es lo que en realidad constituye un residuo, considere que

 i  i .    j  . j   Como resultado, el valor ajustado o pronóstico esta dado por

yˆ ij  ˆ  ˆ i  ˆ j  yi.  y. j  y.. y, entonces, el residuo de observación (i,j) está dado por

yij  yˆ ij  yij  yi.  y. j  y..


Observe que

yˆ ij , el valor ajustad es un estimador de la media

ij.

Esto es consistente con

la partición de la variabilidad en la que la suma de los errores al cuadrado es

SSE   yij  yi.  y. j  y..

2

i

j

Las técnicas visuales en la formación de bloques completamente aleatorios implican graficar los residuos por separado para cada tratamiento y bloque. Si la suposición de varianza homogénea se cumple, el analista debería esperar una variabilidad aproximadamente igual.

5.6. Diseños factoriales: 5.6.1. Definición de diseños factoriales 2K. Diseño Factorial General 2k Los diseños factoriales son a ampliamente utilizados en experimentos en los que intervienen varios factores para estudiar el efecto conjunto de estos sobre una respuesta. Existen varios casos especiales del diseño factorial general que resultan importantes porque se usan ampliamente en el trabajo de investigación, y porque constituyen la base para otros diseños de gran valor práctico. El más importante de estos casos especiales ocurre cuando se tienen k factores, cada uno con dos niveles. Estos niveles pueden ser cuantitativos como sería el caso de dos valores de temperatura presión o tiempo. También pueden ser cualitativos como sería el caso de dos máquinas, dos operadores, los niveles "superior" e "inferior" de un factor, o quizás, la ausencia o presencia de un factor. Una réplica completa de tal diseño requiere que se recopilen 2 x 2 x .... x 2 = 2 k observaciones y se conoce como diseño general 2k. El segundo caso especial es el de k factores con tres niveles cada uno, conocido como diseño factorial 3k. Se supone que: a) los factores son fijos b) los diseños son completamente aleatorios c) se satisface la suposición usual de normalidad


El diseño 2k es particularmente útil en las primeras fases del trabajo experimental, cuando es probable que haya muchos factores por investigar. Conlleva el menor número de corridas con las cuales pueden estudiarse k factores en un diseño factorial completo. Debido a que sólo hay dos niveles para cada factor, debe suponerse que la respuesta es aproximadamente lineal en el intervalo de los niveles elegidos de los factores.







5.7. Métodos de Optimización. Método científico y Diseño de Experimentos Método científico Ejercicio. Suponga que Ud desea encontrar el diseño óptimo para alcanzar la máxima altura con una cometa. Considere dados: la longitud de la cuerda, el área, su forma y los materiales; puede variar, la longitud de tres tirantes y de la cola; que haría? ¿Existe un método o procedimiento concreto para realizar una investigación científica? Al menos se debe contar con guías básicas que aunque no generen el Saber automáticamente, si orienten al investigador para no perderse en los fenómenos o caer en sus prejuicios, permitiendo ahorrar esfuerzo, tiempo y dinero. Hay dos grandes clases de métodos de investigación:


 

los métodos lógicos: Usan las funciones del pensamiento como la deducción, inducción, modelado, análisis y síntesis. los métodos empíricos. Explotan el conocimiento directo sobre el objeto y la experiencia, entre ellos se encuentran la observación y la experimentación.

En cada clase existen múltiples métodos, varios de ellos complementarios entre sí; a continuación se describen los de mayor interés en ingeniería por su orientación a resolver problemas. MÉTODOS LÓGICOS Método deductivo Aplica juicios lógicos a un principio o ley conocida para encontrar otros principios o consecuencias desconocidas.

Ejemplo Un cuerpo con masa sufre una fuerza de gravedad; la cometa tiene masa, luego la cometa sin viento, cae. Si conocemos la altura y el tiempo que tarda en caer podemos calcular su velocidad. La Matemática es una ciencia deductiva, parte de definiciones y axiomas. Método hipotético-deductivo Se propone una hipótesis1 a partir de la inferencia de datos empíricos (inducción) o de principios y leyes (deducción). A partir de ella y mediante deducción lógica, se obtienen conclusiones particulares que se pueden comprobar experimentalmente. Método inductivo Se estudian casos particulares y se extienden a conocimientos generales. Ejemplo Analizando el resultado del rendimiento académico de cada estudiante del curso de Investigación I, se concluye que el rendimiento promedio del curso es excelente (inducción completa). Que haría para analizar el rendimiento académico promedio de los estudiantes de la Universidad del Valle? Si los objetos de investigación son infinitos o no se pueden estudiar en su totalidad, se toma una muestra representativa que permita generalizar (inducción incompleta). Si la 1

proposición que establece relaciones, entre hechos o variables


conclusión se infiere observando que un mismo carácter se repite en una serie de elementos del objeto de investigación (inducción por enumeración), la generalización sólo es probabilística. La inducción incompleta puede ser científica; en este caso, se estudian los caracteres, conexiones, relaciones de causalidad, etc., del objeto de investigación; éste método se apoya en los métodos empíricos de observación y experimentación, ver más adelante.

Ejemplo Para que un cuerpo flote en el aire, se requiere que esté sometido a una fuerza en dirección contraria a la de la gravedad, igual o superior en magnitud; la cometa necesita viento para volar. En el método de inducción hay otros métodos para encontrar causas a partir de la experimentación, tales como:  Concordancia: se comparan varios casos donde se presenta un fenómeno y se infiere como causa al fenómeno, lo que se repite en los casos.  Diferencia: del análisis de varios casos, se observa qué ausencia de una circunstancia, no produce el efecto, estando siempre todas las demás circunstancias; la circunstancia ausente es la causa de lo investigado.  Variaciones concomitantes: si la variación de una variable o fenómeno aparece con la variación de otra variable o fenómeno, entonces hay relación causa-efecto entre las variables o fenómenos.  Residuos: para un fenómeno dado, se eliminan las circunstancias cuyas causas se conocen; la circunstancia residual es la causa del fenómeno. Método sintético Mediante una reunión racional de elementos dispersos o hechos aparentemente aislados, se formula una teoría que unifica los diversos hechos o elementos. Método analítico Se extraen las partes de un todo para estudiarlas por separado y analizar las relaciones entre ellas; experimentando y analizando muchos casos, se establecen leyes universales. Incluye por tanto un ejercicio de síntesis sobre los resultados obtenidos en el análisis. Ejemplo La investigación en la física, la química y la biología utilizan este método. Método del Modelado Es la creación de abstracciones con miras a explicar la realidad. El modelo busca representar el objeto de investigación en cierto sistema auxiliar, natural o artificial.


Método sistémico Busca modelar el objeto a partir de sus componentes y de las relaciones entre ellos. MÉTODOS EMPÍRICOS Se basan en la percepción directa del objeto de investigación y del problema. Observación científica El investigador conoce el problema y el objeto de investigación, estudiando su curso natural, sin alterarlo; de ella se derivan grandes bases de conocimientos de las ciencias. Ejemplo La Astronomía. La experimentación científica La experimentación consiste en alterar controladamente las condiciones naturales del objeto de investigación, de forma que realizando pruebas, creando modelos y reproduciendo condiciones, se obtendrán relaciones o rasgos del objeto o problema. Con ella, se caracterizan los factores (X) de mayor influencia en variables de respuesta (Y) del objeto, de forma que si sistemáticamente se realizan cambios controlados en los factores del proceso, sea posible observar y cuantificar los cambios que éstos generan sobre la variable de respuesta. EL MÉTODO CIENTÍFICO En términos simples, lo podemos definir como la aplicación de la lógica y la objetividad para entender un fenómeno, descubrir nuevos conocimientos o resolver un problema; en general se caracteriza por partir de lo conocido (definiciones, conceptos), utilizar las operaciones lógicas y validar o desaprobar hipótesis mediante la observación o la experimentación científica. Nótese que el método científico puede utilizar diversas combinaciones de los métodos arriba presentados, en particular el hipotético deductivo o inductivo y el experimental. No hay reglas ni pasos infalibles para aplicar el método científico; los pasos siguientes son algunos de los más importantes: 

Formular precisa y específicamente el problema: Inicialmente se percibe la dificultad (hay un problema que preocupa, faltan medios para resolverlo, no se explica un


   

acontecimiento inesperado), luego mediante observación o experimentación se identifica y precisa la dificultad o el problema. Proponer hipótesis bien definidas y fundamentadas como posible solución del problema; las hipótesis deben: A. Ser empíricas, sin prejuicios. B. Ser conceptualmente claras. C. Ser específicas, sin predicciones generales. D. Estar relacionadas con las técnicas teóricas disponibles para verificarlas. Someter la hipótesis a una verificación rigurosa: normalmente mediante experimentación científica Deducir las consecuencias de la solución propuesta, su alcance y limitaciones; las hipótesis confirmadas no son absolutamente verdaderas. Intentar formalizar en leyes el nuevo conocimiento obtenido. Analizar extensiones, planteamientos alternos o trabajos futuros.

Por tanto, la experimentación en el método científico juega un rol importante por cuanto permite examinar críticamente los resultados basados en el conocimiento corriente y permite validar o no, las nuevas hipótesis propuestas; se debe para ello diseñar experimentos que de manera rigurosa permitan el estudio experimental del problema y la validación de las hipótesis.

Diseño de Experimentos La planificación de la experimentación debe considerar los siguientes aspectos importantes:  La experimentación es normalmente costosa. Exige personal, tiempo, instrumentación, etc. se debe por tanto contemplar el menor número de experimentos que permitan obtener la información buscada.  El resultado observado de un experimento (y) tiene incertidumbre; si h es el resultado “verdadero” (desconocido) del experimento: y = h + e donde e es una contribución aleatoria, que varía cada vez que se repite el experimento. Por ello, en el diseño de los experimentos y en la evaluación de los resultados experimentales, la Estadística juega un papel fundamental pues es la disciplina que proporciona las herramientas para trabajar en ambientes de incertidumbre.  El análisis de los resultados experimentales permitirá obtener conclusiones sobre el objeto en estudio y decidir las acciones a seguir. Por lo anterior no es adecuado dejar la elección de los experimentos y la evaluación de los resultados a la mera intuición del experimentador. Es más razonable utilizar metodologías matemáticas y estadísticas que permitan diseñar la secuencia de experimentos de una forma óptima, de modo que se minimice tanto el costo de la experimentación como la influencia del error experimental sobre la información buscada; éste es el objetivo del Diseño Estadístico de Experimentos.


En general, se aplica el diseño de experimentos para sistemas donde existen una o varias variables de respuesta (y) cuyo valor depende de una o varias variables independientes (x) controlables, llamadas factores. Las respuestas pueden estar influenciadas por otras variables no controladas. Factores

Respuestas

Variables no controladas Entre otros, para este caso se puede buscar:    

Obtener un conocimiento inicial sobre un nuevo sistema en estudio; identificar los factores de interés. Determinar los efectos de los factores sobre las respuestas, cuáles son los más importantes y cómo son las interacciones. Optimizar las respuestas, determinar los valores de los factores que den las respuestas óptimas. Determinar la robustez del sistema ante las variables no controladas o variaciones indeseables de los factores.

El método tradicional de experimentación Viene de la intuición y consiste en variar un factor cada vez: para unas condiciones iniciales, se realizan experimentos en los cuales los factores se mantienen constantes excepto el que está bajo estudio; así, la variación de la respuesta solo se debe al factor; lo mismo se repite para los demás factores. El procedimiento asume que si se varía más de un factor entre dos experimentos consecutivos, no se podría conocer el factor causante de la variación de la respuesta. El método también se utiliza para hallar los valores de los factores que optimizan una respuesta. Se experimenta inicialmente con un solo factor y obtiene el óptimo; se deja el factor inicial en éste óptimo y se procede con de la misma manera con los factores siguientes. Este método presenta inconvenientes importantes cuando existe interacción entre factores (el efecto de un factor es diferente según el valor que tome otro factor y viceversa). Además, el método no informa sobre como un factor interactúa con los otros factores o como estas interacciones afectan a la respuesta, con lo cual sólo se obtiene una comprensión limitada de los efectos de los factores. En optimización, no necesariamente se obtiene el óptimo; se puede reiniciar el proceso desde el óptimo obtenido pero esto es impráctico si existen muchos factores.


La limitación del método tradicional estriba en que sólo se varía un factor a la vez; con el diseño de experimentos estadístico se tiene el análisis matemático que permite cambiar los factores simultáneamente y obtener la información buscada de las interacciones con un número reducido de experimentos. Procedimiento de aplicación del Diseño de Experimentos Se consideran los siguientes pasos: 1. Comprender el problema. Se debe realizar un planteamiento muy claro del problema, el cual involucra conocer profundamente el sistema y problema bajo estudio: información de antecedentes, zonas del dominio experimental donde ya se conocen resultados, datos sobre repetitividad de la experimentación, tipo de relaciones esperadas entre los factores y la respuesta (lineal, alineal), interacción entre factores, presupuesto disponible, cronograma de trabajo. 2. Definir claramente el objetivo Se deben tener unos objetivos bien definidos que indiquen qué se necesita investigar o conocer, cuál es la información deseada que debe generar el experimento. 3. Definir las respuestas de interés. Se debe seleccionar qué respuesta experimental (o características de interés o de calidad de un producto) se va a observar. Según el objetivo buscado, pueden necesitarse varias salidas. Ejemplo En productos comestibles comerciales, se debe considerar el sabor, olor, presentación, costo, durabilidad, etc. 4. Identificar los factores y el dominio experimental de interés. Se deben identificar y listar todas las variables independientes (factores) que pueden influenciar las respuestas, aunque puedan tener pequeños efectos. Se debe identificar si cada factor es constante, se cambiará de forma controlada, si es incontrolable medible o incontrolable e imposible de medir. Igualmente a cada factor se le debe definir el dominio experimental o intervalo de valores que puede tomar. La combinación del dominio de todos los factores define el dominio experimental posible, donde en principio están todos los experimentos factibles de realizar. Sin embargo, no es deseable realizar todas las combinaciones de factores pues


existen restricciones técnicas o económicas por las cuales el dominio se restringe al de interés. Es el experimentador quien decide el dominio de interés y ello le exige el conocimiento previo del sistema 5. Plan de experimentación Se trata del plan formal para realizar el experimento. A menudo se desarrolla en etapas secuenciales; en cada etapa, las series de experimentos se agrupan en diseños llamados matrices de experimentos. La selección de una matriz u otra depende del objetivo de cada etapa y de otras características como:  Naturaleza del problema, información conocida y a obtener del problema.  Número de factores e interacciones que se deben estudiar  Complejidad del diseño  Validez estadística y efectividad de cada diseño  Facilidad de comprensión e implementación  Restricciones operativas, de costo y tiempo. Algunas etapas típicas y tipos de diseños posibles de aplicar:  Tamizado. Al inicio de una experimentación puede haber un gran número de factores potencialmente influyentes; el número de experimentos aumenta exponencialmente con el número de factores; se debe por tanto reducirlos al máximo; para no hacerlo subjetivamente, se deben escoger en función de su influencia estadística en la respuesta; para determinarla, se puede realizar una investigación exploratoria con un diseño experimental sencillo, que permita determinar con pocos experimentos, los factores claves y descartar los de efectos despreciables. Entre los diseños adecuados para esto, están las matrices de Hadamard, las cuales permiten estudiar el efecto de hasta N-1 factores con sólo N experimentos.  Estudio de los factores. Identificados los factores más importantes, se pasa a estudiar cuantitativamente su efecto sobre la respuesta y las interacciones entre factores. Para este propósito se pueden utilizar los diseños factoriales completos o fraccionados.  Optimización. Es un objetivo de muchas investigaciones; busca conocer qué valores de los factores proporcionan respuestas (rendimiento, sabor, etc.) que minimicen o maximicen un desempeño; esto se puede obtener calculando la superficie de respuesta que relaciona los factores más relevantes con las respuestas. Los experimentos más adecuados para calcular éstas superficies son el diseño central compuesto o el diseño de Doehlert. Opcionalmente se puede usar el método secuencial Simplex, escogiendo el experimento siguiente en función de los resultados obtenidos en los experimentos anteriores.  Estudio de mezclas. En ellos los factores son porcentajes de los constituyentes y deben sumar 100%. Esta restricción requiere el uso de diseños y modelos matemáticos adecuados a este tipo de restricciones.


En general si el problema a resolver no se ajusta a un diseño clásico, es posible encontrar un diseño óptimo usando algoritmos que permiten seleccionar los experimentos más adecuados de entre una lista de experimentos candidatos. 6. Realización de la experimentación. El diseño experimental se describe usualmente con variables; éstas se particularizan para los factores en estudio, se verifica la viabilidad del experimento y si lo es, se realiza la experimentación en orden aleatorio para asegurar que los factores no considerados introduzcan sesgo en los resultados. 7. Interpretar los resultados. Conocidos los resultados de los experimentos se calculan los efectos de los factores y así, sus interacciones. Los tests estadísticos permiten comprobar si los efectos calculados son significativos comparándolos con el error experimental. Similarmente en optimización hay tests que validan el modelo de superficies y luego hallan la zona óptima a partir del modelo. Estos pasos son cíclicos; la información obtenida en una serie de experimentos se utiliza para planificar la siguiente experimentación, pues al conocer mejor el problema se pueden redefinir o concretar más los objetivos, descartar factores poco importantes, o modificar el dominio experimental; por ello, normalmente se trata de realizar series cortas de experimentos.


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.