ANÁLISIS MULTIDIMENSIONAL
ANÁLISIS MULTIDIMENSIONAL
DISTRIBUCIÓN DE FRECUENCIAS MULTIDIMENSIONAL DISTRIBUCIONES MARGINALES DISTRIBUCIONES CONDICIONADAS INDEPENDENCIA ESTADÍSTICA ESTUDIO ANALÍTICO DE DISTRIBUCIONE MULTIDIMENSIONALES COVARIANZA VECTOR DE MEDIAS MATRIZ VARIANZAS/COVARIANZAS COEFICIENTE DE CORRELACIÓN MATRIZ DE CORRELACIÓN
Para analizar el comportamiento conjunto de 2 o mĂĄs de las caracterĂsticas observadas, con el fin de dilucidar la influencia de una en otra u otras, determinar las relaciones existentes entre ellas‌
DISTRIBUCIÓN DE FRECUENCIAS MULTIDIMENSIONAL    

Listado matricial Registro de los valores que cada variable toma para cada individuo Tabla de correlaciĂłn RepresentaciĂłn de las observaciones de dos variables cuantitativas Tabla de contingencia RepresentaciĂłn de las observaciones de dos atributos, con distintos niveles (đ?’?đ?’Š )Frecuencias marginales de la variable x Si sumamos las frecuencias conjuntas a lo largo de una fila (i) se obtiene el nĂşmero total de observaciones del valor de x, xi , con independencia del valor que tome la otra variable ni.= ď “j nij = nÂş de observaciones de xi (đ?’?đ?’‹ )Frecuencias marginales de la variable y Si sumamos las frecuencias conjuntas a lo largo de una columna (j) se obtiene el nĂşmero total de observaciones del valor de y, yj , con independencia del valor que tome la otra variable n.j= ď “ď€ i nij = nÂş de observaciones de yj
DISTRIBUCIONES MARGINALES   
Las distribuciones marginales son las distribuciones unidimensionales que nos informan del nĂşmero de observaciones para cada valor de una de las variables A partir de la tabla de correlaciĂłn pueden construirse las distribuciones marginales, asignando a cada valor de la variable considerada su frecuencia marginal Las distribuciones marginales son distribuciones de frecuencias unidimensionales como las ya estudiadas y pueden analizarse de la manera habitual (media, varianza, asimetrĂa, curtosis, etc.)
DISTRIBUCIONES CONDICIONADAS 
Con una representaciĂłn de base de datos, establecer la condiciĂłn de que la otra toma un valor determinado, supone realizar una selecciĂłn parcial de los datos, el resultado de esta selecciĂłn serĂa la distribuciĂłn condicionada, que en este caso puede ser unidimensional o multidimensional, dependiendo de la condiciĂłn
INDEPENDENCIA ESTAD�STICA 
Dos variables estadĂsticas son estadĂsticamente independientes cuando ďƒ El comportamiento estadĂstico de una de ellas no se ve afectado por los valores que toma la otra ďƒ Cuando las relativas de las distribuciones condicionadas no se ven afectadas por la condiciĂłn, y coinciden en todos los casos con las frecuencias relativas marginales ďƒ Cuando para todos los pares de valores se cumple que la frecuencia relativa conjunta es igual al producto de las frecuencias relativas marginales
ESTUDIO ANAL�TICO DE DISTRIBUCIONES MULTIDIMENSIONALES  
Si la distribuciĂłn multidimensional estudiada tiene una dimensiĂłn superior a 2 es posible definir indicadores (basados en los momentos) que consideren a la totalidad de las variables Analizar la totalidad de las variables por parejas para poder contar con toda la informaciĂłn indispensable para manejarse adecuadamente con una distribuciĂłn multidimensional
COVARIANZA DISTRIBUCIĂ“N AGREGADA POR FRECUENCIAS EN UNA TABLA DE CORRELACIĂ“N
ďƒ˜
DISTRIBUCIĂ“N SIN AGREGAR POR FRECUENCIAS (LISTADO MATRICIAL QUE REGISTRA OBSERVACIĂ“N/NÂş REGISTROS)
PROPIEDADES 1. La covarianza es el momento central de orden 1,1 de la distribuciĂłn bidimensional. 2. Es invariante ante los cambios de origen en cualquiera de las dos variables. 3. Sin embargo depende de los cambios de unidad .Si se cambia de unidad de medida en ambas variables la covarianza se modifica proporcionalmente a ambos cambios: u= a+bx v = c + dy Suv = b.d.Sxy 4. La expresiĂłn de cĂĄlculo de la covarianza es đ?‘†đ?‘Ľđ?‘Ś =đ?‘Ž11 − đ?‘Ľ đ?‘Ś donde a11 es el llamado momento (ordinario) mixto y su expresiĂłn es:
si las observaciones estĂĄn agregadas por frecuencias , o bien:
si las observaciones no estĂĄn agregadas por frecuencias 5. Si dos variables son independientes su covarianza es cero (el resultado recĂproco no es necesariamente cierto). 6. La covarianza nos mide la covariaciĂłn conjunta de dos variables Si es positiva nos darĂĄ la informaciĂłn de que a valores altos de una de las variable hay una mayor tendencia a encontrar valores altos de la otra variable y a valores bajos de una de las variable, correspondientemente valores bajos. En cambio si la covarianza es negativa, la covariaciĂłn de ambas variables serĂĄ en sentido inverso: a valores altos le corresponderĂĄn bajos, y a valores bajos, altos. Si la covarianza es cero no hay una covariaciĂłn clara en ninguno de los dos sentidos. Sin embargo el hecho de que la covarianza dependa de las medidas de las variables no permite establecer comparaciones entre unos casos y otros.
VECTOR DE MEDIAS Dada una variable estadĂstica n-dimensional (X1,X2,X3,...,Xn), llamaremos vector de medias al vector columna formado por las medias de las distribuciones marginales de cada variable por separado
MATRIZ VARIANZAS/COVARIANZAS Dada una variable estadĂstica n-dimensional (X1,X2,X3,...,Xn), llamaremos matriz de varianzas-covarianzas (matriz de varianzas) (matriz de covarianzas), a la matriz cuadrada, n´ n, que disponga en su diagonal principal de las varianzas de cada una de las distribuciones marginales unidimensionales, y en los elementos no-diagonales (i,j) de las correspondientes covarianzas entre cada dos variables Sij
ďƒ˜
      






PROPIEDADES 1. La matriz de varianzas-covarianzas es simĂŠtrica respecto a su diagonal principal 2. La matriz de varianzas-covarianzas es definida positiva 3. El determinante de la matriz de varianzas-covarianzas (tambiĂŠn llamado determinante de momentos) es siempre no negativo ďƒ L mayor o igual a 0 4. En el caso bidimensional tendremos: det V = L = S2x S2y - (Sxy)2
CORRELACIĂ&#x201C;N Grado de relaciĂłn entre variables Variables nominalesď&#x192; se utiliza el tĂŠrmino ASOCIACIĂ&#x201C;N La correlaciĂłn tiene las mismas propiedades de los vectores: magnitud, direcciĂłn y sentido CorrelaciĂłn positiva o directa CorrelaciĂłn negativa o inversa Los diagramas de dispersiĂłn (scattergrams) suelen ser Ăştiles para estudiar el grado de relaciĂłn entre dos variables Como medida de confiabilidad de un test ď&#x192; Tipo Likert: coeficiente alpha de Cronbach ď&#x192; Tipo alternativas dicotĂłmicas: coeficiente de Kuder-Richardson CORRELACIĂ&#x201C;N SIMPLE CORRELACIĂ&#x201C;N MĂ&#x161;LTIPLE CORRELACIĂ&#x201C;N PARCIAL CORRELACIĂ&#x201C;N CANĂ&#x201C;NICA CorrelaciĂłn entre ď&#x201A;§ RelaciĂłn entre varias ď&#x201A;§ De primer/segundo orden ď&#x201A;§ RelaciĂłn entre grupos de variables variables ď&#x201A;§ RelaciĂłn entre dos variables variables, unas cuantitativas independientes con manteniendo el resto constante dependientes y otras SĂłlo involucra una una dependiente ď&#x201A;§ Cuando entre las var no se independientes sola variable manifiestan las verdaderas independiente correlac a causa de una 3ÂŞ var mediadora/interviniente ď&#x201A;§ RegresiĂłn lineal mĂşltipl RelaciĂłn de varianzas residuales đ?&#x2019;&#x201C;đ?&#x2018;ş COR. R DE SPEARMAN đ??&#x152;đ?&#x;? JI-CUADRADO đ??&#x17D;đ?&#x;? C. OMEGA CUADRADO đ?&#x2019;&#x201C; COEFICIENTE DE PEARSON Si ambas variables ď&#x201A;§ Si ambas variables ď&#x201A;§ CorrelaciĂłn producto momento ď&#x201A;§ Una variable nominal (de son nominales son ordinales ď&#x201A;§ Cor. Bravais-Pearson varias categorĂas) y otra de ď&#x201A;§ Si ambas variables son de intervalo u ordinal intervalo ď&#x201A;§ ANOVA (de un solo criterio ď&#x201A;§ Fiabilidad: estabilidad temporal de clasif)ď&#x192; valor F de Fisher ď&#x192; Test-retestâ&#x2030;Ľ 0.70 signif (relaciĂłn entre dos ď&#x201A;§ Significancia del valor r var)ď&#x192; đ??&#x17D;đ?&#x;? para conocer el valor-P<0.05 ď&#x192; La correlaciĂłn es grado de intensidad de la significativa asociaciĂłn ď&#x201A;§ đ??&#x17D;đ?&#x;? de Hays no hay forma de saber si es â&#x20AC;&#x201C; o + - 0-0.29 dĂŠbil - 0.3-0.69 moderada - 0.7-1 fuerte đ??&#x2039; COEFICIENTE PHI COR. SPEARMANCOR. BISERIAL PUNTUAL đ?&#x2018;šđ?&#x;? COEF DETERMINACIĂ&#x201C;N BROWN Ambas variables ď&#x201A;§ Coeficiente de ď&#x201A;§ Medida de la bondad de ajuste de ď&#x201A;§ RelaciĂłn de una variable dicotĂłmicas o particiĂłn por un modelo de regresiĂłn continua (con varias binarias mitadesâ&#x2030;Ľ 0.70 ď&#x201A;§ Indica el porcentaje de la variaciĂłn categorĂas) y una variable Phi es igual al a la ď&#x201A;§ 1ÂŞmitad/2ÂŞmitad de una var debida a la var de otra dicotomizada raĂz cuadrada de Ji ď&#x201A;§ Pares/impares y viceversa ď&#x201A;§ Tb. mide relac dicotĂłmicasobre N ď&#x201A;§ Mide el grado de ď&#x201A;§ đ?&#x2018;&#x2026; 2 â&#x2030;Ľ 0.70ď&#x192; importante dicotomizada Si Ji es significativo, homogeneidad de un ď&#x201A;§ El modelo con đ?&#x2018;&#x2026; 2 mayor serĂĄ el de ď&#x201A;§ Caso particular de la Phi tambiĂŠn lo es test mejor ajuste correlaciĂłn Pearson ď&#x201A;§ Este coef. siempre es +
COEFICIENTE DE CORRELACIÓN lineal Pearson
Establece la covariación conjunta de dos variables Tiene la universalidad suficiente para poder establecer comparaciones entre distintos casos
INTERPRETACIÓN Si r < 0 Hay correlación negativa - Las dos variables se correlacionan en sentido inverso - A valores altos de una de ellas le suelen corresponder valor bajos de la otra y viceversa - Cuánto más próximo a -1 esté el coeficiente de correlación más patente será esta covariación extrema - Si r= -1 hablaremos de correlación negativa perfecta lo que supone una determinación absoluta entre las dos variables Si r > 0 Hay correlación positiva - Las dos variables se correlacionan en sentido directo - A valores altos de una le corresponden valores altos de la otra e igualmente con los valores bajos - Cuánto más próximo a +1 esté el coeficiente de correlación más patente será esta covariación - Si r = 1 hablaremos de correlación positiva perfecta lo que supone una determinación absoluta entre las dos variables Si r = 0 se dice que las variables están incorrelacionadas - No puede establecerse ningún sentido de covariación Propiedad importante Si dos variables son independientes estarán incorrelacionadas aunque el resultado recíproco no es necesariamente cierto
MATRIZ DE CORRELACIÓN R
Análisis de una distribución n-dimensional con n > 2 CARACTERÍSTICAS - Matriz cuadrada n ´ n cosntituida por los coeficientes de correlación de cada pareja de variables - Tendrá unos en su diagonal principal, y en los elementos no diagonales (i,j) los coeficientes de correlación rij - Matriz de correlación simétrica - Matriz de varianzas entre las variables tipificadas