Metodologia de la investigaciòn

Page 1

Fenó Fenómeno Reciente

Guí Guía Diseñ Diseño y Ejecució Ejecución Investigació Investigación Concebir Idea Plantear problema Elaborar Marco Teó Teórico Definir Alcance Investigació Investigación Establecer Hipó Hipótesis Seleccionar Diseñ Diseño Selecció Selección Muestra Recolecció Recolección de Datos Aná Análisis de Datos Informe Final NUEVO CONOCIMIENTO QUE PERMITE CONCEBIR NUEVAS IDEAS Y EMPEZAR PROCESO NUEVAMENTE

• El estudio de lo social es de vieja datos (ej (ej Plató Platón) • La investigació investigación social es “reciente” reciente”. • Aparece con encuestas de La play, estudios de la pobreza de Booth y monografí monografías de la Royal Commission usadas por Marx y Engels. Engels. • Se esboza en siglo 19. Se perfila en 1920s. Se desarrolla en 1940s. En los 1960s está está en America Latina y luego en Europa oriental.

Objetivos del mó módulo • • • • • • • • • • • • • • • • •

Transformar ideas en problemas de investigación Describir el papel del marco teórico. Definir el alcance de la investigación. Definir hipótesis y re definir problemas Diseñar la investigación. Distinguir entre investigación experimental y no experimental. Pre experimentos y cuasi experimentos Explicar la validez interna y externa de la investigación. Mostrar clases de diseño no experimentales Seleccionar la muestra. Diferenciar entre muestra probabilística y muestra dirigida. Describir muestras estratificadas y por racimos. Describir la validez y confiabilidad de los Instrumentos para medir. Vincular conceptos abstractos con indicadores empíricos. Describir instrumentos disponibles Clasificar los análisis de Datos Diseñar el Informe Final

Conocimiento Cientí Científico • En la ciencia la experiencia vale si la ilumina la teorí teoría. • Los hechos solos no dicen nada. • Hay que saber que se busca, donde buscar y no perderse en detalles. • El genio científico implica saber definir el problema. • Problema es cientí científico si se aborda con teorí teoría. La guí guía es: • Teoría- marco teórico-problema-alcance-diseño-paso a fase empírica-fenómeno concreto-recopilación de datosanálisis e intepretación-logros de la investigación

Método: el camino hacia algo • Actividad intelectual para hacer accesible la realidad. • Da la forma de razonar. Procedimientos ló lógicos. Reglas. • Hay mé métodos diferentes: Axiomá Axiomático. Inductivo. Deductivo. Dialé Dialéctico. Semió Semiótico. Fenomenoló Fenomenológico. Etc. • Ayuda a usar mejor los medios para conocer. • Fija una manera de actuar eficaz y racional. • Por sí sí mismo no lleva al conocimiento. Es una guí guía. Un camino. Un modo de aproximació aproximación. • No es un conjunto de certezas infalibles. • Las té técnicas son el arte o modo de recorrer ese camino. • Son prá prácticas y operativas. • El mé método coordina, la té técnica ejecuta.

Pasos Principales • • • • • • • •

Formular problema Proponer explicación Derivar consecuencias de esos supuestos Elegir método e instrumentos Probar los instrumentos Obtener datos Analizar e interpretarlos Estimar validez de los resultados y determinar ámbito de de validez.

1


El inicio • Antes, premisas generales proponían problemas abstractos y universales o una visión impresionista de la realidad. • Hoy se formula un problema bien definido y delimitado. • Se avanza no por hipótesis sino por planteo de problemas. • El esquema es: Problema-investigación-respuesta y no: Observación de los hechos, formulación de hipótesis verificación experimental • Planteado el problema se subdivide en sub-problemas. • Cual es el problema, cuales son sus aspectos principales? que se ha dicho sobre él? que relaciones hay entre sus aspectos? está bien definido? Que solución se busca? • Listar, armar esquema y escribir libremente.

Transformar ideas en problemas de investigació investigación • Las investigaciones se originan en ideas provenientes de distintas fuentes. • La calidad de la idea no esta relacionada necesariamente con la fuente de donde provenga. • Las ideas son vagas y se deben traducir en problemas más concretos de investigación. • Para eso se requiere una revisión bibliográfica de la idea. • Las ideas deben ser novedosas y servir para la elaboración de teorías y la resolución de problemas

Ubicar idea en el campo de conocimiento • Las fuentes pueden ser experiencias individuales, materiales escritos (diarios, libros), experiencias individuales, teorías, conversaciones personales, observaciones de hechos, creencias e incluso presentimientos • Definir el campo de conocimiento donde se ubica la idea y hacer un planteo más preciso y estructurado. • Para eso hay que conocer los antecedentes para no investigar lo que ha sido estudiado o para dar otro enfoque (hablar con quien conoce el tema, revisar bibliografía) y seleccionar la perspectiva desde la cual se abordará la idea de investigación.

Objetivos, Preguntas y Justificació Justificación • Precisar la idea es definir objetivos, preguntas y Justificación (guías hacia prueba empírica). • Los objetivos definen que pretende la investigación. • Las preguntas que respuestas deben encontrarse. • La justificación indica por qué debe hacerse. • Los criterios para evaluar su valor potencial son: conveniencia, relevancia social, implicaciones prácticas, valor teórico y utilidad metodológica.

Relacionar Variables • El problema expresa una relación entre variables. • Los objetivos pueden ser: resolver un problema (cuál y cómo), probar una teoría o aportar evidencia hacia ella. Pueden surgir objetivos adicionales. • Las preguntas definen el área problema y sugieren actividades. Por ej.¿que efecto? ¿en que condiciones? ¿cuál es la probabilidad de? ¿cómo se relaciona con? • La justificación muestra para que sirve, quienes se beneficiarán, de que modo, si resuelve un problema práctico, si aporta nuevo conocimiento, que se espera saber con los resultados, si creará un nuevo instrumento para recolectar o analizar datos etc.

El Marco Teó Teórico • El M.T. busca analizar si las teorías, estudios o antecedentes anteriores dan una respuesta a la pregunta o brinda una dirección a seguir dentro del tema de estudio. • Hay que detectar, obtener y consultar bibliografía para sacar la información de interés. • Podrá haber en relación al problema investigado: a) Una teoría desarrollada con evidencia, b) Varias teorías aplicables, c) Generalizaciones empíricas, d) Ideas vagamente relacionadas o guías no estudiadas

2


Las Teorí Teorías

El Alcance de la Investigació Investigación.

• Una teoría es un conjunto de conceptos y proposiciones vinculadas. Dan un punto de vista especificando relaciones entre variables. Buscan explicar y predecir.

• El alcance del estudio depende del estado del conocimiento y del enfoque usado. Puede ser: exploratorio,descriptivo,correlacional y explicativo.

• Para evaluar su utilidad se usan cinco criterios:

• Los estudios exploratorios familiarizan con un tópico desconocido.

a) Capacidad de descripción, explicación y predicción (porque, como y cuando ocurre algo) b) Consistencia lógica (proposiciones relacionadas, ser mutuamente excluyentes (no duplicar) ni caer en contradicciones internas) c) Perspectiva (Nivel de generalidad o sea la mayor o d) menor cantidad de fenómenos explicados) Fructificación (capacidad de generar nuevos e) interrogantes y descubrimientos) Parsimonia (simpleza, sencillez)

Utilidad del Marco Teó Teórico • • • • • • •

Evitar errores de otros estudios. Orientar como se hará el estudio. Ayuda a focalizar el problema al mostrar escenario. Permite establecer hipótesis. Inspira nuevas líneas de investigación. Provee un marco para interpretar resultados. La bibliografía permite hacer preguntas como ¿se relaciona con mi problema? ¿cómo? ¿qué aspectos trata? ¿desde que perspectiva aborda el tema? • El enfoque cronológico del M.T. Consiste en desarrollar históricamente la evolución de la teoría. • Resume referencias con la cita, el problema tratado, los procedimientos de la investigación y sus resultados y conclusiones. (Se ordena la información recopilada).

• Los descriptivos analizan como es y se manifiesta un fenómeno. • Los correlacionales miran si se relacionan y como se relacionan diversos fenómenos entre sí. • Los explicativos buscan causas que provocan el fenómeno.

Estudios Exploratorios. (Descubren) • Los estudios exploratorios obtienen información sobre un contexto particular de la vida real o el comportamiento humano en una determinada área. • Identifican conceptos y variables promisorias. • Establecen prioridades para investigar. • Sugieren afirmaciones verificables. • Identifican tendencias y relaciones potenciales entre variables. • Son estudios mas flexibles en su método, son más amplios y dispersos que los otros tipos de investigación. • Exploran algo desconocido. Suelen no ser un fin en sí mismos.

Repensar el Problema con el Marco Teó Teórico

Estudios Descriptivos (Miden atributos)

• El M.T. incluye los resultados y conclusiones de los estudios antecedentes, en base a algún esquema lógico: cronológicamente, por variable o conceptos de las proposiciones.(No saltar de una idea a otra). • Los estudios se comentan y se relacionan unos con otros, de acuerdo con un criterio coherente. • Se pueden entrelazar las proposiciones de manera lógica para construir tentativamente una teoría. • Las generalizaciones empíricas constituyen la base de lo que serán las hipótesis que se someterán a prueba y a veces son las hipótesis mismas. • En suma el M. T. revisa la literatura y la presenta de manera organizada. Al terminar se vuelve a evaluar el problema para su posible modificación.

• Especifican las propiedades importantes de personas, grupos, o cualquier otro fenómeno. • Describir es medir o evaluar con precisión atributos. Ej.un censo nacional de población. • Se seleccionan una serie de cuestiones y se miden en forma independiente esos conceptos o variables. • Se define que se va a medir y como lograr precisión en esa medición. • Requiere considerable conocimiento del área que se investiga para formular las preguntas específicas que busca responder. • Pueden conducir a predicciones rudimentarias.

3


Estudios Correlacionales (Miden relaciones) • Miden el grado de relación entre dos o más conceptos. • Se usan para saber como se puede comportar un concepto o variable conociendo el comportamiento de otras variables relacionadas. Si están correlacionadas y se conoce la correlación, hay bases para predecir valores aproximados. • Hay riesgos con la correlación espuria cuando dos variables están aparentemente relacionadas pero que en realidad no lo están. • Se distinguen de los estudios descriptivos en que estos miden con precisión variables individuales, mientras los correlacionales evalúan el grado de relación entre variables.Tienen un valor explicativo aunque parcial.

Estudios Explicativos (Explican causas) • Explican por qué ocurre un fenómeno y en que condiciones se da este, o por qué dos o más variables están correlacionadas. • Son investigaciones más estructuradas que las anteriores y hay grados diversos de estructuración o sea diferente niveles de explicación dadas por la presencia de otras proposiciones que dan una información más completa. • Responden preguntas como: ¿que efecto provoca tal cosa? ¿a que deben los efectos?¿qué variables mediatizan esos efectos y de que modo? • Proporcionan un sentido de entendimiento del fenómeno.

Las Hipó Hipótesis o respuestas tentativas • Son proposiciones tentativas (respuestas a las preguntas) acerca de las relaciones entre variables. • Se apoyan en conocimientos organizados. • Las hipótesis contienen variables o sea propiedades cuya variación puede ser medida. • Surgen del planeamiento del problema, de la revisión de la literatura y de las teorías. • Las variables deben ser precisas, concretas y poder observarse en la realidad. • La relación entre las variables debe ser clara, verosímil y medible. • Deben estar vinculadas con técnicas disponibles para probarlas. Se contrastan contra la realidad para aceptarse o rechazarse.

Clasificació Clasificación de Hipó Hipótesis • Hay Hipótesis de Investigación, nulas, alternativas y estadísticas. • Las de investigación se clasifican en descriptivas del valor de variables, correlacionales, de la diferencia de grupos y causales. • Las nulas y alternativas se derivan de las de investigación. • Las H. estadísticas se clasifican en H.de estimación, de correlación y de la diferencia de grupos. • En un trabajo puede haber hipótesis de distintos tipos. • Son guías y van acompañadas de definiciones conceptuales y operacionales. • Hay estudios que no pueden formular hipótesis (exploratorios y algunos descriptivos)

Definició Definición de la Hipó Hipótesis • Indican lo que se busca o trata de probar y se definen como explicaciones tentativas del fenómeno investigado formuladas a manera de proposiciones. • Una pregunta de investigación de la vida cotidiana sería: ¿le gustaré a Ana? y la hipótesis podría ser “yo le resulto atractivo a Ana”. • Esta hipótesis es una explicación tentativa y formulada como proposición. Después investigamos si la hipótesis es aceptada o rechazada cortejando a Ana. • Son explicaciones tentativas no los hechos en sí. • Al establecerlas se desconoce si serán o no verdaderas. • Son proposiciones sujetas a comprobación.

Ejemplos de hipó hipótesis en salud • El índice de cáncer pulmonar es mayor entre los fumadores que entre los no fumadores. • Conforme se desarrollan las psicoterapias orientadas en el paciente, aumentan las expresiones verbales de discusión y exploración de planes futuros personales y disminuyen las de hechos pasados. • El tiempo que tardan en desarrollar el SIDA las personas contagiadas por transmisión sexual es mayor que las contagiadas por transfusión sanguinea.

4


Las variables. • Las variables son propiedades que pueden variar y cuya variación es susceptible de medirse.

Hipó Hipótesis de Investigació Investigación (Hi (Hi))

• Las variables adquieren valor para la investigación científica cuando pueden ser relacionadas con otras y forman parte de una hipótesis o teoría.

• Son proposiciones tentativas acerca de las posibles relaciones entre variables que cumplen con las cinco características mencionadas antes. Pueden ser: • Descriptivas del valor de las variables que se van a observar. Ej. “La expectativa de ingreso mensual de los médicos en la empresa X oscila entre 2 y 4 mil pesos” • Correlacionales que especifican la relación entre variables. Ej. “La edad y el gasto en salud están relacionados entre sí”. • De diferencia entre grupos. Ej. “El efecto de los planes para dejar de fumar no será igual en las mujeres que en los hombres”. • De causalidad que afirman el sentido de la relación

La hipó hipótesis como problema reformulado

(Hi) Hi) Diferencia entre causales y correlació correlación

• Una variable puede ser la rapidez con que se ofrece un servicio. • Otra puede ser la efectividad de una vacuna. • También el tiempo que tarda en manifestarse una enfermedad.

• Las hipótesis surgen de los objetivos y las preguntas y luego los sustituyen para guiar el estudio. • Aparecen desde un postulado de una teoría, del análisis de esta,de generalizaciones empíricas referidos al problema y de los antecedentes y estudios consultados. • Las hipótesis son la reformulación del problema una vez construído el marco teórico. • Es falla grave formular hipótesis sin revisar cuidadosamente la literatura.

Caracterí Características de las hipó hipótesis • La (h) debe referir a una situación social real para probarse en un universo y contexto bien definido. • Los términos (variables) de la (h) deben ser comprensibles, precisos y lo más concreto posibles.

• Correlación y causas son conceptos asociados pero distintos. • Correlación es “ X Y ” Causalidad es “ X B” • No todas las correlaciones tienen sentido y no siempre puede inferirse causalidad. • Para establecer causalidad antes debe haber correlación, pero además la causa debe ocurrir antes que el efecto. • Los cambios en la causa provocan cambio en el efecto. • Las (h) causales son bivariadas (relación entre variable independiente y dependiente), multivariada (relación entre una o varias variables independientesy una o más dependientes)

Hipó Hipótesis nula (Ho) Hipó Hipótesis Alternativa (Ha) • La hipó hipótesis nula es la inversa de la (Hi) . • Su sentido es negar lo que afirma la (Hi). • Niegan un valor de descripción, la existencia de una relación, la diferencia entre grupos y la causalidad. Ej. No hay relación entre edad y gasto en salud.

• La relación entre variables de ser clara y lógica. • Las variables y la relación planteada entre ellas deben ser observables y medibles. • Las (h)deben estar relacionadas con técnicas disponibles para probarlas.

• La hipó hipótesis alternativa (Ha) ofrece otra descripción distinta a la de las (Hi) y de la (Ho). • Es en realidad otra (Hi) adicional. Ejemplo • Hi: “Cada persona hace 6 consultas año al médico”, Ho “Cada persona no hace 6 consultas año al médico” Ha “Cada persona hace 3 consultas año al édi ”

5


Hipó Hipótesis Estadí Estadísticas.(He) • Las hipótesis estadísticas son la transformación de las (Hi) (Ho) e (Ha) en términos estadísticos. • Se usan sólo cuando los datos del estudio que se van a recolectar para probar o rechazar la hipótesis son cuantitativos (números, porcentajes, promedios). • Hay tres tipos de (He): 1) Estimación 2) Correlación y 3) Diferencia de medias.

Hipó Hipótesis Estadí Estadísticas • La He de estimació estimación evalúa el valor supuesto por el investigador de algún atributo de una muestra. Se determina cual es la estadística a que refiere la Hi (ej.promedio), luego se compara el promedio estimado con el promedio actual de la muestra. Ej. Hi: X > 200 y la Ho X<200 • La He de correlació correlación traduce en un símbolo la asociación entre variables. Ej. Hi: r xy # 0 (hay correlación) y la Ho: r xy = 0 • La He de diferencia de medias, medias compara una estadística entre dos grupos. Por ej. Hi: Xa # Xb y la Ho: Xa =Xb

La prueba de Hipó Hipótesis • Las (h) son guías para investigar, tienen una función descriptiva y explicativa y prueban y sugieren teorías. • Las hipótesis se someten a prueba empírica. • No se puede probar que una hipótesis sea verdadera o falsa sino que fue apoyada o no de acuerdo a ciertos datos obtenidos de una investigación particular. • Más investigaciones apoyen una hipótesis más credibilidad tendrá. • Las (h) se prueban aplicando un diseñ diseño de investigació investigación, recolectando datos a travé través de instrumentos de medició medición y analizando dichos datos.

Definició Definición de las variables • La definición de variables conceptual y operacional. • La conceptual define la variable con otros términos. Ej. Poder es influir en otros más que lo que éstos influyen en uno. • La operacional es el conjunto de actividades que se hacen para recibir las impresiones sensoriales que indican la existencia de un concepto. Ej. La ansiedad de una persona puede medirse con la actividad del sistema psicológico (presión sanguínea, respiración etc.) • Los criterios para evaluar una definición operacional son su adecuación al contexto, su confiabilidad y su validez.

RESUMEN PRIMERA PARTE Las ideas se transforman en problemas de investigación al precisar objetivos y preguntas con el marco teórico. El alcance de la investigación puede ser para descubrir cosas, medir atributos y relaciones o explicar causas. Las hipótesis son respuestas tentativas, reformulan el problema y se transforman en estadísticas si los datos para probar la hipótesis son cuantitativos. Para probar la hipótesis se hace un diseño de investigación y usan instrumentos para medir y luego analizar los datos.

El diseñ diseño de la investigació investigación • Con las hipótesis definidas se concibe la manera práctica de responder a las preguntas. Se hace el diseño, (plan o estrategia)de la investigación. Hay investigación experimental y no experimental. • El experimento requiere la manipulación de una acción para analizar sus posibles efectos. • La variable independiente se manipula, la dependiente se mide para ver si varía o no. • Si se expone a un grupo a la presencia de la variable independiente y al otro no, el primero se llama grupo experimental y el segundo grupo de control.

6


Diseñ Diseño Experimental • Un experimento aplica un estímulo a un individuo o grupo de individuos y ve el efecto de ese estímulo en alguna(s) variable(s) del comportamiento de estos. La observación se puede realizar en condiciones de mayor o menor control. • Se deduce que un estímulo afectó cuando observamos diferencias en las variables que serían supuestamente las afectadas entre un grupo al que se le administró dicho estímulo y uno al que no se le administró, siendo ambos iguales en todo excepto en esto último. • La asignación al azar es el método preferible para lograr que los grupos del experimento sean comparables.

Fuentes de Invalidez • La regresió regresión estadí estadística o valores extremos en una prueba que tienden al promedio en otras mediciones. • La selecció selección que al elegir sujetos genera grupos no equiparables. • La mortalidad experimental al perder participantes entre los grupos que se comparan. • Interacció Interacción entre selecció selección y maduració maduración, que hace que la selección de origen a diferentes tasas de maduración. • Otras Interacciones entre las fuentes de invalidación.

Validez Interna y Externa • Los grupos que se comparen deben ser iguales en todo menos en el estímulo experimental. Se debe controlar la influencia de otras variables extrañas en las variables dependientes. (Purificación de la relación X---Y) • La validez interna refiere a la confianza que tenemos sobre los resultados. Elimina explicaciones rivales. • Lograr la validez interna (mantener equivalentes a los grupos controlando la fuente de invalidez)es el objetivo metodológico y principal de todo experimento. • Una vez que se consigue se busca la validez externa o sea la posibilidad de generalizar los resultados a la población no experimental.

El Control y la Validez • El control y la validez interna se logra con: 1) Varios grupos de comparación. (2 mínimo)y 2) Equivalencia de los grupos en todo excepto la manipulación de las variables independientes. • Con un solo grupo no hay certeza que resultados se deban al estímulo experimental o a otras razones. • Los grupos (no los individuos) deben ser inicialmente equivalentes (sexo, edad,etc). La equivalencia inicial se logra asignando sujetos al azar. La técnica de emparejamiento no es la ideal. • Los grupos debe ser equivalentes durante todo el experimento (instrucciones, entrevistadores, etc).Los instrumentos de medición deben ser iguales y aplicados de la misma manera.

Fuentes de Invalidez • Fuentes que invalidan internamente el experimento: • Historia: eventos que ocurren durante el experimento y afectan la variable dependiente. • Maduració Maduración: procesos internos de los participantes por el paso del tiempo que afectan resultados (Cansancio).

Simbologí Simbología en el Diseñ Diseño • • • • •

R = asignación al azar G = grupos de sujetos X = Tratamiento, estímulo, condición experimental O = Una medición a los sujetos de un grupo - = Ausencia de estímulo

o nula confiabilidad en la mediciones. • Inestabilidad:poca Inestabilidad: • RG1 • Administració Administración de pruebas que afectan las puntuaciones de pruebas subsecuentes.

Asignación Azar sujetos Grupo 1

O Medición Previa

X Administración Estímulo

O Medición Posterior

• Instrumentació Instrumentación o cambios en los instrumentos de medición o en los observadores participantes.

7


Pre Experimento

Pruebas Estadí Estadísticas

• El pre-experimento tiene un grado de control mínimo. • Aplica tratamiento y luego una medición para observar el nivel del grupo en la variable = G X O • No hay manipulació manipulación de la variable independiente (no hay niveles de ella, no se explica como se afecta) • No hay control previo del nivel de la variable dependiente ni grupo de comparación. • No controla las fuentes de invalidez interna. • Si se hace una pre-prueba se agrega un punto de referencia = G O1 X O2 • No son adecuados para establecer relaciones entre variables y puede ser para prueba piloto (explorar).

• Para comparar entre pre-pruebas y entre las dos post pruebas se usa la prueba “t” para grupos correlacionados. • Igual para analizar el puntaje ganancia de cada grupo O1 vs O2 y O3 vsO4 • Análisis de varianza (ANOVA) para grupos relacionados si se comparan simultáneamente las cuatro pruebas. • Cuando se quiere analizar efectos en el largo plazo se adoptan diseños con varias post pruebas. (Diseños de series de tiempo o cronológicas que toman de un individuo u otro ente muchas observaciones)

Otros Diseñ Diseños • Diseño con post prueba y grupo de control RG1 X O1 RG2 O2 Si O1=O2 no hubo efecto significativo del tratamiento experimental. Suele usarse la prueba estadística “t” para grupos correlacionados. • Si no hay grupo de control se llama diseño con grupos aleatorizados y post prueba unicamente= = RG1 X O1 • Diseño con pre-prueba-post prueba y grupo de control

RG1 O1 RG2 O3 RG3 O5

X1 X2

-

O2 O4 O6

En este caso O1, O3 y O5 puede ser el conocimiento sobre un tema, X1 un video didactico , X2 lecura de folleto y O2 04 y 06 el conocimiento sobre el mismo tema anterior.

Las Comparaciones RG1 O1 X1 O2 RG2 O3 X2 O4 RG3 O5 - O6 • Las posibles comparaciones son: a) Pre-pruebas entre sí, b) post-pruebas entre sí, c) el puntaje ganancia de cada grupo ej. O1 vs 02 d) el puntaje ganancia de los grupos entre sí. • Esto puede dar por ejemplo efectos de los tratamientos experimentales pero diferentes, o que sólo uno o ninguno tenga efectos etc.

Estudios Factoriales • Los experimentos pueden incorporar más de una sola variable independiente. • Los diseñ diseños factoriales manipulan dos o má más variables independientes e incluyen dos o má más niveles de presencia en cada una de las variables independientes. independientes • Un ejemplo de diseño factorial de 2 X 2 sería método de enseñanza (tradicional oral y por video) y sexo (masculino-femenino). • Permiten evaluar los efectos de cada variable independiente sobre la dependiente por separado y los efectos de las variables independientes conjuntamente.

Validez Externa • La validez externa refiere a que tan generalizables son los resultados a otros sujetos. Hay fuentes de invalidez: • El efecto de interacción entre pruebas (sujetos son afectados en su reacción a la variable experimental por la pre prueba). • Errores de selección que al elegir personas con ciertas características el tratamiento produzca un efecto que no se daría en otras personas sin esas características. • La artificialidad de las condiciones experimentales que vuelven atípica la experiencia. • La interferencia de tratamientos múltiples si no tienen efectos reversibles. • Imposibilidad de replicar los experimentos en otras condiciones.

8


Estudio de Campo • En el experimento el efecto (la variancia) de las variables independientes influyentes posibles no pertinentes al problema se mantiene reducida en un mínimo. • El estudio de campo se hace en una situación realista en la que una o más variables independientes son manipuladas por el experimentador en condiciones tan controladas como lo permite la situación. • La diferencia es el grado en que el ambiente es natural para los sujetos. Los experimentos tienen más control que los estudios de campo pero estos tienen más validez externa.

Pasos Comunes a Seguir • Decidir las variables independientes y dependientes. • Elegir niveles de manipulación de var. independientes y convertir concepto en operaciones prácticas (tratamiento experimental) • Desarrollar instrumento para medir las variables dependientes. • Seleccionar la muestra de personas. • Reclutar sujetos del experimento (o cuasi-experimento) • Seleccionar diseño apropiado para muestras, hipótesis, objetivos y preguntas de investigación. • Planear actividad de los sujetos, dividirlos al azar o analizar propiedades de grupos intactos. • Aplicar pre-pruebas, los tratamientos y las postpruebas.

CuasiCuasi- Experimentos

Investigació Investigación no Experimental

• En los cuasi experimentos no se asignan los sujetos a grupos experimentales sino que se trabaja con grupos intactos (formados aparte del experimento ej. habitantes de una zona de la ciudad) = G X O (falta la R junto a la G de la asignación aleatoria de sujetos)

• Se realiza sin manipular variables y sin asignación al azar. Los sujetos ya pertenecían a un grupo dado. • Se observan fenómenos tal y como se dan en su contexto natural para después analizarlos. No hay estímulos a los cuales se expongan los sujetos del estudio. • No se construye ninguna situació situación sino que se observan situaciones existentes no provocadas intencionalmente • Es investigación sistemática y empírica en la que las variables independientes no se manipulan porque ya han sucedido. • Experimento: Hacer enojar intencionalmente a una persona para ver sus reacciones. No experimental: Ver las reacciones de esa persona cuando llega enojada.

• Alcanzan validez interna en la medida en que demuestran la equivalencia inicial de los grupos participantes y la equivalencia en el proceso de experimentación. • Los experimentos verdaderos constituyen estudios explicativos, los pre-experimentos son exploratorios y descriptivos y los cuasi-experimentos son correlacionales aunque pueden llegar a ser explicativos.

EJEMPLO • Hipótesis: “Los pacientes que reciban mayor retroalimentación de sus médicos de cómo se están comportando en el tratamiento prescrito, obedecerán más a dicho tratamiento”. • Se toman dos grupos de pacientes. Un grupo recibe retroalimentación sobre su conducta en el tratamiento (G1) y el otro grupo no (G2). O1 G1 X G2 O2 • Se evalúa la obediencia o apego al tratamiento. • Si el resultado es O1>O2 deducimos que la hipótesis fue confirmada. Pero podría ser que la mayor sensibilidad de G1 se deba a que lee más sobre su problema. No hay certeza si grupos no son inicialmente equivalentes.

Diseñ Diseños Transeccionales • Los Diseños no experimentales se clasifican en transeccionales (ver el nivel de una variable o la relación entre varias en un punto del tiempo) y longitudinales (como evolucionan o cambian variables o sus relaciones) • Los transeccionales o transversales recolectan datos en un sólo momento. Ej. Investigar el número de empleados, desempleados y subempleados en un momento dado. • Se dividen en descriptivos y correlacionales/causales. correlacionales/causales. • Los descriptivos indagan los valores de una o más variables (Ej. Nivel de empleo en 3 ciudades) • Los correlacionales/causales correlacionales/causales describen relaciones entre dos o más variables ej. (relación entre urbanización y analfabetismo para ver que variables mediatizan esa

9


Diseñ Diseños Longitudinales • Los diseñ diseños longitudinales juntan datos a través del tiempo en períodos especificados, infieren sobre al cambio, sus determinantes y consecuencias. Por ej. como evolucionan los niveles de empleo durante cinco años en una ciudad. • Son:de de tendencia, de evolució evolución de grupo (cohort (cohort)) y diseñ diseños panel. • Los de tendencia analizan cambios en el tiempo en variables o sus relaciones en una población. Ej. cambio de actitud hacia el aborto anualmente por 10 años. • Los de grupos analizan cambios en sub-poblaciones. Ej. Actitudes hacia el aborto en Argentinos nacidos en 1983. • Los de panel similares a los anteriores pero el mismo grupo de sujeto es medido en todos los momentos. Ej. analizar la evolución de enfermos de cancer de mama cada 6 meses en 2 años. • Hipótesis son de diferencia de grupos, correlacionales y causales.

Experimental Vs No experimental • • • •

Mayor control Manipula variables Se replican facilmente Las variables independientes son menos realistas

• • • •

Menor control No manipula variables Observan lo dado. Las variables independientes son realistas y genera más validez externa

RESUMEN SEGUNDA PARTE La investigación puede ser experimental o no experimental. En el primer caso se manipula la variable independiente y se mide la dependiente controlando las fuentes de invalidez. La validez interna refiere a la confianza en los resultados y la externa a su posible generalización. Cuando la manipulación es de varias variables independientes de varios niveles cada uno el estudio es factorial. El pre-experimento no manipula la variable independiente. El cuasi-experimento utiliza grupos intactos. El diseño no experimental observa escenarios existentes no provocados intencionalmente. Pueden ser transeccionales que a su vez se dividen en descriptivos y correlacionales/causales o longitudinales de tendencia, de evolución de grupo y diseño panel.

Selecció Selección de la Muestra • La muestra es un sub-grupo de la población. • Hay que definir la unidad de ánálisis o quienes van a ser medidos (personas, organizaciones, periódicos etc.) • Luego se definen las características de la población o parámetros muestrales en contenido, lugar y tiempo (ej enfermos de cáncer de la ciudad X sin tratamiento). • Hay muestras probabilísticas y no probabilísticas. • En la probabilística todos los elementos de la población tienen la misma posibilidad de ser elegidos. En la segunda, la elección de elementos depende del investigador . • Que tipo de muestra se elige depende de los objetivos del estudio, del esquema de investigación y de la contribución que se piensa hacer.

Resumen Diseñ Diseño No Experimental

Muestra Probabilí Probabilística

• La investigación no experimental no manipula variables, se basa en realidades que ya ocurrieron sin intervención del investigador.

• En la muestra probabilística puede medirse el tamaño del error en la predicción. • El principal objetivo de una muestra probabilística es reducir al mínimo este error llamado error estándar que dependerá del número de elementos muestreados. • Es esencial en diseños por encuestas que buscan estimaciones de variables medidas con instrumentos de medición y analizados con pruebas estadísticas. • Los valores muestrales serán parecidos a los de la población • La precisión de dichos estimados depende del error en el muestreo.

• Es un enfoque retrospectivo. Observa variables en su contexto natural. • Estudia variables en un momento del tiempo en forma descriptiva o correlacional/causal o las estudia a lo largo del tiempo en tendencias y evolución dentro de grupos. • El tipo de diseño a elegir está condicionado por el problema, el contexto, el tipo de estudio y las hipótesis.

10


Tamañ Tamaño de la Muestra • Se establece el error estándar (ej.0.05 o 0.01) o sea se sugiere que de 100 casos 95 o 99 veces el estimado sea correcto y que su valor se sitúe en un intervalo de confianza que comprenda el valor del parámetro poblacional. • El tamaño de la muestra se determina en dos pasos : 1) Se saca el tamaño provisional de la muestra dividiendo la varianza de la muestra/varianza de la población. La varianza de la población es el cuadrado del error estándar y la varianza de la muestra S = p (1-p). 2) Se ajusta la muestra provisional (n”) si se conoce el tamaño de la población (N) de forma tal que n = n”/ 1+n”/N • Luego se decide como y de donde seleccionar los sujetos de la muestra del tamaño n

Muestra Estratificada y Por Racimo • La muestra es estratificada si se la divide en estratos o categorías en que se divide la población y que son relevantes para los objetivos del estudio. • Se divide a la población en sub poblaciones (estratos) y se selecciona una muestra para cada estrato. • Aumenta precisión en la muestra pues se usan diferentes tamaños de muestra para cada estrato a fin de reducir la varianza de cada unidad de la media muestral. • El muestreo por racimos se hace cuando las unidades de análisis se encuentran encerradas en determinados lugares físicos o geográficos (ej. niños en colegios). • Unidad de análisis indica quienes serán medidos.La unidad muestral el racimo por el cual se llega a la unidad de análisis

Selecció Selección Aleatoria Muestra Probabilí Probabilística • Los elementos de una muestra probabilística siempre se eligen aleatoriamente (ej. tabla de números random o elección sistemática) para asegurar que cada elemento tenga la misma probabilidad de ser elegido. • Todo procedimiento de selección depende de listados, sea existentes o construidos ad hoc. • Listados pueden ser la guía telefónica, lista de escuelas oficiales etc. • Cuando no hay listas se usan otros marcos con descripciones del material (archivos, mapas)

Muestras no Probabilí Probabilísticas (dirigidas) • Las muestras no probabilísticas (dirigidas) dependen del criterio del investigador para la elección de los sujetos u objetos de estudio. • Selecciona casos típicos con la esperanza que sean representativos (para muestra basta un botón). Los elementos no tienen la misma posibilidad de ser elegidos. • Es informal y un poco arbitraria. No se puede calcular con precisión el error estándar (nivel de confianza con que se hace una estimación). • Pueden ser 1) muestras con sujetos voluntarios 2) muestras de expertos (estudios exploratorios), 3) muestras de sujetos tipo o estudios de casos (estudios cualitativos y motivacionales) y 4) muestreo por cuotas (estudios de opinión y mercadotecnia). • Las muestras dirigidas son válidas en cuanto a que un determinado diseño de investigación así lo requiere, pero los resultados no son generalizables a una población sino apenas a la muestra en sí o muestras similares.

Normalidad y Probabilidad • El teorema central del límite sugiere que una muestra de más de cien casos, será una muestra con una distribución normal en sus características. • Distinguir normalidad de probabilidad. • La normalidad es necesaria para efectuar pruebas estadísticas (inferenciales). • Lo segundo es requisito indispensable para hacer inferencias correctas sobre una población.

Recolecció Recolección de Datos • Seleccionado el diseño apropiado y la muestra adecuada al problema e hipótesis el próximo paso es recolectar los datos sobre las variables seleccionadas. • Hay que seleccionar primero un instrumento de medición o desarrollar uno válido y confiable. • Aplicar el instrumento en la medición. • Preparar las mediciones obtenidas o sea codificar los datos.

11


Medició Medición de Conceptos Abstractos

La Validez de Contenido

• Medir significa asignar números a objetos (cosas que pueden verse o tocarse) y eventos (resultado, consecuencia o producto) de acuerdo con reglas. • En ciencias sociales varios de los fenómenos que son medidos no pueden caracterizarse como objetos o eventos porque son muy abstractos para ello (ej. disonancia cognitiva, alienación, PBI, credibilidad). • Por eso es mejor definir medición como la vinculación de conceptos abstractos con indicadores empíricos. • Esto se hace con un plan organizado para clasificar y cuantificar los datos disponibles (indicadores) en términos del concepto que el investigador tiene en mente

• La validez de contenido del instrumento de medición refiere al dominio específico de contenido de lo que se mide.

Valores Observables de Conceptos Abstractos • El centro de atención es la respuesta observable. • El interés se sitúa en el concepto subyacente no observable que es representado por la respuesta. • Los registros del instrumento de medición representan valores observables de conceptos abstractos. • Un instrumento adecuado es el que registra los datos observables que representan bien los conceptos o variables que el investigador tiene en mente. • No hay medición perfecta. Es imposible representar fielmente ciertas variables (ej.motivación) pero hay que acercarse lo más posible a la representación fiel de las variables a observar.

Confiabilidad y Validez del Instrumento • La confiabilidad del instrumento significa que su aplicación repetida al mismo sujeto u objeto produce iguales resultados. • La validez refiere al grado en que un instrumento realmente mide la variable que se pretende medir (ej.si se quiere medir inteligencia que mida inteligencia y no memoria) • La validez responde a la pregunta ¿ Se esta midiendo lo que se cree que está midiendo?. • La validez refiere a evidencia relacionada con el contenido, con el criterio y con el constructo.

• El instrumento debe contener representados a todos los ítems del dominio de contenido de las variables a medir. • Una prueba de conocimiento sobre canciones de los Beatles no tendrá validez si sólo incluye canciones de un par de sus discos o una prueba de operaciones aritméticas no tendrá validez de contenido si sólo incluye problemas de resta y excluye la suma.

La Validez de Criterio • La validez de criterio establece la validez de un instrumento de medición comparándola con algún criterio externo. • Es un estándar. Por ej. un exámen sobre manejo de aviones, mostrando la exactitud con que el examen predice que tan bien un grupo de pilotos puede operar un aeroplano. • Si el criterio se fija en el presente se habla de validez concurrente (preferencias del electorado por partidos contendientes unos días antes de la elección). • Si el criterio se fija en el futuro se habla de validez predictiva (resultados de una prueba de capacidad administrativa de gerentes comparandolos con los resultados del futuro desempeño)

Validez de Constructo (Concepto) • La validez de constructo (concepto) refiere al grado en que una medición se relaciona consistentemente con otras mediciones de acuerdo con hipótesis derivadas teóricamente referidas a los conceptos medidos. • Ej. Teoría (investigaciones hechas) encontraron que A correlaciona positivamente con B,C y D y negativamente con W. Si el instrumento mide realmente A sus resultados deben correlacionarse positivamente con los resultados obtenidos en las mediciones de B,C,D y negativamente con los resultados de W. • Ej. Al medir motivación laboral se mide persistencia (tiempo adicional que trabaja alguien al terminar su horario. • Hay que especificar 1) Una relación teórica entre conceptos desde el marco teórico. La validez de constructo se vincula con la teoría. 2) Correlacionar ambos conceptos y analizar la correlación. 3) Interpretar la evidencia empírica de acuerdo con el nivel en que clarifica la validez de concepto de una medición en particular.

12


Construcció Construcción del Instrumento

Validez y Confiabilidad • La validez total del instrumento de medición se hace sobre la base de los tres tipos de evidencia (contenido, criterio y constructo) • Mayor la validez, mayor la aproximación de la representación a la variable que se pretende medir. • Un instrumento puede ser confiable pero no válido cuando genera resultados consistentes pero no mide lo que se pretende. • Los instrumentos pueden ser afectados en su confiabilidad y validez por 1) la improvisación 2) el desarrollo en culturas, grupos y tiempos distintos 3) su falta de adaptación a las personas a las que se aplica (ej. no empatía por lenguaje elevado para niños) 4) por las condiciones en que se aplica el instrumento (cuestionario largo, tedioso, en la puerta de calle con ruido etc.) 5) aspectos mecánicos (no comprender instrucciones, falta de espacio para contestar, no se lee bien lo que dice etc. • En la práctica es imposible la medición perfecta.

• • • •

Listar las variables. Revisar su definición conceptual y comprender su significado Revisar como han sido definidas operacionalmente las variables Comparar instrumentos, su confiabilidad, validez, sujetos a los que se aplicó, facilidad de administración, veces que medición resultó exitosa • Elegir el instrumento favorecido y adaptarlo al contexto propio • Indicar nivel de medición de cada variable: 1) Nominal: sin jerarquía ej, sexo m o f. Puede incluir variables dicotómicas ej escuela publica o privada a la asiste.2) Ordinal: hay categorías y jerarquía. Ej. mayor puntaje a una profesión que a otra. 3) Medición por intérvalos: Hay jerarquía entre categorías e intérvalos iguales en la medición ej.escala de 0 a 10. 4) Medición de razón (el cero de la escala es real o sea no existe la propiedad. Nivel medición afecta prueba estadística seleccionada • Indicar codificación de datos (valor númerico que los represente). Ej. masculino 1 y femenino 0

Cálculo de la Confiabilidad

Instrumentos Disponibles : Escala de Likert

• La medición se conceptualiza: X = t + e donde X son los valores observados t son los valores verdaderos y e es el grado de error de la medición. • El error se mide calculando la confiabilidad y la validez. • El coeficiente de confiabilidad puedo oscilar entre 0 y 1. Los procedimientos utilizados para medir la confiabilidad son • Medida de Estabilidad aplica un mismo instrumento dos o mas veces a un mismo grupo después de cierto período. Si la correlación de los resultados de las diferentes aplicaciones es altamente positiva, el instrumento se considera confiable. • Método de formas alternativas o paralelas: aplica versiones equivalentes del instrumento (no el mismo). La correlación debe ser significativamente positiva. • Método de mitades: Se aplica una sóla medición pero se dividen en dos los items. Los valores deben correlacionar fuerte • Coeficientes de cronbach y coeficiente KR-20

• Escalas para medir actitudes que tienen dirección (positiva o negativa) e intensidad (alta o baja). • La escala de Likert presenta items en forma de afirmaciones o juicios (ej. la DGI informa bien a los contribuyentes) ante los cuales se pide la reacción de los sujetos (muy de acuerdo, de acuerdo, en desacuerdo etc.). Cada afirmación tiene el mismo peso en la escala. El número de juicios debe ser el mismo para todas las afirmaciones. • Todas las afirmaciones (items) miden la actitud hacia un único concepto subyacente (ej. la DGI). Si se miden actitudes hacia varios objetos se requiere una escala por cada objeto. • Cada frase tiene un puntaje y se suman sus valores por lo que se trata de una escala aditiva. (Ej. desde una actitud muy desfavorable hasta una actitud muy favorable) • Suponiendo una encuesta con 8 afirmaciones y 5 opciones cada una con un valor de 1 a 5, el mínimo posible es 8 y el máximo 40. • La escala de Likert se aplica autoadministradamente o por entrevista.

Cálculo de la Validez

Diferencial Semá Semánticontico-Cuestionarios

• Para revisar la validez de contenido hay que mirar primero como usaron otros investigadores la variable. • Sobre esa base se elabora un universo de items posibles para medir la variable y sus dimensiones. • Se consulta luego investigadores familiarizados con la variable para ver si el universo es exhaustivo. • Se seleccionan los items y una muestra probabilística de ellos. • Se administran los items, se correlacionan las puntuaciones entre sí y se hacen estimaciones estadísticas para ver si la muestra es representativa. • La validez de criterio se estima correlacionando su medición con el criterio • La validez de constructo se hace mediante programas estadísticos de análisis de factores.

• El diferencial semántico califica al objeto de actitud en un conjunto de adjetivos bipolares ej. justo-injusto; fuerte-débil; caro-barato • Entre cada par de adjetivos se presentan opciones ej. muy, bastante, regular, bastante y muy) y el sujeto elige la que refleja su actitud. • La escala final se califica igual a la de Likert sumando las puntuaciones obtenidas. Los resultados pueden ordenarse en una tabla • Los cuestionarios son un conjunto de preguntas cerradas (o con respuestas delimitadas) o abiertas respecto de las variables a medir. • Para codificar preguntas abiertas se selecciona un determinado número de cuestionarios por muestreo. Se observa la frecuencia con que aparece cada respuesta, se eligen las que tienen mayor frecuencia (patrones generales),se clasifican en temas o rubros de acuerdo a un criterio lógico, se le da un título a cada tema y se asigna un código a cada patrón general de respuesta

13


Aná Análisis de Contenido

Observació Observación

• Es una técnica para analizar la comunicación de una manera objetiva, sistemática y cuantitativa. • Sirve para conocer actitudes de un grupo mediante análisis de sus discursos, analizar la personalidad de alguien evaluando sus escritos, describir tendencias en el contenido de la comunicación, develar diferencias en el mismo, comparar mensajes, auditar el contenido, medir la claridad de los mensajes, identificar intenciones, mensajes ocultos, revelar centros de interés, reflejar actitudes, valores etc • Se hace codificando las características relevantes del contenido del mensaje, para eso hay que definir el universo, las unidades de análisis y las categorías de análisis.

• Es el registro sistemático, válido y confiable de comportamientos o conductas manifiestas. Es una forma de observación del contenido de comunicaciones. Puede ser participante o no. • La ventaja es que son técnicas de medición no obstructivas, aceptan material no estructurado y puede trabajar grandes volúmenes de datos. • Se debe definir el universo de eventos o conductas a observar, extraer una muestra, definir las unidades de observación y las categorías de observación.(Las subcategorías pueden ser escalas del tipo likert o diferencial semántico). • Se selecciona a los observadores, se elige el medio de observación, se elaboran las hojas codificadoras, se entrenan los codificadores y se calcula su confiabilidad. • Se codifica, se obtienen los totales y se hacen los análisis

Universo, Unidades de Aná Análisis, y Categorí Categorías • El Universo puede ser la obra de un autor, las emisiones de un noticiario televisivo durante un mes etc. • Las unidades de análisis constituyen segmentos del contenido de los mensajes. Pueden ser palabras, el tema, el item (programa, libro) el personaje, las medidas de espacio tiempo. • Las categorías son las casillas o cajones en las cuales son clasificadas las unidades de análisis. Ej. un discurso puede ser optimista, pesimista, liberal, conservador. Un personaje puede ser bueno o malo. • Las categorías pueden ser de asuntos (el tópico), de dirección (a favor, en contra, nacionalista, etc.) de valores (creencias, intereses) de receptores (a quien va dirigido) físicas (sección y página de prensa, horario en TV etc.) • Las categorías deben ser exhaustivas, mutuamente excluyentes, derivarse del marco teórico y de una evaluación de la situación.

Pasos en el Aná Análisis de contenido • • • • • • • •

Definir el universo y sacar una muestra representativa Definir las unidades de análisis Definir las categorías que presenten a las variables Seleccionar las personas que codificarán Elaborar hojas de codificación Entrenar a los codificadores Calcular confiabilidad de los codificadores Codificar y contar las frecuencias de repetición de las categorías. • Obtener totales para cada categoría • Realizar los análisis estadísticos apropiados

Sesiones en Profundidad • Las sesiones en profundidad son otro método de recolectar datos. • Se reúne a un grupo de personas y se trabaja con éste en relación a las variables de la investigación. • Se define el tipo de personas. Se detectan ese tipo de personas y se las invita a las sesión. • Se lleva a cabo la reunión creando clima de confianza (rapport). • Se elabora el reporte de sesión. • Se codifica y se hace el análisis correspondiente

Resumen Tercera Parte La selección de la muestra depende de los objetivos y el tipo de investigación. Cuando es probabilística, se puede medir el error en la predicción, no así en la muestra dirigida. Hay muestras estratificadas y por racimos. La recolección de datos se hace con instrumentos que deben ser confiables y válidos. Cuando se miden conceptos abstractos, estos se vinculan con indicadores empíricos. La validez debe ser de contenido, de criterio y de concepto. Entre los instrumentos disponibles están las escalas (Likert, semántica diferencial) los cuestionarios, el análisis de contenido, la observación, las sesiones en profundidad, y otros como las pruebas estandarizadas y los archivos.

14


Aná Análisis de los Datos • Con la tabla de datos (datos codificados en una matriz) se analizan. • El tipo de análisis depende de tres factores: – 1) La formulación de las hipótesis (dependencia o interdependencia de las relaciones) – 2) El interés del investigador (número de variables que se explican o predicen) – 3) La naturaleza métrica o no métrica de la medición de las variables. • Esto es se describen datos y relacionan las variables.

Descripció Descripción de variables • Para describir cada variable se distribuyen las frecuencias (conjunto de puntuaciones ordenadas en sus respectivas categorías). • Luego se pueden agregar las frecuencias relativas (porcentajes de casos en cada categoría) y las acumuladas (en cada categoría) que también pueden expresarse en porcentajes. • Las distribuciones pueden presentarse en histogramas o gráficas.

Tipos de Aná Análisis • Estadística descriptiva para variables individuales • Puntuaciones “Z” • Razones y tasas • Cálculos de estadística inferencial • Pruebas paramétricas • Pruebas no paramétricas y • Análisis multivariados.

Medidas de Tendencia Central • Son puntos en una distribución. • Son la moda, la mediana y la media. El nivel de medición de la variable determina cuál es la medida apropiada. • La moda (categoría más frecuente) va con cualquier nivel de medición • La mediana (distribuye la distribución por la mitad) se usa con mediciones ordinales, por intérvalo y de razón. No tiene sentido con variables nominales porque no tienen jerarquía. No hay noción de encima o debajo. Es útil cuando hay valores extremos en la distribución, ya que no es sensible a estos. • La media es el promedio aritmético de una distribución y se aplica a mediciones por intérvalos o de razón. No tiene sentido en variables medidas en nivel nominal u ordinal. Es sensible a valores extremos. • Para calcular la media en una distribución de frecuencias, se saca el punto medio de cada intérvalo, se lo multiplica por la frecuencia que le corresponde. Se suman los resultados y se lo divide por el número total de frecuencias.

Medidas de Variabilidad • Indican dispersión de los datos en la escala de medición y responden a la pregunta: ¿dónde están diseminados los valores obtenidos? • Las medidas de tendencia central son valores en una distribución y las medidas de variabilidad son intérvalos, designan distancias o un número de unidades en la escala de medición. Son el rango, la desviación estándar y la varianza. • El rango es la diferencia entre la puntuación mayor y la menor. Mayor el rango, mayor la dispersión de los datos en una distribución. • El desvio estándar es el promedio de desviación de las puntuaciones con respecto a la media. Se expresa en unidades originales de medición de la distribución. Se interpreta en relación a la media. Mayor la dispersión de los datos alrededor de la media mayor la desviación estándar. • Se calcula sumando todos los cuadrados de la desviación de cada puntuación respecto a la media dividida por el número total de puntuaciones. A esa división se le saca raíz cuadrada.

Medidas de Variabilidad • Para datos agrupados en una distribución de frecuencias se obtiene la media con la fórmula de datos agrupados. • Se eleva esa media al cuadrado. Se multiplica la columna de puntos medios multiplicados por sus frecuencias por los puntos medios (fx2). Se suman los valores y se divide el total por el número de frecuencias. Se le resta el promedio al cuadrado y al resultado se le saca raíz cuadrada. S= Raiz cuadrada de ((la sumatoria de fx2/N) - X2) • La desviación estádar se interpreta como “cuanto se desvía en promedio de la media un conjunto de puntuaciones” • Sólo se usa en variables medidas por intérvalos o de razón. • La varianza es el desvío estándar elevado al cuadrado. • Las medidas de tendencia central y las de variabilidad se interpretan en conjunto no aisladamente.

15


Asimetrí Asimetría y Curtosis • La asimetría y la curtosis son otras medidas de estadística descriptiva para analizar la distribución de frecuencias en términos de probabilidad y visualizar su grado de dispersión. Requieren medición por intérvalo. • La asimetría es una estadística para conocer cuánto se parece la distribución a una distribución teórica llamada “curva normal”. • Constituye un indicador del lado de la curva donde se agrupan las frecuencias. Si es positiva, habrá más valores agrupados hacia la izquierda de la curva o por debajo de la media, y si es positiva a la derecha o por encima de la media. • La curtosis es un indicador de lo plana o “picuda” que es una curva. Cuando es cero significa que se trata de una curva normal. Si es positiva la curva es más levantada o picuda. Si es negativa es más plana. • Las frecuencias y las estadísticas descriptivas son para cada variable.

Puntuaciones Z • Las puntuaciones Z son las transformaciones de los valores obtenidos para analizar su distancia respecto a la media en unidades de desviación estándar (s). (Son un elemento descriptivo adicional) • Indica la dirección y grado en que un valor individual obtenido se aleja de la media en una escala de unidades de desviación estándar. • Es el método usado comúnmente para estandarizar la escala de una variable medida en un nivel por intervalos. Z = X -X media/s • Ej. si el valor es 50 y la media 60 y el desvio estandar 10 resulta que Z = 50 - 60 / 10 = -1 o sea el valor 50 está a un desvío por debajo de la media de la distribución. • La estandarización permite comparar puntuaciones de dos distribuciones diferentes (por ejemplo una distribución obtenida en una preprueba y en una postprueba) o mediciones de distintas pruebas o escalas aplicadas a los mismos sujetos. • La distribucion Z tiene media cero (0) y una desviación estándar de 1.

Tasas y Razones • Una razón es la relación entre dos categorías por ej. masculino (60)/femenino(30) = 2 • Una tasa es la relación entre el número de casos, frecuencias o eventos de una categoría y el número total de observaciones multiplicada por un múltiplo de 10, generalmente 100 o 1000 • Por ej. (Número de nacidos vivos en el país/ número de habitantes en el país) X 1000

Inferencia: De la Muestra al Universo • La investigación pretende generalizar los resultados de la muestra al universo. La estadística inferencial se usa para probar hipótesis y estimar parámetros. • Una hipótesis en estadística inferencial es una proposición respecto a uno o varios parámetros. La prueba de hipótesis determina si la hipótesis es congruente con los datos obtenidos en la muestra. Si es congruente se retiene como un valor aceptable del parámetro. • Para entender la prueba de hipótesis hay que revisar el concepto de distribución muestral y el de nivel de significancia.

Distribució Distribución Muestral • Una distribución muestral es un conjunto de valores sobre una estadística calculada de todas las muestras posibles de determinado tamaño. Se saca el tamaño representativo de la muestra ej. 512 y luego se sacan varias muestras de ese tamaño. Con las medias extraídas de las medias se hace una distribución de las medias. Comúnmente se saca una sola muestra. • La cuestión es que tan cerca está nuestra media de la distribución muestral . (Si está cerca podremos tener una estimación precisa de la media poblacional que es prácticamente el mismo que el de la distribución muestral. • El teorema central del límite especifica que la distribución muestral tiene una media igual a la de la población, y una varianza igual a la varianza de la población dividida por el tamaño de muestra.

Nivel de Significancia (Valor de certeza fijado a priori) • La probabilidad de que un evento ocurra oscila entre 0 y 1. • Aplicando el concepto de probabilidad a la distribución muestral se toma el área de esta como 1. Cualquier área entre dos puntos de la distribución corresponderá a la probabilidad de la distribución. • Para probar hipótesis inferenciales respecto a la media, el investigador debe evaluar si es alta o baja la probabilidad de que la media de la muestra esté cerca de la media de la distribución muestral. Si es alta se generalizará a la población, si es baja no. • El nivel de significancia o nivel alfa es un nivel de la probabilidad de equivocarse y se fija antes de probar hipótesis inferenciales. • La estadística de la muestra obtenida se analiza sobre que porcentaje tiene de confianza en que dicho valor se acerque al valor de la distribución muestral (valor del parámetro de la población). • Hay dos niveles convenidos 0.5 o sea hay 95 % de seguridad para generalizar sin equivocarse y sólo 5 % en contra o 0.1 o 99% de seguridad

16


Errores al Realizar Inferencias

Distribució Distribución Muestral y Nivel de Significancia • El nivel de significancia se expresa en términos de probabilidad (0.05 y 0.01) y la distribución muestral se expresa como probabilidad (el área total de ésta es 1). • El nivel de significancia se toma como un área bajo la distribución muestral. Representa áreas de riesgo o confianza en la distribución muestral. • La distribución muestral es una distribución de valores Z. Los valores Z son distancias que indican áreas bajo la distribución normal (áreas de probabilidad). • El área de riesgo es tomada como el área de rechazo de la hipótesis y el área de confianza como el área de aceptación de la misma. • La hipótesis es sobre el parámetro poblacional

Procedimiento • Sobre bases firmes (revisión literatura e información disponible) establecer una hipótesis sobre el parámetro poblacional. • Definir el nivel de significancia. (Ej. 0.05) • Recolectar datos en una muestra representativa. • Estimar desvío estándar de la distribución muestral de la media mediante la fórmula s / raíz cuadrada de n donde s es el desvío estándar de la muestra y n el tamaño de la muestra. • Transformar la media de la muestra en una puntuación Z • Buscar en la tabla bajo la curva normal aquella puntuación Z que deje 2,5 % por encima de ella que es 1.96 • Comparar la media de la muestra transformada a valor Z con el valor 1.96, si es menor aceptar la hipótesis y si es mayor rechazarla.

El Inté Intérvalo de Confianza

• Otro procedimiento inferencial es construir un intervalo donde se localiza un parámetro. En vez de probar una hipótesis sobre la media poblacional, se busca un intervalo donde se ubique dicha media. Esto requiere un nivel de confianza que es al intervalo de confianza lo que el nivel de significancia es a la prueba de hipótesis. Es una probabilidad dada de que un parámetro esté en un intervalo. • Si la probabilidad es 0.95 tenemos un 95 % de probabilidad a favor de que el parámetro se localice en el intervalo estimado contra 5 % de elegir un intervalo equivocado. Estos niveles de confianza se expresan en unidades de desviación estándar. • Se usa la tabla de áreas bajo la curva normal, y se selecciona el valor Z del nivel de confianza seleccionada. Luego se aplica la fórmula: Intervalo de confianza = estadística de la muestra +(puntuación Z X Desvío estándar de la distribución muestral) • Ej. si Z 0.95 = 1.96 si 0.99 = 2.58 Si la media es 2.9 y el desvío 0.0679 entonces 2,9 +- (1.96) (0.0679) = 2.9 +- (0.133) = la media está entre 2.767 y 3.033 con 95 % de probabilidades de no errar.

• • • • •

Los resultados posibles al probar hipótesis son: Aceptar una Hipótesis verdadera. (decisión correcta) Rechazar una Hipótesis falsa (decisión correcta) Aceptar una H. falsa (error tipo II o error beta) Rechazar una H. verdadera (error tipo I o error alfa)

• Los dos errores son indeseables y su posibilidad se reduce mediante: – Muestras representativas probabilísticas – Inspección cuidadosa de los datos – Selección de las pruebas estadísticas apropiadas – Mayor conocimiento de la población.

Aná Análisis Paramé Paramétricos • Los supuestos para los análisis paramétricos son: 1) La distribución poblacional de la variable dependiente es normal 2) El nivel de medición de la variable dependiente es por intérvalo o razón 3) Cuando dos o mas poblaciones son estudiadas, tienen una varianza homogenea (dispersión similar en sus distribuciones) • Las pruebas estadísticas paramétricas más usadas son 1) El coeficiente de correlación de Pearson y la regresión lineal 2) La prueba “t” 3) La prueba de contraste de la diferencia de proporciones 4) El análisis de varianza unidireccional (ANOVA) 5) El análisis de varianza factorial (ANOVA) 6) El análisis de covarianza (ANCOVA)

Correlació Correlación • Analiza relación entre dos variables medidas por intervalos o de razón. Se simboliza “r”. Cuando se lo eleva al cuadrado (r2) el resultado indica la varianza de factores comunes. • Es una hipótesis correlacional del tipo “a mayor X mayor Y” o “ a mayor X menor Y”. Relaciona dos variables sin considerar una como independiente y otra como dependiente pues no evalúa la causalidad. • El r se calcula desde valores obtenidos en 1 muestra en dos variables. Se relacionan valores de una variable con valores de otra en los mismos sujetos. El coeficiente varía de -1 (correlación negativa perfecta) a +1 (positiva perfecta) siendo 0 la falta de correlación • Se indica si el coeficiente es o no significativo de la siguiente manera s= 0.001 significancia . Si s es menor de 0.05 es significativo al nivel de 0.05 (95 % de confianza que correlación sea verdadera y 5 % de probabilidad de error). (Simboliza p <0.05 prob.de error menor a 0.05) • Ej. R = 0.214 y s = 0.081 Se acepta H nula pues r no es significativo ya que 0.081 es mayor que 0.05 que es el nivel mínimo para aceptar H

17


Regresió Regresión Lineal • Estima el efecto de una variable sobre otra. Está asociado con el coeficiente “r” Se expresa Y = a + bX donde Y es un valor de la variable dependiente que se desea predecir, a es la ordenada en el origen y b la pendiente. • La Hipótesis son correlacionales y causales. • Son dos variables a una se la considera independiente y a otra dependiente. Para eso hay que tener un sólido sustento teórico. • El nivel de medición es por intervalo o razón. • La regresión lineal se determina con base en el diagrama de dispersión • Conociendo la línea y la tendencia se puede predecir los valores de una variable conociendo los de la otra variable. • Regresión lineal no es útil con relaciones curvilíneas donde tendencia varía, primero es ascendente y luego descendente o viceversa. • Ej. a =1.2 b= 0.8 ¿a un valor de 7 en lógica que valor corresponde en historia? Y = 1.2 + 0.8 x 7 = 6.8

Prueba “t” • Prueba para evaluar si dos grupos difieren entre sí sí de manera significativa respecto a sus medias. medias Simboliza “t” • La H propone que los grupos difieren significativamente entre sí y la H nula propone que los grupos no difieren significativamente. • La comparació variable Si hay diferentes comparación se realiza sobre una variable. variables se efectuarán varias pruebas “t” una para cada variable. • La medición es por intervalos o razón. • Para saber si valor de “t” es significativo se calculan los grados de libertad(número de maneras en que datos pueden variar libremente). • Esto indica que valor podemos esperar de “t” dependiendo del tamaño de los grupos que se comparan. Mayor los grados de libertad que se tengan, la distribución “t” de student se acerca más a una distribución normal y si los grados de libertad exceden los 120 la distribución normal es usada como aproximación adecuada de la distribución “t”

Prueba “t” • La fórmula de “t” es la diferencia entre las medias de los dos grupos divididos por el error estándar de la distribución muestral de la diferencia entre medias. Los grados de libertad se calculan sumando los dos valores del tamaño de los grupos que se comparan menos dos. Gl = (N1+N2)-2 • Calculados el valor de “t” y los grados de libertad se elige el nivel de significancia y se compara el valor obtenido contra el valor que le correspondería en la tabla respectiva. Si el valor calculado es igual o mayor al que aparece en la tabla se acepta Hi (investigación). Si es menor se acepta la H0 • En la tabla se busca niveles de confianza como columnas y los grados de libertad como filas o renglones. • Ej. Se comparan las medias y varianzas de una preprueba con una postprueba en dos momentos diferentes. N1=128 N2=119 gl=245 • Si “t” = 6.698 para un nivel de confianza de 0.05 el valor de tabla será para más de 200 grados de libertad 1.645. Se acepta la Hi.

Prueba de Diferencia de Proporciones • Prueba sobre una variable para analizar si dos proporciones difieren significativamente entre sí. • La variable se mide en intérvalos o razón expresada en proporciones o porcentajes. • Se aplica la formula, se compara con el valor Z de la distribución normal que corresponde al valor de confianza elegido. Si es igual o mayor se acepta la Hi si es menor se rechaza. • Ej. el % de liberales en la ciudad X es mayor que la la ciudad Y • % en X = 55 % para N = 410 ; % en Y = 48 % para N = 301 • Los % se transforman en proporciones y se calculan q1 y q2 o sea q1 = 1- 0.55 = 0.45 ; q2 = 1 - 0.48 = 0.52 • Con a= 0.05 = 1.96 Z por lo tanto z = 0.55 - 0.48 / la raíz cuadrada de ((0.45 x 0.55) / 410 )+ ((0.48 x 0.52) / 301) = 1.56 • Como z calculada es menor al nivel alfa expresada en valor Z 1.96, se rechaza la Hi y se acepta la Ho

Aná Análisis de Varianza Unidireccional • Analiza si más de dos grupos difieren significativamente en cuanto a sus medias y varianzas (La prueba “t” se usa para dos grupos) • La Hipótesis es de diferencia entre los grupos. La Hi propone que los grupos difieren significativamente entre sí y la Ho propone que los grupos no difieren significativamente. • Hay una variable independiente (categoría) y una dependiente (por intérvalos o razón) • Que la var. ind. sea categórica significa que se pueden formar grupos diferentes ej. Religión o nivel socioeconómico o antigüedad en la empresa. • El análisis de varianza unidireccional produce un valor conocido coo “F” basada en una distribución muestral “F” • Compara variaciones de dos fuentes entre los grupos y dentro de los grupos.

Varianza Unidireccional • Si los grupos difieren entre sí, sus valores variarán más de lo que puedan variar las puntuaciones entre integrantes de un mismo grupo. • Ej. hay 3 clínicas A,B,C la primera esta integrada por los médicos x,y,z la otra por a,b,c y la otra por d,e,f. • Se espera que los integrantes de una clínica se parezcan más entre sí (por ej. en su comportamiento referido a internación o cirugías) que a los miembros de otra clínica. Se espera homogeneidad intra clínica y heterogeneidad inter clínicas. • Que pasa si los comportamientos de la clínica A se parecen más a los de otra clínica que a los integrantes de la suya propia?. Quiere decir que no hay diferencia entre las clínicas. • La razón “F” indica si las diferencias entre grupos son mayores que las diferencias intra grupo. Esas diferencias son medidas en términos de la varianza. (dispersión sobre la media calculada en desviaciones elevadas al cuadrado)

18


Razó Razón F = Razó Razón entre Varianzas (divisió (división de medias cuadrá cuadráticas) • La razón F es una razón de varianzas o sea divide a la media cuadrática entre los grupos (numerador) por la media cuadrática dentro de los grupos (denominador) F= mceg/mcdg • La media cuadrática implica un promedio de varianzas elevadas al cuadrado. • La media cuadrática entre grupos se obtiene calculando la media de los valores de todos los grupos (media total). Después se obtiene la desviación de la media de cada grupo respecto a la media total y se eleva al cuadrado cada desviación, después se suman. Finalmente se sopesa el número de individuos de cada grupo y la media cuadrática se obtiene con base en los grados de libertad inter grupales. • La media cuadrática dentro de los grupos se saca primero midiendo el desvío de cada puntuación respecto a la media de su grupo, se suma esa fuente de variación y se combina para obtner una media de la varianza intra grupal tomando en cuenta los grados de libertad totales

Varianza Unidireccional ( F Significativa) • Media cuadrática entre grupos = Suma de cuadrados entre grupos / grados de libertad entre grupos • Grados de lib. entre grupos = K -1 donde K es el número de grupos • La media cuadrática dentro de los grupos = suma de los cuadrados intragrupo / grados de libertad intragrupos • Grados de lib.intragrupos = N - K donde N es tamaño de la muestra, la suma individuos de todos los grupos y K es el número de grupos • Cuando F es significativa (valor igual o mayor al de la tabla) =grupos difieren significativamente entre sí. Se acepta la Hi y se rechaza la Ho • Se elige un valor alfa o probabilidad (0.05 o 0.01). Si es menor a ese nivel es significativo. Ver tabla. • Ej. si F = 1.12 y el valor en tabla es 3.15 como F calculado es menor se rechaza Hi y se acepta Ho o sea los grupos no difiere entre sí.

Aná Análisis Factorial de Varianza • Analiza el efecto de dos o más variables independientes sobre una variable dependiente. • Extiende análisis de varianza unidireccional. Incluye más de una variable. • Evalúa los efectos por separado de cada variable independiente y los efectos conjuntos de dos o más variables independientes. • La variable dependiente está medida en intervalos y las independientes en cualquier nivel pero expresadas de manera categórica. • Sirve para diseños experimentales factoriales • Ej., la similitud en valores, la atracción física y la retroalimentación positiva son factores que inciden en la satisfacción sobre la relación de parejas de novios que tienen entre 24 y 32 años.

Aná Análisis de Covarianza • . Analiza la relación entre una variable dependiente y dos o mas independientes eliminando y controlando el efecto de al menos una de estas independientes • Hay tres perspectivas para el análisis de covarianza. La perspectiva experimental se centra en las diferencias observadas en la variable dependiente a través de las categorías de la(s)variable (s) independiente(s). ( Se intenta controlar la influencia de otras variables independientes que no sean categóricas. Purifica la relación entre las variables independientes y la dependiente controlando el efecto de las independientes no categóricas o continuas). • A las variables independientes cuantitativas continuas cuya influencia se remueve y controla se les denomina “covariables” • Aquí el análisis de covarianza se concibe como un ajuste en la variable dependiente respecto a diferencias en la covariable y luego como una evaluación de la relación entre variables independientes categóricas y los valores ajustados de la variable dependiente

Aná Análisis de Covarianza • La perspectiva de interés por la covariable analiza la relación entre la variable dependiente y la covariable (variable cuantitativa continua). • La influencia que se remueve es la de las variables independientes categóricas. Primero se controla efecto de estas variables y después se analiza el efecto “purificado” de las covariables. • En la perspectiva de regresión tanto las variables independientes categóricas como las covariables resultan de interés. • El análisis de covarianza elimina influencias no deseadas sobre la variable dependiente. Elimina los efectos de variables que confunden o distorsionan la interpretación de resultados en estudios no experimentales • La razón F es una razón de varianzas

Aná Análisis de Covarianza • Ej. Los trabajadores que reciban retroalimentación verbal (X1)sobre el desempeño mantendrán un nivel mayor de productividad que los trabajadores que reciban retroalimentación por escrito (X2) y que los trabajadores que no reciban ningún tipo de retroalimentación (X3). • Hi X1 > X2 >X3 • Se sabe que la motivación puede contaminar los resultados. Diferencias iniciales de motivación pueden invalidar el estudio. • Se decide controlar el efecto de la motivación que se convierte en covariable. • El análisis de covarianza quita a la variabilidad de la dependiente lo que se debe a la covariable. • El ajuste se hace sobre la base de la correlación entre la covariable y la dependiente. • Realizado el análisis de covarianza se evalúa si “F” es o no significativa . Cuando F es significativa se acepta la Hi

19


Aná Análisis de Covarianza Si el resultado fuera G1 = 35 G2 = 36 G3 = 38 Los grados de libertad (Gl) entre = K -1 = 3-1 = 2 Gl Intra = N-K = 109 (recordar que N es el tamaño de la muestra y K el número de grupos) • F= 1.70 • Se compara el valor de la tabla que a =.05 es igual a 3.07, siendo la razón F encontrada 1.70 es menor a este valor. • Se rechaza la Hi y se acepta la Ho

Tabla de Contingencia de la X2 Voto

• • • •

Aná Análisis No Paramé Paramétricos • No requieren distribución normal • Las variables pueden no estar medidas en un nivel por intervalos o de razón. Pueden analizar datos nominales u ordinales. • Las variables deben ser categóricas. • Las pruebas más usadas son 1) La Ji cuadrada (x2) 2) Los coeficientes de correlación e independencia para tabulaciones cruzadas y 3) Los coeficientes de correlación por rangos ordenados de Spearman y Kendall.

La X2 • Es una prueba para evaluar hipótesis acerca de la relación entre dos variables categóricas. • Prueba hipótesis correlacionales. • No considera relaciones causales • Involucra 2 variables medidas en forma nominal u ordinal. • Si hay variables medidas a intervalos o razón se deben reducir a ordinales. Los datos por intérvalos o razón deben ser resumidos a una cuantas categorías discretas. • Se calcula por medio de una tabla de contingencia o tabulación cruzada. (Tabla de dos dimensiones donde cada dimensión contiene una variable. A su vez cada variable se subdivide en dos o más categorías).

Candidato A

Candidato B

Masc. Sexo Femen.

Tabla de Contingencia de la X2 • El ej. es una tabla de 2 x 2 donde cada dígito significa una variable y el valor de éste indica el número de categorías de la variable. • 2 (una variable de dos categorías) x 2 (otra var.con dos categorías) • Si tabla fuera 2 x 3 serían 2 variables con 1de ellas de 3 categorías. Por ej.si en vez de sexo fueran los partidos políticos y hubiera tres. • En la tabla de contingencia se anotan las frecuencias observadas en la muestra de la investigación. Posteriormente se calculan las frecuencias esperadas para cada celda. • En esencia la x2 es una comparación entre la tabla de frecuencias observadas y la denominada tabla de frecuencias esperadas, la cual constituye la tabla que esperaríamos encontrar si las variables fueran estadísticamente independientes o no estuvieran relacionadas. • La x2 parte del supuesto de “no relación entre variables” y se evalúa si esto es cierto o no analizando si sus frecuencias obsrvadas son diferentes de lo que pudiera esperarse en asusencia de correlación.

Cálculo de Frecuencias • Si hay relación, la tabla que resultado en la investigación debe ser muy diferente respecto a la tabla de frecuencias esperadas. • La tabla de frecuencia esperada de cada celda se calcula mediante la siguiente fórmula aplicada a la tabla de frecuencias observadas: fe = (Total (Total o marginal de rengló renglón) x (total o marginal de columna) N (nú (número total de frecuencias observadas) • En un ej. 2 x 3 donde haya dos zonas de votantes y 3 partidos la frecuencia observada sería: Zona Total norte sur A 180 100 280 Partidos B 190 280 470 C 170 120 290 Total 540 500 1040 La (fe) para la primera celda será= (280 x 540) / 1040 = 145.4

20


Cálculo de Frecuencias

Otro Ejemplo

• La tabla de frecuencias esperada sería:

145.4 244 150.6 540

134.6 226 139.4 500

280 470 290 1040

• Obtenidas las frecuencias esperadas se aplica la siguiente fórmula de X2 = Sumatoria de (0-E)2 / E donde 0 es la frecuencia observada en cada celda y E es la frecuencia esperada de cada celda. • Esto significa que se calcula para cada celda la diferencia entre la frecuencia observada y la esperada y se eleva esa diferencia al cuadrado para luego dividir ese resultado por la frecuencia esperada. Finalmente se suman esos resultados y la sumatoria es el valor de la X2 obtenida.

Cálculo de la X2 Celda 0 E 0 -E (0(0-E)2 (0(0-E)2 /E Zona norte partido A 180 145.4 34.6 1197.16 8.23 Zona norte partido B 190 244.4 -54.4 2959.36 2.11 Zona norte partido C 170 150.6 19.4 376.36 2.50 Zona Sur partido A 100 134.6 -34.6 1197.16 8.69 Zona Sur partido B 280 226 54 2916 12.80 Zona Sur partido C 120 139.4 -19.4 376.36 2.70 __________________________________________________________

X2= 47.33 • ¿Que quiere decir 47.33? • Al igual que t y F la X2 proviene de una distribución muestral (identificados por los grados de libertad). Por eso para saber si X2 es o no significativo se deben calcular los grados de libertad.

Los Grados de Libertad • GL = (r-1)(c-1) donde r es el número de renglones de la tabla de contingencia y c el número de columnas o sea • GL = (3-1) (2-1) = 2 • Luego se acude a los grados de libertad de la tabla de X2, eligiendo nuestro nivel de confianza (0.05 o 0.01). • Si nuestro valor calculado de X2 (47.33) es igual o superior al de la tab la, decimos que las variables están relacionadas (x2 fue significativa). • En el ejemplo el valor que requerimos empatar o superar al nivel de 0.05 es 5.991. El valor calculado es muy superior (47.33) por lo tanto X2 resulta significativa

• H I = Los tres canales de TV a nivel nacional difieren en la cantidad de programas prosociales, neutrales y antisociales que difunden. Hay relación entre la variable canal de televisión nacional y la variable emisión de programas prosociales, neutrales y antisociales • Resultados X2 = 7.95 • Gl = 4 • Para que X2 sea significativa a 0.01 con cuatro grados de libertad, se necesita un valor mínimo de 13.277 y para que sea significativa a 0.05 se necesita un valor mínimo de 9.488. Por lo tanto se rechaza la Hi y se acepta la nula. No hay relación entre las variables

Coeficientes de Correlació Correlación e Independencia para Tabulaciones Cruzadas. • Además de la X2 existen otros coeficientes para evaluar si las variables incluídas en la tabla de contingencia o tabulación cruzadas están correlacionadas.(Pearson, de Cramer, Lambda, Gamma, Tau-b de Kendall, D de Somers, Eta. • Las diferencias tienen que ver con el tamaño de las tablas de contingencia y el nivel de medición de las variables

Otros Usos de las Tablas de Contingencia • Las tablas de contingencia además de servir para calcular la X2 y otros coeficientes, son útiles para describir conjuntamente a dos o má más variables. • Esto se efectúa convirtiendo las frecuencias observadas en frecuencias relativas o porcentajes. • En una tabulación cruzada puede haber tres tipos de porcentajes respecto a cada celda: a) % en relación al total de frecuencias observadas (N) b) % en relación al total marginal de la columna. c) % en relación al total marginal del renglón.

21


Aná Análisis Multivariado:1) Multivariado:1) Regresió Regresión

Ejemplo • Suponga un ejemplo dedos variables sexo y preferencia por el conductor a y b con las siguientes frecuencias observadas

sexo Preferencia por conductor

A B

M 25 40

F 25 10

50 50

65

35

100

Observaciones del Ejemplo • Una cuarta parte de la muestra está constituída por hombres que prefieren al conductor A, 10 % son mujeres que prefieren al conductor B. Más del 60 % de los hombres prefieren a B Etc. • Estas frecuencias relativas se basan en las frecuencias observadas pero no tienen nada que ver con las frecuencias esperadas.

Coeficientes y Correlació Correlación por rangos ordenados de Spearman y Kendall • Los coeficientes rho de Spearman simbolizado como rs y tau de Kendall simbolizado como t son medidas de correlación para variables en un nivel de medición ordinal de tal modo que los individuos u objetos de la muestra puedan ordenarse por rangos(jerarquías) • Por ejemplo tenemos las variables preferencia por el sabor y atractivo del envase y pedimos a personas que evalúen 10 bebidas y los ordenen del 1 al 10 • Los coeficientes varían de -1 a +1 o sea de correlación negativa perfecta a correlación positiva perfecta. • El de Kendall es más significativo cuando los datos tienen un número considerable de rangos empatados. El de Spearman parece una aproximación cercana al coeficiente r de Pearson cuando los datgos son continuos (no caracterizados por un número considerable de empares en cada rango)

• Estos métodos analizan la relación entre varias variables independientes y al menos una dependiente (medida por intérvalos) • La regresión múltiple analiza el efecto de dos o más variables independientes sobre una dependiente. Sirve para predecir el valor de una variable dependiente conociendo el valor y la influencia de las variables independientes incluídas en el análisis. • El coeficiente de correlación múltiple (R) señala la correlación entre la variable dependiente y todas las demás variables independientes tomadas en conjunto. conjunto • El coeficiente varía de 0 a 1, y mayor su valor, las var. independientes explicarán en mayor medida la variación de la variable dependiente. • El R2 (coeficiente de correlación elevado al cuadrado) nos indica el porcentaje de variació variación de la dependiente debida a las independientes. • El valor Beta (B) inidca el peso o influencia que tiene cada variable independiente sobre la dependiente. El valor alfa (a) es una cosntante de regresión para el conjunto de valores obtenidos.

2) Aná Análisis Lineal de Patrones. (Path (Path Aná Análisis) • El análisis lineal de patrones (path análisis) representa interrelaciones entre variables a partir de regresiones. • Analiza la magnitud de la influencia (directa o indirecta) de unas variables sobre otras. • Es un modelo causal. • Los coeficientes de path representan la fuerza de las relaciones entre las variables. • Son coeficientes de regresión estandarizados. • Cuantifica efectos. Más se acerque un coeficiente “path” a cero menor efecto tendrá.

3)Aná 3)Análisis de Factores • Explica un fenómeno complejo en función de unas cuantas variables. • Es un método para determinar el nú número y naturaleza de conceptos (constructos) constructos) subyacentes en un conjunto de mediciones. • Un constructo es un atributo para explicar un fenómeno • Se generan “variables artificiales” denominadas factores que representan atributos. (Los factores “hacen” el concepto o atributo) • Los factores se obtienen de las variables originales y deben interpretarse de acuerdo con estas. Var. Se miden por intérvalos. • Ej. Analizar los factores que determinan la relación entre los vendedores y los compradores industriales en una ciudad. Se midieron las variables coordinación, conflicto, frecuencia de la relación, reciprocidad económica en la relación, etc. • Los coeficientes si son altos se dicen que cargan ese factor y si tienen valores bajos en otros no los cargan. Así se descubre una estructura de factores. También proporciona la varianza explicada

22


Aná Análisis Multivariado de Varianza (MANOVA) • Analiza la relación entre dos o má más variables independientes y dos o más variables dependientes. dependientes (Regresión era varias ind y una depend). • Se consideran las diferencias entre variables canónicas. (variables artificiales generadas a partir de los datos). • Las variables canó canónicas representan conceptos y están compuesta de variables dependientes. • El interés no es sólo si los grupos definidos por las variables independientes difieren en las var. canónicas sino la naturaleza de éstas. • Se miran las cargas de los coeficientes de correlación entre una variable dependiente y una variable canónica. Si la carga es alta y positiva significa que altos valores en la dependiente está están asociados con altos valores en la variable canó canónica.

Aná Análisis Multivariado de Varianza (MANOVA) • Ej. Una variable dependiente sobre innovación y creatividad y correlaciona con una variable canónica, se infiere que la variable canónica representa un concepto que involucra a la creatividad. • Otro ej. las variables canónicas pueden ser 1) motivación intrínseca, 2) atribución de causalidad externa 3) desempeño laboral. Las variables dependientes, motivación intrínseca, atribuciones internas, sentimientos de éxito en el trabajo, atribuciones externas, productividad, eficiencia, calidad. • Supongamos que los coeficientes de correlación para la variable canónica motivación intrínseca sean los siguientes con la var.dependiente motivación intrínseca = 0.90 para atribuciones internas 0.86 y para sentimientos de éxito del trabajo 0.70. Para la canónica desempeño laboral la var. dep. productividad = 0.74, eficiencia=0.48 y calidad .57 Se puede inferir que la variable canónica en cada caso representa esos conceptos de las variables dependientes.

Resumen Aná Análisis de Datos •

• • •

Se usa la tabla de datos. El tipo de análisis (pruebas) estadísticas a realizar depende del nivel de medició medición de las variables, las hipó hipótesis y el interé interés del investigador. Los análisis que pueden realizarse son descriptivos para cada variable, variable (distribución de frecuencias, medidas de tendencia central y medidas de variabilidad) la transformació transformación a valores Z, razones y tasas, cá cálculos de estadí estadística inferencial, inferencial, pruebas paramé paramétricas, tricas, pruebas no paramé paramétricas y aná análisis multivariados. multivariados Las distribuciones de frecuencia contienen las categorías, códigos, frecuencias absolutas, (N de casos) frecuencias relativas (%) y frecuencias acumuladas (absolutas o relativas). Las distribuciones de frecuencias pueden presentarse gráficamente. Las medidas de tendencia central son la moda, la mediana y la media. Las medidas de variabilidad son el rango, la desviación estándar y la varianza.

Resumen Aná Análisis de Datos • Otras estadísticas descriptivas útiles son la asimetrí asimetría y la curtosis. curtosis. • Las puntuaciones Z son transformaciones de los valores obtenidos a unidades de desviación estándar. • Una razó razón es la relación entre dos categorías, y una tasa es la relación entre el número de casos de una categoría y el numero total de casos, multiplicada por un múltiplo de 10. • La estadí estadística inferencial hace generalizaciones de la muestra a la población. Se usa para probar hipótesis y estimar parámetros. Se basa en el concepto de distribución muestral. • La curva o distribució distribución normal es un modelo teórico útil. Su media es cero y su desviación estándar es uno. • El nivel de significancia y el inté intérvalo de confianza son niveles de probabilidad (0.05 y 0.01) de cometer un error o equivocarse en la prueba de hipótesis o la estimación de parámetros.

Aná Análisis Multivariado de Varianza (MANOVA)

Resumen Aná Análisis de Datos

• Luego se miran las puntuaciones de las variables independientes por ej. los grupos ejecutivos, secretarias, empleados, obreros. • Si los valores son altos en motivación intrínseca para los ejecutivos y no para los obreros entonces eso implica que los ejecutivos tienen mayor peso en la canónica motivación intrínseca medida por las variables dependientes mencionadas • La Hi en el MANOVA postula que las medias en la variable canónica (motivación intrínseca, etc.) de los grupos o categorías de la variable independiente (ejecutivos, secretarias etc.) difieren entre sí. La Ho postula que dichas medias serán iguales • Se calculan diversas estadísticas para evaluar ambas hipótesis y si resultan significativas a un nivel de confianza se acepta la Hi de diferencias de medias. Esto indica que hay por lo menos una variable canónica significativa y se presentan diferencias entre los grupos de la variable independiente en esta variable canónica.

• Las pruebas paramé paramétricas más usadas son: • El coeficiente de correlación de Pearson (hipótesis correlacional) • La regresión lineal (correlacional/causal) • La prueba “t” (diferencia de grupos) • El contraste de diferencia de proporciones (dif.de grupos) • El análisis de varianza (ANOVA) unidireccional y factorial, unidireccional con una variable independiente y factorial con dos o más variables independientes para hipótesis de diferencia de grupos/causal y • Análisis de covarianza (ANCOVA) (correlacional/causal). • En todas las pruebas paramétricas las variables están medidas en un nivel por intérvalos o razón.

23


Resumen Aná Análisis de Datos • Las pruebas no paramé paramétricas más usadas son: • La prueba de X2 (diferencia de grupos para establecer correlación) • Coeficientes de correlación e independencia para tabulaciones cruzadas (correlacional) • Coeficientes Spearman y Kendall (correlacional) • Las pruebas no paramé paramétricas se usan con variables nominales u ordinales y no requieren distribució distribución normal

Resumen Aná Análisis de Datos • Los análisis multivariados más usados son: • Regresión múltiple (1 dependiente intervalo o razón y 2 o más independientes con cualquier nivel de medición) para hipótesis correlacional/causal X1 X2 Y X3 • Análisis lineal path para varias variables de cualquier nivel de medición en una secuencia causal para hipótesis correlacional/causal X W L Y Z N H

Resumen Aná Análisis de Datos • Análisis de factores para varias variables de intérvalo o razón e hipótesis de correlación causal

X1

X2

Xk

• Análisis multivariado de varianza (MANOVA) y correlación canónica para varias independientes y varias dependientes en intérvalos o razón)

X1 X2 Xk

Y1 Y2 Yk

Resumen Aná Análisis de Datos • Análisis discriminante para varias independientes (intérvalos o razón) y una dependiente (nominal u ordinal) X1 X2 Xk

Y

Informe Final • Comunica que se hizo, como, que resultados y conclusiones se obtuvieron. • Hay que distinguir usuarios académicos de no académicos. • Si no es académico va portada, índice, resumen, introducción, método, resultados, conclusiones y apéndices. (no hay marco teórico, procedimientos, ni

Informe Final Acadé Académico • Portada (título, autor, afiliación institucional, fecha y patrocinador) • Indice • Resumen (planteo problema, metodología, resultados más importantes y conclusiones en 75 a 175 palabras.(Comprensible, sencillo, informativo y preciso.) • Introducción (problema, objetivos, preguntas de investigación, justificación, contexto, variables, sus definiciones y limitaciones). • Marco teórico. • Método (Hipótesis, diseño, sujetos, universo, muestra, procedimiento de selección, instrumentos de medición usados (descripción precisa, confiabilidad, validez y variables medidas). • Procedimiento (instrucciones, materiales, manipulación experimental). • Resultados (datos, análisis) • Conclusiones y Recomendaciones. • Bibliografía. Apéndices.

24


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.