5 minute read

Diseño y análisis en investigación

Respuestas y comentarios a las preguntas

Comentario

a la pregunta 7.1

La respuesta más correcta es la “d”, ANOVA.

La variable independiente es el consumo de frutas, que es una variable nominal politómica (tercera fila). La variable dependiente es el IMC, que es continua (tercera columna). Por lo tanto, el test más apropiado es ANOVA.

Comentario

a la pregunta 7.2

La respuesta más correcta es la “c”, t de Student para muestras independientes.

La variable independiente es el tipo de pauta de insulina, que es una variable nominal dicotómica que diferencia muestras independientes (primera fila). La variable dependiente es la glucosa, que es continua (tercera columna). Por lo tanto, el test más apropiado es la t de Student para muestras independientes.

Comentario a la pregunta 7.3

La respuesta más correcta es la “a”, ji cuadrado.

La variable independiente es el nivel de estudios materno, que es una variable nominal politómica (tercera fila). La variable dependiente es la instauración de lactancia materna, que es nominal (primera columna). Por lo tanto, el test más apropiado es ji cuadrado.

Comentario a la pregunta 7.4

La respuesta más correcta es la “b”, correlación de Pearson.

La variable independiente es el tiempo de actividad física, que es una variable continua (cuarta fila). La variable dependiente es el IMC, que es continua (tercera columna). Por lo tanto, el test más apropiado es el coeficiente de correlación de Pearson.

Comentario a la pregunta 7.5

La respuesta más correcta es la “d”, t de Student para muestras relacionadas.

La variable independiente es la medición antes/después (advertimos que es una variable que no está como tal recogida en la base de datos), que es una variable nominal dicotómica que diferencia muestras relacionadas (segunda fila). La variable dependiente es la presión arterial sistólica, que es continua (tercera columna). Por lo tanto, el test más apropiado es la t de Student para muestras relacionadas.

Bibliograf A Recomendada

• Altman DG. Practical statistics for medical research. London: Chapman & Hall; 1991.

• Hu Y, He JR, Liu FH, Li WD, Lu JH, Xing YF, et al. Effectiveness of a Kindergarten-Based Intervention for Preventing Childhood Obesity. Pediatrics. 2017 Dec; 140(6). pii: e20171221.

• Marugán de Miguelsanz JM, Ochoa Sangrador C; Red de investigación de la SCCALP (Sociedad de Pediatría de Asturias, Cantabria, Castilla y León). Adecuación de los hábitos de introducción del gluten a las recomendaciones actuales. An Pediatr (Barc). 2013;79(2):88-94.

• Milton JS. Estadística para biología y ciencias de la Salud. México: McGraw-Hill; 2001.

• Norman GR, Streiner DL. Bioestadística. México: Mosby/Doyma Libros; 1996.

• Riegelman RK, Hirsh RP. Cómo estudiar un estudio y probar una prueba: lectura crítica de la literatura médica. 2.ª ed. Washington, D.C.: Organización Panamericana de Salud; 1992;531.

• Rosner B. Fundamentals of Biostatistics, 7th Edition. Boston: Brooks/Cole, Cengage Learning; 2011.

Errores metodológicos

Objetivos docentes:

• Diferenciar entre errores aleatorios y sistemáticos.

• Conocer los tipos de errores sistemáticos.

• Conocer los tipos de sesgos de análisis.

• Aprender a identificar y controlar sesgos de confusión.

• Aprender a identificar y controlar sesgos de interacción.

Todo estudio epidemiológico ha de ser entendido como un ejercicio de medición en el que debe perseguirse la exactitud, esto es, la estimación del parámetro deseado con el mínimo error. Existen dos posibles fuentes de error: el error aleatorio y el error sistemático. Un estudio es preciso cuando carece de error aleatorio, es válido cuando carece de error sistemático.

Error aleatorio

Por error aleatorio (debido al azar) entendemos el error ligado al propio proceso de medición, esto es, a la falta de precisión. Esta falta de precisión o error aleatorio tendrá un valor distinto, e impredecible dentro de un rango, en cada una de las repeticiones de la medición. La variabilidad de una medición será, por tanto, un indicador de su precisión; cuanto más amplia sea dicha variabilidad, menor será su precisión. La variabilidad puede proceder de distintas fuentes: variabilidad biológica, imprecisión del instrumento de medida, inexperiencia del evaluador, etc.

Los errores aleatorios no suelen afectar a la validez interna de los estudios (no alteran la dirección de los resultados), pero sí limitan su potencia. En un estudio epidemiológico, la manera principal de reducir el error aleatorio consiste en aumentar el tamaño de la muestra. De esta manera minimizamos el riesgo de obtener resultados distorsionados por azar, ya que la repetición de la medición tenderá a producir resultados distintos, pero cercanos, al valor verdadero del parámetro a medir.

En capítulos anteriores hemos explicado cómo podemos estimar el error aleatorio. Asumiendo que la repetición de un experimento con un mismo número de pacientes puede dar resultados diferentes por mero azar, la inferencia estadística nos permite cuantificar el rango de error a partir de medidas de dispersión de los resultados obtenidos y del tamaño muestral (error estándar). A menor dispersión de los resultados y mayor tamaño muestral, tendremos menor rango de error aleatorio.

Sea cual sea el parámetro elegido para expresar los resultados de un estudio, el rango de error de nuestra estimación puede expresarse como un intervalo de confianza, situado entre un valor por debajo y otro por encima del resultado obtenido. Cuanto más grado de confianza queramos atribuir a nuestra estimación de error, más amplio será el rango de dicho intervalo.

Habitualmente empleamos el intervalo de confianza al 95 %, cuya interpretación es: “si repetimos 100 veces un experimento en las mismas condiciones y con igual número de sujetos, el verdadero valor del parámetro poblacional que queremos estimar se encontrará incluido dentro de 95 intervalos de confianza de los 100 construidos a partir de los resultados de cada experimento”. Similar interpretación tendrían intervalos de confianza más exigentes.

La presentación de la incertidumbre, sobre el tamaño del efecto obtenido en un estudio, en forma de intervalos de confianza es el método preferido en las principales revistas científicas. A diferencia del nivel de significación obtenido en un contraste de hipótesis (“p”), que solo expresa la probabilidad de que la diferencia encontrada sea debida al azar (error tipo I o de falso positivo), el intervalo de confianza refleja la incertidumbre del resultado en las propias unidades de medida del efecto a evaluar, lo que facilita la interpretación de su relevancia clínica. Por otra parte, el intervalo de confianza permite juzgar la significación estadística del resultado, ya que solo será significativo cuando no esté comprendido en su rango el valor nulo de ausencia de efecto (por ejemplo: el “0” para diferencias de medias o riesgos, el “1” para medidas de riesgo).

También hemos visto que podemos medir el error aleatorio mediante el abordaje clásico que nos ofrece el contraste de hipótesis. El objetivo del contraste de hipótesis es permitir generalizaciones de los resultados de nuestra muestra a la población de la que procede. Cuando el resultado de un estudio en el que se comparan varias alternativas muestra diferencias, el siguiente paso es estimar si dichas diferencias corresponden a diferencias reales en la población o pueden ser explicadas por azar. Si la probabilidad de que el resultado obtenido debido al azar es muy baja, podremos asumir que corresponda a una diferencia real en la población, aunque siempre existirá una cierta probabilidad de error. Esta probabilidad será tanto más baja cuanto mayor sea la diferencia encontrada y más grande el tamaño muestral.

Por convención, si esta probabilidad es menor del 5 % (p < 0,05) se considera que no se debe al azar; en ese caso, se rechaza la hipótesis nula y se acepta la alternativa.

This article is from: