Gonzalez-Teruel Barrios 2012 Métodos y ténicas Para La Investigación del Comportamiento Informacion

Page 1

;

AURORAGONZALEZ-TERUEL MAITEBARRIOSCERREJÓN

Métodosy técnicas para la investigación

del comportamiento informacional Fundamentosy nuevosdesarrollos


METODOS

Y TÉCNICAS PARA LA INVESTIGACIÓN

DEL COMPORTAMIENTO INFORMACIONAL

Fundamentos y nuevos desarrollos


METODOS

Y TÉCNICAS PARA LA INVESTIGACIÓN

DEL COMPORTAMIENTO

INFORMACIONAL

Fundamentos y nuevos desarrollos

AURORA GONZÁLEZ-TERUEL MAITE BARRIOS CERREJÓN

EDICIONES TREA


BIBLIOTECONOMÍA Y ADMINISTRACIÓN CULTURAL- 247 © Aurora González-Teruel y Maite Barrios Cerrejón, 2012 © de esta edición:

Ediciones Trea, S. L. María González la Pondala, 98, nave D 33393 Somonte-Cenero. Gijón (Asturias) Tel.: 985 303 801. Fax: 985 303 712 trea@trea.es www.trea.es Dirección editorial: Alvaro Díaz Huici Coordinación editorial: Pablo García Guerrero Producción: José Antonio Martín Cubiertas: Impreso Estudio Impresión: Gráficas Ápel Encuadernación: Cimadevilla Depósito legal: As. 02964-2012 ISBN: 978-84-9704-671-8 Impreso en España - Princed in Spain Todos los derechos reservados. No se permite la reproducción total o parcial de este libro, ni su incorporación a un sistema informático, ni su transmisión en cualquier forma o por cualquier medio, sea este electrónico, mecánico, por fotocopia, por grabación u otros métodos, sin el permiso previo por escrito de Ediciones Trea, S. L. La Editorial, a los efectos previstos en el artículo 32.1 párrafo segundo del vigente TRLPI, se opone expresamente a que cualquiera de las páginas de esta obra o partes de ella sean utilizadas para la realización de resúmenes de prensa. Cualquier forma de reproducción, distribución, comunicación pública o transformación de esta obra solo puede ser realizada con la autorización de sus titulares, salvo excepción prevista por la ley. Diríjase a CEDRO (Centro Español de Derechos Reprográficos) si necesita fotocopiar o escanear algún fragmento de esta obra (www.conlicencia.com; 91 702 19 70 / 93 272 04 47).


A Toni, Alícia y Bernat A Juan José


ÍNDICE

Prólogo.............................................................

21

Capítulo 1. Fundamentos de la investigación en ciencias sociales... . . . . . . . . . . . . . . 1.1. Principales paradigmas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2. Metodología cualitativa y cuantitativa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3. Tipos de investigación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4. El proceso de investigación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.1. Proceso de investigación clásico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.2. Proceso de investigación cualitativo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5. Criterios de calidad de la investigación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5.1. Investigación cuantitativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5.2. Investigación cualitativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.6. El informe de investigación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.7. Ética de la investigación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.8. Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

27 27 31 34 38 38 39 41 41 44 48 50 53

Capítulo 2. Técnicas de muestreo......................................... 2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2. Muestreo probabilístico. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.1. Muestreo aleatorio simple. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.2. Muestreo aleatorio sistemático................................ 2.2.3. Muestreo aleatorio estratificado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.4. Muestreo aleatorio por conglomerados. . . . . . . . . . . . . . . . . . . . . . . . . . 2.3. Muestreo no probabilístico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.1. Muestreo accidental . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.2. Muestreo intencional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.3. Muestreo teórico........................................... 2.3.4. Muestreo por cuotas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.5. Muestreo por bola de nieve................................... 2.4. Tamaño de la muestra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

55 55 58 59 60 60 62 65 68 69 70 71 73 74


(10]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

INFORMACIONAL

2.5. Ejemplos de investigaciones........................................ 2.6. Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

76 78

Capítulo 3. Los estudios de encuesta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1. Definición y ámbito de aplicación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2. Fases y principales elementos en un estudio de encuesta . . . . . . . . . . . . . . . . . . 3.2.1. Elaboración del cuestionario. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.1.1. Tipología y generación de preguntas de un cuestionario . . . . . . 3.2.1.2. Recomendaciones para la redacción de las preguntas . . . . . . . . 3.2.1.3. Estructura y diseño del cuestionario . . . . . . . . . . . . . . . . . . . . . 3.2.2. La prueba piloto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.3. Administración del cuestionario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.3.1. Cuestionario administrado con intervención de un entrevistador. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.3.2. Cuestionario autoadministrado......................... 3.2.4. Procedimiento para la administración del cuestionario . . . . . . . . . . . . . . 3.2.5. Codificación y depuración de los datos. . . . . . . . . . . . . . . . . . . . . . . . . . 3.3. Errores asociados a un estudio de encuesta . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4. Ejemplos de investigaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5. Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

79 79 82 83 84 87 92 94 98 98 101 106 109 112 114 116

Capítulo 4. Entrevista... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1. Definición y ámbito de aplicación................................... 4.2. Tipos de entrevista en función del grado de estructuración. . . . . . . . . . . . . . . . 4.3. Estructura de la entrevista. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4. Preguntas de una entrevista. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5. Habilidades del entrevistador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6. El entrevistado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.7. Registro de la entrevista . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.8. Transcripción de los datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.9. Ventajas y limitaciones de la entrevista . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.10. Ejemplos de investigaciones........................................ 4.11. Resumen......................................................

119 119 122 125 127 131 133 134 135 136 138 141

Capítulo 5. Técnica del incidente crítico.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1. Definición y ámbitos de aplicación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2. Procedimiento de aplicación de la técnica del incidente crítico. . . . . . . . . . . . . . 5 .2.1. Definición de objetivos generales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 .2.2. Planes y especificaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.3. Recogida de los datos.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.4. Análisis de los datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.5. Interpretación de los datos y comunicación de los resultados . . . . . . . . . 5.3. Ventajas y limitaciones de la técnica del incidente crítico. . . . . . . . . . . . . . . . . . 5.4. Ejemplos de investigaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5. Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

143 143 144 145 146 148 150 151 152 153 158


fNDICE

[11)

Capítulo 6. Observación................................................ 6.1. Definición y ámbitos de aplicación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2. Tipos de observación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3. Entrada en el campo. Observación abierta y encubierta. . . . . . . . . . . . . . . . . . . 6.4. El rol del observador. Niveles de participación.......................... 6.5. Registro de las observaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5.1. Observación estructurada.................................... 6.5.2. Observación no estructurada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.6. Ventajas y limitaciones de la observación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.7. Ejemplos de investigaciones........................................ 6.8. Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

159 159 161 163 164 167 167 171 175 177 181

Capítulo 7. Grupos de discusión.......................................... 7.1. Definición y ámbito de aplicación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2. Grupo de discusión como técnica cualitativa........................... 7.3. Fases de una investigación mediante grupo de discusión . . . . . . . . . . . . . . . . . . 7.4. Elementos de un grupo de discusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.4.1. El moderador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.4.2. Los participantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.4.3. Las preguntas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.4.4. El escenario.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.4.5. La sesión................................................. 7.5. Ventajas y limitaciones de los grupos de discusión....................... 7.6. Variantes de la técnica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.7. Ejemplos de investigaciones........................................ 7.8. Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

183 183 185 186 188 188 191 197 198 199 201 202 204 208

Capítulo 8. La técnica Delphi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

209 209 21 O 212 212 213

8.1. Definición y ámbitos de aplicación................................... 8.2. Características . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.3. Procedimiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.3.1. Secuencia de un estudio Delphi................................ 8.3.2. Grupo moderador y grupo de expertos.......................... 8.3.3. El cuestionario en un estudio Delphi. Recogida y análisis de la información . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4. Ventajas y limitaciones de la técnica Delphi. . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.5. Ejemplos de investigaciones.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.6. Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Capítulo 9. Análisis de los registros de transacciones . . . . . . . . . . . . . . . . . . . . . . . . . . 9.1. Definición y ámbitos de aplicación................................... 9 .2. Procedimiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.3. Ventajas y limitaciones del análisis de transacciones . . . . . . . . . . . . . . . . . . . . . 9.4. Ejemplos de investigaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.5. Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

214 219 220 225 227 227 229 236 238 241


[12]

MÉTODOS Y TÉCNICAS PARALA INVESTIGACIÓNDEL COMPORTAMIENTOINFORMACIONAL

Capítulo 10. Análisis de datos cuantitativo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.1. Introducción................................................... 10.2. Tipos de variables y escalas de medida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.3. Preparación de los datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.4. Análisis de los datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.4.1. Estadística descriptiva. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.4.1.1. Descripción univariable . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.4.1.2. Descripción bivariable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.4.1.3. Descripción multivariable. . . . . . . . . . . . . . . . . . . . . . . . . . . 10.4.2. Estadística inferencial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.4.2.1. Pruebas de contraste de hipótesis . . . . . . . . . . . . . . . . . . . . . 10.4.2.2. Cuestiones de interés para una correcta interpretación de los resultados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.5. Resumen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

243 243 244 245 247 24 7 248 254 256 257 261

Capítulo 11. Análisis de datos cualitativo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.1. Introducción................................................... 11.2. Análisis de contenido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2.1. Definición. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2.2. Proceso de análisis de contenido. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2.2.1. Obtención y/o selección de los datos. . . . . . . . . . . . . . . . . . . 11.2.2.2. Determinación de las unidades de análisis. Unidades de registro y contexto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2.2.3. Análisis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2.2.4. Criterios de confiabilidad en el análisis de contenido . . . . . . 11.3. Teoría fundamentada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.3.1. Introducción............................................. 11.3.2. La teoría fundamentada para el estudio del comportamiento informacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.3.3. Elementos básicos de la teoría fundamentada. . . . . . . . . . . . . . . . . . . . 11.3.3.1. Muestreo y saturación teórica........................ 11.3.3.2. Método de comparación constante. . . . . . . . . . . . . . . . . . . . 11.3.3.3. Codificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.3.3.4. Teoría sustantiva y teoría formal. . . . . . . . . . . . . . . . . . . . . . 11.4. Resumen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

269 269 271 271 274 274

Bibliografía. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

295

Índice de materias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

309

264 267

274 276 281 281 281 283 285 285 286 287 292 293


ÍNDICE DE TABLAS

Tabla 1. Posturas respecto a los paradigmas en la investigación en ciencias sociales (adaptado de Vallés, 1999; Guba y Lincoln, 1994) . . . . . . . . . . . . . . . . . . . . . . . . . y cualitativa (adaptado de Hernández-Sampieri y otros, 2010 y Corbetta, 2010) . . . . . . . . . . . . . . . . . . . . . . . Tabla3. Tipos de investigación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Tabla4. Criterios y estrategias para asegurar la confiabilidad en la investigación ....... cualitativa según Lincoln y Guba (1985).......................... Tabla 5. Contenidos de un informe técnico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Tabla6. Tipos de muestreo.............................................. Tabla 7. Ejemplo de un muestreo aleatorio estratificado. . . . . . . . . . . . . . . . . . . . . . . . Tabla 8. Subtipos de muestreo intencional según Patton (1990, 2002)............. Tabla9. Ejemplo de un muestreo por cuotas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Tabla 10. Ejemplos de preguntas cerradas de un cuestionario . . . . . . . . . . . . . . . . . . . Tabla 11. Ilustración del punto central en una escala adverbial y en otra tipo Likert. . Tabla 12. Ficha de campo de una encuesta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Tabla 13. Rol del investigador en la observación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Tabla 14. Categorías de registro por medio de un sistema de valoración . . . . . . . . . . . Tabla 15. Categorías de registro de datos en el estudio de Given y Leckie (2003). . . . . Tabla 16. Ventajas y desventajas en el uso de moderadores internos y externos a la organización (adaptado de Bader y Rossi, 2002) . . . . . . . . . . . . . . . . . . . . . . . . . . . Tabla 17. Análisis de las preguntas jerarquizadas de ocho participantes en un estudio Delphi ordenadas según la mediana..................................... Tabla18. Análisis de las preguntas formuladas a ocho participantes para la valoración de unos ítems del estudio Delphi ordenadas según la media. . . . . . . . . . . . . . . . . . . Tabla 19. Análisis de las preguntas formuladas para la comparación de unos ítems en un estudio Delphi jerarquizadas según las veces que ha sido preferido a otros . . Tabla 20. Resultados del estudio de Maderuelo-Fernández y otros (2009)... . . . . . . . Tabla 21. Ranking de temas de investigación en la primera ronda del estudio de Maceviciute y Wilson (2009). Cinco primeros y últimos ítems. . . . . . . . . . . . . . . . . Tabla 22. Formatos de archivos de registro (IBM, 2003). . . . . . . . . . . . . . . . . . . . . . . . Tabla 23. Datos en los archivos de registro (IBM, 2003)........................

29

Tabla2. Características de la metodología cuantitativa

32 34 45 49 58 61 67 72 86 91 107 165 170 171 189 216 217 218 222 224 230 231


[14]

MÉTODOS Y TÉCNICAS PARALA INVESTIGACIÓNDEL COMPORTAMIENTOINFORMACIONAL

Tabla 24. Archivo de registro del buscador Altavista (información facilitada por B. J. Jansen). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Tabla 25. Métricas web de la Web Analytics Association (Web Analytics Definitions, 2008)............................................................ Tabla 26. Acciones en el navegador registradas por Web Tracker (adaptado de Choo, Detlor y Turnbull, 2000) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Tabla 27. Principales técnicas de la estadística descriptiva . . . . . . . . . . . . . . . . . . . . . . Tabla 28. Correspondencia entre puntuaciones de una variable y puntuaciones z . . . . Tabla 29. Principales coeficientes de correlación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Tabla 30. Errores asociados a la prueba de contraste de hipótesis . . . . . . . . . . . . . . . . Tabla 31. Características del análisis cuantitativo frente al cualitativo (adaptado de Zhang y Wildemuth, 2005; White y Marsh, 2006) . . . . . . . . . . . . . . . . . . . . . . . Tabla 32. Agrupación de códigos en categorías en un análisis de contenido. . . . . . . . . Tabla 33. Categorías obtenidas por Sairanen y Savolainen (2010) del análisis de contenido de las entrevistas sobre evitación de información sobre salud . . . . . . . . . Tabla 34. Categorías conductuales del modelo de búsqueda de información de Ellis (1989)........................................................... Tabla 35. Proceso de codificación abierta en la teoría fundamentada (adaptado de Mutshewa, 2010) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Tabla 36. Proceso de codificación axial en la teoría fundamentada (adaptado de Mutshewa, 2010) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

231 232 234 248 253 254 260 272 277 278 279 289 291


ÍNDICE DE FIGURAS

Figura 1. Razonamiento inductivo y deductivo (adaptado de Gray, 2004) . . . . . . . . . . Figura 2. Proceso de investigación clásico (adaptado de Corbetta, 2010).. . . . . . . . . . Figura3. Proceso de investigación cualitativa (adaptado de Flick, 2004) . . . . . . . . . . . Figura4. Proceso de investigación cualitativa (adaptado de Rodríguez Gómez, Gil Flores y García Jiménez, 1996) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Figura5. Representación de una muestra representativa y una muestra sesgada.. . . . . Figura6. Ejemplo de matriz para la codificación de datos de una encuesta. . . . . . . . . . Figura7. Ejemplo de depuración univariable de datos . . . . . . . . . . . . . . . . . . . . . . . . . Figura8. Ejemplo de comprobación bivariable de datos. . . . . . . . . . . . . . . . . . . . . . . . Figura9. Fases de un estudio basado en la técnica del incidente crítico (Flanagan, 1954)............................................................ Figura10. Evolución del alcance de la observación (adaptado de Spradley, 1980) . . . . Figura11. Secuencia de un estudio Delphi (Adaptado de Couper, 1984) . . . . . . . . . . . Figura12. Representación gráfica en los que se representa una distribución asimétrica positiva (a), simétrica (b) y asimétrica negativa (c).. . . . . . . . . . . . . . . . . . . . . . . . . Figura13. Diagramas de dispersión en los que se representa una relación directa (a), una relación inversa (b) y una relación nula (c) . . . . . . . . . . . . . . . . . . . . . . . . . . . . Figura14. Zona de aceptación (lisa) y rechazo (rallada) de un estadístico de contraste con distribución muestra! normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Figura15. Proceso de análisis de contenido cualitativo (adaptado de Elo y Kyngas, 2008)............................................................ Figura16. Modelo de comportamiento informacional de Meho (2001)............ Figura 17. Niveles de codificación en la teoría fundamentada (adaptado de Harwood, 2001)............................................................

33 38 39 40 57 110 111 112 145 174 212 252 255 262 273 280 288


ÍNDICE DE CUADROS

Cuadro 1. Criterios y estrategias para asegurar la credibilidad en la investigación cualitativa (síntesis de Lincoln y Guba, 1985) . . . . . . . . . . . . . . . . . . . . . . . . . . . . Cuadro 2. Preguntas para valorar la transferibilidad de una investigación cualitativa (Miles y Hubermann, 1994)... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Cuadro 3. Ejemplo de muestreo aleatorio simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . Cuadro 4. Ejemplo de muestreo sistemático................................. Cuadro 5. Ejemplo de un muestreo aleatorio estratificado . . . . . . . . . . . . . . . . . . . . . Cuadro 6. Ejemplo de preguntas abiertas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Cuadro 7. Ejemplo de matriz de preguntas.................................. Cuadro 8. Leyes de organización perceptiva................................. Cuadro 9. Ventajas y desventajas de las encuestas cara a cara . . . . . . . . . . . . . . . . . . Cuadro 10. Ventajas y desventajas de las encuestas telefónicas. . . . . . . . . . . . . . . . . . Cuadro 11. Ventajas y desventajas de las encuestas por correo postal . . . . . . . . . . . . Cuadro 12. Ventajas y desventajas de las encuestas web. . . . . . . . . . . . . . . . . . . . . . . Cuadro 13. Ventajas y desventajas de las encuestas en grupo . . . . . . . . . . . . . . . . . . . Cuadro 14. Ejemplo de tercer contacto siguiendo el procedimiento del tailored design

.

46

. .

47 59 60 63 84 93 95 99 100 103 105 106

. .

. . . . .

method.......................................................... Cuadro 15. Ejemplo de codificación de pregunta cerrada....................... Cuadro 16. Preguntas para motivar una respuesta más amplia en la técnica del incidente crítico (Johnson, 2003) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Cuadro 17. Preguntas del cuestionario en el estudio de González Teruel (2000) (1) . . . Cuadro 18. Preguntas del cuestionario en el estudio de González Teruel (2000) (11). . . Cuadro 19. Clasificación de los problemas de información de los médicos del Hospital Clínico Universitario de Valencia (González Teruel, 2000).................... Cuadro 20. Clasificación de la información necesitada por los médicos del Hospital Clínico Universitario de Valencia (González Teruel, 2000).................... Cuadro 21. Tipos de observación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Cuadro 22. Nota de observación del estudio INISS (Wilson y Streatfield, 1980) . . . . . . Cuadro 23. Resultados del estudio INISS (Information Needs and Services in Social

Services Departments) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Cuadro 24. Resultado del análisis de contenido del estudio de Hersberger (2001)....

109 110 150 154 155 156 157 162 172 180 181


[181

MÉTODOS Y TÉCNICAS PARALA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

Cuadro 25. Información que debe contener la guía del moderador . . . . . . . . . . . . . . . Cuadro 26. Número de grupos necesarios para una investigación . . . . . . . . . . . . . . . . Cuadro 27. Pregunta jerarquizada en un cuestionario Delphi.................... Cuadro 28. Pregunta con escala Likert en un cuestionario Delphi . . . . . . . . . . . . . . . . Cuadro 29. Pregunta por comparación en un cuestionario Delphi . . . . . . . . . . . . . . . . Cuadro 30. Pregunta por estimación en un cuestionario Delphi . . . . . . . . . . . . . . . . . . Cuadro 31. Cuestionario del estudio Delphi desarrollado por Maderuelo-Fernández y otros (2009) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Cuadro 32. Preguntas acerca de la prioridad de la investigación sobre usuarios en el estudio de Maceviciute y Wilson (2009) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Cuadro 33. Objetivos y resultados más relevantes de la segunda fase del estudio Eva/uating the usage and impacto( e-iournals in the UK (CIBER, 2011) . . . . . . . . . . Cuadro 34. Descripción de una variable cualitativa . . . . . . . . . . . . . . . . . . . . . . . . . . . Cuadro 35. Cálculo de una media con y sin valores extremos . . . . . . . . . . . . . . . . . . . Cuadro 36. Cálculo de una mediana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Cuadro 37. Dispersión de los datos de una variable. . . . . . . . . . . . . . . . . . . . . . . . . . . Cuadro 38. Descripción de dos variables cualitativas. . . . . . . . . . . . . . . . . . . . . . . . . . Cuadro 39. Cálculo de un intervalo de confianza de medias. . . . . . . . . . . . . . . . . . . . . Cuadro 40. Clasificación y definición de las técnicas de análisis cualitativo de textos (síntesis de Ryan y Bernard, 2000; Bernard, 2006; Bernard y Ryan, 2010) . . . . . . . Cuadro 41. Ejemplo de codificación en el análisis de contenido. . . . . . . . . . . . . . . . . .

192 195 215 217 218 219 221 223 240 249 250 251 252 256 258 270 277


AGRADECIMIENTOS

Aunque este libro es cosa de dos, no hubiera sido posible sin la ayuda de muchas otras personas. En primer lugar nos gustaría agradecer a nuestros alumnos, los pasados, presentes y futuros, y a todos aquellos académicos y profesionales que en algún momento han llamado a nuestra puerta para solicitar apoyo para llevar a cabo sus estudios. Ellos han sido la llave que abrió la puerta de este proyecto. A María Francisca Abad por su continuo apoyo y generosidad. A Rebeca Lluesma por la lectura incansable de parte de los contenidos, no siempre los más amenos. Finalmente a Juan José Muñoz por su paciencia y comprensión. A Joan Guardia y María Luisa Honrubia por la generosidad de compartir su conocimiento y ser siempre un modelo a seguir. A los compañeros de la Facultad de Biblioteconomía y Documentación de las universidades de Valencia y Barcelona, por todas aquellas conversaciones que han hecho posible que los contenidos de este libro tenga un carácter aplicado y diverso. Especialmente, a Anna Villarroya por su continuo apoyo. Por último, y esencial, a Toni Micó, por estar siempre allí, por su apoyo y su comprensión.


PRÓLOGO

En el contexto de información y documentación, el ámbito de investigación dedicado al estudio del usuario se enmarca en el epígrafe general de comportamiento informacional (c1). Para el propósito de este libro, se parte de la definición de Fisher, Erdelez y McKechnie (2005), que lo entienden como el estudio de cualquier experiencia de un individuo o grupo de individuos relacionada con la necesidad, búsqueda, gestión, difusión y uso de la información en diferentes contextos. En definitiva, se trata de la indagación de lo que ocurre cuando las personas interaccionan con la información y tiene como fin último tomar las mejores decisiones para la planificación y evaluación de los sistemas de información, entendidos estos en su acepción más amplia. Estas decisiones pueden estar relacionadas tanto con la formulación de un plan estratégico para un centro de información como para la mejora de la interfaz de un sistema de información electrónica, pasando por la determinación de objetivos y contenidos que ha de recoger un programa de alfabetización informacional, entre otros. En cualquier caso, el conocimiento de los distintos aspectos que se engloban bajo el epígrafe general de CI constituye la principal herramienta de la que dispone el profesional de la información para satisfacer los requerimientos de sus usuarios. La literatura sobre CI es extensa, no en vano la mayoría de autores ubican el inicio de esta línea de investigación en la primera mitad del siglo xx. Desde entonces el interés por los aspectos teóricos, conceptuales y metodológicos del CI ha ido aumentando y esto se refleja en el crecimiento del volumen de publicación. Pero además de abundante, la literatura en este campo evidencia un grado de madurez que no presentan otras áreas en el contexto general de la información y documentación. Esta madurez se concreta en los desarrollos teóricos que se han producido en los últimos años (McKechnie, Pettigrew y Joyce, 2001) y que no hubieran sido posibles sin que, en paralelo, aumentara tanto el rigor con el que progresivamente se ha ido abordando la investigación sobre usuarios, como por el aumento de la diversidad de enfoques metodológicos que se han ido incorporando. Respecto a los aspectos metodológicos,


[22]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

es ilustrativo analizar los artículos de revisión centrados en este ámbito publicados en Annual Review of Information Science and Technology (ARIST), testigo y reflejo de la evolución que se ha experimentado. En el primero de ellos, el de Menzel (1966), se describe la falta de adecuación de las técnicas empleadas en el estudio de los usuarios a los objetivos de la investigación y la falta de asunción del know-how alcanzado por otras ciencias sociales. Un año después, Herner y Herner (1967) destacan los aspectos que llaman la atención respecto a la literatura que revisan, y entre ellos están las pocas técnicas que se emplean, la diversidad y la ambigüedad del lenguaje cuando se documenta el uso de dichas técnicas, la falta de innovación en general y la ausencia de diseños experimentales rigurosos. Sin embargo, ya a finales del siglo xx, Hewins (1990) empieza a vislumbrar un tímido cambio en el ámbito metodológico con la introducción de nuevas técnicas para el estudio del usuario como son la entrevista lineal temporal, inspirada por la teoría del sense-making, o la técnica del incidente crítico. ¿Qué cambió desde los primeros capítulos del ARIST hasta el trabajo de revisión Hewins? En primer lugar, una constante revisión crítica de los fundamentos de esta línea de investigación buscando la mayor aplicabilidad y utilidad de sus resultados a su principal objetivo, la mejora de los sistemas de información. En segundo lugar, la ampliación de los grupos diana a usuarios también de las ciencias sociales y, con ello, la introducción de ese know-how al que se refería años antes Menzel (1966), es decir, la metodología de las ciencias sociales aplicada al estudio del CI. Si avanzamos en el tiempo, los capítulos más recientes del ARIST sobre necesidades y usos de la información, denominados ya de comportamiento informacional (Case, 2006; Fisher y Julien, 2009), no incluyen críticas al rigor metodológico, sino que hacen un recorrido por la diversidad de enfoques que actualmente ofrece esta línea de investigación. A este respecto, son ilustrativos los resultados de las revisiones bibliográficas de Julien y Duggan (2000) y Julien, Pecoskie y Red (2011), en las que se evidencia un considerable aumento de las estrategias de triangulación metodológica en los trabajos empíricos, y la de McKechnie, Baker, Greenwood y Julien (2002), donde describen un aumento de la diversidad en los enfoques metodológicos presentes en los trabajos revisados, así como de las técnicas de recogida de información utilizadas. Es en este contexto en el que presentamos el libro Métodos y técnicas para la investigación del comportamiento informacional como aportación a un mayor desarrollo y consolidación, también aquí en España, de esta línea de investigación. Textos sobre metodología de investigación en ciencias sociales hay miles, aplicada a la investigación en biblioteconomía y documentación algunos. Sin embargo, textos que de forma específica se centren en la metodología del estudio del CI son escasos. En este sentido, el libro que se presenta nace con el objetivo de servir de referencia en tres ámbitos distintos. Primero en el docente, como respaldo al desarrollo de las competencias


PRÓLOGO

(23)

relacionadas con los fundamentos y metodologías de investigación en los estudios de grado de información y documentación y como apoyo al desarrollo de trabajos científicos en los estudios de posgrado. En segundo lugar, pretende servir también al investigador que aborda el estudio del usuario de los sistemas de información desde cualquier perspectiva, porque le permite disponer de una completa revisión y puesta al día de los aspectos metodológicos para plantear el diseño de tal investigación. Y, por último, para el profesional de la información que día a día afronta los retos de gestionar su unidad de información, no siempre en las mejores condiciones en cuanto a la disponibilidad de recursos, y a quien se le ofrecen los principales aspectos procedimentales para que pueda realmente incorporar el estudio del usuario a sus estrategias de gestión. Al fin y al cabo, la investigación es necesaria para el desarrollo tanto de una disciplina como de una profesión porque sin investigación «there is only unsystematic observation, intuition and superstition-no body of trustworthy, no data to support or challenge explanatory theories and promote their extension or their demise» (Biggs, 1991). El libro está estructurado en tres partes. En la primera se exponen los fundamentos de la investigación en ciencias sociales así como de los principales procedimientos de muestreo (capítulos 1 y 2). En la segunda, la más extensa, se describen con detalle las principales técnicas de recogida de información útiles para el estudio del CI (capítulos 3 al 9). Por último, la tercera está dedicada al análisis de datos tanto cuantitativos como cualitativos (capítulos 10 y 11 ). Conforme a la diversidad de lectores en los que se pensó al abordar este trabajo, los distintos capítulos que lo componen recogen los fundamentos de cada uno de los aspectos tratados, realizan una puesta al día de estos fundamentos y aportan en todo momento ejemplos aplicados al estudio del CI. Por otra parte, junto con los contenidos que se desarrollan, se ofrece una amplia y escogida bibliografía sobre metodología de investigación en ciencias sociales, así como sobre trabajos empíricos que abordan esta metodología para el estudio del usuario. El primer capítulo establece un marco de referencia para la investigación del comportamiento informacional en el contexto de las ciencias sociales. Se describen los paradigmas fundacionales de esta área del conocimiento y, derivado de ellos, se exponen los principales rasgos de la metodología cualitativa y cuantitativa. Además, se describe el proceso de investigación clásico cuantitativo, así como los rasgos generales del proceso de investigación cualitativo. También, desde el punto de vista de un enfoque cuantitativo y cualitativo se describen los principales criterios para valorar el rigor de la investigación. Por último, se exponen los aspectos básicos relacionados con la difusión de los resultados de la investigación y con la ética de la investigación. En el segundo capítulo de esta primera parte se exponen los fundamentos del procedimiento de muestreo. Por una parte, el probabilístico y, concretamente, el muestreo aleatorio simple, el sistemático, el estratificado y el de conglomerados. Por otra, el


[24]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

muestreo no probabilístico, de forma específica el muestreo accidental, el intencional, el teórico, por cuotas y por bola de nieve. El tercer capítulo da paso al núcleo principal del libro, donde se desarrollan las principales técnicas de recogida de información en los estudios del CI. En primer lugar se exponen los estudios basados en encuestas, el procedimiento que tradicionalmente ha sido más utilizado en este ámbito. De este tipo de estudios se describen sus principales fases, que van desde la elaboración del cuestionario hasta la depuración de la base de datos para dar el posterior análisis estadístico. A continuación, en el capítulo cuatro, se desarrollan los aspectos relacionados con las entrevistas cualitativas, los tipos, su estructura, el papel del entrevistador y el entrevistado, así como los procedimientos de registro y transcripción de la información obtenida. El capítulo cinco está dedicado a desarrollar la técnica del incidente crítico (TIC). Se trata de un procedimiento flexible que permite orientar la investigación hacia la obtención de datos sobre el proceso problema-información-acción. De ella se exponen los principales procedimientos de diseño, recogida y análisis de datos tal y como fueron concebidos por John C. Flanagan, pero adaptados al contexto actual y al caso del estudio del CI. El capítulo seis se dedica a la técnica de la observación. A pesar de que es posible reconocer dos tradiciones en el modo en que se enfoca, una sistemática y estructurada y otra más naturalística y no estructurada, se hace un recorrido general por sus fundamentos atendiendo más que a esta dualidad a las distintas posibilidades de llevar a cabo un estudio de CI. Los criterios como el conocimiento por parte del sujeto de que está siendo observado, el rol que asume el observador y los medios utilizados para el registro de las observaciones, entre otros, son los utilizados para describir los fundamentos de la observación abierta y encubierta, participante y no participante y estructurada y no estructurada. En el capítulo siete se desarrollan los aspectos básicos de los grupos de discusión, una entrevista cualitativa realizada a un grupo de informantes. De esta técnica se describen sus fases, el modo de enfocar un estudio a través de una serie de preguntas y el papel que desempeñan tanto el moderador como los participantes, así como incluso el contexto en el que se desarrolla esta entrevista de grupo. En el capítulo ocho se desarrolla la técnica Delphi, que, sin ser una técnica en la que está implicado el usuario de los sistemas de información, las decisiones que es posible tomar a la vista de sus resultados sí afectan directamente a este usuario. En este capítulo, al igual que en sus precedentes, se desarrolla el proceso de investigación a través de un estudio Delphi en el que están implicados un grupo moderador, un grupo de expertos y en los que se comunican a través de una serie de cuestionarios administrados en rondas sucesivas reflejando la opinión de sus participantes. En el capítulo nueve, el último de la parte dedicada a exponer las técnicas de investigación, se desarrolla el análisis de los registros de transacciones. Este es un pro-


PRÓLOGO

125)

cedimiento que no difiere en esencia de los estudios de transacciones entre usuario y sistema empleados tradicionalmente en este campo, aunque tiene la particularidad de que explota los registros de los sistemas automatizados, lo cual permite la obtención de un gran volumen de información en poco tiempo. De esta técnica se exponen la recogida de información, la preparación de los datos y su análisis. La última parte está dedicada al análisis de datos. El capítulo diez se dedica al análisis de datos cuantitativo y el once al cualitativo. Ambos tipos de análisis serían merecedores cada uno de un texto, dado lo extenso y variado de la materia. Es por ello por lo que se ha tratado de dar un marco de referencia general apoyado con una extensa bibliografía de referencia.


CAPÍTULO I

FUNDAMENTOS DE LA INVESTIGACIÓN EN CIENCIAS SOCIALES

Antes de exponer los distintos métodos y técnicas para la investigación de los usuarios de los sistemas de información, este primer capítulo tiene como objetivo establecer un marco de referencia para conocer las bases de la investigación en ciencias sociales, bases que sustentan el resto de los capítulos. Para ello, en un primer epígrafe se exponen los principales paradigmas fundacionales de la investigación en ciencias sociales, sus presupuestos ontológicos, epistemológicos y metodológicos. Posteriormente se describen los rasgos generales de la metodología cuantitativa y cualitativa, punto de partida de diseño de cualquier investigación. En el tercer epígrafe se describe el proceso de investigación clásico, planteado desde la óptica cuantitativa, así como el proceso de investigación cualitativo. Para cada uno de los enfoques se describen los principales criterios para evaluar el rigor de la investigación. Por último, se exponen los principales aspectos éticos que hay que considerar a la hora de emprender cualquier investigación científica.

1.1. PRINCIPALES PARADIGMAS

La mayor parte de este libro está dedicada a describir en profundidad y desde un punto de vista pragmático las principales técnicas de obtención de información en el contexto del estudio del comportamiento informacional. No obstante, el uso de una técnica u otra responde, además de a criterios utilitarios, a un marco metodológico previo, cuantitativo o cualitativo, entendido este como el enfoque a partir del cual un investigador responde a la pregunta previa que motiva tal investigación. Igualmente la elección de una u otra metodología responde al enfoque asumido por el investigador, basado además en presupuestos ontológicos y epistemológicos. En otras palabras, la investigación desarrollada en las ciencias sociales en general y en información y documentación en particular será posible encuadrarla en un epígrafe


(28)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

INFORMACIOr--AL

general llamado paradigma.De las diversas definiciones que se han dado del concepto de paradigma, asumimos la propuesta por Corbetta (2010), que considera que un paradigma es una perspectiva teórica, común y reconocida por los científicos de una disciplina concreta, basada en logros que preceden a la propia disciplina, que dirige la investigación mediante la identificación y elección de los hechos relevantes a estudiar, la formulación de hipótesis para explicar el fenómeno observado y la preparación de las técnicas de investigación empíricas necesarias. Por lo tanto, en la denominación de paradigmase agruparán una serie de posiciones o tradiciones teóricas que partirán de unos supuestos ontológicos (¿cuál es la forma y la naturaleza de la realidad o qué es aquello que podemos conocer de ella?), epistemológicos (¿cuál es la naturaleza de la relación entre el investigador y el objeto investigado?) y, por último, metodológicos (¿de qué manera el investigador puede descubrir aquello que cree que puede ser conocido?) (Guba y Lincoln, 1994). Respecto a los paradigmas que es posible reconocer en las ciencias sociales y sobre los que los teóricos de diversas disciplinas debaten, Valles (1999) sintetiza las distintas posturas según reconozcan dos, tres o cuatro paradigmas en las ciencias sociales (tabla 1). Para el propósito del presente texto tomamos como referencia la adaptación que algunos autores, entre ellos Corbetta (2010), hacen de la propuesta de Guba y Lincoln (1994 ), puesto que permiten entroncar directamente con los enfoques metodológicos cuantitativo y cualitativo y, en último término, con los métodos y técnicas para la recogida de información, cuestión central de este libro. Este autor considera, desde una perspectiva histórica, la existencia de dos paradigmas fundacionales que dieron lugar a los primeros procedimientos operativos y guiaron la investigación empírica en ciencias sociales. Por un lado, el positivismo y el pospositivismo; por otro, el interpretativismo/constructivismo. Se trata, como se ha dicho, de paradigmas fundacionales pues en los trabajos referentes de Guba y Lincoln ( 1994) distinguen hasta cuatro paradigmas en pugna (positivismo, pospositivismo, teoría crítica y constructivismo) y, más recientemente, incluyen un quinto, el participativo/posmodernista (Lincoln, Lynham y Guba, 2011), incluido anteriormente en el epígrafe de la teoría crítica (Guba y Lincoln, 1994). En primer lugar, el positivismo es la tradición clásica que predominó en las ciencias sociales hasta el siglo xx. Corbetta (2010) resume el paradigma positivista original como el estudio de la realidad social utilizando el marco conceptual, las técnicas de observación y medición, los instrumentos de análisis matemático y los procedimientos de inferencia de las ciencias naturales. Parte del supuesto ontológico del realismo ingenuo que asume que existe una realidad objetiva externa, regida por leyes naturales, alrededor de la cual debe girar la investigación y donde el investigador observa libre de sus propios valores. Desde el punto de vista epistemológi-


l. FUNDAMENTOSDE LA INVESTIGACIÓNEN CIENCIASSOCIALES

[29]

Tabla 1. Posturas respecto a los paradigmas en la investigación en ciencias sociales (adaptado de Vallés, 1999; Guba y Lincoln, 1994)

1. Prevaleciente, clásico, racionalista o positivista

Dos paradigmas

2. Emergente, alternativo, naturalista, constructivista, interpreta ti vista 1. Materialista-positivista

2. Constructivista

Tres paradigmas 3. Crítico o ecológico

1. Positivismo

2. Pospositivismo

3. Teoría crítica y posturas afines Cuatro paradigmas

4. Constructivismo

Existe una sola realidad objetiva sujeta a leyes universales de la ciencia y manipulable mediante procesos lógicos. Existen realidades múltiples con diferencias que no pueden resolverse por medio de procesos racionales o aumentando los tamaños muestrales. Enfatiza la primacía del método y busca una verdad última (leyes naturales) de la realidad. Está respaldado por la ciencia de laboratorio y por los métodos cuantitativos. No se buscan verdades últimas sino que trata de interpretar experiencias en su contexto y desde el punro de vista de los implicados. Está respaldado por la metodología cualitativa. El diseño está abierto a la invención, la obtención de datos al descubrimiento y el análisis a la interpretación. Destaca los efectos del sistema. Se sirve del conocimiento histórico y de la articulación de los paradigmas materialista e interpretativo, para desenmascarar la ideología y la experiencia del presente, logrando una conciencia emancipada y verdadera. Está regido por el compromiso político Existe una realidad aprehensible, regida por leyes y mecanismos naturales. El conocimiento sobre «cómo son las cosas» se resume en formulaciones generales fuera de tiempo y contexto, algunas de las cuales toman la forma de leyes de causa-efecto. La realidad existe, pero es imperfectamente aprehensible porque los mecanismos intelectuales humanos son imperfectos y la naturaleza de los fenómenos es fundamentalmente incontrolable. La realidad es asumida como aprehensible, pero con el tiempo se transforma por una serie de circunstancias sociales, políticas, culturales, económicas, étnicas y de género y luego se cristaliza en una serie de estructuras que ahora se toman (inapropiadamente) como «reales». Las realidades son aprehendidas en forma de múltiples construcciones mentales intangibles, basadas en lo social y en la experiencia, dependiendo de las personas individuales o de los grupos que elaboran estas construcciones. Las construcciones no son más o menos «verdaderas», sino que poseen más o menos información y/o son más o menos sofisticadas. Las construcciones son modificables, así como sus «realidades» asociadas.


(30]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

INFORMACIOKAL

co, el investigador y el objeto investigado son entidades independientes que no son influenciadas mutuamente y, si esto ocurre, se ponen en marcha mecanismos para reducir o eliminar tal influencia. Desde el punto de vista metodológico, predomina el modo de proceder inductivo, que plantea principios generales a partir de los casos particulares observados. Por otra parte, la realidad puede ser representada por variables que pueden ser manipuladas a través de la experimentación, dando como resultado generalizaciones sobre el fenómeno observado. La metodología utilizada para ello es la cuantitativa. La revisión y adaptación del positivismo original dio como resultado la aparición de una serie de corrientes que buscaban responder a las principales críticas de este. Desde un punto de vista ontológico, el pospositivismo asume que la realidad existe, pero es imperfectamente aprehensible porque los mecanismos intelectuales humanos son imperfectos y la naturaleza de los fenómenos es fundamentalmente incontrolable (Guba y Lincoln, 1994). Este punto de vista también se ha llamado realismo crítico. Realismo, porque acepta que existen relaciones causa-efecto fuera de la mente humana (en la realidad), y crítico por subrayar una sospecha continua y una propensión a la duda que debe adoptar el científico frente a todos los logros de la ciencia (Corbetta, 2010). Desde un punto de vista epistemológico, continúa considerándose el dualismo investigador-objeto investigado, pero se tiene conciencia de la influencia que ejerce uno sobre otro y la objetividad sigue siendo un criterio de referencia pero al que se puede llegar solo de forma aproximada. El objetivo de la investigación sigue siendo formular generalizaciones en forma de leyes, aunque de alcance limitado (Corbetta 2010). Desde un punto de vista metodológico, se acude al uso de técnicas cuantitativas sin descartar las cualitativas. Por último, el interpretativismo, desde una perspectiva ontológica, no concibe una única realidad sino múltiples realidades construidas por los sujetos que varían en la forma y en el contenido entre individuos, grupos y culturas (Hernández-Sampieri y otros, 201 O). Por lo tanto, el investigador y el objeto investigado están vinculados durante el proceso de investigación en el que se va descubriendo una realidad. Es decir, desde un punto de vista epistemológico, desaparece el dualismo anterior y se busca la interpretación de esa realidad observada en busca de significados y de comprensión de la construcción que los individuos hacen de tal realidad. Desde el punto de vista metodológico, se considera positiva la interacción entre investigador y objeto investigado. Por lo tanto, si el objetivo es comprender el significado atribuido por el sujeto, las técnicas de investigación solo pueden ser cualitativas y a través de un proceso de inducción en el que el investigador entre en el campo libre de teorías preconcebidas.


l. FUNDAMENTOSDE LA INVESTIGACIÓNEN CIENCIASSOCIALES

1311

1.2. METODOLOGÍA CUALITATIVA Y CUANTITATIVA

Como se ha visto en el anterior epígrafe, el enfoque metodológico que adquiere una investigación viene marcado también por presupuestos ontológicos y epistemológicos. Este enfoque metodológico determinará el modo en que el investigador se acercará a la realidad observada. Como afirman Hernández-Sampieri, Fernández-Collado y Baptista-Lucio (2010), en las ciencias sociales la metodología se ha polarizado en dos enfoques, el cuantitativo y el cualitativo, debido a las premisas teóricas que lo sustentan. La tabla 2 resume las principales características de uno y otro. Precisamente la primera característica distintiva de un enfoque cuantitativo y cualitativo se deriva del paradigma de referencia de cada uno de ellos y de la consideración que se tiene de la realidad objeto de estudio. Mientras que para la metodología cuantitativa, cuyo referente es el positivismo y pospositivismo, existe una realidad objetiva externa al investigador, para la metodología cualitativa, con referentes en el paradigma interpretativo, existen varias realidades subjetivas construidas en la investigación, las cuales varían en su forma y contenido entre individuos, grupos y culturas, como antes se ha apuntado (Hernández-Sampieri y otros, 2010). Por ello, no se estudia la realidad sino una realidad. Junto con la consideración de la realidad a observar, los enfoques cuantitativo y cualitativo parten de propósitos de la investigación distintos. Mientras que para el primero el propósito es describir, explicar y predecir los fenómenos buscando la generalización y la predicción, en el enfoque cualitativo interesa comprender e interpretar la realidad investigada. Esta característica marcará otros aspectos definitorios como el papel que juega la teoría, la lógica de la investigación, el rol asumido por el investigador y los procedimientos de recogida y análisis de datos que se emplean. Respecto al papel que juega la teoría, en un enfoque cuantitativo la investigación se orienta hacia la comprobación empírica de esta teoría, mientras que en el enfoque cualitativo se inicia la investigación sin presupuesto que pueda inhibir la comprensión de la realidad observada y la teoría se construye durante tal investigación. Como consecuencia de este modo de proceder, la lógica que generalmente guía la investigación según los presupuestos cuantitativos es deductiva y según los cualitativos inductiva. El razonamiento deductivo va de lo general a lo particular, es decir, la lógica cuantitativa parte de teorías o principios que derivan en hipótesis que serán confirmadas o bien refutadas a partir de la observación empírica de la realidad. El razonamiento inductivo va de lo particular a lo general, o sea, la lógica cualitativa, en principio, obtiene datos de la realidad y analiza si estos datos pueden convertirse en generalizaciones, relaciones y teorías. Sin embargo, como afirma Gray (2004), los procesos deductivos e inductivos no son mutuamente excluyentes. Para que las hipótesis puedan ser contrastadas previamente hace falta observar la realidad, es decir, recoger datos que permitan


[32)

MÉTODOS Y TÉCNICASPARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

Tabla2. Características de la metodología cuantitativa y cualitativa (adaptado de Hernández-Sampieri y otros, 2010, y Corbetta, 2010) CUANTITATIVA

Realidad a estudiar Propósito de la investigación Teoría

Objetiva y externa al investigador.

CUALITATIVA

Varias realidades según individuos, grupos y culturas. Describir, comprender e interpretar los fenómenos. La teoría surge de la observación, es un marco de referencia. Relacionada con el contexto. Inductiva, de lo particular a lo general. Abierto, flexible construido en el transcurso de la investigación. Interdependencia, sus observaciones no son ajenas a sus propios valores y experiencias. Búsqueda de representatividad sustantiva y la riqueza de información.

Describir, explicar y predecir los fenómenos. Generalización y predicción. La teoría precede a la observación. Independientemente del contexto. Leyes universales. Lógica Deductiva, de lo general a lo particular. Diseño Estructurado, predeterminado, precede de la investigación a la recolección de datos. Papel Independiente del objeto investigado, evita influir en él. del investigador Búsqueda de la representatividad esMuestreo tadística y la generalización de resultados. Recolección Instrumentos estandarizados y unifor- Instrumentos que mejor lleven al enrendimes (cuestionarios, escalas, tests, etc.). miento investigador-investigado (entrevistas de datos personales, observación, etc.). Análisis de datos Simultáneo a la recolección de datos. Posterior a la recolección de datos. Análisis estadístico objetivo para Genera descripciones y categorías de análicomprobar hipótesis. sis resultado de interpretaciones.

generar dichas hipótesis y que hayan dado lugar a la generación de presupuestos teóricos que, a su vez, serán el punto de partida de nuevas investigaciones que permitirán probar dichos presupuestos teóricos a través de la experimentación (figura 1). Otro aspecto en el que es posible encontrar diferencias entre un enfoque cuantitativo y cualitativo es el modo en que se concibe el proceso de investigación. En un enfoque cuantitativo el diseño de la investigación se determina antes de iniciar tal investigación; por el contrario, en un enfoque cualitativo este proceso está abierto y en muchas ocasiones la selección de la muestra viene determinada por la recogida y análisis de datos. En el epígrafe 1.4.2 de este capítulo se amplía información respecto a esta cuestión. Derivadas de los presupuestos ontológicos y epistemológicos de los distintos paradigmas, existen también diferencias en cuanto al papel que asume el investigador y el modo en que se relaciona con la realidad observada. En el primero, el investigador evita influir en aquello que observa y mantiene la distancia con el objeto investigado, mientras que en un enfoque cualitativo, el investigador parte de sus propios valores y experiencias e interacciona con el objeto investigado. Por último, existen diferencias respecto a la recogida y análisis de datos en la metodología cuantitativa y cualitativa. En el primer caso, puesto que se busca la ge-


133]

l. FUNDA~IENTOS DE LA INVESTIGACIÓN EN CIENCIAS SOCIALES

Figura l. Razo nam iento induct ivo y deductivo (ada ptad o de Gray, 2004)

Hipótesis / prueba de la teoría

Teoría relacionada

Teoría

RAZONAMIENTO INDUCTIVO

Acumulación de hechos y datos

RAZONAMIENTO DEDUCTIVO

Resultados

Diseño experimental

nera lizac ión d e resu ltados, los casos se selecc io nan a partir de un conjunto de casos estadística ment e rep resentat ivos de la pobl aci ón . Por otra parte , en la recogida de dato s se bu sca la estand a rizac ión tant o po r los instrum ent os utili zados co mo por el hecho d e qu e estos instrum entos sea n admini strados por ig ual a todo s los casos inve stiga do s. La informac ión obten ida de este modo se pro cesa por medio del trat amient o esta dístico, dando co mo result ado inform ac ión nu mér ica o bjetiva . En el caso de la metodol ogía cua litat iva no se busca la rep resentatividad estadíst ica sino la riqu eza de la in formac ió n recog ida, por lo qu e la selección d e los casos se realiza po r medio de muestreo no probab ilístico (ver cap ítulo 2). Además, la recog ida de dato s se rea liza co nform e a l ob jetivo d e comp render la rea lidad qu e se est udi a, por lo qu e el instrum ento se adapt a y mo ldea en el cur so de la investigació n. La información ob tenida de este mod o se ana liza buscando la comp rensión e interpret ación de las realidades invest iga das . A pesa r de que por razo nes exposi ti vas las meto do log ías cua ntitativa o cua litativa se presentan como ext remos co ntr ap uestos y a pesar de que en muchas ocas iones, en el pasado , los cientí ficos soc ia les han sido aba nderados en la defensa de uno y otro en foque, en la prác tica ta l con tr aposición no ex iste. La rea lidad de la investigac ión no s enseña q ue son enfoques com pleme nt ar ios cuyo uso estará dete rmin ado por los objet ivos y la fase en la que se enc uentr e tal invest igac ión. En este sentido , es po sible p la nt ea r estrategias de triangulación metod ológica (mú ltiples método s para el estudio de una misma real idad) y/o de daros (uso de va rias fuent es de dato s) que permiten incorporar a u na investigació n los pr oce dimi ent os y la infor mación obten ida asumiendo ambos enfoques (Patto n, 1987 ).


[34)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTA.MIENTO INFORMACIONAL

1.3. TIPOS DE INVESTIGACIÓN

Además de poder asumir uno u otro paradigma o partir de uno u otro enfoque metodológico, la puesta en marcha de una investigación requiere determinar el tipo de diseño del que partirá, pues de ello dependerá la estrategia que se ponga en marcha en cuanto a aspectos tan importantes como el tipo de muestreo o el procedimiento de recogida de datos. En este sentido, es posible distinguir diversos tipos de investigación según el propósito que persigue el investigador, el objetivo o alcance de la investigación, su dimensión temporal o bien el control de la variable experimental (tabla 3). Tabla 3. Tipos de investigación Propósito

Alcance

Dimensión temporal Control de las variables

Básica Aplicada Exploratoria Descriptiva Correlacional Explicativa Transversal: tendencia, cohortes y panel Longitudinal Experimental Cuasiexperimental No experimental

Si se tiene en cuenta el propósito del investigador, las investigaciones se clasifican en básicas y aplicadas. La investigación básica es aquella que se apoya en un contexto teórico con el propósito de desarrollar teoría mediante la generalización de los resultados obtenidos o principios observados. En cambio, la investigación aplicada busca confrontar la teoría con la realidad. Según el objetivo principal o el alcance de la investigación, Danhke (1989) propone que las investigaciones pueden clasificarse en exploratorias, descriptivas, correlacionales y explicativas. Los estudios exploratorios se utilizan cuando el tema que se pretende abordar es poco conocido y ha sido poco estudiado. Este tipo de estudios son la antesala de los estudios con alcances superiores (descriptivos, correlacionales y explicativos) y su propósito es identificar variables relevantes y establecer prioridades en las que deberían basarse las futuras investigaciones. Los estudios descriptivos, tal como su nombre indica, pretenden describir la realidad ofreciendo una interpretación correcta del fenómeno que se pretende estudiar. Este tipo de estudios busca especificar cuáles son las variables, las dimensiones o componentes del fenómeno para medirlas y ofrecer una visión más estructurada del objeto de estudio. Esta clase de estudios da un paso más allá respecto a los estudios


l. FUNDAMENTOSDE LA INVESTIGACIÓNEN CIENCIASSOCIALES

135]

exploratorios, dado que el investigador debe ser capaz de definir qué medirá (sobre qué variables se centrará) y sobre qué o quiénes se recogerán datos (personas, grupos, documentos, instituciones, etcétera). La investigación correlacional centra su interés en estudiar la existencia de relación entre dos o más variables y cuantificar esta relación. Para afirmar que dos variables están relacionadas, se debe constatar que cuando los valores de una variable varían, también lo hacen los valores de la otra variable. Se debe señalar que para que esta relación sea válida, las mediciones se deben realizar sobre los mismos individuos. Por ejemplo, si se pretende valorar la relación entre la consulta de bibliografía recomendada y el rendimiento académico, es necesario que los alumnos en los que se midan ambas variables sean los mismos. Si se valoraran dos grupos de alumnos de diferentes aulas, no sería válido valorar a unos la consulta de bibliografía recomendada y al otro grupo el rendimiento académico. Por último, los estudios explicativos tienen como objetivo buscar relaciones de causa-efecto y explicar por qué ocurren determinados fenómenos. Para poder llegar a este punto, tal como señalan Cook y Campbell (1979), es necesario que se den tres condiciones. En primer lugar, la covariación entre causa y efecto: un cambio en una variable A debe implicar cambios en una variable B si ambas son causa y efecto. En segundo lugar, debe cumplirse que la causa ocurra antes que el efecto, es decir que la variable A preceda a la variable B. Por último y no menos importante, la investigación debe garantizar la eliminación de explicaciones alternativas, lo que supone el control de variables extrañas que pueden afectar a la relación de causa y efecto. De esta manera se garantiza que la variable A sea la única explicación posible de los cambios observables en la variable B. Estas cuatro tipologías son válidas para cualquier estudio y todas ellas pueden contribuir al avance de la disciplina en igual manera. Elegir uno u otro tipo de investigación va a depender del conocimiento que se posea hasta el momento sobre el fenómeno que se pretende abordar y el objetivo que persiga el investigador. Tal como indican Hernández-Sampieri y otros (2010), la investigación debe hacerse a la medida del problema que se pretende estudiar y una vez se ha revisado la literatura, solo a partir de aquí se podrá tomar la decisión de cuál debe ser el alcance que debe tomar una investigación. Debe también señalarse que, aunque un estudio puede seguir en esencia alguna de estas cuatro tipologías comentadas, normalmente una investigación contiene componentes de varias tipologías al mismo tiempo. Por ejemplo, un estudio en esencia correlacional podrá contener aspectos descriptivos y a la vez exploratorios. Si se toma el momento temporal en que se lleva a cabo la investigación, se distingue entre estudios transversales, realizados en un momento concreto en el tiempo, y estudios longitudinales, en los que los sujetos son estudiados durante un periodo de tiempo más o menos largo y en los que se lleva a cabo una recogida de datos en al


[36]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

menos dos momentos temporales diferentes. Dentro de los estudios longitudinales se distinguen fundamentalmente tres tipos: los estudios de tendencia, los de cohortes y los de panel. Los estudios de tendencia son aquellos que centran su atención en una población concreta y analizan los cambios que se producen dentro de esta población a lo largo del tiempo. La población es siempre la misma, pero los sujetos que se estudian pueden variar. Este sería el caso de un estudio que pretendiera valorar el comportamiento informacional de los académicos a lo largo de la última década. Para ello se deberían haber realizado diferentes medidas a lo largo de la década para ver cambios en su forma de interaccionar con la información científica. Los estudios de cohortes son aquellos que valoran cambios a través del tiempo en grupos específicos de sujetos que comparten alguna característica común, generalmente la edad, la época o bien un hecho concreto. Por último, los estudios en panel son aquellos en los que un mismo grupo de sujetos es valorado en los distintos momentos temporales. La diferencia entre las dos primeras clases (estudios de tendencia y cohortes) y los estudios en panel radica en que, en los primeros, los individuos sobre los que se miden las variables de interés pueden ser diferentes en cada momento temporal; en cambio, en los estudios en panel, los sujetos que forman parte de la investigación son siempre los mismos. La ventaja que presenta valorar a los mismos sujetos es que se puede conocer qué individuos introducen los cambios. En los estudios de tendencia y cohorte los cambios se valoran en conjunto y no es posible conocer quiénes provocan los cambios (dado que los sujetos son diferentes cada vez). No obstante, la principal limitación de los estudios en panel radica justamente es conseguir mantener a todos los individuos a lo largo de todo el estudio. Otra clasificación es a partir del control de la variable experimental por parte del investigador. De acuerdo con este criterio se distinguen tres tipos de investigaciones: experimentales, cuasiexperimentales y no experimentales. Fundamentalmente la distinción entre una investigación experimental y otra que no lo es se basa en dos aspectos: la posibilidad de manipular la variable experimental o también llamada variable independiente y la asignación aleatoria de los sujetos a las diferentes condiciones o niveles de la variable independiente. Aunque los tres tipos de investigación pueden aportar información relevante sobre el fenómeno estudiado, los estudios experimentales son los únicos que aseguran poder establecer una relación de causalidad entre la variable independiente y dependiente. Asignar de manera aleatoria a los sujetos a los diferentes niveles de la variable independiente va a permitir que las características no controladas por el investigador queden repartidas de manera equilibrada en los distintos grupos formados a partir de la variable independiente. La asignación aleatoria asegura una homogeneización de los sujetos asignados a los diferentes niveles de la variable independiente y que estos tan solo se diferencien respecto a la variable independiente. De esta manera, los cambios que se observen en la variable dependiente


1. FUNDAMENTOSDE LA INVESTIGACIÓNEN CIENCIASSOCIALES

(37]

podrán ser atribuidos a la variable independiente. La asignación aleatoria proporciona un alto grado de control de posibles variables extrañas que pueden afectar a la relación entre la variable dependiente e independiente. En este sentido, se afirma que los estudios experimentales tienen una alta validez interna, o lo que es lo mismo, permiten asegurar que los cambios producidos en la variable dependiente son debidos a los cambios en la variable independiente. Un ejemplo de estudio experimental seria aquel que pretenda estudiar la relación entre la intensidad de brillo de la pantalla del ordenador y la fatiga percibida por el sujeto. Los sujetos pueden ser asignados a diferentes niveles de la variable independiente (diferentes tipos de intensidad de brillo) y posteriormente valorar cuál es su grado de fatiga. Si el conjunto de sujetos presenta características similares en todos los niveles de la variable independiente y el resto de condiciones experimentales se mantiene constante de un grupo a otro, un cambio en la variable dependiente (la fatiga) podrá ser atribuido a la variable independiente (la intensidad de brillo). Cuando no es posible asignar a los sujetos de manera aleatoria a las diferentes condiciones experimentales, bien porque los grupos ya están previamente formados (por ejemplo, las clases dentro de una escuela), por las dificultades logísticas que supone la aleatorización o bien porque no es posible controlar el orden de presentación de los niveles de la variable independiente, se habla de cuasiexperimento (Cook y Campbell, 1979). El hecho de que no se pueda asegurar que los grupos sean equivalentes al inicio de la investigación pone en tela de juicio los cambios que posteriormente se registrarán en la variable dependiente, dado que estos pueden ser debidos al efecto de la variable independiente o bien ser producto de esta falta de equivalencia inicial. En términos de validez, implicaría cuestionar la validez interna de la investigación, dado que no se puede asegurar que la variable independiente sea la causa de la variable dependiente. Por último, en las investigaciones no experimentales no es posible manipular la variable independiente ni asignar de manera aleatoria a los sujetos a las condiciones experimentales. De hecho, este libro trata justamente de este tipo de estudios: estudios que no pretenden un estudio de la causalidad de los fenómenos, sino analizar cómo los fenómenos se dan en su contexto natural, observar los individuos en situaciones ya existentes en las que no es posible controlar las variables independientes porque estas ya han ocurrido. Se trata de estudios en los que sí es posible estudiar la covariación o relación entre variables y describir los fenómenos de interés. Este tipo de estudios tienen una baja validez interna, aunque pueden conseguir una alta validez externa en los casos en que la muestra estudiada permita generalizar a la población general de referencia. Los estudios de encuesta, entrevistas, grupos de discusión o la observación, entre otros, son el tipo de estudios que se engloban dentro de la etiqueta de estudios no experimentales.


[38)

MtTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

INfORMACIONAL

1.4. EL PROCESO DE INVESTIGACIÓN

Toda investigación sigue una serie de fases que van desde el planteamiento del problema hasta la interpretación de los resultados. Generalmente en una investigación se formula un problema, se diseña la investigación, se obtienen los datos, se analizan e interpretan y, finalmente, se difunden los resultados. Estas fases son comunes al resto de la investigación social; no obstante, existen diferencias en cuanto al detalle con el que se describen y, más importante, en cuanto al enfoque metodológico que guía el proceso. Es por eso por lo que se distingue el proceso clásico y propio de la investigación cuantitativa y el proceso de investigación cualitativa.

1.4.1. Proceso de investigación clásico De las distintas propuestas sobre las fases del proceso de investigación clásico o cuantitativo, se toma como referencia el esquema de Corbetta (2010) (figura 2). Este autor concibe este proceso como un recorrido cíclico que parte de la teoría, pasa por las fases de recopilación y análisis de datos y vuelve a la teoría. Por lo tanto, según este planteamiento, el proceso de investigación se inicia con la determinación del marco teórico en el que se enmarcará la investigación. Para Hernández-Sampieri y otros (2010) la determinación de un marco teórico implica exponer y analizar las teorías, las conceptualizaciones, las investigaciones previas y los antecedentes que se consideren válidos para el correcto encuadre del estudio.

Figura2. Proceso de investigación clásico (adaptado de Corbetta, 2010)

Hipótesis

Operacionalización

Muestreo

Recogida y análisis de información

Interpretación

Validación

La segunda fase del proceso de investigación es la formulación de la hipótesis entendida como una proposición que implica una relación entre dos o más conceptos, situada en un nivel inferior de abstracción que la teoría y que permite la traducción de esta en términos que se puedan someter a prueba empírica. El siguiente paso será la operacionalización. Esto incluye tanto la transformación de la hipótesis en afirmaciones observables empíricamente o, dicho de otro modo, en variables medibles, como la elección de los procedimientos para medir esas variables.


(39)

l. HJNDAMENTOS DE LA INVESTIGACIÓNEN CIENCIASSOCIALES

La tercera fase consistirá en la selección de los informantes o muestreo y la cuarta en la recogida y análisis de la información obtenida. Finalmente, a partir del análisis de los datos obtenidos el investigador interpretará los resultados y volverá al punto de partida, comparando sus resultados con la teoría e hipótesis de partida, refutándola, confirmándola o reformulándola.

1.4.2. Proceso de investigación cualitativo

Si sobre el proceso de investigación clásico existe acuerdo y hasta cierto punto sus fases son contempladas y reconocidas por la generalidad de los investigadores, respecto al proceso de investigación cualitativa no existe tal acuerdo. Se trata de un proceso flexible que cada corriente o enfoque dentro del ámbito cualitativo plantea con matices particulares. En general, se asume que el plan inicial de investigación no puede establecerse a priori y las distintas fases del proceso pueden cambiar tras la entrada en el campo y el inicio de la recogida de datos. Por ejemplo, Flick (2004 ), desde la óptica de la teoría fundamentada, propone un proceso de investigación circular frente al lineal tradicional (figura 3 ). Según este modelo de proceso circular, la investigación no se inicia con una presuposición teórica, sino que esa teoría se irá conformando durante el mismo proceso. La pregunta de investigación iniciará el trabajo donde la recogida y análisis de datos se harán de forma paralela. Todo ello dará como resultado una serie de categorías, temas o teorías fundamentadas en los datos. Figura3. Proceso de investigación cualitativa (adaptado de Flick, 2004) Comparación

Preguntade investigación

Categorías, temas

Una propuesta más general es la realizada por Rodríguez Gómez, Gil Flores y García Jiménez (1996). Estos autores conciben el proceso de investigación cualitativo de forma no lineal con una serie de fases superpuestas en las que se van tomando de-


1401

~I ÉT O DO S Y T ÉCN ICAS PARA LA INVESTI GAC IÓN DEL CO~ll' O RTA ~II ENTO INFOR M ACIONAL

Figura 4. Proceso de investigación cualitativa (adaptado de Rodríguez Gómez, Gil Flore s y García J iménez, ]996)

PREPAR ATO RIA

TRABAJ O DE CA MPO

ANALÍTICA y verificación de conclusiones

Informe de resultados

IN FORM ATIVA

cisio nes con el obje tivo de respo nd er a la pregunta de invest igació n inicial. Estas fases so n: preparatoria , tr aba jo de campo, analít ica e inform ativa (figu ra 4 ). La fase preparatoria está formada por una etapa reflex iva y de diseño en la que el in vestiga dor, primero, esta blece un marco teórico-conceptual principalm ent e a partir de su prop io background y de la revi sión de otras inv est igac ion es y, segu ndo, p lan ifica las actividades de las etapas po steriore s. Pero esta planificac ión no es una propuesta forma l y est ructurada como en el proc eso d e inv est igac ió n clá sico, sino q ue es una p rimera apro x imación flex ible que podrá adaptarse en el cu rso de l pro ceso. La segund a fase es el trabajo de campo, qu e inclui rá la entr ada en el cam po , la recog ida productiva de d atos y la sa lida de l campo . En tercer lugar , la fase ana líti ca, que no será posterior al trabajo de campo, sino q ue las ra reas de aná lisis se inici ará n desde el mis mo momento de la recog ida de dat os . Fin al mente , el proceso acabará co n una fase inform ativa en la que se pr esentará n y difundirán los resultados.


l. FUNDAMENTOSDE LA INVESTIGACIÓNEN CIENCIASSOCIALES

1411

1.5. CRITERIOS DE CALIDAD DE LA INVESTIGACIÓN

En los epígrafes anteriores se ha hecho una distinción entre metodología cuantitativa y cualitativa y cómo la asunción de una u otra influye en el modo en que se desarrolla el proceso de investigación. En el marco de ese proceso, además, podemos distinguir distintos criterios y estrategias para juzgar la calidad de la investigación. Por un lado, en la investigación cuantitativa los criterios para realizar este juicio son los clásicos de validez y fiabilidad. Por el contrario, en la investigación cualitativa existen otros más acordes con los presupuestos de este enfoque basados en la confiabilidad o el grado en que los resultados de una investigación reflejan los significados según lo descrito por los informantes. Esta confiabilidad se concreta en cuatro criterios: credibilidad, transferibilidad, dependibilidad y confirmabilidad. A continuación se describen los criterios y estrategias para valorar la calidad de la investigación según un enfoque cuantitativo y cualitativo.

1.5.1. Investigación cuantitativa

El proceso de recogida de datos implica reunir información sobre diferentes características y atributos en los individuos de la población. Si, por ejemplo, se pretende que una página web sea accesible para dispositivos móviles, interesará saber determinadas características de estos dispositivos, así como también el perfil de los usuarios que los usan. Resulta evidente que para llevar a cabo este proceso de recogida de datos se requiere la medición de una serie de variables de interés. Según la definición clásica de medición propuesta por Stevens (1946), medir significa asignar números, símbolos o valores a las propiedades de los objetos o eventos de acuerdo con unas determinadas reglas. Sin embargo, en el caso de las ciencias sociales la medición no es un proceso que se pueda considerar exacto. Lo que suele ocurrir es que el investigador se propone medir conceptos teóricos que no son directamente observables. Para poder medir estos conceptos se deben operacionalizar, es decir, hacerlos medibles a partir de indicadores observables. El investigador crea entonces una correspondencia entre el concepto que pretende medir y el indicador empírico y observable que le va a ayudar a medir el concepto teórico. Para hacer efectiva esta correspondencia entre concepto e indicador se precisa hallar o bien diseñar instrumentos que permitan recoger datos sobre estos indicadores observables. En ciencias sociales, a diferencia de las ciencias físicas, es habitual no disponer de instrumentos que permitan medir directamente aquello que se pretende estudiar, por lo que es habitual diseñar ad hoc el instrumento para desarrollar la investigación.


[421

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

INFORMACIONAL

El instrumento que finalmente se elabore va a contener los indicadores, es decir, las variables observables que son la traducción de los conceptos teóricos que el investigador pretende medir. Estas variables pueden abarcar desde conductas directamente observables hasta las respuestas a un cuestionario o las verbalizaciones recogidas en un grupo de discusión. Se considera que el mejor instrumento de medida es aquel capaz de registrar las variables observables que representan los conceptos de interés de una manera fiable y válida. Por -fiabilidad se entiende que el instrumento proporcione mediciones consistentes, es decir, que la aplicación repetida del instrumento a un mismo sujeto produzca resultados similares. Si, por ejemplo, un sujeto se pesa en una báscula y al cabo de treinta segundos se vuelve a pesar, se espera que, si la báscula es fiable, ambos resultados sean idénticos. La validez de un instrumento se refiere al grado en que este mide lo que realmente pretende medir. Por ejemplo, si una báscula quiere ser un instrumento válido, debe medir el peso y no la altura de un individuo. En nuestro contexto sería el caso de pretender estudiar las necesidades informativas de los estudiantes universitarios a la hora de plantearse la elaboración de un trabajo académico y construir un cuestionario para conocer esas necesidades. La validez del instrumento de medida sería cuestionable si en vez de las necesidades se preguntase sobre el uso que hacen los estudiantes del material didáctico para poder elaborar este trabajo. Si un instrumento no es capaz de lograr la correspondencia entre aquello que se pretende medir y lo que finalmente se registra, será un instrumento deficiente y carecerá de sentido aplicarlo para valorar el fenómeno de interés. Los investigadores de las ciencias sociales son conscientes de que crear instrumentos de medida que cumplan las condiciones de fiabilidad y validez no es una tarea fácil. De hecho, crear el instrumento «perfecto» que permita valorar conceptos como la satisfacción, la necesidad o la motivación de un individuo o bien la calidad de un servicio es una meta que está aún muy lejos de ser conquistada. Dado que el instrumento perfecto no existe, es esencial que antes de la recogida de datos se asegure que el instrumento que se utilice para ello presente una validez y fiabilidad adecuadas. Para medir la fiabilidad de un instrumento existen fundamentalmente cuatro métodos distintos: test-retest, formas paralelas, dos mitades y consistencia interna. Posiblemente, el método de test-retest sea el más sencillo de aplicar, consiste en administrar el mismo instrumento a los mismos sujetos en dos periodos distintos. Si existe diferencia en las respuestas de ambos momentos temporales, implicará una baja fiabilidad. En cambio, si las respuestas coinciden, el instrumento presenta alta consistencia en la medida y una buena fiabilidad. No obstante, se debe tener en cuenta que el tiempo transcurrido entre una y otra administración es un factor importante en el resultado. Si el periodo entre ambas administraciones es largo y el rasgo que se mide es variable, se pueden producir cambios no debidos al instrumento, sino a un cambio


l. FUNDAMENTOSDE LA INVESTIGACIÓNEN CIENCIASSOCIALES

1431

en el rasgo que se está midiendo. En este caso, el individuo puede haber cambiado de opinión respecto al aspecto que se esté valorando. Al contrario, si el periodo entre las dos administraciones es corto, los sujetos pueden recordar las respuestas de la primera administración y obtener una medida más consistente de lo que en realidad es. El método de formas paralelas difiere del anterior en que el instrumento de medida es diferente en la segunda administración. Se intenta que ambos instrumentos presenten la máxima equivalencia en cuanto a contenido, número de ítems, duración o procedimiento de administración. De esta manera, se intenta reducir el efecto del tiempo en los resultados. Por una parte, se evita el efecto del recuerdo y, por otra, el posible cambio de opinión de los participantes. La mayor complejidad de este método se encuentra en diseñar instrumentos alternativos y equivalentes para medir el mismo concepto teórico. El método de las dos mitades, a diferencia de los métodos anteriores, solo necesita una única administración del instrumento al mismo grupo de sujetos. A partir de esta única administración, el instrumento se divide en dos partes equivalentes. Si el instrumento presenta una buena fiabilidad, la medida obtenida en la primera parte del instrumento debe correlacionar con el resultado de la segunda mitad. Este tipo de fiabilidad es una manera de verificar la consistencia interna del instrumento respecto al concepto teórico que se está valorando. La valoración de la fiabilidad por el método de la consistencia interna se basa en la idea expuesta en el método anterior. Si se puede dividir el instrumento en dos partes iguales, puede dividirse en tres, cuatro o tantas partes como ítems tenga el instrumento. De forma que cada parte estaría formada por un único ítem. Si el instrumento presenta una buena consistencia, las correlaciones deberán ser altas entre todos los ítems que lo componen y la media de todas estas correlaciones obtenidas será una aproximación a su fiabilidad. Por lo que respecta a la validez, esta hace referencia a si el instrumento consigue medir lo que pretende. De esta manera, se espera que exista una relación estrecha entre el concepto teórico y el indicador observable. La validez de un instrumento, aunque se considera un concepto unitario, se formula a partir de la evidencia acumulada de tres tipos distintos de validez: de contenido, de criterio y de constructo. Se considera que un instrumento es válido cuando la evidencia en estos tres tipos de validez es alta. La validez de contenido se refiere al grado en que el instrumento abarca todas las dimensiones y componentes del concepto que se pretende medir. Por ejemplo, un cuestionario diseñado para ser aplicado en una entrevista estructurada carecerá de validez de contenido si no incluye todas las preguntas necesarias para abordar las diferentes dimensiones del fenómeno que quiere valorar. Para que un instrumento se considere válido, es necesario que incluya las principales dimensiones del concepto


(44)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFOR.MACIONAL

que pretende medir. Es por ello por lo que se deberá asegurar que la entrevista incluya todas las preguntas necesarias para abordar la dimensión que trata de valorar. El procedimiento más utilizado para determinar este tipo de validez es el de juicio de expertos. Siguiendo con el ejemplo anterior, se solicitaría a un grupo de expertos que valorase las preguntas de la entrevista y constatase que son relevantes y suficientes para medir el concepto. La validez de criterio representa el grado en que el instrumento de medición se relaciona con cualquier otro criterio externo que pretende medir lo mismo. La validez de criterio será mayor cuanto más se relacione el instrumento generado con el criterio externo. Se demostraría la validez de criterio si las respuestas de un cuestionario diseñado para valorar el uso de materiales docentes entre los estudiantes fueran coincidentes con observaciones directas que se realizasen sobre el uso de estos materiales. Por último, la validez de constructo hace referencia al grado en que el instrumento es capaz de medir el concepto que se pretende abordar en la investigación. Para valorar este tipo de validez es necesario que exista una conceptualización de aquello que se quiere valorar. La verificación de este tipo de validez no puede resumirse en una única medida, sino que sigue un proceso acumulativo de evidencias procedente de diversas fuentes. De manera que se aporta evidencia sobre la validez de constructo a partir de medir el mismo concepto teórico de diversas formas posibles. Un ejemplo de esta acumulación de evidencia necesaria es la diferenciación que dentro de la validez de constructo se hace entre validez convergente y discriminante. Si se ha conseguido medir adecuadamente el concepto teórico, esta medida debería estar altamente relacionada con otras medidas que midan el mismo concepto (validez convergente) y, al contrario, muy poco relacionada con medidas que valoren conceptos distintos (validez discriminante). De esta forma, se asegura la validez de constructo midiendo el mismo concepto teórico utilizando distintos procedimientos. La recogida de datos debe basarse en instrumentos que aseguren en todo momento la fiabilidad y la validez de la medida obtenida. No obstante, antes de perseguir la fiabilidad parece lógico que los instrumentos sean válidos y que logren medir el concepto teórico a partir de los indicadores observables. Una vez conseguida esta validez, el siguiente paso es conseguir demostrar su consistencia.

1.5.2. Investigación cualitativa

Existen tres posturas en cuanto a vestigación cualitativa: la postura para la investigación cuantitativa, la investigación cualitativa y, por

los criterios de evaluación de la calidad en la inque intenta aplicar los mismos criterios que rigen la que redefine estos criterios para adaptarlos a último, la postura que rechaza cualquier tipo de


t. FUNDAMENTOSDE LA INVESTIGACIÓNEN CIENCIASSOCIALES

[45)

criterio debido a la naturaleza interpretativa de la investigación cualitativa (Vallés, 1999). En otras palabras, el acuerdo que existe sobre los criterios para evaluar una investigación cuantitativa no se da en el ámbito de la investigación cualitativa. Una de las propuestas que ha tenido mayor repercusión en la literatura posterior es la de Lincoln y Guba (1985). Estos autores hablan de confiabilidad (trustworthiness) para describir el rigor de la investigación en términos cualitativos, más allá de los parámetros que se aplican normalmente en la investigación cuantitativa. La confiabilidad es el grado en que los resultados de una investigación reflejan los significados según lo descrito por los informantes y se concreta en cuatro criterios: credibilidad, transferibilidad, dependibilidad y confirmabilidad (tabla 4). Tabla4. Criterios y estrategias para asegurar la confiabilidad en la investigación cualitativa según Lincoln y Guba (1985) CRITERIO INVESTIGACIÓN CUALITATIVA

TÉCNICAS

Credibilidad

Participación prolongada Observación persistente Triangulación Revisión por parte de otros investigadores Análisis de casos negativos Adecuación referencial Validación por parte de los informantes

Transferibilidad

Descripción densa

Dependibilidad

Auditoría de dependibilidad (audit trail)

Confirmabilidad

Auditoría de confirmabilidad (audit trail)

En primer lugar, la credibilidad se refiere a la precisión y riqueza con la que el investigador ha descrito el fenómeno estudiado. La credibilidad presupone que no existe una realidad objetiva, sino que la realidad se construye y solo existe en las mentes de los informantes y su contexto particular (Erlandson, Harris, Skipper y Allen, 1993). Lincoln y Guba (1985) proponen diversas estrategias para asegurar la credibilidad: a) estrategias que hacen más probable que los resultados e interpretaciones sean creíbles (participación prolongada, observación persistente y triangulación), b) las que proporcionan un control externo sobre el proceso de investigación (revisión por parte de otros investigadores), e) las que permiten refinar la hipótesis de trabajo a medida que más información está disponible (análisis de casos negativos), d) las que permiten verificar los resultados preliminares (adecuación referencial) y e) estrategias dirigidas a probar los resultados con los informantes (validación con los informantes) (cuadro 1).


1461

.MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

INFORMACIONAL

Cuadro 1. Criterios y estrategias para asegurar la credibilidad en la investigación cualitativa (síntesis de Lincoln y Guba, 1985)

CREDIBILIDAD Participación prolongada: consiste en permanecer suficientemente en el campo con el fin de aprender o conocer la cultura, contexto social o fenómeno de interés para ser capaz de detectar las distorsiones que podrían presentarse en los datos (por parte del observador o de los individuos observados), olvidar sus prejuicios y generar confianza. Observación persistente: para identificar las características y los elementos de la situación que son más relevantes para el problema a investigar y poder distinguir lo no relevante de lo relevante. Si la participación prolongada brinda la posibilidad, la observación persistente proporciona profundidad. Triangulación: uso de varias fuentes de datos, métodos, investigadores o teorías en una investigación para producir un estándar que permita valorar el grado de convergencia obtenido desde esos distintos enfoques. Revisión por parte de otros investigadores: es la exposición a un compañero ajeno a la investigación de manera paralela a una sesión de análisis y con el propósito de explorar aspectos de la investigación que de otra manera solo quedan implícitos en la mente del investigador. El propósito es ayudar a detectar sesgos, perspectivas y asunciones del investigador. Análisis de casos negativos: consiste en la revisión de las hipótesis para eliminar todos los valores extremos y todas las excepciones mediante la continua revisión de esta hipótesis hasta que el ajuste es perfecto. Adecuación referencial: implica la recogida de información a través de diversas fuentes (grabaciones, documentos, imágenes, etcétera) para que reflejen el contexto estudiado y sustenten y den confiabilidad a los hallazgos de la investigación.

Validación por parte de los informantes: los datos, las categorías analíticas, interpretaciones y conclusiones son testeadas con los individuos pertenecientes al grupo observado.

En segundo lugar, la transferibilidad se refiere al grado en que los resultados de una investigación pueden ser aplicados en otros contextos con otros informantes. Como afirman Lincoln y Guba (1985), la aplicación de un criterio como este en la investigación cualitativa, en sentido estricto, es imposible, ya que el investigador solo puede aportar su hipótesis de trabajo junto con una descripción del momento y el contexto en el que transcurre. Pero también, como afirma Pickard (2007), en la investigación cualitativa, el objetivo es permitir la transferencia de los resultados en lugar de la generalización que persigue la investigación cuantitativa. Para ello el investigador ofrece imágenes ricas a nivel individual que son recogidas por otros investigadores que, si evidencian similitudes entre ambos contextos, entonces se puede considerar razonable aplicar los hallazgos al nuevo contexto. Para asegurar la transferibilidad, se emplea la estrategia denominada descripción densa (thick description), que consiste en la descripción de un fenómeno con el suficiente detalle como para que permita evaluar el grado en que las conclusiones son transferibles en otros momentos, lugares, situaciones y personas. El investigador proporciona al lector un relato completo y útil sobre el contexto, los participantes y el


t. FUNDAMENTOSDE LA INVESTIGACIÓNEN CIENCIASSOCIALES

[47]

diseño de la investigación para que este pueda hacer sus propios juicios acerca de la posible transferibilidad. Miles y Hubermann ( 1994) proporcionan una lista de preguntas que pueden ser relevantes para valorar esta cuestión y que a la vez dan pistas acerca de los contenidos que debería tener una descripción para permitir evaluar el grado de transferibilidad (cuadro 2). Cuadro 2. Preguntas para valorar la transferibilidad de una investigación cualitativa (Miles y Hubermann, 1994)

- ¿Las características de la muestra original de personas, entornos, procesos están suficientemente descritas como para permitir comparaciones adecuadas con otras muestras? - ¿El informe examina los posibles problemas de la generalización? ¿Se discuten las limitaciones de la muestra? - ¿Es la muestra teórica lo suficientemente diversa como para favorecer una mayor aplicabilidad? - ¿El investigador define el alcance y los límites de una generalización razonable a partir del estudio? - ¿Los resultados son suficientemente descritos densamente para que los lectores puedan valorar la potencial transferibilidad, la idoneidad para su propio entorno? - ¿Se observa congruencia entre los hallazgos y la teoría con la cual se conectan o fundamentan?

En tercer lugar, la dependibilidad consiste en buscar la consistencia de la investigación y se refiere al hecho de que si dicha investigación se repitiera con los mismos o similares informantes en el mismo o similar contexto, los resultados se repetirían (Lincoln y Guba, 1985). No obstante, es posible que si esa repetición ocurriera, hubiera cambios no solo debido al diseño de la investigación sino también a las distintas dimensiones del contexto observado. La estrategia para asegurar esta dependibilidad es la auditoría externa (auditoria de dependibilidad), en la que el investigador debe proporcionar un audit trail con la secuencia de la documentación producida en el curso de la investigación (incidentes, documentos, notas de entrevistas, diarios del investigador, etcétera). El estudio de Foster (2005), en el que presenta un modelo de comportamiento informacional basado en las observaciones realizadas a diversos académicos, documenta el proceso de codificación por medio de los registros del software de análisis cualitativo Atlas.ti, a modo de audit trail para asegurar la dependibilidad. Por otra parte, Berryman (2008) detalla ampliamente el proceso de recogida, análisis e interpretación de los datos a través de un registro completo de los materiales generados en el curso de la investigación. La cuarta y última dimensión de la confiabilidad es la confirmabilidad, entendida como el hecho de que las conclusiones representen los resultados de la investigación y no los prejuicios de investigadores. El énfasis del investigador cualitativo está en demostrar cómo los resultados pueden ser confirmados a través de los propios datos. Las conclusiones, las interpretaciones y las recomendaciones remiten a sus


1481

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

fuentes (Erlandson y otros, 1993). Esto se consigue normalmente mediante una auditoría de confirmabilidad, que contiene el proceso utilizado (tal y como antes se hablaba de audit trail), así como el producto resultante del estudio, lo que permite a un actor externo juzgar su confirmabilidad. Este audit trail, según Lincoln y Guba (1985), contendría, entre otros, la información sobre el procedimiento que se ha seguido en la investigación, los datos brutos obtenidos y el resultado del análisis de estos datos.

1.6. EL INFORME DE INVESTIGACIÓN

El informe es el documento final que describe el proceso de investigación seguido. En función del público al cual vaya dirigido tendrá un carácter científico, técnico o divulgativo. El informe científico será aquel cuyo destino final sea su publicación en revistas científicas especializadas, el informe técnico se dirigirá principalmente a informar de los resultados a la propia institución o a los órganos públicos o privados que hayan financiado la investigación (tabla 5) y, por último, el informe divulgativo informará sobre el estudio y los resultados al público en general. En función del tipo de informe, el lenguaje será más o menos formal y la información incluida será más o menos exhaustiva. Generalmente, la extensión y exhaustividad de un informe técnico será mayor que la del informe científico, cuyo destino es la publicación en una revista y está sometido a los requerimientos de estilo y extensión de dicha revista. Respecto a los informes divulgativos, suelen ser cortos y centrados generalmente en los resultados, exponiendo aquellos datos más representativos del estudio. Independientemente del tipo de informe, existen unos contenidos básicos que debe contemplar cualquier publicación que recoja los resultados de una investigación. Estos son introducción, metodología, resultados, discusión y conclusión: .._ Introducción: se contextualizará la situación que se quiere estudiar. Se expon. drán el marco teórico y los antecedentes o referentes relacionados con el estudio. Se plantearán los objetivos y las hipótesis si las hubiera . .._ Método: se describirán la selección de la muestra, la construcción del instrumento, el procedimiento que se ha llevado a cabo para recoger los datos, así como el plan de análisis . .._ Resultados: se expondrán los principales resultados del estudio. La presentación de los datos también se apoyará en la construcción de tablas y gráficos, si se considera pertinente, con el fin de que ayuden a visualizar más claramente la información obtenida.


t. FUNDAMENTOSDE LA INVESTIGACIÓNEN CIENCIASSOCIALES

~

[49]

Discusión y conclusión: se interpretarán los resultados obtenidos en base a los objetivos o hipótesis planteadas y se presentarán las principales conclusiones que se deriven. Tabla 5. Contenidos de un informe técnico Sección preliminar Título del estudio Autores y colaboradores Instituciones que colaboran Agradecimientos Índice Resumen Introducción Planteamiento del problema y justificación del estudio Exposición del marco teórico, antecedentes y referentes bibliográficos Pregunta de investigación y/o objetivos Hipótesis Metodología

Especificar la población de referencia y la muestra Técnica de muestreo utilizada Descripción del diseño del estudio Proceso de elaboración del instrumento de recogida de información Método utilizado para la prueba piloto Procedimiento de la recogida de datos Análisis de datos Resultados

Exposición de los resultados Tablas y gráficos Discusión y conclusiones Interpretación de los resultados Limitaciones del estudio Sugerencias para futuros trabajos y líneas futuras de investigación

Bibliografía Anexos

Instrumentos de recogida de información (cuestionarios, formulario de observación, etcétera) Otro material adicional empleado en el estudio

En el caso concreto de estudios mediante encuesta, es importante generar además una ficha técnica que recoja de forma esquemática los aspectos fundamentales del estudio. Los principales datos que deberían aparecer son los siguientes: ~ Ámbito: indica el ámbito geográfico en el cual se encuadra el estudio. ~

Población: define la población de referencia que se pretende estudiar.


150)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

Tamaño de muestra: indica el número de individuos del que está compuesta la muestra. <111 Técnica de muestreo: señala la técnica de muestreo empleada para realizar el estudio. <111 Precisión: hace referencia a la amplitud del intervalo donde se situará el parámetro poblacional. <111 Nivel de confianza: indica la probabilidad de que en el intervalo construido se sitúe el verdadero valor poblacional. <111 Tipo de encuesta: se refiere a la forma de administración por la que se han obtenido los datos. <111 Recogida de datos: informa sobre el periodo temporal en el que se llevó a cabo el trabajo de campo y se obtuvieron los datos. <111 Empresa responsable: apunta la empresa u organismo que se ha encargado de llevar a cabo el estudio de encuesta. <111

1.7. ÉTICA DE LA INVESTIGACIÓN

Cualquier investigación llevada a cabo con humanos implica algún tipo de riesgo, que puede ir desde el simple sentimiento de vergüenza o incomodidad causados por preguntas intrusivas de un cuestionario, hasta otros efectos físicos o emocionales mucho más serios. La ética en investigación surge de los conflictos y dilemas a los que se enfrentan los investigadores cuando realizan un estudio. Dentro de una investigación existen múltiples situaciones en las que el investigador debe decidir entre proseguir con los procedimientos del estudio para logar el avance en el conocimiento científico o respetar los derechos de aquellos que participan en la investigación. La ética ayuda a delimitar lo que es legítimo hacer dentro del contexto de una investigación científica y lo que no. Los inicios de la ética en investigación tienen un oscuro pasado. Muchos de los principales avances científicos (médicos, sociales y psicológicos) ocurridos durante el siglo xx se realizaron con participantes que poco tenían de voluntarios. Prisioneros, pacientes psiquiátricos, minorías étnicas y grupos desfavorecidos eran escogidos para formar parte de estudios sin ningún tipo de información sobre los beneficios de su participación, los riesgos que podían correr y ni tan siquiera esperar su aceptación a participar. No fue hasta que salieron a la luz los resultados de los primeros juicios sobre los experimentos realizados con prisioneros durante la segunda guerra mundial cuando se planteó la necesidad de regular los estudios realizados con humanos. En 194 7 surge el Código de Núremberg como el primer documento con carácter internacional que recoge las principales líneas que deberían guiar toda experimentación realizada con seres humanos. El eje principal sobre el que descansa el código es la


l. FUNDAMENTOSDE LA INVESTIGACIÓNEN CIENCIASSOCIALES

[51)

necesidad de que los individuos sean capaces de dar su consentimiento voluntario a participar en el estudio. Su participación no ha de deberse a ningún tipo de coacción, deben conocer la naturaleza del estudio en el que participarán y aceptar los posibles riesgos e inconvenientes asociados. El código también resalta la responsabilidad de los investigadores en diseñar estudios que minimicen los posibles riesgos o sufrimiento que se puede ocasionar a los participantes, así como la necesidad de que valoren los beneficios científicos y sociales del estudio antes de llevar a cabo la investigación. A partir de este código se han derivado diferentes documentos que regulan los principios éticos y las pautas que deberían regir cualquier investigación en la que participen personas. Algunos de estos códigos tienen un carácter internacional, como la Declaración de Helsinki, promovida en 1964 y de la que se han realizado diferentes revisiones, y otros de carácter nacional o bien más específicos dentro de disciplinas concretas o asociaciones de profesionales. El objetivo de estos códigos es asegurar que el investigador considere todos los riesgos potenciales y conflictos éticos a la hora de llevar a cabo una investigación con la idea de proteger en todo momento a los participantes del estudio. Dentro del contexto de las ciencias sociales, se ha de destacar el código propuesto por la Sociedad Europea de Opinión e Investigación de Mercados (European Society for Opinion and Marketing Research, ESOMAR). ESOMAR (2008) publicó un primer código para la práctica de la investigación social y de mercados en 1948. La propuesta fue posteriormente revisada y en 1977 se propuso, junto con la Cámara de Comercio Internacional, un único código de carácter internacional con la finalidad de ofrecer a la comunidad científica, y a la sociedad en general, unas pautas para garantizar los principios éticos en la investigación social y de mercados. La última actualización de este código se realizó en el 2007 y se fundamenta en ocho principios básicos referidos a la responsabilidad que debe asumir el investigador en todo estudio: 1. Respetar la legislación nacional e internacional vigente relacionada con la investigación. 2. Mantener una conducta ética y no hacer nada que pueda perjudicar la reputación de la investigación ni a los participantes. 3. Tener especial cuidado cuando los participantes sean menores de edad. 4. Asegurar que la colaboración de los participantes es siempre voluntaria y está basada en la información adecuada sobre los objetivos y el propósito del estudio. 5. Respetar los derechos individuales de los participantes. 6. No permitir que los datos personales recogidos durante un estudio se utilicen para propósitos ajenos a la investigación que se ha llevado a cabo y sobre la que se ha informado a los participantes.


[52]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

INFORMACIONAL

7. Asegurar que el diseño, la puesta en práctica, la emisión de informes y la documentación del estudio y procedimientos sean adecuados y se realicen con transparencia y objetividad. 8. Actuar de conformidad con los principios reconocidos de la libre competencia. El principio fundamental de la ética en la investigación social es que el individuo posea la información suficiente para decidir si desea participar en el estudio o no. El mecanismo que asegura que al individuo se le ha informado adecuadamente, conoce los procedimientos que se llevarán a cabo, sus riesgos y los beneficios que podrá obtener es a partir del consentimiento informado. El consentimiento informado se traduce en un documento donde se describe la investigación y se explican los derechos de los participantes. Es un documento que debe ser entregado a cada uno de los sujetos antes de iniciar la investigación y en el que se recoge la información básica del estudio con un lenguaje claro y adaptado a sus destinatarios. Los participantes deben tener suficiente tiempo para revisarlo y hacer preguntas sobre cualquier duda que les pueda surgir. Es habitual que el documento se firme por ambas partes (participante e investigador) para dejar constancia de que el sujeto ha comprendido la naturaleza del estudio y da su consentimiento voluntario a participar en él. La información que debería contener un consentimiento informado es la siguiente: <11111

<11111

<11111

<11111

<11111

<11111

<11111

<11111

<11111

Datos sobre el participante o su representante legal, si procede (nombre, dirección, número de identidad, teléfono de contacto, etcétera). Descripción de los objetivos del estudio así como de los procedimientos que se llevaran a cabo. La duración aproximada del estudio. Riesgos e inconvenientes asociados a la participación. Consideración sobre la participación voluntaria del sujeto y que su colaboración puede acabar en cualquier momento del estudio, si así lo considera, sin necesidad de dar ninguna razón justificada o que esto implique algún perjuicio para el sujeto. Garantías sobre el anonimato o confidencialidad de los datos recogidos durante el estudio. Beneficios o compensaciones, si las hubiera, por la participación del sujeto en el estudio. Identificación de los promotores y responsables del estudio, así como información de contacto en caso de que el sujeto presente dudas sobre cualquier aspecto de la investigación. Posibilidad de obtener un informe sobre los principales resultados del estudio si así lo desea el sujeto.


l. FUNDAMENTOSDE LA INVESTIGACIÓNEN CIENCIASSOCIALES

1531

No obstante, en el ámbito de las ciencias sociales, cuando los riesgos del estudio son bajos (por ejemplo contestar un cuestionario) la firma del consentimiento es opcional o bien no se requiere un documento escrito. En estos casos, se considera suficiente un consentimiento implícito. Este tipo de consentimiento implica tan solo informar adecuadamente sobre el estudio, dado que la colaboración subsecuente del sujeto da por hecho su aceptación (el hecho de contestar un cuestionario da por supuesto que se acepta contestarlo). Por otra parte, en los casos en que el participante sea un menor o bien carezca de la madurez suficiente para dar el consentimiento, lo harán sus representantes legales. No obstante, nuestra legislación indica que el menor siempre debe estar informado y puede dar su opinión, la cual deberá ser tenida en consideración.

1.8. RESUMEN

En este primer capítulo se describe el marco metodológico que supone la base del resto de capítulos de este libro. Como paso previo a la descripción de los aspectos metodológicos se presentan los principales paradigmas desarrollados dentro de las ciencias sociales, dado que la elección del investigador por uno u otro paradigma va a originar un diferente acercamiento metodológico hacia el fenómeno de interés. La elección de una metodología concreta, sea esta cuantitativa o cualitativa, se basa en presupuestos ontológicos y epistemológicos de la ciencia. Por lo tanto, se describen las características más representativas de estas dos orientaciones metodológicas, así como el proceso de investigación y los criterios de calidad que subyacen en una y en otra. Por último, se describen los aspectos éticos que implican a cualquier investigación que trate con personas, sea cual sea su orientación metodológica.


CAPÍTULO 2

TÉCNICAS DE MUESTREO

2.1. INTRODUCCIÓN

En cualquier investigación, tras la concreción de los objetivos, el siguiente paso que debe plantearse es la definición de la población o colectivo de interés. Por población se entiende aquel conjunto de elementos, también llamados sujetos, individuos, casos o unidades muestra/es, que comparten alguna característica. Los elementos que configuran una población pueden ser muy variados: personas físicas (usuarios, investigadores, profesionales de un centro de información, ... ), organizaciones (unidades de información, universidades, colegios, ... ), objetos (puntos de lectura o de conexión a internet, buzones de retorno de libros, expositores, ... ), documentos (libros, revistas, artículos, ... ), eventos o acciones (consultas a un catálogo, solicitudes de documentos, peticiones en una página web, ... ) o incluso espacios de tiempo en donde a partir de registros (por ejemplo, audiovisuales) se valora la presencia de alguna conducta de interés. No obstante, cuando una población contiene muchos elementos es inviable estudiarlos todos. El coste económico y de tiempo que requeriría estudiar todos los elementos sería tan grande que se desaconsejaría llevar a cabo la investigación. En estos casos, es necesario seleccionar un subgrupo representativo de elementos de la población, es decir, una muestra de individuos. El proceso de selección de las unidades muestrales que forman parte de la población es lo que se conoce como muestreo. Dentro del muestreo se distingue entre el muestreo probabilístico y el muestreo no probabilístico. En el muestreo probabilístico, los sujetos de la población tienen una probabilidad conocida de ser seleccionados para formar parte de la muestra y esta probabilidad es distinta a cero. En cambio, en los procedimientos no probabilísticos no se conoce la probabilidad de que un sujeto forme parte de la muestra. Seleccionar uno u otro procedimiento depende en buena medida de la naturaleza del estudio (Marshall, 1996; Patton, 2002; Ritchie, Lewis y El am, 2003; Neuman, 2007). Cuando una investigación tiene una naturaleza cuantitativa, la selección de los individuos


[56)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

se rige por el objetivo de que el estudio de la muestra permita la correcta estimación de los valores poblacionales. Es decir, se persigue generalizar a la población los resultados obtenidos a partir del estudio de la muestra. Lo anterior implica que la muestra resultante debe contener las mismas características y en las mismas proporciones que las observadas en la población. Esto se consigue gracias a la selección aleatoria de las unidades muestrales. Para que un muestreo sea considerado probabilístico la selección de los individuos se debe regir por un procedimiento aleatorio. En cambio, en un estudio cualitativo, la selección de las unidades muestrales se rige básicamente por el objetivo de formar una muestra que permita un mayor conocimiento sobre un determinado fenómeno en un contexto específico. En este caso, el investigador selecciona a los individuos en base a determinados criterios que considera adecuados y no de manera aleatoria. De esta manera, los estudios cuantitativos, más preocupados por su capacidad de ofrecer una generalización de los resultados a partir del estudio de muestras, preferentemente se realizan en base a muestreos probabilísticos. En cambio, en los estudios cualitativos se opta por muestreos no probabilísticos. No obstante, los estudios cuantitativos no siempre pueden realizarse a partir de procedimientos probabilísticos. Estos procedimientos tienen un mayor coste económico y requieren una mayor inversión de tiempo para conseguir formar las muestras, por lo que es habitual que muchos estudios, aunque persigan la generalización de los resultados a la población, recurran a procedimientos no probabilísticos. Otra situación habitual en la que se recurre a utilizar un procedimiento no probabilístico es cuando se estudian poblaciones en las que no se dispone de un registro exhaustivo de los individuos, es decir, un marco muestral completo. El marco muestral es el listado de individuos de la población a la que se tiene acceso. El objetivo que se persigue es que contenga todos los elementos de la población. No obstante, en la práctica, no existe un marco perfecto y es habitual encontrar errores, omisiones y duplicidades (Pérez, 2010). Es esencial que el marco muestral represente al conjunto de la población. Un marco muestral incompleto o que no incluya algún sector de la población pone en peligro la validez externa de la investigación (por ejemplo, realizar un estudio por entrevistas telefónicas no incluiría aquellos que no disponen de teléfono). En los casos en que no existe un marco muestra! completo, el investigador debe intentar construirlo, pero si esto no es posible, la alternativa es aplicar un muestreo no probabilístico. Este sería el caso de un estudio en el que se quisiera estudiar a los usuarios de una biblioteca pública que no pertenecieran a la comunidad europea. Difícilmente se podría contar con un listado de estos usuarios y construirlo sería igualmente infructuoso. La opción más sensata sería posiblemente utilizar un procedimiento no probabilístico. Es importante señalar que a partir de los procedimientos no probabilísticos, aunque se pueden obtener muestras representativas, no se llega a tener información sobre el grado de representatividad respecto a la población y existe un mayor riesgo de


[57]

2. TÉCNICASDE MUESTREO

Figura 5. Representación de una muestra representativa y una muestra sesgada

Poblatión

Muestraseigada

introducir sesgos a la hora de seleccionar a los individuos. En la figura 5 se ilustran una muestra representativa y una muestra sesgada. Como se puede apreciar en la figura 5, una muestra representativa es un subgrupo de elementos de la población que mantiene las mismas características que se observan en la población. En cambio, una muestra sesgada está formada por elementos que presentan una sobrerrepresentación o infrarrepresentación de alguna de las características de la población. Utilizar un procedimiento no probabilístico puede provocar que algunos de los sujetos seleccionados presenten una probabilidad más alta de ser incluidos en la muestra. Los sujetos finalmente incluidos en la muestra pueden presentar características diferentes respecto a los sujetos no seleccionados y, de esta manera, disminuir la representatividad de la muestra. Por eso los procedimientos no probabilísticos se deberían reservar para aquellas situaciones en que la generalización de las conclusiones a la población no es una prioridad del estudio, como podría ser en el caso de estudios exploratorios o bien de estudios cualitativos. En estos casos, el objetivo principal será profundizar en la información que los individuos puedan aportar más que en la representatividad de esta información. En el presente capítulo se pretende dar respuesta a dos de los interrogantes que los investigadores se plantean cuando trabajan con muestras. El primero hace referencia a qué procedimiento deben utilizar para seleccionar a los sujetos que participarán en su estudio. El segundo es cuántos sujetos deben estudiar o incluir en la muestra. En la tabla 6 se recogen los diferentes tipos de muestreo que se expondrán en este capítulo. En este punto, se debe señalar que la literatura sobre el muestreo probabilístico


[58]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INl'ORMACIONAL

muestra un amplio consenso tanto en las técnicas propuestas como en la terminología usada para referirse a ellas. No ocurre lo mismo con los muestreos no probabilísticos, donde conviven diversas propuestas sobre los diferentes procedimientos que pueden aplicarse (Patton, 1990; Marshall, 1996; Bernard, 2000; Neuman, 2007). En los muestreos no probabilísticos se observa una falta de acuerdo tanto en las definiciones como en la terminología utilizada, lo que en ocasiones lleva a confusión (Marshall, 1996; Coyne, 1997). Así, para los procedimientos no probabilísticos se revisarán algunas de las principales propuestas existentes en la literatura y se expondrán los principales tipos de muestreo, intentando esclarecer la terminología. Para finalizar el capítulo se abordará el tema del tamaño de muestra, diferenciando entre los estudios cuantitativos y los estudios cualitativos. Tabla 6. Tipos de muestreo Muestreo probabilístico

Muestreo Muestreo Muestreo Muestreo

aleatorio aleatorio aleatorio aleatorio

simple sistemático estratificado por conglomerados

Muestreo no probabilístico

Muestreo Muestreo Muestreo Muestreo Muestreo

accidental intencional teórico por cuotas por bola de nieve

2.2. MUESTREO PROBABILÍSTICO

Las diferentes técnicas de muestreo probabilístico tienen como denominador común el uso de la aleatorización para la selección de los individuos. La aleatorización permite que cada unidad muestral tenga una probabilidad conocida de formar parte de la muestra del estudio. De este modo se asegura que la muestra de individuos seleccionada sea representativa de la población de referencia. Sin embargo, para asegurar la representatividad se ha de contar con un marco muestral bien definido y que no presente ningún tipo de sesgo. El marco muestral debe contener un listado de todas las unidades muestrales de la población de referencia. De este marco muestral se seleccionará la muestra de individuos que serán los que participarán en el estudio. Los datos que se obtengan de esta muestra permitirán la generalización de resultados a la población de origen. Las técnicas de muestreo probabilístico son el muestreo aleatorio simple, el


[59]

2. TÉCNICASDE MUESTREO

sistemático, el estratificado y el de conglomerados. Las dos últimas variantes, el muestreo estratificado y el de conglomerados, pueden ser consideradas variaciones de las dos primeras y pueden combinarse entre sí en función de las exigencias del estudio.

2.2.1. Muestreo aleatorio simple En el muestreo aleatorio simple todos los sujetos de la población tienen la misma probabilidad de ser seleccionados para formar parte de la muestra (Cochran, 1987). Para seleccionar una muestra de sujetos a partir de este procedimiento se necesita una tabla de números aleatorios, o bien generar una serie de números aleatorios mediante algún programa informático. La tabla de números aleatorios es un conjunto de dígitos organizados en el espacio con una misma frecuencia. Para facilitar el seguimiento visual, los dígitos se presentan en grupos de filas y columnas (por ejemplo, filas y columnas de cuatro o cinco dígitos). El primer paso para seleccionar los elementos de la muestra es numerar los individuos de la población desde O hasta N, el último valor de la población. En la tabla de números aleatorios los dígitos se deben agrupar en bloques de tantas cifras como tenga el último valor numerado de la población. A continuación, se seleccionan tantos grupos de números aleatorios como individuos se quiera incorporar a la muestra. Cada número aleatorio seleccionado indicará el individuo que debe ser incluido en la muestra. En el cuadro 3 se propone un ejemplo para ilustrar esta técnica. Cuadro 3. Ejemplo de muestreo aleatorio simple Imaginemos que se desea seleccionar una muestra de 1O individuos de una población de 100. Los pasos que deberían seguirse son: l. 2.

Numerar todos los individuos de la población desde el O hasta el 99. Seleccionar 10 valores de la tabla de números aleatorios. Los valores se seleccionan en función del número de cifras que tenga el último dígito numerado a la población. En esta ocasión, como el último valor tiene dos cifras (99), se seleccionan valores de dos cifras. La tabla de números aleatorios puede leerse en cualquier dirección (de abajo arriba o de arriba abajo y de izquierda a derecha o al revés). En este caso, para seleccionar los 1O valores de la tabla se sigue la dirección de la lectura (por filas y de izquierda a derecha). 55659 53364 49927 07243 67879

44105 71726 57715 79931 00544

47361 45690 50423 89292 23410

34833 66334 67372 84767 12740

86679 60332 63116 85693 02540

3. A partir del paso anterior, se obtienen los siguientes 10 grupos de números aleatorios de dos cifras: el 55, 65, 94, 41, 05, 47, 36, 13, 48 y el 33. Estos valores indican los sujetos que formarán parte de la muestra


[60]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

2.2.2. Muestreo aleatorio sistemático

En este tipo de muestreo también se deben enumerar todos los individuos de la población, aunque el procedimiento resulta más sencillo que el anterior. Consiste en seleccionar el primer individuo de la muestra al azar y seleccionar el resto a partir de este. El primer individuo (i) se selecciona al azar entre los k-1 (k= N/n) primeros elementos de la población. El valor k se denomina coeficientede elevacióny representa el número de veces que la muestra estará comprendida en la población. El resto de individuos se seleccionan a partir del primer individuo sumando cada vez el valor k a cada uno de los individuos seleccionados. Para asegurar que la muestra sea representativa de lapoblación se debe evitar que la población esté ordenada según algún criterio relacionado con el objeto de estudio. En el cuadro 4 se propone un ejemplo de este tipo de muestreo. Cuadro 4. Ejemplo de muestreo sistemático

Siguiendo con el ejemplo anterior, en este caso el procedimiento sería: l.

Numerar todos los individuos de la población desde el O hasta el 99.

2.

Calcular el coeficiente de elevación k:

3.

Seleccionar al azar el primero individuo (i) de la muestra entre los k-1 primeros sujetos. Es decir, entre O y 9. Por ejemplo, i podría ser el sujeto 3.

4.

A partir del sujeto i se seleccionan de k en k el resto de individuos de la muestra. Los individuos que formarán parte de la muestra serán los siguientes: 3, 13, 23, 33, 43, 53, 63, 73, 83 y el 93.

2.2.3. Muestreo aleatorio estratificado

El muestreo aleatorio estratificado es útil cuando se conoce la proporción de una o varias características de la población relevantes para realizar un estudio particular (como por ejemplo el género, la edad o el nivel de estudios) y además se quiere asegurar que estas características estén representadas en la muestra. Las diferentes modalidades de estas características (por ejemplo: hombre/mujer, niños/jóvenes/adultos, etcétera) se denominan estratos, término que proviene de la geología y que se refiere a una capa homogénea de terreno. Los individuos que pertenecen a un determinado estrato presentarán características similares entre ellos y, en cambio, presentarán características muy diferenciadas respecto a los individuos de otros estratos. Este hecho traerá una homogeneidad entre los individuos que pertenecen a un mismo estrato y una heterogeneidad entre los individuos de diferentes estratos.


[61 I

2. TÉCNICASDE MUESTREO

El proceso de distribución de los individuos en los diferentes estratos se conoce como a-fijacióny existen diferentes tipos:

A-fijaciónproporcional: para cada estrato, se intenta conservar la variabilidad observada en la población de manera proporcional. En estos casos el número de sujetos de cada estrato en la muestra será proporcional al que se observa en la población. A-fijaciónde compromiso: en algunas ocasiones aplicar una afijación proporcional puede llevar a generar estratos con un número muy reducido de sujetos. Si el investigador está interesado en analizar en profundidad cada uno de los estratos, los resultados no serán validos para aquellos estratos que presenten pocos sujetos. En estos casos, se opta por aumentar el tamaño de los estratos con menos sujetos hasta que se considere que su número es adecuado. A-fijaciónuniforme: se trata de una estratificación no proporcional en la que todos los estratos tienen el mismo número de sujetos independientemente de la proporción que se observa en la población. Esto favorece a los estratos que presentan una proporción menor y perjudica a los que presentan una proporción mayor. Tal como señala Pérez (2010), este tipo de afijación solo se aconseja utilizar en los casos en que los estratos presenten una proporción similar en la población. A-fijación óptima: en este procedimiento, además de tener en cuenta el peso del estrato en la población, se valora la variabilidad de cada estrato. Para aplicar una afijación óptima se necesita conocer la varianza poblacional de cada estrato, lo que requiere que se haya hecho algún estudio previo de la población. En el muestreo estratificado es frecuente que se considere más de una característica a la vez, lo que genera diferentes dimensiones. Por ejemplo, en un primer momento, se puede considerar la característica género y generar dos estratos: hombre y mujer. En un segundo momento, se puede considerar la variable edad y crear diferentes intervalos: menor de 12 años, de 12 a 18 años, de 19 a 30 años, etcétera. Automáticamente, cada uno de estos intervalos queda incluido en la categorización previa de hombre y mujer, como se muestra en la tabla 7: Tabla 7. Ejemplo de un muestreo aleatorio estratificado GÉNERO

Mujer

Hombre

Edad >12 años

l 12-18 años l t9-30

Edad años >12 años

l 12-18 años l 19-30 años


[62]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

Una vez se ha fijado el tamaño de cada estrato, se seleccionan los individuos que formarán parte de cada uno. La selección de cada uno de los individuos se puede realizar mediante un procedimiento aleatorio simple o bien sistemático. Se debe tener en cuenta que los resultados que se deriven de muestras generadas por procedimientos de afijación no proporcionales (de compromiso y uniforme) no podrán ser directamente generalizables a la población y deberán hacerse ajustes para poder informar correctamente sobre la población. En el cuadro 5 se propone un ejemplo para ilustrar esta técnica de muestreo. En general, si la información de la que se dispone sobre la población es precisa, las muestras obtenidas mediante este tipo de muestreo aseguran mejor la representatividad que las muestras generadas a partir de la aplicación directa del muestreo aleatorio simple (Rodríguez Osuna, 1991). Esto es así porque en el muestreo estratificado se asegura que, pese a que un estrato presente un porcentaje pequeño respecto a la población, este quedará representado en la muestra. Un muestreo aleatorio, en un caso así, podría omitir este estrato y no quedar representado en la muestra. Además, el muestreo estratificado evita las oscilaciones debidas al azar y conserva los mismos parámetros observados en la población. Por ejemplo, si se conoce que el porcentaje de hombres y de mujeres en la población de usuarios del servicio de préstamo es de 48 % y 52 % respectivamente, utilizando un muestreo estratificado se puede obtener una muestra exactamente con un 48 % de hombres y un 52 % de mujeres. En cambio, si se aplicara un muestreo aleatorio simple, este porcentaje podría variar ligeramente respecto al observado en la población de referencia.

2.2.4. Muestreo aleatorio por conglomerados En algunos casos los individuos de una población se agrupan de manera natural formando grupos con características muy heterogéneas. Estas agrupaciones reciben el nombre de conglomerados. Interesa que los conglomerados presenten una gran diversidad dentro de ellos mismos, pero sean similares a otros conglomerados (Pérez, 2010). De esta manera pueden considerarse poblaciones «en pequeño». Por ejemplo, una biblioteca A podría ser considerada un conglomerado. Dentro del conglomerado se pueden encontrar usuarios con características muy diversas (en edad, nivel educativo, frecuencia de uso, etcétera). Si se compara esta biblioteca A con otra biblioteca, B, posiblemente se encuentren más similitudes entre los usuarios de estas dos bibliotecas que diferencias (en las dos habría individuos con edades diversas, con diferente nivel educativo, frecuencia de uso, etcétera). Cada conglomerado actuaría como una pequeña representación de la población. No obstante, se debe tener en cuenta que entre conglomerados puede haber diferencias importantes. En


2. TÉCNICASDE MUESTREO

(63)

Cuadro 5. Ejemplo de un muestreo aleatorio estratificado Se quiere seleccionar una muestra de 300 individuos para elaborar un estudio sobre el uso de diferentes servicios en una biblioteca pública. Se sabe que el uso de los servicios está relacionado con el nivel educativo de los usuarios, por lo que para seleccionar la muestra se opta por utilizar la información disponible sobre el nivel educativo de la población a la cual da servicio la biblioteca. En la siguiente , tabla se expone el porcentaje observado en la población para cada uno de los estratos.

Estratos

Porcentaje observado en la población

Estudios primarios Estudios secundarios Estudios universitarios

54 % 30 % 16 %

Para calcular el número de sujetos necesarios en cada estrato mediante afijación uniforme, se divide el total de la muestra que se quiere obtener por el número de estratos. En este caso, cada estrato estaría formato por 100 sujetos:

n n._.,.w= numero de estratos

300 nestr.tro

3

O

.

= 1 O su1etos

En el caso de que se quisiera realizar mediante una afijación proporcional, de sujetos para cada uno de los estratos a partir de la siguiente expresión:

se calculará la proporción

p ·n nC'\trJ(O

::::::-~--

100 Donde P, es el porcentaje de sujetos de la población que presentan la característica concreta en el estrato y n es el tamaño de la muestra que se quiere estudiar. En el ejemplo propuesto quedaría de la siguiente forma: 54 · 300

. 162 su1etos

nC'\lr.llC)'\rrJITI.Um'\

----=

n ..ir.uu,-unJJrios

30 · 300 =---=90 sujetos

11l"~U JW'\

Unl\'C'í\lf;:UIO~

100

100

16 · 300

----

= 48 sujetos

100 En siguiente tabla se detalla, para cada uno de los estratos, el número de sujetos necesarios si se utiliza una afijación uniforme o una afijación proporcional.

Estrato Estudios primarios Estudios secundarios Estudios universitarios

Afijación uniforme 100 100 100

Afijación proporcional 162 90 48

Finalmente, para seleccionar los sujetos de cada uno de los estratos sería necesario aplicar un muestreo aleatorio simple o sistemático.


(64]

MÉTODOSY TÉCNICASPARALA INVESTIGACIÓNDEL COMPORTAMIENTOINFORMACIONAL

este sentido, no sería lo mismo estudiar una biblioteca de una gran ciudad que otra ubicada en un núcleo rural. En estos casos, para conseguir una buena representación de la población, sería necesario seleccionar dos muestras diferenciadas, una con bibliotecas ubicadas en núcleos urbanos y otra en núcleos rurales. Se dice que el muestreo por conglomerados es polietápico cuando los conglomerados seleccionados en un primer momento forman nuevos conglomerados dentro de ellos y se procede a una nueva selección de estos. Este procedimiento se puede repetir hasta que se llegue a la selección final de los individuos de la muestra. Este sería el caso si se quisiera estudiar el comportamiento informacional de los usuarios del conjunto de bibliotecas de un determinado municipio. Seleccionar todas las bibliotecas seria un procedimiento muy costoso, por lo que se podrían seleccionar en primer lugar unas determinadas poblaciones (primer conglomerado) y de estas seleccionar unas determinadas bibliotecas (segundo conglomerado). De las bibliotecas finalmente incluidas en la muestra se seleccionarían de manera aleatoria los individuos que formarían parte del estudio. Para seleccionar unos conglomerados u otros se utiliza un procedimiento aleatorio, como por ejemplo un muestreo aleatorio simple o estratificado. Una vez se han seleccionado los conglomerados que formarán parte de la muestra, se pasará a seleccionar las unidades muestrales. Si los conglomerados están formados por pocas unidades muestrales, se pueden seleccionar todos los elementos que forman parte del conglomerado. En cambio, si el número de unidades muestrales dentro del conglomerado es grande, se deberá realizar una nueva selección aleatoria de las unidades muestrales a partir de un procedimiento aleatorio simple o sistemático. Una de las ventajas más destacadas de este tipo de muestreo es su ahorro en tiempo y coste económico. La concentración de las unidades muestrales evita los costes de desplazamiento, permitiendo que la selección de la muestra sea más rápida y barata. Decidir el número de conglomerados necesarios para un estudio depende de la variabilidad observada entre los conglomerados. Si se observa una gran diversidad entre conglomerados, para poder conseguir una buena representación de la población será necesario seleccionar un número más grande de conglomerados. En cambio, si las diferencias entre conglomerados no son importantes, la representatividad de la población se podrá conseguir con unos pocos conglomerados. De manera análoga, si se observa una variabilidad más alta dentro del conglomerado, será necesario seleccionar más individuos dentro del conglomerado y, en cambio, si los individuos que forman el conglomerado presentan características homogéneas entre ellos, no serán necesarios tantos individuos para conseguir una buena representación. La siguiente situación ilustra el procedimiento a seguir en este tipo de muestreo: un grupo de investigadores se propone realizar un estudio sobre los hábitos lectores de los alumnos de educación secundaria obligatoria en España. Para elaborarlo pre-


2. TÉCNICASDE MUESTREO

(65]

renden estudiar una muestra de alumnos que estén cursando en la actualidad estos estudios. La mejor manera para acceder a la muestra es dirigirse a las escuelas de educación secundaria del territorio. Sin embargo, contactar con todas las escuelas (públicas y privadas, urbanas y rurales, etcétera) sería una tarea impracticable. Los investigadores optan por seleccionar de manera aleatoria unas determinadas comarcas dentro de cada comunidad autónoma, dentro de cada comarca se seleccionan determinadas poblaciones en función del número de habitantes y, por último, de nuevo de manera aleatoria, un grupo asequible de escuelas dentro de cada población. Con el fin de conseguir una mayor representación de la población se tiene en cuenta la característica pública o privada de la escuela y también la ubicación (urbana o rural). Una vez seleccionadas las escuelas, se pasa a seleccionar los alumnos de manera aleatoria (a partir de un muestreo aleatorio simple o sistemático). Para cada escuela se entrevista a un número determinado de alumnos en función del tamaño de la escuela y del curso donde están matriculados (primero, segundo, etcétera). En este ejemplo, la comunidad autónoma, la comarca, las poblaciones y la escuela actúan como conglomerados. El interés de los investigadores es conseguir una muestra de alumnos, pero para acceder a ellos la estrategia es centrarse en una organización que agrupa a la población de interés. Además, en este ejemplo se tienen en cuenta características intrínsecas de la escuela, como su carácter privado o público o su ubicación. Estas características actúan como estratos, por lo que convierten a este procedimiento en un muestreo mixto: muestreo aleatorio estratificado y por conglomerados polietápico.

2.3. MUESTREO NO PROBABILÍSTICO

En general, por las ventajas que representa, los investigadores que pretenden llevar a cabo un estudio cuantitativo preferirían trabajar con muestras probabilísticas. En la práctica, en ciencias sociales, el coste y el tiempo que requiere obtener una muestra a partir de un muestreo probabilístico lo hace, en muchas ocasiones, inviable. En otros casos, es imposible construir el marco muestral de la población. Esto es, si no se dispone de una lista exhaustiva de los sujetos que forman parte de la población, no es posible seleccionar una muestra a partir de un procedimiento probabilístico. La alternativa que tiene el investigador, en estas situaciones, es utilizar un procedimiento no probabilístico. Como se ha comentado al inicio del capítulo, un procedimiento no probabilístico puede provocar una selección sesgada de los individuos. No obstante, cuando el objetivo del estudio es básicamente descriptivo y no se pretenden extraer conclusiones generalizables al conjunto de la población, un muestreo no probabilístico puede ser perfectamente válido.


166]

MÉTODOS Y TÉCNICASPARA LA INVESTIGACIÓNDEL COMPORTAMIEN"TO INFORMACIONAL

Con todo, el muestreo no probabilístico no debe ser contemplado como un tipo de muestreo alternativo en aquellos casos en que no sea posible llevar a cabo una selección aleatoria de los sujetos. De hecho, los procedimientos no probabilísticos son generalmente la opción más acertada en los casos en que el investigador se propone realizar un estudio de carácter cualitativo. En este tipo de estudios, los individuos se seleccionan en base a sus características particulares o bien por su capacidad para proporcionar información rica para el estudio. En estos casos, no sería apropiado utilizar un procedimiento probabilístico. Tal como señala Marshall ( 1996), escoger a los sujetos de manera aleatoria para realizar un estudio cualitativo sería tan poco adecuado como ante la situación de que se nos estropee el coche en medio de la calle, parar al primer transeúnte que pase por nuestro lado y esperar que sepa cómo reparar un coche averiado. Sin duda, lo más acertado, en un caso como este, es acudir directamente a un buen mecánico y no esperar a que el azar proporcione al mejor informante. Existen diferentes propuestas de clasificación de los procedimientos no probabilísticos. Marshall propone tres tipos: accidental, intencional y teórico. Neuman (2007) distingue entre muestreo accidental, por cuotas, intencional, por bola de nieve, de casos «desviados» y secuencial (que sería equivalente al teórico propuesto por Marshall). Bernard (2000) resume la propuesta anterior en cuatro tipos: muestreo accidental, por cuotas, intencional y por bola de nieve. Otros autores (Trochim, 2006; Singh, 2007) reconocen dos grandes tipos de muestreo: el muestreo accidental y el muestreo intencional. En el primero, el investigador no tiene ningún criterio para seleccionar a los sujetos de la muestra y acepta aquellos que voluntariamente acceden a participar en el estudio. En el segundo, el investigador selecciona a los individuos en función de unos criterios previamente establecidos. Otros autores (Coyne, 1997; Patton, 1990), en cambio, consideran que, en última instancia, todos los procedimientos no probabilísticos tienen la característica común de que el investigador es quien determina las particularidades que deben cumplir los sujetos como candidatos óptimos para el estudio. Según este criterio, los distintos procedimientos podrían clasificarse básicamente en uno: el muestreo intencional y, dentro de él, se hallarían diferentes subtipos. Patton (1990, 2002) distingue un total de quince variantes (tabla 8). Según este autor, el muestreo no probabilístico para una investigación cualitativa debe basarse en la selección de sujetos que el investigador considere que pueden aportar información rica al estudio (lo que el autor llama information-rich cases). Estos informantes serán aquellos sujetos que pueden aportar más y mejor información sobre la investigación, permitiendo la adecuada comprensión del fenómeno de interés.


1671

2. TÉCNICASDE MUESTREO

Tabla 8. Subtipos de muestreo intencional según Patton ( 1990, 2002) TIPO DE MUESTREO

Muestreo de casos extremos o inusuales

Muestreo de casos intensos Muestreo de variación máxima

Muestreo de casos homogéneos

Muestreo de casos típicos

Muestreo intencional estratificado

Muestreo de casos críticos

Muestreo por bola de nieve

Muestreo de criterio

Muestreo teórico

Muestreo de casos confirmatorios o desconfirmatorios

Muestreo oportunista

Muestreo aleatorio intencional Muestreo de casos políticamente importantes

Muestreo de conveniencia

CARACTERÍSTICAS

Selección de casos por sus características especiales. Son casos que sobresalen del resto de sujetos de la población. A partir de estos sujetos poco habituales se pretende obtener información sobre el objeto o fenómeno de interés. Se trata de un muestreo similar al anterior, pero los casos no llegan a ser considerados casos extremos. Selección de casos que presentan rasgos variables respecto al fenómeno de interés. Se trata de conseguir una muestra lo más heterogénea posible respecto a las características de los sujetos. Al contrario que el muestreo de variación máxima, pretende construir una muestra que presente características homogéneas. Es el tipo de muestreo utilizado en los grupos de discusión. Selección de casos que presentan características habituales respecto al conjunto de la población. Representan el promedio o la normalidad. No obstante, la definición de «típico» no se basa en la normalidad estadística sino en la opinión de los informantes claves. Sigue la lógica del muestreo aleatorio estratificado, aunque, a diferencia de este, el tamaño de los estratos es más pequeño y no implica una selección aleatoria de los individuos. Se forman grupos de sujetos homogéneos, lo que facilita la comparación entre ellos. Se basa en una selección de casos que se consideran importantes y representativos para estudiar el fenómeno de interés. Los informantes claves son los agentes capaces de identificar estos casos. Los casos se seleccionan a partir de referencias de los sujetos que inicialmente forman parte de la muestra. Los nuevos sujetos serán los encargados de derivar a otros sujetos. Se seleccionan los casos que cumplen una o más condiciones que a criterio del investigador son importantes para el estudio. La selección de casos se realiza de forma progresiva. Se parte de una selección inicial, la inclusión de los siguientes casos va reconsiderándose en función de los datos. El muestreo se rige por la capaciclad de los casos para estudiar y elaborar los conceptos teóricos. Este tipo de muestreo permite elaborar y profundizar en los conceptos y teorías emergentes, buscar excepciones y valorar la variabilidad de los sujetos. Los casos confirmatorios añaden información y credibilidad, mientras que los desconfirmatorios ayudan a formar los límites y las excepciones a la regla. La selección se lleva a cabo sin previa programación, aprovechando las oportunidades de selección de casos que ofrece el trabajo de campo. Se selecciona una pequeña muestra de casos a partir de un procedímiento aleatorio con la finalidad de aumentar la credibilidad (no la representatividad estadística) de la información recogida. Se seleccionan los actores principales del fenómeno de interés que intervienen directamente en la acción o en la toma de decisiones. Los casos son seleccionados por su accesibilidad con el fin de reducir tiempo, costes y recursos.


168)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

INfORMACIONAL

De lo anterior se desprende que la literatura sobre los procedimientos no probabilísticos no muestra una clasificación unitaria. Parece lógica la opción de englobar las diferentes variantes en un único tipo de muestreo, dado que todas comparten una misma característica y es que se basan en el criterio del investigador. No obstante, dadas las características particulares de cada procedimiento, a continuación se comentan de manera más amplia el muestreo accidental, el intencional, el teórico, por cuotas y por bola de nieve.

2.3.1. Muestreo accidental

El muestreo accidental selecciona a los individuos en función de la posibilidad de acceder a ellos y de su voluntad de participar en el estudio y no por el hecho de que sean representativos de la población. En la clasificación propuesta por Patton (1990; 2002) este tipo de muestreo corresponde a un muestreo de tipo oportunista o bien de conveniencia. Formar muestras a partir de este procedimiento es relativamente rápido y barato, pero se corre el peligro de que los individuos aporten información distorsionada y en absoluto representen a la población de referencia. Es posible que, pese a que el tamaño de la muestra sea adecuado, el hecho de seleccionar los individuos a partir de este procedimiento provoque un sesgo importante en los resultados obtenidos. Por lo que los estudios que se realicen a partir de esta estrategia de muestreo deberán ser cautos a la hora de interpretar los resultados que obtengan. No obstante, por su comodidad y rapidez este tipo de muestreo es una estrategia óptima para los estudios piloto o exploratorios, en los que se pretende recoger datos de manera rápida para tener una idea general de lo que se quiere estudiar. Posteriormente se puede realizar una investigación con un procedimiento de muestreo diferente que permita un estudio más profundo. Este puede ser el caso de un estudio piloto de un cuestionario, en el que se quiere valorar la adecuación de los ítems del instrumento administrándolo a una pequeña muestra, para posteriormente administrar el cuestionario final a una muestra representativa. Imagínese una situación en que un investigador ha construido un cuestionario para valorar el grado de satisfacción de los usuarios sobre los servicios de una biblioteca, pero antes de realizar el estudio quiere valorar la comprensión de los ítems. Para seleccionar a los usuarios, el investigador se traslada a la biblioteca y propone a algunos sujetos que se encuentran en el recinto que participen en el estudio contestando el cuestionario. La muestra estará formada por todos los sujetos que finalmente accedan a ser entrevistados. Aunque la muestra puede ser válida para valorar la comprensión de los ítems, se debe tener en cuenta que este tipo de selección puede generar una muestra sesgada, por lo que


2. TÉCNICAS DE MUESTREO

[69J

no sería adecuada para el objetivo último del estudio: conocer la satisfacción de los usuarios con determinados servicios. Es fácil suponer que los usuarios que visitan la biblioteca en una hora y día determinados (cuando el investigador está presente) no tienen por qué representar al conjunto de usuarios que utilizan la biblioteca. Los usuarios finalmente seleccionados pueden tener características diferentes del resto de sujetos que no asisten a la biblioteca en aquel momento. Otra fuente de sesgo es dejar a criterio del investigador la selección de los sujetos a quienes se va a preguntar. El investigador de manera involuntaria puede escoger a aquellos individuos que presenten una serie de características que considere «idóneas» para la realización del estudio y evite la selección de otros (personas mayores, con algún tipo de discapacidad, personas que parezcan muy atareadas o con prisa, etcétera). Otro caso de muestreo accidental sería aquel en el que la composición de la muestra se forma a partir de sujetos que acceden a un cuestionario desde una página web. En este caso una biblioteca, con el fin de valorar la satisfacción de diferentes servicios, incorpora un enlace en su página de inicio para que los usuarios puedan acceder al cuestionario. Todos aquellos que entren a contestar el cuestionario formarán la muestra del estudio. Sin embargo, no todos los usuarios utilizan o tienen acceso a la web de la biblioteca, por lo que una buena parte de la población no podría acceder al cuestionario y no quedaría representada en la muestra. Además, se sabe que las personas que navegan por Internet tienen características diferentes de aquellas que no usan Internet. Probablemente, los individuos que finalmente participen en el estudio sean aquellos con mayor interés por la cuestión particular que se pretende estudiar, presenten unas expectativas determinadas, tengan más tiempo para contestar el cuestionario o bien estén más motivados a participar en este tipo de estudios.

2.3.2. Muestreo intencional El muestreo intencional, también denominado opinático, de iuicio o experto, añade algunas restricciones respeto al muestreo accidental a la hora de aceptar la inclusión de sujetos a la muestra. La principal característica de este tipo de muestreo es que el investigador utiliza la experiencia o sus conocimientos previos, de un experto o de la literatura disponible para decidir qué sujetos deben ser incluidos en la muestra. Los sujetos son seleccionados porque son los que se consideran más adecuados para lograr el objetivo del estudio. En ocasiones es recomendable generar una lista de características que deberá tener el individuo para que sea considerado un candidato óptimo para el estudio. Es un método simple, no requiere disponer de un listado exhaustivo del marco muestral y tiene la ventaja de que la muestra se puede conseguir de manera rápida. Este tipo de muestreo contempla de manera clara la subjetividad


[70J

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

INFORMACIONAL

del investigador a la hora de seleccionar los casos que investigará. Lo cual visto desde la óptica de la investigación cuantitativa, que busca la representatividad estadística, supondrá un sesgo en la composición de la muestra final. La siguiente situación ejemplifica este tipo de muestreo: una biblioteca pública se propone conocer las motivaciones de los usuarios adultos que hacen uso de la sala de lectura. Con este objetivo, seleccionan un grupo de usuarios mayores de 18 años con el objetivo de entrevistarlos. El equipo de investigadores decide que para asegurar que los usuarios conocen bien los diferentes aspectos de la sala de lectura, deben cumplir una serie de requisitos: haber utilizado la sala como mínimo durante los últimos seis meses, visitarla al menos una vez cada quince días y utilizar siempre material de la biblioteca (revistas, libros, cedés, etcétera). Los sujetos de la muestra serán seleccionados entre los asistentes a la sala en diferentes momentos del día de lunes a sábado. Seleccionar los sujetos en función de los criterios escogidos por el equipo de investigadores asegura que los usuarios estén en mejores condiciones para participar en el estudio, dado que la sala de lectura será para ellos un espacio conocido.

2.3.3. Muestreo teórico El muestreo teórico está íntimamente ligado al desarrollo de la teoría fundamentada. Concretamente, la teoría fundamentada, desarrollada inicialmente por Glaser y Strauss en 1967 (Glaser y Strauss, 1967), se basa en la idea de que de los datos emerge la teoría. Se trata de un proceso iterativo de recogida de datos a partir de una muestra inicial, un análisis de estos datos y una nueva selección de casos guiada por los resultados obtenidos. Así, a diferencia de los anteriores procedimientos comentados, la selección de los individuos en el muestreo teórico no se realiza a priori del estudio. El muestreo tiene lugar en diversos momentos temporales a lo largo de la investigación y los criterios de esta selección pueden variar en función de los datos recogidos y analizados hasta el momento. La inclusión de casos corre paralela a la propia investigación. Los nuevos sujetos que van incorporándose al estudio se seleccionan en función de su capacidad para validar y desarrollar la teoría emergente. El proceso continúa hasta que se llega a una saturación informativa o saturación teórica en la que los nuevos sujetos dejan de aportar datos relevantes para el desarrollo de la teoría (Strauss y Corbin, 1998). Algunos autores consideran este tipo de muestreo como una variante dentro del muestreo intencional (Ritchie, Lewis y El am, 2003; Coyne, 1997), dado que los sujetos son seleccionados en base a su capacidad para desarrollar y evaluar los conceptos teóricos que van surgiendo. Así, en un primer momento, los sujetos son seleccionados por su capacidad de proporcionar datos sobre el fenómeno que se pretende estudiar.


2. TÉCNICASDE MUESTREO

1711

Estos primeros datos se codifican y se analizan permitiendo la generación de categorías o conceptos teóricos. La selección de los siguientes casos se basa en su capacidad para proporcionar información que permita contrastar la existencia de las categorías o de los conceptos teóricos, así como redefinidos o concretarlos. El siguiente ejemplo ilustra este tipo de muestreo: se pretende llevar a cabo un estudio para valorar si las herramientas 2.0 son consideradas útiles por la comunidad científica. Se valora si los investigadores utilizan este tipo de herramientas para su trabajo, qué opinión les merecen y qué ventajas o reticencias encuentran a la hora de utilizarlas. Para realizar el estudio se opta por entrevistar a investigadores y docentes de diferentes universidades públicas. Se empieza a entrevistar a algunos catedráticos y titulares de universidad con una larga trayectoria docente e investigadora. No se establece un número concreto de sujetos a entrevistar, se opta por ir entrevistando a diferentes sujetos hasta que se consiga una variabilidad de opiniones amplia que permita un conocimiento suficiente sobre el objeto de estudio. Después de entrevistar a tres investigadores, se considera necesario incluir en la muestra a investigadores más jóvenes, con una carrera profesional más corta y con perfiles más variados (perfil con una orientación más enfocada hacia la docencia, perfil más orientado hacia la investigación, etcétera). Después de realizar quince entrevistas a diferentes investigadores se considera que se ha llegado a un suficiente conocimiento de las diferentes opiniones que les merecen este tipo de herramientas, las razones de su uso o de su no uso. La saturación informativa se ha logrado tras entrevistar a siete investigadores con una larga carrera profesional (tres investigadores tenían un perfil fundamentalmente investigador, dos investigadores un perfil más docente y dos un perfil mixto) y a ocho investigadores jóvenes (tres investigadores tenían un perfil investigador, dos investigadores un perfil más docente y tres un perfil mixto). En este ejemplo se usa el muestreo teórico. La selección de los individuos de la muestra arranca sin determinar cuántos sujetos serán necesarios. Tampoco se determina a priori si la tipología de los sujetos escogidos al inicio del estudio permitirá estudiar el fenómeno de interés en toda su amplitud y complejidad. A partir de los resultados de las primeras entrevistas se considera la necesidad de ampliar la tipología de sujetos a entrevistar para poder abordar el objeto de estudio en su conjunto. La inclusión de sujetos finaliza cuando se considera que se ha llegado a una saturación informativa y los nuevos sujetos que pudieran incorporarse dejarían de aportar información relevante.

2.3.4. Muestreo por cuotas El muestreo por cuotas asegura que determinadas características de la población estarán representadas en la muestra. El muestreo homogéneo y el muestreo intencional


[721

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

INFORMACIONAL

estratificado propuesto en la clasificación de Patton (2002) entrarían dentro de esta categoría. Consiste en que el investigador previamente identifica una o varias características de la población que, en principio, son relevantes para el estudio (por ejemplo: género, edad, nivel de estudios, etcétera) y determina cuántos individuos deben presentar estas características en la muestra. La selección de la muestra finaliza cuando se logra el número de individuos necesarios para cada cuota. Este procedimiento presenta cierta similitud con el muestreo aleatorio estratificado, que también tiene en cuenta determinadas características de los sujetos para formar parte de la muestra, pero se diferencia en que la selección de los sujetos no se lleva a cabo de manera aleatoria. A continuación se presenta una situación que ilustra este tipo de muestreo: una biblioteca universitaria situada en un campus especializado en ciencias humanas y sociales pretende estudiar a partir de un estudio de encuesta la percepción de los estudiantes sobre los servicios que ofrece la biblioteca y sus necesidades. La idea que se persigue es conocer cuál es la percepción de los estudiantes sobre los actuales servicios y las necesidades no cubiertas con el fin de identificar nuevos servicios necesarios para la comunidad de usuarios. Dado que los estudiantes de las diferentes facultades utilizan de manera diferente la biblioteca, se ha decidido seleccionar un número proporcional de sujetos entre los estudiantes matriculados en las tres facultades presentes en el campus: formación de profesorado, pedagogía y psicología. Otra variable que se considera importante para el estudio es el curso en el cual están matriculados los estudiantes. Los investigadores consideran necesario diferenciar entre estudiantes de primer curso de grado, de segundo a cuarto curso de grado y de posgrado (máster o doctorado). La selección de los estudiantes se realizará entre los asistentes a la biblioteca en diferentes momentos del día, de lunes a sábado. Suponiendo que se quisiera seleccionar una muestra de mil estudiantes, las diferentes cuotas podrían quedar repartidas como se muestra en la tabla 9. Tabla9. Ejemplo de un muestreo por cuotas FACULTAD Formación de profesorado (25 % )

1 Pedagogía

250 estudiantes

1300 estudiantes

Psicología (45 %)

(30 %)

450 estudiantes

CURSO

1." curso 2.º-4." curso (50 %) (42 %) 125 105

Posgrado (8 %) 20

l!' curso 2.º-4.º curso (42 %) (45 %) 126 135

Posgrado (13 %)

39

l!' curso 2.º-4.º curso (48 %) (36 %) 216 162

Posgrado (16 %)

n

El investigador entrevistará a los usuarios siempre que estos cumplan las características indicadas. Ahora bien, cuando el investigador consiga la cuota máxima de


2. TÉCNICASDE MUESTREO

1731

sujetos en alguna de las categorías, dejará de incorporar nuevos usuarios en esa categoría y pasará a centrarse en la selección de las cuotas todavía no cubiertas. Este ejemplo muestra cómo el muestreo por cuotas asegura que determinadas características, que se consideran importantes para el objetivo del estudio, estén incluidas en la muestra (facultad y curso académico). No obstante, la muestra que resulta de este procedimiento puede presentar igualmente un sesgo por motivos parecidos a los ya comentados en el muestreo accidental. El hecho de que el investigador decida preguntar a uno u otro usuario puede provocar un sesgo en la composición final de la muestra. Pese a la objetividad que se le presupone al investigador, este puede escoger, de manera involuntaria, a aquellos usuarios que le parezcan «más adecuados» para la investigación, o «más accesibles» o con «mejor predisposición» a participar, entre aquellos usuarios que se encuentren en la biblioteca durante el tiempo en que él esté seleccionando la muestra.

2.3.5. Muestreo por bola de nieve

El muestreo por bola de nieve consiste en seleccionar los sujetos a partir de las referencias aportadas por el primero o por los primeros sujetos a los cuales se ha tenido acceso. El procedimiento empieza con uno o pocos sujetos y se completa la muestra a partir de los vínculos de estos con otros sujetos. Así, la primera persona que se selecciona para el estudio sirve de enlace para incorporar la siguiente o las siguientes; estas, a la vez, servirán de vínculo para incorporar otras y así sucesivamente. Este método permite ir aumentando la muestra, como una bola de nieve, que al principio es pequeña, pero que a medida que se hace rodar por la nieve se va haciendo más grande. La incorporación de nuevos sujetos finaliza cuando se consigue el tamaño de muestra prefijado o bien cuando la información que se obtiene de los nuevos sujetos es redundante o deja de aportar datos relevantes para el estudio. Este tipo de muestreo se utiliza en poblaciones de difícil acceso en las cuales no hay un registro, como por ejemplo, inmigrantes o personas con algún tipo de enfermedad o discapacitados (personas ciegas, sordas, con problemas de lectura, con déficits cognitivos, etcétera). A continuación, se presenta una situación que ejemplifica este tipo de muestreo. En los últimos años, una biblioteca pública ha detectado un aumento importante de los usuarios procedentes de otros países. Por esta razón, un equipo investigador de la biblioteca se propone elaborar un estudio para conocer las necesidades informacionales de esta población. Los investigadores responsables del proyecto han identificado un grupo pequeño de usuarios de diferentes nacionalidades y les han administrado un cuestionario. Para conseguir el número de sujetos deseado para el estudio, al finalizar el cuestionario los investigadores preguntan a cada usuario


[74]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAl.

si les podría indicar a otras personas, de su misma nacionalidad o de otra, que puedan participar en el estudio. Los investigadores anotan el teléfono o el correo electrónico de estos nuevos sujetos para ponerse en contacto con ellos e invitarlos a participar en la investigación. Una desventaja clara del muestro por bola de nieve es que el investigador depende de los participantes para poder completar la muestra. Las derivaciones que se hagan dependerán de la comprensión del estudio que estos hayan alcanzado. Solo si los participantes conocen suficientemente la búsqueda que quiere llevar a cabo el investigador, podrán conducirlo a nuevos sujetos que puedan ser adecuados para completar la muestra.

2.4. TAMAÑO DE LA MUESTRA

Al igual que se ha comentado que existen procedimientos de muestreo más acordes en función de la naturaleza del estudio, el número de sujetos que debe estudiarse para llevar a cabo un estudio depende en buena medida de si se trata de una investigación de carácter cualitativo o cuantitativo. En los estudios cualitativos, en donde la generalización de los resultados pasa a un segundo plano, el tamaño de la muestra se basa en la capacidad de los datos obtenidos para dar respuesta al objetivo planteado. En estos casos, la muestra no necesita tener un tamaño grande porque no persigue ser estadísticamente representativa de la población. Así, es frecuente que el tamaño de la muestra de los estudios cualitativos se establezca por la saturación de información y teórica que aporten los datos o bien por cuestiones de coste. Por cuestiones prácticas, los estudios cualitativos se basan en muestras pequeñas por el coste económico y de tiempo que requiere la recogida y el análisis de los datos. Obtener y analizar las respuestas de mil cuestionarios contestados a partir de una web es perfectamente asumible para una investigación; en cambio, los costes se multiplicarían en el caso de que la recogida de datos se pretendiera realizar a partir de una entrevista en profundidad cara a cara. Otro de los aspectos que delimita el tamaño de muestra de los estudios cualitativos es la saturación informativa o teórica. La saturación se produce cuando la incorporación de nuevos sujetos deja de aportar datos adicionales o información relevante para el estudio del fenómeno de interés. Este aspecto tiene especial relevancia en el muestreo teórico, donde la selección de casos corre paralela a la investigación. En los estudios cuantitativos el tamaño de la muestra se basa fundamentalmente en tres aspectos: la precisión de la estimación, la certeza de esta estimación y la variabilidad de la característica que se pretende medir.


2. TÉCNICAS DE MUESTREO

[75]

El primer aspecto que debe plantearse el investigador es la precisión que se quiere conseguir con los datos. Si lo que se persigue es estimar un parámetro de la población a partir del estudio de una muestra, se necesitará que los datos que se obtengan de ella informen adecuadamente sobre la población. Se necesita que los datos sean precisos. Sin embargo, al trabajar con muestras se debe asumir que siempre existirá un error muestra}, una diferencia entre el valor obtenido a partir del estudio de las diferentes muestras que pueden extraerse de la población y el verdadero valor en esta población. El investigador debe decidir qué precisión quiere para sus datos. Por un lado, debe valorar qué diferencia entre el valor obtenido en la muestra y el verdadero valor de la población será asumible y a la vez resultará informativo y, por otro, qué diferencia será excesiva y carecerá de valor informativo. Si el investigador exige una alta precisión en los datos, necesitará más sujetos para estimar los parámetros de la población, y al contrario, si su nivel de exigencia no es tan alto, aceptará una mayor diferencia y el tamaño de la muestra podrá ser menor. Si por ejemplo se optase por una diferencia de cuatro puntos, se aceptaría como una estimación aceptable aquella que difiriera en cuatro puntos (por debajo o por encima) del verdadero valor de la población. La distancia entre estos dos puntos, el valor mínimo y el valor máximo de la estimación, se conoce como intervalo de confianza. Imaginemos que se quiere estudiar el porcentaje de usuarios que utilizan el servicio de préstamo cuando acuden a una biblioteca universitaria. Si el resultado de la muestra aleatoria fuera que un 32 % de los usuarios utiliza el servicio, el intervalo de confianza se situaría en realidad entre el 28 % y el 36 %. De esta manera, si se pudiese estudiar a toda la población de usuarios, se obtendría un valor que oscilaría entre un 28 % y un 36 %. El segundo aspecto que influye en el tamaño de la muestra es la confianza que se desea depositar en que el verdadero valor de la población caiga dentro de este intervalo de confianza. Como es lógico, se desea tener una confianza alta, por lo que normalmente se trabaja con niveles de confianza entre el 95 % y el 99 %. Esto quiere decir que de 100 muestras de igual tamaño que se extrajeran de una población, en el 95 % (o en el 99 %) de ellas el valor poblacional estaría dentro del intervalo. Solo se aceptaría error, es decir que el verdadero valor de la población cayera fuera del intervalo, en un 5 % (o en un 1 %) de las muestras. Por supuesto, si se desea conseguir un nivel de confianza alto (del 99 %) será necesario incluir más sujetos en la muestra, en cambio, si el nivel de confianza es menor (del 95 %), el número de sujetos necesarios será menor. Por último, el tercer aspecto a tener en cuenta es la variabilidad que presenta la característica que se pretende estudiar. Si la población es heterogénea respecto a la característica que se quiere medir, será necesario incluir más sujetos en la muestra para poder representar esta diversidad. En la práctica, son pocas las ocasiones en que se conoce la diversidad de aquello que se pretende investigar, por lo que es habitual


[76]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

trabajar con el supuesto de la máxima indeterminación, lo que equivale a asumir la máxima variabilidad posible del parámetro que se pretende medir. Es frecuente que una investigación pretenda abordar más de un objetivo a la vez y valore más de una característica. No obstante, para calcular el tamaño de la muestra el investigador deberá centrarse en una característica concreta que considere fundamental para el estudio (Lorh, 1999). El investigador deberá conocer (o bien suponer) la variabilidad de esta característica en la población y decidir con qué precisión y certeza desea trabajar. Existen diferentes fórmulas para calcular el tamaño de la muestra en función del parámetro que se desea estimar. En la práctica, las más utilizadas son aquellas que calculan el tamaño de muestra para medias y proporciones. En cualquier texto básico de estadística pueden consultarse estas fórmulas o bien puede optarse por utilizar alguna de las muchas calculadoras en línea que pueden encontrarse en la Red. Por último, es importante señalar que contar con un tamaño de la muestra adecuado o con una muestra «grande» no es suficiente para garantizar la precisión del estudio. Tal y como se ha ido comentando en los diferentes procedimientos de muestreo, una muestra mal seleccionada o no representativa, aunque sea grande, puede provocar resultados distorsionados.

2.5. EJEMPLOS DE INVESTIGACIONES

Ejemplo 1. Necesidades de información generadas por los médicos de atención primaria Los trabajos llevados a cabo por González-González y otros (2005, 2006) estudian las necesidades de información de los médicos de atención primaria a partir de un estudio observacional. Se registra a partir de vídeo la consulta médica y se analizan las preguntas que los médicos se plantean durante la visita al paciente, así como las fuentes de información que utilizan para dar respuesta a estas preguntas. El estudio tiene como población de referencia a los médicos de atención primaria. Los investigadores cuentan con un marco muestral bien definido que engloba a todos los médicos de atención primaria de determinadas áreas de salud de Madrid, eliminando a médicos residentes, suplentes y a aquellos que participan en comisiones de investigación y desempeñan labores docentes en la universidad. Concretamente, el marco muestral construido se compone de 1.182 médicos de atención primaria. A partir de este marco muestral, los investigadores seleccionan la muestra de 208 médicos a partir de un procedimiento aleatorio estratificado. Utilizan dos estratos: la ubicación de la consulta (zona rural o urbana) y la especialidad médica (médico de familia o pediatra).


2. TÉCNICASDE MUESTREO

[77]

La selección de las unidades muestrales se realizó mediante un muestreo aleatorio simple utilizando el programa estadístico SPSS. De los 208 médicos invitados a formar parte del estudio, solo 112 aceptaron participar. Así, la muestra de médicos final estuvo compuesta por 112 médicos, 90 médicos de familia y 22 pediatras. No se proporciona información sobre la composición final según la ubicación de la consulta (rural o urbana). Se analizaron dos horas de grabación por médico y se recogieron todas las preguntas que se formularon. Del estudio se desprende que las dudas más habituales eran referentes a enfermedades infecciosas y a farmacología (19 % y 10 % del total de preguntas). El 71 % de las preguntas requirió buscar información para su resolución. Se resolvieron el 86 % de las preguntas en las que se buscó información utilizando fundamentalmente el vademécum y libros de texto. Este estudio presenta un ejemplo de muestreo estratificado. Se debe señalar que, aunque se hace un muestreo de los médicos, en realidad la unidad de análisis del estudio son las preguntas que estos formulan durante una consulta médica. En este caso se analizaron todas las preguntas generadas por la muestra de médicos que participaron. En el proyecto previo al estudio (González-González, 2005) se determina el número de preguntas que sería necesario recoger a partir del cálculo de tamaño de muestra de proporciones. Los investigadores se proponen trabajar con una precisión del 1,7 % y un nivel de confianza del 95 % y asumen que el tipo de pregunta más frecuente supondrá un 9 % del total de preguntas. A partir de este cálculo determinan que será necesario recoger 1.089 preguntas. Sin embargo, finalmente solo recogen 635 preguntas, dado que consideran que en este punto de la investigación se llega a una saturación de la información.

Ejemplo 2. Factores que rodean la conducta de compra de libros y su relación con la consulta de opiniones sobre libros en Internet

El estudio de Kuei y Yang (2008) valora los factores que rodean la conducta de compra de libros y su relación con la consulta de opiniones sobre libros en Internet. Los autores utilizan la técnica de grupo de discusión para estudiar los motivos que llevan a los consumidores a consultar estas opiniones así como el efecto que tiene esta consulta sobre la conducta de compra. Para conseguir la muestra publican anuncios en las revistas de su universidad con el fin de captar a sujetos que de manera frecuente consulten las opiniones sobre libros que otros publican en Internet. Una vez obtenida la muestra, se organizaron diferentes grupos de discusión. Los miembros de cada grupo fueron seleccionados en función de su similitud. Se organizaron grupos con estudiantes de grado, con estudiantes ya graduados y con personas no estudiantes derivadas de la población general.


[78]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

INFORMACIONAL

En este estudio se utilizan diferentes procedimientos de muestreo. Inicialmente, la selección de la muestra se realiza a partir de un muestro no probabilístico e intencional. La captación de los participantes se realiza a partir de anuncios y recomendaciones de amigos y colegas. Este tipo de captación hace que la inclusión de los sujetos se base fundamentalmente en la posibilidad de acceder a los sujetos. No obstante, los investigadores optan por utilizar un criterio para seleccionar a los participantes óptimos; no todos los voluntarios que muestren interés en el estudio serán incluidos en la muestra, sino solo aquellos sujetos que manifiesten que de manera habitual consultan en Internet las opiniones de libros realizadas por otros. Una vez seleccionada la muestra, la composición de cada uno de los grupos de discusión sigue un muestreo homogéneo (muestreo propuesto por Patton, 1990). Tal como recomiendan diferentes autores (Margan, 1997; Edmunds, 1999), los participantes de los grupos de discusión deben tener características similares para lograr un mejor flujo de información y participación de los miembros. Congruentemente, en esta investigación, los participantes son ubicados en diferentes grupos en función de si son estudiantes de grado, estudiantes ya graduados o bien sujetos de la población general.

2.6. RESUMEN

Se entiende por muestreo el procedimiento de selección de sujetos de una población con el fin de formar una muestra. Se distingue entre procedimientos de muestreo probabilístico y no probabilístico. Los procedimientos probabilísticos utilizan la aleatorización para seleccionar a los sujetos. Su objetivo es formar muestras que presenten un sesgo mínimo y permitan la generalización de resultados a la población de origen. Los principales procedimientos son el muestreo aleatorio simple, el sistemático, el estratificado y el de conglomerados. Los procedimientos no probabilísticos se basan fundamentalmente en el criterio del investigador para seleccionar a los sujetos de la muestra. Persiguen la representatividad del colectivo estudiado y conseguir una cierta transferencia de los resultados, pero no en el sentido estadístico. En este capítulo se han presentado las características del muestreo accidental, el intencional, el teórico, por cuotas y por bola de nieve. Determinar el número de sujetos de una investigación es un aspecto que dependerá del tipo de estudio que quiera llevarse a cabo. El tamaño de muestra de los estudios cualitativos suele regirse por cuestiones prácticas y por la saturación informativa. En cambio, en los estudios cuantitativos el tamaño de muestra se determina en función de la precisión que se desee conseguir, del nivel de certeza de que el verdadero valor poblacional se sitúe dentro del intervalo alrededor del resultado obtenido y de la variabilidad de la característica que se pretende medir.


CAPÍTULO

3

LOS ESTUDIOS DE ENCUESTA

3.1. DEFINICIÓN Y ÁMBITO DE APLICACIÓN

La encuesta es una estrategia de investigación que aplica un procedimiento estandarizado con el objetivo de obtener información de una muestra de individuos que represente a una población o subgrupo relativamente amplio. La finalidad de un estudio de encuesta es la de describir, explicar o bien predecir determinadas características de una población. De la anterior definición es importante destacar los siguientes puntos: Orientación a la consecución de unos objetivos previamente formulados. Estos objetivos pueden responder a una mera descripción de la situación a valorar (encuestas descriptivas) o bien ir más allá e intentar encontrar explicaciones a la situación estudiada (encuestas explicativas), o incluso predecir cómo esta situación se desarrollará en el futuro (encuestas predictivas). Recogida de datos estandarizada a través de la construcción de un instrumento de recogida de datos que se administrará procurando mantener las mismas condiciones para todos los individuos participantes en la encuesta. Obtención de información estandarizada a través de la respuesta a las mismas preguntas de todos los participantes. Las preguntas se formularán de igual manera para todos, en el mismo orden y preferentemente manteniendo la misma forma de administración (con intervención de un entrevistador o de forma autoadministrada). De esta manera, se asegura que las respuestas puedan compararse. Creación de un instrumento de recogida de datos a medida, el cuestionario, que permitirá obtener la información de manera estandarizada. El cuestionario va a permitir obtener tanto datos cuantitativos (valores numéricos sobre conductas, valoraciones, hechos concretos, etcétera) como cualitativos (opiniones, observaciones, etcétera) sobre los aspectos que respondan a los objetivos planteados en la investigación.


180)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

Representatividad de las respuestas, puesto que el cuestionario se administrará a una muestra seleccionada con el fin de que esta sea representativa (véase capítulo 2) del conjunto de la población. En el ámbito de la información y documentación, la encuesta es el método que con mayor frecuencia se ha utilizado en los estudios empíricos del área. Así lo demuestra el análisis secundario que Delgado López-Cózar (2000) realiza de las revisiones bibliográficas que describen los métodos de investigación empleados en los últimos treinta años del siglo xx. Igualmente, en el estudio del comportamiento informacional el cuestionario ha sido el enfoque metodológico más utilizado a la vista de las revisiones de Julien y Duggan (2000), Hider y Pymm (2008) y Julien, Pecoskie y Reed (2011 }. A grandes rasgos se observa que muchos de los estudios valoran las opiniones de usuarios, su satisfacción, conductas, intereses, etcétera, en determinados contextos y situaciones (Nicholas, Rowlands, Clark, Huntington, Jamali y Olle, 2008; Parthasarathy y Bhattacherjee, 1998; Dickerson, Reinhart, Feeley, Bidani, Rich, Garg, y Hershey, 2004; Sheehan, 2002; Smith-Mclallen, Fishbein, Hornik, 2011 ). Otros, en cambio, pretenden conseguir evidencia empírica sobre aspectos de la práctica y el desarrollo de distintas profesiones, en especial la de académicos y investigadores (Curtís, 1997; Brown, 1999; Borrego, Anglada, Barrios y Camellas, 2007; Jamali y Nicholas, 2008; Andrews, Pearce, Ireson y Lave, 2005; Baldwin y Rice, 1997; Dalton, y Charnigo, 2004). A pesar de la abundancia de estudios basados en la encuesta, en el ámbito del comportamiento informacional, la aplicación de esta técnica no ha estado exenta de críticas, principalmente por la falta de rigor con la que se han realizado algunos estudios. En este sentido, Menzel, ya en el año 1966, describía el hecho de que algunos investigadores tenían buenas ideas, pero al desarrollar la metodología obtenían resultados de dudosa fiabilidad y validez debido a diversas carencias metodológicas como, por ejemplo, muestreos incorrectos que ponían en duda la posterior generalización de resultados. A este respecto, Wilson (1994 ), sin rechazar la vertiente cuantitativa de la investigación, señala que, si se utilizan técnicas cuantitativas, estas deberían estar bien aplicadas en cuanto a la selección de muestras representativas, a la obtención de porcentajes de respuestas aceptables y al uso de técnicas estadísticas multivariantes adecuadas. Por lo tanto, a la vista de las dificultades que a lo largo de la historia de los estudios de usuarios ha encontrado la aplicación de la encuesta, antes de optar por ella es necesario asegurar el máximo rigor en su planteamiento y valorar si es la mejor opción para dar respuesta a los objetivos propuestos. En general, un estudio de encuesta permite obtener una gran cantidad de datos de un amplio abanico de individuos en un breve espacio de tiempo. Dado que se trata de un procedimiento estandarizado, los estudios de encuesta permiten com-


3. LOS ESTUDIOSDE ENCUESTA

[81 J

parar los datos recogidos en diferentes momentos temporales y ver su evolución a través del tiempo, examinar cómo el cambio de una situación contribuye a una modificación en las respuestas de los individuos o incluso estudiar un mismo aspecto en áreas geográficas diferentes y analizar sus diferencias. Igualmente al partir de muestras representativas, sus resultados y conclusiones pueden ser generalizados a la población de referencia en condiciones similares y por lo tanto ayudar a tomar decisiones que afectarán a esa población. Por ejemplo, un estudio de encuesta que se lleva a cabo en una biblioteca podría repetirse de manera anual o bianual para valorar la satisfacción de los usuarios con la colección. Sin duda, su análisis permitirá obtener una valoración de la adecuación de la colección a lo largo del tiempo. Si en un momento dado se ha efectuado una inversión importante para aumentar el fondo documental con el fin de ofrecer más variedad y calidad al servicio, el cambio de situación probablemente refleje cambios de actitud y opinión sobre la colección. Los resultados de un estudio de este tipo pueden ser igualmente interesantes para comparar las respuestas de usuarios en diferentes áreas geográficas y comparar, por ejemplo, las respuestas de usuarios de núcleos rurales aislados con otros que pertenecen a núcleos urbanos. Sin embargo, antes de optar por el uso de esta técnica hay que tener en cuenta las características de la población que se quiere estudiar. Dado que los datos se obtienen a partir de la información proporcionada por un grupo de individuos, se hace imprescindible que estos posean determinadas competencias lingüísticas y, en concreto, que sean capaces de comprender el cuestionario y que tengan capacidad suficiente para elaborar y articular respuestas orales o escritas. Así, no es aconsejable llevar a cabo este tipo de estudios en poblaciones con dificultades en la comunicación verbal, como niños, personas analfabetas o con escasas capacidades lingüísticas. Por otra parte, tal y como se expondrá a lo largo del capítulo, los datos que se obtengan a través de una encuesta estarán condicionados tanto por la formulación de las preguntas como la forma de administración del cuestionario y por el efecto del entrevistador en el caso de encuestas personales cara a cara. Estos aspectos influirán en la validez de los datos, así como en la veracidad de las respuestas emitidas por los participantes. El objetivo será reconocer y minimizar el efecto de estos aspectos a partir de una redacción metódica y minuciosa de las preguntas, así como de la selección y entrenamiento cuidadoso del entrevistador en el caso de que intervenga. Las ventajas e inconvenientes concretos de un estudio de encuesta variarán, entre otros aspectos, en función de la forma de administración del cuestionario que se aplique, por lo que en los siguientes apartados se profundizará en los pros y en los contras de cada método de administración.


(82]

MÉTODOS Y Tf:CNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

3.2. FASESY PRINCIPALESELEMENTOSEN UN ESTUDIO DE ENCUESTA

Llevar a cabo un estudio de encuesta requiere seguir un proceso estandarizado que se repite independientemente del ámbito de estudio o de la situación que se pretende analizar. Tal y como se ha expuesto en el primer capítulo, un estudio de encuesta compartirá con otras técnicas de investigación algunas de las fases del diseño del estudio: el planteamiento del problema a investigar, la revisión de la literatura, el desarrollo de objetivos, la formulación de la hipótesis y la selección de una muestra. El primer paso será el planteamiento del problema. Aquí se explicita qué es lo que se quiere estudiar, lo que ayuda a concretar y definir el correcto diseño del estudio. El siguiente paso obligado será la revisión de la literatura para valorar los antecedentes sobre la situación planteada, trabajos que han estudiado situaciones similares o bien trabajos no directamente relacionados con el tema a tratar pero que ayudan a concretar, orientar y estructurar tanto teórica como metodológicamente el estudio. La revisión de la literatura cumple con un doble propósito: por una parte, permite un mayor conocimiento de la situación, descubriendo lagunas o interrogantes que han dejado los estudios previos y evitar ser redundantes en aspectos que son bien conocidos y ya han sido tratados en profundidad; por otra parte, la revisión de la literatura facilita la generación de ideas para proceder en las siguientes fases del estudio, la selección de la muestra, la concreción de las dimensiones a tratar en el cuestionario, la redacción de preguntas, etcétera. Vale la pena enfatizar la importancia que tiene revisar otros cuestionarios de estudios previos, con el fin de basarse en instrumentos que han demostrado su eficacia o bien para evitar cometer los mismos errores. La fase en la que se desarrollan los objetivos tiene obvias implicaciones para las siguientes fases del estudio: delimitación de la población de referencia, determinar el tipo de estudio, la forma de administración, el diseño del cuestionario, la selección de la muestra, etcétera. Pero es importante resaltar que las preguntas del cuestionario han de llegar a ser la operacionalización de los objetivos que en esta fase se planteen. El diseño del cuestionario debe estar basado en los objetivos del estudio, adecuado a la población que se quiere estudiar y adaptado a la forma de administración que se seleccionará. Una vez se han redactado las preguntas y las categorías de respuesta, se han ordenado y se ha propuesto la mejor presentación de las mismas, es necesario realizar una prueba piloto del cuestionario. La finalidad principal será comprobar que las preguntas son adecuadas y suficientes para dar respuesta a los objetivos planteados en la investigación. Superada la prueba piloto, se está en disposición de iniciar el trabajo de campo, es decir, la fase en la que se recogen los datos a partir de la administración del cuestionario a la muestra de individuos seleccionada.


3. LOS ESTUDIOSDE ENCUESTA

[83J

A medida que se van recogiendo los datos, estos serán introducidos en la base de datos para su depuración y posterior análisis estadístico. El análisis estadístico es evidente que debe ser posterior a la recogida de datos, pero no así su planificación. El plan de análisis de los datos debe llevarse a cabo juntamente con la elaboración del cuestionario. El análisis de la información obtenida a partir de las preguntas del cuestionario debe, de nuevo, asegurar que responde a los objetivos propuestos. El paso final del estudio será la elaboración del informe. Tal como se ha tratado en el primer capítulo, en este informe se presentará la información más relevante del estudio, los resultados obtenidos y las conclusiones que se deriven. A continuación se describe cada uno de estos aspectos siguiendo el orden cronológico en el que lógicamente ocurren. No obstante, tal y como se ha explicado, no se trata de fases independientes, sino que en todo momento están relacionadas. Por ejemplo, no es posible formular las preguntas de un cuestionario sin tener en cuenta el modo en que se administrará o el análisis estadístico que finalmente se llevará a cabo.

3.2.1. Elaboración del cuestionario

El primer aspecto a tener en cuenta en la elaboración de un cuestionario es que este debe reflejar los objetivos que previamente se han planteado. En concreto, se deben identificar los conceptos, conductas, acciones o situaciones implicados en el estudio y traducirlos a indicadores y variables que puedan ser valorados y observados. Se trata de operacionalizar aquello que se pretende medir para que el cuestionario realmente permita valorar y observar aquello que se quiere estudiar. Por ejemplo, si un centro tiene como objetivo estudiar la satisfacción de los usuarios con los servicios que ofrece, lo primero que se debe definir es qué se considera satisfacción y cómo esta puede ser valorada (¿a partir de la calidad percibid a en los servicios?, ¿por su efectividad?, ¿en función del grado de cumplimiento de los objetivos del usuario?, etcétera). Se deberán determinar los aspectos del servicio que son relevantes para el usuario y que determinarán su satisfacción, por ejemplo la flexibilidad en el servicio, su fiabilidad, la precisión, la competencia técnica del personal o la accesibilidad y, por último, determinar la relación que se establece entre el usuario y el servicio (conocimiento del servicio, para qué lo utiliza, con qué frecuencia, etcétera), con el propósito de conocer las razones que pueden explicar los resultados de una mayor o menor satisfacción. Un segundo aspecto que se debe tener en cuenta para una adecuada redacción de las preguntas es la forma en que se administrará el cuestionario. Cada forma de administración tiene una serie de características y estas deben ser tenidas en cuenta a la


[84]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

INFORMACIONAL

hora de redactar las preguntas y las alternativas de respuesta. Por ejemplo, cuando es el propio individuo quien lee y contesta las preguntas sin intervención de un entrevistador, es posible generar preguntas más largas y con más alternativas de respuesta, ya que podrá leer y revisar la pregunta tantas veces como considere. En cambio, cuando el cuestionario es administrado por un entrevistador, justamente se deberán evitar ítems con una redacción larga o con un elevado número de alternativas de respuesta. De esta forma, se evita que el entrevistador deba repetir la pregunta para su correcta comprensión o bien que el encuestado no recuerde alguna de las alternativas de respuesta. Por último, es también necesario considerar las características de la población a la que el cuestionario va dirigido. El vocabulario deberá adecuarse a los sujetos en función del grado de conocimiento que presumiblemente poseen sobre aquello que se pretende valorar. No será lo mismo dirigirse a profesionales que al público en general. Otras características, como la edad o el nivel de estudios, también determinarán la manera en que deberán formularse las preguntas. 3.2.r.r.

TIPOLOGÍA Y GENERACIÓN DE PREGUNTAS DE UN CUESTIONARIO

Existen dos grandes categorías de preguntas de un cuestionario o ítems: abiertos y cerrados. Los ítems abiertos son aquellos en los que no existen alternativas de respuesta y el sujeto debe elaborarla. Dentro de los ítems abiertos se distinguen dos tipos: los ítems de respuesta restringida, en los que se solicita normalmente un dato concreto, y aquellos de respuesta extensa, en los que se requiere que el sujeto exponga de manera más o menos amplia su respuesta (cuadro 6). Cuadro 6. Ejemplo de preguntas abiertas

Respuesta restringida

Indique su fecha de nacimiento: __ / __ / ___ _

Respuesta extensa

¿Cuáles son las razones principales por las que no usa el servicio de préstamo?

Las principales ventajas de los ítems abiertos son que permiten obtener una información más rica y extensa evitando el posible sesgo del investigador cuando genera las alternativas de respuesta en un ítem cerrado. Como los participantes pueden expresarse libremente sin estar limitados a unas determinadas alternativas de respuesta, existe una menor reactividad a la pregunta. En este caso, los participantes no sienten que deben encasillarse en una alternativa de respuesta que quizá no logra expresar todos los matices de su opinión. Las preguntas abiertas son muy útiles en los estudios exploratorios, cuando no se tiene suficiente conocimiento de


3. LOS ESTUDIOSDE ENCUESTA

[85]

las posibles respuestas de los encuestados para generar las alternativas de respuesta de un ítem cerrado. No obstante, las preguntas abiertas tienen más tendencia a dejarse en blanco, sobre todo en los cuestionarios autoadministrados (Groves, Dillman, Eltinge y Little, 2002). Son preguntas que requieren un mayor esfuerzo, dado que el sujeto debe organizar las ideas y expresarlas en un orden y manera coherente. Se observa que con frecuencia desencadenan respuestas poco ajustadas a lo que se pregunta debido a errores en la interpretación del ítem (Fowler, 2002). Desde el punto de vista del investigador, este tipo de preguntas son también más difíciles de interpretar y codificar, puesto que, para analizarlas se requiere la creación de categorías de respuesta que resuma las diferentes aportaciones del conjunto de participantes. Los ítems cerrados son aquellos en los que el investigador genera las alternativas de respuesta y el sujeto solo debe marcar cuál o cuáles de las opciones se adecua más a su postura. Es necesario que las alternativas de respuesta sean exhaustivas (contemplen todo el abanico de respuestas posibles) y mutuamente excluyentes (las alternativas de respuesta no deben solaparse unas con otras, salvo que se trate de una pregunta de elección múltiple). Existe una amplia variedad de posibilidades en la redacción de los ítems cerrados, la tabla 1O recoge algunas de ellas. Al contrario de lo que se ha comentado sobre los ítems abiertos, los ítems cerrados suponen un menor esfuerzo para el encuestado dado que las alternativas de respuesta ya están construidas y tan solo necesita escoger una o varias de las opciones. Igualmente, para el investigador representa una interpretación fácil y rápida de las respuestas, así como un análisis estadístico más sencillo. Sin embargo, el hecho de dar por cerradas unas determinadas alternativas de respuesta puede provocar, por un lado, no recoger toda la información sobre aquello que se pretende estudiar y, por otro, una mayor reactividad del encuestado. De hecho, al proporcionar las diferentes posibilidades de respuesta se le obliga al sujeto a ceñirse a unas cuantas opciones que pueden no contemplar su verdadera postura. Si la opinión del sujeto no está contemplada como una alternativa de respuesta, será una información que no podrá ser recogida (sobre lo que no se pregunta, no podrá ser contestado) y el sujeto puede sentirse frustrado por no poder expresar su opinión. Otro aspecto que debe tenerse en cuenta es que la presencia de unas alternativas concretas puede influir en la respuesta del encuestado.


[86]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIO~AL

Tabla 10. Ejemplos de preguntas cerradas de un cuestionario ELECCIÓN DICOTÓMICA

¿Para realizar su trabajo de bibliotecario cree necesario conocer las necesidades de información de los usuarios? D Sí D No ELECCIÓN POLICOTÓMICAESCALAR

¿Con qué frecuencia visita la biblioteca? D D D D D D

Cada día Al menos una vez a la semana Al menos una vez cada quince días Al menos una vez al mes Al menos una vez cada seis meses De manera muy esporádica (una vez al año o menos)

ELECCIÓN POLICOTÓMICA DE ELECCIÓN MÚLTIPLENO ESCALAR

¿Cuáles han sido los motivos principales para visitar la biblioteca? (marque tantas opciones como considere) D D D D D D D

Consulta del catálogo Consultar dudas con el bibliotecario Utilizar el ordenador Hacer fotocopias Utilizar el espacio de la biblioteca para estudiar Solicitar o devolver un documento en préstamo Otros motivos, especificar:

ESCALASGRADUADAS:LIKERT

¿En qué grado considera útil el curso? (1: poco útil, 7: muy útil) D 1

D 2

D 3

D 4

D 5

D 6

D 7

ESCALASGRADUADASDE ACUERDO

Considero que el curso ha sido útil: D D D D D D D

Absolutamente de acuerdo Bastante de acuerdo Ligeramente de acuerdo Indiferente Ligeramente en desacuerdo Bastante en desacuerdo Absolutamente en desacuerdo

ESCALASGRADUADASDE FRECUENCIA

¿Cuando accede a la página web de la biblioteca utiliza el buscador? D D D D D

Siempre Usualmente Bastantes veces Raramente Nunca he utilizado el buscador


1871

3. LOS ESTUDIOSDE ENCUESTA

3.2.1.2.

RECOMENDACIONES

PARA LA REDACCIÓN DE LAS PREGUNTAS

Antes de pasar a la fase de redacción de las preguntas es muy recomendable revisar otros cuestionarios que traten el mismo tema o similar y que sirvan de guía para la redacción de las preguntas. En la mayoría de manuales que tratan el diseño de cuestionarios se encuentran múltiples recomendaciones para mejorar la redacción de preguntas y respuestas (Dillman, 2007; Foddy, 1993; Fowler, 1995, 2002; Graves, Fowler, Couper, Lepkowski, Singer y Tourangeau, 2004 ). A continuación se detallan algunas de estas recomendaciones referidas tanto a ítems abiertos como cerrados. <1111

<1111

Utilizar una redacción sencilla. Redactar las preguntas de manera breve pero evitar un lenguaje telegráfico que pueda provocar confusión en la respuesta. Por ejemplo, un ítem como el siguiente podría interpretarse de diferentes maneras puesto que no se especifica si se está preguntando por la ciudad de residencia, por la ciudad dónde nació o la ciudad donde trabaja: Ciudad: _______ _ La siguiente redacción más precisa ayudaría a evitar errores de interpretación: Indique la ciudad donde reside: ________ _

<1111

<1111

Utilizar un lenguaje adecuado a las personas a las que va dirigido el cuestionario. Evitar un lenguaje técnico y especializado si el cuestionario va dirigido a usuarios y reservar un lenguaje más preciso cuando los sujetos sean profesionales con conocimientos amplios sobre el tema que se aborda. Evitar términos abstractos que pueden ser interpretados de manera diferente por los individuos (joven, grande, muy frecuente, caro, mucho, etcétera). El siguiente ejemplo indica la ambigüedad de este tipo de términos, en este caso recientemente para un sujeto puede indicar hace una semana, mientras que para otro puede abarcar los últimos meses. ¿Ha solicitado algún libro en préstamo recientemente? La pregunta puede ser fácilmente mejorada si se especifica un periodo de tiempo concreto. ¿Ha solicitado algún libro en préstamo en el último mes?

<1111

Formular preguntas en las que solo se pregunte una cosa a la vez. Por ejemplo, el siguiente ítem no sería adecuado dado que se pregunta por dos cosas distintas al mismo tiempo y, en cambio, solo se puede emitir una única respuesta.


(88)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

INFORMACIONAL

Valore la utilidad y la calidad de la formación recibida en el curso: 1 2 3 4 5 6 7

DO

D

D

D

D

D

En estos casos se recomienda realizar dos preguntas diferentes con el fin de que el participante pueda dar su opinión para cada uno de los aspectos por separado. <111 Evitar utilizar condicionales o preguntar sobre aspectos hipotéticos. En el siguiente ejemplo, se observa que en primer lugar se tiene que dar el caso que la persona utilice la biblioteca para poder contestar la pregunta: En el caso de que utilices la biblioteca ¿con qué frecuencia utilizas el servicio de préstamo de documentos (libros, revistas, DVD, cedés, etcétera)? D D D D D <111

Al menos una vez a la semana Al menos una vez cada quince días Al menos una vez al mes Al menos una vez cada seis meses De manera muy esporádica (una vez al año o menos)

Diseñar la pregunta de manera que permita verificar que se ha leído y se ha intentado contestar la pregunta. En el caso de cuestionarios en que intervenga un entrevistador, es necesario asegurar que este ha registrado todas las respuestas emitidas por el encuestado. En el siguiente ejemplo, formado por una matriz de preguntas, se acepta que el participante deje en blanco algunas, lo cual no permite asegurar que se ha dejado el ítem en blanco por un olvido o despiste o bien porque no aplicaba su respuesta: Valore de 1 a 7 la utilidad que tienen para usted los siguientes recursos (deje en blanco aquellos que no usa) (1: poco útil, 7: muy útil):

Bases de datos Revistas electrónicas Sumarios electrónicos Guías temáticas Guías generales de referencia Prensa digital

1

2

3

4

5

6

7

o o o o o o

o o o o o o

o o o o o o

o o o o o o

o o o o o o

o o o o o o

o o o o o o


1891

3. LOS ESTUDIOSDE ENCUESTA

Este problema tiene fácil solución si se incorpora la opción de «no uso ese recurso» como una alternativa más de respuesta, tal y como aparece en el siguiente ejemplo: Valore de 1 a 7 la utilidad que tienen para usted los siguientes recursos (deje en blanco aquellos que no usa) (1: poco útil, 7: muy útil): No lo uso 2

Bases de datos Revistas electrónicas Sumarios electrónicos Guías temáticas Guías generales de referencia Prensa digital ~

o o o o o o

o o o o o o

3

4

5

6

7

o o o o o o

o o o o o o

o o o o o o

o o o o o o

o o o o o o

Cuando se redacten preguntas de opinión, se debe intentar redactar la pregunta de una forma neutra. Se evitará añadir en el texto de la pregunta alguna consideración positiva o negativa respecto a la respuesta. Por ejemplo, la siguiente pregunta incorpora una opción favorable en su redacción, lo que puede motivar más respuestas favorables: ¿Considera adecuada la oferta de títulos disponibles en la actualidad? D Sí D No Una redacción más neutra podría ser la siguiente: Considera que la oferta de títulos disponibles es: D Muy amplia D Amplia D Suficiente D Reducida D Muy reducida

~

Evitar preguntar sobre aspectos demasiado específicos y solicitar respuestas demasiado detalladas. Por ejemplo, preguntar ¿cuántos libros ha leído en el último año? no sería adecuado. En el caso de que se pregunte sobre aspectos del pasado se deberán proporcionar marcos temporales adecuados para que los individuos puedan recordar con facilidad aquello sobre lo que se les pregunta. Para facilitar


1901

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

INFORMACIONAL

el recuerdo se recomienda ofrecer información adicional sobre la situación que se quiere valorar o bien contextualizar la pregunta. Otra alternativa es realizar varias preguntas sobre el mismo aspecto con el objetivo de ayudar al recuerdo. En cuanto a la redacción de alternativas de respuesta debe considerarse que su número deberá variar en función de la forma de administración seleccionada. A continuación se exponen algunas consideraciones que la mayoría de manuales recomiendan tener en cuenta a la hora de redactar las alternativas de respuesta (Dillman, 2007; Foddy, 1993; Fowler, 1995, 2002; Graves y otros, 2004). ~

~

~

~

Se debe asegurar que las alternativas de respuesta sean exhaustivas, es decir, contemplen todas las posibles opciones de respuesta. En caso de que las alternativas sean múltiples y no sea posible contemplarlas todas, se debe optar por incluir la categoría «otros» y dar la posibilidad de que el encuestado detalle su respuesta. Si solo puede marcar una única opción de respuesta entre las propuestas, es importante asegurar que las diferentes alternativas sean mutuamente excluyentes y no se produzcan solapamientos entre ellas. En el caso de encuestas telefónicas o encuestas en las que intervenga un entrevistador no se aconseja que el número de alternativas sea superior a cinco, con el fin de evitar los efectos de primacía y de recencia (recordar solo las primeras o las últimas opciones). El número de alternativas de respuesta en escalas graduadas debe ser equilibrado, de manera que contenga el mismo número de categorías «positivas» y «negativas». En el siguiente ejemplo se observa un desequilibro entre las alternativas de respuesta a favor de las opciones «positivas»: Indique su grado de satisfacción en relación con los servicios ofrecidos por el centro: O Muy satisfecho O Satisfecho O Más o menos satisfecho O Insatisfecho

~

~

Los adverbios de las escalas graduadas ubicados a uno u otro lado del continuo deben ser complementarios, respetando la correspondencia entre los extremos, sean estos absolutos (siempre/nunca) o no absolutos (muy frecuentemente/muy raramente). Cada alternativa de respuesta solo debe contener una idea o aspecto para ser valorado.


[91)

3. LOS ESTUDIOSDE ENCUESTA

En las escalas graduadas se debe valorar la necesidad de incluir o no un punto central en las respuestas. Si las alternativas de respuesta se han diseñado de manera equilibrada, incluir un punto central en las respuestas (número impar de respuestas) implica que se incorpora una opción de indecisión o de respuesta neutral. En las escalas tipo Likert numéricas, esta opción se indica con el número central de la serie. En las escalas con adjetivos o adverbios graduales la respuesta puede expresarse con diferentes términos: indiferente, indeciso, etcétera (tabla 11 ). Tabla 11. Ilustración del punto central en una escala adverbial y en otra tipo Likert Escala adverbial Totalmente de acuerdo De acuerdo Indeciso En desacuerdo Totalmente en desacuerdo

Escala Likert 1 2

Punto central

3 4

5

.... No existe un acuerdo claro sobre la conveniencia de incorporar una respuesta central. Las personas que realmente no tienen una opinión formada sobre el aspecto que se pregunta se pueden sentir forzadas a decidir, a favor o en contra, y decantarse finalmente por dejar el ítem en blanco. Parece entonces razonable incorporar un punto central cuando el aspecto que se esté valorando presente una gradación en la que puede existir un punto de indecisión. No obstante, se observa que cuando el punto central está presente resulta en un aumento de respuestas neutras, supuestamente porque las personas optan por la vía rápida de responder sin reflexionar demasiado sobre la pregunta o bien por no querer manifestar de manera clara su postura. .... Aplicando la lógica comentada en el punto anterior, en los cuestionarios autoadministrados se desaconseja incluir la opción «no sabe/no contesta», salvo que realmente sea una cuestión que pueda ser desconocida por el que responde. En cambio, en los cuestionarios administrados por un entrevistador, la opción puede incluirse para que, en el caso de que el encuestado la exprese de manera espontánea, esta pueda ser registrada. Las razones son similares a las comentadas en el apartado anterior. La inclusión de la opción «no sabe/no contesta» puede llevar a un aumento de esta respuesta por no querer plantearse la pregunta de manera seria o evitar manifestar su opinión. .... Evitar solicitar «marcar todas las opciones que considere» en los cuestionarios autoadministrados sobre todo si incluyen numerosas opciones de respuesta. En estos casos se observa que los participantes tienden a responder unas cuantas


1921

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL CO.MPORTA.MIEN'TO INFORMACIONAL

alternativas, normalmente a las primeras, y dejan de prestar atención a las siguientes (Dillman, Tortora y Bowker, 1998). En el siguiente ejemplo se presenta una muestra de esta situación: ¿Qué servicios utiliza cuando visita la web de la biblioteca? Marque todos los que considere: D El catálogo D Las revistas electrónicas D Los libros electrónicos D Las bases de da tos D Las guías temáticas D Los gestores de bibliografía D Los enlaces a otras bibliotecas D Pregunta al bibliotecario D La lista de novedades D Los blogs D El préstamo D El préstamo interbibliotecario D Otros 3.2.1.3.

ESTRUCTURA Y DISEÑO DEL CUESTIONARIO

Una vez generadas las preguntas y sus correspondientes alternativas de respuesta, llega el momento de distribuirlas dentro del cuestionario. Lograr diseñar un buen cuestionario en cuanto al orden y estructura de las preguntas es de suma importancia con el fin de minimizar el impacto de la no respuesta, reducir el efecto de la ubicación de la pregunta en su respuesta y, en general, para que el cuestionario parezca interesante, corto y sencillo de contestar. Esto tiene más importancia, si cabe, en el caso de los cuestionarios autoadministrados, en los que no interviene un entrevistador. En estas situaciones, si el diseño del cuestionario resulta atractivo, motivará al encuestado a la lectura de las preguntas, le resultará más sencillo comprender qué es lo que se le pregunta y cómo debe responder. Respecto al orden en que se presentan las preguntas, las iniciales tienen la función de introducir al encuestado en la temática y despertar su interés por participar en el estudio. Cuando en la administración interviene un entrevistador, es recomendable iniciar con una pregunta abierta para romper el hielo. Sin embargo, en los cuestionarios autoadministrados es preferible iniciar con una pregunta simple, cerrada y con pocas alternativas de respuesta. Además, las preguntas iniciales deberían implicar a todos los posibles perfiles de sujetos a los que se dirige el estudio con el fin de evitar


193]

3. LOS ESTUDIOSDE ENCUESTA

que nadie se sienta excluido y rechace contestar al cuestionario debido a que considera que su participación no es pertinente. Las preguntas siguientes serán aquellas que se consideren claves para responder a los objetivos del estudio y aquellas que requieran una reflexión más profunda como, por ejemplo, preguntas de opinión. Por último, si el cuestionario es autoadministrado, es conveniente reservar la última parte para las preguntas sociodemográficas (edad, profesión, situación laboral, nivel de estudios, ingresos, lugar de residencia, etcétera). En algunas ocasiones y para algunos sujetos, las preguntas sociodemográficas pueden resultar incómodas de contestar, por lo que situarlas al final, cuando se ha dejado claro los objetivos que se persiguen con el cuestionario y se han contestado la mayoría de las preguntas precedentes, hace disminuir esta reticencia. Este tipo de preguntas son básicas para estudiar la relación que pueden tener con otro tipo de variables y obtener grupos de comparación (por edad, nivel de estudios, etcétera) o bien generar diferentes perfiles de usuarios que resuman las diferentes respuestas obtenidas. Respecto a la estructura del cuestionario, existen diferentes recursos para conseguir atraer la atención del encuestado. Una estrategia es distribuir secuencialmente las preguntas de manera que formen una batería o una matriz de preguntas que traten sobre cuestiones similares. Estas preguntas se presentan bajo un enunciando común y es posible introducir títulos o breves preámbulos para indicar la introducción de un nuevo tema. Un ejemplo de este tipo de preguntas sería el del cuadro 7. Cuadro7. Ejemplo de matriz de preguntas Valore el grado de adecuación que para usted tienen los siguientes aspectos de la biblioteca (1: poco adecuado, 7: muy adecuado): Iluminación Silencio Climatización

1 D D D

2

D D D

3 D D D

4

D

o o

5 D

o o

6

D D D

7

o o o

La combinación de diferentes formatos de pregunta (abiertas, cerradas de distintos tipos, incorporación de matriz de preguntas, etcétera) ayuda a evitar la monotonía del cuestionario y el cansancio del encuestado, manteniendo su interés y motivación por el estudio. No obstante, se debe ser cauteloso, porque abusar de la diversidad de ítems puede provocar el efecto contrario, y convertir la respuesta al cuestionario en algo desconcertante y falto de unidad. A continuación se exponen de forma resumida otras recomendaciones para el diseño del cuestionario sugeridas por Dillman, Smith y Christian (2009):


[94]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFOR.MACIONAL

<1111

<1111

<1111

<1111

<1111

<1111

<1111

<1111

<1111

<1111

Utilizar un tipo y tamaño de letra que facilite la lectura. El color del papel del cuestionario preferiblemente deberá ser claro y que contraste de manera clara con el color de la letra del texto. Ordenar las alternativas de respuesta en sentido vertical. Identificar las preguntas con un número. Numerar las preguntas de manera secuencial de la primera hasta la última. Proporcionar un espacio adecuado en las preguntas abiertas para que se pueda responder con comodidad. El espacio que se deje para responder será la indicación de la extensión que debe tener la respuesta. Proporcionar las instrucciones para responder a las preguntas en el momento en que sea necesario. En el caso de que el cuestionario lo administre un entrevistador, se deberán resaltar adecuadamente estas instrucciones para que puedan ser identificadas con facilidad por el entrevistador y no las omita por error. Indicar las preguntas filtro (aquellas que en función de su respuesta redirigen a los encuestados hacia la siguiente pregunta que deben contestar) mediante instrucciones claras y si es necesario utilizar elementos gráficos (flechas, líneas, recuadros, etcétera) que ayuden al sujeto a orientarse hacia la siguiente pregunta que debe contestar. Evitar resaltar partes o palabras de las preguntas con negrita o subrayado puesto que dificulta que la pregunta se lea de manera lineal. Leer solo la parte resaltada puede provocar errores en la interpretación de la pregunta. Seguir las leyes de organización perceptiva descritas por los psicólogos de la Gestalt (cuadro 8).

3.2.2. La prueba piloto El cuestionario no puede darse por acabado hasta que haya sido revisado por medio de una prueba piloto. La finalidad de esta prueba piloto es comprobar que el cuestionario tal y como ha sido diseñado es adecuado y consigue dar respuesta a los objetivos planteados. Esta fase puede aprovecharse también para conocer aspectos no suficientemente conocidos por el investigador para posteriormente poder plantearlos por medio de ítems cerrados. Estos aspectos pueden ser explorados a partir de preguntas abiertas en esta fase y a partir de las respuestas de los individuos reformularse en una pregunta cerrada con diferentes alternativas de respuesta. Además, para los cuestionarios administrados por un entrevistador, la prueba piloto en un grupo reducido de sujetos puede servir de entrenamiento.


[95]

3. LOS ESTUDIOSDE ENCUESTA

Cuadro 8. Leyes de organización perceptiva

Ley de proximidad: uso adecuado del espacio entre preguntas y alternativas de respuesta para ayudar a una rápida identificación de las mismas. De esta manera, los elementos que están próximos se perciben como una unidad y se diferencian de aquellos que se encuentran más alejados. Conforme a la ley de proximidad

Disconforme a la ley de proximidad

El uso que hace del equipamiento informático de la biblioteca es de:

1. de D D D D D

D D D D D

Al menos una vez por semana Al menos una vez al mes Al menos una vez cada seis meses Una vez al año o menos Nunca lo ha usado

El uso que hace del equipamiento informático la biblioteca es de: Al menos una vez por semana Al menos una vez al mes Al menos una vez cada seis meses Una vez al año o menos Nunca lo ha usado

Ley de la similitud: uso de atriburos similares (color, forma, tamaño, etcétera) para que los elementos se perciban de manera conjunta. El encuestado, a medida que va rellenando el cuestionario, va aprendiendo que determinados atributos del cuestionario transmiten informaciones diferentes: inicio de una pregunta, lugar donde debe señalar la respuesta, donde puede encontrar instrucciones sobre cómo debe contestar la pregunta, etcétera. En el ejemplo de la izquierda se utilizan diferentes formas, tipos y tamaños de letra para distinguir cada una de las partes de la pregunta, lo que facilita la lectura y la respuesta al ítem.

Conformea la ley de la similitud

Disconforme a la ley de la similitud

Habitualmente utiliza la biblioteca por:

2. Habitualmente utiliza la biblioteca por: (marque tantas opciones como considere) Motivos profesionales Motivos académicos Interés personal Otros motivos. Especificar: ___ _

(marque tantas opciones como considere)

D D D D

Motivos profesionales Motivos académicos Interés personal Otros motivos. Especificar: ___

_

Ley de Pragnanz: las figuras que mantienen una simplicidad, regularidad y simetría son mejor percibidas y recordadas que aquellas que muestran irregularidades o son más complejas. Se puede apreciar que un cuestionario que presentara las preguntas tal como se muestran en el ejemplo siguiente dificultaría la respuesta. En una situación de este tipo el encuestado debe plantearse cada vez cómo están orientadas las alternativas de respuesta y cómo responder a la pregunta. 1. D D D

¿Cuál es el horario habitual en que usa la biblioteca? Mañana Tarde Noche

2. 1. 2. 3. 4.

¿Cuál es el motivo principal de su utilización? Solicitar información Uso del equipamiento informático Consultar las publicaciones periódicas Estudiar

5. 6. 7. 8.

Hacer fotocopias Consultar libros Realizar una búsqueda bibliográfica Otras razones (especificar): ____

¿El motivo por el cual acude a la biblioteca queda satisfecho? ( ) Siempre ( ) La mayoría de las veces ( ) Pocas veces ( ) Nunca

_


196)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

INFORMACIONAL

Algunos de los aspectos que deberán valorarse en una prueba piloto son: <1111

<1111

<1111

<1111

<1111

<1111

<1111

<1111

<1111

Valorar que los encuestados entienden correctamente las preguntas. Asegurar que los encuestados interpretan de la misma manera las preguntas y las alternativas de respuesta. Confirmar que el vocabulario es adecuado para el nivel cultural y el nivel de especialización de los participantes. Comprobar que las respuestas a las preguntas, especialmente en las abiertas, son las esperadas. Verificar que las respuestas muestran suficiente variabilidad. Las preguntas que concentran las respuestas en una o dos alternativas son preguntas que no proporcionarán variabilidad y no permitirán la identificación de diferentes tipologías de usuarios o grupos con comportamientos diferenciales. Es recomendable revisar la redacción o las alternativas de aquellas preguntas que concentran un número importante de respuestas en una sola categoría. Especialmente si esta concentración se observa en un punto central o en la categoría de no opinión. Mediante la siguiente expresión, se puede calcular la preferencia por una alternativa de respuesta: f. Porcentaje de elección = ...!.• 100 n Donde f¡representa la frecuencia de elección de la alternativa de respuesta y n el total de respuestas emitidas. Revisar que el orden o secuencia de las preguntas no afecta a la respuesta de las siguientes preguntas del cuestionario. Comprobar que las instrucciones son las oportunas y necesarias para poder contestar el cuestionario adecuadamente. Valorar el porcentaje de no respuesta de las preguntas. En caso de que algún ítem presente un porcentaje de no respuesta más alto que el resto, se deberán estudiar las causas y replantear la pregunta. Comprobar que la duración del cuestionario es adecuada.

Tras la prueba piloto, será necesario corregir los errores detectados y verificar que los cambios realizados mejoran el cuestionario. Posteriormente será necesario reevaluarlo antes de administrarlo a la muestra definitiva de sujetos. La prueba piloto puede llevarse a cabo de diversas formas. A continuación, se exponen algunas de las más comunes: <1111

Consulta a expertos: los expertos pueden ser personas con una amplia experiencia en la construcción de cuestionarios o ser especialistas en el tema que se


3. LOS ESTUDIOSDE ENCUESTA

<1111

<1111

<1111

[97]

pretende estudiar. El procedimiento que se suele seguir es enviar el cuestionario a un grupo reducido de expertos (tres o cuatro suele ser suficiente), para que lo examinen, y al cabo de unos días, se programa una entrevista individual con cada uno ellos con el fin de que puedan informar de los errores detectados o de las posibles mejoras que pueden ser incorporadas. Grupos de discusión: un grupo de participantes valora la adecuación de las preguntas y detecta posibles dificultades en la cumplimentación del cuestionario. Los miembros de ese grupo pueden ser expertos o sujetos con características similares a la muestra que se pretende estudiar. En el capítulo 7 se trata con más detalle esta técnica, por lo que derivamos al lector interesado en realizar una prueba piloto de este tipo a la lectura de este capítulo. Administración del cuestionario a una muestra reducida de sujetos: es el procedimiento que se emplea con más frecuencia. Consiste en administrar el cuestionario a una muestra reducida que, preferiblemente, comparta las características de la población de referencia que se quiere estudiar. La administración del cuestionario puede realizarse con o sin mediación de un entrevistador, aunque en algún momento deberá llevarse a cabo una prueba piloto siguiendo la misma forma de administración que se pretende llevar a cabo en el estudio. En los métodos autoadministrados, al ser más económicos, es posible aumentar el número de sujetos que participan en la prueba. Esto va a permitir la valoración de aspectos más cuantitativos como la no respuesta al ítem o la variabilidad de las respuestas. Entrevistas cognitivas: consiste en solicitar al participante que verbalice en todo momento los pensamientos que se le pasan por la cabeza mientras está contestando al cuestionario (entrevista cognitiva simultánea). Otra versión de la técnica consiste en que una vez el participante ha contestado el cuestionario se le pide que explique las sensaciones, dificultades o dudas que ha tenido sobre las preguntas del cuestionario y aclare sus respuestas (entrevista cognitiva retrospectiva). Este tipo de entrevista es muy útil para conocer los procesos mentales que experimenta el encuestado en el momento de contestar al cuestionario y permite detectar errores de comprensión de las preguntas. Esta técnica debe llevarse a cabo en laboratorios o entornos controlados, donde puede ser registrada la intervención del entrevistador y el encuestado para posteriormente ser analizada. Por su complejidad y requerimientos este tipo de prueba piloto se realiza con pocos sujetos (unos diez o menos).


1981

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

3.2.3. Administración del cuestionario

Finalizada la prueba piloto, se está en condiciones de iniciar la administración definitiva del cuestionario a la muestra seleccionada. Tal y como se ha avanzado en los anteriores epígrafes, generalmente se distinguen dos formas de administración: cuestionario con intervención de un entrevistador y cuestionario autoadministrado. En los siguientes a parrados se presenta cada uno de ellos. En el caso de las encuestas con intervención del entrevistador se exponen las características principales de las encuestas cara a cara y telefónicas. Dentro de las encuestas autoadministradas se tratan las encuestas por correo tradicional, encuestas web y encuestas en grupo. 3.2.3.1.

CUESTIONARIO

ADMINISTRADO

CON INTERVENCIÓN DE UN ENTREVISTADOR

a) Encuestas cara a cara

En la administración de una encuesta cara a cara interviene un entrevistador, preferentemente con experiencia en este tipo de estudios, con la función de realizar las preguntas y registrar las respuestas. Esta intervención permite acceder a personas cuya participación en un estudio de encuesta puede ser difícil, por ejemplo personas con problemas de audición, vista o problemas de lectura y comprensión. Además, de esta forma será posible tener más certeza sobre que la persona que responde al cuestionario es realmente la persona que inicialmente ha sido seleccionada para participar, aspecto sobre el que nunca se estará completamente seguro cuando el cuestionario sea autoadministrado. El papel que desempeña el entrevistador es de gran importancia para asegurar y aumentar la validez de los datos. Este no puede variar la formulación de la pregunta, pero puede detectar cuándo se comenten errores por la falta de comprensión de las preguntas. Así, en los casos en que el encuestado responda algo que no esté incluido en las opciones de respuesta, el entrevistador puede repetir la pregunta o bien solicitar que aclare su respuesta. El entrevistador puede percibir respuestas contaminadas por otras preguntas, por la presencia de otras personas que pueden hacer variar sus opiniones e incluso detectar si las respuestas parecen sinceras o si la persona está perdiendo interés, se siente cansada o está distraída. Junto con lo anteriormente expuesto, las encuestas cara a cara son una buena alternativa para tratar temas de cierta complejidad o cuestionarios largos con un número extenso de preguntas. Sin duda, la actuación de un entrevistador experimentado proporciona una mayor naturalidad al cuestionario, permitiendo una selección de las preguntas adecuadas en función de las respuestas de los encuestados (las llamadas preguntas filtro), reduciendo así el tiempo de la entrevista. No obstante, se debe tener en cuenta que la misma presencia


3. LOS ESTUDIOSDE ENCUESTA

[99)

del entrevistador puede provocar que la persona emita respuestas estereotipadas o socialmente aceptadas ante determinadas cuestiones. Comparadas con otras formas de administración, las encuestas cara a cara son las que presentan un mayor porcentaje de respuesta. Principalmente, el contacto visual que se genera entre el entrevistador y el encuestado aumenta la motivación a contestar y hace menos probable que este abandone la encuesta. A la hora de plantear un estudio mediante una administración cara a cara, es importante tener en cuenta cómo se va acceder a la muestra, el calendario previsto para el estudio, el presupuesto ylos medios humanos y materiales con los que se contará. Si la muestra está dispersa en el territorio, repercutirá en el tiempo para completar el estudio, así como en el coste económico. Para reducir el impacto de esta dispersión geográfica de la muestra es posible optar por un muestreo por conglomerados. No obstante, si el estudio tiene limitaciones presupuestarias y/o es necesario recabar los datos con cierta celeridad, se desaconseja utilizar esta forma de administración y optar por medios no presenciales, como la encuesta telefónica o bien formas autoadministradas como la encuesta por correo o electrónica. En el cuadro 9 se resumen las principales ventajas y desventajas de las encuestas cara a cara. Cuadro 9. Ventajas y desventajas de las encuestas cara a cara

VENTAJAS

• • • • • •

Es posible acceder a determinados colectivos cuya colaboración sería inviable por otros medios. El papel del entrevistador evita errores provocados por la comprensión de preguntas y posibilita la congruencia de las respuestas. Presenta un mayor porcentaje de respuesta total y al ítem. Permite tratar temas complejos. Permite diseñar cuestionarios más extensos. Es posible obtener información sobre la conducta no verbal y sobre aspectos que rodean a la administración del cuestionario.

DESVENTAJAS

• • • •

Aumenta los costes económicos del estudio. Aumenta el tiempo para la recogida de datos. La presencia del encuestador puede provocar respuestas estereotipadas o socialmente aceptadas. Posibilidad de cometer errores en la transcripción de los datos.

b) Encuestas telefónicas

Este tipo de encuestas son similares a las administradas cara a cara, aunque en este caso no de manera presencial sino por teléfono. No obstante, las particularidades del medio en que se desarrollan estas últimas hacen que deban considerarse aspectos referidos al diseño del cuestionario y a la posible participación de algunos colectivos.


(100]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

Cuadro 10. Ventajas y desventajas de las encuestas telefónicas

VENTAJAS

• • • • •

Presentan un menor coste económico que las encuestas cara a cara. Posibilidad de obtener los datos del estudio en un breve periodo de tiempo. Facilidad en acceder a los individuos a pesar de que la muestra esté dispersa por el territorio. El papel del entrevistador permite evitar errores provocados por la comprensión de preguntas y posibilita la congruencia de las respuestas. Presenta un porcentaje de respuesta total y al ítem adecuado, aunque menor que las encuestas cara a cara.

DESVENTAJAS

• • • •

No es aconsejable utilizar cuestionarios largos. La presencia del encuestador puede provocar respuestas estereotipadas o socialmente aceptadas, aunque en menor medida que en la encuesta cara a cara. Posibilidad de cometer errores en la transcripción de los datos. No es posible obtener información sobre la conducta no verbal u otros aspectos que rodean la administración del cuestionario.

En este sentido, es evidente que en las encuestas telefónicas no es posible proporcionar ayudas visuales para facilitar el recuerdo de las alternativas de respuesta, por lo que será necesario evitar preguntas excesivamente largas y complejas o bien con un número elevado de alternativas de respuesta. Por otra parte, se debe tener en cuenta que las personas que presenten problemas auditivos, problemas de comprensión o dificultad para la comunicación oral serán más reacias a colaborar en el estudio. En comparación con la encuesta cara a cara, el uso de encuestas telefónicas permite reducir los costes del estudio y es posible una recogida de datos mucho más rápida. En este sentido, deja de tener importancia el hecho de que la muestra esté dispersa por el territorio y los gastos por desplazamiento y dietas desaparecen. Aunque el porcentaje de respuesta es menor que en las encuestas cara a cara, las encuestas telefónicas permiten aumentar el número de contactos hasta conseguir localizar a los sujetos sin incrementar excesivamente los costes del estudio (Dillman y otros, 2009). Con el fin de disminuir la no respuesta, no se aconseja el uso de cuestionarios largos. Mientras que una duración de veinte minutos puede ser adecuado para una encuesta cara a cara, para una encuesta telefónica se considera excesiva. Antes de decantarse por esta forma de administración es importante comprobar previamente que el marco muestral disponible posibilita llevar a cabo el estudio. Por ejemplo, no sería adecuado plantear una encuesta telefónica a los usuarios de una biblioteca cuando los datos de que se dispone sobre sus números de teléfono no están actualizados o son incompletos. En el caso de que el marco muestra! esté actualizado resulta relativamente sencillo utilizar técnicas de muestreo probabilísticas. Los costes del estudio no se verán aumentados aunque exista una dispersión de la muestra por el territorio, por lo que


3. LOS ESTUDIOSDE ENCUESTA

11011

será posible un muestreo aleatorio simple o sistemático, sin necesidad de recurrir a un muestreo por conglomerados. En la cuadro 1O se resumen las ventajas y desventajas de las encuestas telefónicas. Las características de las encuestas cara a cara y telefónicas hacen que estén más expuestas a presentar sesgos en sus respuestas. Aspectos como el hecho de administrarse oralmente, la intervención de un entrevistador para recoger los datos y que el sujeto deba contestar al cuestionario en un espacio de tiempo y lugar concreto, entre otros, afectan a la calidad de la respuesta. En concreto, los efectos de primacía y de recencia, aquiescencia y deseabilidad social tienen un peso más importante en este tipo de encuestas que en las encuestas autoadministradas (Tourangeau, Rips y Rasinski, 2000). A continuación se comentan estos tres tipos de efectos. En este tipo de encuestas es más evidente el llamado efecto de primacía y de recencia a la hora de escoger las categorías de respuesta. En estos casos, en que no es posible la utilización de ayudas visuales, se observa que es más frecuente la selección de las primeras o últimas alternativas de respuesta, por un efecto de recuperación de la información en memoria. Así, las alternativas de respuesta que se perciben en primer o último lugar son recordadas mejor que las intermedias, por lo que tendrán más probabilidades de ser seleccionadas por los individuos. Una manera de evitar este fenómeno es reducir el número de alternativas de respuesta con el fin de que todas puedan ser recordadas. Un segundo aspecto que se observa en este tipo de encuestas es el llamado efecto de aquiescencia,que se refiere a la tendencia de algunos sujetos a mostrar acuerdo (o desacuerdo) con aquello que se pregunta independientemente del contenido del ítem (Lavrakas, 2008). En este sentido, la redacción cuidadosa de la pregunta y de las alternativas de respuesta se ha observado que puede ayudar a paliar este fenómeno (Lepkwski, 2008). Un último aspecto que se observa aumentado es el efecto de la deseabilidad social. En concreto se observa que existe una mayor tendencia de algunos sujetos a contestar de una manera más socialmente aceptada en comparación con su postura real. Los entrevistados pueden proyectar una imagen más favorable de ellos mismos con el fin de evitar una evaluación negativa por parte del entrevistador (Lavrakas, 2008). De nuevo, una redacción meticulosa de los ítems junto con un adecuado entrenamiento del entrevistador para evitar su influencia puede ayudar a conseguir que las respuestas sean más sinceras. 3.2.3.2.

CUESTIONARIO AUTOADMINISTRADO

a) Encuestas por correo La encuesta por correo implica enviar a los sujetos de la muestra, por medio del correo postal, una carta de presentación, el cuestionario, las instrucciones para cum-


1102)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACJO:,.¡AL

plimentarlo, así como un sobre para remitir de vuelta el cuestionario contestado. La finalidad es que el sujeto, cuando reciba la información, cumplimente el cuestionario de manera autónoma, sin la presencia del entrevistador y lo remita de nuevo al investigador. El hecho de ser un método autoadministrado lo hace una alternativa económica. Se elimina el gasto del entrevistador, aunque se añade el gasto de las copias del cuestionario, sobres y correo postal. La no presencia del entrevistador hace imposible conocer en qué situaciones se ha contestado el cuestionario (ruido, distracciones, influencia de otras personas, etcétera) e impide la resolución de dudas o aclaración de las preguntas. No obstante, un cuestionario autoadministrado puede reforzarse con ayudas visuales (figuras, imágenes, gráficos, fotografías, etcétera) que ayuden a la comprensión o que faciliten el recuerdo sobre aquello que se pregunta. Para facilitar la comprensión se recomienda una redacción clara y sencilla de las preguntas, así como la incorporación de ítems cerrados evitando una presencia excesiva de preguntas abiertas. En estos casos, con frecuencia se observa que las preguntas abiertas acaban siendo inútiles para la investigación porque el sujeto interpreta mal la pregunta y contesta de manera incorrecta o de forma no adecuada a aquello que se le preguntaba. Sin duda, el mayor inconveniente de este tipo de encuesta es el alto porcentaje de no respuesta al cuestionario y al ítem. Aunque es difícil conocer las causas de la no respuesta, Groves y otros (2002) asocian distintas características de los sujetos como responsables de la baja participación. Se observa que aquellos individuos con un bajo nivel cultural y educativo, mayor edad o aquellos que se consideren poco relevantes para el estudio presentarán un mayor porcentaje de no respuesta. Dado que las encuestas por correo muestran un porcentaje de no respuesta más alto que otras formas de administración (Groves y otros, 2002), es necesario realizar varios recordatorios a aquellos que no responden, para evitarla y lograr un porcentaje de respuesta suficiente. Esto último implica disponer de más tiempo para completar y recabar los datos de la investigación. Una ventaja clara de esta forma de administración es la sensación de privacidad que percibe el sujeto sobre sus respuestas. El encuestado puede completar el cuestionario cuando considere y dedicarle el tiempo que necesite para reflexionar sobre las preguntas, sin necesidad de compartirlas con el entrevistador. Tal como indica Dillman (2007), la no presencia del encuestador hace que en este tipo de encuestas se consigan respuestas más sinceras y se vean menos afectadas por el fenómeno de la deseabilidad social. En el cuadro 11 se presentan las principales ventajas y limitaciones de las encuestas por correo postal.


3. LOS ESTUDIOSDE ENCUESTA

[103]

Cuadro 11. Ventajas y desventajas de las encuestas por correo postal

VENTAJAS

• • • • • • • •

Menor coste económico respecto a los métodos en que interviene un entrevistador. Facilidad de acceder a los individuos a pesar de que la muestra esté dispersa en el territorio. Posibilidad de incorporar ayudas visuales que faciliten la comprensión. Permite un número más elevado de alternativas de respuesta y preguntas más largas. Permite una mayor reflexión en las respuestas. Mayor sensación de privacidad de las respuestas. Mayor sinceridad en las respuestas y menor deseahilidad social. Posibilidad de aumentar el número de contactos sin aumentar el coste del estudio.

DESVENTAJAS

• • • • • • •

Imposibilidad de obtener información sobre cómo y quién ha rellenado el cuestionario. Imposibilidad de aclarar dudas o precisar las respuestas. Mayor porcentaje de respuesta total y al ítem. Mayor no respuesta a preguntas abiertas. Mayor presencia de respuestas ininteligibles en las preguntas abiertas. Posibilidad de errores en la transcripción de los datos en la fase de codificación de datos. Es necesario más tiempo para conseguir un porcentaje de respuesta adecuado.

b) Encuestas web Las encuestas web son aquellas en las que se envía generalmente por correo electrónico una invitación para participar en el estudio junto con un enlace para acceder al cuestionario. Además de los aspectos que se han comentado en el apartado anterior sobre las encuestas por correo postal, esta forma de administración presenta algunas propiedades que la caracterizan. Respecto a las encuestas por correo tradicional, se economiza aún más el proceso del estudio. En este sentido, no es necesario imprimir el cuestionario y este se puede diseñar, si se prefiere, utilizando algún tipo de software específico. Una de las ventajas más destacadas es la posibilidad de acceder a los datos en tiempo real. La entrada de datos es automática, dado que, a medida que el sujeto contesta el cuestionario, las respuestas se incorporan en la base de datos. De esta manera, el acceso a los datos es mucho más rápido y se evitan posibles errores de transcripción. Este tipo de encuesta se distingue por su flexibilidad en el diseño. Permite incorporar ayudas gráficas complejas que faciliten la comprensión, tales como imágenes, vídeos, fotografías, etcétera, así como flexibilizar el orden de las preguntas y que estas aparezcan en función de las respuestas previas (preguntas filtro). En este sentido, aunque se diseña un único cuestionario, el orden o las preguntas que visualice cada participante pueden variar en función de sus respuestas. Esta flexibilidad resulta atractiva porque el diseño del cuestionario puede ayudar a reducir errores producidos por falta de comprensión en las preguntas o bien a la


[104]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

hora de responder a las cuestiones. En este sentido, se puede tener un mayor control sobre las respuestas si el cuestionario se diseña para que solo acepte determinadas respuestas como válidas o bien solo se permita señalar una única respuesta por pregunta. Por ejemplo, en un estudio sobre usuarios de una biblioteca universitaria, cuando se pregunta sobre la edad, se pueden acotar los años a la franja de edad que se considere válida, evitando respuestas que no se adecuen a la muestra estudiada. En comparación con los cuestionarios autoadministrados en papel, las encuestas web permiten, entre otros, reducir los errores producidos por la selección de más de una alternativa de respuesta (cuando se solicitaba optar por una única respuesta) y descartar respuestas por caligrafías ininteligibles en las preguntas abiertas (lo que provocaría un aumento de la no respuesta al ítem). A partir de las encuestas web es posible acceder a información adicional mediante el estudio de los ficheros log. Concretamente, los ficheros log permiten conocer cuántas personas han accedido al cuestionario, cuántas han abandonado tras contestar unas pocas preguntas o incluso qué pregunta o preguntas provocan un mayor abandono del cuestionario. A partir de los ficheros log se puede saber cuál es el promedio de tiempo para contestar a las preguntas, cuándo contestan (día, hora, etcétera), desde dónde contestan, etcétera. Estos aspectos pueden aportar información adicional sobre la validez de los datos. Por ejemplo, si para responder adecuadamente el cuestionario son necesarios unos diez minutos, podemos sospechar de la calidad de aquellos cuestionarios que han sido contestados en un tiempo demasiado breve. Probablemente, estos cuestionarios correspondan a participantes que contestaron de manera inapropiada, sin el suficiente interés y sus respuestas no proporcionen datos válidos para el estudio. Sin duda, las encuestas web presentan características muy atractivas, lo que ha provocado que en los últimos años se observe un aumento exponencial en su uso (Barrios, Cosculluela y Tubany, 2008). No obstante, hay que destacar que la aplicación de esta forma de administración está supeditada a las características de la población del estudio. En este sentido, si la penetración de Internet en la población de referencia es medio-baja o su conocimiento del medio es limitado, se desaconseja este tipo de administración. Además, otro aspecto que debe tenerse en cuenta es asegurar el correcto acceso a la encuesta independientemente de la plataforma o sistema operativo que use cada participante. En algún momento del proceso será necesario verificar que todos los sujetos puedan acceder a la misma información. Este tipo de encuesta, al igual que en el caso de las encuestas por correo postal, también se caracteriza por tener un alto porcentaje de no respuesta total. En este caso, se intensifica el problema por cuestiones de abuso del recurso, el correo basura y el miedo a los virus informáticos. Algunas investigaciones sostienen que este tipo de encuestas presentan incluso un peor porcentaje de no respuesta total en comparación con las encuestas por correo postal (Hayslett y Wildemuth, 2004; Manfreda, Bosn-


3. LOS ESTUDIOSDE ENCUESTA

[105]

jak, Berelak, Haas y Vehovar, 2008; Wolfe, Converse y Oswald 2008). Sin embargo, otros trabajos indican que en determinadas condiciones y cuando se conoce que la población destinataria presenta una buena penetración de Internet, las encuestas vía web pueden conseguir un mayor porcentaje de respuesta (Barrios, Villarroya, Borrego y Ollé, 2011; Millar y Dillman, 2011; Kiernan, Kiernan, Oyler y Gilles, 2005). En el cuadro 12 se presentan las principales ventajas y desventajas de las encuestas web. Cuadro 12. Ventajas y desventajas de las encuestas web VENTAJAS

• • • • • • • • •

Menor coste económico respecto a los métodos en que interviene un entrevistador. Facilidad para acceder a los individuos a pesar de que la muestra esté dispersa en el territorio. Posibilidad de incorporar ayudas visuales complejas que faciliten la comprensión. Alta flexibilidad en el diseño del cuestionario y posibilidad de acotar las respuestas. Mayor sensación de privacidad de las respuestas. Mayor sinceridad en las respuestas y menor deseabilidad social. Posibilidad de aumentar el número de contactos sin aumentar el coste del estudio. Acceso a información adicional mediante el estudio de los ficheros log. Los errores de transcripción de los datos desaparecen.

DESVENTAJAS

• • • • •

Mayor posibilidad de que algunos sujetos queden excluidos del estudio por su falta de acceso al medio (error de cobertura). Imposibilidad de obtener información sobre cómo y quién ha rellenado el cuestionario. Imposibilidad de aclarar dudas o precisar las respuestas. Mayor no respuesta total por abuso del recurso, el correo basura y el miedo a los virus informáticos. Es necesario más tiempo para conseguir un porcentaje de respuesta adecuado.

e) Encuestas en grupo

Este tipo de administración se caracteriza por la reunión de un grupo de sujetos en un momento y lugar concreto con el fin de que contesten a la vez el cuestionario de manera autoadministrada. Durante la administración, un entrevistador está presente para explicar los objetivos del estudio, las instrucciones para rellenar el cuestionario y está disponible para resolver dudas y aclarar preguntas. Este tipo de administración garantiza un alto porcentaje de respuesta total, dado que, una vez las personas se encuentran en el lugar donde se administrará el cuestionario, raramente rechazan colaborar. Aunque interviene un entrevistador, el hecho de que la administración sea colectiva reduce el coste económico del estudio respecto a las encuestas cara a cara o por teléfono. Se ha de señalar que, en los casos en que el individuo deba trasladarse para contestar al cuestionario, provocará un sesgo en la composición de la muestra, la cual estará formada básicamente por individuos altamente motivados por el estu-


[1061

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIOJSAL

dio. De hecho, es frecuente que los estudios de encuestas en grupo utilicen muestras accidentales, lo cual impide conocer la representatividad de esta muestra respecto a la población. Sin duda, la encuesta en grupo comparte buena parte de las ventajas comentadas en apartados anteriores con los métodos autoadministrados (privacidad de las respuestas, posibilidad de incorporar ayudas visuales, bajo coste, menor efecto por la mediación del entrevistado), y en aquellos en que interviene un entrevistador (evita errores por fallos en la comprensión de preguntas, mayor colaboración de los sujetos, menor porcentaje de no respuesta total, etcétera). En el cuadro 13 se resumen las principales ventajas y desventajas de este tipo de administración. Cuadro 13. Ventajas y desventajas de las encuestas en grupo

VENTAJAS

• • • • • • •

Menor coste económico respecto a las encuestas cara a cara y telefónicas. Obtención de los datos para el estudio en un breve periodo de tiempo. Posibilidad de incorporar ayudas visuales que faciliten la comprensión. Mayor sensación de privacidad de las respuestas. Mayor sinceridad en las respuestas y menor deseabilidad social. Posibilidad de aclarar dudas o precisar las respuestas. Menor porcentaje de no respuesta total.

DESVENTAJAS

• •

Dificultad de conseguir muestras representativas. Posibilidad de errores de transcripción de los datos.

3.2.4. Procedimiento para la administración del cuestionario

Sea cual sea la forma que se esté pensando para administrar el cuestionario, la fase de administración debe ser planificada con detalle. En el caso de que en un estudio de encuesta intervenga un entrevistador es un requisito indispensable que esté suficientemente entrenado antes de iniciar el trabajo de campo. Debe conocer de forma detallada los objetivos del estudio y además debe disponer de una guía de la entrevista en la que se especifique el procedimiento para administrar el cuestionario. Para el entrenamiento del encuestador pueden programarse las entrevistas con roles cambiados, donde un encuestador hace de sujeto mientras otro desempeña el papel de entrevistador o bien programar entrevistas con personas voluntarias u otros miembros del equipo que participan en el estudio. Es importante atender las dudas o situaciones complejas que pueden surgirle al encuestador, por lo que se recomienda realizar reuniones periódicas entre los encuestadores y los miembros del equipo para


[107]

3. LOS ESTUDIOSDE ENCUESTA

tratar estas cuestiones. También es conveniente que el entrevistador disponga de una ficha de campo del estudio para rellenar las cuotas de sujetos que va entrevistando. En la tabla 12 se presenta un ejemplo de ficha de campo, donde se registran las cuotas por edad y sexo. Tabla 12. Ficha de campo de una encuesta Edad

Hombres

Mujeres

18-30 31-40 41-55 56-65 1

2

3

4

5

6

7

8

9

10

1

2

3

4

5

6

7

8

9

10

Si se trata de un cuestionario autoadministrado por correo postal o web, se debe tener en cuenta que estas formas de administración están asociadas a un mayor porcentaje de no respuesta total. Por este motivo, será necesario solicitar la colaboración de los individuos de la muestra en diferentes ocasiones y, siempre que sea posible, por diferentes vías (correo postal, teléfono, correo electrónico). De hecho, las últimas investigaciones indican que los procedimientos que consiguen un mayor porcentaje de respuesta son los que utilizan diferentes medios para contactar con los participantes (Converse, Wolfe, Huang y Oswald, 2008; Millar y Dillman, 2011). El llamado tailored design method propuesto por Dillman a finales de la década de 1970 (Dillman, 1978) propone un método para incrementar el porcentaje de respuesta en este tipo de cuestionarios basado en la teoría del intercambio social. Este método implica que, además de presentar un cuestionario bien diseñado, mantener una correspondencia personalizada con los encuestados e incluir algún tipo de recompensa, se contacte en diferentes ocasiones con los sujetos que no responden para conseguir su colaboración. A continuación se presentan las características que debería incluir cada uno de los contactos para un estudio por correo postal:

• Primer contacto: en un primer contacto se recomienda enviar una carta de preaviso una semana antes del envío del cuestionario explicando el objetivo del estudio. Se considera que esta carta proporciona confianza respecto a los siguientes envíos que contendrán el cuestionario y según diversas investigaciones (Dillman, Clark y Sinclair, 1995; Dillman, 1991), su uso aumenta la probabilidad de que el sujeto participe en el estudio. En este primer contacto se debería incluir información sobre:


1108]

MÉTODOSY TÉCNICASPARALA INVESTIGACIÓNDEL COMPORTAMIENTOINFORMACIONAL

• • • • •

,.

,.

,.

,.

Por qué se contacta. La finalidad del estudio. La utilidad de la respuesta para el propio individuo y para el estudio. Dar las gracias por la futura colaboración. Informar sobre si la participación se asocia a algún incentivo (regalo, sorteo, obtención de puntos, etcétera). Segundo contacto: en este segundo contacto se acompaña la carta con el cuestionario. La carta debería contener la siguiente información: • Solicitar la colaboración del sujeto. • Explicar cómo el sujeto ha sido seleccionado para el estudio. • Informar sobre la utilidad de la colaboración para el propio individuo y para el estudio. • Tratar aspectos sobre la confidencialidad de los datos. • Comentar el carácter voluntario de la respuesta. • Proporcionar una persona de contacto (teléfono, correo electrónico, etcétera) para que en caso de duda el sujeto pueda contactar. • Informar sobre el calendario de respuesta. • Agradecer la colaboración. • Comentar si la participación se asocia a algún incentivo o bien, si el incentivo es directo (independiente de si el sujeto decide responder o no), enviar junto con el cuestionario. Tercer contacto: el tercer contacto permite agradecer a los que ya han contestado y a la vez sirve de recordatorio para aquellos que todavía no lo han hecho. En el caso del correo postal, Dillman (2007) contempla este tercer contacto como una postal de agradecimiento sin la necesidad de enviar de nuevo el cuestionario. En el cuadro 14 se presenta un ejemplo de este tercer contacto. Se trata de un correo electrónico que se envió a una muestra de investigadores para participar en un cuestionario web. Cuarto contacto: este cuarto contacto solo se envía a aquellos individuos que todavía no han contestado e incorpora un tono de insistencia respecto a los anteriores mensajes. Algunos de los nuevos aspectos que el autor aconseja incluir son: • Comentar que se ha recibido respuesta de otros usuarios pero se observa que aún no se cuenta con la participación del sujeto. • Insistir sobre la utilidad de su colaboración. • Recordar, si existe, la recompensa que se asocia a la participación. Quinto contacto: este representa el último esfuerzo para que el sujeto participe en el estudio. En este contacto se recordarán aspectos similares de los contactos previos, aunque debe remarcase que el estudio debe finalizar y que esta será la última posibilidad de participar.


J. LOS ESTIJDIOSDE ENCUESTA

[109]

Cuadro 14. Ejemplo de tercer contacto siguiendo el procedimiento del tailored design method Apreciado Dr. XXX,

Hace unos días, le invitamos a participar en un estudio, que está llevando a cabo un grupo de investigadores de la Universidad de Barcelona, contestando un cuestionario sobre la investigación en España dentro del área de neurociencias. En el caso de que ya hubiera completado el cuestionario, quisiéramos agradecerle su colaboración. Si todavía no lo hubiera completado, le animamos a hacerlo a lo largo de la próxima semana. Ello no le llevará más de diez minutos y su respuesta permitirá realizar un diagnóstico de la actual situación que se vive en España y, sobre todo, diseñar propuestas de mejora dentro de esta área de la ciencia. Tal y como le comentamos en el anterior mensaje, los datos que nos proporcione serán tratados de forma confidencial. Como gratificación por su tiempo participará en el sorteo de un lote de libros junto con todas las personas que hayan contestado el cuestionario. Asimismo, si lo desea, el equipo investigador se compromete a enviarle los principales resultados una vez finalizado el estudio. Puede acceder al cuestionario haciendo click sobre el enlace indicado a continuación: http://XXXX. Esperamos que pueda enviárnoslo antes del día 20 de abril del 2009. Si tiene cualquier duda o desea ampliar cualquier información, puede ponerse en contacto con nosotros mediante el correo electrónico mbarrios@ub.edu. Agradeciéndole de antemano su colaboración, reciba un cordial saludo.

Dra. Maite Barrios Investigadora principal del proyecto Universidad de Barcelona EA2007.O194@ub.edu

De Leeuw (2005) sugiere que una manera de aumentar el porcentaje de respuesta es cambiar la forma de administración entre aquellos que no responden a los contactos iniciales. Cambiar la forma de administración ofrece una oportunidad adicional para contestar a la encuesta utilizando una vía de contacto que posiblemente se adecue más a algunos de los participantes potenciales. En la última versión del tailored design method (Dillman y otros 2009), se propone como una alternativa válida utilizar formas de administración mixtas (por correo, teléfono, correo electrónico, etcétera) en el último contacto con el fin de obtener la respuesta de los que aún no han contestado al cuestionario.

3.2.5. Codificación y depuración de los datos Aunque se ha situado esta fase al final del proceso, los aspectos sobre codificación y revisión de los datos deben preverse juntamente con la fase de diseño del estudio.


11101

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

INFORMACIONAL

En primer lugar, a las opciones de respuesta de las preguntas cerradas se les debe asignar un código que permita su posterior tratamiento (cuadro 15). En el caso de las preguntas abiertas, su codificación se realizará partiendo del análisis de contenido de las respuestas obtenidas y su codificación y clasificación en categorías similares (en el capítulo 11, de análisis cualitativo, se trata este aspecto en mayor profundidad). Para los ítems sin respuesta, se asignará un código numérico que indicará que no se dispone del dato. Son los llamados valores ausentes o valores missing (del inglés missing values). Generalmente, se asignan números que no pueden coincidir con los datos obtenidos en el cuestionario, por ejemplo el valor -9. Cuadro 15. Ejemplo de codificación de pregunta cerrada

¿Con qué frecuencia visita la biblioteca? (VAR. 1) 1 2 3 4 5 6

D D D D D D

Cada día Al menos una vez a la semana Al menos una vez cada quince días Al menos una vez al mes Al menos una vez cada seis meses De manera muy esporádica (una vez al año o menos)

A medida que se van obteniendo las respuestas, estas deben introducirse en una base de datos diseñada para este propósito. Esto no será necesario si la respuesta y el registro de la respuesta se realizan de forma simultánea como en el caso de las encuestas realizadas a través de la web. No obstante, en el caso de que el registro no sea automático, cada respuesta codificada debe ser introducida como variable en la base de datos. En la figura 6 se presenta un ejemplo de matriz de datos. Cada fila de la base de datos representa un sujeto y cada columna una variable. En el caso de las variables, deberá asignársele un nombre con el fin de que se identifique fácilmente con la pregunta del cuestionario a la que corresponde. Figura 6. Ejemplo de matriz para la codificación de datos de una encuesta Var.1

Sujeto 1 Sujeto 2 Sujeto 3

... Sujeto n

Var.2

Var.3

...

Var.n


l 111)

3. LOS ESTUDIOSDE ENCUESTA

Para asegurar la calidad de los datos, una vez introducidos, es necesario realizar una revisión de la base de datos con el fin de corregir cualquier posible error. Pequeños errores pueden causar distorsiones importantes en los resultados y en las conclusiones del estudio. La mayoría de estos errores se deben al registro de los datos por parte del encuestador, a la incongruencia en las respuestas de los sujetos o bien a fallos en la fase de entrada de datos. Existen diversos procedimientos para revisar la base de datos, los más habituales son la comprobación de los datos a partir de la selección de una muestra de casos, la comprobación univariable y la comprobación bivariable. A continuación se comenta brevemente cada una de ellos .

.,.. Comprobación de datos a partir de la selección de una muestra de casos Consiste en seleccionar al azar un subgrupo de sujetos del total de casos introducidos en la base de datos (entre un 10 % y un 20 % suele ser suficiente) y cotejar de nuevo el dato que se registró en el cuestionario con el introducido en la base de datos . .,.. Comprobación univariable Consiste en analizar las variables a partir de tablas de frecuencias y gráficos para comprobar si existe algún dato fuera del rango permitido. En la figura 7 se expone un ejemplo de cómo detectar errores a partir de una tabla de frecuencias. Figura 7. Ejemplo de depuración univariable de datos Género

Frecuencia Porcentaje Válidos Hombre 40,8 89 Mujer 58,7 128 11,00 f, 11 1 Total 100,0 218 1

Porcentaje válido 40,8 58,7 ,5 100,0

Porcentaje acumulado 40,8 99,5 100,0

~

Error

.,.. Comprobación bivariable Permite valorar la coherencia entre las respuestas, en el caso de que la respuesta de alguna variable dependa de la respuesta previa en alguna otra pregunta. Este tipo de comprobación puede valorase a partir de tablas de contingencia. En la figura 8 se presenta un ejemplo de comprobación bivariable. Una de las variables preguntaba sobre si el sujeto había acudido durante el último mes a


[112]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

la biblioteca, mientras que la segunda variable preguntaba si se había tomado en préstamo algún libro en el último mes. Si la respuesta es negativa a la primera pregunta (filas), la respuesta a la segunda pregunta ha de ser también negativa (columnas). Por consiguiente, si el sujeto responde «No» a la primera pregunta, no puede responder «Sí» a la segunda. Estos datos serán considerados errores y deberían ser eliminados de la base de datos. Figura8. Ejemplo de comprobación bivariable de datos

Tablade contingencia Ira la biblioteca en el úhlmomes• préstamo en el últimomes Recuento préstamoen el último

No Ir a la bibliotecaen el últimomes

SI

36 126 162

IJ[]

Total

Total

90

128 218

Error

Finalmente, una vez se ha depurado la base de datos de errores, se está a punto para iniciar el análisis estadístico con el fin de dar respuesta a los objetivos propuestos en el estudio.

3.3. ERRORES ASOCIADOS A UN ESTUDIO DE ENCUESTA

Principalmente son cuatro los errores que se comenten en un estudio de encuesta: el error muestra!, el error de cobertura, el error de medida y el error de no respuesta. Estos errores son inherentes a cualquier estudio de encuesta, pero está en manos del investigador intentar minimizarlos en función de las características del estudio que pretenda llevar a cabo. El error muestra! es el resultado de estudiar un subgrupo de la población y no a toda la población de interés. De hecho, solo se estudia una de las muchas posibles muestras que podrían ser extraídas de la población. Esto supone que siempre se observará una divergencia entre la estimación que se realice de un determinado aspecto a partir de los datos obtenidos de una muestra y el verdadero valor poblacional de ese aspecto. El error muestra! depende fundamentalmente de dos factores: del tama-


3. LOS ESTUDIOSDE ENCUESTA

[113]

ño de la muestra y de lo representativa que sea la muestra de la población. Tal como se ha presentado en el capítulo 2, trabajar con un tamaño de muestra adecuado y utilizar técnicas de muestreo probabilísticas aseguran una mayor representatividad de la muestra. Una segunda fuente de error en los estudios de encuesta es el llamado error de cobertura. Este error se produce cuando el marco muestral disponible no incluye la totalidad de los individuos de la población. En esta situación es imposible conseguir que todos los individuos de la población presenten la misma probabilidad de ser seleccionados para formar parte del estudio. Un ejemplo de error de cobertura sería el hecho de que se quisiera realizar un estudio de encuesta vía web enviando un cuestionario por correo electrónico a los usuarios adultos de la biblioteca con carné. Si en la base de datos existen usuarios de los que no se dispone el correo electrónico, la omisión de estos a la hora de seleccionar la muestra daría lugar al error de cobertura. Este tipo de error afecta a la representatividad de la muestra y abre la posibilidad a introducir un importante sesgo en los resultados del estudio. La importancia que puede cobrar el error de cobertura depende fundamentalmente de dos factores: la proporción de sujetos afectados y las diferencias que existan entre los individuos incluidos en la muestra y los no incluidos. En el primer caso, el error de cobertura será mayor en función de la proporción de individuos de la población que no estén presentes dentro del marco muestral. Se considera que la muestra irá perdiendo representatividad respecto a la población cuanto mayor sea la proporción de individuos que no se encuentren dentro del marco muestra} disponible. El segundo factor, hace referencia a la existencia de características diferenciales entre los individuos presentes en el marco muestral y aquellos que no lo están, sospechándose que estas características pueden provocar respuestas distintas a las preguntas del cuestionario. El error de medida es otra fuente importante de error y se produce cuando la respuesta del encuestado a las preguntas es errónea, inadecuada o imprecisa. Este error se produce frecuentemente por errores en la construcción del cuestionario. Una redacción de preguntas que conlleve interpretaciones erróneas o diferentes entre los participantes o bien un uso de términos en las preguntas no suficientemente claro llevarán a aumentar el error de medida. También la actitud o predisposición del encuestado al contestar el cuestionario, la influencia del entrevistador en las encuestas cara a cara, el registro que se haga de las respuestas, así como la codificación de los datos pueden provocar errores de medida. Como se ha comentado a lo largo del capítulo, las diferentes formas de administración del cuestionario tienen importantes y diferentes efectos en este tipo de error. Por último, el error de no respuesta ocurre cuando un número importante de individuos no contesta al cuestionario (no respuesta total) o bien no responde a alguna


l 1141

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

de las preguntas (no respuesta parcial). Como en el caso del error de cobertura, si los que no contestan presentan características diferenciales de aquellos que sí contestan y las respuestas de unos y otros son diferentes, esto provocará un sesgo en los datos obtenidos. La importancia del error de no respuesta depende de la proporción de individuos que no contestan al cuestionario o al ítem en particular. Si esta proporción es importante, provocará una disminución de la calidad de los datos, una pérdida de la representatividad de la muestra obtenida, así como un sesgo en los resultados del cuestionario. La prueba piloto del cuestionario juega un papel básico para evitar muchos de los posibles errores de medida y no respuesta. Por ejemplo, con una consulta a expertos puede conseguirse una selección del vocabulario más apropiado, una redacción de preguntas más adecuada e incluso evitar errores de especificación, es decir, aquellos que se producen cuando alguna pregunta del cuestionario no se corresponde con ningún objetivo concreto del estudio. En cambio, con una administración del cuestionario a una muestra reducida se puede valorar la no respuesta parcial. Una no respuesta al ítem puede indicar dificultades en la comprensión de las preguntas o bien en las alternativas de respuesta.

3.4. EJEMPLOS DE INVESTIGACIONES

Ejemplo 1. El estudio del comportamiento informacional en la empresa La investigación llevada a cabo por Marchand, Kettinger y Rollins (2000) que lleva como título Navigating Business Success y recogida de manera mucho más extensa en su libro Information orientation. The link business performance representa uno de los trabajos más destacados sobre el comportamiento informacional dentro de la empresa. En el contexto en el que se realizó el estudio, las investigaciones sobre uso de la información, capacidades de esa información y ejecución empresarial eran escasas, por lo que en cierto sentido las conclusiones dieron pie a muchas otras publicaciones. En concreto, Marchand y otros (2000), llevados por la falta de investigaciones empíricas y por la necesidad de recoger una cantidad importante de observaciones que les permitiera desarrollar un modelo teórico, se decantaron por realizar un estudio de encuesta de carácter internacional implicando a empresas de 22 países diferentes. El objetivo que se propusieron fue estudiar cómo el uso de la información se relacionaba con una mejor actividad empresarial. Inicialmente la muestra fue seleccionada a partir de un conjunto de 3.800 empresas públicas y privadas inscritas en la base de datos internacional de IMD que habían participado en los últimos años en las actividades de la institución. Las empresas


3. LOS ESTUDIOSDE ENCUESTA

[115]

variaban en cuanto al número de años de existencia, tamaño (pequeñas, medianas y multinacionales) y sector empresarial al que se dedicaban. De manera aleatoria se invitó a 376 empresas a participar en el estudio y 103 (27 %) de ellas accedieron a participar. A estas compañías se les pidió que identificaran a su directivos y encargados de departamentos o secciones para completar el cuestionario. En total la muestra estuvo compuesta por 1.009 directivos y encargados de estas empresas. El cuestionario se diseñó a partir de la literatura relacionada con la temática y, en los casos en los que se consideró que la literatura no cubría las necesidades para generar las preguntas del cuestionario, estas se desarrollaron a partir de la experiencia de los autores. El cuestionario fue valorado por numerosos académicos, investigadores y estudiantes de doctorado con el objetivo de valorar la validez de contenido del instrumento y mejorar su presentación. En esta fase de construcción del cuestionario se valoró también el significado de los términos usados en las preguntas y la duración del cuestionario. Posteriormente, se realizó una prueba piloto con 151 directivos que estaban realizando un curso en el IMD con la finalidad de asegurar la suficiente variabilidad en las respuestas y una correcta comprensión de las preguntas. De nuevo a partir de esta prueba piloto se añadieron cambios que mejoraron el instrumento. El cuestionario final estuvo compuesto por 58 ítems que pretendían valorar: -'4 Las prácticas sobre tecnología de la información (13 preguntas). -'4 Las prácticas en gestión de la información (19 preguntas). -'4 Valores y comportamiento informacional (23 preguntas).

Los datos que se derivaron del estudio de encuesta fueron analizados a partir de técnicas estadísticas cuantitativas avanzadas, como el análisis factorial confirmatorio y modelos de ecuaciones estructurales. Sin duda, esta investigación es un excelente estudio de encuesta en el que se cuidaron los detalles metodológicos más básicos y que permitió dar una importante validez a los resultados.

Ejemplo 2. Conducta de búsqueda de información entre los pacientes oncológicos Buena parte de la literatura de búsqueda de información se ha centrado en la búsqueda de información médica por parte de pacientes y familiares. En este sentido, la investigación de Smith-Mclallen y otros (2011) se centra en el estudio de los factores que motivan a los pacientes diagnosticados de cáncer a buscar información sobre su enfermedad. De una base de datos de 26.608 pacientes con cáncer se seleccionó una muestra aleatoria estratificada por tipo de cáncer de 3.994 pacientes. A todos ellos se les


[116]

MÉTODOS Y TÉCNICAS PARALA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

envió una carta de preaviso explicando el objetivo del estudio y solicitando su colaboración. Tres días más tarde se envió el cuestionario junto con una carta y dinero en metálico como gratificación. Dos semanas más tarde se volvió a enviar la carta junto con el cuestionario a aquellos que aún no habían contestado. El porcentaje de respuesta fue del 60 % para los pacientes con cáncer colorrectal, 68 % para los de cáncer de pecho y de 64 % para los de cáncer de próstata. Un año más tarde se volvió a enviar un cuestionario de seguimiento a los 1.390 pacientes que respondieron en la fase anterior. Se recibieron un total de 1.049 respuestas, lo que representaba entre un 82 % y un 83 % de respuesta entre los tres tipos de cáncer. Ambos cuestionarios estaban formados por ítems cerrados. En el primer cuestionario, los participantes debían valorar lo probable que era que en los próximos doce meses buscasen información sobre su enfermedad, utilizando para ello una escala de tipo Likert de 1 a 7 puntos (1: muy improbable, 7: muy probable). Mientras que en el segundo, enviado un año más tarde, debían indicar si habían buscado información durante ese tiempo. Previamente al envío del cuestionario, se realizaron entrevistas con pacientes diagnosticados de cáncer con el fin de valorar que las preguntas se entendían correctamente. El presente trabajo se diferencia de muchos otros que tratan sobre la misma temática por dos motivos: por el diseño del estudio y por su método. No es habitual encontrar estudios de encuesta longitudinales y tampoco que este tipo de estudios presente un porcentaje de respuesta tan alto en la segunda administración del cuestionario. Una de las razones de este éxito posiblemente se deba a una buena planificación del método y del instrumento de medida. En este sentido, los autores aplican una modificación del tailored design method propuesto por Dillman (1978) y contactaron en diferentes ocasiones con los pacientes, lo que les permitió conseguir un mayor porcentaje de respuesta.

3.5. RESUMEN

La encuesta es el procedimiento de investigación más utilizado en información y documentación y en concreto en el estudio del comportamiento informacional. Es una técnica cuantitativa que persigue la generalización estadística de resultados a una población de referencia. Se basa en el estudio de muestras representativas aplicando un procedimiento estandarizado de recogida de información. La estandarización se consigue tanto a partir del instrumento de recogida de datos, el cuestionario, como a partir del procedimiento de recogida. No obstante, debe tenerse en cuenta que cualquier estudio de encuesta presenta de manera inherente cuatro tipos de error: muestra), de cobertura, de medida y de no respuesta.


3. LOS ESTUDIOSDE ENCUESTA

[1171

En el presente capítulo se describen las principales fases de un estudio de encuesta, desde la elaboración del cuestionario hasta la depuración de la base de datos para dar paso al análisis estadístico. Se presentan los tipos de ítems que son más utilizados en los cuestionarios y las principales recomendaciones para una adecuada redacción de las preguntas y las categorías de respuesta correspondientes. En la actualidad conviven diferentes formas de administración del cuestionario, cada una con sus peculiaridades, que presentan diferentes ventajas e inconvenientes. Fundamentalmente se distinguen entre cuestionarios administrados con intervención de un entrevistador y cuestionarios autoadministrados, donde es el propio individuo quien lee y contesta las preguntas del cuestionario. Según la forma de administración el procedimiento para llevar a cabo el estudio, el trabajo de campo, variará considerablemente. A lo largo del capítulo se subraya cómo las diferentes fases y elementos de un estudio por encuesta (el diseño del cuestionario, su forma de administración, la población a la que va dirigida, etcétera) se influyen mutuamente. Una adecuada aplicación de la técnica implica tener siempre presente estos aspectos, así como desarrollar estrategias para minimizar los errores asociados a este tipo de estudios.


CAPÍTULO 4

ENTREVISTA

4.1. DEFINICIÓN Y ÁMBITO DE APLICACIÓN

Una entrevista es una forma de comunicación oral interpersonal que tiene como finalidad obtener información en relación a uno o más objetivos y en la que uno de los intervinientes tiene el papel de entrevistador. Este proceso de comunicación se desarrolla a partir de unas preguntas que tienen la finalidad de guiar dicha entrevista. En función de la estructuración y la posibilidad de variación de las preguntas la entrevista se clasifica en no estructurada, semiestructurada y estructurada. De ese modo, las preguntas pueden servir tan solo como una guía para el entrevistador con el objetivo de que recuerde los temas o aspectos que deben ser tratados o bien formar un bloque de preguntas bien definido y del cual no es posible variar demasiado. Este capítulo tiene algunos aspectos en común con el capítulo 3, donde se trató el tema de los estudios de encuesta. Ambas técnicas, entrevista y encuesta, hacen uso de un cuestionario y en algunos casos comparten la presencia de un entrevistador, como es el caso de encuestas administradas cara a cara o por teléfono. Sin embargo, a pesar de que ambas técnicas pueden compartir el instrumento de recogida de datos y la vía de administración, las diferencias entre ellas son evidentes. En primer lugar, los estudios de encuesta son esencialmente cuantitativos, su objetivo es cuantificar la conducta, pensamientos, sentimientos, etcétera, de los usuarios. Para ello se valen de una serie de preguntas bien definidas y de categorías de respuesta previamente establecidas (ítems cerrados). En cambio, la entrevista es una técnica básicamente cualitativa que pretende comprender el fenómeno que estudia a partir de la perspectiva del entrevistado. Igualmente se vale también de preguntas, pero en esta ocasión no parte de cuestiones preconcebidas y predefinidas de antemano, sino de preguntas preferentemente abiertas. Con este tipo de preguntas, se pretende obtener información de cómo los individuos perciben y entienden la realidad desde su propia perspectiva. En el caso de la encuesta, las preguntas son un instrumento para la recogida de datos en el que


(1201

MÉTODOS Y TÉCNICASPARA LA INVESTIGACIÓNDEL COMPORTA.MIENTOINFORMACIONAL

el entrevistador considera que dispone de suficiente información sobre el fenómeno estudiado para proponer diversas alternativas de respuesta y valorar su peso a partir de las respuestas de los sujetos. En la entrevista las preguntas funcionan como estímulo para los entrevistados, con el fin de que estos aporten la información necesaria para comprender el fenómeno que se pretende estudiar desde su propio punto de vista. Si las preguntas de una entrevista son esencialmente abiertas, difícilmente podrá llevarse a cabo en muestras grandes, dado que el coste en tiempo y recursos sería excesivo. Si la muestra no consigue un determinado tamaño, no podrá asegurarse la suficiente precisión ni representatividad de los datos en la población de referencia. De aquí se deriva la segunda diferencia básica y es que, mientras que el punto clave de un estudio de encuesta es la representatividad de la muestra y la generalización de los resultados obtenidos a la población de referencia, el objetivo que persigue la entrevista es fundamentalmente conocer el fenómeno que se pretende estudiar en profundidad. En este sentido, Corbetta (2010) afirma que la entrevista no persigue la representatividad estadística, sino la representatividad sustantiva, la cual permite alcanzar una comprensión global del objeto de estudio. Por consiguiente, no es necesario que los sujetos sean seleccionados de manera aleatoria, sino que el mejor participante será aquel que pueda proporcionar la información de manera más clara. Existen numerosas situaciones en las que una entrevista es la técnica de investigación más lógica. Su utilidad radica en que permite obtener información sobre aspectos no directamente observables: pensamientos, actitudes, sentimientos, etcétera, y para poder estudiar estos aspectos es necesario preguntar a los individuos. En este sentido, tal como apuntan Arksey y Knight (1999), la entrevista es una técnica capaz de hacer explícitos determinados aspectos que hasta el momento eran implícitos. El fin que se persigue es llegar a comprender, desde la óptica del propio individuo, aquellos aspectos no observables que subyacen en su comportamiento. Hasta hace relativamente pocas décadas la investigación sobre la técnica y su uso en la investigación ha corrido por caminos distintos. Kvale y Birnkmann (2009) destacan que, de manera paradójica, aunque la entrevista ha sido utilizada por los investigadores de las ciencias sociales de manera extensa a lo largo de todo el siglo xx, la referencia en los libros de texto como técnica de investigación o la aparición de investigación exclusiva sobre la técnica cuenta con pocas décadas de existencia. El cruce de caminos posiblemente se deba a Glaser y Strauss, pioneros en la investigación cualitativa, cuando la incorporan como técnica de investigación en su libro The Discovery of Grounded Theory: Strategies for Qualitative Research (1967). A partir de su obra, se observa el aumento de monografías así como de manuales sobre metodología que introducen la entrevista como técnica de investigación. En la actualidad, la entrevista es una técnica de investigación consolidada dentro de las ciencias sociales que disfruta de un uso creciente y cuenta con una


4. ENTREVISTA

[121)

extensa literatura que aborda los aspectos metodológicos sobre cómo llevar a cabo una entrevista de investigación. Dentro de la disciplina de información y documentación y, en concreto, dentro del estudio del comportamiento informacional, la entrevista se ha utilizado ampliamente para dar luz a diferentes contextos. Su introducción dentro de la disciplina no dista mucho de lo que se ha comentado en el párrafo anterior. En este sentido, encontramos al final de la década de los años setenta el trabajo de Wilson, Streatfield y Mullings (1979), sobre el estudio del comportamiento informacional de los trabajadores sociales británicos con el objetivo de conocer sus necesidades y hábitos informacionales relacionados con su profesión. Este trabajo es la segunda fase de un estudio conocido como estudio INISS (Jnformation Needs and Services in Social Services Departments), en el que la entrevista fue la técnica que sirvió para validar los resultados obtenidos de una fase anterior en la que se había aplicado la observación. En este caso los resultados de la entrevista sirvieron además para profundizar sobre diferentes aspectos relacionados con la investigación. En el último epígrafe de este capítulo se describen los detalles de la fase de entrevistas del estudio INISS. En general, la revisión de la literatura muestra que la entrevista ha sido ampliamente utilizada como técnica para el estudio del comportamiento informacional y las necesidades informativas de diferentes colectivos y en contextos muy diversos. Algunos ejemplos son los siguientes: ~

~

~

~

El estudio del comportamiento de búsqueda de información en situaciones de la vida diaria (Julien y Michels, 2004) o académicas (George, Bright, Hurlbert, Linke, St. Clair y Stein, 2006). El comportamiento informacional dentro del ámbito de Internet ha sido ampliamente estudiado en los últimos años. En este contexto se encuentran los estudios de Rieh (2004 ), que investiga el uso de Internet para la búsqueda de información, o bien el de Savolainen y Kari (2004a, 2004b) sobre la valoración de Internet entre aquellos que buscan información sobre las necesidades de su vida diaria y para su desarrollo personal. De manera más concreta, se encuentran el trabajo de Zhang (2008), que estudia la concepción de los estudiantes universitarios sobre Internet como sistema de recuperación de información, o bien Kim, Park y Bozeman (2011), que centran su investigación en el comportamiento de búsqueda de información de los estudiantes utilizando este medio. Qayyum, Williamson, Liu y Hider (2010) abordan la temática en adultos jóvenes, mientras que Ostrander (2008) se centra en el comportamiento informacional de los usuarios de entornos virtuales como Second Life. El estudio de las necesidades de información de pacientes con diferentes patologías o bien las que presentan sus familiares (Andreassen, Randers, Naslund,


(122]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

Stockeld y Mattiasson, 2006; Andreassen, Randers, Naslund, Stockeld y Mattiasson, 2005; Friis, Elverdam y Schmidt, 2003; Baker, 1998}. _,..El perfil de búsqueda de información de profesionales tales como artistas (Cobbledick, 1996}, enfermeras (McKnight, 2006}, asistentes sociales (Cooper y Urquhart, 2005} y médicos (Cullen, Clark y Esson, 2011) entre muchos otros. Dentro de este campo, en el que se estudia el comportamiento informacional en base al perfil profesional del usuario, se encuentra el trabajo de Landry (2006), que estudia cómo Internet ha influido en el comportamiento informacional en el colectivo de dentistas e investiga cuáles son las fuentes que seleccionan para la práctica profesional. En el apartado de ejemplo de investigaciones se estudian los detalles de esta investigación. _,..Uso de recursos electrónicos entre los académicos (Stewart, 1996; Vibert, Rouet, Ros, Ramond y Deshoullieres, 2007; Ollé y Borrego, 2010). En este capítulo se van a exponer los diferentes tipos de entrevista en función del grado de estructuración. A continuación se presentará la estructura básica de una entrevista y cómo preparar y formular las preguntas. Posteriormente, se abordarán las características de los agentes implicados (el entrevistado y el entrevistador} y se tratará el modo de registrar y transcribir las conversaciones. Por último, se presentan las principales ventajas y limitaciones de la técnica.

4.2. TIPOS DE ENTREVISTA EN FUNCIÓN DEL GRADO DE ESTRUCTURACIÓN

Fundamentalmente, se distinguen tres tipos de entrevista: no estructurada, semiestructurada y estructurada. Los elementos comunes de estas tres estrategias son básicamente dos: por un lado, la información se obtiene a partir de preguntas abiertas y, por otro, se permite a los entrevistados responder libremente con sus propias palabras y desde sus perspectivas personales. En cambio, la diferencia básica entre ellas radica en el grado de definición de las preguntas antes de iniciar la entrevista. Escoger una u otra estrategia para la recogida de datos cualitativos depende en gran parte de los objetivos de la investigación. En las entrevistas no estructuradas normalmente las preguntas no están diseñadas de antemano. El investigador conoce cuáles son los temas que quiere tratar, pero no dispone de un listado de preguntas. Las preguntas serán diferentes para cada sujeto que se entreviste y, en función de las capacidades comunicativas del entrevistado, será necesario realizar más o menos preguntas. La función del entrevistador, por una parte, es la de estimular la respuesta del entrevistado con el fin de que aporte luz sobre aquello que se pretende investigar y, por otra, evitar que la conversación se desvíe


4. ENTREVISTA

(1231

hacia otros temas o bien que el entrevistado divague en exceso. Así, se puede decir que el entrevistador juega un papel de conductor de la entrevista, procurando que la información que aporte el entrevistado en todo momento ayude a comprender el fenómeno que se pretende estudiar. Este tipo de entrevistas son especialmente útiles cuando el objetivo que se persigue es explorar un aspecto en profundidad sobre el que se tiene poco conocimiento. La entrevista semiestructurada se compone de una lista de preguntas que el entrevistador podrá ir adaptando en función del ritmo concreto que establezca con cada uno de los entrevistados. El investigador tiene la libertad de variar tanto el orden de presentación como el vocabulario o la redacción de las preguntas. La lista de preguntas funciona como un guión en donde se especifican los aspectos que deben tratarse y sobre los que se quiere obtener información. Por lo general, el entrevistador no abordará temas que estén fuera del guión, aunque, si surgen aspectos que se consideren relevantes para la comprensión del fenómeno que se pretende estudiar, tiene la libertad de abordarlos sin la obligación de que estos mismos aspectos deban ser tratados en las siguientes entrevistas. En este tipo de entrevistas se permite que los entrevistados presenten sus puntos de vista y sus opiniones de una manera más extensa y detallada. La improvisación y la flexibilidad juegan un rol importante en las entrevistas no estructuradas y semiestructuradas. Asksey y Knight (1999) destacan las siguientes ventajas en este tipo de entrevistas: ~

~

~

Es posible variar el orden de las preguntas para adecuarse de manera congruente a las respuestas del entrevistado, así como a los diferentes temas que van surgiendo durante la entrevista. Permiten modificar la redacción de la pregunta y adaptar el vocabulario a los conocimientos del entrevistado, con el fin de facilitar la comprensión y proporcionar naturalidad a la entrevista. El entrevistador puede acceder a que la entrevista se desvíe del tema si considera que la información que puede aportar el entrevistado puede ser útil para dar luz sobre aquello que se investiga.

No obstante, esta flexibilidad hace que las entrevistas no estructuradas y semiestructuradas sean dependientes de las habilidades del entrevistador. Tal como indica Wengraf (2002), este tipo de entrevistas requieren mucha más planificación y preparación que las entrevistas estructuradas, tal como se verá a continuación. En estos casos, la improvisación requerida al entrevistador debe ser suplida por un mayor entrenamiento, capacidad creativa y, en general, una buena preparación mental antes de iniciar la entrevista.


11241

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL CO.MPORTAMIENTO INFORMACIONAL

En la entrevista estructurada, el investigador dispone de una lista de preguntas, mayoritariamente abiertas. Las preguntas son las mismas para todos los participantes y el entrevistador no puede variar ni el orden de presentación ni su formulación. El estímulo (la pregunta) debe ser igual para todos los participantes. Aunque la pregunta está diseñada de antemano, la respuesta de los encuestados es libre y se intenta que estos se expresen utilizando sus propias palabras. Se intentará que la influencia del entrevistador sobre el entrevistado sea mínima. Así, las preguntas se presentan de manera oral, intentando mantener siempre un tono lo más neutro posible para no influir en la respuesta. Este tipo de entrevista se utiliza cuando es importante eliminar la variabilidad de las preguntas que se les presentan a los entrevistados. Todos los participantes reciben la misma pregunta y en el mismo orden, por lo que se considera que la comparación de respuestas y el análisis son más sencillos, dado que la respuesta podrá ser localizada para todos los sujetos bajo la misma pregunta. Patton (2002) considera que existen cuatro razones principales para usar la entrevista estructurada: .,.. Como las preguntas están fijadas de antemano y no es posible modificarlas, el cuestionario está disponible en todo momento para poder ser administrado a otros sujetos o en otras investigaciones . .,.. Se consigue minimizar las diferencias entre los distintos entrevistadores en caso de que participe más de un entrevistador . .,.. La entrevista está centrada en obtener una información concreta, lo que obliga a que el tiempo invertido en la entrevista sea utilizado de manera eficiente y se evite abordar otros temas fuera del guión establecido . .,.. Es posible comparar las respuestas de diferentes entrevistados a las mismas preguntas, por lo que se facilita el análisis de la información. El punto débil de las entrevistas estructuradas surge justamente de su falta de flexibilidad. El entrevistador no puede indagar sobre otros aspectos que considere interesantes para el tema de estudio, por lo que todos aquellos aspectos que no hayan sido anticipados durante la elaboración del cuestionario no podrán ser abordados durante la entrevista. No obstante, tal como sugiere Patton (2002), estas tres estrategias no son mutuamente excluyentes, sino que de hecho es bastante común combinar los diferentes tipos de entrevista en una misma sesión. Por ejemplo, se puede iniciar la entrevista con un formato estructurado y posteriormente pasar a un formato no estructurado o semiestructurado, permitiendo al entrevistador profundizar sobre aquellos aspectos que se han considerado relevantes durante la fase más estructurada de la entrevista. Otra posibilidad es la de iniciar la entrevista de manera no estructurada


4. ENTREVISTA

11251

y posteriormente pasar a focalizar la entrevista sobre determinados aspectos que se consideren de interés a partir de preguntas estandarizadas comunes para todos los participantes.

4.3. ESTRUCTURADE LA ENTREVISTA

Una entrevista puede ser dividida en cuatro fases diferentes: la fase preliminar, la de apertura, el desarrollo y la finalización. Es básico tener en cuenta, tal como señala Keats (2000), que lo que tiene lugar al inicio de una entrevista es de suma importancia porque va a influir durante el resto de tal entrevista. Esto implica establecer una buena relación con el entrevistado desde el primer contacto. El primer contacto incluyen aquellas comunicaciones iniciales que servirán para seleccionar a los participantes o bien aquellas conversaciones por teléfono o cara a cara en las que se concretan la hora y el lugar donde se celebrará la entrevista. En este sentido, un punto esencial en la fase preliminar es la selección de un lugar para llevar a cabo la entrevista que sea suficientemente tranquilo y en el que tanto entrevistado como entrevistador puedan sentarse cómodamente, sin riesgo de ser interrumpidos o de que la conversación pueda ser escuchada por terceros. El entrevistador debe contar con todo el material necesario: guión, grabadora, papel suficiente para recoger cualquier aspecto que considere conveniente, pilas, etcétera. A la hora de ubicarse frente a frente, ambos, entrevistado y entrevistador, deben disponerse de manera que se asegure que el entrevistado no pueda leer las preguntas del cuestionario ni las anotaciones del entrevistador. Algunos de los aspectos que deben tratarse en la fase de apertura son el objetivo de la entrevista, para quién va dirigida la información, cómo esta va a ser recogida y para qué servirá. Se debe describir cómo se llevará a cabo y, de manera aproximada, en cuánto está prevista su duración. En esta fase también es necesario tratar aspectos sobre la confidencialidad de la información e informar si se va a grabar la sesión. La idea no es extenderse demasiado en estas explicaciones iniciales, pero la información debe ser lo suficientemente concreta para que el entrevistado comprenda los aspectos esenciales del estudio, acepte las condiciones de la investigación y sea consciente de lo que se espera de él. Las preguntas de tipo sociodemográfico se consideran ideales para esta fase de apertura, porque ayudan a establecer un contexto relajado, así como establecer las reglas que se seguirán durante el transcurso de la entrevista (pregunta-respuesta). Durante el desarrollo de la entrevista deben plantearse los principales temas que se pretenden tratar en función de los objetivos planteados. Una manera eficaz de organizar las preguntas de la entrevista es por temas similares y posteriormente or-


[126]

MÉTODOS Y TÉCNICAS PARALA INVESTIGACIÓNDEL COMPORTAMIENTOINFORMACIONAL

denar los temas de manera lógica. En general los temas se van abordando a partir de preguntas que van de lo más general a lo más concreto, siguiendo una combinación de pregunta general y una serie de preguntas más concretas que ayudarían a abordar el tema con más profundidad. Patton (2002) recomienda que de manera ocasional durante la entrevista se resuman las ideas básicas que el entrevistado ha ido aportando durante la sesión. Es una estrategia especialmente útil cuando se tratan aspectos complejos y puede ser utilizada como método de transición entre los diferentes temas que se pretendan abordar durante la entrevista. La idea es que, cuando se da por concluido un tema y se pretende abordar otro distinto o bien cuando el entrevistador se quiere asegurar de que ha entendido correctamente las aportaciones del entrevistado, se resuman las ideas más relevantes que han ido surgiendo. Cuando se llega a la fase de finalización, el encuestador debe comprobar que ha formulado todas las preguntas programadas y que ha podido obtener la información necesaria para dar respuesta a los objetivos planteados en el estudio. Igualmente, es importante preguntar al sujeto si tiene alguna cuestión o aclaración que quiera añadir, bien al finalizar el abordaje de un tema concreto o al finalizar la entrevista. Keats (2000) subraya la importancia de relajar el tono cuando se acerca el fin de la entrevista. El objetivo es que tanto entrevistado como entrevistador consideren que su participación ha valido la pena y que se han alcanzado los objetivos propuestos por ambas partes. En este punto es básico agradecer la colaboración que ha prestado el entrevistado, su tiempo y sus aportaciones, es decir, finalizar en un tono positivo. No obstante, es necesario estar alerta en estos últimos minutos de entrevista, pues en ocasiones es cuando los entrevistados aportan sus contribuciones más significativas (Keats, 2000). En estos casos, no es necesario que el entrevistador corra a anotar estas últimas aportaciones, lo más recomendable es despedirse adecuadamente del sujeto y posteriormente anotar las nuevas ideas. El proceso de una entrevista es iterativo en su estructura, dado que requiere que el entrevistador formule una pregunta, con un formato más o menos estructurado, escuche y registre la respuesta del entrevistado, para pasar a continuación a formular una nueva pregunta. Si el tipo de entrevista es no estructurado o semiestructurado, se requiere que el investigador piense en la formulación de la siguiente pregunta en el mismo momento en que el entrevistado esté respondiendo a la pregunta. Esto implica que el entrevistador no solo debe escuchar y registrar la respuesta del entrevistado, sino que, para continuar la entrevista de manera eficiente, debe ser capaz de formular la pregunta siguiente, a partir de las ideas expuestas por el entrevistado, analizando los elementos y pistas no verbales emitidos por él. A pesar de todos estos retos, la entrevista se considera una herramienta capaz de proporcionar datos sobre los puntos de vista, actitudes y percepciones que los indi-


4. ENTREVISTA

[127]

viduos experimentan. En los siguientes apartados se van a abordar las principales consideraciones acerca de las preguntas de una entrevista, las habilidades y el papel fundamental que juega el entrevistador en el proceso de una entrevista.

4.4. PREGUNTAS DE UNA ENTREVISTA

Las preguntas de una entrevista cualitativa son esencialmente preguntas abiertas, con las que se pretende obtener información extensa y detallada del fenómeno que se quiere estudiar. No existe una receta única para formularlas que sea válida para todas las situaciones, pero se puede intuir que la pregunta no es buena si la respuesta del entrevistado es escueta o no aporta los suficientes detalles. Desde los inicios de la técnica han sido muchos los autores que han dedicado su esfuerzo a mejorar el arte de formular preguntas proponiendo diversas reglas generales (Payne, 1951; Dillman, 2007; Foddy, 1993, Fowler, 1995, 2002; Graves, Fowler, Couper, Lepkowski, Singer y Tourangeau, 2004; Patton, 2002; Rubin y Rubin, 1995). Patton (2002) advierte de que algunos investigadores consideran erróneamente que para diseñar una pregunta abierta basta con excluir las categorías de respuesta. Una pregunta del tipo ¿está satisfecho con el servicio de préstamo? o bien ¿cómo de satisfecho está? son preguntas engañosamente abiertas. La pregunta que en realidad puede considerarse abierta es aquella que permite al entrevistado responder con sus propias palabras sin ceñirse a la orientación que se predispone en la pregunta. En el primer caso, ¿está satisfecho con el servicio de préstamo?, la pregunta puede ser contestada con un simple sí o no, mientras que en el segundo, ¿cómo de satisfecho está?, se puede responder a partir de unas supuestas categorías del tipo: muy satisfecho, bastante satisfecho, insatisfecho, etcétera. Para que estas preguntas se conviertan en preguntas verdaderamente abiertas deben permitir al sujeto responder sin ceñirse a una dicotomía o a la insinuación de unas posibles categorías de respuesta. Si se reformulan las preguntas de la siguiente manera: ¿cuál es su opinión sobre el servicio de préstamo? o bien ¿qué piensa sobre el servicio de préstamo?, es evidente que ya no pueden ser contestadas con un simple sí/no o una categoría concreta. Este tipo de preguntas son las que realmente son las preguntas abiertas que deberían ser formuladas en una entrevista; en ellas se requiere que el entrevistado elabore una respuesta con sus propios términos. Algunos de los aspectos comentados sobre la redacción de preguntas a los que se hace referencia en el capítulo 3 de la encuesta son válidos también para la formulación de preguntas de una entrevista: utilizar un lenguaje adecuado para las personas a las cuales se pretende entrevistar, evitar los términos abstractos o preguntar por


[128]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

INFORMACIONAL

aspectos demasiado específicos que el sujeto no pueda responder, utilizar un lenguaje neutro, o formular preguntas en las que solo se pregunte sobre una cosa cada vez, etcétera. Estas son algunas de las consideraciones que deberían tenerse siempre presentes a la hora de redactar las preguntas de un cuestionario, independientemente de la técnica que se esté empleando. Es habitual que la formulación de preguntas de una entrevista siga una secuencia cíclica en la que una primera pregunta sirve para introducir un tema y a esta le sigan una serie de preguntas que permitirán profundizar sobre ese tema. Es lo que Kahn y Cannell (1983) denominan preguntas primarias y secundarias. Cuando las preguntas primarias no son capaces de obtener toda la información deseada, es necesario acudir a las preguntas secundarias, que permiten indagar sobre detalles concretos y profundizar más en el tema. Así, el objetivo de las preguntas secundarias es que el entrevistado aporte nueva información sobre el tema de interés. Este tipo de preguntas son de particular importancia en las entrevistas semiestructuradas y no estructuradas, donde el protocolo de preguntas no está cerrado ni establecido a priori (Gillman, 2005). Algunos de los formatos más habituales de pregunta secundaria se exponen a continuación: <1111

<1111

<1111

Pedir al entrevistado que aporte más información sobre la respuesta inmediata que ha proporcionado. Según Bernard (2000), posiblemente se trate del formato de pregunta secundaria más extendido entre los entrevistadores experimentados: ¿podría ampliarme este aspecto?, por favor, explíqueme más cosas sobre este punto, ¿qué le lleva a pensar de esta forma? Preguntar por aspectos más específicos sobre el tema que se esté abordando. Este es el caso en que las preguntas secundarias deben abordar las razones, el lugar o contexto donde ocurre una conducta concreta, los agentes que están implicados, qué valoración le merece al sujeto o bien qué sentimientos le provoca, etcétera. Solicitar una aclaración ya sea a la respuesta inmediata del sujeto, ya sea a alguna aportación que ha realizado durante la entrevista. Es habitual que la gente piense que con su respuesta ha sido lo suficientemente claro, saben lo que quieren decir y presuponen que serán entendidos por otros. Sin embargo, lo que no está suficientemente comprendido en una entrevista se puede clasificar como lo «no dicho». Es por ello de suma importancia que el entrevistador sepa identificar y aclarar los puntos que considera que no están suficientemente claros. Preguntas del tipo no estoy seguro de haberlo entendido, ¿puede explicarme un poco más este aspecto?, antes me ha comentado [... ], ¿podría explicarme un poco más este punto?, ayudan a que el entrevistado exprese de manera más clara, extensa o coherente sus ideas.


4. ENTREVISTA

<111

(129]

Repetir las últimas palabras que ha dicho el entrevistado solicitándole que continúe con el argumento de su respuesta. Entrevistado: «Sí, me considero satisfecho». Entrevistador: «¿Se considera satisfecho?»

No obstante, no siempre las preguntas secundarias toman el formato de preguntas. En algunas ocasiones toman la forma de intervenciones que facilitan y animan al entrevistado a aportar más información sobre el tema (Gillham, 2005). Valles (2002) considera que este tipo de intervenciones más que preguntas son propiamente tácticas que el entrevistador emplea en diferentes momentos de la entrevista para que el sujeto prosiga, aclare o bien reconduzca su respuesta hacia el tema de interés. En este sentido, autores como Gorden (1969), Keats (2000), Kvale y Brinkmann (2009), Patton (2002), Rubin y Rubin (1995) y Wengraf (2002), entre muchos otros, proponen el uso de diferentes estrategias con el fin de favorecer que el entrevistado aporte nueva información. En general, estas estrategias implican utilizar el silencio y las pausas, el contacto visual, conductas de tipo no verbal como asentir con la cabeza, levantar las cejas mostrando sorpresa o mostrar el rostro expectante o bien verbalizaciones del tipo, «ah», «ya»,«continúe», «adelante». Se entiende que todas ellas son interpretadas por el entrevistado como una señal de que lo que se espera de él es que continúe con su discurso y aporte más información. Como se comentará más adelante, estas preguntas secundarias o aquellas estrategias que favorecen que el entrevistado aporte nueva información requieren por parte del entrevistado una escucha activa. Esto implica que el entrevistador debe disponer de una habilidad especial para escuchar lo que el entrevistado dice y de cómo lo dice (Kvale y Brinkmann, 2009). Para que la entrevista funcione como una conversación en la que de manera natural el entrevistado aporte la máxima información, es necesario que los temas se vayan entrelazando de manera fluida y las preguntas se sucedan unas a otras de una manera espontanea. Por ello a esta secuencia de pregunta y respuesta es necesario introducir elementos que sirvan de transición entre los diferentes temas que se van a ir abordando. Una de las estrategias más utilizadas es la de utilizar breves prefacios entre preguntas primarias que sirvan de introducción y preparen al entrevistado para el siguiente tema. Por un lado, esta estrategia ayuda a que la entrevista sea más fluida y, por otro, permite que el entrevistado centre su atención sobre el siguiente tema que se va a abordar proporcionándole tiempo extra para organizar sus ideas. Patton (2002) propone diversas maneras de realizar esta transición entre dos temas distintos durante la entrevista: <111

Anunciar que una parte de la entrevista se ha contemplado y que se va a pasar a otro punto:


[130)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

Hasta ahora hemos estado tratando los aspectos sobre cómo accede a la información científica disponible en Internet. Ahora me gustaría tratar algunos aspectos relacionados con la organización de los documentos digitales a los que accede. ¿Qué suele hacer cuando encuentra un documento que considera que puede ser interesante?

<1111

Resumir los aspectos que se han tratado hasta ese momento y preguntar al entrevistado si quiere añadir algún aspecto antes de continuar con otro tema. Este tipo de transición hace que el entrevistado sea consciente de que el entrevistador ha recogido toda la información que ha ido exponiendo y le permite hacer aclaraciones, correcciones o bien añadir aspectos que no hayan sido suficientemente tratados. Antes de pasar al siguiente tema, me gustaría repasar los aspectos que me ha ido comentando sobre el tipo de información que le interesa y cómo accede a ella. Principalmente, consulta artículos de revista a partir de la base de datos ISI, porque le resulta más cómodo acceder a la revista, aunque otra fuente importante es la consulta de manuales, tanto electrónicos como en papel. En este caso, su propia biblioteca y la del centro son las vías principales por las que accede a ellos [... ]. Bien, antes de pasar a tratar cómo organiza toda esta información, ¿le gustaría añadir algún aspecto más sobre este punto?

<1111

Anunciar el siguiente aspecto sobre el que se va a preguntar: Ahora me gustaría tratar el tema de la organización de la documentación de que dispone y que consulta habitualmente, en concreto sobre la digital, artículos, libros electrónicos, etcétera. ¿Qué aspectos cree que ha cambiado en la manera de organizar y ordenar este tipo de material electrónico respecto a la organización del material en papel?

<1111

Destacar alguna característica de la pregunta que se va a formular a continuación, como por ejemplo su importancia, dificultad, ambigüedad, etcétera: La siguiente pregunta es difícil de contestar en términos generales porque posiblemente no actúe siempre de la misma manera y depende de cada contexto o situación en la que se encuentre. Pero, por lo general, si encuentra un artículo por Internet que cree que le puede interesar, ¿qué suele hacer con él?

Cada uno de estos elementos debe utilizarse a lo largo de la entrevista con cierto criterio, de manera selectiva y estratégica, con el objetivo de que sirvan para hacer la entrevista más interesante e interactiva. No en vano, Patton (2002) advierte de que abusar del recurso o utilizar de manera repetida algún formato concreto pueden lle-


4. ENTREVISTA

[131]

var al efecto contrario, haciendo que la entrevista se convierta en una conversación incomoda e incluso irritante para el sujeto.

4.5. HABILIDADESDEL ENTREVISTADOR

La calidad de la información obtenida durante una entrevista está altamente relacionada con el comportamiento del entrevistador. Tal como se ha ido exponiendo a lo largo del capítulo, para realizar una buena entrevista no es suficiente disponer de un buen listado de preguntas, sino que, además, se debe contar con un entrevistador que disponga de habilidades específicas para poder conducir la entrevista de manera adecuada. La mayoría de autores coinciden en que, entre las habilidades que debe tener el entrevistador, destacan las siguientes: • • • • • • •

Escuchar de manera activa. Agilidad mental. Buena capacidad para observar. Buena capacidad de memoria. Neutralidad. Capacidad para dirigir la entrevista. Capacidad para proporcionar el feedback adecuado al entrevistado.

Escuchar de manera activa requiere una actitud atenta, que va más allá de la escucha de las palabras que emite el entrevistado. El entrevistador debe prestar atención no tan solo a lo que se dice, sino también a cómo se dice. Observar de manera atenta las acciones del entrevistado puede aportar muchas pistas del progreso de la entrevista, así como perfilar el significado de sus respuestas. El entrevistador debe prestar atención al tono, énfasis, ritmo e incluso a los silencios o a aquello que no dice el entrevistado. Los silencios o las frases incompletas pueden revelar más de lo que se puede decir con palabras, mientras que un cambio de tono, los circunloquios o mirar el reloj mientras se habla pueden estar indicando señales de cansancio, aburrimiento, confusión o disgusto. El lenguaje corporal puede además aportar información del nivel de concentración, cansancio o bien si el entrevistado se siente cómodo contestando determinadas preguntas. Es importante atender a estas cuestiones porque, por una parte, pueden sugerir nuevos temas para ser explorados y, por otra, en caso de que se detecten signos que afecten al progreso de la entrevista, sería necesario introducir los cambios apropiados para reconducir la conversación a buen puerto. Como se ha comentado en el epígrafe anterior, las entrevistas semiestructuradas y no estructuradas requieren otras habilidades adicionales del entrevistador. El hecho


[132]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

de que las preguntas y la estructura de la entrevista estén abiertas a modificaciones obliga al entrevistador a improvisar y a hacer alarde de su agilidad mental y capacidad de memoria. Por un lado, el entrevistador debe ser capaz de interpretar las respuestas del sujeto para poder formular, a continuación, la pregunta que mejor se adapte. Por otro, debe recordar los temas que han ido surgiendo a lo largo de la entrevista, bien para intentar no volver a insistir sobre ellos o bien para poder explorarlos en profundidad en las siguientes preguntas. Otra de las tareas del entrevistador es conseguir que el entrevistado se sienta cómodo con la interacción y que considere que su participación y sus respuestas ayudan a alcanzar el objetivo de la investigación. Un feedback adecuado durante la entrevista puede ayudar a que el entrevistado sienta que su participación vale la pena y que sus respuestas ayudan a aportar luz sobre el objeto de estudio. En este sentido, la conducta verbal y no verbal del entrevistador juega un importante papel. Un ejemplo de conducta verbal como el siguiente ayuda a aportar este feedback: Sus comentarios me han ayudado a entender las diferentes razones por las que los investigadores consultan unas fuentes de información y no otras. Justamente, lo que intentamos es conocer a partir de los diferentes perfiles de investigadores qué tipo de información consideran esencial para sus tareas del día a día.

Por otro lado, tomar notas de lo que dice el entrevistado, asentir con la cabeza o bien verbalmente, son señales que le indican al entrevistado que sus comentarios son acertados y valiosos para la investigación. Una de las habilidades que debe mostrar el entrevistador es la de saber reconocer lo que es relevante para el estudio y lo que no lo es, teniendo presente el objetivo de la investigación. El tiempo que se tiene para entrevistar es limitado, por lo que el entrevistador debe controlar la entrevista para evitar respuestas excesivamente extensas o bien comentarios superfluos que roben tiempo para preguntar sobre los elementos claves de la investigación. Esto significa que el entrevistador debe discernir en todo momento cuándo la aportación del entrevistado es relevante para el estudio y debería profundizarse en aquel aspecto con nuevas preguntas, y cuándo es necesario reconducir la entrevista hacia el tema de interés, incluso llegando a interrumpir su respuesta. De nuevo, la comunicación verbal y no verbal puede ser usada para proporcionar el feedback adecuado al entrevistado. Por ejemplo, si el sujeto esta proporcionando información importante para el estudio, se puede asentir con la cabeza, tomar notas o bien proporcionar alguna pista verbal que le indique al sujeto que lo que dice es interesante En cambio, si el sujeto se desvía del tema, en ningún caso se debería asentir o reforzar esta conducta, sino todo lo contrario, tan pronto como el sujeto realice una pausa en su exposición, introducir una nueva pregunta.


4. ENTREVISTA

[133)

4.6. EL ENTREVISTADO

En este apartado se va a abordar el elemento clave de una entrevista, el entrevistado. En este punto se abren dos interrogantes: a quién entrevistar y a cuántos entrevistar. La respuesta a la primera pregunta, en parte, puede responderse a partir de lo ya tratado en el capítulo de muestreo. Tal como señala Wengraf (2002) la selección de los informantes no se debería realizar al azar. La entrevista se debe nutrir de informantes que sean capaces de aportar información relevante para el estudio. Los entrevistados deben poseer esta información y ser capaces de transmitirla. Lo anterior obliga a que la selección de los entrevistados esté basada en un muestreo de tipo intencional, en el que el investigador deberá determinar cuáles son las características que debe cumplir un informante para participar en el estudio. En este sentido, Gorden (1969) propone que para la selección de los entrevistados se responda a cuatro cuestiones básicas: <1111

<1111

<1111

<1111

¿Quiénes son los individuos que tienen la información relevante? De entre los anteriores, ¿a quiénes es posible acceder? Entre aquellos a los que es posible acceder, ¿quiénes están dispuestos a participar en el estudio? Y por último, entre los que están dispuestos a participar, ¿quiénes son los que tienen mayor capacidad para transmitir mejor la información?

Este mismo autor considera que esta selección obligada de aquellos que están dispuestos a participar puede incurrir en la introducción de sesgos a la hora de componer la muestra de participantes. Es por ello importante sopesar desde un inicio si es posible acceder a aquellos individuos que tienen la información relevante, y entre estos valorar si están dispuestos a participar y tienen la capacidad para informar. Muchas de las variantes propuestas por Patton (2002) dentro del muestreo intencional, indicadas en el capítulo 2, pueden ser válidas a la hora de seleccionar a los informantes para participar en un estudio en el que se va a recoger la información a partir de entrevistas. En función de los intereses y el objetivo del estudio puede seleccionarse una u otra estrategia. Para responder al segundo interrogante planteado en este epígrafe, sobre cuántos sujetos es necesario entrevistar, la respuesta parte del tipo de muestreo que se ha seleccionado. En este caso, el muestreo teórico propuesto por Glaser y Strauss ( 1967), considerado como una variante dentro del muestreo intencional (Ritchie, Lewis y El am, 2003; Coyne, 1997), es el que posiblemente se ajusta mejor a esta técnica. Este tipo de muestreo lleva a una selección de sujetos en base a la cantidad de información que hasta el momento los individuos ya entrevistados han sido capaces de aportar


[134)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

para la comprensión del fenómeno que se pretende estudiar. La saturación informativa o saturación teórica alcanzada llevará a concretar, de manera paralela al desarrollo del estudio, el número de sujetos que es preciso entrevistar. Así, cuando se observa que la información que se va recogiendo es coincidente con la información que han aportado los anteriores entrevistados y esta no aporta nada de relevante al estudio, es hora de finalizar la inclusión de nuevos sujetos. De nuevo es importante recordar en este punto que la entrevista no persigue una representatividad estadística, por lo que no es necesario estudiar un número elevado de individuos. Lo que en realidad resulta fundamental es que los individuos que participen en la investigación sean capaces de aportar luz sobre aquello que se pretende estudiar.

4.7. REGISTRO DE LA ENTREVISTA

El análisis que se realice de la información depende totalmente de cómo se haya registrado esta. Patton (2002) señala que, independientemente del tipo de entrevista llevada a cabo, todo se puede echar a perder, aun contando con el mejor de los entrevistadores y el mejor de los cuestionarios, si no se logran capturar correctamente las aportaciones de los entrevistados. Por ello, se considera esencial tomar notas durante la sesión y grabar las intervenciones de los entrevistados. El hecho de tomar notas durante la entrevista se considera muy recomendable porque favorece el desarrollo de la entrevista y facilita la fase de análisis de la información. Entre las ventajas de tomar notas durante la entrevista destacan las siguientes: <11111

<11111

<11111

<11111

Ayuda a establecer un ritmo a la entrevista. Proporciona pistas al entrevistado sobre la importancia de la información que está aportando para el estudio. Puede ayudar al entrevistador a la formulación de nuevas preguntas. Ayuda a la localización de aportaciones importantes en la fase de análisis.

No obstante, el hecho de tomar notas puede parecer más simple de lo que en realidad es. En primer lugar, tomar notas ralentiza la entrevista. Habitualmente cuando el entrevistador anota, el entrevistado habla más lentamente o calla para dar tiempo al entrevistador a anotar aquello que está diciendo. Es por ello por lo que no es posible anotarlo todo. En segundo lugar, dadas las condiciones en las que se producen estas anotaciones, se considera un proceso impreciso: de manera paralela el entrevistador debe observar, escuchar, pensar la formulación de la siguiente pregunta y anotar los aspectos que considera relevantes. Se debe buscar el equilibrio entre qué anotar y el ritmo que se le quiere dar a la entrevista. La recomendación que propone Wengraf


4. ENTREVISTA

[135]

(2002) es limitar las anotaciones a palabras clave, comentarios breves o expresiones que se consideren relevantes y que faciliten la localización de las citas literales de los entrevistados y que se consideren interesantes para la fase de análisis. Sin embargo, tomar notas no es suficiente para analizar la información aportada por el entrevistado, por lo que se considera esencial realizar un registro del audio o bien filmar la entrevista. El registro del audio es mucho más común que filmar la entrevista y también mejor aceptado por los entrevistados. Es más fácil de entender el hecho de que el investigador cuente con una grabación de lo que se ha dicho para que la pueda escuchar de nuevo y analizarla en detalle, que filmar el comportamiento del entrevistado, el cual, en principio, a ojos del participante, se considera irrelevante. La grabación de la sesión no solo permite un registro preciso de la información para que posteriormente pueda ser analizada, sino que permite al entrevistador centrarse en el proceso de observación, de escucha, de interpretación y de dirección de la entrevista.

4.8. TRANSCRIPCIÓN DE LOS DATOS

La transcripción es el proceso por el cual se reproduce por escrito el contenido de una entrevista. Gillham (2005) lo considera como un proceso que en sí mismo requiere cierta interpretación, por lo que en cierta manera puede considerarse el inicio del análisis. No obstante, Kvale y Brinkmann (2009) advierten de que la transcripción lleva consigo de manera inherente un empobrecimiento de la información, provocando una interpretación descontextualizada de lo que ha pasado durante la entrevista. La pérdida más obvia cuando se transcribe una entrevista son los elementos paralingüísticos (fluidez, énfasis, ritmo, tono, volumen, etcétera) y la conducta no verbal que acompaña al habla. Estos aspectos son difíciles de registrar en una transcripción, pero es importante tenerlos en cuenta, dado que pueden alterar radicalmente el significado de las palabras. Tal como sugiere Patton ( 1990), idealmente se debería disponer de una transcripción total de la entrevista. Sin embargo, este es un proceso caro y que requiere bastante tiempo (se considera que por cada hora de entrevista se requieren al menos entre siete y diez horas de transcripción). Para evitar un gasto de recursos innecesario, Arksey y Knight (1999) proponen que la transcripción pueda llevarse a cabo con diferente nivel de detalle en función del objetivo de la investigación. Los elementos esenciales que se deberían incluir son las aportaciones relevantes tanto del entrevistado como del entrevistador y por supuesto incorporar aquellos elementos paralingüísticos que modifican el significado del discurso. Una transcripción parcial o bien selectiva puede ser recomendable en aquellos casos en los que previamente se conoce cuáles son los aspectos relevantes que se


(136]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

quieren evaluar (Gillhan, 2005). Con frecuencia, lo que se suele observar es que a partir de la transcripción de las primeras entrevistas se consigue identificar las principales categorías que se van a considerar en el estudio. Esto significa que no será necesario realizar una transcripción total de las siguientes entrevistas, sino tan solo registrar aquellos aspectos que previamente se han identificado como relevantes. En este sentido, Glaser (1992) recomienda una transcripción completa de las primeras entrevistas y posteriormente, a medida que la teoría va generándose y la codificación se sistematiza, pasar a una selección y simplificación de lo que debe ser transcrito en función de los objetivos del estudio. Los programas de reconocimiento de voz desarrollados a partir de la década de 1990 han aportado un ahorro de tiempo y esfuerzo considerable al proceso de transcripción. Sin embargo, tal como advierte Gillham (2005), reproducir el contenido de una entrevista en la que intervienen diferentes voces y elementos semánticos de la voz es una tarea compleja e imposible aún para los programas de reconocimiento de voz. La manera más habitual de proceder es que el investigador escuche la entrevista con auriculares y «dicte» al programa el contenido de lo que está escuchando. Es un trabajo lento, dado que se debe dictar frase por frase y no siempre la tarea está exenta de errores, por lo que a posteriori es necesario revisar la transcripción con el fin de valorar la consistencia entrevista-transcripción. No obstante, los rápidos avances tecnológicos hacen que la circunvalación de la transcripción insinuada por Valles (2002) esté cada vez más cerca. En este sentido, se debe tener en consideración que los programas de análisis cualitativo incorporan la posibilidad de codificación de vídeo y audio, lo que puede ayudar de manera importante al análisis de la entrevista.

4.9. VENTAJASY LIMITACIONESDE LA ENTREVISTA

La entrevista como técnica de investigación cualitativa presenta numerosas ventajas pero también algunas limitaciones. Tenerlas en cuenta es importante antes de aventurarse a iniciar un estudio a partir de entrevistas. Las principales ventajas que cabría destacar son las siguientes: ~ ~

~

Permite obtener información en profundidad sobre el fenómeno que se pretende estudiar. Permite obtener información sobre las ideas, opiniones y sentimientos de los entrevistados, a diferencia de otras técnicas, como por ejemplo la observación, que solo nos aportará información sobre la conducta manifiesta del participante. Permite a los entrevistados expresar sus ideas libremente desde su propia perspectiva y con sus propias palabras. A diferencia de la técnica de la encuesta,


4. ENTREVISTA

~

~

~

~

~

[137]

en la que las alternativas de respuesta vienen dadas por la perspectiva y el conocimiento que el investigador tiene del fenómeno que pretende evaluar, la entrevista, en este sentido, permite esquivar el sesgo del investigador. En una técnica flexible. En el caso de entrevistas semiestructuradas y no estructuradas permite ajustar las preguntas y desviarse del guión con el objetivo de analizar el fenómeno que se pretende estudiar desde la perspectiva del entrevistado. Una vez se ha concretado una cita con el entrevistado, la colaboración del sujeto es muy alta. A diferencia de la encuesta, que tiene un alto porcentaje de no respuesta, la entrevista presenta un alto grado de colaboración y raramente el entrevistado se niega a participar una vez se ha iniciado la entrevista. Se considera una técnica con una gran validez aparente. El procedimiento para obtener la información, así como el análisis de esta información, es fácilmente comprensible por personas no expertas. Es una técnica ideal para estudios descriptivos y exploratorios en los que se cuenta con poco conocimiento sobre el fenómeno que se pretende analizar, en especial las formas semiestructuradas y no estructuradas. El material y el equipo que se requieren para registrar una entrevista es económico.

Como limitaciones es necesario destacar las siguientes: ~ ~

~

~ ~

~

La transcripción y el análisis de la información recogida requieren un tiempo considerable. El coste es elevado cuando se tiene en cuenta el gasto de viajes y de dietas de los entrevistadores, especialmente cuando los entrevistados están dispersos geográficamente. El coste de desplazamientos y dietas se reduce cuando la entrevista se realiza por teléfono, aunque en este caso se pierde información de tipo no verbal. No es posible comparar las respuestas de diferentes sujetos en las entrevistas semiestructuradas y no estructuradas, dado que las preguntas y su orden suele ser diferente. La flexibilidad propia de las entrevistas semiestructuradas y no estructuradas hace que estas sean dependientes de las habilidades del entrevistador. La fiabilidad de la técnica está sujeta a condicionantes como el contexto donde se produce la entrevista, así como de los entrevistados que participan. La modificación del contexto referente a la situación que se pretende evaluar, así como la part,icipación de otros entrevistados, provocaría cambios sustanciales en los resultados. La entrevista recoge respuestas subjetivas de los entrevistados. No siempre lo que afirma el sujeto que hace es lo que realmente hace. La posibilidad de


1138)

~ ~

MÉTODOSY TÉCNICASPARALA INVESTIGACIÓNDEL COMPORTAMIE]',¡'TO INFORMACIONAL

combinar la entrevista con técnicas más objetivas como la observación puede ayudar a paliar este punto. La presencia del entrevistador puede provocar respuestas estereotipadas o socialmente aceptadas ante determinadas cuestiones. La grabación en audio y sobre todo la filmación de la entrevista pueden provocar inhibiciones en el entrevistado, especialmente en los primeros estadios de la entrevista.

4.10. EJEMPLOSDE INVESTIGACIONES

Ejemplo 1. Necesidades de información en el departamento de servicios sociales Wilson y otros (1979) llevaron a cabo a finales de la década de 1970 un estudio sobre el comportamiento informacional de los trabajadores sociales británicos con el objetivo de conocer sus necesidades y hábitos informacionales relacionados con su profesión. Este trabajo se considera uno de los primeros estudios sobre comportamiento informacional en el que se da especial relevancia a las técnicas de investigación como procedimiento para la recogida de datos. La investigación se compuso de dos fases, y el trabajo que se presenta aquí se basa en la segunda fase del estudio. En esta fase, la entrevista fue la técnica que sirvió para validar los resultados obtenidos en una fase anterior en la que se había aplicado la observación (en el capítulo 6 sobre observación se presenta la primera fase) y para comprobar algunas hipótesis derivadas sobre el comportamiento informacional, su relación entre los trabajadores y determinadas características de la organización. Los autores dividen la fase de entrevista en tres estadios: la planificación, la ejecución y el análisis de datos. La fase de planificación, al mismo tiempo, la subdividen en tres subfases: el diseño de la entrevista, el entrenamiento y la selección de la muestra. Para diseñar las preguntas de la entrevista los autores se basaron en las cuestiones que en la fase previa de observación se habían percibido como aspectos importantes: ~

~ ~ ~ ~ ~

~

El rol laboral de los participantes. Los contactos dentro y fuera del departamento. Las necesidades de información. El almacenamiento de información por parte de la organización. El almacenamiento de la información por parte de los individuos. El clima laboral. La experiencia y la formación.


4. ENTREVISTA

[1391

Antes de obtener la versión final del cuestionario, se generaron cinco versiones diferentes, que se fueron perfilando a partir de diversas pruebas piloto. Como prueba piloto se utilizaron el role-playing y entrevistas de entrenamiento con participantes. Los autores no lo especifican, pero a partir de los ejemplos de ítems que presentan se entiende que se trata de una entrevista estructurada en la que a todos los participantes se les formularon las mismas preguntas y en el mismo orden. Antes de llevarse a cabo estas entrevistas, todos los miembros del equipo participaron en un curso para entrevistadores, de un fin de semana, en el que se trataron los puntos más comunes que debían tener en cuenta a la hora de conducir una entrevista, (estrategias para solicitar aclaraciones o obtener más información de los participantes, etcétera) y aquellas situaciones más problemáticas que pueden acontecer durante una entrevista (participantes problemáticos, rechazos a contestar, etcétera). La selección de la muestra se llevó a cabo a partir de una selección estratificada y aleatoria del personal de cuatro departamentos. La estratificación se basó en el departamento y el rol del trabajador. En total se realizaron 151 entrevistas (seis directores, 22 especialistas, 11 encargados, 104 trabajadores sociales y ocho administrativos). En todos los casos las entrevistas fueron concertadas previamente por teléfono. Se obtuvo un alto nivel de cooperación y solo en 14 casos, por motivos diversos, el sujeto no estuvo disponible para realizar la entrevista. Las entrevistas tuvieron una duración de entre 25 y 108 minutos con una duración promedio de 48 minutos. Posteriormente a la fase de recogida de datos, la información obtenida se codificó en un total de 216 variables. Esta codificación fue realizada por los propios entrevistadores y fue revisada en diferentes ocasiones para asegurar su exactitud. El análisis que se presenta en el artículo se basa en el contexto de las necesidades informativas, la comunicación de la organización y el comportamiento de búsqueda de información. Los autores presentan un análisis cuantitativo basado en frecuencias y porcentajes y para reafirmar los resultados los acompañan de algunos ejemplos de verbalizaciones de los participantes. Por ejemplo, los autores comentan que el 84,8 % de los participantes coincidían en clasificar las reuniones como útiles o muy útiles y acompañan el dato con el comentario siguiente: «A veces crees que una reunión va a ser una pérdida de tiempo, pero luego te das cuenta de lo que te habrías perdido si no hubieras ido». Sin duda, la investigación de Wilson y otros (1979) es una investigación de gran envergadura y que marca un hito importante en el estudio del comportamiento informacional, no solo por la cantidad de personas que participaron en el estudio sino por los objetivos propuestos y por el detalle con el que exponen la metodología empleada. Sin embargo, tal como se ha comentado a lo largo del capítulo, existen algunos aspectos que podrían ser mejorados o bien que no serían justificables dada la técnica que se ha aplicado. En primer lugar, los autores utilizan un muestreo aleatorio para seleccionar a los participantes. No es algo incorrecto, pero es habitual en


[140)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

las técnicas cualitativas cerciorarse de que el participante seleccionado es un buen candidato para el estudio y que es capaz de transmitir la información. Los autores sin duda podrían haber aprovechado la información obtenida en la primera fase del estudio en el que se observó a los trabajadores, para seleccionar a los mejores informantes. En segundo lugar, un número mucho menor de trabajadores sociales habría sido suficiente para realizar un estudio de tipo cualitativo. Seguramente, al superar la veintena de entrevistas, mucha de la información que se obtuvo fue redundante y buena parte de la muestra entrevistada no llegó a aportar datos relevantes para el estudio. Por otra parte, se ha de recordar que la entrevista es una técnica cualitativa y que no pretende la cuantificación de la información ni la significación estadística de los resultados, por lo que el análisis de la información debería basarse en un análisis más de tipo cualitativo. En relación con este punto, se observa que las preguntas no son siempre preguntas abiertas, sino que en algunas ocasiones son ítems de respuesta dicotómica (sí/no) o bien escalas graduadas. Un último aspecto que los autores no comentan es sobre el registro de las entrevistas. No se sabe si las entrevistas fueron registradas o el análisis solo se basó en las anotaciones de los entrevistadores durante la sesión.

Ejemplo 2. Roles laborales, tareas y comportamiento informacional de los dentistas

El objetivo del estudio de Landry (2006) fue el de valorar el trabajo de los dentistas con el objetivo de entender sus diferentes necesidades informativas y la manera en que Internet afecta a su conducta de búsqueda de información. El autor seleccionó un total de doce participantes a partir de un muestreo por bola de nieve. El estudio se basó en entrevistas presenciales y telefónicas. Se realizaron unas primeras entrevistas de manera presencial, mayoritariamente en la consulta del dentista, lo cual permitió al investigador observar aspectos sobre el entorno de trabajo, las condiciones del equipo informático y de la conexión con Internet. Estas entrevistas fueron diseñadas para tener una duración aproximada de entre 45 y 60 minutos. Posteriormente se realizaron unas entrevistas de seguimiento por vía telefónica con el objetivo de valorar las actitudes y usos de Internet con mayor detalle. Las entrevistas telefónicas tuvieron una duración aproximada de 15 minutos. Ambas fueron de tipo semiestructurado y se grabó el audio para posteriormente analizarlo. En las entrevistas presenciales a los participantes se les presentaban distintas situaciones hipotéticas en el que se incluían diferentes necesidades informativas. Estas situaciones fueron diseñadas en colaboración con dentistas y con el objetivo de que evocaran la conducta de búsqueda de información dentro de un contexto laboral teniendo en cuenta las diferentes especialidades dentro de la profesión. Después de


4. ENTREVISTA

[141]

la presentación de cada situación hipotética, se formulaban una serie de preguntas abiertas sobre la situación planteada. Las entrevistas y las conversaciones informales fueron transcritas y se examinaron los temas más emergentes, que dieron lugar a una primera categorización. Posteriormente se seleccionaron los datos con un interés más conceptual y se procedió a una nueva categorización. Se generó un libro de códigos y la categorización fue evaluada por diferentes personas con el objetivo de valorar la fiabilidad interobservador. La fiabilidad conseguida fue del 92,5 %, lo que es indicativo de una alta fiabilidad interobservadores. El análisis de los datos se realizó a partir de las verbalizaciones registradas y en la exposición de los resultados se combina la presentación de las principales conclusiones con verbalizaciones concretas de los participantes, que sirven para reafirmar las conclusiones propuestas. Este estudio sigue fielmente los aspectos que se han descrito a lo largo del capítulo. Se selecciona una muestra reducida y no aleatoria para estudiarla en profundidad. No importa la representatividad estadística, sino que los participantes sean capaces de proporcionar la información que responda a los objetivos del estudio. El diseño de cuestionario se basa en preguntas abiertas que sirven para evocar información a partir de la perspectiva del que responde. La entrevista se graba y se transcribe para posteriormente codificar la información relevante que finalmente será analizada a partir de un análisis cualitativo.

4.11. RESUMEN

La entrevista cualitativa presenta innumerables ventajas, aunque también algunos inconvenientes, por lo que es importante tenerlos en cuenta antes de aventurarse a utilizar esta técnica. En este capítulo se han presentado las principales características y elementos que definen la entrevista cualitativa. Desde finales de los años setenta del siglo pasado, en paralelo con el auge de la técnica dentro de las ciencias sociales, la entrevista se ha venido utilizando para valorar el comportamiento informacional en diferentes ámbitos y usuarios. Dentro de la entrevista se distinguen principalmente tres tipos en función del grado de estructuración: estructurada, semiestructurada y no estructurada. En la práctica, se suelen mezclar los diferentes tipos de entrevista a lo largo de una sesión. Por ejemplo, es habitual iniciar la entrevista con un alto grado de estructuración y posteriormente, a partir de las respuestas y los temas que van surgiendo, pasar a un formato semiestructurado o no estructurado que permita profundizar en los diferentes aspectos. Independientemente del formato de la entrevista, las preguntas han de ser preguntas abiertas que faciliten la obtención de información a partir del punto de vista


(142)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

INFORMACIONAL

del entrevistado. Para ello es importante que la formulación facilite una respuesta extensa y se evite la insinuación de posibles alternativas de respuesta. Principalmente se distinguen dos tipos de preguntas: primarias y secundarias. Las primarias tienen la función de introducir un tema, mientras que las secundarias permiten profundizar sobre el tema previamente iniciado. No obstante, no es suficiente tener un buen guión de entrevista para poder conseguir la información necesaria que permita comprender el fenómeno de interés. En este sentido, es esencial contar con un entrevistador que presente las habilidades específicas para conducir la entrevista de manera adecuada. El papel de estas habilidades es sin duda mucho más evidente en la entrevista semiestructurada y no estructurada, donde la improvisación de las preguntas y temas a tratar es mucho mayor. A diferencia de los estudios de encuesta, la entrevista busca una representatividad sustantiva, por lo que la selección de los participantes se regirá entre aquellos que mejor representen los perfiles o cumplan las características idóneas para participar en el estudio. De esta manera, los entrevistados son seleccionados habitualmente a partir de un muestreo intencional. En relación con lo anterior, el número de sujetos a entrevistar no vendrá determinado por la representación estadística de la muestra, sino que dependerá en buena parte de la cantidad y calidad de la información obtenida de los entrevistados. Es decir, cuando se alcance la saturación teórica o informativa. Cuando se llega a comprender el fenómeno que se pretende estudiar, es signo de que debe detenerse la inclusión de sujetos en el estudio. Por último, se han tratado los aspectos de registro y transcripción de la entrevista. Fundamentalmente, el análisis se realiza en base a las anotaciones que el entrevistador ha ido registrando durante la sesión y a partir de la transcripción de la grabación del audio de la entrevista. La transcripción es una tarea lenta y en cierto modo provoca una pérdida de información, por lo que las notas y las impresiones del entrevistador durante la entrevista suelen ser imprescindibles para proceder con la fase de análisis de la información.


CAPÍTULO

5

TÉCNICA DEL INCIDENTE CRÍTICO

5.1. DEFINICIÓN Y ÁMBITOS DE APLICACIÓN

La técnica del incidente crítico (TIC) fue definida por Flanagan (1954) como un procedimiento flexible para la investigación social que comprende una serie de operaciones, adaptables a cualquier situación, dirigidas a registrar y procesar la información obtenida por medio de la observación de la conducta humana, todo ello con el fin de aplicar los resultados a la resolución de problemas prácticos. Un incidente crítico es cualquier actividad humana suficientemente completa por ella misma como para permitir inferencias y hacer predicciones acerca de la persona que lleva a cabo esa actividad. Para ser crítico, un incidente debe ocurrir en una situación donde el propósito sea bastante claro para el observador y donde sus consecuencias sean suficientemente definidas para dejar poca duda con respecto a sus efectos (Flanagan, 1954). La obtención de estos incidentes críticos permite obtener una imagen variada y rica en detalle de esa actividad humana observada con el fin de llegar a conclusiones prácticas basadas en dichas observaciones, no en ideas preconcebidas. Por lo tanto, la técnica del incidente crítico (TIC) permite adoptar un enfoque cualitativo-inductivo sin ideas preconcebidas de la realidad que se observa, pues no busca en sí misma la generalización de estas observaciones, sino comprender aquello que es observado. La TIC, en principio, no pretende llegar a conclusiones estadísticamente significativas, aunque en un principio surge como en un contexto positivista (Butterfield, Borgen, Amundson y Maglio, 2005). Esta técnica fue desarrollada por Flanagan (1954) durante la segunda guerra mundial, en el curso de unos estudios llevados a cabo bajo su dirección en el Aviation Psychology Program de la U. S. Army Air Force. En un principio, el objetivo era desarrollar un procedimiento para la selección y clasificación de la tripulación aérea. Posteriormente, acabada la guerra, comenzó a utilizarse, principalmente, para el diseño de puestos de trabajo. Aunque en origen fue utilizada para estos propósitos,


[144]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFOR.MACIONAL

a lo largo de los años se aplicó igualmente en diversas disciplinas y con objetivos diversos. En la revisión bibliográfica que Butterfield y otros (2005) hacen de cincuenta años de aplicación y desarrollo de esta técnica, enumeran los siguientes ámbitos de aplicación: comunicaciones, enfermería, análisis de puestos de trabajo, orientación psicopedagógica, educación, medicina, marketing, aprendizaje organizacional, evaluación del desempeño, psicología y trabajo social. En información y documentación también ha sido aplicada a diferentes áreas para la resolución de problemas diversos como, por ejemplo, los siguientes: ~

~

~

~

En el campo de la documentación médica, Wood y Wrigh (1996) utilizan la TIC para avaluar el impacto de la información en la toma de decisiones médicas y Wilson, Starr-Schneidkraut y Cooper (1989), Siegel, Rapp y Lindberg (1991) y Lindberg, Siegel, Rapp, Wallingford y Wilson (1993), para evaluar el impacto de la base de datos Medline en la toma de decisiones de los facultativos médicos, o Tenopir, King y Bush (2004) para observar el uso de las revistas médicas por parte de los facultativos. Más recientemente MacDonald, Bath y Booth (2011) utilizan la TIC para observar el uso de la información empleada en el proceso de toma de decisiones por parte de los gestores de servicios sanitarios. La TIC también ha sido utilizada para el estudio de la interacción con sistemas de información concretos. Por ejemplo Tonta (1992) la utilizó para el estudio de los fallos en la búsqueda de información en combinación con otras técnicas y Chao, Deltor y Turnbull (1998), así como Mansourian (2008), para investigar el comportamiento informacional en la búsqueda de información en la Web. Desde el punto de vista del estudio del comportamiento informacional en general, Kraaijenbrink (2008) utilizó la TIC para la observación de las lagunas informacionales de los ingenieros y Hamer (2003) para conocer el comportamiento de los jóvenes homosexuales. Por último, en el ámbito de la gestión de unidades de información, la TIC fue utilizada por Berkner (1979) para el estudio de puestos de trabajo en bibliotecas, mientras que Carr (1980) para la observación del trabajo de referencia.

5.2. PROCEDIMIENTO DE APLICACIÓN DE LA TÉCNICA DEL INCIDENTE CRÍTICO

Al margen de la flexibilidad de la técnica, Flanagan (1954) describió cinco etapas generales en las que basar el desarrollo de un estudio utilizando la TIC (figura 9): (1) definición de objetivos generales, (2) establecimiento de planes y especificaciones, (3) recogida de datos, (4) análisis y (5) interpretación de los datos y comunicación de los resultados. A continuación se describe cada una de ellas.


l145J

5. TÉClsi C,\ DEL 1 'C IDENTE CRITICO

Figura 9. Fases de un estudi o basado en la técnica del incide nt e crítico (Flanagan, 1954 )

1. DEFINICIÓN DE OBJETIVOS

2. PLANES Y ESPECIFICAC IONES

Quién observará , quién será observado ué será observado

3. RECOGIDA DE DATOS

Elección de la técnica y estrategias de observación

4. ANÁLISIS DE DATOS

Clasificación de los incidentes

5. INTERPRETAC IÓN Y COMUNICACIÓN

Informe de resultados

5 .2.1. Definición de objetivos general es Puesto qu e en un prin cipio la T I C fue utili zada pa ra la descr ipción de un a act ividad, en esta primera fase Flanaga n (195 4 ) entiend e qu e es necesa rio describir el obje tivo o result ado s pr evistos de dicha act ividad pa ra pod er valorar obj etivamente si, en el desa rro llo de determin ada tarea, un a persona ha sido o no efect iva. En este sentid o, este invest igador aboga po r la co nsulta a exper to s para definir el patró n in icial ace rca de lo que se espera de la act ividad estud iada. Si exten demos la ap licac ió n de esta técn ica a otros contextos y gu iados po r distintos propó sitos a los qu e inicia lmente dieron or igen a la n c, pode mos co nsiderar que en esta etapa in icia l, como en cualquier invest igac ió n, es necesar io de finir un ob jeti vo genera l a par ti r del cual desarro llar dic ha invest igac ión. A pa rtir de aq uí será pos ible toma r pos ter iormen te las mejores decision es res pecto a la técnica de recog ida de info rm ació n y el aná lisis de los datos . Para este propós ito Radfor d (2006) tam bién a boga por rea liza r un a revisión bibli og ráfica para sa ber aqu ello qu e ya es conoc ido acerca del tipo de act ividad, prog ram a o part icipa ntes que será n estud iado s.


1146]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTOINFORMACIONAL

5 .2.2. Planes y especificaciones En esta fase es necesario especificar, de la forma más precisa posible, las situaciones, actividades, individuos o grupos que serán observados, así como quién realizará tales observaciones y el procedimiento que empleará para ello. Todos estos detalles será necesario documentarlos convenientemente para asegurar la consistencia y objetividad de la recogida de datos, especialmente en aquellos estudios donde exista más de un investigador-observador. En definitiva, consistirá en clarificar los siguientes aspectos: A) CONTEXTO Y SITUACIÓN QUE SERÁN OBSERVADOS

Sonnenwald y Livonen (1999) definen el contexto como el conjunto de situaciones pasadas, presentes y futuras, y las situaciones como acciones o conductas que ocurren a través del tiempo y que pueden ser percibidas como relacionadas. El contexto sería un concepto más genérico, ya que un contexto puede abarcar diversas situaciones. Por ejemplo, la universidad sería el contexto y la búsqueda de información por parte de un alumno para la realización de un trabajo académico o por parte de un docente para la preparación de una clase serían distintas situaciones que tienen lugar en ese contexto. Por ejemplo, en un estudio donde se pretenda estudiar las necesidades de información de un colectivo de profesionales en un contexto organizacional, el primer paso antes de estudiar a los individuos que formen parte de ese grupo de estudio será el conocer lo más detalladamente posible las características del puesto de trabajo que desempeñan y el rol que asumen en el conjunto de la organización en la que realizan su trabajo. Este será el contexto de referencia en el que tendrá lugar el proceso de toma de decisiones, que, desde el punto de vista del estudio de las necesidades de sus usuarios potenciales, es de suma importancia conocer para emprender la planificación de sistemas de información adecuados a esos usuarios y en consonancia con la misión, metas y objetivos de la organización en la que desarrollan su actividad. Dentro de ese contexto organizacional, los incidentes podrán referirse a diversas situaciones que tengan que ver con el proceso de toma de decisiones en el transcurso del desempeño de cada uno de los puestos de trabajo. Un ejemplo de la obtención de incidentes críticos en entornos organizacionales lo podemos encontrar en el trabajo de Maurel y Bergeron (2007). Estas investigadoras estudian las situaciones en las que los gerentes de nivel intermedio usan información para tomar decisiones y el modo en que estas decisiones están condicionadas por el contexto. En el caso concreto de este estudio, se trataba de un contexto sometido a cambios, por lo que la obtención de información se dirigió a registrar incidentes que describieran situaciones antes y después de esos cambios.


5. TÉCNICA DEL INCIDENTECRÍTICO

B) INDIVIDUOS

f147J

O GRUPOS QUE SERÁN OBSERVADOS

Además de la definición del contexto, es necesario hacer una descripción de aquellos individuos de quienes vamos a recoger los incidentes (y de los que no) conforme al objetivo de la investigación. Además, habrá que tomar algunas decisiones en cuanto al procedimiento de muestreo y el tamaño de la muestra. La ne es una técnica que se enmarca mejor en un marco de referencia cualitativo y, en la mayoría de las ocasiones, con una intención descriptiva y exploratoria. De esta manera, su propósito es lograr la mayor cobertura posible en cuanto a los posibles incidentes que se puedan llegar a dar en el contexto estudiado, no los más representativos. Por ello, es útil partir de un muestreo no probabilístico tal y como se ha descrito en el capítulo 2. Por ejemplo, Kraaijenbrink (2007), en un estudio cuyo objetivo fue detectar las lagunas (gaps) informativas cuando los ingenieros buscaban en Internet, seleccionó los casos partiendo de un muestreo teórico. Es decir, el tipo y el número de los encuestados no estaban establecidos de antemano, sino que derivaban de la necesidad de una mayor exploración hasta que se conseguía la llamada saturación teórica o el momento en que la recogida de más datos no derivara en la obtención de información distinta a la ya recopilada. En el caso del trabajo de Kraaijenbrink (2007) la investigación se inició con una selección de cuatro encuestados ingenieros de la industria electrónica, dos de la industria química y un fabricante de maquinaria. Después de un análisis inicial de las siete entrevistas, se realizaron siete entrevistas adicionales de ingenieros de empresas distintas, alcanzando en este momento la saturación teórica, ya que no se obtenía más información de la ya recabada acerca de las lagunas informativas. No obstante, se realizaron tres entrevistas en otras empresas para comprobar que realmente se había alcanzado el punto de saturación teórica. Respecto al tamaño de la muestra, la idea general que lo guía es que este cálculo se debe hacer en base al número de incidentes que necesitemos recoger, no al número de personas que vayamos a observar. Para Flanagan (1954) la recopilación de datos y el análisis debe llevarse a cabo simultáneamente y debería concluir cuando los incidentes que se van recogiendo sean redundantes (o se haya alcanzado la saturación teórica en términos de la teoría fundamentada). C) INDIVIDUOS

QUE REALIZARÁN LAS OBSERVACIONES

Para Flanagan (1954), quien realice las observaciones debe estar familiarizado con aquello que observe y registre. Además, es necesario formar a los observadores, primero, con relación al objetivo de la actividad observada y, segundo, diferenciando lo relevante de lo irrelevante en cuanto a estas observaciones.


(148)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

Un modo de formar a los observadores en este último aspecto es proponer el análisis y discusión de incidentes relevantes y no relevantes. Por ejemplo, en un estudio de necesidades de información en un contexto universitario centrado en el comportamiento informacional de los estudiantes universitarios, un incidente relacionado con la gestión de la matrícula relevante para el propósito de la investigación, puesto que informa sobre el proceso de búsqueda de información, sería el siguiente: Cuando este año tuve que matricularme de tercero de carrera me di cuenta de que necesitaba asignaturas de libre opción para completar mi expediente. Pregunté en la secretaría de la facultad sobre la oferta de este tipo de créditos por parte de la universidad y me dijeron que consultara la web. En la web no encontré directamente esa información, ya que no hay un apartado específico donde se diga toda la oferta de créditos de libre opción. Por lo tanto, tuve que navegar por distintos departamentos y servicios e incluso buscar en Google para encontrar algo que realmente no me interesaba. Finalmente pregunté a un compañero, que va un curso por delante de mí, en qué se había matriculado él como de libre opción. Él me dio la información que necesitaba y finalmente formalicé mi matrícula.

Y uno no relevante, puesto que no informa sobre el proceso de búsqueda de información: Cuando este año tuve que matricularme de tercero de carrera me di cuenta de que necesitaba asignaturas de libre opción para completar mi expediente. Pregunté en secretaría y busqué en la web, pero no había manera. La universidad podría ofrecer más información, porque cuando vas a matricularte no sabes qué hacer y yo ya estoy en tercero y me entero de algo y conozco a gente, pero los de primero van locos con la matrícula. Y la solución no es que te ayuden con el ordenador para matricularte por Internet, sino que tengas claro de qué quieres matricularte. Esto es un desastre.

En cualquier caso los observadores deberían seguir un procedimiento estándar, registrado en un documento por escrito, en el que se especificaran lo más detalladamente posible el modo en que se va a recabar información, los incidentes que son relevantes y los que no y otros aspectos importantes tales como el plazo en que los incidentes que se van a recoger hayan ocurrido.

5.2.3. Recogida de los datos Flanagan (1954) menciona cuatro técnicas útiles para obtener los datos de los distintos incidentes críticos: a) entrevistas individuales, b) entrevistas de grupo, c) cuestionarios y d) formularios de registro (observación y registro de los incidentes). En el caso concreto del ámbito de la información y la documentación, la mayor parte de los es-


5. TÉCNICA DEL INCIDENTE CRITICO

(149)

tudios que emplean la TIC realizan la recogida de datos a través de encuestas (cuestionarios autoadministrados o entrevistas personales). En este sentido, de los 18 trabajos revisados por Urquhart y otros (2003) que utilizaron la TIC entre 1983 y el 2001, solo en tres ocasiones se utilizó una técnica de recogida de datos distinta al cuestionario. Para Chell (2004) la entrevista basada en la técnica del incidente crítico es un procedimiento de entrevistas cualitativas, lo que facilita la investigación de sucesos significativos (acontecimientos, hechos, procesos o asuntos), identificados por el informante, la forma en que se gestionan y los resultados en términos de los efectos percibidos. El objetivo es obtener una comprensión de los hechos desde la perspectiva del propio individuo, teniendo en cuenta los aspectos cognitivos, afectivos y conductuales. Los estudios basados en la TIC que utilizan la entrevista o cuestionario en el ámbito de información y documentación normalmente solicitan al entrevistado que recuerde una situación anterior que haya ocurrido en el transcurso, por ejemplo, de la búsqueda de determinada información, en el proceso de tomar una decisión o en el momento de atender a un usuario en el mostrador de referencia. Por ejemplo, en el estudio llevado a cabo por Johnson (2003) con el objetivo de averiguar el comportamiento informacional de los habitantes de Ulan Bator (Mongolia) en su vida cotidiana, se empleó un cuestionario en el que, en parte, se hacían preguntas basadas en la TIC como la siguiente: Me gustaría que pensara en una ocasión reciente en que usted necesitó información o asesoramiento para ayudar a hacer frente a una situación particular. Por ejemplo, una situación en la que necesitó información relacionada ya sea con su salud o la salud de un familiar; para la búsqueda de un empleo o para crear una empresa, o información acerca de los programas gubernamentales relacionados con las pensiones o prestaciones sociales o sobre programas de capacitación laboral, por ejemplo. No obstante, si no se encontró en alguna de las anteriores situaciones, ¿puede usted decirme algo acerca de otra situación en que haya necesitado información? (Johnson, 2003).

Chell (2004) expone algunas pautas que deben guiar la entrevista basada en la TIC. Aunque lo aplica a los estudios de las organizaciones, bien podrían aplicarse al ámbito de la información y documentación. Esta autora aconseja que, tras el aporte por parte del entrevistado de una información inicial, es adecuado realizar una serie de preguntas genéricas para motivar una respuesta más detallada. Algunos ejemplos serían los siguientes: ¿Qué pasó después? ¿Por qué ocurrió? ¿Cómo ocurrió? ¿Con quién fue?


[150]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

¿Qué sienten las partes interesadas? ¿Cuáles fueron las consecuencias inmediatas y a largo plazo? ¿Cómo hacer frente al demandado? ¿Qué tácticas se utilizaron? Por ejemplo, en el caso de estudio de Johnson (2003 ), tras la pregunta inicial acerca de una situación concreta de necesidad y búsqueda de información que lleva a centrar al informante en un momento concreto del pasado, se realizan las preguntas que aparecen en el cuadro 16. Cuadro 16. Preguntas para motivar una respuesta más amplia en la técnica del incidente crítico (Johnson, 2003) 1. ¿Podría describir esta situación? 2. En una escala de 1 (no muy importante) a 3 (importancia crítica), señale lo importante que fue para usted encontrar información acerca de esta situación:

No muy importante (yo tenía curiosidad por saber la respuesta, pero no era muy importante encontrarla) Importante (yo estaba interesado en encontrar la información, pero las consecuencias de no encontrarla no fueron graves). Es de importancia crítica (Si no puedo encontrar la información, tendrá efectos graves sobre mí o sobre mi familia) 3. ¿Adónde acudió en primer lugar para obtener información (por ejemplo, persona, organización, prensa, radio, televisión, Internet)? Si fue una persona: pase a la pregunta 4. Si acudió a una organización: pase a la pregunta 13. Si fue a través de los medios de comunicación: pase a la pregunta 22.

5 .2.4. Análisis de los datos El análisis de datos de naturaleza cuantitativa y cualitativa se describe con detalle en los últimos capítulos de este libro; no obstante, aquí se describe el procedimiento expuesto por el propio Flanagan (1954). Desde el punto de vista concreto de la TIC, esta fase consiste en un proceso inductivo de análisis de datos que tiene como objetivo clasificar los incidentes críticos e identificar los distintos comportamientos según los objetivos que nos hemos planteado. Se trata de organizar la información obtenida en categorías y subcategorías mutuamente excluyentes. Flanagan (1954) recomienda realizar tres tareas en este proceso: a) la selección de un marco de referencia útil para describir los incidentes, b) el desarrollo inductivo de una serie de categorías y subcategorías y e) la determinación de los niveles de especificidad/generalidad en el análisis de resultados.


5. TÉCNICA DEL INCIDENTE CRÍTICO

[151]

a) Marco de referencia. El investigador desarrolla un marco de referencia o conjunto de categorías generales de clasificación de los incidentes críticos. Estas categorías principales y sus rúbricas deben reflejar el objetivo de la actividad y se refieren a la aplicación prevista de los resultados. b) Formulación de categorías. El investigador indaga en los incidentes, identifica comportamientos críticos y los clasifica en categorías y subcategorías. Esto podría comportar un ejercicio de ensayo y error, ya que las categorías no son predeterminadas, sino que el investigador las hace emerger (de manera similar al proceso que se describirá más adelante sobre la teoría fundamentada) durante el proceso. Este es el aspecto más difícil del análisis, ya que depende de la «visión, experiencia y juicio» del investigador. Algunas de las pautas para la construcción de categorías y la creación de la clasificación son las siguientes: • • •

• • •

Ordenar una muestra relativamente pequeña de incidentes críticos en categorías principales. Crear nombres provisionales y breves definiciones de las categorías principales. Ordenar los incidentes restantes en las categorías principales: crear más categorías principales y definiciones, o modificar las existentes, según sea necesario. Dividir las principales categorías en subcategorías atendiendo a las similitudes y diferencias que se vayan encontrando. Revisar continuamente las categorías y subcategorías y reasignar los incidentes críticos en caso de que sea necesario. Continuar este proceso hasta que todos los incidentes críticos hayan sido debidamente clasificados.

c) Especificidad. El investigador determina el nivel adecuado de análisis, de acuerdo con el objetivo de la actividad y el objetivo del estudio. Esto implica un equilibrio entre la especificidad y la generalidad. La primera opción permite más detalle y complejidad, mientras que la segunda es más amplia y sencilla.

5 .2.5. Interpretación de los datos y comunicación de los resultados Esta etapa consiste en interpretar y comunicar los datos conforme a los objetivos que han guiado la investigación y la aplicación de los resultados. La TIC no requiere un formato de informe específico, pero los resultados suelen incluir ejemplos de los incidentes críticos que ilustran la actividad estudiada.


[152]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

Con el fin de establecer la credibilidad de los resultados, Flanagan (1954) destaca la necesidad de explicar y justificar cómo se han llevado a cabo los cuatro pasos anteriores y especificar con precisión las circunstancias en que los resultados podrían aplicarse. Para más detalle acerca de los procedimientos para asegurar la calidad de la investigación, véase el capítulo l.

5.3. VENTAJAS Y LIMITACIONES DE LA TÉCNICA DEL INCIDENTE CRÍTICO

En primer lugar, la técnica del incidente crítico permite una orientación exploratoria de la investigación, en la que la observación se realiza en el propio contexto en el que ocurre el hecho observado. En este sentido, una cuestión que Hewins (1990) apunta es que esta técnica resulta eficaz en el estudio de las necesidades y usos de la información, pues está ligada totalmente al proceso de toma de decisiones, ya que relaciona directamente el problema con la información necesitada en el contexto del proceso de toma de decisiones. En segundo lugar, la TIC hace especial énfasis en el recuerdo de un hecho pasado en el que el informante decide cuál va a ser su respuesta, este hecho permite mayor inmediatez y autenticidad. En tercer lugar, una de las principales ventajas de la técnica del incidente crítico es la posibilidad de relacionar el mundo real con el comportamiento de los individuos, lo que minimiza el componente subjetivo del investigador. En este sentido, la TIC es similar a la noción de la teoría fundamentada (Glaser y Strauss, 1967): «[... ] en el descubrimiento de la teoría, se generan categorías conceptuales o sus propiedades de la evidencia, entonces la evidencia de la que surgió la categoría se utiliza para ilustrar el concepto». Este es el medio empleado en la investigación basada en incidentes críticos, ya que permite fundamentar la investigación en la realidad. A partir de esto la TIC, planteada en una fase exploratoria, podría permitir la identificación de las cuestiones claves para la investigación y desarrollar una base de conocimientos para el desarrollo de modelos conceptuales posteriores (Woolsey, 1986). Por último, desde un punto de vista metodológico, aunque Flanagan (1954) planteó una serie de principios que estructuran el análisis, la TIC permite gran flexibilidad en esta fase de la investigación, de tal manera que es posible realizar un análisis más genérico o más específico dependiendo de la aplicación prevista de los resultados. Respecto a los inconvenientes, en primer lugar, desde un punto de vista conceptual, la TIC carece de una base teórica fuerte de algunos otros métodos cualitativos. Sin embargo, esto puede ser favorable para los estudios que tienen por objeto desarrollar un marco teórico conceptual o seguir un enfoque fundamentado en los datos. Igualmente, la no existencia de esta base teórica le proporciona a la TIC la


5. TÉCNICADELINCIDENTECRITICO

[153]

flexibilidad necesaria para orientar la investigación siguiendo un modelo teórico previo. Desde un punto de vista práctico, el proceso de clasificación de los distintos incidentes es laborioso y lento. Igualmente, la fiabilidad de al TIC es cuestionada con respecto a la limitada posibilidad de generalización de resultados, subjetividad del análisis y la selectividad o falta de exactitud de los incidentes críticos, debido a que se basa en lo que el informante recuerda. Esto es algo que comparte con otros métodos y técnicas de naturaleza cualitativa. Sin embargo, es un motivo más para hacer más hincapié en la introducción de estrategias que permitan añadir mayor rigurosidad al proceso de investigación, como por ejemplo: la formación de los observadores, la definición previa de conceptos y procedimientos, la implicación del observado en el proceso de verificación, la triangulación metodológica, la validez inter e intraobservador u otras estrategias para asegurar la calidad de la investigación propuestas en el capítulo 1.

5.4. EJEMPLOS DE INVESTIGACIONES

Ejemplo 1. Estudio de las necesidades de información de los médicos en el ámbito hospitalario

Un ejemplo de la aplicación de la TIC lo tenemos en el estudio de las necesidades de información de los médicos del Hospital Clínico Universitario de Valencia (González Teruel, 2000). En él se trató de probar su utilidad y conocer qué información necesitaban los médicos para tomar decisiones relacionadas con las distintas tareas que realizaban durante su jornada laboral. Fue un estudio exploratorio en el que se partía de una falta de conocimiento objetivo sobre el comportamiento informacional de estos usuarios en ese contexto. Para ello se elaboró un cuestionario cuya pregunta central trataba de situar al informante en un momento concreto de su actividad pasada en el que hubiera necesitado información. La pregunta se formuló de la siguiente manera: Por favor, describa, lo más detalladamente posible, la ocasión más reciente y significativa en la que para tomar una decisión o para resolver un problema durante su actividad laboral haya necesitado información adicional, con independencia de si ha buscado o no esa información y del éxito o fracaso de la búsqueda.

El modo de administrarlo, aunque en principio se consideró la autocumplimentación, fue a través de entrevistas personales. Esto fue motivado por dos causas: a)


[154)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

evitar una alta tasa de no respuesta, pues el tiempo y el interés por participar en el estudio podían ser limitados y b) permitir aportar aclaraciones sobre la pregunta realizada en el transcurso de la cumplimentación por parte del médico. Junto con la pregunta central de la ne, se hicieron otras con el fin de clarificar la situación relatada por el médico (cuadro 17 y cuadro 18). Dada la naturaleza cualitativa de esta técnica, la población a estudiar no partió de un muestreo previo, sino que, para que los resultados fueran suficientemente significativos y variados en los casos que recogiera, se optó por considerar como población diana a todos los médicos del hospital con jornada completa, en total 456. Igualmente, esta decisión ayudaría a aumentar el número de individuos entrevistados, ya que era previsible una tasa de respuesta baja. Con ello, se obtuvo una tasa de respuesta válida del 81,6 %, cifra bastante alta si se compara con estudios de similar naturaleza. Cuadro 17. Preguntas del cuestionario en el estudio de González Teruel (2000) (1) 2. ¿Con qué urgencia necesitaba la información? Inmediatamente En el mismo día Una semana Más de una semana 3. ¿Buscó la información que necesitaba? SÍ NO

Pase a la pregunta 5 Conteste a la pregunta 4 y dé por finalizado el cuestionario

4. ¿Por qué no buscó la información que hubiera necesitado? Falta de tiempo Información disponible pero no accesible Horario de disponibilidad de los recursos inconveniente La información disponible no está actualizada Desconocía dónde podía obtenerla Otros (Especificar) 5. ¿Quién realizó la búsqueda? 1. Usted mismo 2. Delegó en otra persona: ¿en quién?

Para analizar la información, se realizaron dos tipos de análisis. En primer lugar, un análisis de contenido de los relatos realizados por cada médico. Para ello se construyó una clasificación basada en los datos y en el estudio de Siegel, Rapp y Lindberg (1991). Los criterios de esta clasificación fueron los problemas informativos y la información necesitada (cuadro 19 y cuadro 20). Además, se realizó un segundo análisis estadístico del resto de las preguntas incluidas en el cuestionario.


5. TÉCNICA DEL INCIDENTE CRfTICO

[155)

Cuadro 18. Preguntas del cuestionario en el estudio de González Teruel (2000) (11) 6. Por favor, señale con una cruz la casilla que mejor describa la fuente adonde acudió usted o la persona en la que delegó para buscar la información que necesitaba y la razón para elegir esa fuente Calidad Actualización Bajo Facilidad Comodidad Accesibilidad Rapidez de los de los Pertinencia coste de uso contenidos contenidos Biblioteca o centro de documentación del hospital/facultad Biblioteca o centro de documentación distinto al hospital/ facultad Archivo de historias clínicas Internet Unidad de investigación hospitalaria Recursos personales Compañeros de la misma especialidad Compañeros de otra especialidad Organizaciones profesionales Conferencias, seminarios o reuniones Otros (especificar) 7. ¿Cómo valoraría usted la información proporcionada por cada fuente utilizada para la resolución del problema que motivó la búsqueda? Ni satisfactoria Muy satisfactoria Satisfactoria Insatisfactoria Muy insatisfactoria ni insatisfactoria FUENTES Biblioteca o centro de documentación del hospital/facultad Biblioteca o centro de documentación distinto al hospital/facultad Archivo de historias clínicas Internet Unidad de investigación hospitalaria Recursos personales Compañeros de la misma especialidad Compañeros de otra especialidad Organizaciones profesionales Conferencias, seminarios o reuniones Otros (especificar)


[156]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

Cuadro 19. Clasificación de los problemas de información de los médicos del Hospital Clínico Universitario de Valencia (González Teruel, 2000) 1.

CUIDADO

DEL PACIENTE

1.1. Caso raro 1.2. Diagnóstico 1.2.1. Diagnóstico clínico 1.2.2. Diagnóstico anatomopatológico 1.2.3. Diagnóstico radiológico 1.2.4. Diagnóstico de laboratorio 1.2.5. Interpretación pruebas de otra especialidad 1.3. Tratamiento 1.3.1. Pauta de actuación 1.3.2. Decisión terapéutica 1.3.3. Información sobre medicamento 1.3.4. Valoración de un paciente 2.

ESTUDIO Y APRENDIZAJE

2.1. 2.2. 2.3. 2.4. 2.5. 3.

Revisión de casos Actualización de conocimientos Sesión clínica Comunicación científica Publicación

PROCEDIMIENTO

3.1. 3.2. 3.3. 3.4. 3.5. 3.6.

Solicitud de prueba diagnóstica Acceso a la asistencia Acceso a la historia clínica Localización de un paciente Derivar a un paciente Localización de un fármaco

4. GESTIÓN 4.1. 4.2. 4.3. 4.4. 4.5. 5.

Implantación de una nueva tecnología Gestión asistencial Confección de memoria Planificación de un servicio Gestión del hospital

INVESTIGACIÓN

5. l. Investigación 5 .2. Estudio epidemiológico 5.3. Actualización de protocolo 6.

DOCENCIA

6.1. Residentes 6.2. Facultad 6.3. Otros


5. TÉCNICADEL INCIDENTECRÍTICO

11571

Cuadro 20. Clasificación de la información necesitada por los médicos del Hospital Clínico Universitario de Valencia (González Teruel, 2000) Datos del paciente Estadísticas de población Conocimiento médico Información sobre procedimientos Información para la gestión

En cuanto a los resultados, estos sirvieron para realizar una primera aproximación al contexto informacional de un grupo de usuarios en un entorno organizacional concreto, el del Hospital Clínico Universitario de Valencia. Por otra parte, en cuanto a la técnica utilizada, se demostró que fue útil para conseguir los objetivos propuestos, y permitió la recogida de un gran volumen de información cualitativa que no hubiera sido posible conseguir de otro modo. En este sentido, fue de gran ayuda el hecho de que los médicos que relataron problemas relacionados con el diagnóstico o tratamiento de pacientes describían toda la historia pasada del paciente, sintiendo la necesidad de situar al interlocutor en la circunstancia real en la que surgió la necesidad de información.

Ejemplo 2. Comportamiento informacional de los jóvenes adultos en materia de salud sexual

El estudio de Fortier (2008) y Portier, Dufour y Bergeron (2010) tuvo como objetivo investigar el comportamiento informacional de los jóvenes adultos (18 a 25 años) en materia de salud sexual. En concreto, su objetivo fue conocer las situaciones problemáticas que encontraban en ese ámbito y cómo obtenían y utilizaban la información. Para ello, seleccionaron una muestra de ocho individuos a través del procedimiento del muestreo teórico. El método de recogida de información fueron entrevistas en profundidad orientadas según la TIC. En este caso, la entrevista se inició pidiéndole al informante que pensara en una situación reciente (seis meses) en la que hubiera tenido necesidad de información en materia de salud sexual. Posteriormente, con relación a esta situación se formularon preguntas relacionadas con el contexto en que surgió esa necesidad, el medio para la obtención de la información necesaria y el uso que se hizo de tal información. El análisis de los datos obtenidos se realizó por medio de un análisis de contenido cualitativo siguiendo los procedimientos de la teoría fundamentada. La unidad de análisis considerada fue cada uno de los incidentes registrados. Estos fueron clasifica-


[158]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

dos partiendo de categorías basadas en los propios datos, pero también en categorías predefinidas provenientes de otras investigaciones, buscando dar respuesta a cada una de las preguntas de investigación formuladas. Las situaciones problemáticas fueron clasificadas según tipos y dimensiones. Los tipos describían el contexto en que estas situaciones tuvieron lugar y fueron tres: a) síntomas físicos subjetivos, b) acontecimiento de riesgo y e) adquisición pasiva de información. Por otra parte, cada una de estas situaciones fue clasificada siguiendo las dimensiones del modelo de MacMullin y Taylor (1984) sobre el entorno de uso de la información. El resto de aspectos estudiados fue analizado, en la misma línea, tanto a partir de categorías basadas en los datos como a partir de investigaciones precedentes.

5.5. RESUMEN

La técnica del incidente crítico (TIC) es un procedimiento sistemático de recogida de datos que pretende centrar al informante en un momento pasado en el que ocurrió algo relevante para la investigación. Desde el punto de vista del estudio del comportamiento informacional, es una técnica que permite centrar al usuario en un momento del pasado en el que necesitó información y, como consecuencia de ello, el proceso de búsqueda al que dio lugar. Por lo tanto, permite vincular la información utilizada con el problema que generó esa necesidad de información, obteniendo información amplia sobre estos aspectos sin buscar las extrapolaciones ni la generalización de resultados, solo información rica en detalle. La TIC es un procedimiento flexible que puede adaptarse con facilidad a los objetivos de la investigación, aunque de forma general se contemplan cinco etapas en su puesta en marcha: 1) definición de objetivos generales, 2) establecimiento de planes y especificaciones, 3) recogida de datos, 4) análisis y 5) interpretación de los datos y comunicación de los resultados. Puesto que el objetivo es obtener información rica en detalle más que representatividad de los resultados, la selección de los informantes se realiza generalmente por medio de muestreo no probabilístico. Por otra parte, los datos se pueden obtener por medio de una entrevista individual en la que se pregunta por un hecho ocurrido en el pasado, relevante para la investigación, pero también se pueden obtener a través de entrevistas de grupo, cuestionarios y observación. Finalmente, el análisis de los datos obtenidos se realiza por medio de análisis de contenido cualitativo.


CAPÍTULO 6

OBSERVACIÓN

6.1. DEFINICIÓN Y ÁMBITOS DE APLICACIÓN

La técnica de la observación consiste en conocer de primera mano y registrar de forma sistemática distintos fenómenos observables que, en el ámbito del comportamiento informacional, pueden ser todos aquellos que tengan relación con las distintas situaciones vividas por un usuario o grupo de usuarios en el transcurso del proceso de búsqueda de información. La principal ventaja de esta técnica es la de permitir estudiar a este usuario en el contexto natural en el que necesita, busca, gestiona, comparte, difunde y utiliza la información. Junto con todo ello, la observación permite la obtención de datos más allá de su percepción y al margen de su voluntad de proporcionarlos. En el estudio del comportamiento informacional, existen ya en los años sesenta precedentes del uso de esta técnica para el estudio de algún aspecto del proceso de búsqueda de información. Es el caso del trabajo de Pings y Anderson (1965), recogido por Herner y Herner (1967), que estudiaron a través de la observación el uso que hacían los usuarios del espacio de una biblioteca universitaria. Igualmente, en el estudio Infross (Jnformation Requirements of the Social Sciences), dirigido por Maurice Line ( 1971 ), se utilizó la observación, junto con entrevistas y cuestionarios, para estudiar las necesidades y usos de la información, tanto formal como informal, de los científicos sociales. Sin embargo, al margen de estos primeros estudios, existe una investigación que aún actualmente es un referente en el uso de la observación para el estudio del comportamiento informacional por el avance metodológico que supuso. Se trata del estudio INISS (lnformation Needs and Services in Social Services Departments). Como reacción al abuso precedente de técnicas de orientación cuantitativa (sobre todo cuestionarios) para el estudio del usuario, y llevados por la necesidad de obtener resultados realmente aplicables a la mejora de sistemas de información, Wilson


(160]

MÉTODOS Y TÉCNICASPARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

y sus colaboradores diseñan una estrategia basada en la triangulación metodológica. Para ello la técnica de la observación se utilizó en una primera fase exploratoria, principalmente para conocer el contexto de estudio, y fue seguida de una fase de entrevistas en la que se validaron los resultados obtenidos en la fase anterior, a la vez que profundizaron más en aspectos concretos de interés para la investigación (Wilson y Streatfield, 1977; Wilson, Streatfield y Mullings, 1979; Streatfield y Wilson, 1982). En el último epígrafe de este capítulo se describen los detalles de la fase de observación del estudio INISS. Uno de los motivos por los que el estudio INISS marca un antes y un después en los estudios sobre comportamiento informacional es el hecho de que abordó el estudio de este fenómeno de forma global y sin juicios previos acerca de los hábitos informativos de los usuarios que iba a estudiar. Para ello, la observación fue una estrategia de gran utilidad, pues permitió orientar la investigación del usuario en el contexto en el que necesitaba y usaba la información, sin extrapolaciones artificiales por razón de variables sociodemográficas que nada o poco tenían que ver con el fenómeno ni el contexto estudiado. A partir de estos primeros estudios se han desarrollado otros a lo largo de los años que, aun no siendo de la importancia y envergadura del INISS, han aportado un mayor conocimiento sobre diversos aspectos del comportamiento informacional en diferentes contextos. A continuación se describen algunas de las aplicaciones de la observación para el estudio del comportamiento informacional: Estudio del comportamiento de búsqueda de información de los miembros del Parlamento británico (Orton, Marcella y Baxter, 2000). -111 Papel de los trabajadores de enfermería como proveedores de información de los ancianos a los que asisten (Pettigrew, 1999), así como para el estudio de las necesidades de información de los propios trabajadores de enfermería (Blythe y Royle, 1993). -111 Uso del espacio de distintos tipos de biblioteca por parte de sus usuarios (Shoham y Shemer-Shalman, 2003; Bryant, Matthews y Walton, 2009) y su influencia en su comportamiento informacional (Given y Leckie, 2003). -111 Estudio del comportamiento informacional colaborativo de un equipo interdisciplinar en un departamento de urgencias médicas (Reddy y Spence, 2008), así como para la construcción de un modelo de comportamiento informacional de los científicos en medicina y salud pública (Blake y Pratt, 2006). -111 En el contexto bibliotecario, para la evaluación de un prototipo de una biblioteca electrónica (Downs, 1999), así como para estudiar el papel de la conducta no verbal en el comportamiento del usuario en un servicio de referencia (Radford, 1998). -111


6. OBSERVACIÓN

~

~

(161)

Necesidades de información de los médicos en atención primaria (GonzálezGonzález y otros, 2005, 2006) y de los médicos oncólogos (Lomax, Lowe y Logan, 1998). Necesidades de información de los pacientes con migraña (Buchanan y otros, 1995).

6.2. TIPOS DE OBSERVACIÓN

Existen diversos enfoques de la observación como técnica de recogida de datos. Los principales criterios que determinan esta diversidad son el conocimiento por parte del sujeto de que está siendo observado, el rol que asume el observador y los medios utilizados para el registro de las observaciones, entre otros (cuadro 21). En primer lugar, es posible distinguir entre observación abierta y observación encubierta. En la primera los individuos observados son conscientes de que están sujetos a investigación y conocen quién es el observador y el papel que cumple. Es la forma en la que normalmente se aplica esta técnica al estudio del comportamiento informacional. Pero también esta observación puede hacerse de forma encubierta, es decir, dichos individuos no saben que están siendo observados. De esta manera se evita la posible influencia del observador sobre aquello que observa y los posibles cambios que se producen en la conducta de los individuos que se saben observados. En segundo lugar, la observación puede ser participante y no participante. En la observación participante el observador está integrado en la dinámica del grupo observado de tal manera que puede captar el sentido subjetivo de los aspectos que observa. En la observación no participante el investigador es una persona ajena al grupo y no interfiere en lo que está ocurriendo mientras realiza tales observaciones. En tercer lugar, en cuanto al modo como se registran las observaciones, se puede distinguir entre observación estructurada y no estructurada. En la observación estructurada el investigador entra en el campo conociendo de antemano qué aspectos debe observar y registrar. Estos aspectos se han definido previamente y están derivados de los objetivos de la investigación. Por el contrario, en la observación no estructurada los registros de la realidad observada son más abiertos y no se establecen a priori los aspectos que se van a observar. Además, existen otros criterios como son el control al que se somete el entorno estudiado. Desde este punto de vista, es posible encontrar investigaciones en las que los aspectos observados son aquellos que ocurren sin que el investigador modifique o controle las condiciones en las que ocurren o, por el contrario, una observación de laboratorio en la que las condiciones en las que se desarrollan los acontecimientos observados están sometidas a un fuerte control. También se distingue entre observa-


1162)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

INFORMACIONAL

Cuadro 21. Tipos de observación Conocimiento por parte del sujeto observado (o según el modo de entrar en el campo): Abierta Encubierta Según el rol del observador Participante No participante Según el grado de estructuración de las observaciones Observación no estructurada o asistemática Observación estructurada o sistemática Otros criterios Según el control al que se somete el entorno: trabajo de campo/laboratorio Según el número de observadores: individual/en equipo Según a quien se observe: a otros/autoobservación

ción individual y observación en grupo y la observación que realiza el observador de aspectos externos de la realidad y la autoobservación en la que coinciden observador y sujeto observado. Al margen de estos criterios, en la literatura sobre metodología de las ciencias sociales es posible identificar dos tradiciones en lo que respecta a la técnica de la observación que vienen determinadas en gran medida por la disciplina en la que se originaron y desarrollaron. La primera de ellas tiene sus orígenes en la psicología y la segunda surge en el seno de la sociología y la antropología. El modo de denominar estas dos tradiciones, así como sus características definitorias, varía según distintos autores. Así, Denscombe (2007) habla de la observación sistemática y la observación participante. La primera de ellas la relaciona con la producción de datos cuantitativos y el uso de análisis estadístico. La segunda es la observación participante que tiene una orientación más cualitativa. Sin embargo, la denominación que emplean Gorman y Clayton (2005) se refiere al grado de estructuración del registro de las observaciones. De esta manera, identifican en la literatura sobre metodología de investigación dos tipos de observación, la estructurada y la no estructurada. La observación estructurada se centra en un evento o actividad y registra estas observaciones utilizando un instrumento de observación preestablecido en el que se han previsto una serie de categorías, lo que da lugar a la obtención de datos cuantitativos. Por el contrario, en la observación no estructurada el observador registra cualquier conducta o evento que es relevante para las preguntas de investigación, lo que implica un proceso más abierto desde un enfoque cualitativo. Por último, Hernández-Sampieri y otros (201 O)se refieren a estas dos tendencias en la técnica de la observación como observación cuantitativa con un carácter deductivo y observación cualitativa con un enfoque inductivo.


6. OBSERVACIÓN

[163]

En cualquier caso, como se ha mencionado, son dos tradiciones en las que en un extremo podemos encontrar un planteamiento muy sistemático y en el otro muy abierto y asistemático. Son dos modos de aplicar la técnica de la observación condicionados y determinados por el enfoque que se le da a las distintas investigaciones. En este sentido, desde la documentación no es posible identificarse con ninguno de estos planteamientos de forma exclusiva, sino con todos en general, en la medida en que aportan pautas útiles para sus necesidades de investigación. Es por ello por lo que en el presente capítulo no se organizan los contenidos siguiendo estas dos líneas, sino atendiendo a los tres principales criterios que marcan los distintos tipos de observaciones. Es el investigador el que, en el diseño de un estudio observacional, deberá establecer el modo en que se realizarán las observaciones según los objetivos de su propia investigación.

6.3. ENTRADA EN EL CAMPO. OBSERVACIÓNABIERTAY ENCUBIERTA

Como se ha explicado en el epígrafe anterior, la observación abierta es aquella en la que los sujetos de la investigación conocen que están siendo observados. Por el contrario, en la observación encubierta, la existencia del observador permanece oculta para el grupo observado. Una de las cuestiones relevantes que se discuten con relación a la calidad de la investigación basada en la técnica de la observación es el efecto del observador sobre la situación observada. Anguera (2003) se refiere a este fenómeno como reactividad y lo considera una fuente de sesgo en la observación, ya que la naturaleza espontánea de las conductas de los sujetos observados es alterada cuando estos son conscientes de que están siendo observados. Es precisamente el efecto que produce el observador en el grupo observado el principal argumento que se esgrime en favor de la observación encubierta. Además, el hecho de no dar a conocer la existencia de un observador facilita el acceso a determinados entornos. En ocasiones, la observación se realiza de forma encubierta pero se hace uso de un informante clave que es el único que conoce la existencia de tal observador y que actúa de gatekeeper. Sin embargo, realizar una observación encubierta comporta problemas éticos por la violación de la intimidad de los sujetos observados, así como el posible daño que pueda hacérseles. No obstante, Corbetta (2010) afirma que esto es así cuando se trata de la observación de entornos privados, pero no ocurre lo mismo cuando se trata de observar ambientes públicos. Este es el caso, por ejemplo, del estudio de Bryant, Matthews y Walton (2009), que investiga los usos sociales del espacio de la biblioteca de la Universidad de Loughborough, en Reino Unido. Al proponer la investigación basada en la observación encubierta al comité de ética de esta universidad, fue


(164)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

aceptado por realizarse en un ámbito público y anunciarse dicha investigación en la sede web de la biblioteca. Además de la excepción de los espacios públicos, Corbetta (2010) también se refiere al caso de que el observador ya esté integrado en el ambiente, como sería, por ejemplo, el profesor que observa y analiza el comportamiento informacional de sus alumnos cuando tienen que resolver un problema académico. En la línea de la observación encubierta, Green y Thorogood (2004) incluyen una técnica proveniente del ámbito de los estudios de mercado llamada cliente oculto o mystery shopping. Se trata de que un investigador se haga pasar por el cliente de un servicio para probar cómo son tratados en general los clientes de ese servicio. Se trata de probar en condiciones reales su funcionamiento, para lo cual el investigador interactúa de forma encubierta. Aunque su clasificación en el contexto de los estudios observacionales puede ser discutible por lo específico de la técnica, por una parte, se enfrenta a las mismas cuestiones éticas que la observación encubierta y, por otra, tiene la ventaja de poder recoger información en entornos naturales sin la influencia del observador sobre lo observado, tal y como ocurre con la observación encubierta propiamente dicha. En el ámbito del estudio del comportamiento informacional ha sido empleada en algunas ocasiones. Curry (2005) la utiliza para investigar el modo en que los referencistas de una biblioteca pública atienden las peticiones de información de un supuesto joven homosexual. Por otra parte, Riaza Chaparro (2007) documenta el estudio realizado en las bibliotecas de la Obra Social Caja Madrid para valorar el nivel de calidad de los servicios a través de la técnica del cliente oculto.

6.4. EL ROL DEL OBSERVADOR.NIVELESDE PARTICIPACIÓN

Si consideramos el rol del observador como criterio para clasificar el tipo de observación, en un extremo podemos encontrar la observación no participante y en otro la observación participante. En la observación no participante el observador actúa de forma neutra sin relacionarse ni interactuar con el sujeto observado (Anguera, 1995). Por el contrario, en la observación participante el investigador está inmerso en aquello que observa participando e interactuando para poder llegar a entender el ambiente estudiado. Jorgensen (1989) afirma que la observación participante es apropiada cuando se conoce poco sobre un fenómeno, cuando existen diferencias entre lo percibido desde un punto de vista interno y externo (por ejemplo, en el caso de grupos étnicos, organizaciones sindicales o grupos profesionales), cuando el fenómeno no admite la presencia de miradas ajenas (rituales religiosos, vida familiar, etcétera) y cuando el fenómeno se oculta de la mirada pública (conductas delictivas, asociaciones secretas o sectas religiosas).


(165]

6. OBSERVACIÓN

Tradicionalmente se han descrito cuatro roles desde el punto de vista de este criterio de clasificación basándose en los escritos de Gold (1958) y Junker (1972). Así, podemos encontrar el participante completo, el participante como observador, el observador como participante y el observador completo. Igualmente, desde la perspectiva de la etnografía y el desarrollo de la observación participante, Spradley (1980) distingue los siguientes tipos de implicación en la observación: completa, activa, moderada, pasiva y no participación (tabla 13). Tabla13. Rol del investigador en la observación Gold (1958) y Junker (1972)

Spradley (1980)

Participante completo Participante como observador Observador como participante Completo observador Completo observador

Participación completa Participación activa Participación moderada Participación pasiva No participación

En primer lugar, el participante completo es aquel investigador que asume un rol en el grupo observado participando completamente en la dinámica del dicho grupo. Para Junker (1972) las actividades del observador que asume este rol se disimulan completamente, mientras que para Kawulich (2005) se trata de una observación encubierta, pues oculta al grupo su rol para evitar interrumpir la actividad normal. De esta manera utiliza su posición para llevar a cabo la investigación y esto facilita el acceso al contexto estudiado. Por otra parte, también puede minimizar la reactividad de los sujetos observados, más si la observación es encubierta. Sin embargo, siendo participante completo, el observador puede dedicar menos tiempo al registro de las observaciones y confundir su rol de participante con el de observador y viceversa, dificultando la necesaria distancia para informar de sus observaciones. Según el grado de implicación del observador, en los términos que define Spradley (1980), la participación completa sería el nivel más alto de implicación para el investigador y probablemente se alcanzaría cuando se estudia una situación en la que dicho observador ya participa de forma rutinaria. En segundo lugar, en una situación en la que un participante actúa como observador, el investigador asume un rol en el contexto estudiado, participa en su dinámica y el grupo conoce que está bajo observación. Asumir el papel de participante facilita el acceso al contexto estudiado e incluso ayuda a que los sujetos observados se olviden de que están siendo observados (Foster, 2006). Este rol también tiene desventajas, ya que hay que mantener el equilibrio entre la profundidad de los datos revelados al investigador y el nivel de confidencialidad brindado al grupo por la información


[166)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

que ellos ofrecen (Kawulich, 2005). Por otra parte, Spradley (1980), desde el punto de vista del grado de implicación del observador, habla del participante activo como aquel que trata de hacer lo que hacen los demás, no solo para lograr la aceptación del grupo sino también para conocer más plenamente las normas culturales de conducta. En tercer lugar, el observador como participante significa que el observador interactúa con los sujetos sin asumir un rol establecido en el grupo, únicamente como investigador, y estos sujetos saben que están siendo investigados. Para Kawulich (2005), actuando el observador como participante, este no es un miembro del grupo, pero está interesado en participar como un medio para conseguir una mejor observación y, de ahí, generar un entendimiento más completo de las actividades grupales. Para Foster (2006), al igual que con el papel de observador completo, una de las ventajas de esta estrategia es que el investigador es más capaz de mantener su distanciamiento de lo que observa y asumir una visión ajena al grupo. Por el contrario, una desventaja es que este investigador puede ser visto como un inspector, un crítico o un intruso y, como resultado, los sujetos pueden cambiar su comportamiento con el fin de presentarse a sí mismos de una manera particular e incluso reaccionar con hostilidad. De los tipos de participación descritos por Spradley (1980) se podría hacer el paralelismo con lo que llama participaciónmoderada que significa que, en una escala de implicación del observador, este sería el término intermedio donde asume un papel a medio camino entre ser un miembro del grupo o ser un extraño. Y, por último, el observador completo es aquel que está completamente fuera del escenario o contexto que observa, sin interactuar con los sujetos observados. En algunas ocasiones los registros de las observaciones se realizan a través de una cámara, sin entrar en contacto directo con dichos sujetos. Es el rol que más se aproxima a la idea de observador objetivo (Adler y Adler, 1994) y en ocasiones las observaciones se realizan de forma encubierta. Como consecuencia, asumiendo este rol es posible minimizar la reactividad producida por la presencia física del investigador y eliminarla si realmente la observación es encubierta. Sin embargo, dada la distancia que marca la asunción de este rol, al investigador le resultará difícil apreciar o asumir la perspectiva del contexto que está observando o ponerse en el lugar de los sujetos observados. Es por esta razón por lo que la asunción del rol de observador completo será más propio de investigaciones que parten de categorías de observación a priori y dejen poco lugar a la interpretación (Foster, 2006). En otras palabras, será propio de investigaciones con un enfoque deductivo, cuantitativo, sistemático y estructurado. Desde el punto de vista del grado de implicación, Spradley (1980) habla de participación pasiva y no participación. En la participación pasiva las actividades son observadas en el contexto que ocurren pero sin participación ni interacción, mientras que en la no participación las actividades son observadas desde fuera del escenario de investigación.


6. OBSERVACIÓN

[167]

Aunque es posible describir estos cuatro roles, lo más probable es que en el curso de una investigación el rol asumido por el observador cambie. Es posible que en una fase exploratoria se asuma el rol de participante como observador y al finalizar esa investigación el rol asumido sea el de observador completo. También puede ocurrir lo contrario, comenzar como observador completo y finalizar como participante completo. Incluso es posible que en distintas situaciones de la misma investigación se asuman distintos roles. En el ámbito del comportamiento informacional, es interesante el trabajo de Cooper, Lewis y Urquhart (2004 ), en el que comparan la experiencia obtenida en un estudio donde aplican tanto la observación no participante como la participante. La primera se aplicó al estudio de las necesidades de información de los farmacéuticos de un hospital. La segunda, la observación participante, se aplicó al estudio de las necesidades de información de personas mayores dependientes que viven en el hogar.

6.5. REGISTRO DE LAS OBSERVACIONES

6.5 .1. Observación estructurada Foster (2006) ubica las raíces de la observación estructurada en tradición positivista de las ciencias sociales, en que el énfasis se pone en la medición exacta y objetiva de la conducta humana observable, en la definición previa y precisa de conceptos, en la producción de datos cuantitativos, en el examen de las relaciones entre las variables mediante técnicas experimentales y estadísticas y en la validación de teorías usando lo que se ha denominado el método hipotético-deductivo. Con respecto a la observación estructurada surgen principalmente tres preguntas: qué observar, cómo medirlo y cómo registrarlo. Respecto a la primera cuestión, qué observar, Fernández Ballesteros (1992) clasifica las unidades de análisis, es decir, los aspectos conductuales a observar en continuo del comportamiento, atributos, conductas, interacciones y productos de conducta.

Continuo del comportamiento: es un registro descriptivo de la mayor parte de los eventos que ocurren en un contexto natural en amplias unidades de tiempo. No se especifica de antemano qué observar, se hace a tiempo real y de forma continua. Las descripciones se realizan sobre aspectos verbales, no verbales y/o espaciales de la conducta. "'41 Atributos: se observan las conductas manifiestas (frunce el ceño, temblor en las manos, sale de la habitación) y a través de la inferencia (preocupación, nerviosismo, evitación de la situación). "'41


[168)

MÉTODOSY TÉCNICASPARALA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

• Conductas: se observan conductas manifiestas motoras, verbales y fisiológicas que previamente se han definido. La observación permite mínimas inferencias por parte del observador. Se seleccionan los intervalos de tiempo en los que se va a realizar la observación. • Interacciones: se observa la relación entre dos eventos que se producen secuencialmente y que implican a dos o más personas. Suele realizarse durante un periodo de tiempo previamente establecido. • Productos de conducta: se observa el resultado de un conjunto de actividades que los sujetos observados han realizado en situaciones tanto naturales como artificiales.

La segunda pregunta a la que hay que responder es cómo medir el comportamiento observado. León García y Montero García-Celay (2006) proponen las siguientes cinco medidas: • La ocurrencia informa sobre la aparición de una determinada categoría en un periodo de observación (¿el usuario accede la biblioteca electrónica de su organización para buscar información?). • La frecuencia indica cuántas veces ha aparecido una determinada categoría en un periodo de observación (¿cuántas veces accede el usuario a la biblioteca electrónica para buscar información?). • La latencia indica el tiempo que transcurre desde un momento concreto hasta la aparición de la conducta en cuestión (cuando un usuario realiza determinada tarea, ¿cuánto tiempo tarda en acceder a la biblioteca electrónica?). • Duración es el tiempo en que la categoría está presente de forma ininterrumpida (¿qué tiempo dedica el usuario a consultar la biblioteca electrónica?) • Intensidad es el grado en que la conducta aparece (¿qué tipo de búsqueda realiza el usuario en su biblioteca electrónica? ¿Ojea los recursos o recupera información?) Y, por último, puesto que la observación estructurada tiene una naturaleza deductiva, las observaciones se realizan y registran a partir de categorías predefinidas, formuladas según los objetivos de la investigación. Para Denscombe (2007) esta lista de categorías opera como una lista de verificación en la que todos los observadores seleccionarán los ítems a medida que van ocurriendo. De esta manera, se minimiza el registro de datos que provengan de las percepciones del observador y aumenta la consistencia entre las observaciones realizadas por diferentes observadores. Respecto a la primera cuestión, se trata de reducir el posible sesgo introducido por el observador a la hora de seleccionar los hechos que somete a observación y el modo en


6. OBSERVACIÓN

[169]

que se registran e interpretan tales observaciones. Respecto a la consistencia entre observaciones, hace referencia al acuerdo entre estos a la hora de registrar los mismos eventos (concordancia interobservador) o bien a las observaciones registradas por un mismo observador en momentos diferentes (concordancia intraobservador). Esta concordancia entre observaciones indica el grado de fiabilidad del proceso de observación y se basa en la idea del porcentaje de ocasiones en las que hay coincidencia en un registro respecto al total de registros realizados. Por lo tanto, la observación estructurada requiere seleccionar o crear un sistema de categorías de registro previo al acto de recogida de información según los objetivos de la investigación. Anguera (1990) define el registro como la transcripción de la representación de la realidad por parte del observador mediante la utilización de códigos determinados y se materializa en un soporte físico que garantiza su prevalencia. Respecto a la determinación de categorías de observación, Denscombe (2007) propone una lista de siete requisitos que deben cumplir: ... La conducta que se observa debe ser manifiesta, observable y medible de forma directa, pues las actitudes y pensamientos solo pueden ser inferidos por el observador y no son observables de forma directa. ... Las categorías deben ser obvias y deben requerir un mínimo de interpretación y de esfuerzo por parte del investigador para determinar si una conducta pertenece a una u otra categoría. ... Deben ser independientes del contexto, es decir, que el contexto de la situación no debería tener un impacto significativo en cómo se ha de interpretar el comportamiento. ... Deben ser categorías relevantes con relación a los objetivos de la investigación . ... Deben ser completas en el sentido de que cubran todas las posibilidades de conducta conforme a los intereses de la investigación y que no existan lagunas . ... Deben ser categorías precisas sin solapamiento entre ellas, mutuamente excluyentes y sin ambigüedad. ... Deben ser de fácil registro en el sentido de que las conductas ocurran con suficiente regularidad, pues, de lo contrario, sería una pérdida de tiempo. Por otra parte, Bakeman y Gottman (1986) recomiendan los siguientes puntos a tener en cuenta para elaborar un código de observación: ... Observar habiéndose planteado una pregunta previa claramente formulada. ... Seleccionar el nivel de análisis adecuado para buscar una respuesta y para comenzar a observar.


1170]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

'4 Hacer una observación asistemática para recoger información en forma narra-

tiva para ir descubriendo categorías de análisis. '4 Procurar usar categorías dentro del mismo nivel de detalle que sean homogé-

neas y lo suficientemente detalladas. '4 El código debe estar formado por categorías exhaustivas y excluyentes entre sí. '4 Realizar finalmente un proceso de depuración, mediante la contrastación em-

pírica. En cuanto a los tipos de registros, Evertson y Green (1989) identifican los sistemas abiertos y los cerrados. Los sistemas abiertos son más flexibles, pueden contener una gama de categorías prefijadas sin ser mutuamente excluyentes y datos que son el punto de partida de la generación de categorías. Dentro de los sistemas abiertos podemos distinguir los registros narrativos, los descriptivos y los tecnológicos y, en general, estarían relacionados con una observación menos estructurada. El registro narrativo se define como la descripción de bajo nivel, realizada mediante lenguaje oral o escrito, que es propia de fases iniciales de la observación, y se caracteriza por su falta de estructura (Anguera, 1990). Por otra parte, el registro descriptivo tiene mayor grado de estructuración, un lenguaje más preciso y cierto grado de categorización. Sería una transformación del registro narrativo. El registro tecnológico suministra datos registrados por medios de grabación de audio o vídeo, están en bruto y se deben analizar para construir categorías. En cuanto a los sistemas cerrados, estos contienen una serie de categorías o unidades de observación prefijadas, mutuamente excluyentes, construidas a partir de un presupuesto teórico, basadas en la experiencia o resultado de una fase de observación exploratoria previa. La observación se basará en la identificación y registro según estas categorías predefinidas (Evertson y Green, 1989). Como sistemas cerrados encontraríamos los sistemas categoriales, las listas de confirmación y los sistemas de valoración. En primer lugar, los sistemas categoriales contienen categorías prefijadas en las que el observador registra en esa categoría toda conducta observable mientras esta ocurre. En segundo lugar, las listas de confirmación consisten en el registro esquemático sobre la presencia o ausencia de conductas concretas. Y, por último, los sistemas de valoración tienen como objetivo cuantificar las observaciones a partir de categorías prefijadas (tabla 14). Tabla 14. Categorías de registro por medio de un sistema de valoración Cuando el analista busca el dato de subida del

Siempre

A menudo

De vez en cuando

IPC

recurre a la fuente primaria

Pocas veces

Nunca


11711

6. OBSERVACIÓN

Un ejemplo de registro a través de un sistema de categorías en el ámbito de la información y documentación sería el estudio de Given y Leckie (2003 ), en el que observan el uso que los usuarios hacen de los espacios de las bibliotecas públicas a través de lo que denominan el método seating sweeps. Este método consiste en la observación de los usuarios de la biblioteca y en el registro de su conducta a partir de unas categorías predefinidas y utilizando una serie de códigos. Un extracto de este sistema de registro se muestra en la tabla 15. Tabla 15. Categorías de registro de datos en el estudio de Given y Leckie (2003)

PERFIL

Varón Mujer Edad POSESIONES

Libros, material de lectura/escritura Maletín, carpeta Macuto, bolsa de mano Ordenador portátil Comida, bebida Otras posesiones (usar el reverso) ACTIVIDADES

Leyendo Escribiendo Buscando/recuperando físicamente Usando portátil Usando ordenador de la biblioteca Usando otros equipos de la biblioteca (fotocopiadora, etcétera) Usando el teléfono Hablando Escuchando (walkman, cintas) Interactuando con el personal Otras (usar el reverso)

6.5 .2. Observación no estructurada Al contrario que la observación estructurada, Foster (2006) establece los orígenes de la observación menos estructurada o no estructurada en la antropología y en la aplicación de su enfoque etnográfico, donde se ha rechazado el enfoque positivista de las ciencias sociales. Se trata de un ámbito en el que se ha subrayado que, para enten-


(172]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIEl\.'TO INFORMACIONAL

der el comportamiento humano, es necesario conocer y entender el contexto social y cultural de lo que se observa, sin ideas preconcebidas y a través del registro de la información por parte del investigador en forma de notas de campo. Así, el objetivo de la observación no estructurada es la producción de información cualitativa detallada sobre el contexto y los individuos observados. Sobre qué aspectos es necesario observar, como en cualquier investigación, dependerá de sus objetivos; no obstante, es interesante la lista propuesta por Patton (1987, 2002) a este respecto: ... El entorno físico en que transcurre lo que se está observando descrito con suficiente detalle como para que pueda ser visualizado por alguien ajeno a la investigación. Un ejemplo de esto es el fragmento reproducido en el cuadro 22, en el que se recogen las notas de un investigador del estudio INISS describiendo el lugar concreto en que realizaban las observaciones. Cuadro22. Nota de observación del estudio

INISS

(Wilson y Streatfield, 1980)

Lunes por la mañana Ordenar el correo (director de sector) 8.30 Charles King, el director, ya está en su escritorio en una oficina grande que contiene una mesa de conferencias, libros y una extensa alfombra. El sol brilla a través de la fila de ventanas a lo largo de una pared y sujeto y observador van en mangas de camisa. El acceso normal a esta oficina es a través de la oficina de secretaría y la puerta intermedia está abierta (y sigue estándolo excepto durante las reuniones o durante discusiones confidenciales) .

... El medio humano y social, es decir, cómo las personas que integran este medio se organizan en grupos y cómo interactúan, por ejemplo, cómo se toman las decisiones y quién las toma. No solo interesa la percepción del propio observador, sino también la percepción del sujeto observado. ... La perspectiva histórica del entorno observado complementaría las observaciones anteriores y determinaría los valores que son importantes en dicho entorno porque han permanecido a lo largo del tiempo . ... Descripción de las actividades y comportamiento de los participantes, determinando unidades de observación y presentando la secuencia de tales actividades y comportamiento. Se refiere a las actividades y comportamiento formal. ... Interacciones informales y actividades no planificadas que ocurren entre los tiempos dedicados a las actividades y comportamientos formales antes referidos . ... El lenguaje de los sujetos, ya que puede desvelar cuestiones acerca de su mentalidad, de sus actitudes, de sus experiencias y de sus puntos de vista, así como de


6. OBSERVACIÓN

~

~

~

~

11731

aspectos sobre la cultura de la organización difícilmente identificable a través de otro medio. La comunicación no verbal, menos evidente que la comunicación verbal pero tan importante o más que ella. Por ejemplo, Radford (1998) estudió la importancia de la comunicación no verbal en la decisión de los usuarios para acudir al mostrador de referencia y expresar una demanda de información. Medidas no obtrusivas, es decir aspectos que los sujetos no saben que son objeto de observación, como por ejemplo la diferencia de mobiliario o la diferente ubicación de los despachos revelarán diferencias de estatus o de relaciones en una organización. Los documentos que circulan entre los sujetos, ya que son otro canal de comunicación tan importante como la comunicación oral y revelan información sobre las actividades desarrolladas. Lo que no ocurre, bien porque está previsto o bien porque desde el punto de vista del observador debería ocurrir y no ocurre. Por ejemplo, si investigamos los flujos de información de una organización, existe un patrón sobre lo que debería ocurrir, que es el manual de procedimiento que detalla qué se hace, quién lo hace, cómo lo hace y en coordinación con quién. Este puede ser el documento a partir del cual determinar aquello que debería ocurrir pero no ocurre y, por lo tanto, quizás nos ayudará a conocer los flujos informales de la organización.

Pero a lo largo del proceso de investigación las observaciones cambian de carácter desde los primeros estadios a los últimos. Spradley (1980) se refiere a esta evolución como observaciones descriptivas, foca/izadas y selectivas. En las observaciones iniciales o descriptivas el investigador no está centrado en ningún aspecto en particular, sino en captar ampliamente todos los aspectos del entorno estudiado, con el fin de establecer el futuro rumbo de la investigación. Una vez el investigador se ha familiarizado con el entorno estudiado, puede decidir qué aspectos pueden ser más relevantes para la investigación y dirigir su atención hacia alguno en concreto. En este momento pueden surgir preguntas que dan pie a las observaciones selectivas. En este punto el observador está centrado en establecer y refinar las características y las relaciones que él ha establecido previamente como objeto de estudio (figura 10). Si en la observación estructurada el observador dispone de unas categorías previas para registrar sus observaciones, en la observación no estructurada la principal herramienta para después realizar un análisis son las notas de campo. Sobre estas notas de campo Patton (2002) afirma que no hay prescripciones universales sobre los procedimientos para realizarlas, pues dependerá en gran medida del estilo personal de organización del trabajo. No obstante, este investigador describe cuatro tipos de contenido que las notas de campo deberían recoger. En primer lugar, y sobre todo, las


11741

~tÉTODOS Y TÉCN ICAS l'ARA LA INVESTIGACIÓN DEL COM PORTMIIE NTO INFORM/\ CION.-\L

Figura 10. Evolución del alcance de la observación (adaptado de Spradley, 1980)

OBSERVACIONES DESCRIPTIVAS

OBSERVACIONES FOCALIZADAS

OBSERVACIONES

SfLE_CJj .._..11.CC!>oO, ___

PROCESODE INVESTIGACIÓN

notas de ca mp o deberían ser descr iptivas y para ello debería regist rarse información bás ica, co mo las fechas d e observac ión, el modo en qu e se llevó a cabo la observación, quién estaba presente, có mo era el entorn o físico, las int eracc iones soc iales que se produjeron y qu é actividades se llevaron a cabo . El nive l de descripción debe ser ta l que per mit a al invest igador volver a una o bservac ión durante el aná lisis y al lector expe rim entar la act ividad observada a tr avés del informe (Pat ton, 2002). Además, las notas de campo deberían recoge r lo qu e los ind ividuo s obse rvados dijeron du ra nte la s o bservac io nes, cuest ión qu e pe rm itirá adoptar una perspect iva d esd e el punto de vista de ese sujeto observado .Jun to co n el carác ter descriptivo y las citas de lo que los individuos dijeron, las notas de ca mpo deberían recoger el pu nt o de vista del ob servado r res pecto a lo que se obse rva: «f...] los propio s sentimi entos de l observador, las reacciones a la ex periencia y las reflex iones so br e el sign ificado personal y el significado de lo que se ha obse rvado» (Patton, 2002). Po r últim o, las notas de ca mp o deberían recoger las co nsiderac io nes in iciales respecto a l aná lisis e interpr etación de la infor mación que se está obteniendo . Respecto a las notas de campo, Schatzman y Stra uss (1973) so n más explícitos y estab lecen una clasificación que co nsidera que exi sten notas observac iona les, teóricas y metodológ icas . A cont inu ac ión se definen cad a una de ellas:

"" Las notas de observación son la expos ición de los acontecimiento s presenc iado s, obse rvados u oídos, y cont ienen tan poca interp retación como sea posible. Cada nota observacio na l representa un suceso co nsidera do lo suficientemente


6. OBSERVACIÓN

~

~

(1751

importante como para incluirlo en un registro, como una porción de evidencia para una proposición todavía no formulada o como una propiedad o característica de un contexto o situación. Una nota de observación es el quién, qué, cuándo, dónde y cómo de la actividad humana. Las notas teóricas son intentos de dar sentido a una o varias notas de observación. El observador como «grabador» piensa en lo que ha experimentado e intenta desarrollar conceptos. También interpreta, infiere, formula hipótesis o conjetura. Desarrolla nuevos conceptos, enlaza estos con los antiguos y relaciona observaciones. Las notas metodológicas consisten en la descripción de una acción completada o planificada. Es una instrucción, un recordatorio o una crítica de las propias tácticas. Son notas sobre los tiempos, la secuencia de observación, los preparativos y demás aspectos relacionados con el procedimiento. Pueden considerarse notas observacionales sobre el investigador y sobre el proceso metodológico mismo.

6.6. VENTAJASY LIMITACIONESDE LA OBSERVACIÓN

Numerosos autores analizan las ventajas y limitaciones de la técnica de la observación. Como ventajas,Ander-Egg (1987) Powell (1997), Gorman y Clayton (2005) Gray (2006) y Denscombe (2007) destacan las siguientes: ~

~

~

~

~

Permite estudiar la conducta en el mismo momento en que ocurre. En general, a través de la observación se pueden estudiar fenómenos que escaparían a los ojos del investigador utilizando cualquier otra técnica. La información sobre el entorno y sobre el comportamiento humano se puede registrar directamente por el investigador, sin ningún intermediario, lo que permite registros de las conductas más precisas. Permite analizar las cuestiones relacionadas con el comportamiento informacional en el contexto en que estas ocurren. En este sentido, descontextualizar el uso que un usuario hace de un recurso de información, por ejemplo, lleva a resultados muy descriptivos, superficiales y poco útiles para la planificación de sistemas de información. El observador puede «ver» lo que los informantes no ven, es decir, estos informantes dan por sentadas cosas del medio y del comportamiento que difícilmente describirán por no considerarlas relevantes. Por otra parte, en el caso concreto de una conducta derivada de una necesidad de información, una cosa es lo que un usuario dice que hace y otra lo que realmente hace.


[176]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAl.

La observación puede proporcionar información sobre el entorno y el comportamiento de aquellos que no pueden hablar por sí mismos y, por lo tanto, no pueden participar en entrevistas o cuestionarios; es el caso por ejemplo de niños muy pequeños. "1111 Permite obtener información de aquellos usuarios poco dispuestos a contestar un cuestionario o participar en una entrevista por falta de tiempo o de voluntad. "1111 Los datos de la observación pueden ser útiles tanto para validar como para completar la información obtenida de otras fuentes, como por ejemplo la información obtenida por medio de entrevistas. "1111 En definitiva, la técnica de la observación permite obtener información independientemente del deseo de proporcionarla y de la capacidad y veracidad del usuano. "1111

En el caso concreto de la observación más estructurada, Denscombe (2007) apunta como principal ventaja el que la existencia de categorías de observación predefinidas permite la posibilidad de eliminar en parte el sesgo producido por la proyección del observador sobre lo observado y aumentar el acuerdo entre observadores, desde el momento en que existen pautas previas de cumplimentación de los registros. Además, la observación estructurada permite recopilar grandes cantidades de datos en un tiempo relativamente corto y de forma estructurada. En lo que se refiere a la observación no estructurada, Gorman y Clayton (2005) apuntan como principal ventaja el que es flexible en cuanto a la perspectiva y grado de implicación del observador con la realidad observada y, como el resto de enfoques cualitativos, la observación no estructurada permite analizar los datos a medida que estos se van obteniendo y a medida que se va ganando conocimiento de la situación o entorno observado. En cuanto a las limitaciones de la técnica de la observación, estos mismos autores apuntan las siguientes: Las situaciones que pueden resultar interesantes para el objetivo de la investigación pueden en ocasiones no ser accesibles a los ojos del observador, pues forman parte del ámbito más privado de los sujetos de interés. "1111 Puede producirse un problema de reactividad, es decir, las personas pueden cambiar la forma en que se comportan, consciente o inconscientemente, al saberse observadas y, por lo tanto, el registro de su conducta puede variar respecto al modo en que se comportarían de forma natural. "1111 Las observaciones registradas por un observador son inevitablemente representaciones de la realidad aportadas por dicho observador; en otras palabras, existe el peligro de proyección del observador sobre la situación observada.

"1111


6. OBSERVACIÓN

~

(177)

Se trata de una estrategia de recogida de datos que requiere mayor coste que otras como las encuestas, en gran medida por el coste en tiempo que supone.

De forma específica, con relación a la observación más estructurada y sistemática, Denscombe (2007} considera que es un modo de obtener información en el que en ocasiones es posible· perder datos acerca del contexto en el que se realizan las observaciones y que influye en el modo en que se comportan los individuos. En parte esto se debe a la necesaria simplificación a priori de lo que deben ser las categorías de registro y la consecuente pérdida de matices contextuales que podrían ser de interés para la investigación. Igualmente, la necesaria clasificación de las conductas a priori permite obtener información de lo que ocurre, pero no siempre de por qué ocurre.

6. 7. EJEMPLOS DE INVESTIGACIONES

Ejemplo 1. Necesidades de información de los trabajadores de servicios sociales

El estudio INISS tuvo como objetivo investigar el comportamiento informacional de los trabajadores sociales británicos con el fin de obtener una imagen de sus necesidades y hábitos con relación a la información, que pudiera servir para determinar qué servicios de información serían más efectivos para esa organización. En el diseño de este estudio se tuvo en cuenta una de las críticas más frecuentes a esta línea de investigación: ser «estéril y carente de imaginación en parte porque los investigadores no aplicaron o probaron en la práctica los resultados de sus investigaciones» (Wilson y Streatfield, 1977). Por ello, se concibió un estudio basado en la investigación-acción en el que cualquier información obtenida en las fases de recogida y análisis de datos debía derivar en innovaciones en los sistemas de información directamente evaluables. Por otra parte, esa esterilidad y falta de imaginación de la investigación en comportamiento informacional, sobre todo la realizada en el contexto del estudio de uso en las bibliotecas, también la atribuían al hecho de estar basada en el uso de cuestionarios autoadministrados y la obtención de resultados que describían la conducta el usuario pero no así el motivo que explicara por qué se desarrollaba esta conducta. Como consecuencia de este análisis, se optó por la observación estructurada para el estudio de los trabajadores y gestores de los servicios sociales, seguida de un periodo en el que se realizaron entrevistas personales sobre la base de los resultados del periodo de observación, con el fin de ':'alidar dichos resultados y recoger información adicional. A continuación se describen los aspectos generales sobre el procedimiento de la fase de observación.


[178]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTA.MIE!'.'TO INFORMACIONAL

La fase de observación estructurada del estudio INISS buscó conocer el contexto que iba a ser estudiado y en concreto pretendía recabar información sobre los siguientes aspectos (Wilson, Streatfield, Mullings, Lowndes-Smith y Pendleton, 1978): .._ Las funciones que asumían los distintos departamentos . .._ La percepción que se tenía de la información en el contexto del trabajo . .._ Las estructuras organizativas que existían y cómo afectaba esto a la comunicación en la organización . .._ Canales informales y formales de comunicación existentes . .._ La información que se almacenaba y qué servicios existían y cómo eran utilizados . .._ El modo en que interactuaban los distintos departamentos, entre ellos y con otros externos, y cómo se captaba y diseminaba la información. En general, se trataba de averiguar de primera mano aquellos aspectos que no son percibidos por un investigador ajeno a la organización y que están relacionados con una dimensión tanto formal como informal de esta organización. A través de la observación era posible conocerlos al margen del deseo o posibilidad de informar sobre ellos por parte de los integrantes de esa organización. Por otra parte, podrían existir otros medios de conocer toda o parte de esta información, como son, por ejemplo, los documentos generados en la organización que revelaran los procesos que allí tenían lugar. Sin embargo, se determinó que esta estrategia no sería suficiente. Wilson y otros (1978) adujeron los siguientes motivos: .._ De las discusiones previas se vio que los trabajadores y gestores de servicios sociales no iban a responder favorablemente a entrevistas ni a la revisión de la documentación interna por verse demasiado expuestos . .._ Los documentos internos no iban a revelar todos los matices de la vida organizativa . .._ La observación también suministraría a los investigadores una oportunidad valiosa de aprender más sobre las prácticas y el contexto del trabajo social. Para seleccionar los sujetos observados se partió de un muestreo intencional en el que las dimensiones a considerar serían la pertenencia al medio urbano y rural, los distintos niveles de provisión de servicios de información y, por último, la realización de distintas tareas y niveles de decisión. Partiendo de estas dimensiones, los departamentos y, dentro de ellos, los trabajadores fueron voluntarios, en total 22 individuos. Las observaciones se realizaron durante una semana y el objetivo de dichas observaciones fue registrar cualquier acto de comunicación que se produjera durante


6. OBSERVACIÓN

[179)

ese periodo. El registro de estos eventos se realizó de forma manual en tarjetas en las que figuraban los ítems que debían ser considerados; en concreto, para cada acto de comunicación, se registró la hora en que se producía, el emisor y receptor, el canal de comunicación, el medio de comunicación y el lugar en el que se produjo. Tras la semana de observación se recogieron seis mil registros que se analizaron a partir de las categorías preestablecidas. Previamente al inicio de las observaciones, se formó a los observadores. Dicha formación consistió en la observación y discusión de los matices introducidos por distintos investigadores ante una misma situación de búsqueda de información y la realización de un periodo de prueba de observación y registro. Esta estrategia aumentaría además el acuerdo entre observadores. Wilson y Streatfield (1981) describen el periodo de observación como una serie de fases interconectadas en las que se dio mucha importancia a la validación de la información obtenida a través de la consulta a los propios informantes, mecanismo este que aseguraba además la confiabilidad de la investigación. Estas fases de observación son las siguientes: 1. Reunión de presentación de los observadores con los sujetos que iban a ser observados, en la que se preguntaba sobre aspectos como su nivel de formación, experiencia, hábitos de trabajo, puntos de vista sobre la información y cuestiones operativas útiles para la semana de observación que se iba a producir. 2. Periodo de observación, en el que se registraban los actos de comunicación relacionados con el trabajo. 3. Sesiones de revisión diarias al final de cada jornada de observación, en donde los observadores examinaban sus registros y donde se comparaban con los registros de otros observadores. 4. Búsqueda de clarificación de aspectos dudosos surgidos en las sesiones de revisión con los sujetos observados. 5. Sesiones informativas cortas del observador con el sujeto observado tras una jornada de observación para conocer su punto de vista sobre los registros. 6. Revisión de los registros por parte del observador antes de transferirlos para su análisis. 7. Envío al sujeto observado de un resumen de cada semana de observación. 8. Entrevistas posobservación entre un miembro del equipo de investigación con los sujetos observados, con el fin de discutir la precisión de la información contenida en el resumen anterior. 9. Realización de informes para cada departamento sobre las observaciones realizadas.


[180]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

Los resultados más relevantes de esta primera fase de observación estuvieron relacionados con las características personales, del trabajo realizado y de la organización que eran importantes para el posterior diseño de sistemas de información (cuadro 23). Cuadro 23. Resultados del estudio INISS (lnformation Needs and Services in Social Services Departments) Características personales

Importancia de la comunicación oral dentro y fuera del departamento. La información es vista como relevante cuando se refiere directamente a un trabajo. Gran importancia de los sistemas personales de almacenamiento de información. Poca dedicación a su actualización. Buscadores reticentes de información (falta de tiempo) y no formados en el uso de recursos. Características del trabajo Jornada laboral muy fragmentada. Mucho tiempo dedicado a reuniones de trabajo. Trabajo sometido a control de procedimientos para cumplir con la legalidad. Características de la organización

Trabajo muy especializado, servicios de información especializados. Eficacia limitada de los servicios de información existentes por dispersión geográfica. Suministro de información dispersa.

Ejemplo 2. Necesidades de información en la vida cotidiana de personas sin hogar

El estudio de Hersberger (2001) tuvo como objetivo conocer las necesidades de información y el uso de fuentes de información de las personas sin hogar padres de familia. Para ello, al igual que en el ejemplo anterior, propuso una estrategia de triangulación metodológica a través de un periodo de observación participante seguido de un periodo de entrevistas personales. En primer lugar, la observación participante estuvo dirigida a facilitar el acceso del investigador a las personas sin hogar residentes en refugios, familiarizarse con el personal del refugio y sus normas y reglamentos, desarrollar mejor la guía de la entrevista posterior y, en general, mejorar el diseño de la investigación. Esta fase se desarrolló en tres etapas. En la primera, el investigador participó como voluntario en la recepción de un albergue donde se alojaban personas sin hogar, en la segunda como voluntario en el comedor del albergue y en la tercera el investigador asumió el rol de participante como observador. Este proceso tuvo lugar a lo largo de un año. Posteriormente a la fase de observación, se realizaron 18 entrevistas semiestructuradas a una muestra de individuos seleccionados por medio de un muestreo in-


6. OBSERVACIÓN

(181]

tencional. El guión de la entrevista fue elaborado en base a la información obtenida por medio de la observación. El número de entrevistas no fue determinado a priori, sino cuando se consideró que se había alcanzado la saturación teórica. A través de este medio se indagó sobre los problemas de información diarios y las fuentes de información utilizadas. El resultado de las entrevistas fue analizado a través de un análisis de contenido en el que se partió de una serie de categorías desarrolladas por otros investigadores, a la vez que emergieron otras nuevas del análisis de los datos (cuadro 24). Estas categorías se referían a las áreas donde se produjeron necesidades de información (cuestiones económicas, cuidado de niños, vivienda, salud, empleo, educación, transporte, asistencia pública, albergue), las necesidades de información propiamente dichas y las fuentes utilizadas. Cuadro 24. Resultado del análisis de contenido del estudio de Hersberger (2001) Cuestioneseconómicas Los informantes la expresan como la cuestión más urgente. Las necesidades económicas estaban relacionadas con el empleo, la educación y la vivienda. Los informantes expresan la economía como una necesidad cognitiva. Las fuentes de información que dicen utilizar son la propia experiencia y la información proporcionada por las agencias de servicio social. A pesar de que las necesidades económicas se presentan como el problema número uno, los informantes se refirieron a una amplia gama de fuentes de información. Esto puede revelar una disonancia entre las necesidades de información y el conocimiento de los recursos posibles.

El proceso de análisis fue valorado siguiendo los criterios de credibilidad y fiabilidad. Para ello se compararon las grabaciones de la entrevistas con sus transcripciones, a la vez que se valoró el acuerdo intercodificador. Para el conjunto de la investigación se valoró la confiabilidad a través de la observación persistente, la validación por parte de los informantes y la aportación de un audit trail con las notas de campo, las transcripciones, los diarios y demás documentos producidos en el curso de la investigación.

6.8. RESUMEN

La técnica de la observación consiste en conocer de primera mano y registrar de forma sistemática distintos fenómenos observables que, en el ámbito del comportamiento informacional, pueden ser todos aquellos que tengan relación con las distintas situaciones vividas por un usuario o grupo de usuarios en el transcurso del proceso de búsqueda y uso de información. Por ello, es una técnica que permite estudiar a este


[182]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

usuario en el contexto natural en el que necesita, busca, gestiona, comparte, difunde y utiliza la información. Existen diversos enfoques de la observación como técnica de recogida de datos. Los principales criterios que determinan esta diversidad son el conocimiento por parte del sujeto de que está siendo observado, el rol que asume el observador y los medios utilizados para el registro de las observaciones, entre otros. Según estos criterios, es posible distinguir entre observación abierta y encubierta, participante y no participante y estructurada y no estructurada. La observación abierta es aquella en la que los sujetos de la investigación conocen que están siendo observados. Por el contrario, en la observación encubierta la existencia del observador permanece oculta para el grupo observado. Si consideramos el rol del observador, en un extremo podemos encontrar la observación no participante y en otro la observación participante. En la observación no participante el observador actúa de forma neutra, sin relacionarse ni interactuar con el sujeto observado. Por el contrario, en la observación participante el investigador está inmerso en aquello que observa, participando e interactuando para poder llegar a entender el ambiente estudiado. Por último, en cuanto al modo como se registran las observaciones, se puede distinguir entre observación estructurada y no estructurada. En la observación estructurada el investigador entra en el campo conociendo de antemano qué aspectos debe observar y registrar. Estos aspectos se han definido previamente y están derivados de los objetivos de la investigación. Por el contrario, en la observación no estructurada los registros de la realidad observada son más abiertos y no se establecen a priori los aspectos que se van a observar. En general, en la literatura sobre metodología de las ciencias sociales es posible identificar dos tradiciones en lo que respecta a la técnica de la observación que vienen determinadas en gran medida por la disciplina en la que se originaron y desarrollaron. La primera de ellas tiene sus orígenes en la psicología y la segunda surge en el seno de la sociología y la antropología.


CAPÍTULO

7

GRUPOS DE DISCUSIÓN

7.1. DEFINICIÓN Y ÁMBITO DE APLICACIÓN

Un grupo de discusión (GD) es un tipo de entrevista grupal que tiene como objetivo obtener información detallada, opiniones o valoraciones sobre un tema específico a partir de la interacción de unos participantes concretos. Se trata de una discusión grupal dirigida en una situación controlada que se centra en uno o varios temas determinados. Un grupo de discusión está compuesto por unos seis o doce miembros que, por lo general, se desconocen entre sí, pero que han sido seleccionados porque comparten características relacionadas con el objetivo de estudio. Como técnica de investigación, el grupo de discusión surge en la segunda guerra mundial, como método para valorar la utilidad y efectividad de los programas de radio para subir la moral de las tropas (Margan, 1997). En la actualidad el grupo de discusión es una de las técnicas más utilizadas por las organizaciones para obtener información sobre la valoración de sus clientes, para evaluar cambios, nuevos productos, servicios, promociones, como generador de ideas o bien para valorar la usabilidad de productos. El grupo de discusión se usa como medio para lograr un mayor conocimiento del consumidor. La finalidad es utilizar la información obtenida para ayudar a la toma de decisiones y a la planificación. Esta necesidad de conocer al cliente no es exclusiva del sector privado, sino que también las instituciones públicas ven esencial el marketing y la planificación estratégica de sus productos, servicios y programas. Tal como indica Krueger (1991), si se quiere mejorar los programas o servicios, los profesionales, sean estos públicos o privados, tienen como función primordial la valoración de necesidades, la planificación y la evaluación. El grupo de discusión puede aportar información sobre la percepción, sentimientos y actitudes de los diferentes agentes relacionados con estos programas y servicios. Como agentes, pueden considerarse a los trabajadores de una organización, a los usuarios reales o bien a los potenciales.


(184)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

En el área de información y documentación, el GD se ha ido abriendo camino poco a poco a partir de la década de 1980. A finales de la década de 1990, Glitz (1997) propuso el GD como una técnica útil y prometedora dentro del área. Proponía el GD como una técnica para facilitar la identificación de las necesidades de formación de usuarios y del personal de bibliotecas, para identificar las necesidades de grupos de usuarios específicos, establecer prioridades financieras o de programas, clarificar los objetivos y los valores de la institución, evaluar los servicios existentes o bien planificar otros nuevos. En la actualidad, el uso de la técnica dentro del área es muy amplio y su uso sería adecuado siempre que la situación requiriera conocer cómo los individuos valoran o perciben una determinada experiencia, idea, producto o servicio. En concreto, el grupo de discusión se ha utilizado para: Evaluar las necesidades de información en diferentes colectivos. En este sentido, la técnica se ha utilizado en múltiples contextos para evaluar a profesionales (Pitts y Stanley, 2007; White, Matteson y Abels, 2008), estudiantes y profesores (Prabha, Connaway, Olszewski y Jenkins, 2007, Fleming-May y Yuro, 2009), jóvenes (Nwagwu, 2009), ancianos (Xie, 2009) y pacientes, (Matthews, Sellergren, Manfredi y Williams, 2002; Tang y Newcomb, 1998; Tang, Newcomb, Gorden y Kreider, 1997), entre otros. Evaluar el uso de diferentes productos y servicios relacionados con las nuevas tecnologías, como la Web 2.0 (Burhanna, Seeholzer y Salem, 2009), el móvil para consultar Internet (Nielsen y Fjuk, 2010), los libros electrónicos (Carlock, y Perry, 2008), la tecnología por parte del público infantil (Dresang, Gross y Holt, 2007) o bien, el uso de un servicio de referencia por chat (Naylor, Stoffel y Van der Laan, 2008). Conocer los requisitos de los usuarios para el diseño de un sitio Web (Vaughan, y Schwartz, 1999; Large, Beheshti y Rahman, 2002; Markey, Swanson, Jenkins, Jennings, St Jean, Rosenberg y otros, 2008; Seeholzer y Salem, 2011 ). Obtener información para el diseño de un cuestionario. En este sentido, los trabajos de Lee, Trauth y Farwell (1995), Lee, Giuse y Sathe (2003) e Ishihara (2008), usan el grupo de discusión para diseñar un cuestionario para ser posteriormente administrado en un estudio de encuesta. -41 Valorar la usabilidad de un producto o servicio: el GD se ha usado en combinación con otras técnicas de recogida de datos para valorar la usabilidad de un producto. Así, encontramos que Craven, Johnson y Butters (2010), con el fin de mejorar el diseño de la interficie del catálogo en línea de una biblioteca, valoran la usabilidad a partir del grupo de discusión y la entrevista. Kim y Kim (2008), en cambio, utilizan experimentos de usabilidad y el grupo de discusión para la mejora del sistema de repositorios de una institución.

<11111

<11111

<11111

<11111


7. GRUPOSDE DISCUSIÓN

[185]

• Conocer las actitudes que los usuarios tienen hacia los nuevos recursos de información (Starkweather y Wallin, 1999; Zuccala, 2010). • La planificación estratégica de una biblioteca (Meltzer, Maughan y Fry, 1995; Higa-Moore, Bunnett, Mayo y Olney, 2002). En resumen, el uso de la técnica es muy variado y, como indica Debus (1988), puede ser una buena herramienta para generar ideas, como paso preliminar para desarrollar un estudio cuantitativo, como complemento a los resultados de un estudio cuantitativo o bien como fuente primaria para la recogida de datos. Sin embargo, no se aconseja su uso si se pretende valorar un producto que no existe posibilidad de cambiar. Por supuesto, el GD puede aportar información relevante antes, durante y después del lanzamiento de un producto o servicio, pero no sería una buena idea realizar un GD para valorar la opinión que merece una nueva base datos si se prevé que esta salga al mercado en dos semanas. Los resultados obtenidos no podrán ser implementados antes del lanzamiento, por lo que de poco servirá la información que aporten los participantes.

7.2. GRUPO DE DISCUSIÓN COMO TÉCNICA CUALITATIVA

El grupo de discusión es una técnica cualitativa. No pretende obtener datos cuantitativos como resultado, sino información sobre un determinado aspecto a partir de las interacciones y opiniones de los miembros que participan en el proceso. Los resultados posiblemente no serán generalizables al conjunto de la población a la que pertenecen estos miembros, pero en cambio permitirán conocer el tema que se aborde en profundidad. Los estudios cuantitativos, como por ejemplo los estudios de encuesta, olvidan los aspectos más subjetivos; en cambio, el GD permite capturar justamente estos aspectos, a partir de los comentarios de los participantes y evaluarlos. La diferencia del GD respecto a otras técnicas individuales cualitativas, como la entrevista, reside en que la información obtenida se basa en la interacción de sus miembros. Las técnicas individuales asumen que los individuos saben cómo piensan, pero en realidad sus respuestas, tal como se ha ido exponiendo en otros capítulos, se ven influidas por muchos factores (diseño del cuestionario, formulación de la pregunta, influencia del entrevistador, etcétera). El GD se asemeja más al proceso de toma de decisiones que los individuos llevan a cabo en una situación de la vida real. Los individuos forman su propio punto de vista a partir de información que han podido adquirir por diversas vías y a partir de la contrastación de sus opiniones con las de otros. La decisión final sobre cualquier cuestión se toma frecuentemente tras escuchar diferentes versiones, advertencias o consejos de otras personas.


1186)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

El GD se diferencia de otras técnicas grupales en las que se intenta llegar a un consenso entre sus miembros, como es el caso del método Delphi. El GD pretende obtener información lo más diversa posible sobre un tema concreto. Su finalidad es conocer cuáles son las percepciones, conocimientos, opiniones, sentimientos o pensamientos de los usuarios, sin perseguir un cambio de opinión, ni pretender que los miembros lleguen a acuerdos entre ellos. El GD puede ser una técnica complementaria a otras (Morgan, 1997). Concretamente, se ha demostrado que el GD puede ser útil antes de llevar a cabo un estudio de encuesta, como prueba piloto del cuestionario o bien una vez se ha administrado y se han analizado los resultados del cuestionario. En el primer caso, el GD puede permitir un mayor conocimiento del fenómeno que se pretende estudiar, lo que puede servir para delimitar las dimensiones o los diferentes aspectos que deberán ser abordados por un cuestionario. El que el GD permita a los participantes expresar sus pensamientos e ideas con sus propias palabras ayuda a conocer el vocabulario que usan los usuarios y así seleccionar las palabras más adecuadas para diseñar un cuestionario. De esta manera, se pueden generar preguntas más adaptadas y más fáciles de entender para las personas a las que irá dirigido. La información que proporcionan los participantes en un GD puede servir también para concretar las posibles opciones de respuesta de una pregunta cerrada. El GD puede servir como vía para conocer el abanico de posibilidades de un determinado aspecto que se quiere valorar. Una vez generado el cuestionario, un GD puede servir como técnica para llevar a cabo la prueba piloto del cuestionario. En este caso se les requerirá a los participantes que valoren la pertinencia de cada pregunta, su comprensión, adecuación del vocabulario, etcétera. Por último, la encuesta y el GD también pueden ser complementarios en la interpretación de los datos. En ocasiones, los resultados de un estudio de encuesta no son del todo clarificadores para el investigador, por lo que puede ser útil realizar un GD para entender las razones de determinadas respuestas o profundizar en aspectos que la encuesta no ha podido abordar. En el área de información y documentación existen numerosos ejemplos en los que se utiliza el GD en combinación con otras técnicas como la entrevista, la encuesta o la observación (Lee y otros, 1995; Lee y otros, 2003; Dresang y otros, 2007; Ishihara, 2008; Craven y otros, 2010).

7.3. FASES DE UNA INVESTIGACIÓN MEDIANTE GRUPO DE DISCUSIÓN

Según Krueger (1991), los estudios que utilizan grupos de discusión constan principalmente de cuatro fases: el diseño del estudio, la conducción de los grupos, el análisis y el informe.


7. GRUPOS DE DISCUSIÓN

(1871

En la fase de diseño del estudio, el investigador debe plantear los objetivos del GD y valorar la adecuación del uso de la técnica. Es importante valorar las ventajas de utilizar un GD, así como los inconvenientes. También, en esta fase es necesario determinar quiénes deben ser los participantes, así como qué información se quiere recabar de ellos. Por ejemplo, si se pretende conocer cómo perciben los usuarios la formación que ofrece una biblioteca, en primer lugar se debería valorar si interesa entrevistar a ex alumnos de la oferta de cursos de formación, a usuarios que en la actualidad estén asistiendo a algún curso, a usuarios de la biblioteca que puedan ser alumnos potenciales de estos cursos o bien a una combinación de todos ellos. Debe tenerse en cuenta que los diferentes usuarios proporcionan información distinta, por lo que es importante decidir a qué público se debe dirigir el estudio. Otros factores como las características sociodemográficas (edad, nivel de estudios, estatus sociolaboral, etcétera) de los participantes son igualmente importantes a la hora de decidir a quién incluir en el GD. En esta primera fase también deben planificarse el calendario del estudio, las diferentes acciones que deben llevarse a cabo, los recursos necesarios, las personas responsables, así como estimar los costes del proyecto. La fase de conducción de los grupos requiere diseñar cuidadosamente las preguntas y la guía del moderador, seleccionar a los participantes y planificar todos los elementos necesarios para, finalmente, llevar a cabo los GD. Entre los elementos que son necesarios para celebrar un GD se debe destacar: el diseño de cuestionarios de preselección, citar a los participantes, habilitar un espacio para celebrar la sesión, diseñar tareas complementarias a la discusión del grupo, preparar el material para la grabación y diseñar el consentimiento informado y los informes de confidencialidad si se consideran necesarios. Generalmente, las sesiones de grupo se graban en audio para posteriormente ser analizadas en profundidad. El análisis de un GD debería ser un proceso sistemático y verificable (Krueger y Casey, 2009). Esto significa que debería seguir un proceso y secuencia prescrito de antemano y los resultados deberían poder ser reproducidos por otros investigadores si siguieran el mismo procedimiento. Esta fase de análisis debería ser llevada a cabo por el moderador o su ayudante, dado que ellos han estado presentes en las sesiones y dispondrán en primera persona de la información sobre la dinámica que se ha establecido en cada grupo. Las notas del moderador y su ayudante durante la sesión, la grabación y su transcripción son elementos necesarios para el análisis. Habitualmente, la fase de análisis se inicia con el resumen que inmediatamente a la sesión elaboran el moderador junto con su ayudante. En este resumen se deben reflejar las ideas más relevantes que han surgido durante la sesión. Las notas del ayudante, que ha actuado como observador durante la sesión y el recuerdo inmediato de las intervenciones de los participantes, son los elementos clave para elaborar este re-


(188]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIEN'TO INFORMACIONAL

sumen. Posteriormente, el análisis de la grabación va a permitir entrar en los detalles para un análisis más profundo. A partir de la transcripción se realiza un análisis de contenido identificando las respuestas, los comentarios y valoraciones más relevantes y frecuentes en función de los perfiles de los participantes. Margan (1997) señala que el análisis y el informe son dos procesos que están íntimamente relacionados. El tipo de análisis que se aplique dependerá por una parte de la finalidad del GD y por otra del tipo de respuesta que se pretende obtener del estudio. Si el GD se ha aplicado como técnica preliminar y exploratoria para tomar decisiones sobre un proyecto más amplio, como por ejemplo el diseño de un cuestionario, de un servicio o programa, el análisis y las conclusiones del GD deberán concretarse a las necesidades concretas del proyecto. En cambio, si el GD es la fuente primaria para la recogida de datos que va a permitir dar respuesta al objetivo del estudio en su conjunto, se espera que el análisis y el informe sean más profundos y extensos. El informe debe ajustarse a los objetivos del estudio y adaptarse a las características del destinatario. Debe ser clarificador y ofrecer la luz suficiente sobre el problema planteado. Puede contener un resumen de las ideas principales que han surgido durante las sesiones, transcripciones directas de las intervenciones de los participantes o bien interpretaciones de los investigadores. Se aconseja que el informe mantenga un equilibrio entre el resumen de las ideas que han surgido durante la sesión y las citas literales que pueden servir de ejemplo para apoyar los resultados. Es importante recordar que el GD es una técnica cualitativa, por lo que se debe evitar caer en el error de querer cuantificar las intervenciones o incluir gráficos que resuman la frecuencia o las valoraciones realizadas por los participantes.

7.4. ELEMENTOS DE UN GRUPO DE DISCUSIÓN

7.4.1. El moderador El moderador tiene la función de moderar, guiar y estimular la discusión entre los miembros del grupo. Debe asegurar que todos los participantes intervienen en la discusión y se centran en el tema que se quiere tratar. Debe facilitar que en el grupo se genere un clima relajado que fomente la aparición de diferentes puntos de vista, opiniones o percepciones sobre el tema. Utilizar el mismo moderador en los diferentes GD asegura la consistencia de la técnica y una moderación uniforme sobre los aspectos tratados. A la hora de escoger el moderador, el primer dilema que se le plantea al investigador es decidir si se utiliza un moderador interno o externo a la organización. No existe acuerdo sobre cuál es la mejor solución, pero sí algunas consideraciones que


11891

7. GRUPOS DE DISCUSIÓN

ayudan a tomar una decisión. Bader y Rossi (2002) proponen una lista de ventajas y desventajas para cada caso (tabla 16). En un primer momento, se debe valorar si dentro de la propia organización se cuenta con algún miembro con experiencia en la moderación de GD o bien, por sus habilidades, puede ser un buen candidato para desarrollar este papel. Si los participantes son internos a la organización, un moderador también interno posiblemente no será considerado como un miembro objetivo y neutral por los participantes. Esto hará que los miembros del grupo se sientan cohibidos a la hora de participar. En estos casos, cuando los participantes son miembros de la propia organización o bien se van a tratar temas relacionados con el desarrollo laboral, la organización, las relaciones o políticas de empresa, es preferible utilizar un moderador externo. En otros casos, un moderador interno puede conocer mejor el problema a tratar o las necesidades de la organización y adaptar la moderación del grupo con más eficiencia. Tabla 16. Ventajas y desventajas en el uso de moderadores internos y externos a la organización (adaptado de Bader y Rossi, 2002)

MODERADOR

INTERNO

Ventajas

MODERADOR

EXTERNO

Ventajas

Tiene un conocimiento más profundo de la organización.

Mayor experiencia en la conducción de grupos.

Más económico.

Los participantes tienen una mayor sensación de confidencialidad. Fomenta una mayor sinceridad en los comentarios de los participantes.

Desventajas

Desventajas

Su mayor conocimiento de la organización puede provocar un sesgo hacia la obtención de determinados resultados.

Conoce menos la organización.

Genera una mayor desconfianza en los participantes debido a las repercusiones que sus opiniones puedan tener.

Tiene un coste económico superior.

Menor experiencia en la conducción de grupos.

La mayoría de autores (Bader y Rossi, 2002; Debus, 1988; Edmunds, 1999; Greenbaum, 1998; Krueger y Casey, 2009; Margan, 1997) coinciden que las habilidades que debería mostrar un moderador efectivo son: ~

Afabilidad: el moderador debe ser capaz de generar un ambiente relajado y agradable. Un moderador afable facilita la intervención de los participantes, sobre todo al inicio de la sesión.


(190)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO JNFORMACJONAL

~

Energía: debe ser una persona enérgica y capaz de mantener la discusión animada, interesante y productiva. Debe tener la habilidad para motivar al grupo e inyectar entusiasmo en la discusión. Neutralidad: no debe mostrar favoritismos por unas u otras opiniones de los participantes ni expresar su punto de vista. Debe evitar asentir o negar en relación a los comentarios emitidos por los participantes ni tampoco emitir juicios sobre la calidad de los comentarios del tipo «bien», «correcto», «perfecto», etcétera. Flexibilidad y rápida adaptación a los cambios: debe responder de manera rápida a los cambios que se producen en la dinámica del grupo. Buenas habilidades organizativas: debe ser una persona bien organizada, capaz de desarrollar una agenda que le permita ir alternando temas con el fin de obtener los resultados marcados dentro del tiempo previsto para la sesión. Capacidad para saber escuchar: es esencial que muestre atención cuando habla cada uno de los participantes y, si lo considera oportuno, tome notas breves de sus intervenciones. En caso de duda debe aclarar el significado de los conceptos o ideas, utilizando sinónimos de los términos usados o parafraseando las principales ideas que el grupo ha ido generando. Capacidad de sintetizar: debe ser capaz de sintetizar y resumir la información que los participantes van discutiendo durante el GD. Buena memoria: un buen moderador debe recordar los diferentes temas que han ido surgiendo durante la discusión. Debe aprovechar la aparición de nuevos temas para conectarlos con anteriores ideas que han podido surgir durante la sesión.

~

~

~

~

~ ~

Es habitual que además del moderador asista a las sesiones un ayudante. Este ayudante básicamente se dedicará a tomar notas durante la sesión y no tendrá un papel activo durante la discusión. Su papel se centrará en recoger detalles y citas concretas de los participantes que posteriormente ayudarán a preparar el resumen de la sesión y el informe. Utilizar la misma persona que toma notas durante las diferentes sesiones asegura un mismo estilo de transcripción que facilita la tarea posterior de análisis. Como se comentará en otro apartado, los participantes no siempre le ponen fácil la tarea al moderador. Por un lado, el moderador debe controlar a los participantes que intenten monopolizar la discusión y, por otro, debe motivar y animar a los participantes más tímidos a intervenir de manera activa. El lenguaje corporal, como por ejemplo mantener el contacto visual con los más tímidos o bien dirigirles gestos directos que los inviten a participar, puede facilitar que estos venzan su miedo a intervenir. En cambio, con aquellos participantes que pretenden dominar la discusión, interrumpen o impiden que otros miembros intervengan, critican las intervenciones de otros o personalizan la discusión con experiencias propias, requieren otro tipo


7. GRUPOSDE DISCUSIÓN

1191]

de actuación diferente. En estos casos, la función del moderador es la de contener el discurso de estas personas, impedir que inhiban la participación del resto de miembros y promover que la discusión progrese dentro del grupo. Bader y Rossi (2002) consideran que, en estos casos, el lenguaje corporal puede ser más efectivo que el enfrentamiento directo con estas personas. Por ejemplo, evitar el contacto visual cuando hablan, dirigir la atención del grupo hacia el material presentado, la pantalla, la pizarra, etcétera, indicar a la persona con el dedo que no continúe con su intervención o dar paso a otro miembro del grupo son acciones que se consideran efectivas para el control de estos participantes. Si antes del inicio de la sesión, en las conversaciones iniciales, se identifica a estos individuos, se puede aprovechar para disponer a los participantes de manera que facilite el trabajo del moderador. Por ejemplo, se aconseja que los participantes más dominantes se sienten al lado del moderador o próximos a él, mientras que los más tímidos se sienten enfrente del moderador (Krueger, 1991; Margan, 1997). De esta manera, el moderador puede proporcionar un contacto visual más directo con los más tímidos y ofrecerles señales no verbales para que intervengan, mientras que le permite evitar el contacto visual con los más disruptivos. Es necesario que el moderador disponga de una guía para conducir la sesión. Esta guía será la agenda del moderador y debe contener la información necesaria para poder dirigir el grupo (Greenbaum, 1998). No debe ser un documento de consulta durante la sesión (salvo que sea estrictamente necesario), sino que se recomienda que el moderador la memorice para así evitar leer las preguntas y restar espontaneidad a las cuestiones. En el cuadro 25 se detalla la información básica que debería contener esta guía.

7.4.2. Los participantes

El GD se debe formar a partir de aquellos sujetos que sean capaces de proporcionar la información necesaria para responder a los objetivos de la investigación. Para ello, se requiere seleccionar aquellos informantes clave (Krueger y Casey, 2009) capaces de proporcionar la información básica para el estudio. Como técnica cualitativa, el GD se vale de muestreos de tipo intencional para seleccionar a los miembros que participarán en el estudio. Sin embargo, para generar los grupos, el muestreo que mejor se adapta a las características de la técnica es el muestro homogéneo (Patton, 2002). El uso de un muestreo homogéneo permite generar grupos de participantes que comparten perfiles similares. Se recomienda que los miembros de cada grupo compartan características que el investigador considera relevantes en la población de referencia. Si los participantes se perciben como similares entre sí, va a facilitar la interacción


[192]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

Cuadro 25. Información que debe contener la guía del moderador Información que debe proporcionarse a los participantes antes del inicio de la sesión

.. • •

• • •

Presentación del moderador y de la organización que lleva a cabo el estudio . Finalidad del estudio . Objetivos del grupo de discusión . Información general y normas básicas sobre el funcionamiento del grupo de discusión (duración de la sesión, grabación en audio o vídeo, aspectos de confidencialidad, orden de las intervenciones, aperitivos, etcétera). Tareas específicas que se van a realizar durante la sesión (cuestionarios pre o posdiscusión, visionado de videos, actividades individuales o de grupo, etcétera). Información que se les proporcionará una vez finalice el estudio y cómo se les hará llegar el informe. Firma del consentimiento informado o el compromiso de confidencialidad, en caso que sea necesario.

Presentación de los miembros del grupo

Aspectos como el nombre, edad, profesión . Relación u opinión general con el tema de debate .

Temas a tratar

.• •

Definición de los temas generales y específicos. Asignación de prioridades y tiempo estimado para cada uno de los temas . Ejemplos de preguntas para mantener la discusión activa .

Cierre de la sesión

• •

Resumir los principales temas tratados durante la sesión . Recordar el envío del informe . Repartir los incentivos . Agradecimientos .

entre ellos y el intercambio de ideas. Para conseguir grupos homogéneos se requiere que la muestra sea segmentada respecto a estas características básicas. Debus (1988) considera que los aspectos que principalmente deben tenerse en cuenta para conseguir grupos homogéneos son: • El estatus socioeconómico. • El ciclo vital. La experiencia respecto al tema abordado. • Las diferencias culturales. • Las cualidades de los participantes (por ejemplo: usuarios frente a no usuarios). <1111

Variables como la edad, el sexo o el estado civil también deberían ser consideradas dependiendo del tema que se pretenda abordar. La homogeneidad dentro del grupo es importante porque pequeñas diferencias en el nivel educativo, en el estatus laboral,


7. GRUPOS DE DISCUSIÓN

[193]

en el conocimiento o experiencia sobre el tema pueden provocar que unos sientan que las opiniones de otros tienen más valor que las propias y, en consecuencia, dejen de intervenir. La consecuencia de que un miembro no intervenga es que se deja de obtener la información que podría ser útil para el estudio. Tal como indica Margan (1997), el objetivo es conseguir una homogeneidad en las características de los participantes, pero no en sus actitudes u opiniones. Si todos los miembros tienen una visión idéntica sobre el fenómeno que se pretende estudiar, la discusión y los resultados obtenidos serán pobres. Una herramienta para conseguir grupos homogéneos es utilizar un cuestionario de preselección. Se trata de un breve cuestionario que contiene una serie de preguntas para evaluar si el sujeto tiene las características deseadas para ser considerado un buen candidato para el estudio (Greenbaum, 1998). Es frecuente que este tipo de cuestionarios contenga preguntas sociodemográficas, como la edad, profesión, etcétera, así como cuestiones que valoren el conocimiento o interés del tema sobre el que se va a debatir. Este cuestionario puede ser administrado por teléfono o cara a cara y servirá tanto para escoger a los participantes que mejor se adapten a los perfiles que se desean para el estudio, como para valorar la motivación de cada uno de los candidatos para colaborar en la investigación. Durante el proceso de selección de los participantes, Edmunds (1999) recomienda resumir el perfil de los sujetos en tablas con el fin de asegurarse de que se está citando a los participantes correctos para cada uno de los grupos. Lo habitual es programar distintos GD para los distintos perfiles identificados. Por ejemplo, en el estudio de Prabha y otros (2007) se programaron diferentes grupos de discusión para evaluar la percepción de saturación en la búsqueda de información. En este caso, los autores evaluaron por separado a profesores y estudiantes para conocer los criterios que unos y otros consideraban para detener la búsqueda de nueva información y considerar que la información obtenida era suficiente para cubrir su necesidad informativa. Los participantes de un GD habitualmente no se conocen entre sí. Aunque esto es lo aconsejable, en determinados contextos es imposible. Por ejemplo, cuando el interés de la investigación reside en valorar las opiniones de los propios trabajadores de una institución o empresa. Si este es el caso, se deben guardar determinadas precauciones, como usar un moderador externo a la organización con el fin de que los miembros del grupo no se sientan cohibidos al tratar determinados temas y evitar relaciones jerárquicas entre los miembros del grupo. Un moderador interno puede ser visto con recelo por los participantes, más si este se trata de un superior y puede provocar respuestas que sean socialmente bien aceptadas dentro de la organización. De la misma manera, realizar un GD entre los compañeros de trabajo puede hacer florecer acuerdos o desacuerdos en función sus relaciones previas.


[194]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

INFORMACIONAL

No existe un acuerdo unánime entre los autores sobre el tamaño ideal que debería tener el GD. No obstante, la mayoría de autores hace referencia a un grupo relativamente pequeño de individuos que oscilaría entre los cuatro y los doce miembros como máximo. Se considera que el grupo debe ser lo suficientemente pequeño para favorecer la participación de todos sus miembros y lo suficientemente grande para que surjan diversidad de opiniones y diferentes puntos de vista (Krueger, 1991). Si el grupo es demasiado pequeño, se observa poca variedad de ideas, mientras que si el grupo es excesivamente grande, se hace más difícil la moderación y a menudo se observan interacciones en voz baja entre pares que disgregan el grupo (Morgan, 1997). Debus (1988) recomienda que, cuando el objetivo del estudio es generar el máximo de ideas posible, se utilice un grupo grande. En cambio, cuando lo que se persigue es que cada participante profundice en el tema, se aconseja utilizar grupos pequeños. Tampoco existe una regla sobre cuántos grupos deben incluirse en una investigación. Dependerá, entre otros factores, de la diversidad de perfiles que se detecten entre los miembros. Si la población que se quiere valorar es heterogénea (por ejemplo, en cuanto a la experiencia, nivel socioeconómico, etcétera), serán necesarios más grupos para conseguir una muestra homogénea de cada uno. Se desaconseja recoger datos de un único grupo, dado que, si no se dispone de otros grupos para comparar, no se podrá saber si se ha obtenido toda la información necesaria para el estudio o bien la discusión refleja la singularidad de aquel grupo concreto que se ha valorado (Margan, 1997). Es habitual que los primeros grupos de discusión (los dos o tres primeros) proporcionen una gran cantidad de información nueva y posteriormente se observe que mucha de la información va repitiéndose en los siguientes grupos, llegando a una saturación informativa. Cuando la información que se obtiene en un grupo es redundante respecto a los anteriores, es síntoma de que se han recogido los datos suficientes para la investigación y no es necesario incorporar más grupos al estudio. Como guía para determinar el número de grupos necesarios Debus (1988) recomienda considerar los siguientes aspectos: <1111

<1111

<1111

<1111

Programar al menos dos grupos por cada aspecto que se considere relevante para tratar el tema. Si en el grupo se presentan materiales para ser evaluados (por ejemplo, el contenido de diferentes páginas web), se deben programar un número suficiente de grupos que permitan rotar el orden de presentación de estos materiales. Continuar llevando a cabo grupos hasta que la información que se obtenga sea redundante. Programar un número de grupos suficiente que permita cubrir las posibles diferencias geográficas o entre localidades (por ejemplo, en base a un entorno rural o urbano).


7. GRUPOS DE DISCUSIÓN

1195]

La cantidad de grupos que deben incluirse, por supuesto, también responde al presupuesto disponible para el estudio (Greenbaum, 1998). Sin duda, no es la manera óptima de tomar la decisión, pero, de hecho, es bastante frecuente basarse en los recursos económicos disponibles. Si los recursos son escasos y solo se pueden llevar a cabo unos pocos GD, es preferible decidir qué perfil de individuos constituyen los sujetos clave para obtener la información más relevante para la investigación. En el cuadro 26 se presentan un ejemplo de una investigación y los criterios para determinar el número de grupos necesarios. Cuadro 26. Número de grupos necesarios para una investigación Una editorial quiere realizar un estudio para valorar la percepción de los estudiantes de posgrado y profesores universitarios sobre Open Access con la finalidad de abrir nuevas vías de negocio en la

empresa. Open Access hace referencia al acceso abierto de la literatura científica. Esta literatura está disponible en la Web de manera gratuita para los investigadores, estudiantes y el público en general. Normalmente se publica en revistas de libre acceso o en repositorios. La empresa considera importante tener en cuenta la opinión de las personas que están a favor como aquellas que están en contra de este nuevo sistema de acceso a la información. Con este objetivo se diseñan dos grupos para cada tipología de grupo. En total deben llevarse a cabo ocho grupos de discusión con la siguiente composición: Grupo A: Partidario del sistema Open Access, profesor. Grupo B: No partidario del sistema Open Access, profesor. Grupo C: Partidario del sistema Open Access, estudiante. Grupo D: No partidario del sistema Open Access, estudiante. Con esta organización de los grupos se consigue una muestra que contempla grupos homogéneos respecto a la categoría del panicipante (profesor o estudiante) y su opinión a favor o en contra del sistema Open Access. No se han tenido en cuenta otras variables como el sexo del participante, la antigüedad del profesor o bien el tipo de estudios que cursa el estudiante, porque aumentarían en exceso el número de grupos que deberían realizarse.

Otro aspecto que se debe tener en cuenta es la disponibilidad y motivación de los participantes para colaborar en el estudio. El GD implica que los miembros se desplacen a un lugar concreto en un momento específico, lo que requiere un alto grado de motivación por su parte, que se sientan atraídos por la temática, el objetivo o bien por los incentivos o beneficios que pueden recibir por su participación. Para conseguir reclutar a los participantes es necesario contactar con ellos en diferentes ocasiones y por diferentes vías (Edmunds, 1999). Se recomienda que una vez los participantes han sido seleccionados, se envíe una carta de confirmación de la sesión con el fin de recordarles todos los aspectos importantes para participar en el GD (fecha y lugar de celebración, hora, información de contacto en caso de duda, etcétera). Posteriormente, se confirmará la asistencia de cada participante por teléfono o correo electrónico. Además, Edmunds (1999) recomienda realizar llamadas de con-


1196)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

INFORMACIONAL

firmación el día antes de la sesión para recordar y asegurar la asistencia de cada uno de los participantes. No todos los participantes tienen las mismas capacidades para expresarse en una discusión en grupo. Mientras que unos son rápidos a la hora de expresar sus puntos de vista y elaboran sus intervenciones en el mismo momento en que están interviniendo, otros piensan primero detenidamente aquello que quieren decir y luego intervienen. Es función del moderador que todos los miembros expresen sus opiniones sea cual sea su estilo. Krueger (1998) resalta seis principales tipologías de participantes que suelen observarse en la composición de la mayoría de GD: el experto, el dominante, el desviacionista, el disruptivo, el tímido y el distraído. El participante experto es un miembro que, por lo que dice y cómo lo dice, hace que los otros participantes minusvaloren sus propias opiniones y se abstengan de intervenir. Son percibidos como miembros con más experiencia y conocimiento sobre el tema. Una estrategia para evitar el efecto de estos participantes es que el moderador resalte la idea de que lo que en realidad interesa es conocer la percepción de todos los miembros sea cual sea su experiencia. Desde ese punto de vista, todos los miembros pueden considerarse en cierta manera expertos en el tema. Los participantes dominantes en ocasiones también se consideran expertos en el tema y acaparan la conversación con sus intervenciones, lo que igualmente provoca que los otros miembros no puedan expresar sus opiniones. El desviacionista es el que acapara buena parte del tiempo con intervenciones que se desvían del tema y que no aportan gran cosa a la discusión. La mejor estrategia para controlar estos casos (experto, dominante y desviacionista) es que el moderador evite el contacto visual y aproveche las pausas para pasar la palabra a otros miembros del grupo. Un caso diferente es el del participante disruptivo. Este tipo de participante interrumpe las intervenciones de los otros miembros, no respeta las opiniones o bien emite juicios de valor sobre las opiniones de otros. Es importante, en estos casos, resaltar la importancia que las diferentes valoraciones tienen para el estudio y recordar que no existen respuestas correctas ni incorrectas. El participante tímido es aquel que duda en intervenir. Generalmente es una persona tímida o ansiosa que considera que su intervención no aporta demasiado al debate. Este tipo de participante necesita la ayuda del moderador para entrar en la discusión. Normalmente, suele ser suficiente el contacto visual directo con el moderador para animarle a intervenir. Por último el participante distraído es aquel cuyas intervenciones tienen poca relación con el tema que se está tratando. Posiblemente se trate de una persona con poca capacidad para escuchar y seguir el hilo de la discusión. En estos casos se recomienda repetir la pregunta o bien parafrasear el hilo de lo que en ese momento se está discutiendo.


7. GRUPOSDE DISCUSIÓN

[197)

7.4.3. Las preguntas Las preguntas en un grupo de discusión. suelen parecer espontáneas, aunque esta aparente espontaneidad es totalmente ficticia. El diseño de las preguntas ha de ser muy cuidadoso. Es importante que los investigadores hagan diversos borradores de las posibles preguntas y ensayen diferentes formulaciones y vocabulario hasta conseguir una pregunta clara, comprensible y breve. Tal como sugiere Krueger (1991), las preguntas han de ser estímulos para el grupo. Su formulación debe facilitar la interacción entre los miembros y provocar la evocación de la máxima información posible. Las respuestas de los miembros deben inducir a nuevas ideas o facilitar asociaciones entre factores que permitan explorar la diversidad de opiniones del grupo. Por ello se deben evitar preguntas cerradas o de respuesta dicotómica. Al contrario, las preguntas han de ser abiertas. Este tipo de preguntas evitan respuestas que puedan ser contestadas con pocas palabras y facilitan que los miembros del grupo expongan sus ideas de forma amplia, con descripciones y ejemplos concretos. Al inicio de la sesión interesa que los participantes expresen sus ideas generales sobre el tema, pero, una vez el grupo ha expuesto las principales ideas, es importante ir acotando temas y obtener información más específica. Por ello, al inicio de la sesión se aconseja formular preguntas generales y reservar preguntas más específicas y concretas una vez se ha recogido la información esencial. En el contexto de un estudio sobre el comportamiento de los usuarios en una sala de lectura las preguntas iniciales podrían ser las siguientes: ¿qué soléis hacer cuando vais a una biblioteca?, ¿utilizáis la sala de lectura?, ¿para qué utilizáis la sala de lectura? y, por ejemplo, reservar preguntas más concretas del tipo: ¿qué es lo que consideráis esencial de la sala de lectura que no podéis encontrar en otro espacio?, ¿hasta qué punto consideráis que la estructura de la de la sala de lectura es adecuada? o ¿qué cosas cambiaríais? Krueger y Casey (2009) distinguen cinco categorías diferentes de preguntas: preguntas de apertura, introductorias, de transición, claves y finales. A continuación se describen brevemente cada una de ellas. El objetivo de las preguntas de apertura es hacer que todos los miembros se unan a la discusión en los primeros momentos de la sesión. Se sabe que, cuanto más tarda un miembro en intervenir, menos probable es que participe durante la sesión. Frecuentemente, este tipo de preguntas no está relacionado de manera directa con el tema de discusión, pero facilitan que todos los miembros intervengan. Por ejemplo, pedir una breve presentación a cada uno de los miembros, preguntar sobre intereses, ocio o familia, sin que esto haga descubrir diferencias de estatus o poder entre los participantes, permite generar un clima cálido y que todos los miembros participen. Las preguntas introductorias son aquellas que introducen el tema de discusión. A veces, se les pide a los participantes que recuerden experiencias pasadas en relación


[198]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

INFORMACIONAL

con la temática. De hecho, preguntar sobre el pasado induce al sujeto a hacer referencia directa a experiencias propias y no expresar sus intenciones o deseos. Un ejemplo de este tipo de pregunta sería en el contexto del estudio de la sala de lectura: ¿qué es lo que hicisteis la última vez que estuvisteis en una sala de lectura? Las preguntas de transición intentan profundizar en aquellos aspectos que se han introducido con las preguntas previas y preparan para las preguntas claves. Las preguntas que responden al objetivo del estudio son las preguntas que se consideran claves y a las que se les dedicara más tiempo para su discusión. Por último, las preguntas finales se reservan para que los participantes identifiquen aquellos puntos que consideran esenciales sobre la temática que se ha discutido o bien valoren si se ha omitido algún aspecto importante que debería ser considerado. Es importante que antes de iniciar los grupos de discusión se compruebe que las preguntas que se han diseñado funcionan. Suele ser suficiente formular las preguntas a algunas personas que encajen con los perfiles de los participantes. Se debe prestar atención tanto si al moderador le resulta sencillo formular la pregunta, como si los participantes entienden correctamente el significado de la pregunta.

7.4.4. El escenario El escenario donde se celebra un GD implica aspectos muy diferentes, unos de carácter más general, como decidir la ubicación de donde se llevará a cabo el GD o bien el tipo de institución o centro que acogerá a los miembros, y otros más concretos, como los elementos que debe tener la sala donde se celebre el GD o bien la disposición de los propios participantes dentro del grupo. A continuación se comentan brevemente cada uno de estos aspectos. El lugar donde se celebre la sesión debe ser un lugar que, por una parte, se adecue a los participantes y, por otra, cubra las necesidades de la técnica. Se debe tener en cuenta que los participantes deben trasladarse hasta el lugar de la reunión, por lo que este debe ser un lugar de fácil acceso para todos los miembros. A la hora de escoger la ubicación deberán considerarse las posibilidades de acceso y de transporte. Celebrar la reunión en un lugar céntrico a una hora punta en una gran ciudad puede ser percibido como un problema por los candidatos y que esto les haga declinar la invitación a participar. En el otro extremo, si la reunión tiene lugar en un centro ubicado en un lugar con escasos servicios de transporte público, sin posibilidad de acceder con el coche propio o sin un lugar para estacionar, dificultará que los candidatos acepten la invitación. Otro aspecto a tener en cuenta es el tipo de centro que se escoge para realizar el GD. De bus (1988} advierte que celebrar la sesión en lugares como escuelas o institu-


7. GRUPOSDE DISCUSIÓN

(199)

cienes gubernamentales puede inhibir las repuestas de los participantes y provocar intervenciones que sean más socialmente aceptadas para la organización. La técnica del GD requiere unas mínimas condiciones para poder desarrollarse de manera efectiva. Es necesario disponer de una habitación con mesas y sillas, que tenga espacio suficiente para los miembros del grupo. Sin ruidos ni intervenciones y con una ventilación adecuada. Una sala polivalente donde otras personas pueden tener acceso durante la sesión no es el mejor sitio donde celebrar la reunión. Tampoco una habitación con cristales que dan a un pasillo o a una sala donde hay otras personas trabajando. Se debe crear un escenario donde se minimicen los distractores y que garantice la confidencialidad de lo que en el grupo se discuta. Morgan ( 1997) aconseja disponer a los participantes en forma de U alrededor de una mesa cuadrada o bien redonda y que el moderador se siente como cabeza de mesa. La cámara, si se decide filmar la sesión, puede situarse justo detrás del moderador para abarcar a todos los participantes. Conviene contemplar la posibilidad de que se presenten el número máximo de participantes previstos, por lo que se debe disponer de sillas suficientes. Si se ha pensado en ofrecer algún aperitivo durante la sesión,. es mejor que se coloque en una mesa aparte y que esta sirva como espacio previo de tertulia justo antes de pasar a sentarse en la mesa donde ha de celebrarse la discusión. De esta forma, estas conversaciones iniciales que pueden surgir en los primeros momentos delante de la mesa de aperitivos pueden ayudar al moderador y a su ayudante a decidir cómo disponer a los participantes en la mesa de discusión.

7.4.5. La sesión Antes de comenzar la discusión en grupo es importante que el moderador o los miembros del equipo mantengan conversaciones informales con los participantes, e incluso que los participantes hablen entre sí y se conozcan entre ellos. El objetivo es que los participantes se empiecen a sentir cómodos y se consiga crear un ambiente cálido y amistoso. No obstante, se intentarán evitar conversaciones relacionadas directamente con el tema de discusión, justamente para impedir que las ideas u opiniones que se pretenden valorar surjan antes del inicio de la sesión. Para acompañar a estas primeras interacciones, es ideal invitar a los participantes a un aperitivo en la misma sala donde se celebrará la discusión o bien en una sala contigua (Greenbaum, 1998). Es frecuente que no todos los participantes que han sido invitados acudan a la reunión, por lo que se aconseja invitar a unos cuantos participantes más para asegurar que el grupo tendrá el tamaño deseado. Aunque el éxito de la convocatoria depende, entre otros factores, de la temática, la implicación de los participantes en


[200)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

el estudio y si se proporcionan o no incentivos, Margan (1997) recomienda citar un 20 % más de miembros para evitar que el grupo sea excesivamente pequeño. Se deben evitar las interrupciones una vez iniciada la sesión, por lo que aquellos participantes que llegan más tarde son un problema. Edmunds (1999) aconseja citar a los participantes entre 15 y 20 minutos antes de la sesión. Este tiempo puede aprovecharse para que los participantes se conozcan entre ellos de manera informal, tomar algún refresco, rellenar cuestionarios, presentar y firmar el consentimiento informado o el informe de confidencialidad. Una vez los participantes están en sus asientos, el moderador deberá dar la bienvenida, presentar a su equipo de colaboradores y a él mismo antes de presentar el tema a tratar. A continuación, el moderador explicará brevemente el objetivo del GD y las normas básicas de funcionamiento del grupo. Tal como expresa Berg (2001 ), los participantes deben saber qué es lo que se espera de ellos para que el grupo funcione de la forma esperada. Se debe indicar que se pretende una discusión abierta, que cada miembro verbalice su opinión sobre el tema y que se respeten las opiniones de los otros miembros aunque difieran de las propias. Además, el moderador explicará cuál será su papel durante la sesión. Si se pretende grabar la sesión, se debe remarcar la importancia de que se intente hablar claro y se respeten los turnos al hablar, de otra forma esta grabación podría ser ininteligible. Margan ( 1997) señala la dificultad de justificar la filmación de la sesión. Normalmente, a los participantes les parece obvio que se grabe en audio para un análisis posterior de las ideas que han ido surgiendo, sin embargo, perciben la filmación en vídeo como más intrusiva e innecesaria. El moderador comentará la confidencialidad de las opiniones y el interés por recoger todo tipo de opinión. Es importante recordar tanto en este punto como en algún momento durante la sesión que todas las opiniones son válidas y que no existen respuestas correctas o incorrectas. A la hora de presentar estas reglas se debe evitar caer en un excesivo formalismo o crear un clima demasiado despreocupado. Llegado este punto, ya se está en condiciones de lanzar la primera pregunta e iniciar la discusión. Habitualmente, la sesión se programa para que tenga una duración de entre 90 y 120 minutos. La dinámica de los grupos puede variar mucho entre sí. Mientras un grupo puede generar ideas muy variadas, otro puede centrarse en unas pocas y no contemplar los diferentes puntos de vista. De ahí la necesidad de programar varios GD para cada uno de los perfiles que se han identificado, de esta manera se asegura la existencia de diferentes dinámicas. Si el moderador percibe un excesivo conformismo entre los miembros que hace que la discusión sea improductiva, es conveniente que pregunte de manera directa si existe algún miembro que piense diferente o vea la situación desde otro punto de vista. Es importante recordar en diversos momentos la necesidad de expresar todos los puntos de vista, los positivos y los negativos.


7. GRUPOSDE DISCUSIÓN

[201)

Para concluir la reunión se recomienda que el moderador resuma los principales puntos e ideas que han surgido durante la discusión. Según Debus (1988), esta última fase debe servir fundamentalmente para hacer evidente lo que ha ocurrido durante la sesión, dar la oportunidad a quien lo desee para aclarar o añadir algún aspecto y contrastar la adecuación de las conclusiones con los participantes. Por último, el moderador deberá agradecer la asistencia y participación a todos los miembros y, si así se había programado, repartir los incentivos a los participantes.

7.5. VENTAJASY LIMITACIONESDE LOS GRUPOS DE DISCUSIÓN

La mayoría de los autores (Debus, 1988; Edmunds, 1999; Bader y Rossi, 2002; Krueger y Casey, 2009) destacan que la técnica presenta algunas ventajas pero también algunas limitaciones. Las ventajas fundamentales son: <11111

<11111

<11111

<11111

<11111

<11111

El GD permite a los participantes expresar sus opiniones libremente. A diferencia de un estudio de encuesta, en que el usuario en muchas ocasiones solo puede marcar una alternativa de respuesta para resumir su opinión, un GD permite al participante dar detalles, razones y justificar su respuesta. Por otro lado, el hecho de que se pueda contrastar la información con otros miembros del grupo puede llevar a generar nueva información. Es una técnica flexible. Permite al moderador desviarse del guión si así lo considera oportuno tras valorar opiniones inesperadas de los participantes. Como el objetivo es obtener información en profundidad, se considera más importante la información que puede proporcionar el grupo que seguir estrictamente el guión establecido. Es una técnica que disfruta de una gran validez aparente. Tanto el funcionamiento de la técnica como los resultados obtenidos a partir de ella se comprenden fácilmente por personas no expertas. El grupo de discusión suele ser una técnica que permite abordar situaciones en las que se tiene un bajo conocimiento, por lo que es aconsejable en los primeros estadios de una investigación y para obtener información de carácter descriptivo y exploratorio. La técnica puede llevarse a cabo con un coste reducido. Si se utiliza un moderador interno a la organización, los costes económicos serán aún más bajos. Comparada con otras técnicas como la encuesta o la entrevista, los resultados de la investigación pueden estar disponibles con bastante rapidez. En una o pocas semanas puede recogerse la información de diferentes grupos, analizarla y realizar el informe.


[202]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

INFORMACIONAL

Algunas de las limitaciones que han de considerarse antes de llevar a cabo un serían: <1111

<1111

<1111

<1111

<1111

GD

El moderador tiene un control relativo sobre la discusión del grupo. No siempre es fácil reconducir la conversación o evitar que la discusión se centre en temas irrelevantes. En el caso de una entrevista individual, para el entrevistador es relativamente sencillo reconducir la conversación al tema de interés o bien solicitar información más detallada sobre una determinada cuestión y evitar aquellos aspectos que se consideran irrelevantes. La disponibilidad de los participantes puede ser un problema. El GD requiere que los miembros del grupo asistan a un lugar y hora concreta para llevar a cabo la sesión. No siempre es fácil cuadrar agenda con todos ellos. Un grupo de discusión requiere que los participantes inviertan una mayor dedicación de su tiempo. Deben trasladarse al lugar donde tendrá lugar la sesión e invertir entre hora y media y dos horas en la discusión. En ocasiones se observa una mayor conformidad, deseabilidad social y polarización de las opiniones. La falta de anonimato inhibe a algunos miembros a expresar opiniones discordantes cuando se observa una alta conformidad dentro del grupo. En otros casos, los participantes expresan y defienden puntos de vista más extremos de los que mantendrían en su vida diaria. Esto provoca que los participantes se dividan en dos polos, los que están en contra y los que están a favor de un determinado aspecto y difícilmente se pueden obtener opiniones intermedias. No todos los grupos funcionan igual. La composición de cada grupo es diferente y la combinación de diferentes roles pueden generar diferentes interacciones entre los miembros e influir en los resultados. Mientras que algunos grupos pueden resultar aburridos y aportar una información pobre, otros pueden ser efervescentes y proporcionar información rica y variada. Para contrarrestar este efecto, se recomienda incluir diversos grupos en el estudio con el fin de conseguir la información que se persigue, sin correr el peligro de un mal funcionamiento del grupo.

7.6. VARIANTES DE LA TÉCNICA

Los grupos de discusión también pueden llevarse a cabo por teléfono y por Internet. En los dos casos la principal ventaja es que puede reunirse a miembros geográficamente dispersos a un bajo coste. Sin embargo, la limitación más evidente es que se pierde la riqueza informativa de la conducta no verbal de los grupos presenciales (Krueger y


7. GRUPOS DE DISCUSIÓN

[2031

Casey, 2009). El moderador no puede percibir con tanta facilidad cuando alguno de los miembros está perdiendo el interés por la discusión o bien está atendiendo a otras actividades durante el transcurso de la sesión (móvil, correo, Internet, etcétera). Cuando se programa un GD por teléfono es necesario tener en cuenta algunas consideraciones respecto al grupo presencial. Es necesario reducir el tiempo de discusión y el número de miembros que participan. Por un lado, dos horas se considera demasiado tiempo para estar colgado al teléfono y, por otro, atender a la vez la conversación de diez personas diferentes puede resultar imposible. Como solución a estas limitaciones, se aconseja reducir a una hora la duración de la sesión y limitar la participación a no más de cuatro o cinco miembros (Krueger y Casey, 2009). Además, para ayudar a la identificación de cada participante se aconseja que cada uno se identifique con su nombre cada vez que interviene. Krueger y Casey (2009) recomiendan enviar las preguntas a los participantes antes de la sesión, de esa manera pueden pensar en aquello que quieren decir y aprovechar mejor el tiempo disponible. Respecto a los GD por Internet, existen básicamente dos modalidades, el GD a tiempo real en salas de chat y los foros de discusión. En ambos casos, la sensación de anonimato entre los miembros es mayor, dado que no intervienen ni la imagen ni la voz. La transcripción de la sesión es inmediata, dado que los participantes dejan por escrito sus comentarios. No obstante, aunque se elimina el coste de viajes, dietas, transcripciones y alquiler de sala de reuniones, se debe añadir el coste del alquiler o bien la creación de un espacio virtual. Otra desventaja es que la expresión emocional de las intervenciones, aunque es posible a partir de emoticones o mayúsculas, no deja de ser artificial y pierde la espontaneidad y naturalidad del lenguaje hablado (Blader y Rossi, 2002). Los GD en salas de chat consisten en espacios web donde se invita a unos participantes a entrar para discutir en tiempo real sobre aspectos sugeridos por un moderador. La sesión se desarrolla a partir de la comunicación escrita entre los miembros, aunque otros estímulos, como gráficos, vídeos, visitas a otras webs, etcétera, se pueden ir presentando durante la sesión. El número de participantes suele oscilar entre los seis y ocho miembros y suele durar menos de 90 minutos (Krueger y Casey, 2009). Por las características del contexto, las intervenciones de los miembros suelen ser espontáneas y no siempre los miembros con aportaciones más interesantes son los que más intervienen, sino los que más rápido teclean. Un problema habitual en este tipo de GD son las dificultades técnicas que pueden surgir y los problemas con la velocidad de conexión de los participantes. Los foros de discusión son GD diacrónicos. Los participantes no están conectados al mismo tiempo, sino que la discusión transcurre a lo largo de varios días. Es habitual que el moderador presente unas cuestiones y deje un determinado tiempo para que cada miembro entre y las conteste. Cada uno de los miembros puede contestar


[204)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

las preguntas generales del moderador o bien responder a las intervenciones previas de otros miembros. Normalmente, las intervenciones aparecen en orden cronológico y se identifica al autor y la hora de su intervención. Una diferencia de esta modalidad respecto al resto de variantes es que permite emitir respuestas mucho más elaboradas y meditadas. Los participantes pueden elaborar sus respuestas durante varios días, contrastar sus opiniones con otros individuos fuera del grupo o bien buscar información que les ayude a su intervención. El hecho de que el participante pueda decidir cuándo incorporarse al GD puede ser una alternativa para aquellos sujetos con una difícil disponibilidad para participar en un GD presencial. Es obvio que la aparición de Internet ha generado una nueva era para el campo de la información y la documentación. En la actualidad, las bibliotecas digitales, páginas web, portales, bases de datos, catálogos online o servicios online (servicios de referencia y bibliográficos en línea) son una realidad cotidiana para el usuario. A principios del milenio Chase y Álvarez (2000) sugirieron que la evaluación o diseño de esta nueva realidad en línea era de hecho una buena candidata para aplicar la técnica del GD en su modalidad virtual. Sin embargo, hasta ahora son muy escasas las publicaciones que aplican la técnica en su versión online (Schenider y otros, 2002; Chase y Álvarez, 2000) y fundamentalmente su aplicación es con fines metodológicos para comparar los resultados con la versión presencial.

7.7. EJEMPLOS DE INVESTIGACIONES

Ejemplo 1. Diseño de una versión web para dispositivos móviles

El trabajo de Seeholzer y Salem (2011) utilizó el grupo de discusión para conocer el uso que los estudiantes daban al móvil como herramienta para conectarse a Internet e investigar qué esperaban encontrar en ese entorno web. Concretamente, el estudio pretendía obtener información que ayudase a diseñar una web para dispositivos móviles de una biblioteca universitaria. En este estudio los autores se centraron en estudiantes de la Kent State University. Los participantes fueron seleccionados a partir de un muestro accidental. Concretamente, el estudio se difundió a partir de anuncios en la web, folletos y el boca a boca. Los autores no aportan los detalles del proceso de selección ni de las características de la muestra, pero a partir del texto se intuye que los grupos estaban formados por estudiantes con diferente frecuencia de uso tanto de los dispositivos móviles como de la biblioteca. A todos los participantes se les recompensó con diez dólares y un aperitivo que tuvo lugar durante la sesión. En total, se celebraron cuatro grupos, aunque el primero sirvió de grupo piloto para valorar la adecuación del guión del


7. GRUPOS DE DISCUSIÓN

[2051

moderador. El tamaño de los grupos osciló entre cinco y nueve miembros. Todas las sesiones se celebraron en la biblioteca central de la universidad, fueron grabadas y posteriormente transcritas para su posterior análisis. Vale la pena destacar dos aspectos del diseño de este estudio y su posible repercusión en los resultados: la composición de los grupos y la ubicación de las sesiones. Por una parte, la composición de los grupos es heterogénea. Tal como indican los autores, no todos los participantes disponían de dispositivos para navegar por Internet: La mayoría de participantes en el focus group tenían acceso a Internet a partir de su dispositivo móvil, y aquellos que no lo tenían mostraron su interés en obtener un dispositivo móvil con conexión a Internet.

Este aspecto, tal como se ha expuesto en el capítulo, puede afectar a la frecuencia y calidad de las intervenciones de los participantes. Posiblemente, aquellos miembros sin experiencia en la navegación con dispositivos móviles tendrían menos oportunidades de expresar sus experiencias y percepciones sobre la temática. Así, la discusión podría estar dominada por aquellos con una mayor experiencia. Los participantes también diferían en el uso de la web de la biblioteca, lo que también podría afectar a sus intervenciones en la discusión. Una alternativa podría haber sido formar grupos homogéneos en función de la disponibilidad de dispositivos móviles con acceso a Internet y el uso de la web de la biblioteca por parte de los participantes. Un segundo aspecto es el lugar donde tuvieron lugar los grupos de discusión. El hecho de celebrar las sesiones en la biblioteca motiva en mayor medida a los usuarios de esta biblioteca a participar en el estudio. Posiblemente estos usuarios tienen un mejor conocimiento de su web, lo que facilitaría la discusión que debía llevarse a cabo en el grupo. No obstante, que las sesiones se celebraran en la biblioteca puede fomentar una opinión sesgada y, en concreto, más favorable hacia la necesidad de que la biblioteca disponga de una web para dispositivos móviles. Los autores no comentan sobre si las sesiones fueron dirigidas por un moderador externo o interno a la organización, pero, sin duda, un moderador interno, también fomentaría opiniones más positivas y favorables hacia una expansión de la biblioteca en este ámbito. A medida que los participantes llegaban a la sesión se los invitaba a tomar un aperitivo y se les entregaba el consentimiento informado para su lectura y firma. Durante la sesión se distribuyeron dispositivos móviles para que los participantes valoraran el modo en que algunos recursos aparecían en la pantalla. También se proyectaron páginas de la web tradicional de la biblioteca y versiones web para dispositivos móviles de otras bibliotecas. La sesión se diseñó para valorar tres grandes aspectos:


[206] ~

~ ~

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

Valoración de las experiencias personales en la navegación por Internet a través de dispositivos móviles. Estudio del uso y las expectativas de una versión web para dispositivos móviles de una biblioteca. Discusión sobre otros posibles servicios o recursos que podían resultar interesantes para el usuario en una web para dispositivos móviles de una biblioteca.

El diseño de estos tres bloques sigue una estructura que va de lo más general a lo más específico. En un primer bloque de preguntas se abordaban aspectos como el tipo de dispositivos que los estudiantes utilizaban, así como la frecuencia de uso. Se exploraban también la utilidad y las ventajas y limitaciones de la navegación con dispositivos móviles. Mientras que el primer bloque de la sesión se centró en aspectos generales, un segundo bloque abordó aspectos más concretos. El segundo bloque era de hecho la base para dar respuesta a la finalidad del estudio. Se valoraba la necesidad de que una biblioteca tuviera una web de este tipo, así como las características y atributos que serían interesantes que incorporara. En esta fase se indicaba a los participantes que tomaran como ejemplo la web de la biblioteca de su universidad y valoraran la utilidad que determinada información de la web tradicional estuviera presente en una web para dispositivos móviles. Por último, en la fase final de la discusión, se pretendía que los participantes aportaran ideas acerca de otros posibles servicios o recursos para una web de este tipo. A partir del grupo de discusión este estudio logra conocer cómo los estudiantes usaban el móvil para conectarse a Internet y qué desearían encontrar en una web de una biblioteca universitaria. Los autores son conscientes de que este estudio sería el primer paso para poder proceder a un diseño efectivo de una web para dispositivos móviles. La información debería completarse con futuros estudios que incluyeran a otros colectivos como profesores, trabajadores de la biblioteca o bien estudiantes a distancia.

Ejemplo 2. Evaluación de un catálogo en línea desde la perspectiva de los usuarios

Posiblemente el estudio de Connaway y otros (1997) es la investigación que ha descrito de manera más detallada el procedimiento que siguieron al aplicar la técnica de grupo de discusión. El estudio pretendía valorar los puntos fuertes y débiles de un catálogo en línea de la biblioteca de la Universidad de Wisconsin por parte de diferentes colectivos de usuarios con la finalidad de mejorarlo. El abanico de usuarios del catálogo incluía a estudiantes graduados y no graduados y a docentes de diferentes disciplinas. Bajo el supuesto de que el uso y la imagen


7. GRUPOS DE DISCUSIÓN

[207]

de cómo debe funcionar un catálogo serían diferentes en estos tres colectivos, se decidió organizar los grupos en función de estas tres grandes tipologías de usuarios. Esta agrupación permitió formar grupos homogéneos en cuanto al uso del catálogo y al estatus académico. No obstante, se persiguió que las disciplinas dentro de los grupos fueran lo más variadas posibles. Los autores comentan que, dado que el interés del estudio no era valorar las diferencias en el uso del catálogo entre las distintas disciplinas, la diversidad dentro de los grupos evitaría posibles influencias derivadas de un entrenamiento de búsqueda o de uso del catálogo dentro de un área concreta. Los participantes se seleccionaron a partir de recomendaciones del personal de la biblioteca. En un primer momento se seleccionaron unos cuantos docentes y alumnos que el personal conocía como usuarios frecuentes del catálogo o de la biblioteca. Posteriormente, se les solicitó a estos participantes que recomendaran a otros para participar en el estudio. La selección final de los candidatos se basó en la información obtenida a partir de unas preguntas de preselección. Uno de los aspectos que se tuvo en cuenta para seleccionar a los candidatos fue que estos estuvieran suficientemente familiarizados con el catálogo, por lo que aquellos que mostraron dudas en conocerlo suficientemente fueron descartados. Unos pocos días antes se enviaron cartas a todos los candidatos para recordarles el lugar y la hora en que se iba a celebrar la sesión. En la carta también se explicaba la posibilidad de consultar otros catálogos de otras bibliotecas con el fin de poder compararlos con el catálogo que se pretendía evaluar. El objetivo era evitar invertir tiempo en demostraciones sobre funcionamiento de otros catálogos durante la sesión. Finalmente, se celebraron dos sesiones para cada uno de los colectivos. Participaron un total de 15 docentes, 14 estudiantes graduados y 19 estudiantes no graduados. Se diseñaron cinco preguntas abiertas para ser abordadas durante la sesión. Las primeras trataban temas generales, mientras que las últimas pretendían abordar temas más concretos y obtener ejemplos y respuestas específicas. La duración aproximada de cada sesión fue de una hora y media. Un profesor de la UW-Madison School of Library and Information Studies fue el encargado de moderar la sesión, mientras que un alumno de doctorado realizó el papel de ayudante tomando notas. Después de cada sesión el moderador y su ayudante se reunieron para completar las notas. El análisis de los datos se llevó a cabo solo a partir de estas anotaciones, dado que no se registró el audio de la sesión. Los resultados se organizaron en función del tipo de colectivo evaluado. En este estudio se recogen las principales características que un GD debe presentar: generación de varios grupos homogéneos, selección de los mejores informantes para la discusión, presencia de un moderador y un ayudante que toma notas y un guión de entrevista que trata los temas desde lo más general a lo más específico. El único aspecto que no sigue las características generales de un grupo de discusión es la falta


[208]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

de grabación de la sesión. Sin duda la escucha atenta de los comentarios de los participantes habría ayudado a un análisis más profundo del contenido. Los autores señalan que, aunque el estudio abordaba la evaluación de un catálogo concreto que solo estaba disponible en la Universidad de Wisconsin, los resultados obtenidos a partir de los grupos de discusión seguramente reflejan opiniones generales sobre la mayoría de los catálogos en línea y sus interfaces. Tal como se ha comentado en otros apartados, los resultados de un grupo de discusión no son en principio generalizables al conjunto de la población. En cambio, permiten obtener un conocimiento detallado y profundo del tema que se aborda, lo que resulta altamente informativo sobre el conjunto de la población de referencia.

7.8. RESUMEN

El grupo de discusión es una técnica cualitativa que consiste en entrevistar a un grupo de individuos homogéneo sobre uno o varios temas concretos. La sesión es conducida por un moderador y el objetivo que se persigue es obtener información sobre la percepción, actitudes o sentimientos de los participantes sobre algún aspecto específico. La finalidad es que esta información sirva para la toma de decisiones y la planificación. En el área de la información y la documentación, el grupo de discusión se ha ido utilizando desde la década de 1980 para la valoración de necesidades informativas de diferentes colectivos, evaluar el uso de diferentes productos y servicios, conocer las actitudes de los usuarios hacia los nuevos recursos de información o bien la planificación estratégica de una biblioteca, entre muchos otros aspectos. En los últimos años, han aparecido variantes de la técnica como el GD por teléfono o por Internet. En ambos casos la ventaja principal es la posibilidad de reunir a miembros geográficamente dispersos por un coste económico reducido. Comparado con la versión presencial de la técnica, se pierde la información no verbal que puede proporcionar una discusión en grupo. En el ámbito de la información y la documentación, la aplicación de estas nuevas variantes de la técnica es aún escasa.


CAPÍTULO

8

LA TÉCNICA DELPHI

8.1. DEFINICIÓN Y ÁMBITOS DE APLICACIÓN

El estudio Delphi es una técnica de estructuración del proceso de comunicación grupal que es efectivo a la hora de permitir a un grupo de individuos, como un todo, tratar un problema complejo (Linstone y Turoff, 1975). Se engloba en la denominación genérica de técnicas de consenso, pues trata de conseguir niveles de acuerdo entre un conjunto de individuos sobre cuestiones de interés para una investigación. El objetivo, por tanto, es establecer un mecanismo estructurado de comunicación y discusión entre un conjunto de individuos cuyas opiniones son de probada solvencia por ser expertos en la materia objeto de estudio. La denominación De/phi es la traducción inglesa de Delfos, ciudad de la antigua Grecia, célebre por los oráculos que Apolo realizaba allí por medio de una sacerdotisa. Este nombre se le asigna porque los primeros estudios que dan lugar al desarrollo de esta técnica estaban orientados a predecir acontecimientos futuros basándose en la opinión de expertos. Dichos estudios se realizaron en el seno de RANO Corporation y dado su carácter militar sus resultados se difundieron años después de su puesta en marcha. Uno de ellos fue The use of experts for the estimation of bombing requirements (Dalkey y Helmer, 1963). En esta investigación se contó con un total de siete expertos en guerra nuclear y se les preguntó sobre el número de bombas atómicas que serían necesarias ante un eventual ataque soviético antes de reducir la producción armamentística norteamericana hasta unos determinados niveles. La pregunta se realizó en una primera ronda y se siguió discutiendo de forma sucesiva hasta un total de cinco rondas. En todo momento el proceso aseguró el anonimato, pues los expertos no se conocían, aunque sí podían acceder a las opiniones emitidas por el resto de participantes. El resultado fue que, tras las cinco rondas, las estimaciones fueron convergiendo y las opiniones más dispares se · fueron acercando.


[210]

MÉTODOS Y T(~CNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

INFORMACIONAL

En el ámbito de información y documentación, ha sido utilizado en numerosas ocasiones con objetivos diversos: <1111

<1111

<1111

<1111

<1111

<1111

<1111

<1111

Establecer la agenda de investigación de un grupo (Westbrook, 1997), una organización (Eldredge, Harris y Ascher, 2009) o un país (Maceviciute y Wilson, 2009). Desarrollar el currículum en los estudios de biblioteconomía y documentación en el ámbito de ciencias de la salud (Moran, 1997) o predecir el futuro de la profesión bibliotecaria (Feret y Marcinek, 2005). Establecer los contenidos que debe tener un programa de formación de usuarios (Howze y Dalrymple, 2004) junto con las estrategias para la gestión del servicio (Neuman, 1995). Determinar las características que debe tener el espacio bibliotecario (Ludwig y Starr, 2005). Establecer criterios para evaluar una biblioteca (Harer y Cole, 1999; Hsieh, Chin y Wu, 2004). El futuro desarrollo de las revistas electrónicas (Keller, 2001) y de las bibliotecas digitales (Kochtanek y Hein, 1999). La selección de sedes web como fuente de información (Green, 2000). Determinar la información mínima necesaria de un registro para gestionar un sistema de información (Pérez Fernández, García Sagredo y Gervás, 1990).

Todos estos ámbitos donde el Delphi ha sido utilizado en el área de información y documentación tienen en común que el usuario final de un sistema no está implicado en el proceso de investigación, aunque los resultados puedan repercutir en su comportamiento ante la información. En general, en todos los casos está concebido desde el punto de vista de la gestión.

8.2. CARACTERÍSTICAS

Siguiendo a Landeta (1999), la técnica Delphi posee las siguientes características distintivas: se conserva el anonimato entre los participantes, es un proceso iterativo que permite un feedback controlado y permite la respuesta estadística de grupo. a) Anonimato

En un estudio Delphi, los participantes no se conocen entre ellos y en todo momento se mantiene el anonimato. Esto se consigue debido a que el modo en que se recaba


8. LATÉCNICADELPHI

[211)

la información es a través de cuestionarios remitidos por correo, teléfono u online a través de un formulario. Asegurado el anonimato, se persigue que, a la hora de emitir una opinión, nadie del grupo esté condicionado por la influencia de otro participante por el cargo que ostenta, por su reputación o por el mayor número de opiniones emitidas en uno u otro sentido. Es decir, evita el efecto contagio (Linstone y Turoff, 1975). Igualmente, se evita la inhibición en la expresión de la propia opinión y se facilita el que un participante pueda cambiar de opinión sin temor a resultar incongruente a juicio del resto de participantes. No obstante, el anonimato se da en cuanto al conocimiento entre los miembros del grupo pero no en cuanto a las opiniones por ellos emitidas. De esta manera y dependiendo del protocolo seguido, en cada una de las iteraciones los expertos conocerán las opiniones emitidas por otros participantes, pero en todo momento esta comunicación se hará en la intermediación y supervisión del grupo moderador. b) Proceso iterativo con feedback controlado Los expertos participantes en un Delphi emiten su opinión de forma iterativa en sucesivas rondas y la cuestión o cuestiones formuladas en cada una de ellas van incluyendo las opiniones emitidas en la ronda anterior a modo de feedback. De esta forma, los participantes pueden reconsiderar la opinión emitida previamente a la vista de las nuevas opiniones emitidas por sus compañeros. Es decir, se da la oportunidad a cada uno de los participantes de confrontar su propia opinión con la del resto. Generalmente estas opiniones son bastante divergentes al inicio del estudio, pero a través de las sucesivas rondas de recogida y análisis de la información suelen alcanzar mayor grado de convergencia. Por otra parte, las sucesivas rondas a través de las que transcurre un Delphi suponen un feedback controlado por el grupo moderador, ya que este, a través del análisis, evita la transmisión de información y opiniones no relevantes para el objetivo de la investigación y focaliza el proceso en aquello que realmente sí es relevante. d) Respuesta estadística de grupo

La respuesta estadística de grupo asegura que las aportaciones u opiniones de todos los miembros estén presentes en la respuesta que se le proporciona al conjunto de participantes. Esto se consigue a través del análisis que se realiza de sus respuestas. En general, se aportan medidas de tendencia central (media y mediana) y dispersión (desviación típica y rango intercuartílico) para las preguntas con respuesta cuantitativa, así como porcentajes y frecuencias para los ítems cualitativos.


(212)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

8.3. PROCEDIMIENTO

8.3.1. Secuencia de un estudio Delphi Para entender el proceso que se sigue en un estudio Delphi, Couper ( 1984) propone el modelo de la figura 11. En primer lugar, el grupo moderador elabora un cuestionario con una serie de cuestiones que servirán para iniciar la discusión. Tras ser validado, se remitirá a los expertos participantes que contestarán y harán llegar de nuevo al grupo moderador sus respuestas. Este analizará la información obtenida y planteará un nuevo cuestionario que tendrá como objetivo encauzar la discusión hacia determinados niveles de acuerdo. Al igual que en la ronda anterior, se validará y se remitirá a los participantes. Estos a su vez devolverán sus respuestas al grupo moderador, que las analizará y, según el grado de acuerdo alcanzado, dará por concluido el estudio o, por el contrario, iniciará una nueva ronda. Figura11. Secuencia de un estudio Delphi (adaptado de Couper, 1984) MODERADOR .------

DISEÑOINICIAL CUESTIONARIO

REDISEÑOSUCESIVO ' DE CUESTIONARIOS -----TEST CUESTIONARIO PILOTO

PLANY FEEDBACK

ANÁLISIS FINALE INFORME

' FINALIZACIÓN CUESTIONARIO ANÁLISISDE DATOS ENVIO

· CUESTIONARIO .

RECEPCIÓNDE RESPUESTAS

RESPUESTAAL CUESTIONARIO

GRUPODE EXPERTOS


8. LATÉCNICADELPHI

[213)

La finalización de las rondas en un estudio Delphi en numerosas ocasiones está determinada por criterios prácticos como el tiempo y los recursos disponibles, de tal manera que a menudo se determina el número de rondas que se harán a priori, normalmente entre dos o tres hasta un máximo de cinco. No obstante, el consenso alcanzado (grado de convergencia de las estimaciones individuales), así como la estabilidad en las respuestas (no variación significativa de las opiniones de los informantes en rondas sucesivas), son los criterios básicos que determinan el fin de un estudio Delphi, al margen de los criterios prácticos antes apuntados.

8.3.2. Grupo moderador y grupo de expertos Según Landeta (1999), el grupo moderador en un estudio Delphi tiene los siguientes cometidos. En primer lugar, debe establecer el protocolo a seguir. Esto incluye acordar los procedimientos de trabajo, los criterios de selección de los expertos, determinar el cronograma, procurar los medios necesarios para su puesta en marcha y el diseño del informe final. En segundo lugar, el grupo moderador es quien acuerda y decide la lista final de los expertos que participarán en el Delphi, según los criterios establecidos previamente. En tercer lugar, diseña el cuestionario inicial, analiza las respuestas y rediseña y analiza los sucesivos cuestionarios de tantas rondas como conste el estudio y elabora el informe final. En definitiva, supervisa la correcta marcha de la investigación. En cuanto al individuo considerado como experto, Landeta (1999) lo define como aquel cuya situación y recursos personales le posibiliten contribuir positivamente a la consecución del fin que ha motivado la iniciación del estudio Delphi. Por otra parte, el grupo de expertos puede estar formado por individuos con tres roles diferentes (Scheele, 1975): los interesados o stakeholders, que son los que están directamente afectados p~r el aspecto que se investiga; los especialistas, porque tienen experiencia y pueden aportar esa visión a la investigación, y los facilitadores, quienes tienen habilidades para aclarar, organizar, sintetizar y estimular el proceso de discusión. El que para una investigación se consideren participantes de uno u otro rol dependerá de los objetivos de la propia investigación. Por ejemplo, Neuman (1995) selecciona su panel de expertos para determinar los problemas y estrategias para asegurar el uso de recursos electrónicos en las escuelas de secundaria a individuos que podían identificar esos problemas y potenciales soluciones porque son bibliotecarios especialistas en recursos electrónicos y su trabajo se desarrollaba en ese contexto. Respecto al grupo de expertos, otra cuestión a considerar es qué criterios seguimos para su selección. Landeta (1999) propone los siguientes criterios: nivel de co-


[214]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

JNFORMACIONAL

nacimientos, capacidad predictiva, grado de afectación por las consecuencias, capacidad facilitadora, grado de motivación y otros criterios más prosaicos como coste, proximidad y accesibilidad. Aparte de seguir un mandato sistemático para la selección de expertos, la lógica puede guiar convenientemente esta decisión. Por ejemplo, si se pretende conocer a través de un estudio Delphi las dificultades y problemas que podemos encontrar en el proceso de implantación de un servicio de referencia virtual en una biblioteca universitaria, los expertos que podrían aportar algo a los resultados finales serían todos aquellos que cumplieran alguna de las anteriores características (conocimiento, capacidad predictiva, motivación, etcétera). Y además las siguientes: que hayan estado implicados en un proceso similar, vayan a estarlo en un futuro, tengan conocimientos sobre la cuestión, hayan tenido que tomar decisiones en un proceso similar o deban tomarlas en un futuro. Cualquiera de los siguientes individuos cumpliría con este papel: bibliotecarios, informáticos, gestores, profesores universitarios, alumnos e investigadores en la materia. Por último, otra cuestión relacionada con la selección del grupo de expertos trata sobre el número de participantes. Respecto a esta cuestión no hay consenso, pues depende en gran medida del contexto donde se desarrolle la investigación. Sin embargo, existen varias cuestiones que condicionarán el número además de esta última. Por ejemplo, el hecho de que a lo largo de las diversas rondas los participantes pierden motivación y son frecuentes los abandonos. Por esta razón, si se parte de un grupo pequeño, se corre el peligro de acabar sin apenas participantes. Otra cuestión son los condicionantes económicos y de tiempo, así como otros aspectos relacionados con la organización como son el alcance geográfico que se le quiera dar al estudio o los grupos que se quiera que estén representados. Como número orientativo Landeta (1999) habla de entre 7 y 50, mientras que Couper (1984) entre 10 o varios cientos. En el caso de investigaciones en el ámbito de información y documentación, en el estudio de Maceviciute y Wilson (2009), por ejemplo, que investigó la agenda de investigación en el ámbito de biblioteconomía y documentación, el número inicial de participantes identificados e invitados a participar fue de 125 repartidos entre distintos grupos de bibliotecarios considerados expertos para este estudio. De ellos, en la primera ronda devolvieron el cuestionario 78 (80 % de porcentaje de respuesta). En la segunda y última ronda fueron invitados a participar 92 y, de ellos, 64 respondieron (69,5 % de porcentaje de respuesta).

8.3.3. El cuestionario en un estudio Delphi. Recogida y análisis de la información Como se ha mencionado en el epígrafe anterior, las sucesivas rondas de un Delphi comienzan con un primer cuestionario en el que generalmente las preguntas son abier-


12151

8. LA TÉCNICA DELPHI

tas y el experto participante tiene la posibilidad de contestar ampliamente a lo que se le pregunta. Posteriormente se realiza un análisis de contenido de las respuestas recibidas. Para una descripción en detalle de esta técnica véase el capítulo 11, sobre análisis de datos cualitativos. Esta primera ronda, planteada de esta manera, es la fuente a partir de la cual se van elaborando los cuestionarios de las siguientes. No obstante, otra forma de enfocar esta primera ronda es elaborar una lista de preguntas a partir de la literatura especializada y comenzar el proceso Delphi a partir de la valoración de esos ítems. No es lo más frecuente, aunque en ocasiones algunos estudios lo han planteado de esta forma. Es el caso del estudio de Maceviciute y Wilson (2009). Cuando las preguntas iniciales se formulan como preguntas abiertas, las respuestas dadas en esta primera ronda sirven para elaborar los siguientes cuestionarios, normalmente con preguntas cerradas con distinto tipo de respuesta. Landeta (1999) clasifica las preguntas de un Delphi según la opción de respuesta por jerarquización, valoración, comparación y estimación. A continuación se describe el modo de formular cada uno de estos tipos de pregunta, así como el modo en que se analiza la información obtenida. Respecto a esta última cuestión, consiste básicamente en la integración de las respuestas obtenidas a través de medidas de tendencia central. En el capítulo 10, sobre análisis de datos cuantitativos, se describe con más detalle esta última cuestión. a) Jerarquización: preguntas en las que se proporciona una lista de ítems y los

expertos deben ordenarlos de forma jerárquica según un criterio como puede ser, por ejemplo, su importancia, relevancia o urgencia con relación al tema estudiado (cuadro 27). Cuadro 27. Pregunta jerarquizada en un cuestionario Delphi De los siguientes ítems que describen las posibles causas de insatisfacción de los usuarios con la biblioteca, clasifique de mayor a menor según la probabilidad de que pueda darse en un futuro: Causa de insatisfacción

Elevado coste de los servicios Personal con poca disposición a ayudar Incompatibilidad horaria Falta de formación del usuario en el uso de recursos de información Colecciones insuficientes Poca accesibilidad física del edificio de la biblioteca Ordenación de la colección de libre acceso con criterios poco claros Espacio poco confortable

Puesto


[216]

MÉTODOS Y TÉCNICASPARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

El resultado es de tantas listas jerarquizadas como participantes tenga el estudio. Para integrarlas se calculan las medidas de tendencia central (media y mediana) y dispersión (desviación típica y rango intercuartílico) y se obtiene una lista ordenada por alguno de estos valores (tabla 17). Por una parte, los valores de tendencia central indican la valoración general del ítem, mientras que, por otra, los valores de dispersión indican el grado de acuerdo entre los diferentes participantes. Cuanto más altos sean los valores de dispersión más desacuerdo existe entre los miembros. Por ejemplo, en la valoración del ítem 3 (colecciones insuficientes) se observa que los valores de IQR (rango intercuartílico) y desviación típica son altos comparados con los indicadores de tendencia central, lo que indican que existe desacuerdo entre los miembros. En cambio, cuando los valores de dispersión son bajos es indicativo de que el ítem presenta un alto grado de consenso. Por ejemplo en el ítem 8 (incompatibilidad horaria) se observa que prácticamente todos los participantes están de acuerdo en cómo valorar este ítem. La discrepancia entre los valores de la media y la mediana indica la presencia de algunos participantes con puntuaciones extremas. Por ejemplo, el ítem 1 (personal con poca disposición a ayudar) presenta valores de media y mediana bastante diferentes. Este ítem presenta un acuerdo notable, aunque hay dos participantes con puntuaciones en el otro extremo de la variable. Tabla 17. Análisis de las preguntas jerarquizadas de ocho participantes en un estudio Delphi ordenadas según la mediana Rt

R2

1. Personal con poca disposición a ayudar

2. Elevado coste de los servicios 3. Colecciones insuficientes 4. Falta de formación del usuario en el uso de recursos de información 5. Ordenación de la colección de libre

acceso con criterios poco claros 6. Poca accesibilidad física del edificio de la biblioteca

7. Espacio poco confonable 8. Incompatibilidad horaria

R3 R4 RS R6 R7 R8 Mediana IQR Media Desviación típica 8

1

2

5

5,25

8

1 8

5

1

1

3

8

2

2

2,75

3,24

1,5

1,00

1,88

1,36

2

6,25

3,50

3,12

4

7

2

2

2

2

7

7

3

5,00

4,08

2,47

7

4

3

4

5

7

4

3

4

3,25

4,63

1,60

6

3

5

6

4

4

8

4

4,5

2

5,00

1,60

8 3

5

6 7

8 7

7 6

5 6

5 6

5 6

5,5

1,75

5,87

1,13

6

1,00

6,13

1,46

8

b) Valoración: se trata de una matriz de preguntas que muestran una serie de

ítems que el experto valora según una escala graduada tipo Likert (cuadro 28) o bien a partir de preguntas dicotómicas con posibilidad de respuesta sí/no o verdadero/ falso.


[217]

8. LATÉCNICADELPHI

Cuadro 28. Pregunta con escala Likert en un cuestionario Delphi

1

Valore los siguientes ítems de 1 a 7 con relación al grado en que considere que su puesta en marcha puede contribuir a aumentar la satisfacción del usuario con la biblioteca:

Totalmente de desacuerdo Totalmente en acuerdo Ampliación del horario de apertura Mejora de la señalización y directorios Puesta en marcha de un servicio de fotocopias Posibilidad de reserva de puestos de lectura

1

2

3

4

5

6

7

o o o o o o

o o

o

o

D D D D D

D

o o o o o o

o o o o o o

o o o o o o

D D D D

o o o o

El resultado de una pregunta formulada a partir de una escala tipo Likert es una lista de los ítems con la puntuación de cada uno de los informantes. En este caso, al igual que en las preguntas con respuesta jerarquizada, se calcula algún indicador de tendencia central y de dispersión de las respuestas, reordenando la lista según el resultado del indicador (tabla 18). Como en el caso anterior, los indicadores de dispersión (desviación típica y rango intercuartílico) son indicativos del grado de acuerdo que presentan los participantes. La discrepancia que se puede observar entre los valores de media y mediana es indicativo de valores dispares en las valoraciones. En el caso de preguntas dicotómicas los resultados se darían en porcentajes. Tabla 18. Análisis de las preguntas formuladas a ocho participantes para la valoración de unos ítems del estudio Delphi ordenadas según la media

Rl R2 R3 Mejora de la señalización y directorios Puesta en marcha de un servicio de fotocopias Posibilidad de reserva

de puestos de lectura Ampliación del horario de apertura

R4

R5 R6 R7 RS Mediana

IQR Media

Desviación típica

4

5

6

5

6

7

6

5

5,5

5,5

0,93

4

5

6

5

6

7

5

6

5,5

5,5

0,93

7

7

6

5

4

6

5

5,5

2,50

5,13

1,96

6

6

7

6

7

5

6,00

4,75

4,88

6,13

e) Comparación: las preguntas se formulan a partir de la comparación de una serie de ítems emparejados en los que el experto debe seleccionar uno según un criterio determinado (cuadro 29).


[218]

MÉTODOSY TÉCNICASPARALA INVESTIGACIÓNDEL COMPORTAMIENTOINFORMACIONAL

Cuadro 29. Pregunta por comparación en un cuestionario Delphi Las actuales y futuras restricciones económicas de la biblioteca solo permiten desarrollar uno de los siguientes programas estratégicos: Alfabetización informacional Extensión bibliotecaria Formación del personal Mejora de las instalaciones Señale con una cruz el que considere prioritario entre cada uno de los siguientes pares: a) Alfabetización informacional b) Alfabetización informacional c) Alfabetización informacional d) Extensión bibliotecaria e) Extensión bibliotecaria f) Formación del personal

o o o o o o

Extensión bibliotecaria Formación del personal Mejora de las instalaciones Formación del personal Mejora de las instalaciones Mejora de las instalaciones

o o o o o o

El análisis de esta respuesta se haría haciendo el recuento de las veces que cada ítem comparado ha sido elegido y calculando el porcentaje de participantes que ha priorizado cada uno de los elementos evaluados. Para los ocho participantes sería, por ejemplo, el resultado que figura en la tabla 19. Los ítems entonces se presentan ordenados según este criterio. Normalmente se dan porcentajes para evitar medidas absolutas. Tabla 19. Análisis de las preguntas formuladas para la comparación de unos ítems en un estudio Delphi jerarquizadas según las veces en que han sido preferido a otros

Programa estratégico

Mejora de las instalaciones Extensión bibliotecaria Alfabetización informacional Formación del personal

N.º de veces elegido

17 13 10 8

Porcentaje de veces elegido en primer lugar

70,83 54,17 41,67 33,33

% % % %

d) Estimación: el experto hace una estimación desde su punto de vista a partir

de una pregunta previa. Como en los casos anteriores, las respuestas se analizan por medio de las medidas de tendencia central y dispersión. Las medidas de tendencia central informan sobre la tendencia general, mientras que los indicadores de dispersión indican el grado de acuerdo entre los participantes. La diferencia entre media y mediana informa sobre la existencia de puntuaciones extremas, como por ejemplo las respuestas de ocho participantes a la pregunta del cuadro 30.


8. LATÉCNICADELPHI

12191

Cuadro 30. Pregunta por estimación en un cuestionario Delphi

A la vista del desarrollo del mercado editorial actual, ¿cuántos libros electrónicos debería tener la colección de la biblioteca en enero del 2016 para atender la potencial demanda

Rt

R2

Número de libros electrónicos

Número de libros electrónicos

R3

R4

RS

R6

R7

RS

6

6

7

6

7

5

Mediana

IQR

6,00

4,75

Media 4,87

Desviación típica 2,47

8.4. VENTAJAS Y LIMITACIONES DE LA TÉCNICA DELPHI

Diversos autores analizan las ventajas y limitaciones del estudio Delphi. Como ventajas Fink, Kosecoff, Chassin y Brook (1984), Couper (1984) y Landeta (1999) destacan las siguientes: ~

Permite expresar puntos de vista impersonalmente sin la influencia del resto de participantes en las diversas rondas del Delphi. ~ No tiene barreras geográficas, lo que permite recabar información de expertos distantes geográficamente, cuestión que además permite reducir el coste del estudio. ~ Es flexible en cuanto al número de rondas, puesto que se puede mantener el equilibrio entre lo deseable según el grado de consenso alcanzado y lo viable atendiendo a los recursos disponibles. ~ Más allá de la mayor o menor representatividad de los resultados, el Delphi permite obtener desde el inicio del estudio gran riqueza de información. Por el contrario, estos autores atribuyen las siguientes limitaciones al estudio Delphi: ~ ~ ~

Exige mucho esfuerzo y constancia de los participantes, que no se podrá conseguir si su grado de implicación con los objetivos del estudio es limitado. Baja tasa de respuesta potencial debido a que durante las sucesivas rondas los participantes van abandonando el estudio. Supone un consumo de tiempo considerable no necesariamente dedicado a tareas exclusivamente investigadoras sino a la contemplación de los tiempos necesarios para recibir el mayor número de respuestas.


[220]

~ ~ ~

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

En la búsqueda del consenso es posible que llegue a moldear las opiniones de los expertos. El consenso aumenta con el incremento de las rondas y el número de participantes, pero los participantes se van cansando y dejan de participar. No es la técnica adecuada cuando es deseable el contacto personal entre los participantes.

8.5. EJEMPLOS DE INVESTIGACIONES

Ejemplo 1. Necesidades de información de los pacientes de atención primaria

Maderuelo-Fernández, Hernández-García, González-Hierro y Velázquez-San Francisco (2009) realizaron un estudio que tuvo como objetivo determinar las necesidades de información de los usuarios-pacientes de atención primaria con relación a su propia salud y a los servicios ofrecidos en este ámbito asistencial. En este caso la visión que se buscaba no era la del propio usuario-paciente sino la de los profesionales sanitarios. Por lo tanto, se trata de un estudio en el que las necesidades de un grupo de usuarios se investigan de forma indirecta, pues los expertos no son ellos sino los profesionales que los atienden en un tipo determinado de servicio. El grupo de expertos fue seleccionado entre el personal sanitario (médicos de familia, pediatras y enfermeras de atención primaria) de la provincia de Salamanca con dos condiciones: que llevaran desempeñando su actividad profesional en ese ámbito geográfico por un periodo superior a un año y que estuvieran motivados por el trabajo y el desarrollo de la atención primaria. Por personas motivadas se entendía aquellas que hubieran participado de forma activa en grupos de trabajo, comisiones, actividades docentes, que asumieran alguna responsabilidad en el equipo de atención primaria, etcétera. Se seleccionaron setenta profesionales, que aceptaron participar en el estudio. El estudio Delphi constó de tres rondas. En la primera se distribuyó por correo un cuestionario con seis preguntas abiertas (cuadro 31) dando instrucciones de que se contestaran ampliamente, evitando en lo posible monosílabos y frases estereotipadas. Las respuestas a estas preguntas fueron analizadas de forma independiente y posteriormente contrastadas por tres investigadores, profesionales también de atención primaria. El resultado fue una lista de 140 sentencias que resumían la información aportada por el grupo de expertos. A su vez, el análisis e interpretación realizado por tres expertos se consideró como una estrategia para asegurar la validez del estudio.


8. LATÉCNICADELPHI

[221]

Cuadro 31. Cuestionario del estudio Delphi desarrollado por Maderuelo-Fernández y otros (2009) l. ¿Qué debería saber un ciudadano sobre aspectos relacionados con su salud?

2. ¿Qué debería conocer un ciudadano en relación a los servicios sanitarios que se prestan en su centro de salud? 3. ¿Qué otros temas en relación con actuaciones de carácter administrativo, «papeleos», «gestiones» u organización de los servicios sanitarios, pueden ser de utilidad a los ciudadanos? 4. En su opinión, ¿cuáles son los canales o medios de difusión que se deberían utilizar para dar información sobre temas sanitarios a la población? Indicar los medios más adecuados en función del contenido que se pretenda difundir. 5. En su opinión, ¿cuál es la información, en relación con la salud y los servicios sanitarios de atención primaria, que los ciudadanos esperan recibir? 6. ¿Cuáles cree usted que son los aspectos más deficientes en la comunicación e información a los usuarios?

Las 140 sentencias, agrupadas por cada una de las seis preguntas que las generaron, constituyeron el cuestionario de la segunda ronda. En este se solicitaba a los expertos que expresaran su grado de acuerdo con las sentencias según una escala de O (desacuerdo) a 10 (acuerdo máximo). El análisis de las respuestas se hizo calculando la puntuación media obtenida por cada uno de los ítems con sus respectivos intervalos de confianza a un nivel de confianza del 95 %, determinando a su vez el porcentaje de desacuerdo de cada uno. En la tercera ronda, el cuestionario estaba formado por las mismas 140 sentencias junto con la puntuación media obtenida por cada una y el porcentaje de participantes que se habían mostrado en desacuerdo. Se pidió al grupo de expertos que seleccionaran y priorizaran las cinco sentencias más relevantes de cada uno de los seis epígrafes. Para el análisis, las sentencias priorizadas se puntuaron con una escala Likert de cinco puntos, de 1 (menos importante) a 5 (más importante). Para cada sentencia se calcularon la puntuación total y su puntuación media. Es importante destacar el riesgo de distorsión al proporcionar solo la media de la respuesta del grupo. Tal como se ha expuesto en el presente capítulo y tal como se trata en el capítulo 10, de análisis cuantitativo, la media es un indicador poco resistente y fácilmente se ve influido por los valores extremos de la variable. Este aspecto es importante tenerlo presente sobre todo cuando el número de participantes en el Delphi es reducido. Los resultados de la tercera ronda estaban compuestos por las ocho respuestas con mayor puntuación en cada una de las preguntas analizadas, el número de veces que fueron priorizadas y su puntuación media (tabla 20).


[222)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

Tabla 20. Resultados del estudio de Maderuelo-Fernández y otros (2009) ¿Qué debería saber un ciudadano sobre aspectos relacionados con su salud?

Puntuación N.º de veces que Puntuación total ha sido priorizada media

1. Información sobre su enfermedad: diagnóstico, evolu-

2.

3. 4. 5. 6. 7. 8.

ción y pronóstico, prevención de complicaciones, facrores que mejoran o empeoran el proceso, autocuidados, seguimiento del tratamiento y criterios de alerta para solicitar consulta médica. Consejos sobre actividades preventivas y hábitos saludables: higiene, alimentación, ejercicio, prevención de riesgos, tabaco, alcohol, educación para la salud. Importancia de la responsabilidad del propio paciente sobre su salud Utilización adecuada de los servicios sanitarios: consultas, pruebas complementarias y urgencias. Manejo de síntomas comunes o situaciones que no pre· cisarían consultar a los profesionales sanitarios. Criterios para solicitar asistencia sanitaria al centro de salud, a urgencias y al servicio 112. Información sobre derechos y deberes de los pacientes. Información terapéutica: importancia del seguimiento de las prescripciones terapéuticas, consejos y orienta· ción sobre automedicación.

123

31

4,0

112

31

3,6

107

28

3,8

49

19

2,6

29

15

1,9

26

12

2,2

22

11

2,0

15

6

2,5

Respecto al porcentaje de respuesta, de los 70 expertos que inicialmente fueron invitados a participar, 47 lo hicieron en la primera y segunda ronda (67,1 % de porcentaje de respuesta) y 44 en la tercera (62,8 % ), lo cual es una participación más que aceptable.

Ejemplo 2. Necesidades de investigación para las bibliotecas suecas

El estudio de Maceviciute y Wilson (2009) tuvo como objetivo investigar las necesidades y prioridades de investigación de las bibliotecas suecas de distintos ámbitos (bibliotecas públicas, académicas, infantiles, servicios de empresa, etcétera), con el fin de desarrollar un programa de investigación con resultados útiles para estas. En primer lugar, para la elaboración del cuestionario inicial, se construyó una lista de potenciales líneas de investigación a partir de las revisiones de los temas tratados en diversas listas de discusión especializadas de diversos países, así como a través de la consulta directa a una lista de distribución utilizada por profesionales suecos. Igualmente se revisó la literatura profesional en el ámbito de biblioteconomía y documentación. Este proceso derivó en la construcción de una lista de preguntas agrupadas en las siguientes áreas:


[223]

8. LATÉCNICADELPHI

Cuadro 32. Preguntas acerca de la prioridad de la investigación sobre usuarios en el estudio de Maceviciute y Wilson (2009)

3. Usuarios 3.1. Implicación de los estudios de usuarios en el diseño de bibliotecas y servicios. [Por ejemplo: las encuestas de usuarios de bibliotecas ¿qué es lo que realmente dicen? Necesidades reales de los adultos de la biblioteca. Imagen de uso y de los usuarios de las bibliotecas universitarias modernas. Servicios de biblioteca para los investigadores, el conocimiento de los servicios de biblioteca por los investigadores. Estudios cualitativos de los usuarios que buscan en línea para la construcción de mejores interfaces. Investigación sobre los usuarios para el diseño de una biblioteca. Los estudios locales de usuarios, etcétera] Prioridad muy baja 11121314151

6171819110

1Prioridad muy alta

3.2. Desarrollar la biblioteca como un espacio creativo. [Por ejemplo: la biblioteca de una institución de educación o de ocio. La necesidad de salas de lectura y espacios en las bibliotecas con colecciones digitales. Iniciativas innovadoras de la biblioteca. Actitudes de los usuarios hacia la visualización de los elementos de la biblioteca. Roles de las pequeñas sucursales de la biblioteca a distancia para los usuarios. Biblioteca como un lugar de encuentro, etcétera] Prioridad muy baja 1 1 1213141516171819110

1Prioridad muy alta

l. Políticas bibliotecarias y legislación (9 preguntas). 2. Adquisición, organización, digitalización de recursos de información (7 preguntas). 3. Usuarios ( 10 preguntas). 4. Tecnología y herramientas para la gestión de recursos bibliotecarios (9 preguntas). 5. Gestión de bibliotecas 1: estrategia y cooperación. Gestión de bibliotecas 11: gestión del trabajo bibliotecario ( 12 preguntas). 6. Aspectos profesionales (8 preguntas). 7. Desarrollo y prestación de servicios (9 preguntas).

Tras la obtención de esta lista, se procedió a la selección de los expertos que iban a formar parte del estudio. Los criterios que guiaron esta selección fueron tener experiencia activa y reconocimiento profesional. Inicialmente se seleccionaron 125 profesionales de bibliotecas de diverso tipo a los que se les invitó a participar. De ellos, 97 aceptaron participar y en las dos rondas de las que constó el estudio, a la primera contestaron 78 (86 % de porcentaje de respuesta) y a la segunda 64 (70 % de porcentaje de respuesta). El cuestionario de la primera ronda estuvo compuesto por la lista de pregunta elaborada previamente, en la que los participantes debían valorar la prioridad como


[224)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

INFORMACIONAL

línea de investigación futura de cada ítem en una escala tipo Likert con puntuaciones que oscilaban entre el 1 (muy baja prioridad) y el 10 (prioridad muy alta) (cuadro 32). Para cada ítem se proponía un ejemplo de posibles temas de investigación. El análisis que se hizo de los resultados fue la puntuación media recibida por cada ítem para el conjunto de respuestas y, de forma particular, para cada tipo de biblioteca. Según esta puntuación, se construyó el ranking de los temas de investigación, de mayor a menor puntuación (tabla 21). Tabla 21. Ranking de temas de investigación en la primera ronda del estudio de Maceviciute y Wilson (2009). Cinco primeros y últimos ítems Temas de investigación

5 primerosítcms 7.2: Bibliotecas en educación 1.4: Nuevas funciones de la biblioteca 3.7: Impacto de los programas de la biblioteca en el aprendizaje 5 .12: Evaluación del trabajo de la biblioteca 3.8: Directrices para los programas de alfabetización informacional 5 últimos ítems 2.5: Proyectos de digitalización en Suecia 1.1: Desarrollo histórico de las bibliotecas 4.6: Implementación de redes inalámbricas 6.1: Imagen pública de los bibliotecarios 6.4: Papel de las asociaciones profesionales

Todas Regional Pública Académica Escolar Especial 1 2

4 2

11

3 15

2 7

22 4

3

6

4

9

5

20

4

7

5

12

12

6

5

20

35

4

2

8

60

63

63

58

61

55

61

60

62

60

57

61

62

58

64

61

59

61

63

61

60

64

63

60

64

64

61

63

59

63

6

Para la segunda ronda, del ranking anterior, se seleccionaron aquellos ítems que habían quedado en las 20 primeras posiciones para cada tipo de biblioteca, en total 42. El cuestionario presentaba estos ítems junto con la puntuación que habían recibido en la primera ronda. Además, se pedía a los expertos que valoraran la prioridad como línea de investigación de cada ítem en el momento actual, así como en un periodo de cinco años. Al igual que en la ronda anterior, el análisis que se hizo fue la puntuación media recibida en cada ítem, para el momento presente y para el futuro, en ambos casos por tipo de biblioteca. De nuevo, es importante remarcar el peligro de utilizar la media como único indicador de tendencia central por su baja resistencia a la presencia de valores extremos.


8. LA TÉCNICA DELPHI

[225)

En este caso seleccionar ítems a partir de la media podría ocasionar escoger o bien descartar ítems en los que exista alguna respuesta extrema que provoque una distorsión en el valor de la media y que no represente a la respuesta del grupo. En estos casos es mucho más aconsejable utilizar la mediana dado que no se ve afectada por la presencia de valores extremos. Igualmente, en este caso, la aportación de una medida de dispersión, como el rango intercuartílico, permitiría valorar la heterogeneidad u homogeneidad de respuesta dentro del grupo, o lo que es lo mismo, el grado de acuerdo o desacuerdo entre los miembros. En el caso del presente estudio, desde la primera ronda se alcanzó bastante consenso en cuanto a las líneas de investigación con prioridad baja, aunque el fin de las sucesivas rondas no se hizo a partir de la valoración de este consenso. Para ello, en una última fase, a partir de los resultados de la segunda ronda, se organizó un workshop en el que representantes de los distintos sectores bibliotecarios negociaban la prioridad de las distintas líneas.

8.6. RESUMEN

La técnica Delphi se engloba en la denominación genérica de técnicas de consenso, pues trata de conseguir niveles de acuerdo entre un conjunto de individuos sobre cuestiones de interés para una investigación. Se trata de un procedimiento de estructuración del proceso de comunicación grupal que es efectivo a la hora de permitir a un grupo de individuos, como un todo, tratar un problema complejo. Su nombre lo toma por el oráculo de Delfos, puesto que su principal objetivo es la predicción de acontecimientos futuros basándose en la opinión de expertos. En el ámbito del comportamiento informacional generalmente el usuario no está implicado en el proceso de investigación, únicamente en las decisiones a las que da lugar dicho proceso. Las principales características del Delphi son que se conserva el anonimato entre los participantes, es un proceso iterativo que permite un feedback controlado y permite la respuesta estadística de grupo. El procedimiento de administración se basa en la remisión de un primer cuestionario a un grupo de expertos para iniciar la discusión de grupo. Una vez contestado este cuestionario, se analizan las respuestas y ello da lugar a un segundo cuestionario con preguntas formuladas en base a las respuestas del primero. Este proceso de elaboración-contestación del cuestionario se repite hasta que se llega a un grado de consenso aceptable según los objetivos de la investigación. Las preguntas de estos cuestionarios pueden ser preguntas abiertas pero también preguntas cerradas con varias opciones de respuesta clasificadas según estas requieran la jerarquización, valoración, comparación o estimación de tal respuesta.


CAPÍTULO

9

ANÁLISIS DE LOS REGISTROS DE TRANSACCIONES

9.1. DEFINICIÓN Y ÁMBITOS DE APLICACIÓN

Peters, Kurth, Flaherty, Sandore y Kaske (199 3) definen el análisis de los registros de transacciones (ART) en el ámbito de la información y documentación como el estudio de las interacciones registradas de forma electrónica entre sistemas de recuperación online y las personas que buscan en esos sistemas. El registro de transacciones es la huella que deja un usuario en el sistema que consulta, en principio para monitorizar el funcionamiento de dicho sistema, y que genera una serie de archivos con información que puede ser explotada desde el punto de vista de quien lo gestiona. El análisis de las transacciones es una estrategia que se ha utilizado desde los primeros estudios de usuarios. El número de préstamos, la cantidad de consultas atendidas en un servicio de referencia o los artículos fotocopiados en una hemeroteca son medidas que parten de los registros manuales de las transacciones entre usuario y sistema y proporcionan los indicadores para evaluar una unidad de información. Actualmente, el ART explota las transacciones registradas en sistemas de acceso a la información automatizados, pero la filosofía que hay tras esta estrategia es la misma que tuvo el análisis de los registros manuales anteriormente. Aunque no existe un método o técnica a priori más o menos apropiada para estudiar al usuario de los sistemas de información, el caso del ART es particular, puesto que por sus características se centra únicamente en un aspecto concreto del proceso de búsqueda de información: el uso de sistemas de información. Por lo tanto, será una técnica de recogida de información útil para estudiar este aspecto pero inadecuada si el objetivo es estudiar, por ejemplo, por qué un conjunto de usuarios buscan información, si una vez encontrada la utilizan o no y para qué la utilizan. Dicho de otra manera, el ART proporciona datos acerca de usuarios reales que utilizan un sistema en concreto, por lo tanto sus resultados serán aplicables a la evaluación de dicho sistema. Si el objetivo del estudio es más amplio y pretende


l228]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

INFORMACIONAL

obtener resultados aplicables a la planificación de ese sistema, será necesario extender la población objeto de estudio a los usuarios potenciales y complementar las observaciones obtenidas por medio del ART con otro tipo de estrategias que nos permitan conocer otros aspectos del proceso de búsqueda de información del conjunto de usuarios potenciales estudiados. Se trata de plantear una estrategia de triangulación metodológica en la que los datos obtenidos se complementen o bien se validen a través del uso de múltiples estrategias de obtención de información. De esta manera, podríamos obtener información útil y válida también para la planificación de ese sistema de información. Un ejemplo de estudio que desarrolla la triangulación de datos por medio del ART y entrevistas personales es el de B0ving y Simonsen (2004) o los diversos estudios realizados en el seno del grupo de investigación CIBER (Centre for Information Behaviour and the Evaluation of Research) del University College London (Williams y Gunter, 2006). En un principio, los estudios que utilizaron el ART lo hicieron principalmente para evaluar el funcionamiento de los sistemas de recuperación de información desde un punto de vista técnico. Posteriormente, el ART se aplicó al estudio de los OPAC (online public access catalog) con el fin de conocer cómo eran utilizados por sus usuarios. Más tarde, se amplían los sistemas estudiados e interesó también la recuperación de información en bases de datos locales o en soporte CD-ROM (Peters, 1993). Con la extensión del uso de la tecnología web y su generalización como medio de acceder a los sistemas de recuperación de información, podemos afirmar que actualmente los estudios que utilizan el ART se basan en el análisis bien de los archivos de registro (/ogs) generados en los servidores como resultado de su funcionamiento o bien en un software específico de análisis de la Web como puede ser Google Analytics. De esta manera, la definición de ART se amplía y se considera que comprende una serie de métodos para el macro y microanálisis de los registros de transacciones o registros electrónicos de interacciones que ocurren entre un sistema y el usuario del sistema. Entre otros, el ART incluye el análisis de registros web, el análisis de los logs de buscadores e incluso el análisis de blogs (Taksa, Spink y Jansen, 2009). La literatura sobre ART es extensa y variada en cuanto a la disciplina en la que se enmarca. En el ámbito del comportamiento informacional, igualmente el uso que se ha hecho de esta técnica es amplio, tan amplio como los sistemas de recuperación de información disponibles. A modo de ejemplo, la siguiente lista ilustra algunas de las aplicaciones más recientes de esta técnica; en los siguientes epígrafes se hará mayor hincapié en el modo en que aplicaron la metodología: <1111

Estudio del uso que hacen los usuarios del catálogo de una biblioteca (VillenRueda, Senso y Moya-Anegón, 2007; Waller, 2010) o de un repositorio institucional (Asunka, Chae y Natriello, 2011 ).


9. ANÁLISISDE LOS REGISTROSDE TRANSACCIONES

~ ~ ~

~

~

(229)

El uso de revistas electrónicas en un entorno académico (Nicholas, Williams, Rowlands y Jamali, 2010). Comportamiento del usuario en la búsqueda en una biblioteca electrónica (Shiri, 2010). Patrones de uso de la sede web de una universidad (Wang, Berry y Yang, 2003) y de una biblioteca (Ghaphery, 2005; Black, 2009). El modo en que se busca información en buscadores web públicos (Jansen, Spink y Saracevic, 2000; Jansen y Spink, 2006) o en los buscadores de una intranet (Stenmark y Jadaan, 2007). Uso que los miembros de una organización hacen de una aplicación de trabajo colaborativo para crear modelos de gestión del ciclo de vida de los documentos administrativos (B0ving y Simonsen, 2004).

9.2. PROCEDIMIENTO

Para Jansen (2006), el análisis de los registros de transacciones comprende tres fases: la recogida de información, la limpieza y preparación del fichero que contiene las transacciones para su análisis y, por último, el análisis de la información. a) Recogida de información

En primer lugar, respecto a la recogida de información, por definición, el ART parte de la información registrada como consecuencia del acceso de un usuario a un sistema. Ahora bien, el modo en que esa información se registra puede variar. Originalmente, se almacena en un archivo o log generado con el fin de permitir su monitorización o seguimiento. La información contenida en ese fichero varía en cuanto a cantidad y tipo de información que proporciona. Jansen (2009b) describe la existencia de varios tipos de logs o archivos de registro, de los que destaca cuatro. La tabla 22 muestra ejemplos de cada uno de ellos, así como la información que contienen. No obstante, de forma sistemática, la información básica a la que vamos a poder acceder a través de estos ficheros fuente es la que figura en la tabla 23. Estos datos serán el punto de partida para establecer posteriormente las distintas medidas e indicadores que nos permitirán realizar el análisis y ponerlos en contexto. Además, para otro tipo de sistemas más específicos, como los buscadores web, es posible obtener información adicional como por ejemplo la página de resultados (un código que representa un conjunto de resúmenes de resultados y las direcciones URL que devuelve el motor de búsqueda en respuesta a una pregunta), el idioma (el idioma


[230]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

Tabla 22. Formatos de archivos de registro (IBM, 2003) NCSA Common Log

Formato Ejemplo Descripción

NCSA Combined Log

NCSA Separate Log

Formato Ejemplo

Descripción Formato/ejemplo

Descripción

W3C Extended Log

Formato/ejemplo

Descripción

hose rfc931 username date:time request statuscode bytes 147.156.224.93 - agonzal [18/0ct/2011:20:30:05 +0500] «GET/index. html HTTP/1.0» 200 1043 Contiene información básica de acceso http, el recurso solicitado y otro tipo de información. host rfc931 username date:time request statuscode bytes referrer user agent cookie 125.125.125.125 - dsmith [10/0ct/1999:21:15:05 +0500] «GET /index.html HTTP/1.0,, 200 1043 «http://www.ibm.com/» «Mozilla/4.05 [en] (WinNT; I)» «USERID:CustomerA;IMPID=01234» Extensión del NCSA Common Log con tres campos adicionales Common Log host rfc931 username date:time request statuscode bytes 147.156.224.93 - agonzal [18/0ct/2011:20:30:05 +0500] «GET/index. hcml HTTP/1.0» 200 1043 Referral log date:time referrer [1O/Oct/1999:21:15:05 +0500] «http://www.ibm.com/index.html» Agent Log: date:time agent [10/0ct/2009:21:15:05 +0500] «Microsoft Internet Explorer-7.0» Formato en el que la información se almacena en tres ficheros que contienen: la información del NCSA Common log format, información sobre el la url de inicio y sobre el navegador #Software: Microsoft Internet Information Server 4.0 #Version: 1.0 #Date: 1998-11-19 22:48:39 #Fields: date time c-ip cs-username s-ip cs-method cs-uri-stem cs-uri-query se-status se-bytes es-bytes time-caken cs-version cs(User-Agent) cs(Cookie) cs(Referrer) 199811-19 22:48:39 206.175.82.5-208.201.133.173 GET/global/images/ navlineboards.gif - 200 540 324 157 HTTP/1.0 Mozilla/4.0+(compaci ble;+MS1E+4.01;+Windows+95) USERID=CustomerA;+IMPID:01234 hnp://yourturn.rollingstone.corn/webx?98@@webx 1.html Formato utilizado por Microsoft Internet Information Server

preferido del usuario de las páginas web recuperadas), la fuente (la colección de contenido federado buscado) y las páginas vistas (la dirección URL que el usuario visitó después de introducir la consulta y visualizar la página de resultados). Un ejemplo de la información contenida en el /og de un buscador aparece en la tabla 24. Junto con el análisis de los datos en bruto de los ficheros de registro, para la observación y análisis de las transacciones entre el usuario y el sistema, es posible acceder a los datos generados a través de otra estrategia como es el page tagging o etiquetado de páginas. Consiste en insertar un código o script en la página o páginas de las que se quiere hacer seguimiento para contabilizar las entradas y enviar información sobre la página y el usuario a un servidor remoto. Una de las herramientas de page tagging más populares actualmente es Google Analytics.


12311

9. ANÁLISISDE LOS REGISTROSDE TRANSACCIONES

Tabla 23. Datos en los archivos de registro Campo

Agent 131 Bytes (1, 2, 3) Cookie 141 Date 141 date:time timezone (1,2, 3,4) End-Date 141 Fields 141 Host (1, 2, 3) Referrer <2.3 ,

(IBM,

2003)

Descripción Navegador utilizado por el usuario. Número de bytes de datos transferidos. Cookie que el servidor envía al cliente. Fecha y hora en que se añadió la entrada. Fecha, hora y zona horaria.

Fecha y hora de fin del registro. Lista de información registrada en cada entrada. La dirección IP o el host / subdominio del cliente HITP que ha solicitado el recurso. La URL que enlaza con el sitio. Solicitud http: recurso solicitado (index.html), método HTIP (GET) y la versión Request (1, 2, 3) del protocolo HTIP (1.0). rfc931 (1, 2, 3) Identificador del cliente que realiza la solicitud HITP. Si no hay ningún valor, un «- «. Software 141 Software que genera el log. Fecha y hora de inicio del registro. Start-Date 141 Statuscode (1, 2, 3) Código numérico que indica el éxito o fallo de la solicitud http. Navegador utilizado por el usuario. User agent 141 Username (1, 2, 3) Nombre de usuario para la autenticación. Si no hay ningún valor, un«-». Versión del archivo de registro extendido. Version 141 l -NCSA Common Log; 2- NCSA Combined Log; 3- NCSA Separate Log; 4. W3C Extended Log.

Tabla 24. Archivo de registro del buscador Alta vista (información facilitada por B. J. Jansen) Número de pregunta

Identificación de usuario

406

bbwiwcdcwq

407

bbwiwcdcwq

408

bbwiwcdcwq

409

bbwiwcdcwq

410

bbwiwcdcwq

411

bbwiwcdcwq

412

bbwiwcdcwq

413

bbwiwcdcwq

414

bbwiwcdcwq

Estrategia

Fecha

Hora

contemplates OR weiss OR bran OR vice OR airfields contemporary OR flushed OR congressional OR throttled OR bobby correlated OR safeguards OR associative OR assyria OR preconception cuddle OR pronouns OR manipulating OR repeats OR ribbed debugs OR revises OR replaced OR understood OR beneficence dentist OR jealous OR contingents OR overture OR upholsterer disappeared OR allotropic OR inscrutable OR knott OR lodging dope OR reich OR stewardess OR dynamics OR castor dorado OR cupped OR simplified OR entrepreneurs OR chaperon

2002-09-09

05:39:04

2002-09-08

23:44:39

2002-09-08

23:50:12

2002-09-08

20:30:06

2002-09-08

20:24:02

2002-09-08

20:22:42

2002-09-08

23:43:55

2002-09-08

20:31:19

2002-09-08

23:47:31


[232)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

Aunque el análisis directo de los logs tiene la ventaja de que no requiere la implementación de ningún software adicional puesto que el servidor almacena la información de forma automática a tiempo real, el uso del page tagging permite la obtención de la información analizada inmediatamente. Además, este sistema permite acceder a la información sobre las sesiones web en aquellos casos en los que no es posible acceder directamente a los servidores. La información a la que es posible acceder a través de este medio varía según el sistema empleado. La Web Analytics Association (wAA) establece 23 métricas o medidas básicas para analizar el tráfico en una sede web (tabla 25). Cada uno de los proveedores de sistemas de page tagging pueden ofrecer estas medidas en mayor o menor medida. Por ejemplo, según Cutroni (2010) de las medidas proporcionadas por Google Analytics, 19 son compatibles con las de WAA. Tabla 25. Métricas web de la Web Analytics Association (Web Analytics Definitions, 2008)

Término

WAA

Término

WAA en

español

Descripción

TÉRMINOS GENERALES

Page Page View Visits (Sessions) Unique Visitors

Página Página vista Visitas (sesiones)

Event

Evento

Visitantes únicos

Unidad de contenido definable. Número de veces que una página se ha visitado. Interacción de un individuo con un sitio web consistente en una o más solicitudes de una página. Número de usuarios individuales que visitan un sitio web en un tiempo determinado, independientemente del número de veces que accedan a ese sitio. Cualquier acción registrada que tiene asignada una fecha y hora por el browser o por el servidor.

VISITAS

Entry Page Landing Page Exir Page

Página de entrada Página de entrada o de aterrizaje Página de salida

Visit Duration Referrer

Duración de la visita Referente

Page Referrer Session Referrer Visitor Referrer Click-through Click-through Rate/Ratio

Páginas de referencia Referente de sesión Referente del visitante Click-through Tasa de Click-through

Primera página de una visita. Página destinada a identificar el principio de una experiencia de usuario resultante de una campaña de marketing. La última página a la que se ha accedido durante una visita y marca el fin de una visita o sesión. Tiempo que dura una sesión Término genérico que describe la fuente de tráfico a una página o visita. Fuente de tráfico a una página. Primera página de referencia en una visita. La primera página de referencia en una primera sesión del visitante. Número de veces que un usuario hace click sobre un enlace. Número de clics de un enlace específico, dividido por el número de veces que el enlace fue visto.


(2331

9. ANÁLISISDE LOS REGISTROSDE TRANSACCIONES

Término

WAA

Término

WAA

en español

Descripción

VISITANTES

New Visitor

Visitante nuevo

Return(ing) Visitor

Visitante recurrente

Repeat Visitor Visitante repetido Visits per Visitor

Visitas por visitante

Recency

Recencia

Frequency

Frecuencia

Número de visitantes únicos con actividad incluyendo la primera visita a un sitio durante un periodo de referencia. Número de visitantes únicos con una visita a un sitio, durante el periodo estudiado, y donde el visitante único también visitó el sitio antes del periodo de estudio. Número de visitantes únicos con actividad en los que se registran dos o más visitas a un sitio durante un periodo de estudio. Número de visitas en el periodo de estudio dividido por el número de visitantes únicos durante el mismo periodo. Tiempo desde que un visitante único realiza una acción específica de interés para el analista Número de veces que una acción fue realizada por un visitante único en un periodo de tiempo

ENGAGEMENT

Page Exit Ratio Single Page Visits (Bounces) Bounce Rate Page Views per Visit

Tasa de salidas de página Visita de una sola página (Rebote)

Número de salidas de una página dividido por el número total de páginas vistas de esa página. Visita que consiste en la visualización de una página.

Porcentaje de abandonos-rebote Páginas vistas por visita

Visitas de una sola página dividida por las páginas de entráda Número de páginas vistas en un periodo de referencia dividido por el número de visitas en el mismo periodo.

CONVERSION

Conversion Conversion Rate

Conversión Tasa de conversión

Número de veces que se ha logrado el resultado deseado Proporción de conversiones sobre un denominador relevante.

OTROS TÉRMINOS

Hit Impressions

Hit Impresión

Petición recibida por un servidor Número de veces que una porción de contenido fue cargada en el browser del usuario.

Tanto a través del archivo de registro como a través del page tagging,la información se recoge en la parte del servidor. No obstante, existe otra posibilidad y es registrar esa información en la parte del cliente a través de un software específico. Esta estrategia es la que siguieron Choo, Detlor y Turnbull (2000) para investigar el modo en que utilizaban la web los trabajadores del conocimiento en las organizaciones para obtener información sobre el entorno de esa organización. Para ello, estos investigadores desarrollaron un software específico (WebTracker) para estudiar y reconstruir los movimientos del usuario cuando utiliza un navegador web sin interferir en la búsqueda que realizaba dicho usuario. La información que se recogió fue la siguiente: identificación de usuario,


1234)

MÉTODOS Y TÉCNICASPARALA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

acción en el navegador, hora y fecha, URL y título de la página. En cuanto a las acciones realizadas por el usuario en el navegador, la tabla 26 muestra algunas de ellas. Tabla 26. Acciones en el navegador registradas por Web Tracker (adaptado de Choo, Detlor y Turnbull, 2000) Objeto Botón Botón Botón Tecla Tecla Tecla Menú Menú Menú

Acción Atrás Adelante Actualizar Editar Favoritos Copiar Añadir a Favoritos Nuevo archivo Abrir archivo Salvar como

Actividad del usuario Botón Página anterior de la barra del navegador Botón Página siguiente de la barra del navegador Botón Actualizar página de la barra del navegador CTRL + B para abrir el archivo de favoritos CTRL + C para copiar el texto seleccionado en el portapapeles CTRL + D para añadir la url actual al fichero de Favoritos Archivo - Nuevo para abrir otra ventana del navegador Archivo - Abrir página para acceder a una página de un archivo local Archivo - Salvar como para guardar página en local

b) Limpieza y preparaciónde los datos

Una vez obtenidos los datos de las transacciones entre usuario y sistema, el siguiente paso es la preparación de estos datos para su posterior análisis. Esto incluye tanto la depuración como su estructuración para que sea posible su tratamiento final. Esta fase se refiere de forma específica al caso en que los datos se hayan obtenido directamente del archivo de transacciones en bruto. Si se obtienen a través del sistema page taggingo por medio de un software instalado en el cliente, dependerá del proveedor y de las posibilidades que ofrezca para configurar los informes que reflejen los accesos al sistema. Esta fase del ART permanece bastante oculta cuando se documentan las investigaciones que utilizan esta técnica. En general, la limpieza de los datos brutos obtenidos del registro de transacciones es necesaria por la posibilidad de que existan datos corruptos, innecesarios para la investigación (por ejemplo, la descarga de imágenes de una página) o no uniformes que dificulten su estructuración posterior. Tras la limpieza y depuración de los datos, será necesario contemplar su estructuración para el posterior análisis. Para ello, o bien se hace uso de un software específico que procese los archivos del registro o bien se construye uno a medida. El primer caso es la estrategia que sigue Ortega Priego (2005) para el análisis de sesiones de la web del Cindoc, en el que procesa y analiza los datos con 3dv8 Enterprise, software específico de minería de datos. Por el contrario, Spink y Jansen (2004) desarrollaron todo un sistema de base de datos relacional por medio de Microsoft Acces para analizar los logs de los buscadores Altavista, Excite y Altheweb.com.


9. ANÁLISISDE LOS REGISTROSDE TRANSACCIONES

(2351

c) Análisis de la información

La última parte del análisis de transacciones es el análisis de la información. Como en el caso anterior, el análisis dependerá del sistema que esté siendo investigado, de los objetivos del estudio y de la estrategia elegida para recoger la información. Por ejemplo, en el estudio del uso de 26 libros electrónicos en la plataforma MyiLibrary por parte de las universidades británicas, se analizaron los siguientes aspectos (Salazar, Nicholas y Rowland, 2009; JISC Collections, 2010): 1. Uso, en términos de páginas visualizadas, número de sesiones y tiempo de permanencia en línea, por día, mes, día de la semana y hora del día. 2. Comportamiento en la búsqueda (datos de cada sesión): a. Número de visualizaciones en una sesión b. Tipo de contenido visualizado c. Uso del buscador interno d. Método de acceso o link de referencia e. Localización del uso (on/off campus) f. Títulos visualizados g. Materias visualizadas. Por el contrario, en la serie de estudios desarrollados por Spink y Jansen (2004) los sistemas analizados fueron los buscadores Altavista, Excite y Altheweb.com. En este caso, por lo tanto, la información de partida fue la contenida en archivos similares a los que se presentan en la tabla 24. El análisis se hizo en diversos niveles. En primer lugar a nivel de término de búsqueda. En segundo lugar a nivel de consulta, entendida como un conjunto de términos introducidos en un buscador. De esta consulta se analizaron el número de términos utilizados, su complejidad en cuanto a la sintaxis y la tasa de fallos. En tercer lugar el análisis se hizo a nivel de la sesión, es decir, la secuencia entera de consultas para un único visitante identificado por una IP (dirección de un dispositivo en una red). En cuarto lugar, análisis a nivel de páginas de resultados vistas y por último a nivel de click-through o análisis de clicks de un usuario en una página de resultados. Estos dos ejemplos muestran dos estudios utilizando la misma metodología en sistemas y contextos diferentes. Si al principio de este epígrafe se describían los datos o medidas básicas que podíamos obtener por sistemas distintos (archivos de registros y page tagging), a la hora del análisis de esta información será necesario poner esos datos en contexto, es decir, construir indicadores que nos den el criterio para evaluar el uso real del sistema estudiado. Pero esta evaluación deberá hacerse conforme al cumplimento o no de unos objetivos previos que serán distintos según el contexto u


[236]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

organización en la que funciona la herramienta evaluada. En el ámbito de la analítica web varios autores se refieren a esta tarea como la extracción de indicadores clave de rendimiento (KPI-[key performance indicators]). Jansen (2009a) define los KPI como aquellos que proporcionan un panorama detallado del comportamiento del visitante en un sitio y permiten a las organizaciones alinear los objetivos de sus sitios web con sus objetivos de negocio con el fin de identificar áreas de mejora, la promoción de partes populares del sitio, probar la funcionalidad de un sitio nuevo y en última instancia incrementar los ingresos. Este mismo autor explica los posibles KPI según el tipo de web. Así, por ejemplo, los sitios web dedicados a la difusión de contenidos o medios de comunicación se nutren principalmente de publicidad y la principal meta es incrementar los ingresos con más visitas y que estas visitas vuelvan. Para ello, los contenidos deberán ser atractivos. Los principales indicadores clave de rendimiento en este caso podrían ser los siguientes: • Profundidad de visita: es la relación entre las páginas vistas y los visitantes únicos, o el número de páginas a las que un visitante accede en cada visita. • Visitantes que regresan: es la proporción de visitantes únicos respecto al total de visitas y determinan el grado de fidelización de los clientes. • Visitantes nuevos: cálculo del número de visitantes nuevos frente a visitantes únicos para determinar si el sitio atrae a nuevos clientes y determinar nuevas estrategias de marketing para atraer a un grupo de población concreto. • Profundidad de visualización de página: relación entre las visualizaciones de una página y el número de visitantes únicos de la página. En el ámbito de las bibliotecas, Serrano-Cobos y Casado-Sánchez (2011) describen posibles KPI para el caso y los objetivos de los portales bibliotecarios. Según estos autores, los objetivos del portal bibliotecario podrían ser atraer usuarios, fidelizarlos, potenciar el uso de los servicios presenciales y no presenciales. Como indicadores clave de rendimiento proponen, por ejemplo, la tasa de correspondencia entre las palabras clave usadas en la búsqueda y los descriptores de un lenguaje controlado. O el número de usuarios que visitan el portal bibliotecario y hacen una reserva de un ítem online o se registran en un boletín de novedades.

9.3. VENTAJASY LIMITACIONESDEL ANÁLISISDE TRANSACCIONES

Numerosos autores analizan las ventajas e inconvenientes del ART. Como ventajas Spink y Jansen (2004), Sheble y Wildemuth (2009),Jansen (2009a) y Ferrini y Mohor (2009) destacan las siguientes:


9. ANÁLISISDE LOS REGISTROSDE TRANSACCIONES

~ ~

~

~

[237)

Se pueden recoger datos de forma bastante barata utilizando pocos recursos. Los costes son básicamente los programas informáticos y de almacenamiento. La recogida de datos no es obtrusiva y los registros representan el comportamiento real del usuario que busca información. La calidad de los eventos registrados no depende de la memoria del informante ni de su habilidad para describir el modo en que buscó dicha información. Es el único método para la obtención de gran cantidad de datos de múltiples usuarios en el entorno complejo de la Web. Permite realizar estudios a gran escala y por lo tanto sus resultados pueden ser más representativos de poblaciones más grandes que otros métodos. En el caso del análisis de transacciones a partir de software instalado en el cliente, es posible registrar acciones del usuario en cualquier aplicación que corra en ese cliente, no solo lo que hace ese usuario en un navegador cuando conecta a un sistema.

Algunas de las limitaciones que también apuntan estos autores son las siguientes: ~

~

~

~

El ART registra acciones del usuario en interacción con un sistema, pero no permite observar otros aspectos del proceso de búsqueda como son las necesidades de información del usuario, las habilidades cuando busca información o la satisfacción con los resultados de la búsqueda. Tampoco permite observar los aspectos cognitivos o emocionales de ese proceso de búsqueda. Generalmente la identificación real de las personas no se registra, solo la del equipo que utiliza para acceder al sistema. No ocurre así en sistemas que requieren la autentificación y asignan al usuario unos privilegios de acceso determinado. El registro de la duración de una visita puede ser impreciso. Esta medida normalmente se calcula en función del tiempo transcurrido entre la solicitud de la primera y de la última página. Si la solicitud de la página siguiente no se produce, la duración no se puede calcular y será subestimada o sobrestimada. Tampoco es posible saber cuándo un usuario visita una página, deja el equipo durante un tiempo, vuelve y hace clic a la página siguiente. El recuento de visitas únicas puede ser también impreciso. Normalmente se hace a partir de una IP, pero esto no siempre corresponde con un único usuario, puesto que es posible que un conjunto de usuarios entren en el sistema a través de un proxy o un firewall que unifique esa identificación.


[2381

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

9.4. EJEMPLOS DE INVESTIGACIONES

Ejemplo 1. Estudio del uso de un repositorio institucional El trabajo de Asunka, Chae y Natriello (2011) presenta la aplicación de la técnica del ART para el estudio del uso de un repositorio institucional, en concreto el repositorio PocketKnowledge (<http://pocketknowledge.tc.columbia.edu>) del Teachers College de Columbia University. Se trata de una plataforma desarrollada por la propia institución en la que, además del depósito de documentos, se ofrece la posibilidad de crear grupos, etiquetar contenido, comentarios y suscribirse a RSS, en la línea de la Web 2.0. Los objetivos de la investigación fueron: determinar el tipo y la cantidad de usuarios que se autentificaban en el repositorio cada semestre escolar, el tipo de contenido que se archivaba así como el grado de crecimiento de este contenido y, por último, hasta qué punto los usuarios aprovechaban el potencial del repositorio como plataforma de aprendizaje colaborativo o de interacción social. Para lograr estos objetivos se realizó un análisis de los registros de transacciones de tres años de funcionamiento del repositorio. El modo de recoger la información fue a partir de una herramienta que preparaba las transacciones para su análisis posterior, disponiendo los datos ya depurados en formato estructurado, en concreto en formato Microsoft Excel. La información que se recogió fueron los registros de datos de cada usuario (nombre, categoría y afiliación) y las comunidades creadas por estos usuarios, así como el número de ítems que cada usuario depositó y descargó. Igualmente, estaban registrados datos generales sobre el usuario, así como de acciones desarrolladas en el sistema como son el número de búsquedas realizadas, el número de páginas vistas y el número de veces que se habían descargado archivos. El análisis que se hizo de la información fue descriptivo, con la expresión de frecuencias de registro de usuarios, crecimiento del contenido y características generales de este contenido. Algunos de los resultados obtenidos a través de los registros de transacciones contribuyeron a reafirmar la tendencia general en cuanto a la gestión y mantenimiento de los repositorios institucionales. El estudio de Asunka, Chae y Natriello (2011) es un estudio fundamentalmente descriptivo sobre las transacciones entre los usuarios y el repositorio para un periodo de tiempo determinado. La utilidad que tiene desde el punto de vista de la gestión de ese repositorio será principalmente la evaluación de su uso por parte de los usuarios reales de esta herramienta tal y como se ha descrito al principio de este capítulo.


9. ANÁLISISDE LOS REGISTROSDE TRANSACCIONES

[2391

Ejemplo 2. Uso e impacto de las revistas electrónicas en Reino Unido El proyecto Evaluating the usage and impact of e-journals in the UK, desarrollado por el Ciber (Centre for Information Behaviour and the Evaluation of Research) (CIBER, 2011 ), tuvo como objetivo evaluar el uso de las revistas electrónicas por parte de la comunidad investigadora en Reino Unido, así como el impacto o beneficio del uso de este recurso en los resultados de investigación. Para ello, el proyecto se desarrolló en dos fases en las que se desarrollaron estrategias metodológicas complementarias. En la primera, los objetivos perseguidos fueron los siguientes (CIBER, 2009a): .,...Investigar el comportamiento de los investigadores, en términos de niveles y patrones de uso, contenido visualizado, las preferencias de navegación y las rutas utilizadas para acceder al contenido de revistas electrónicas . .,...Determinar cómo varía el comportamiento de los investigadores según materia y disciplina, y con relación al centro de investigación en el que trabajan . .,...Recoger y analizar las pruebas de las relaciones entre las conductas de los investigadores y uso, y los gastos institucionales en revistas electrónicas . .,...Recoger y analizar cualquier evidencia sobre las relaciones entre la conducta de los investigadores, por un lado, y la productividad de la investigación, productos y resultados, por otro, incluyendo medidas tales como el número de publicaciones, citas recibidas y los resultados de evaluaciones de la investigación. Para lograr estos objetivos se analizó la información sobre las transacciones entre usuario y sistema de dos plataformas proveedoras de acceso a revistas electrónicas en diversas instituciones de investigación de Reino Unido, en concreto ScienceDirect y Oxford Journals. La información que se analizó fue la siguiente (CIBER, 2009b): 1. Uso o niveles de actividad a) Páginas vistas, texto completo visualizado (PDF, HTML), sesiones realizadas y el tiempo en línea. b) Patrones de uso (uso durante el día, semana, meses). 2. Búsqueda de información (datos de sesión) a) Métodos de acceso y preferencias de navegación. • Gateways y enlaces de referencia, Google, Google Scholar, PubMed. • Uso del menú, búsqueda avanzada/básica, descarga y vinculación de citas. b) Contenidos visualizados • Páginas y artículos vistos en una sesión, número de revistas diferentes vistas en una sesión.


MÉTODOS Y TÉCNICASPARALA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

[2401

• Antigüedad de los artículos usados y uso de artículos en prensa. • Factor de impacto de las revistas visualizadas. 2. Títulos de revistas utilizados • Nombre, número, rango, solapamiento y la concentración de uso. Como resultado de este análisis, se obtuvo gran cantidad de información sobre un extenso volumen de usuarios, sin duda unos resultados únicos nunca obtenidos por estudios precedentes. Sin embargo, se trataba de datos cuantitativos acerca de acciones concretas de estos usuarios en un sistema. Se obtuvo un panorama amplio de los patrones de búsqueda de revistas de los investigadores pero no de las motivaciones ni de las consecuencias de esa búsqueda. Por ello, se decidió que en una segunda fase debía indagarse sobre estos resultados y validarlos a través de estrategias de obtención de datos alternativas que permitieran aumentar su credibilidad y validez. Así, en una segunda fase se formularon una serie de objetivos derivados de los patrones de búsqueda observadas en la primera. A través de encuestas, entrevistas y observaciones de búsquedas online en investigadores y estudiantes de pre y posgrado, se obtuvieron los resultados que se resumen en el cuadro 33 con relación al primer objetivo de esa fase dos. Cuadro 33. Objetivos y resultados más relevantes de la segunda fase del estudio Evaluating

the usage and impact of e-journals in the

UK (CIBER,

2011)

Objetivo 1. Conocer más profundamente los patrones de búsqueda observados en la fase I y en concreto responder a las siguientes preguntas: ¿Por qué los usuarios pasan muy poco tiempo en cada visita?

Los usuarios llegan a la plataforma de revistas desde un gateway y se mueven rápidamente a través de enlaces directos al contenido para acceder a los artículos que buscan. ¿Por qué los usuarios usan gateways como Google, Google Scholar, Web of Knowledge y PubMed?

Cubren un gran número de títulos de revistas y artículos, además de incluir conferencias, informes técnicos y tesis doctorales. A pesar de que Google Scholar no indexa toda la literatura de revistas, no es el escaparate de la plataforma de un editor.

Facilitan el encuentro casual, tanto por la variedad de la literatura que permiten recuperar como por los enlaces que ofrecen. • Tienen un uso intuitivo. Por todas estas razones, los grandes gateways son poderosos e influyentes. Son actores clave en la cadena de información académica y su papel merece mayor investigación para comprender la conducta que observamos en los sitios de los editores.

En resumen, las dos fases de este estudio ofrece resultados distintos. En la primera el análisis de los registros de transacciones permite conocer el modo en que dos plataformas de acceso a revistas electrónicas se utilizan por parte de la comunidad uni-


9. ANÁLISISDE LOS REGISTROSDE TRAi'-iSACCIONES

[2411

versitaria. Se trata de información cuantitativa y descriptiva de las acciones que estos usuarios desarrollan cuando buscan información. La segunda fase del estudio ofrece información más cualitativa sobre los motivos que determinan el modo en que esos sistemas se utilizan, a la cual se ha llegado a través de estrategias de obtención de datos complementarias. De esta manera, la principal limitación del ART desde el punto de vista del estudio del comportamiento informacional, el ofrecer una visión parcial del proceso de búsqueda, es suplida con técnicas de indagación directa acerca de las razones que el usuario tiene para desarrollar los hábitos de búsqueda observados en la primera fase del estudio. A través del ART podemos conocer lo que ocurre y a través de los estudios de encuesta o entrevistas por qué ocurre, lo que nos da argumentos válidos para planificar nuevos sistemas de información o mejorar los ya existentes.

9.5. RESUMEN

El análisis de los registros de transacciones (ART) en el ámbito de la información y documentación es el estudio de las interacciones registradas de forma electrónica entre sistemas de recuperación online y las personas que buscan en esos sistemas. El registro de transacciones es la huella que deja un usuario en el sistema que consulta, en principio para monitorizar el funcionamiento de dicho sistema, y que genera una serie de archivos con información que puede ser explotada desde el punto de vista de quien lo gestiona. Las transacciones entre usuario y sistema han sido fuente de datos sobre el funcionamiento de las distintas unidades de información mucho antes de que el ordenador entrara en tales unidades. Con los primeros catálogos automatizados empiezan a generarse los primeros registros de transacciones como fuente de datos para la toma de decisiones desde el punto de vista de la gestión de las bibliotecas. Actualmente, el uso de sistemas automatizados está generalizado y los registros que generan permiten disponer de un gran volumen de datos sobre el comportamiento del usuario con un mínimo esfuerzo y coste. El análisis de los registros de transacciones comprende tres fases: la recogida de información, la limpieza y preparación del fichero que contiene las transacciones para su análisis y, por último, el análisis de la información. La recogida de información se puede realizar a través de los datos en bruto de un fichero de registro, a través del etiquetado de páginas web o web tagging o a través de la instalación de un software en el ordenador del cliente que consulta un servidor. Tras la recogida de información, el siguiente paso es la preparación de estos datos para su posterior análisis. Esto incluye tanto la depuración como su estructuración para que sea posible su tratamiento final. Por último, una vez recogidos y depurados los datos, el último paso es el análisis de la dichos datos.


CAPÍTULO 10

ANÁLISIS DE DATOS CUANTITATIVO

10.1. INTRODUCCIÓN

En los capítulos previos se ha contemplando cómo el investigador generaba una pregunta de investigación, se planteaba unas hipótesis, seleccionaba un diseño apropiado para el estudio y escogía una muestra de individuos para el estudio y un método de recogida de datos. Una vez realizados todos estos pasos y recogidos los datos, se está en condiciones de pasar a la fase de análisis y contrastar las hipótesis formuladas con los datos observados. Aunque este capítulo se encuentre al final del libro, no quiere decir que los aspectos que atañen al análisis de los datos deban dejarse para el final de un estudio. Todo lo contrario, los objetivos, el diseño del estudio y la recogida de datos deben plantearse de manera paralela al análisis de los datos. Por una parte, se debe prestar especial atención a la selección del método. Este debe permitir una recogida de datos que sea suficientemente válida y fiable y a la vez responder a los objetivos del estudio. Por otra, se debe garantizar que los datos que se recojan podrán ser posteriormente analizados de manera que den respuesta a los objetivos planteados. De hecho, con el análisis de datos se cierra el círculo del proceso de investigación, dado que va a permitir, entre otros aspectos, describir el fenómeno que se ha estudiado, predecir eventos futuros, identificar y cuantificar diferencias entre distintas condiciones o bien establecer la efectividad de alguna intervención. El objetivo que se persigue con el análisis cuantitativo de datos suele ser doble. En primer lugar, el análisis de los datos pretende organizar, sintetizar y resumir la información que ha sido obtenida de una muestra de sujetos procedentes de una población de referencia. De este tipo de análisis se ocupa la llamada estadística descriptiva, la cual utiliza fundamentalmente indicadores resumen y gráficos para presentar la información de forma resumida, lo que va a permitir una aproximación más comprensible del fenómeno estudiado. En segundo lugar, la muestra estudiada ha servido para acer-


1244]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

carnos y conocer el fenómeno que se pretende estudiar, pero sin ser el objetivo último de nuestro estudio. En la mayoría de los casos, el objetivo que se persigue va más allá del mero conocimiento del comportamiento de una muestra concreta. En realidad, esta muestra va a servir para conocer cuál es el comportamiento en el conjunto de una población. De este último punto se ocupa lo que se conoce como estadística inferencia/. En este sentido, la estadística inferencia! va a permitir generalizar los resultados obtenidos en muestras a la población de referencia. En los siguientes apartados se exponen los conceptos básicos para llevar a cabo un análisis cuantitativo. En un primer apartado se va a definir el concepto de variable y las escalas de medida en las que una variable puede estar expresada. En segundo lugar, se va a plantear el procedimiento más habitual que se debería seguir para preparar los datos para un análisis cuantitativo. Es decir, cómo se deben depurar y organizar los datos para poder ser procesados. En tercer lugar, se va a plantear una revisión de los estadísticos descriptivos e inferenciales más habituales. Y, por último, se van a revisar algunos de los conceptos más importantes para poder interpretar los resultados del análisis y poder hacer inferencias a la población. Este capítulo dista mucho de poder abarcar el abanico y la complejidad de las técnicas estadísticas, por lo que se aconseja al lector interesado en llevar a cabo su propio análisis estadístico consultar textos más detallados y manuales específicos sobre la cuestión.

10.2. TIPOS DE VARIABLESY ESCALASDE MEDIDA

Para llevar a cabo un análisis de datos cuantitativo, la información que ha sido recogida a partir de las diferentes técnicas debe ser transformada en valores numéricos. El proceso de recogida de información va a permitir valorar diversas características de los individuos. Cada una de estas características son las variables que posteriormente se analizarán. Se entiende por variable cualquier característica que se puede manifestar en dos o más modalidades. Cada modalidad de la variable se traduce, si es necesario, en un valor numérico. Las variables pueden ser cuantitativas o cualitativas. Las modalidades de una variable cuantitativa corresponden a valores numéricos reales. Son ejemplos de variables cuantitativas la edad, el número de documentos que se solicitan en préstamo, el número de visitas que recibe una página web, etcétera. En cambio, las modalidades de una variable cualitativa no se expresan directamente en números, sino que son categorías que valoran cualidades o atributos de los individuos. Estas modalidades necesitan ser traducidas a valores numéricos, aunque debe tenerse en cuenta que estas carecen de significado cuantitativo. El género de los usuarios, el nivel de estudios o el lugar de residencia son ejemplos de variables cualitativas.


10. ANÁLISISDE DATOSCUANTITATIVO

[245]

Cuando se asignan valores numéricos a cada una de las modalidades de una variable se está generando una escala de medida. La categorización más conocida de las diferentes escalas de medida es la propuesta por Stevens (1946). Así, las variables se categorizan dependiendo de su naturaleza en cuatro clases: nominales, ordinales, de intervalo y de razón. Una categorización correcta de las variables es vital para llevar a cabo el análisis cuantitativo de los datos, dado que de la naturaleza de la variable dependerá el tipo de técnica estadística que podrá utilizarse para obtener la información sobre los individuos de la muestra. Las variables medidas en escala nominal son variables cualitativas. Se caracterizan porque entre sus diferentes modalidades, solo puede establecerse una relación de igualdad o diferencia (por ejemplo, el género: hombre= O /mujer= 1). De esta forma se transforma la información en valores numéricos que permiten clasificar a los individuos en función del atributo que presenten. Cuando los valores de la escala recogen una relación de orden, se dice que la variable está valorada en escala ordinal (por ejemplo, el nivel de estudios clasificado como: primarios= 1, secundarios= 2, universitarios= 3). Cuando los números asignados a los valores de la variable indican igual distancia entre ellos, la variable se clasifica como escala de intervalo. No obstante, este tipo de escala carece de un O absoluto, lo que indica que un valor de O en esta escala no significa ausencia de característica. El caso más utilizado para ejemplificar este tipo de escala es la temperatura. Si se piensa en grados centígrados, se observa que la distancia entre 10 y 12 grados es la misma que entre 20 y 22 grados y esta se mantiene constante. Sin embargo, el valor de O es arbitrario y no significa ausencia de temperatura. Por último, la escala de razón, además de incorporar las relaciones de las escalas anteriores, incluye la noción de O absoluto, por lo que la asignación del valor O indica ausencia de la característica que se pretende medir. Son ejemplos de esta escala variables como el número de artículos publicados por un investigador, la cantidad de visitantes que acceden a un sitio web en un día o bien el número de consultas al mes que recibe un bibliotecario a través de un formulario web.

10.3. PREPARACIÓN DE LOS DATOS

En primer lugar, la preparación de los datos implica que el investigador debe planificar detenidamente cómo generar la base de datos, cómo introducirá los datos y si estos han de ser procesados o transformados previamente antes de ser analizados. Es importante recordar que los datos pueden provenir de entrevistas, cuestionarios, observaciones, etcétera, por lo que antes de su introducción en la base de datos, el investigador debe revisarlos detenidamente. La precisión es sumamente importante


(246]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

a la hora de generar una base de datos. Los errores que se pueden cometer en esta fase pueden afectar de manera muy negativa a la validez del estudio y proporcionar resultados erróneos y contradictorios. En este sentido, existe una diferencia sustancial entre los instrumentos de recogida de datos computerizados o no computerizados. Mientras que en los primeros el dato se registra directamente en la base de datos, en los segundos se registra en la hoja de recogida de datos y posteriormente se introduce en la base de datos. Es obvio que la recogida de datos a partir de procedimientos computerizados tiene importantes ventajas. Por ejemplo, al diseñar un cuestionario electrónico puede programarse para que las respuestas de los individuos se encuentren en un determinado rango. Así, cualquier respuesta fuera del rango establecido será identificada como un error y se podrá programar el propio sistema para que avise al sujeto sobre la incorrección del dato introducido, con el fin de que este pueda inmediatamente corregirlo. También se puede evitar que el sujeto o bien el investigador olvide rellenar algún dato, obligando, en este caso, a que el sujeto emita una respuesta antes de pasar a la pregunta siguiente. Sin duda, los instrumentos de recogida de datos computerizados evitan muchos de los errores producidos por un despiste (olvidar marcar una casilla o introducir un dato) o de transcripción (escribir un 7 cuando debería haberse escrito un 27), proporcionando una mayor calidad a los datos. Cuando no se usan instrumentos computerizados, es esencial una revisión detenida de la información introducida en las hojas de recogida de datos. Cuanto menos tiempo pase entre la recogida de datos y esta revisión, más probabilidades existen de obtener los datos correctos (volviendo a contactar con los participantes, a partir del recuerdo del investigador, etcétera) y poder corregirlos. En algunas ocasiones los datos también deben ser transformados antes de la fase de análisis. Algunos ejemplos habituales de transformación de datos son: ~

~

~

Transformar en categorías las respuestas abiertas de un cuestionario. Recodificar variables cuantitativas en variables cualitativas. Por ejemplo, agrupar en intervalos la producción científica de un investigador de los últimos seis años y clasificarlos en: producción baja (de O a 4 artículos), producción media (de 5 a de 15 artículos) y producción alta (más de 15 artículos). Convertir los datos en otro tipo de escalas. Por ejemplo, convertir la unidad de medida de una variable expresada en horas a minutos o bien transformar las puntuaciones directas en puntuaciones z, tal como veremos más adelante en este capítulo.

Una vez los datos han sido revisados y transformados, si fuera necesario, es preciso definir las variables, especificar qué es lo que mide la variable y darle un nombre


10. ANÁLISISDE DATOSCUANTITATIVO

(2471

para su identificación futura. Una vez se ha llegado a este punto, el paso siguiente es la entrada de datos. Para asegurar la corrección de este proceso algunas entidades realizan una doble entrada de datos. Este procedimiento implica introducir dos veces la información y posteriormente comparar ambas bases de datos. Las discrepancias entre ambas indicarán que ha habido algún error en la introducción de datos. No obstante, el coste económico, de personal y de tiempo hace que este procedimiento no sea siempre utilizado. Otro procedimiento, no tan costoso, consiste en seleccionar un porcentaje reducido de casos (10-15 % de los sujetos) y revisar si existe algún error. Este procedimiento muestra la precisión con la que se han introducido los datos y, en caso de no hallar errores, indica que la base de datos está lista para iniciar el proceso de análisis. Otra alternativa ampliamente utilizada es revisar los datos a partir de tablas de frecuencia y descriptivos para comprobar que dichos datos se sitúan dentro de los rangos definidos en la variable, tal como se indicó en el capítulo 4 sobre la técnica de encuesta.

10.4. ANÁLISIS DE LOS DATOS

Aunque una revisión completa de los procedimientos estadísticos está fuera de los objetivos de este libro, en los siguientes apartados se presenta un breve resumen de las principales ideas y conceptos que rige un análisis de datos cuantitativo. Tal como se ha expuesto al principio del capítulo, dentro del análisis de datos se distingue entre el análisis de datos descriptivo y el análisis de datos inferencial. El primero permite organizar, resumir y proporcionar una visión general de los datos, mientras que el inferencia} va más allá de la propuesta de unas conclusiones para la muestra analizada y permite generalizar los hallazgos a la población de referencia de esa muestra. En los siguientes apartados se presentan los indicadores y conceptos más relevantes dentro de la estadística descriptiva e inferencial.

10.4.1. Estadística descriptiva

Tal como su nombre indica, la estadística descriptiva permite describir los datos que han sido recogidos durante el estudio y explorar las distribuciones de las variables analizadas. Es importante tener en cuenta que este análisis descriptivo es también un paso previo obligatorio antes de poner a prueba las principales hipótesis del estudio a partir de la inferencia estadística. Frecuentemente, los estadísticos descriptivos se clasifican en función del número de variables que se someten a análisis; así, hablamos de estadística univariada (una variable), bivariada (dos variables) o multivariante


(248]

MÉTODOS Y TÉCNICASPARALA INVESTIGACIÓNDEL COMPORTAMIENTOINFORMACIONAL

(más de dos variables). El análisis univariado permite valorar cómo se comporta cada una de las variables por separado, por lo que sin duda debe ser el paso previo a cualquier otro tipo de análisis más complejo. En la tabla 27 se presenta un resumen de las principales técnicas que se describen en este epígrafe. Tabla27. Principales técnicas de la estadística descriptiva lipo de técnica

Técnica

Variables implicadas

Univariable

Tabla de frecuencias

Cualitativa

Medidas de tendencia central

Cuantitativa

Medidas de dispersión

Cuantitativa

Puntuaciones z

Cuantitativa

Coeficiente de correlación

Cuantitativas y cualitativas

Tablas de contingencia

Cualitativas

Correlación parcial

Cuantitativas

Correlación múltiple

Cuantitativas

Bivariable

Multivariante

10.4.r.r.

DESCRIPCIÓN UNIVARIABLE

Existe una gran cantidad de métodos que permiten examinar las distribuciones de las variables, pero posiblemente el método más básico sea una distribución de frecuencias. Una distribución de frecuencias es simplemente una lista completa de todos los posibles valores o puntuaciones de una variable, junto con el número de veces (frecuencia) en que este valor se repite dentro de la variable. Esta información se representa en una tabla de frecuencias que resume de una forma mucho más inteligible y manejable los datos. Junto con los valores absolutos de la variable se suelen incluir los valores relativos, como frecuencias relativas y porcentajes. La representación gráfica que acompaña y complementa este tipo de análisis son los diagramas de barras y ciclogramas. Este tipo de descripción es la que se utiliza básicamente para las variables cualitativas. En el cuadro 34 se muestra un ejemplo numérico de la descripción de una variable cualitativa. Para las variables cuantitativas es más informativa una descripción a partir de indicadores de tendencia central y dispersión. La tendencia central de una distribución es el valor que representa el valor más típico de una distribución. Las medidas de tendencia central que con más frecuencia se utilizan son la media, la mediana y la moda. De todas ellas, la media es el indicador de tendencia central más ampliamente utilizado. Se calcula a partir de la suma de todos los valores de la variable y se divide por el número de valores que se han sumado. El resultado es la media de


[249 1

10. ANÁ LISIS DE DATOS CUANTITATIVO

Cuadro 34. Descripc ión de una varia ble cualit at iva A parrir de un estudio de encuesta se pretende invesrigar la conducta de búsqueda de información en

Internet de los pediatras que trabajan en el ámbiro hospiralario. Una de las preguntas del cuestionario que se les administró fue: ¿con qué frecuencia recomienda a los padres la consu lra de webs específicas para obtener información sobre las parologías de sus hijos? A continuación, se presenta la rab ia de frecuencias y la representación gráfica de los daros. TABLADE FRECUENCIAS fi 60 114 75 51 300

Siempre En algunas ocasiones Casi nunca Nunca Toral

pi 0,2 0,38 0,25 0, 17 1

Pi 20 38 25 17 100

fi: frecuencia absoluta, pi: frecuencia relativa, Pi: porcentaje DIAGRAMA DE llillmAS 50 ~------------------

45 40 35

.¡--~~~~~

30

25 20

15 10 5

o Siempre

Enalgunas

Casinunca

Nunca

ocasiones

CiCLOGRAMA

• Siempre

• EnDlcunasocastonu

• casi nunca

• Nunca

A parrir de la rabia de frecuencias y los gráficos se puede concluir que mayorirariamenre los pediatras son parridario s de recomendar a los padres la consulta de webs específicas para o btener información sobre las pato logías de sus hijos, bien en algunas ocasiones (38 %) o bien siempre (20 %). Un 25 % de los pediat ras afirma que casi nunca hace este tipo de recomendaciones, mientra s que un 17 % niega esre ripo de conducta .


[250]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

la distribución. Se trata de un valor muy informativo cuando la distribución sigue una ley normal (la forma en que se distribuyen los datos tiene forma de campana). Sin embargo, presenta el gran inconveniente de ser un indicador muy sensible a los valores extremos de la variable, por lo que se desaconseja su uso cuando se detecten valores extremos en alguna de las colas de la distribución. En el cuadro 35 se presenta un caso que ejemplifica esta situación. Cuadro 35. Cálculo de una media con y sin valores extremos Se pretende conocer la edad de los usuarios que utilizan su dispositivo móvil para acceder a alguno de los servicios de la biblioteca. Para ello se pregunta a seis usuarios sobre su edad. Las respuestas son las siguientes:

CAsoA Usuario Edad

20

2 22

3

4

5

21

24

23

6 22

7 22

La media de la edad de estos usuarios sería:

~\

x=..!..:..!. = 154=22 11

Si ahora se cambiara la edad de uno de ellos por un valor que se separara de manera importante de la tendencia central de la variable, el resultado sería: CASO

B

Usuario Edad

20

2

3

22

21

4 24

5

23

6 22

7 64

x = 96 = 28 7

Del ejemplo anterior se desprende que, cuando existe algún dato que se separa de la tendencia central, el resultado es que el valor de la media deja de informar adecuadamente sobre el conjunto de los datos. Por el contrario, la mediana es un indicador resistente. Es el valor central de la distribución y no se ve influido por los valores extremos. Para calcular la mediana se necesita ordenar los valores de menor a mayor y hallar el valor central. El valor que separa en dos partes iguales la distribución es la mediana. Por ejemplo, tal como se muestra en el cuadro 36 la mediana en los dos ejemplos anteriores sería en los dos casos la misma.


(251)

10. ANÁLISISDE DATOSCUANTITATIVO

Cuadro 36. Cálculo de una mediana CA.soA

Mediana Usuario

Edad CASO

1

20

2 21

3 22

2 21

3 22

4

5

22

22

6 23

24

6 24

64

7

B Mediana Usuario

Edad

1

20

4 22

5

23

7

La moda es otro de los indicadores habituales para describir la tendencia central de una variable. En este caso, se trata del valor que más se repite en la distribución. En los ejemplos anteriores la moda sería el valor 22, dado que es el valor que se repite con mayor frecuencia. Existen distribuciones con más de una moda, bimodales o trimodales, lo que quiere decir que dos o tres valores de la distribución se repiten con la misma frecuencia. Otro grupo de indicadores hace referencia a la forma de la distribución. En concreto se distinguen tres tipos fundamentales de formas que puede adquirir una distribución: simétrica, asimétrica positiva y asimétrica negativa. Cuando los tres valores de tendencia central coinciden, la variable tendrá forma de campana a nivel gráfico. Se dice entonces que la variable sigue una distribución normal, formará una distribución simétrica con forma de campana y en el punto de máxima altura coincidirán los tres valores de tendencia central. En cambio, si la distribución cuenta con valores extremos en la cola de los valores altos, la media se verá afectada por estos valores y presentará el valor más alto, en el medio se encontrará la mediana y en la posición más baja se encontrará la moda. La forma de está distribución será asimétrica positiva. Si, al contrario, existen valores extremos en la cola de los valores más bajos, la media será el indicador que presentará el valor más bajo. La mediana se encontrará en el medio y la moda presentará el valor más alto. La forma de la distribución será asimétrica negativa. En la figura 12 se representan diferentes distribuciones simétricas y asimétricas. Además de la tendencia central de la variable existen otro tipo de indicadores que informan sobre la dispersión de los datos. Los indicadores de dispersión nos indican cómo de agrupados o dispersos se sitúan los valores en relación a la tendencia central de la variable. Incluso puede ocurrir que dos distribuciones con la misma media y mediana presenten una dispersión de los datos muy diferente. En el siguiente ejemplo


[2521

MÉTODOS Y T ÉCNICAS l'ARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

Fig ur a 12. Rep resentac ión gráfic a en la que se repr esenta un a distribución posit iva (a), s im étr ica (b) y asimétrica

(b)

(a)

as im ét ri ca

n egativa (c)

(c)

(cuadro 37) se mu estra có mo en el caso A todos los va lo res se encuentran muy próx imos a la tende ncia cen tr al, mientras q ue en el caso B los va lores están m ucho más di sper sos (más a lejad os) de la tendenc ia centr al de la var iab le. C u adro 37. D ispe rsió n de los daro s d e una var iabl e

CASO

A

Usuari o Edad CASO

1

2

20

21

14

15

4

5 22

6 23

7 24

Med ia: 22

4

5

Med ia: 22

28

6 29

7

22

30

Med iana : 22

3 22

22

3 16

Mediana: 22

B Usuario Edad

2

Las medida s d e di spe rsión más usa da s so n el ra ngo, el ra ngo int ercuartíl ico, la var iancia y la desv iac ió n típ ica. El ra ngo es la dif erencia ent re el valo r máx imo y el va lor mín imo . En los dos ejempl os a nt erio res, en el caso A, el ra ngo seria 4 (24 - 20 = 4) y en el caso B, sería 16 (30 - 14 = 16). Dado qu e so lo depen d e de dos valores d e la distribu ció n, se trata de un a med ida d e dispers ió n mu y pobre (so lo con que ex istie ra un va lor q ue se alejara considerab lemente de la te nde ncia cent ral, haría aumentar el rango de la var ia ble). El rango intercua rtíli co es la d iferencia entr e los va lo res que limitan el 50 % centra l de la var ia ble. Se trata del indi cado r de dispersió n q ue mejor pue d e asoc iarse a la mediana. Indica la dispersión que ex iste en el 25 % inferior y 25 % superior respecto a la med iana . Una med ida de di spers ión más prec isa es la varianc ia y, derivada d e ella, la desviac ión típi ca . La var ia ncia es la media cuad r át ica de las di ferenc ias d e cada va lo r respecto a la media . D e esta forma, los valo res que más


10. ANÁLISISDE DATOSCUANTITATIVO

[2531

se separan de la tendencia central de la variable tienen un mayor efecto en el valor de la variancia. La desviación típica es la raíz cuadrada de la variancia, con lo cual tiene la ventaja de que se presenta en las mismas unidades que la variable y de esta forma es más fácil su interpretación. La desviación típica informa sobre la dispersión promedio de los datos alrededor de la media de la variable. Además se cumple que si la variable sigue una distribución normal: .... Aproximadamente, el 68 % de los valores de la variable se situarán entre ± una desviación típica de la media . .... Aproximadamente, el 95 % de los valores de la variable se situarán entre± dos desviaciones típicas de la media. .... Aproximadamente, el 99 % de los valores de la variable se situarán entre ± tres desviaciones típicas de la media. De este modo, si se asume que una variable sigue una distribución normal, se puede predecir que un determinado porcentaje de valores se situará alrededor de la media. Por ejemplo, si la variable edad de los usuarios de una determinada aplicación web para la reproducción de música sigue una distribución normal, con media 23 años y desviación típica de 4 años, se podría decir que: .... Aproximadamente el 68 % de los individuos tendrá una edad entre 19 y 27 años (una distancia de una desviación típica respecto a su tendencia central) . .... El 95 % de los usuarios tendrán entre 15 y 31 años (una distancia de dos desviaciones típicas respecto a su tendencia central). .... El 99 % de los usuarios se situará en una edad entre los 11 y los 35 años (una distancia de tres desviaciones típicas respecto a su tendencia central). Solo un 1 % de los usuarios tendrá una edad inferior o superior a tres desviaciones típicas respecto a su media (es decir, serán menores de 11 o mayores de 35 años). Cuando esto se cumple, es fácil transformar las puntuaciones de la variable a las llamadas puntuaciones z. Las puntuaciones z tienen una media de O (punto donde coinciden los tres indicadores de tendencia central) y desviación típica de 1. En la siguiente tabla (tabla 28) se muestra la correspondencia entre las puntuaciones de la variable y las puntuaciones z. Tabla 28. Correspondencia entre puntuaciones de una variable y puntuaciones z Puntuaciones z

-3

-2

-1

o

Puntuaciones de la variable

11

15

19

23

27

2

3

31

35


[254]

ro.4.

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

I.2.

DESCRIPCIÓN

INFORMACIONAL

BIVARIABLE

Otro importante aspecto de los estadísticos descriptivos es que permiten valorar la asociación entre variables. De este modo, se pasa de la estadística univariante a la estadística bivariante o multivariante, con dos o más variables. En concreto, las medidas de asociación, como por ejemplo el coeficiente de correlación, permiten resumir en un valor la relación entre dos o más variables. Que dos variables estén correlacionadas significa que cuando una de ellas varía también lo hará la otra variable. Existen diferentes tipos de coeficientes de correlación y su uso depende fundamentalmente de la escala de medida en que se expresen las variables. En la tabla 29 se presentan los principales coeficientes de correlación en función del tipo de variables que se pretendan relacionar. Tabla 29. Principales coeficientes de correlación

Descripción

Coeficiente

Relación entre dos variables cuantitativas medidas en escala de intervalo o razón. de Spearman Relación entre dos variables cuantitativas medidas en escala ordinal. biserial Relación entre dos variables, una cuantitativa medida en escala de intervalo o razón y otra cuantitativa dicotomizada a dos categorías. biserial Relación entre dos variables, una cuantitativa medida en escala de intervalo o razón y otra cualitativa dicotómica (dos categorías). múltiple Relación entre más de dos variables cuantitativas medidas en escala de intervalo o razón. parcial Relación entre dos variables cuantitativas eliminando el efecto de otras variables cuantitativas.

Notación

Correlación de Pearson

r •r

Correlación Correlación

r. rb

Correlación puntual

Correlación Correlación

rbr Ry•••

rp.,

El coeficiente de correlación expresa la dirección de la relación, directa o inversa, y su intensidad. En general, los valores de los diferentes coeficientes de correlación oscilan entre 1 y -1. Cuando la relación entre las variables es directa e intensa, lo que se observa es que los valores altos de una variable se relacionan con valores altos en la otra variable. Cuanto mayor sea la relación, más se aproximará el valor del coeficiente de correlación a 1. Por ejemplo, en un grupo de niños se puede observar que, cuando presentan mayor edad, presentan también una mayor altura. En cambio, cuando los valores bajos de una variable se asocian a valores altos en otra variable, se trata de una relación inversa y el valor del coeficiente de correlación tenderá a -1. Por ejemplo sería el caso de las variables valor de la venta de un coche usado y el número de kilómetros recorridos. Cuanto más intensa sea la relación entre las variables, más cercano será el valor del coeficiente a 1 o -1. En cambio, cuando no exista relación entre las variables, el coeficiente de correlación tenderá a O.En la figura 13 se presentan de forma gráfica los diferentes tipos de relación entre dos variables.


[255)

10. ANÁLISISDE DATOSCUANTITATIVO

Figura 13. Diagramas de dispersión en los que se representa una relación directa (a), una

relación inversa (b) y una relación nula (e)

• ----•

•--~----• •

--- -----------+--·------------

-- -+ ·-----·------------

(a)

.

- ---------+------

--• • -

·-

-----

• •·---· •

--

- --

_________ .____

-

(b)

---

_____

.

.• -

____ _

• (e)

Aunque para interpretar adecuadamente un coeficiente de correlación es importante tener en cuenta el tamaño de la muestra, en la mayoría de libros de estadística se proponen las siguientes reglas generales para interpretar la intensidad del coeficiente de correlación (en valores absolutos). ... Cuando el valor es inferior a 0,2, la relación que se establece entre las variables puede considerarse baja. ... Cuando el valor oscila entre 0,2 y 0,5, la relación que se establece entre las variables puede considerarse moderada. ... Cuando el valor es superior a 0,5, la relación que se establece entre las variables puede considerarse alta. Otro importante indicador es el cuadrado del coeficiente de correlación, el llamado coe-{icientede determinación. Este indica la proporción de variancia explicada entre dos variables. Por ejemplo, si entre las variables tiempo de conexión a una aplicación para la reproducción de música por Internet y la edad de los usuarios que se conectan a esta aplicación se halla una correlación de 0,44, querrá decir que el 19,36 % de la variancia del tiempo que el usuario pasa conectado a la aplicación (de la variabilidad de la variable) puede ser explicada por la edad del usuario. Es importante recordar que a partir del coeficiente de correlación se valora la relación entre las variables, pero no se añade nada acerca de su relación causal. La descripción de variables cualitativas que presentan pocas modalidades de respuesta se realiza a partir de tablas de contingencia. Las tablas de contingencia son tablas de doble entrada, en las que por filas se disponen las modalidades de respuesta de una de las variables y, por columnas, las modalidades de la otra variable. Los indicadores que se suelen representar dentro de las casillas donde se cruzan las modalidades de las dos variables son frecuencias y porcentajes. En el cuadro 38 se muestra un ejemplo de tabla de contingencia.


[256)

~lÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

Cuadro 38. Descripción de dos variables cualitativas Retomando el ejemplo previo sobre la conducta de búsqueda de información en Internet de los pediatras que trabajan en el ámbito hospitalario, se pretende describir de manera conjunta las siguientes variables: Variable «recomendar»: frecuencia con la que se recomienda a los padres la consulta de webs para obtener información sobre las patologías de sus hijos. Variable «web profesional»: uso de webs profesionales como recurso básico para poder estar al día en su profesión (web profesional). A continuación se muestra la tabla de contingencia que resultaría de la combinación de estas dos variables: Web profesional

'"'

(U

-o t: V

E o u V

~

Total

Siempre En algunas ocasiones Casi nunca Nunca

45 (15 86 (28,67 11 (3,67 13 (4,33 155 (51,67

%} %) %) %)

%)

No 15 (5 %) 28 (9,33 %) 64 (21,33 %) 38 (12,67 %} 145 (48,33 %)

Total 60 (20 %) 114 (38 %) 75 (25 %) 51 (17%) 300 (100 %)

A partir del análisis de los datos que se muestran en la tabla se puede apreciar cómo aquellos profesionales que usan webs profesionales como un recurso básico para poder estar al día de su profesión son fundamentalmente partidarios de recomendar la consulta de webs a los padres para obtener información sobre las patologías de sus hijos, mientras que los profesionales que no son usuarios de las webs profesionales afirman con menos frecuencia la recomendación de consultar webs.

10.4.1.3.

DESCRIPCIÓN MULTIVARIABLE

Demostrar la asociación entre dos variables es un paso importante, pero en la mayoría de ocasiones la realidad es bastante más compleja. Por ejemplo, el hecho de que una actividad de promoción de la lectura tenga éxito (valorada a partir del número de asistentes) puede estar relacionado, entre otros muchos aspectos, con la eficiencia o popularidad del equipo organizador, con la existencia o no de programación de otras actividades paralelas o bien con el horario en el que se programe la actividad. De hecho, la relación que se establece entre dos variables puede estar influida por una tercera o incluso más variables. En este sentido, por un lado, la correlación múltiple permite relacionar un conjunto de variables y, por otro, la correlación parcial permite valorar la relación entre dos variables controlando el efecto de una tercera o más variables que puedan influir en esta relación.


10. ANÁLISISDE DATOSCUANTITATIVO

[257)

10.4.2. Estadística inferencia}

Como se ha comentado en el epígrafe anterior, la estadística descriptiva permite ordenar, resumir y describir los datos de una muestra. Sin embargo, en la mayoría de ocasiones, lo que realmente interesa es generalizar los hallazgos obtenidos a partir de unos cuantos datos particulares a la población general. Esto se consigue gracias a la inferencia estadística. Por ejemplo, si se realiza un estudio sobre necesidades informativas de un grupo de usuarios, raramente al investigador le va a interesar ese grupo concreto de usuarios que ha estudiado. La aplicación de técnicas inferenciales va a permitir generalizar los resultados obtenidos en esa muestra, con un determinado grado de certeza, a la población general de usuarios que comparta las mismas características. En términos generales, la estadística inferencial permite extraer conclusiones sobre una población a partir de los resultados obtenidos en muestras representativas. En este punto cobran una importancia vital las técnicas de muestreo probabilísticas descritas en el capítulo 2. Para asegurar la extracción de una muestra representativa de individuos de la población es necesario llevar a cabo un muestreo probabilístico. Existen otras técnicas que van a permitir formar una muestra representativa de la población, pero solo las técnicas probabilísticas van asegurar la representatividad de todas las características de la población, incluso aquellas que el propio investigador no ha tenido en cuenta. Existen dos formas básicas de inferencia estadística: la estimación de parámetros y el contraste de hipótesis. A continuación, se presentan los aspectos básicos de cada una de ellas, pero de nuevo es necesario recordar que para una exposición más detallada es conveniente acudir a textos estadísticos más especializados. Mediante la estimación de parámetros se consigue tener una idea sobre alguna propiedad de la población a partir de la información que se ha obtenido en una muestra. Por lo general, esta estimación se realiza por intervalos, lo que significa que a partir de un valor obtenido en la muestra se construye un intervalo de valores alrededor de él. Dentro de los límites de este intervalo se espera que con una alta probabilidad (conocida) se encuentre el verdadero valor poblacional. Por ejemplo, si se toma a un grupo de pediatras que consideran las webs profesionales como un recurso básico para poder estar al día en su profesión y obtenemos que la media de edad es de 37 años, se podría afirmar que el valor poblacional se situaría en torno a ese valor. Determinar el rango de valores posible (el valor mínimo y el valor máximo) entre los que se situará el verdadero valor poblacional depende de: ... La probabilidad de acierto o de error con la que se desee realizar la estimación. ... El número de individuos de la muestra.


[258]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

<1111

INFORMACIONAL

La variabilidad de la característica que se está valorando. En el cuadro 39 se expone un ejemplo de cómo calcular un intervalo a partir de una media. Cuadro 39. Cálculo de un intervalo de confianza de medias

La media de edad de un grupo de 50 pediatras que consideran las webs profesionales como un recurso básico para poder estar al día en su profesión es de 37 años y su desviación típica 4 años. En este caso, se desea estimar la media de edad del total de la población de pediatras que presenten esta característica con una probabilidad del 95 % de que el verdadero valor de la población se sitúe dentro del intervalo. Para calcular este intervalo se aplicará la siguiente fórmula:

X±Z,, x.

._s._

,.Jn

Donde:

x:es la media de la muestra zx1 : es el valor de z correspondiente a una probabilidad de acierto del 95 % 2 S: es la desviación típica de la muestra n: es el número de sujetos de la muestra Así, el intervalo quedaría construido de la siguiente manera: 37± 1.96-~

,.J5o

El resultado es que con una probabilidad del 95 % el verdadero valor del parámetro estaría entre los siguientes valores: 35,89 + 38, 11

No obstante, se puede considerar que la inferencia estadística moderna se basa, fundamentalmente, en el contraste de hipótesis propuesto por Jerzy Neyman y Egon Pearson hacia 1928 y que posteriormente estos mismos autores fueron desgranando en diferentes publicaciones (Royal, 1997). El contraste de hipótesis es un proceso equivalente a la estimación por intervalo, dado que ambos procedimientos permiten llegar a la misma conclusión. La diferencia fundamental entre ambos procesos radica en que el contraste de hipótesis se inicia desde la población y no desde la muestra. En concreto, el contraste de hipótesis establece una afirmación sobre la población y posteriormente comprueba si a partir de los datos obtenidos en muestras es posible mantener esa afirmación. En este sentido, el contraste de hipótesis puede ser considerado como un procedimiento para tomar decisiones. Es decir, a partir de los datos muestrales decidimos si una afirmación sobre la población puede ser mantenida o debe rechazarse. Si la hipótesis coincide con los datos que se han observado, dentro de un determinado margen de error, se podrá mantener la hipótesis. Mientras que


10. ANÁLISISDE DATOSCUANTITATIVO

1259)

en caso contrario se deberá rechazar y buscar nuevas hipótesis que sean capaces de explicar la realidad. El contrate de hipótesis se inicia con la formulación de dos hipótesis contrapuestas: la hipótesis nula (H0 ) y la hipótesis alternativa (H 1). La H 0 consiste en una afirmación concreta sobre la población en la que debe estar presente el signo de la igualdad y es siempre la hipótesis que se somete a contraste. Por el contrario, la H 1 es la que se deduce al rechazar la H 0 • Retomando el ejemplo previo sobre la conducta de búsqueda de información en Internet de los pediatras que trabajan en el ámbito hospitalario, se podrían plantear las siguientes hipótesis: H 0 : la media de edad de los pediatras que consideran las webs profesionales como un recurso básico para poder estar al día en su profesión es igual a la media de edad de aquellos que no consideran las webs profesionales como un recurso básico para su profesión. <111 H : la media de edad de los pediatras que consideran las webs profesionales 1 como un recurso básico para poder estar al día en su profesión es diferentea la media de edad de aquellos que no consideran las webs profesionales como un recurso básico para su profesión. <111

Una discrepancia entre lo que afirma la H 0 y los datos observados en la muestra puede indicar dos cosas diferentes: <111 <111

Que la H 0 es correcta y la discrepancia que se observa es producto del azar. Que la H 0 es incorrecta.

Para decantarnos por una u otra opción, es necesario determinar cuándo la discrepancia entre la hipótesis planteada y los datos es lo suficientemente grande para considerar que el resultado obtenido en la muestra es incompatible con la H 0 formulada. Por consiguiente, si se considera que estas discrepancias son tan grandes que resulta improbable que se deban al azar, se debe considerar que la H 0 formulada es, de hecho, falsa. Se debe tener en cuenta que la H 0 puede ser rechazada o no rechazada, pero nunca aceptada como cierta. Si se rechaza la hipótesis nula, estamos afirmando que existen diferencias entre los grupos (por ejemplo, entre el grupo de pediatras partidarios de las webs profesionales y los no partidarios). Es decir, a partir de los datos empíricos se ha podido corroborar que las discrepancias no son producto del azar. En cambio, si se mantiene, lo único que podemos afirmar, en realidad, es que los datos no proporcionan suficiente evidencia empírica para afirmar que existen diferencias entre los


[260]

MÉTODOSY TÉCNICASPARALA INVESTIGACIÓNDEL COMPORTAMIENTOINFORMACIONAL

grupos. Así, el investigador deberá determinar si con las pruebas de que dispone puede mantener la hipótesis nula o bien puede rechazarla y quedarse con la alternativa. En general, los investigadores buscan rechazar la H 0 porque rechazarla significa que el fenómeno estudiado tiene algún efecto. No obstante, tomar la decisión de mantener o rechazar una H 0 no está exento de error. En concreto, existen dos tipos de error implicados en esta decisión: el error tipo I y el error tipo II. El error tipo I ocurre cuando el investigador considera que la H 0 es falsa (existe diferencia entre los grupos) y rechaza la H 0 , pero en realidad la H 0 es cierta (no existe diferencia entre los grupos), por lo que la H 0 no debería haber sido rechazada. A este error se lo conoce como nivel de significación y se identifica como a. El error tipo II ocurre cuando el investigador afirma que no existe diferencia entre los grupos, mantiene la H 0 , pero en realidad sí existe diferencia entre los grupos y la hipótesis nula debería ser rechazada. En la tabla 30 se representan los dos tipos de error en función de la naturaleza de la hipótesis nula y de la decisión que finalmente toma el investigador. Tabla 30. Errores asociados a la prueba de contraste de hipótesis

e:

:9 <ll

·o Q.J

Q

No rechazar H 0 Rechazar H0

Carácterde la Hn Verdadera

Falsa

Decisión correcta Nivel de confianza (1-a.) Decisión incorrecta Error tipo I (a)

Decisión incorrecta Error tipo 11(13) Decisión correcta Potencia ( 1-~)

Es necesario tener cautela al tomar la decisión, ya que existe una relación inversa entre el error tipo I y el error tipo II. Esto significa que cuando se reduce la probabilidad de cometer un error tipo I, se está aumentando la probabilidad de cometer un error tipo II. ¿Qué error es más importante evitar? Esto depende en cada caso de la situación de investigación que se aborde. Feinberg (1971) propone un ejemplo ampliamente utilizado en los libros de texto para comprender las consecuencias de estos errores. En concreto, este autor compara el proceso de contraste de hipótesis con un proceso judicial en el que se debe decidir si el acusado es inocente o culpable. En este caso, la hipótesis nula propone que el acusado es inocente (en base a la presunción de inocencia), mientras que la hipótesis alternativa afirmará todo lo contrario, el acusado es culpable. Si se acepta la H 0, el acusado es inocente, mientras que, si se rechaza, al acusado se le declarará culpable. Cometer un error tipo I significa que se declara culpable al acusado, siendo este inocente. Mientras que cometer un error tipo II significa declarar inocente al acusado, siendo este cul-


10. ANÁLISISDE DATOSCUANTITATIVO

1261)

pable. Desde el punto de vista de nuestro sistema judicial parece más grave cometer un error tipo l. Por ese motivo, se fija una probabilidad de error pequeña antes de realizar la investigación y analizar los datos. Por convención, en la mayoría de áreas de la ciencia, se permite un 5 % de error al tomar la decisión de rechazar la H 0 por error (es decir, de cometer un error tipo 1). De esta manera, se establece una regla de decisión y se acepta que, en promedio, 5 de cada 100 veces que la H 0 sea cierta, esta sea rechazada. 10.4.2.1.

PRUEBAS DE CONTRASTE DE HIPÓTESIS

El proceso de contraste entre la H 0 y los datos se realiza mediante un estadístico o prueba de contraste. Existen numerosas pruebas de contraste de hipótesis para escoger. La selección de la prueba apropiada depende fundamentalmente de dos factores: de la naturaleza de la pregunta de investigación que se pretende responder y del tipo de variables implicadas en el estudio. La lógica de un contraste de hipótesis es idéntica en todas las pruebas y se basa en la división de la distribución muestral del estadístico en dos zonas mutuamente excluyentes: una zona de aceptación y una zona de rechazo. En la figura 14 se muestra la ubicación de la zona de aceptación y de rechazo de un estadístico con distribución muestral normal. La zona de aceptación es aquella área de la distribución que corresponde a valores del estadístico compatibles con la afirmación de la H 0 • Por el contrario, la zona de rechazo es aquella área de la distribución que contiene valores del estadístico de contraste incompatibles con la afirmación de la H 0 • Cuando se aplica la prueba de contraste con los datos de la muestra se obtiene un valor del estadístico. De esta manera, la hipótesis es rechazada si el valor del estadístico obtenido en la prueba de contraste toma un valor que cae dentro de la zona de rechazo. Como se ha expuesto en el epígrafe anterior, esta zona ocupa el 5 % de la distribución del estadístico (porcentaje de error que se asume al poder rechazar la H 0 por error). En consecuencia, el 95 % restante de la distribución corresponde a la zona de aceptación. Esta zona de aceptación es lo que se llama nivel de confianza de la prueba, o lo que es lo mismo, la probabilidad de no rechazar la H 0 cuando esta es cierta. Por el contrario, si el estadístico de contraste toma un valor que cae en esta zona de aceptación se mantiene la H 0, dado que el error que se cometería al rechazarla sería superior al error tipo I o nivel de significación. Una revisión exhaustiva de los diferentes tipos de técnicas sobrepasaría el objetivo del presente texto, por lo que en los apartad~s siguientes se presenta tan solo una revisión de las pruebas de contraste más utilizadas en la literatura.


1262]

~I ÉT01)0S Y TÉ CNICAS PARA L,\ INV ESTI GACIÓ N DEL COMPORTAMIE NTO INFORMACION A L

Figura 14 . Zona de aceptación (lisa) y rechazo (rallada) de un estadíst ico de contraste con distribuc ión muestra! normal

T de Student En el caso de un d isefio ele g rupos ind ependi entes, la prueba de t de Stud ent se uti liza para va lorar si ex isten d iferencias en las puntuaciones medi as de dos grup os de individuos, sien do necesario qu e la var ia ble cuan tit ativa esté medida en enca la de int erva lo o razón. Esta p rueba esta dí stica se utili za ría por ejempl o si se qui sieran valo rar las diferencias en la media de edad de los ped iatras que usan webs profes ionales como recurso para esta r a l día y aq ue llos pedi at ras que no las usa n. Si la situació n que se p lantea es va lorar la dif eren cia de medi as en una var iable cua ntit at iva med id a en esca la de inter va lo o de razón en dos m om ento s tem por ales diferentes, se uti lizaría la versió n de t d e Student para medidas repetidas. Sería el caso de va lora r el grado de co noc imiento sobre un a materia (pu ntu ac ión en un exa m en) ante s y después de una ac ti vidad de formación.

Análisis de la variancia

(AN O \/A)

El ANOVA, al igua l que la prueba de t de Stude nt , permit e estud iar las d ifere ncias de medias entr e grupos . La diferencia funda ment a l entr e am ba s téc n icas es que el ANOVA permite comparar las medias de más de dos gru pos a l mismo tiempo y presenta una mayor flexibilidad en lo que se refiere a su capacidad pa ra asu mi r diferente s tipos de disefios. Por ejemp lo, el ANOVA de un factor se util iza para comparar las d iferenc ias de medias entre los diferentes niveles de una var iab le ind epen di ente. No obstante, el ANOVA p ermit e amp liar el número de vari ables independientes en el aná lisis, por lo que podemo s ha bla r de un ANOVA de dos factores o ANOVA mu ltifa ctor ia l (más de


10. ANÁLISISDE DATOSCUANTITATIVO

1263]

dos factores). Este tipo de diseño permitirá valorar los efectos principales de cada variable independiente así como la posible interacción entre dos o más variables independientes. Esta prueba también admite un diseño de grupos independientes, de medidas repetidas o bien, un diseño mixto, donde una variable independiente valora grupos independientes y otra, medidas repetidas. Chi cuadrado La prueba de chi cuadrado compara dos variables cualitativas medidas en escala nominal o ordinal. Se basa en la comparación de las frecuencias observadas con las frecuencias teóricas que se esperaría observar en caso de no existir relación entre las variables (en caso de que la H 0 fuese cierta). Cuanto mayor es la diferencia entre las frecuencias observadas y las esperadas, mayor será el valor del estadístico chi cuadrado y mayor probabilidad de que esa relación pueda observarse también en la población. Dicho de otra manera, cuanto mayor sea el estadístico, más alejado estará de la zona de aceptación, por lo que podrá rechazarse la H 0 y afirmar que las variables están relacionadas.

Regresión La regresión es un método que permite estimar o predecir los valores de una variable dependiente dados los valores de una (regresión simple) o más (regresión múltiple) variables independientes. Como variables independientes debemos considerar aquellas que pueden ser manipuladas por el investigador con el objetivo de observar su efecto en la variable dependiente. La variable dependiente es aquella que se pretende medir y presumiblemente tomará valores en función de la o las variables independientes por las que esté influida. En la regresión las variables deben ser cuantitativas medidas en escala de intervalo o razón, aunque es posible incluir variables cualitativas dicotomizadas como variables independientes. Para poder predecir los valores de una variable es necesario que exista relación entre la variable dependiente y la independiente. Si se observa que las variables tiempo de conexión a Internet a partir de un dispositivo móvil y la edad están relacionadas, el siguiente paso que puede interesar es predecir el número de horas que pasará conectado (variable dependiente) por término medio un sujeto en función de su edad (variable independiente). La capacidad de la predicción del modelo dependerá de la intensidad de la relación que se observe entre las variables. No obstante, el mayor interés de la regresión radica en su versión múltiple, dado que permite construir modelos capaces de explicar una variable dependiente. En este sentido, la regresión múltiple permite conocer el efecto de cada una de las variables independientes sobre la


[264]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

INFORMACIONAL

variable dependiente que se esté valorando. En el ejemplo anterior, variables como la edad, el nivel de estudios, el género o el nivel de ingresos pueden estar relacionadas con el tiempo de conexión a Internet. A partir de la regresión múltiple se puede llegar a conocer el efecto de cada una de esas variables (cuál de ellas tiene una mayor influencia) sobre la variable tiempo de conexión. 10.4.2.2.

CUESTIONES DE INTERÉS PARA UNA CORRECTA INTERPRETACIÓN DE LOS RESULTADOS

La historia de la estadística y, en concreto, de la inferencia estadística no está exenta de interesantes disputas entre autores, malas interpretaciones e incluso errores en la valoración y en el comentario de los datos. Para una correcta interpretación de los resultados es importante tener en cuenta una serie de cuestiones. A continuación, se recogen algunos de los puntos más polémicos y a veces olvidados a la hora de interpretar los resultados de un estudio. Para una revisión más profunda de estos conceptos se recomienda al lector la obra de Good y Hardin (2006) sobre los errores más comunes en estadística. Grado de significación Es habitual que en los artículos científicos se indique, por un lado, el nivel de significación (error tipo I que se asume al realizar el contraste) y, por otro, el grado de significación de cada uno de los estadísticos de contraste. La prueba de contraste de hipótesis asume que la hipótesis nula es cierta en la población y calcula la probabilidad de que sea así también en la muestra. Esta probabilidad obtenida es la probabilidad asociada al valor del estadístico obtenido en la prueba de contraste y es lo que se llama grado de significación. Así, este grado de significación indica la probabilidad de error al rechazar una hipótesis nula cierta a partir de los datos de la muestra. De esta forma, si el grado de significación es menor al nivel de significación (por ejemplo, fijado al 5 % ), se podrá rechazar la hipótesis nula, dado que el error tipo I que se cometerá será menor que el fijado a priori por el nivel de significación. En estos casos, se dice que el contraste es estadísticamente significativo, es decir, la hipótesis nula es rechazada y se afirma que existe un efecto en los datos. Un inconveniente del grado de significación es que está condicionado al tamaño de la muestra. Muestras grandes se asocian a grados de significación más pequeños, con lo que la probabilidad de rechazar una hipótesis nula aumenta, aunque el efecto que se esté estudiando sea pequeño.


10. ANÁLISISDE DATOSCUANTITATIVO

[2651

Comparaciones múltiples La mayoría de investigaciones no hacen uso de un único contraste estadístico, sino que aplican diferentes pruebas de contraste para valorar sus hipótesis. Sin embargo, tal como se ha expuesto en los epígrafes previos, el nivel de significación implica que existe la probabilidad de un 5 % de rechazar una hipótesis nula cierta por error cuando se realiza un contraste estadístico. Por esta razón, si se realiza más de un contraste con los mismos datos, la probabilidad de encontrar un resultado estadísticamente significativo por azar (rechazar la hipótesis nula) aumentará. Por ejemplo, si en un estudio se realizan seis contrastes estadísticos, en realidad existe una probabilidad de 0,3 de que alguno de ellos sea estadísticamente significativo por azar. Por ello, deben escogerse técnicas estadísticas que minimicen el número de contrastes a realizar o bien disminuir el nivel de significación (por ejemplo, pasar de un 5 % a un 1 %). En la práctica, el método más simple, aunque también más conservador, es utilizar la corrección de Bonferroni. Esta corrección se basa en dividir el nivel de significación por el número de contrastes realizados. En este caso, el nivel de significación corregido sería 0,008 (resultado del cociente 0,05/6) y debería ser utilizado como valor límite para determinar si un contraste es estadísticamente significativo o no.

¿Significación estadística o diferencia significativa? Existen múltiples estudios publicados con contrastes estadísticamente significativos que presentan una significación práctica nula. Que un contraste sea estadísticamente significativo, es decir, se rechace la hipótesis nula porque el grado de significación sea menor que el nivel de significación seleccionado no quiere decir que la diferencia encontrada entre los grupos sea relevante. En última instancia el investigador debe preguntarse si los resultados encontrados tienen alguna relevancia en el mundo real. Por ejemplo, que la diferencia en la edad de dos grupos de individuos sea de 27 y de 32 años ¿tiene alguna repercusión práctica para el fenómeno estudiado? La diferencia encontrada puede ser estadísticamente significativa pero carecer de sentido y utilidad práctica. Esto no quiere decir que la significación estadística sea irrelevante. Al contrario, la significación estadística es esencial para determinar si la probabilidad de un resultado se ha producido por azar o bien indica un verdadero efecto que está presente en los datos.

Tamaño de muestra Tal como se ha indicado cuando se ha expuesto el grado de significación, se debe tener en cuenta que el tamaño de muestra influye en la probabilidad de hallar un


(266]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

resultado estadísticamente significativo. Mientras que utilizar un tamaño de muestra grande aumenta la posibilidad de rechazar la hipótesis nula, aun cuando la discrepancia entre los datos teóricos y empíricos sea muy pequeña, utilizar un tamaño muestral pequeño puede dificultar rechazar una hipótesis nula, aún cuando esta discrepancia entre los datos sea relevante. Esto implica que es importante a la hora de plantear la investigación determinar a priori el número de sujetos que deberían estudiarse. Existen múltiples métodos para determinar el tamaño de muestra apropiado para realizar un estudio, fundamentalmente la elección de uno u otro depende del número y del tipo de contraste estadístico que se pretenda ejecutar.

Tamaño del efecto El tamaño del efecto es una medida que en parte viene a resolver el problema planteado en los epígrafes anteriores y en la actualidad es aceptada como el complemento necesario cuando se realiza una prueba de contraste de hipótesis. El tamaño del efecto ha sido definido de diferentes formas, aunque quizá la explicación más sencilla e intuitiva es la propuesta por Cohen (1992), quien la define como el grado en que la hipótesis nula es falsa. Otra manera habitual de referirse al tamaño del efecto es en términos de variancia explicada. En este sentido, el tamaño del efecto indica la proporción de variabilidad que puede ser explicada en la variable dependiente y que puede ser atribuida a la variación de la variable independiente (Sheskin, 2003 ). El tamaño del efecto es sumamente útil, dado que proporciona una medida objetiva de la importancia del efecto hallado en los datos. Cada prueba de contraste tiene asociada su propia medida de tamaño del efecto, aunque todas las medidas tienen en cuenta para su cálculo el tamaño de la muestra y el estadístico obtenido en la prueba de contraste. La ventaja clara del tamaño del efecto respecto al grado de significación estadística es que se trata de una medida estandarizada y permite comparar los efectos que se han encontrado en diferentes estudios y a partir de distintos estadísticos de contraste. Por lo cual, permite comparar la magnitud de las discrepancias halladas por diferentes estudios (valorar si estas son grandes o pequeñas) y en consecuencia de la relevancia de esta discrepancia. Cohen (1988, 1992) propone una clasificación de la magnitud de tamaño del efecto para las pruebas de contraste. En términos generales, se acepta que medidas de tamaño del efecto capaces de explicar un 1 % del total de la variancia de la variable dependiente tendrían un efecto pequeño, aquellas capaces de explicar al menos un 9 % de la variancia de la variable dependiente, un efecto moderado y, si se logra explicar por encima de un 25 % la variabilidad de la variable dependiente, se hablaría de una magnitud del tamaño del efecto importante.


10. ANÁLISISDE DATOSCUANTITATIVO

12671

Potencia estadística La potencia de una prueba hace referencia a la capacidad de un contraste estadístico para rechazar una hipótesis nula falsa. En otras palabras, la potencia de una prueba hace referencia a la probabilidad de encontrar un resultado estadísticamente significativo cuando en realidad existe un efecto. A mayor poder estadístico de una prueba mayor es la probabilidad de encontrar significación estadística si la hipótesis nula es falsa. La potencia estadística depende de tres factores: del tamaño de muestra, del nivel de significación escogido (0,05 o 0,01) para decidir si un contraste es estadísticamente significativo o no y del tamaño del efecto (la magnitud de las diferencias de medias entre los grupos). Se aconseja que la potencia estadística de una prueba no sea inferior a 0,8 con el fin de evitar cometer un error tipo 11 (Cohen, 1988). La potencia estadística puede calcularse antes de iniciar el estudio, por lo que puede determinarse el tamaño de muestra necesario para alcanzar una potencia mínima, en base al nivel de significación escogido y el tamaño del efecto que se prevé conseguir. Sin embargo, es habitual que por diferentes motivos no se logre el tamaño de muestra o bien que el tamaño de efecto sea inferior al esperado, por lo que se deberá tener en consideración la potencia real para poder detectar diferencias entre los grupos. Este hecho es particularmente importante cuando se interpretan resultados de un estudio en el que no se han encontrado diferencias estadísticamente significativas, porque es posible que las diferencias estadísticamente significativas existan, aunque la potencia del contraste sea insuficiente para detectarlas.

10.5. RESUMEN

En este capítulo se han presentado los conceptos básicos para llevar a cabo un análisis cuantitativo de los datos. Un aspecto fundamental para proceder con el análisis es la definición del tipo de variable y su escala de medida. Esta definición de la variable condiciona el tipo de análisis que posteriormente se podrá realizar. No obstante, es sumamente importante antes de pasar al análisis asegurarse de la corrección de los datos. Estos deben ser revisados antes y después de ser introducidos en la base de datos. El objetivo es asegurarse de que no se han cometido errores en el proceso. Los errores en los datos pueden llevar a resultados contradictorios y por supuesto invalidar la investigación. En algunas ocasiones, se requerirá que los datos sean transformados en categorías o bien en otras escalas de medida. En este sentido, cada estudio tendrá unos requisitos propios en función del tipo de datos que trabaje. Un paso obligado en cualquier análisis de datos es el análisis descriptivo. Este tipo de análisis per-


[268]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

mite, por una parte, estudiar el comportamiento de las variables (presencia de valores extremos, asimetría, etcétera) y, por otra, resumir a partir de indicadores o representaciones gráficas la información que aportan las variables. La inferencia estadística permite generalizar los hallazgos obtenidos a partir de muestras, a la población general. Fundamentalmente, existen dos procedimientos para llevar a cabo un análisis de inferencia estadística: la estimación de parámetros y el contraste de hipótesis. En el primer caso el conocimiento de la población se consigue a partir de la información que se ha obtenido en una muestra. En el segundo, el proceso requiere formular una afirmación sobre la población para posteriormente comprobar si esta afirmación puede ser mantenida a partir de los datos muestrales. El proceso de contraste de hipótesis se realiza mediante estadísticos o pruebas de contraste. Se han presentado algunas de las principales pruebas más utilizadas en la literatura: chi cuadrado, t Student, ANOVA y regresión. Por último, se han tratado algunos aspectos importantes para la correcta interpretación de los resultados de un análisis inferencia!, como la influencia del tamaño de muestra, el número de contrastes que se utilizan en un estudio o la importancia de valorar la significación práctica de los resultados obtenidos.


CAPÍTULO II

ANÁLISISDE DATOS CUALITATIVO

11.1. INTRODUCCIÓN

Bernard y Ryan (2010) definen el dato cualitativo como aquel que resulta de la reducción de los pensamientos de las personas, conducta, emociones, artefactos, entornos sonoros, palabras o imágenes y que nos llega de cinco formas distintas: como objetos físicos, imágenes fijas, sonidos, imágenes en movimiento y como palabras escritas. La fuente de estos datos cualitativos puede ser una serie de entrevistas a un conjunto de usuarios donde se indaga sobre sus experiencias mediante el uso de una interfaz para el acceso a una base de datos. Pero también son una fuente de datos cualitativos los documentos generados en una organización y que analizamos tratando de entender los flujos de información de esa organización. Bogdan y Biklen (1982) definen el proceso de análisis de datos cualitativos como un proceso de búsqueda sistemática y organización de las transcripciones de entrevistas, las notas de campo y otros materiales que el investigador recopila para aumentar su propia comprensión y presentar lo que ha descubierto a los demás. El análisis consiste en trabajar con los datos, su organización, la división en unidades manejables, la síntesis, la búsqueda de patrones, el descubrimiento de lo que es importante y la decisión de lo que se comunicará a los demás. Existen diversas tradiciones en el modo de abordar el análisis de datos cualitativos y es una materia que dista mucho de estar tan sistematizada como el análisis cuantitativo. Una clasificación de los distintos tipos de análisis cualitativo es la de Ryan y Bernard (2000), que, en la línea de Tesch (1990) y centrándose en el texto como dato cualitativo, distinguen dos tradiciones (cuadro 40). Una tradición arraigada en la sociología que trata el texto como un medio de acceder a la experiencia humana y otra, que se enmarca en la tradición lingüística, que aborda el texto como objeto de análisis en sí mismo. En la consideración del texto como ventana a la experiencia de la tradición sociológica, además se distingue entre aquellas técnicas que analizan el texto obtenido


[270]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

Cuadro 40. Clasificación y definición de las técnicas de análisis cualitativo de textos (síntesis de Ryan y Bernard, 2000; Bernard, 2006; Bernard y Ryan, 2010) A) TRADICIÓN SOCIOLÓGICA. EL TEXTO COMO VENTANA A LA EXPERIENCIA 1. Elicitación sistemática

• Análisis componencial: es una técnica formal, cualitativa para el estudio del significado. Tiene dos objetivos: (1) especificar las condiciones en que un hablante nativo de una lengua nombra algo (como una planta, un pariente, un coche) con un término en particular y (2) comprender el proceso cognitivo por el cual los hablantes nativos deciden, de los posibles, el término que debe aplicarse a una cosa en particular (Bernard, 2006). • Taxonomías: su objetivo es capturar la estructura jerárquica de un conjunto de términos y por lo general se muestran como diagramas de árbol ramificado (Ryan y Bernard, 2000). Representan el modo en que las personas en diferentes grupos culturales organizan su conocimiento en el mundo natural (Bernard y Ryan, 2010). • Mapas mentales: son representaciones visuales de las similitudes entre ítems, sean o no los elementos organizados jerárquicamente (Ryan y Bernard, 2000).

2. Texto libre • Palabras - Kw1c (palabras clave en contexto): es una lista de las palabras sustantivas de un texto asociadas con su

oración para determinar el contexto en que esa palabra es utilizada (Ryan y Bernard, 2000). - Recuento de palabras: tiene como objetivo descubrir patrones de ideas en cualquier corpus textual, sea la información recogida a través de preguntas abiertas o a través de las notas de campo. - Redes semánticas: más allá del recuento de palabras, examina las relaciones entre palabras a través de un conjunto de textos. Los textos que comparten muchas palabras -y las personas u organizaciones que producen las palabras- son más similares entre sí que los textos que comparten pocas palabras (Bernard y Ryan, 2010). - Mapas cognitivos: combinan la intuición de los codificadores humanos con los métodos cuantitativos de análisis de redes (Ryan y Bernard, 2000). • Códigos

- Teoría fundamentada: trata de entender las experiencias de la gente de la forma más rigurosa y detallada posible. Pretende identificar las categorías y conceptos que emergen del texto y vincularlos en teorías sustantivas y formales (Ryan y Bernard, 2000). - Análisis de esquemas: combina elementos de las tradiciones lingüísticas y sociológicas. Se basa en la idea de que la gente debe utilizar simplificaciones cognitivas para ayudar a dar sentido a la información compleja a la que está constantemente expuesta. Desde un punto de vista metodológico es similar a la teoría fundamentada. En ambos casos se comienza con una lectura cuidadosa de los textos, palabra por palabra, tratando de descubrir y vincular los temas a modelos teóricos (Ryan y Bernard, 2000). - Análisis de contenido clásico: comprende diversas técnicas para reducir el texto a una matriz unitaria por variable y el análisis de esa matriz cuantitativa para probar una hipótesis (Ryan y Bernard, 2000). - Diccionarios de contenido: están basados en el uso de ordenador, puesto que consisten en la automatización de la codificación de textos. Para construir los diccionarios, los investigadores asignan palabras manualmente a una o más categorías de acuerdo con un conjunto de reglas. Las reglas son parte de un software que analiza los nuevos textos, asignando palabras a las categorías (Ryan y Bernard, 2000). - Inducción analítica: tiene como objetivo la construcción de explicaciones causales de los fenómenos a partir de un minucioso examen de los casos. El método comprende los siguientes pasos: ( 1) Definir un fenómeno que requiere explicación y proponer una explicación. (2) Examinar un solo caso para ver si la explicación se ajusta. (3) Si lo hace, a continuación, examinar otro caso. La explicación es aceptada hasta que un nuevo caso demuestre que es falsa (Bernard, 2006). - Modelos de decisión etnográfica: se trata de un análisis causal que predice las opciones de comportamiento en determinadas circunstancias. A menudo se representa como un árbol de decisión o diagrama de flujo que comprende una serie de condiciones anidadas (Ryan y Bernard, 2000). B) TRADICIÓN LINGÜÍSTICA. EL TEXTO COMO OBJETO DE ANÁLISIS • Conversacional o del discurso: es el estudio de la gramática más allá de la frase, el lenguaje en uso y la retórica del poder (Bernard y Ryan, 2010). • Narrativo: se centra en las estructuras de las narrativas buscando regularidades en cómo las personas, en una cultura o entre culturas, cuentan historias (Bernard y Ryan, 2010).


11. ANÁLISISDE DATOSCUALITATIVO

[271]

por medio de técnicas de obtención de información como entrevistas (elicitación sistemática) y aquellas que parten del texto libre no generado ad hoc (texto libre). En este último caso, además se distinguen aquellas técnicas orientadas a la reducción del texto a palabras y aquellas orientadas a la traducción de palabras en códigos. En el cuadro 40 se presenta la clasificación de las técnicas de análisis cualitativo de textos junto con la definición que dan de cada una de ellas Ryan y Bernard (2000), Bernard (2006) y Bernard y Ryan (2010). El uso de algunas de las técnicas incluidas en esta clasificación, en el contexto del estudio del comportamiento informacional, es nulo o meramente testimonial. Por el contrario, otras como el análisis de contenido o la teoría fundamentada son frecuentemente utilizadas. En el presente capítulo se describirán los fundamentos de ambas, así como ejemplos de aplicación al estudio de los distintos aspectos del comportamiento informacional. Otros textos pueden servir como referencia para el estudio, en el contexto de la información y documentación en general, del análisis del discurso (Frohmann, 1994), narrativo (Gazan, 2005) o conversacional (Solomon, 1997).

11.2. ANÁLISIS DE CONTENIDO

11.2.1. Definición El análisis de contenido (AC) es definido por Piñuel Ragada (2002) como el conjunto de procedimientos interpretativos de productos comunicativos (mensajes, textos o discursos) que proceden de procesos singulares de comunicación previamente registrados, y que, basados en técnicas de medida, a veces cuantitativas (estadísticas basadas en el recuento de unidades), a veces cualitativas (lógicas basadas en la combinación de categorías), tienen por objetivo elaborar y procesar datos relevantes sobre las condiciones en que se han producido aquellos textos, o sobre las condiciones que puedan darse para su empleo posterior. Este epígrafe se centra en el análisis de contenido cualitativo, que es definido por Mayring (2000) como una aproximación empírica y metodológica al análisis de textos en su contexto de comunicación siguiendo unas reglas analíticas de contenido sin cuantificación. Por lo tanto, tal y como muestra la definición de la técnica, generalmente se distingue entre análisis de contenido clásico, de orientación cuantitativa, y análisis de contenido cualitativo. Son dos extremos que en la práctica no tienen por qué ser excluyentes. Algunas de las características de uno y otro son las que figuran en la tabla 31.


1272]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

INFORMACIONAL

Tabla 31. Características del análisis cuantitativo frente al cualitativo (adaptado de Zhang y Wildemuth, 2005; White y Marsh, 2006) Análisisde contenido cuantitativo

Análisis de contenido cualitativo Antropología, sociología cualitativa

Origen y desarrollo

Comunicación

Muestreo Producto Codificación y categorización

Probabilístico Datos tratados estadísticamente

No probabilístico Descripciones

Previo al análisis

Se construye según emerge de los datos

y psicología

En primer lugar, el análisis de contenido cuantitativo tiene su origen en el ámbito de la comunicación como forma de poner de manifiesto los elementos textuales, mientras que el cualitativo se desarrolló principalmente en la antropología, la sociología cualitativa y la psicología, con el fin de explorar los significados subyacentes de los mensajes. En segundo lugar, respecto al modo de seleccionar los datos, el AC cuantitativo lo hace con procedimientos probabilísticos para asegurar que los resultados sean representativos y generalizables, además la selección de los datos se hace previamente al análisis. Por el contrario, el AC cualitativo pretende mostrar una imagen rica en detalle, basada en la comprensión de los fenómenos bajo los propios términos de quien los narra y por lo tanto parte de un muestreo no probabilístico y, en ocasiones, la selección de datos y el análisis corren paralelos. En tercer lugar, el AC cuantitativo produce datos tratados estadísticamente, mientras que el AC cualitativo genera descripciones o tipologías que son el resultado de la interpretación de una realidad. Por último, en el AC cuantitativo las pautas de categorización y codificación se construyen a priori y pueden provenir de otros estudios; por el contrario en el AC cualitativo el esquema de codificación emerge de los datos analizados. Como ya se ha dicho, ambos extremos no tienen por qué ser excluyentes ni sus particularidades exclusivas de uno u otro enfoque. Por esa razón en este texto se describe el AC desde el punto de vista de la investigación cualitativa pero integrando un enfoque inductivo y deductivo. El primero basado en la obtención de categorías a partir del texto, el segundo basado en la correspondencia de categorías predefinidas a las unidades de análisis (figura 15). Existen numerosos textos, como los de Weber (1985), Bardin (1986) o Krippendorff (2004), que pueden ser utilizados como referencia para completar la visión del AC que aquí se ofrece desde la perspectiva de una explotación de los datos más cuantitativa.


12731

11. ANAI.IS IS DE DATOS CUA LITAT IVO

Figura 15. Proceso de análisis de conte nido cuali tat ivo (adaptado de Elo y Kyngas, 2008)

Obtención/Selección datos

de

Unidades de registro y contexto

Deductivo

Inductivo

Esquema de codificación

Codificación abierta -----'-----

signación de códigos y categorías

Categorización

Evaluación del proceso y resultados

Interpretación delos resultados

Asignación de códigos y cate orías


1274)

.MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO

INFORMACIO~AL

11.2.2. Proceso de análisis de contenido I I .2.2. I.

ÜBTENCIÓN

Y/O SELECCIÓN DE LOS DATOS

Los datos que son susceptibles de ser analizados por medio del análisis de contenido son todos aquellos que se presentan en forma de texto o que pueden ser transformados en texto. En el ámbito del comportamiento informacional, el AC cualitativo se ha utilizado en el análisis de diversos tipos de datos. Por ejemplo, Wang y Soergel (1998), Wang y White (1999) y Sairanen y Savolainen (2010) utilizan esta técnica para el análisis de los resultados de entrevistas. En el caso del estudio de Radford (1998) el AC es la estrategia utilizada para el análisis de los resultados de las observaciones estructuradas. Marsh y White (2003) lo utilizan para el análisis de imágenes mientras que Haas y Grams (2000) para el análisis del contenido de páginas web. Por último, Green ( 1991) desarrolla esta técnica para el análisis de los abstraer de la literatura especializada en información y documentación. En general, los datos para un análisis de contenido pueden provenir de un proceso de observación o entrevista cuyos resultados se han transcrito. Igualmente estos datos pueden ser una serie de textos no elaborados ad hoc como por ejemplo un análisis de prensa escrita o el análisis de las palabras clave asignadas a una colección de documentos. En definitiva, el corpus que va a ser objeto de análisis puede simplemente recopilarse, en caso de que exista con independencia de la investigación, o bien puede producirse a través de un proceso de recogida de información por medio de cualquier técnica de investigación social (Navarro y Díaz, 1994). En cualquier caso, la selección del texto para su análisis vendrá determinada por el diseño de la investigación. No obstante, si el objetivo es conseguir la representatividad de resultados, será necesario un muestreo probabilístico. Por el contrario, si lo que se busca no es la representatividad, sino lograr la riqueza y variedad de incidentes que nos den la imagen rica en detalle de una realidad, la selección del material se realizará a través de un muestreo no probabilístico, por ejemplo detectando los casos más típicos, homogéneos, extremos o cualquiera de las estrategias del muestreo intencional, tal y como se ha descrito en el capítulo 2. A este respecto y conforme a la óptica de la investigación cualitativa, es posible también realizar de forma paralela la selección y análisis de la información, en la línea del muestreo teórico, propio de la teoría fundamentada. I I

,2,2,2,

DETERMINACIÓN DE LAS UNIDADES DE ANÁLISIS. UNIDADES DE REGISTRO Y CONTEXTO

El siguiente paso en el AC, tras la recopilación y/o producción del texto objeto de análisis, es determinar las unidades básicas que constituirán los ítems que el investigador


11. ANÁLISISDE DATOSCUALITATIVO

[275]

extraerá de los textos a analizar. Estas unidades básicas son las unidades de registro y las unidades de contexto. Las unidades de registro son el elemento básico a partir del cual se realizará el análisis del texto. Cada una de ellas debe corresponder a un aspecto del conjunto de textos considerado relevante en la investigación. Bardin (1986) distingue las siguientes unidades de registro: <11111

<11111

<11111

<11111

<11111

<11111

Palabra: se pueden tener en cuenta todas las palabras de un texto o simplemente aquellas que son claves para la investigación. Tema: se trata de enunciados significativos cuya presencia, ausencia o cualquier otro tipo de indicador transmite un mensaje relevante. Objeto o referente: se trata de un tema que supone el eje argumental a través del cual se realiza el análisis. Personaje: el actor que aparece en el texto. Acontecimiento: por ejemplo, en el caso de relatos o narraciones, las unidades de registro pueden ser los acontecimientos que ocurren en esa narración. Documento: se refiere a un texto en concreto o la respuesta a la pregunta abierta de una entrevista.

Con relación a qué tipo de unidades de análisis son las más adecuadas, todo dependerá de los objetivos de la investigación. A este respecto, Hernández Sampieri y otros (2010) hacen algunos apuntes, como, por ejemplo el que en un estudio sea posible seleccionar más de una unidad de análisis. Igualmente afirman que aquellas unidades menos concretas como el personaje o el acontecimiento requerirán menos tiempo de análisis y codificación que si la unidad seleccionada es la palabra o el tema. La información que aportan las unidades de registro deben completarse con el significado que aporta, por ejemplo, el lugar en el texto en el que aparecen con vistas a determinar sus coocurrencias con otras unidades, o bien su relación con información más allá del texto que tenga que ver con su producción (autores, circunstancias, etcétera) (Navarro y Díaz, 1994). Es decir, además de las unidades de registro, es necesario definir las unidades de contexto. La unidad de contexto es la unidad de comprensión para codificar la unidad de registro y corresponde al segmento del mensaje cuyo tamaño es óptimo para captar la significación exacta de la unidad de registro (Bardin, 1986). Navarro y Díaz (1994) afirman que las unidades de contexto pueden definirse siguiendo dos criterios: un criterio textual o un criterio que va más allá del texto. Respecto al primero, es posible definir la unidad de contexto con relación a alguna característica sintáctica, semántica o pragmática de la unidad de registro. Por ejemplo, una unidad de contexto puede ser la frase para la palabra o el párrafo para el tema. Pero también, es posible definir


[276]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

la unidad de contexto siguiendo criterios que tienen que ver con la producción del texto, por ejemplo el autor de dicho texto. I 1.2,2,J,

ANÁLISIS

Una vez establecidas las unidades de registro y de contexto a partir de las que realizar el AC, la siguiente fase consiste en la codificación y categorización de los datos. Existen dos enfoques en esta fase, uno inductivo que realiza el procedimiento fundamentándolo en los propios datos analizados y otro deductivo que parte de presupuestos previos. A) Enfoque inductivo

Una aproximación inductiva al análisis de contenido se fundamenta en la revisión de los datos dispuestos para tal fin y se plantea cuando no existe un conocimiento previo sobre el ámbito de estudio o si este conocimiento previo está muy fragmentado (Elo y Kyngas, 2008). El proceso de análisis con un enfoque inductivo parte de la lectura y revisión detallada del texto en busca de unidades de significado, asignándoles códigos para su diferenciación. Esta tarea se realiza en todo el material a la vez que se van generando reglas de codificación que contienen los criterios por los que, a una determinada unidad de análisis, se le asigna determinado código. Se trata de un proceso de codificación abierta donde el significado de las distintas unidades de análisis determina la asignación de códigos. El cuadro 41 presenta la codificación de dos textos obtenidos por medio de entrevistas según la técnica del incidente crítico. Se trata de la respuestas de estudiantes universitarios a la pregunta: En el contexto de tu vida en la universidad, relata un problema que tuviste, para cuya resolución hubieras necesitado más información que la que tenías en ese momento y describe qué hiciste, si buscaste la información que necesitabas y dónde la buscaste.

El texto resultante relata dos incidentes distintos que constituyen la unidad de contexto. Cada uno de ellos posee diversas unidades de registro que pueden ser lapalabra, la frase o el párrafo. A cada una de esas unidades de registro se le ha asignado un código según su significación. Tras el proceso de codificación abierta, los códigos que van surgiendo deben agruparse para formar categorías de mayor nivel que agrupen las unidades identificadas en el proceso de codificación. El propósito de la creación de categorías es proporcionar un medio de describir el fenómeno, aumentar la comprensión y propiciar la gene-


(277]

11. ANÁLISISDE DATOSCUALITATIVO

Cuadro 41. Ejemplo de codificación en el análisis de contenido

e~~~:r:

coámprar q:~e:~:::~:s:rd:c~:e:~!~:t~::::::~o:;::: }b sica. Pero no apunté correctamente los datos, solo sabía el primer apellido del autor, la editorial y el año. Además el año era incorrecto, lo que complicó la búsqueda. Mi primer paso fue ir a una librería que aón no había abierto así que acudí a la biblioteca para buscar el título correcto del libro. Gracias a la búsqueda en el catálogo de la biblioteca

Localizar bibliograf(a

Ubrerfa Biblioteca

descubrí el nombre completo del autor ya que sólo había un autor con ese apellido que escribiera sobre Documentación. Pero tenía dos publicaciones en distintos años y ninguno

Compañero

coincidía con el que yo había apuntado en clase. Entonces recurrí a un compañero, el cual no supo decirme el año pero sí parte del título que me aclaraba cuál de las dos publicaciones me interesaba más para la asignatura.

Tenfa que pedir la beca de Generalltat Valenciana y necesitaba información de cómo hacerlo. Quise saber la documentación que pedfan para acceder a ella por lo que ful a la secretaríade la facultad.Allí me dieronla URLdondepodíabajarme e imprimirformularlode solicitud. Paraasegurarmede que realmentehabía que hacerloasí preguntéa un compañeroque sabíaque lo habfahechoantes.Él me lo confirmóy entoncesentréen la web. Al principiotuve problemasy la página no se abría, lo Intenté más tarde y tampocofuncionaba.Al final tuve que Ir a la consellerla paraque me dieranel formularlo.

Solicitud de beca Secretaría

Compañero Web Accesibilidad

ración de conocimiento (Elo y Kyngas, 2008). La tabla 32 muestra la agrupación de códigos obtenidos en la codificación abierta del cuadro 41 en tres grandes categorías: problemas de información, recursos y barreras para obtener la información. Tabla 32. Agrupación de códigos en categorías en un análisis de contenido Problemasde información Localizar bibliografía Solicitud de beca

Recursos Librería Biblioteca Compañero Web

Barreras Accesibilidad


[278]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

En opinión de Bardin (1986) un buen sistema de categorización es aquel en que las categorías son mutuamente excluyentes (cada elemento solo puede ser asignado a una sola categoría), homogéneas (determinadas por un criterio común), pertinentes para el objetivo de la investigación, objetivas (fragmentos similares deben codificarse siguiendo las mismas pautas) y productivas, es decir, que aporten algo a la investigación. Por otra parte, puesto que la pregunta de investigación inicial debe guiar el proceso de AC, el sistema de categorías debería desarrollarse conforme a dicha pregunta de investigación. Un ejemplo de la correspondencia entre pregunta de investigación y categorías de análisis lo podemos encontrar en el trabajo de Sairanen y Savolainen (2010), que tuvo como objetivo estudiar la evitación de la información sobre salud. En concreto, las peguntas de investigación fueron tres: cuál es el grado de evitación de la información en salud, por qué y qué estrategias se emplean. Para ello se realizaron entrevistas semiestructuradas con nueve estudiantes de la Universidad de Tampere, escogidos porque, por una parte, tenían riesgos de salud (agotamiento, depresión, disminución de la actividad física y mala alimentación), aunque, por otra parte, tenían conciencia de estar sanos e inmunes a las enfermedades por su juventud. Los resultados de las entrevistas fueron analizados por medio del AC con un enfoque inductivo. Es decir, las categorías desarrolladas estaban basadas en los datos y dirigidas a responder a las tres preguntas de investigación que habían motivado el estudio (tabla 33 ). Tabla33. Categorías obtenidas por Sairanen y Savolainen (2010) del análisis de contenido de las entrevistas sobre evitación de información sobre salud

Preguntas de investigación

Categorías

Grado de evitación

Evitación amplia. Evitación selectiva. Voluntad de evitar las emociones negativas. Voluntad de evitar la información que no es adecuada para las necesidades. Retirada intencional de las situaciones sociales que podrían exponer a la información no deseada. Acceso a fuentes de información de forma selectiva. Evitación de los profesionales de la salud. Abstenerse de pensar en los problemas de salud.

Razones para la evitación

Estrategias de evitación

B) Enfoque deductivo

Una aproximación deductiva al AC parte de supuestos previos sobre los aspectos investigados. Estos presupuestos pueden ser la propia experiencia, investigaciones


11. ANÁLISIS DE DATOSCUALITATIVO

[279]

previas o teorías o modelos previamente establecidos por otros investigadores. En el caso de una aproximación deductiva, el primer paso consiste en la determinación del sistema de categorización que va a servir como punto de partida al análisis de la información. A partir de la lectura del texto objeto de análisis, se irán asignando a cada unidad de registro el código y la categoría del esquema previamente definido. El estudio de Meho (2001) y Meho y Tibbo (2003) es un ejemplo de esta forma de proceder en cuanto análisis de contenido con un enfoque deductivo. El principal objetivo de esta investigación fue explorar y analizar las necesidades de información y el comportamiento de búsqueda de información de los científicos sociales que se dedican al estudio de las naciones sin estado. Un segundo objetivo buscaba comparar y contrastar los resultados con el modelo de comportamiento informacional de los científicos de David Ellis (1989). Este modelo describe las diferentes conductas observadas en los científicos cuando buscan información (tabla 34). Tabla 34. Categorías conductuales del modelo de búsqueda de información de Ellis ( 1989) STARTING (comienzo) CHAINING (encadenado) BROWSING (examen u ojeo) DIFFERENTIATIN G (diferenciación) MONITORING (seguimiento o vigilancia) EXTRACTING (extracción)

La información obtenida por medio de entrevistas en el estudio de Meho fue analizada en una primera fase partiendo de las categorías del modelo de Ellis (1989). Es decir, las diferentes conductas relacionadas con la búsqueda de información fueron asignadas a una de las seis categorías conductuales descritas por Ellis. Este planteamiento sigue las pautas de un análisis de contenido en el que el proceso de codificación y categorización posterior parte de un modelo teórico previo y, por lo tanto, asume un enfoque deductivo. Pero, tras esta primera fase en la que se adoptó un esquema de codificación previo, en las siguientes fases se desarrolló un esquema más amplio fundamentado en los datos y con categorías que describieran con más detalle la información obtenida. Es decir, un enfoque inductivo. De esta manera, además de las categorías iniciales, del estudio emergieron cuatro nuevas: Accesing: acceso a la información previamente localizada. Verifying: verificación de la exactitud de la información encontrada.


[280]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

Figura 16. Modelo de comportamiento informacional de Meho (2001)

Starting, Chaining,Browsing,Monitoring Differentiating,Extracting,Networking 1

Searching ~ .s Q)

u,

l\1.s .s

m e

ea>~e:~ ..

·ª 1 .g

Q)

:.:: ~-1::! e: tlS §

~<o;

cSe: .s ~~i ...,, tlS tlS .s E e: 't3 ~ ~ ~e~

!,,,;;: r:::'>JI ~ llJ c;:ñ,!::!

-.s ~-S; .s ~s .s 'i ~ ~

o

DirectSources

lndirect Sources o

z

.5

1

¡~

z

t

Yes

ProceLsslng ..

t

1

~

JAccesing----J ~

0

:s CI)

Endlng

Networking: estar en contacto con otras personas interesadas en el mismo tema con el fin de intercambiar información. lnformation managing: actividades relacionadas con registrar, archivar y organizar la información recopilada.

Además de determinar estas categorías conductuales, Meho las agrupó en cuatro etapas interrelacionadas, es decir, cada una de esas conductas fue asociada con una etapa del proceso de búsqueda de información. Las cuatro etapas son las siguientes: Searching: el periodo en que se identifican los materiales potencialmente relevantes a través de diversos medios. Accesing: etapa puente entre la búsqueda y procesamiento, especialmente cuando las fuentes que se utilizan son fuentes de información indirecta. Processing: se llevan a cabo la síntesis y el análisis de la información recogida. Ending: etapa final que marca el final del ciclo de investigación de un proyecto.

Este proceso de análisis dio lugar a la construcción de un modelo teórico de comportamiento informacional basado en un modelo previo, el de Ellis, así como en datos empíricos obtenidos por este investigador (figura 16).


11. ANÁLISISDE DATOSCUALITATIVO

I r.2.2.4.

[281]

CRITERIOS DE CONFIABILIDAD EN EL ANÁLISIS DE CONTENIDO

Los criterios a partir de los cuales se asegura la confiabilidad del AC no difieren de los expuestos para la investigación cualitativa en el primer capítulo de este libro (credibilidad, transferibilidad, dependibilidad y confirmabilidad). No obstante, en el caso concreto de esta técnica de análisis, diversos autores como Graneheim y Lundman (2004), Elo y Kyngas (2008) y Zhang y Wildemuth (2005) ofrecen consideraciones específicas que hay que observar. Estas se resumen en tres: ~

~

~

Se debe establecer una definición clara de los códigos y de las categorías que van emergiendo o que son consideradas de forma deductiva, así como de los procedimiento de asignación de estos códigos y categorías para homogeneizar el proceso de análisis en el caso de que haya más de un investigador. Es posible también determinar el grado de acuerdo entre investigadores respecto a la asignación de categorías con el fin de determinar la validez interna del proceso. Es necesario demostrar la conexión entre los datos y los resultados a través de una descripción detallada y transparente de todo el proceso e ilustrada, en la medida de lo posible, con explicaciones sobre el significado de las categorías o citas textuales al texto, por ejemplo. Se trata de que quien lo lea entienda perfectamente cómo transcurrió el proceso y pueda valorar sus fortalezas y limitaciones.

11.3. TEORÍA FUNDAMENTADA

11.3.1. Introducción

La teoría fundamentada (TF) es un método de análisis de datos cualitativos que tiene su origen en el trabajo de los sociólogos Barney Glaser y Anselm Strauss, en concreto en sus estudios sobre la experiencia de la muerte en los hospitales. Esta investigación tuvo gran impacto en el ámbito de las ciencias sociales y, como respuesta a la curiosidad que había levantado el modo en que la llevaron a cabo, en el año 1967 publican el libro The discovery of grounded theory. En él presentan la TF y constituye el primer texto de referencia para su estudio. De acuerdo con Strauss y Corbin (1998), este libro tuvo tres objetivos: ofrecer un fundamento de la teoría fundamentada, generada y desarrollada a través de la interacción con los datos recogidos en los proyectos de investigación, sugerir la lógica y los detalles de las teorías fundamentadas y legitimizar una investigación cualitativa cuidadosa.


[282]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

A partir de este momento, la TF se ve secundada por numerosos trabajos, fruto de las enseñanzas de Glaser y Strauss en los estudios de posgrado. Esto da lugar al desarrollo de diversas investigaciones centradas, por ejemplo, en la socialización profesional, los foros de política, los nuevos matrimonios después del divorcio, la gestión de un embarazo peligroso, la donación de óvulos del ovario entre hermanas, el abuso conyugal, las experiencias con enfermedades crónicas o el trabajo de los científicos (Strauss y Corbin, 1998). Tras esta primera colaboración, ambos autores publicaron nuevos trabajos que ampliaron las ideas originales sobre la TF. Por una parte, Glaser publica en 1978 Theoretical Sensitivity, donde ahonda en la sensibilidad teórica o la capacidad del investigador de elaborar conceptos y formular teoría basándose en los datos. Por otra parte, Strauss publica en 1987 Qualitative analisys for social scientists, donde profundiza en los procedimientos de la TF. Tras estas primeras publicaciones, ambos investigadores emprenden caminos marcadamente diferentes, hecho motivado en gran medida por la publicación en 1990 de la primera edición del libro Basics of Qualitative Research: Grounded Theory Procedures and Techniques, en el que Strauss y Corbin presentan los procedimientos analíticos de la TF. Como respuesta a este, Glaser publica Basics of Grounded Theory Analysis: Emergence vs Forcing, como crítica por haberse apartado, según él, de los principios que inspiraron la TF. En opinión de Trinidad, Carrero y Soriano (2006), a partir de este momento empieza a hablarse de dos versiones de la TF: la glaseriana, fiel a los principios de descubrimiento a partir de los datos, y la straussiana, orientada a un trabajo de investigación más enraizado en la descripción interpretativa que en la construcción de teoría formal emergente. No obstante, como alternativa a estas primeras versiones de la TF han surgido otras como por ejemplo la versión constructivista de Charmaz (2006), que sigue fiel a los principios de esta pero profundizando en el papel del investigador en el proceso de investigación. Fruto de esta diversidad de planteamientos surge el primer problema a la hora de exponer los fundamentos de la TF pues existen diferencias tanto en un nivel superficial, en cuanto al lenguaje empleado y los procesos que se siguen, como en las asunciones metodológicas que guían estos procesos. No obstante, tal y como afirman Walker y Myrick (2006) al referirse a las versiones de Glaser y Strauss, existen elementos comunes como la codificación, la comparación constante, las preguntas, el muestreo teórico y los memos en el proceso de generar teoría. Además, ambas versiones siguen una serie de fases como son reunir datos, codificar, comparar, clasificar, el muestreo teórico, el desarrollo de una categoría central y la generación de una teoría. Concretamente, Charmaz (2006), a la vista de los escritos precedentes de Glaser y Strauss, determina que los componentes definitorios de la TF son los siguientes:


11. ANÁLISISDE DATOSCUALITATIVO

<1111

<1111

<1111

<1111

<1111

<1111

<1111

[283]

Simultaneidad de la recogida y análisis de datos. Construcción de códigos y categorías analíticas a partir de los datos, no a partir de hipótesis preconcebidas deducidas lógicamente. Utilización del método comparativo constante, lo que implica la realización de comparaciones en cada etapa del análisis. Avanzar el desarrollo de la teoría en cada paso de la recolección y análisis de datos. Redacción de memos para la elaboración de categorías, para determinar sus propiedades, definir las relaciones entre las categorías y determinar las deficiencias. Muestreo dirigido hacia la construcción de teorías, no hacia la representatividad de la población. Llevar a cabo la revisión de la literatura después de desarrollar un análisis independiente.

No es propósito de este texto ahondar en las divergencias y/o similitudes de las distintas versiones de la TF; para un estudio más al detalle de esta cuestión se aporta literatura de referencia. Sí lo es hacer hincapié en los procedimientos básicos y en la aplicación que para el estudio del comportamiento informacional ha tenido o puede tener la TF.

11.3.2. La teoría fundamentada para el estudio del comportamiento informacional El enfoque que la TF da a la investigación social ha permitido que, a lo largo de los últimos años, haya contribuido en gran medida al desarrollo de una base teórica de los estudios sobre comportamiento informacional. Si en los años ochenta el principal escollo que debía salvar esta línea de investigación era la falta de una base conceptual y teórica que fundamentara su consolidación (Wilson, 1994 ), actualmente es posible afirmar que, en el contexto de la información y documentación, es la línea que posee mayor desarrollo teórico (McKechnie, Pettigrew y Joyce, 2001) y a ello ha contribuido en parte la TF. Uno de los primeros desarrollos en este sentido es la teoría de la ansiedad en la biblioteca (/ibrary anxiety), propuesta por Constance Mellan. El desarrollo de esta teoría partió de la información proporcionada por estudiantes universitarios sobre la búsqueda de información en la biblioteca, información recopilada por medio de diarios personales. Aparte de las cuestiones relacionadas con el proceso de búsqueda, los estudiantes describían su interacción inicial con la biblioteca en términos de miedo o ansiedad. Las palabras miedo, abrumadora, perdido, impotente, confundido y el


[284)

MÉTODOS Y TÉCNICAS PARALA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

miedo a lo desconocido aparecían frecuentemente cuando estos estudiantes relataban sus sentimientos con relación al uso de la biblioteca (Mellon, 1986). Otro ejemplo de desarrollo de un marco teórico para el estudio del comportamiento informacional es el modelo de recuperación de información de David Ellis (1993) ya mencionado anteriormente. Este investigador determinó que existen diversas características en la conducta del individuo cuando busca información que pueden constituir patrones, más o menos generalizables, y que pueden ser utilizados como recomendación para el diseño y evaluación de sistemas de recuperación de la información. Si estos patrones conductuales se analizan y el sistema de recuperación es capaz de reflejar esas características, entonces el usuario podrá reproducir sus propios patrones de búsqueda mientras interactúa con el sistema de información. En ambos casos, el proceso de investigación seguido fue inductivo basado en el análisis de los datos obtenidos. El proceso contrario, desde una óptica deductiva, habría partido del establecimiento de una serie de hipotéticas categorías inventadas, supuestas u observadas de forma no sistemática y el proceso de investigación se hubiera dirigido hacia la comprobación de esas categorías. Este planteamiento, en una fase exploratoria de la investigación, provocaría la perdida de información que, por partir de supuestos apriorísticos, no se contemplaría recoger en un principio. Por el contrario, asumir el enfoque de la TF permitió incorporar a la teoría final toda la riqueza de la información proporcionada por los informantes. Pero, además, en ambos casos el desarrollo teórico no se queda en eso, en teoría, sino que deriva en un modelo que permite desarrollar estrategias de intervención concretas. En el caso de Mellon, para el desarrollo de programas de formación de usuarios, en el de Ellis para el diseño de sistemas de recuperación de información. Más recientemente, la TF para el estudio del comportamiento informacional sigue utilizándose, sobre todo en el ámbito de la información en salud, no en vano el origen de la TF se ubica en ese contexto tal y como se ha descrito anteriormente. Es el caso del trabajo de Adams y Blandford (2002), que investiga la aceptabilidad de las bibliotecas médicas digitales, el de Embi, Yackel y Logan (2004), que describe el impacto percibido por los médicos debido a la implantación de un sistema de documentación computerizado en las actividades docentes y clínicas, o el de McKnight (2007), que investiga el comportamiento informacional de las enfermeras. Igualmente existen estudios que utilizan la TF en otros ámbitos como el académico, por ejemplo, el trabajo de Mansourian (2008) que estudia la influencia del contexto en la interacción de los usuarios con sistemas de búsqueda web. También en el ámbito organizacional como el trabajo de Correia y Wilson (2001 ), que investiga los factores que influyen en el escaneado del entorno en diversas empresas. Por último, también existen trabajos que se centran en el estudio del comportamiento informacional de la vida cotidiana


11. ANÁLISISDE DATOSCUALITATIVO

[2851

como el de Ostrander (2008), que observa la conducta de búsqueda de información en Second Life.

11.3.3. Elementos básicos de la teoría fundamentada El objetivo de la TF es generar teoría a partir de los datos obtenidos en contextos naturales a través de un proceso inductivo que refleje una realidad, no la realidad, a través de la estrategia del método comparativo constante. En la TF, los supuestos teóricos se descubren y formulan al relacionarse con el campo y emergen de los datos empíricos que se extraen de él. Como afirma Flick (2004 ), el propósito no es reducir la complejidad de la realidad observada a variables, sino, al contrario, aumentarla incluyendo el contexto. Desde esta perspectiva, el proceso de investigación transcurre de forma que la recogida y análisis de datos se hace de forma simultánea y recurrente, sirviéndose para ellos de diversas estrategias como el muestreo teórico, la saturación teórica, el método comparativo constante y diversos procedimientos de codificación. A continuación se describen estos elementos básicos de la TF. I

1.3.3.1.

MUESTREO

Y SATURACIÓN TEÓRICA

Strauss y Corbin (1998) definen el muestreo teórico como la recolección de datos guiada por los conceptos derivados de la teoría que se está construyendo y basada en el concepto de «hacer comparaciones», cuyo propósito es acudir a lugares, personas o acontecimientos que maximicen las oportunidades de descubrir variaciones entre los conceptos y que hagan más densas las categorías en términos de sus propiedades y dimensiones. Una descripción detallada con relación a otras técnicas de muestreo no probabilístico aparece en el capítulo l. El muestreo teórico es uno de los pilares básicos del proceso de investigación según la TF ya que, lejos de establecer las pautas a priori sobre los casos o incidentes que será necesario observar, la selección de más casos transcurre de forma paralela y guiada por el análisis de la información previamente obtenida y por los conceptos y categorías derivados de tal análisis. El muestreo teórico busca la selección de nuevos incidentes o casos, no de nuevos informantes. O, dicho de otra manera, se seleccionan nuevos informantes en la medida en que aportan nueva información para el desarrollo de la investigación. Esta nueva información se busca con el objetivo de maximizar las oportunidades de comparar acontecimientos, incidentes o sucesos para contrastar y enriquecer el análisis que se está realizando. Por ejemplo, un investigador estudia el uso que hacen de la información los estudiantes universitarios. Tras el análisis inicial de una serie de entrevistas, determina


[286]

MÉTODOS Y TÉCNICAS PARALA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

que existe una categoría que es «uso de información informal» y surge la idea de que esa categoría varía en función del grado que cursen los estudiantes, del área de conocimiento y del centro donde realicen sus estudios. Entonces el investigador realizará nuevas observaciones en otros grados, áreas de conocimiento y centros para buscar similitudes y diferencias que permitan consolidar esa categoría. Strauss y Corbin ( 1998) afirman que el muestreo teórico está condicionado tanto por la sensibilidad del investigador como por la fase de análisis en la que se encuentre la investigación. En primer lugar, la sensibilidad del investigador apunta a uno de los conceptos principales de la TF, la sensibilidad teórica. Se entiende por sensibilidad teórica la pericia del investigador para elaborar conceptos y formular teorías basándose en los datos (Valles, 1999) o como explican Strauss y Corbin (1998): Tener sensibilidad significa ser capaz de penetrar y dar significado a los acontecimientos y sucesos que muestran los datos. Significa ver más allá de lo obvio para descubrir lo nuevo.

Esta cualidad del investigador se da cuando trabaja con los datos, hace comparaciones, formula preguntas y sale a recoger más datos. Por medio de estos procesos alternos de recolección y análisis de datos, los significados que a menudo son engañosos al comienzo, se vuelven más claros. Sumirse en el análisis lleva a esas comprensiones súbitas, a ese «ajá», tan familiar a quienes hacemos investigación cualitativa.

Respecto a la segunda cuestión, como se verá más adelante, el proceso de análisis en la TF está concebido como un proceso no lineal sino iterativo, en el que, como afirma Bernard y Ryan (2010), la codificación comienza con la primera línea de la primera entrevista realizada. En los primeros momentos, el análisis tendrá como objetivo la búsqueda de categorías que describan los conceptos identificados en los datos, por lo tanto el muestreo teórico irá encaminado a obtener casos de forma amplia y exhaustiva. Más adelante, las categorías identificadas previamente deberán ser relacionadas y consolidadas, por lo que el muestreo se dirigirá a contrastar estas categorías. Por último, en el momento en que las categorías están consolidadas y establecidas las relaciones entre ellas, el muestreo teórico se dirigirá a: a) validar el producto del análisis y b) saturar las categorías, dicho de otra forma, buscar la saturación teórica. La saturación teórica es el punto en el que la obtención de más datos acerca de una categoría teórica no revela nuevas propiedades y, por lo tanto, es el signo de que no son necesarios más casos (Charmaz, 2006). I

1.3.3.2.

MÉTODO

DE COMPARACIÓN CONSTANTE

El método de comparación constante es la principal estrategia de la TF. Proporciona un procedimiento para generar teoría a partir del análisis comparativo y sistemático de los incidentes observados. El método de comparación constante es descrito en cuatro etapas:


11. ANÁLISISDE DATOSCUALITATIVO

[2871

comparación de incidentes y su categorización, integración de categorías y sus propiedades, delimitación de la teoría y, finalmente, escritura de la teoría (Glaser y Strauss, 1967). Según este proceso, una vez obtenidos los primeros datos, la fase inicial del análisis es la comparación de la información obtenida asignándole una denominación común a un conjunto de fragmentos que desarrollen una idea común (Valles, 1999). Es decir, codificar esos fragmentos y establecer categorías que agrupen una serie de conceptos. A la vez se van escribiendo notas, memorandos o memos con las ideas que van surgiendo basadas en los datos en el transcurso del análisis. Estos memos se elaborarán durante todo el análisis y servirán para ir conformando la teoría. En segundo lugar, tras el desarrollo de diversas categorías y la redacción de más memorandos, dichas categorías se compararán buscando refinar sus propiedades o bien integrándolas en otras categorías. De forma paralela, se buscarán nuevos datos para integrarlos y para que ayuden a delimitar esas categorías a través del muestreo teórico. En tercer lugar, la delimitación teórica, consistirá en clarificación conceptual de las categorías y en desestimar aquellas propiedades menos relevantes. Reducir las categorías y dotarlas de mayor significado ayudará a centrar la investigación y a realizar las comparaciones de sucesos entre aquellas categorías seleccionadas. Por último, en la cuarta etapa, la escritura de la teoría, donde a partir de la información codificada, los memorandos con las notas de la investigación y una propuesta teórica con las categorías y sus relaciones fruto de los sucesivos análisis y comparaciones, se redactará el informe de investigación. Estas etapas describen el proceso de investigación en la TF y los instrumentos con los que se avanza en esa comparación constante son los distintos procedimientos de codificación. II

.3.3.3. CODIFICACIÓN

En la TF el proceso de análisis de la información recogida se realiza por medio de diversos procedimientos de codificación a través de los cuales los datos se fracturan, conceptualizan y se integran para formar teoría (Matavire y Brown, 2008). Se trata de la codificación abierta, axial y selectiva. La figura 17 ilustra estos procedimientos. a)

Codificación abierta

En primer lugar, la codificación abierta se define como el proceso analítico por medio del cual se identifican los conceptos y se descubren en los datos sus propiedades y dimensiones (Strauss y Corbin, 1998). En esta fase inicial de codificación, los fragmentos (palabras, líneas o incidentes) de los datos recogidos son analizados, comparados unos con otros, agrupados en conceptos similares y etiquetados con un código.


[288)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

Figura 17. Niveles de codificación en la teoría fundamentada (adaptado de Harwood, 2001)

Conceptos Codlgos

Subcategoría categoría Propiedades Proflndlzaclón y Categorías: dimensiones Cuando? Porqué? Como? Dónde?

...--

........

r=-t---41"\

Codificación selectiva

Codificaciónaxial

Codificaciónabierta

~

', ' ...·········~·· ,' \::····

'>'

Descubrirla categoría central

Descubrirlas relacionesentre categorías

,'

·..

...

Y·· ../·c==>·.. -~ ''-::/

·--~

---,:l<-b--------

"' -----

Boeije (2010) descompone en ocho tareas este proceso de identificar y codificar conceptos de la codificación abierta: • • • • • • • •

Leer el documento completo. Releer el texto línea a línea y determinar el principio y fin del fragmento. Determinar por qué este fragmento es un todo significativo. Juzgar si el fragmento es relevante para la investigación. Asignar un nombre apropiado para el fragmento, es decir, un código. Asignar este código al fragmento del texto. Leer todo el documento y codificar todos los fragmentos relevantes. Comparar los distintos fragmentos para detectar fragmentos que deberían tener el mismo código.

Tras codificar una serie de conceptos, Strauss y Corbin (1998) consideran que en el curso del análisis, el analista percibe que «varios conceptos se pueden agrupar bajo un orden abstracto más elevado, basado en su capacidad de explicar lo que está sucediendo». Es decir, conceptos similares se pueden agrupar en categorías que posteriormente serán analizadas en detalle para desarrollar sus propiedades y dimensiones. Las propiedades son las características que delimitan una categoría, mientras que las dimensiones son aspectos que modifican las características generales de esa categoría.


[289]

11. ANÁLISISDE DATOSCUALITATIVO

A su vez, cada categoría puede ser más especificada con el desarrollo de subcategorías que responden a preguntas como cuándo, dónde, por qué, cómo o consecuencias respecto al fenómeno de cada categoría. El resultado de este proceso es un esquema de codificación que contiene la lista de códigos. Un ejemplo del proceso de identificación de conceptos y su codificación, agrupación de conceptos en categorías y subcategorías con sus propiedades y dimensiones podemos encontrarlo en el trabajo de Mutshewa (2010). En él se presenta un modelo teórico que describe el uso de la información por los planificadores ambientales, es decir, funcionarios públicos que toman decisiones con relación a los recursos naturales de un país. El proceso inicial de análisis resultó en la obtención de ocho categorías principales. Una de estas categorías principales fue Patrón de uso de la información. Esta categoría surgió a partir de la agrupación de 8 conceptos y categorías diferentes (columna A, tabla 35), se definieron sus propiedades y dimensiones (columna B, tabla 35) y todo ello originó la definición de una categoría principal (columna C, tabla 35), Patrón de uso de la información, con tres subcategorías: packaging de información, adquisición y verificación de la información y difusión de información (tabla 35). Tabla 35. Proceso de codificación abierta en la teoría fundamentada (adaptado de Mutshewa, 2010)

1

A Conceptos y categorías iniciales

B Propiedades o dimensiones

c Categoría principal y subcategorias Patrón de uso de la información.

Obtención de información.

DERNIClóN:tareas de información, acciones y actividades que se caracterizan por formas de adquisición, Packaging de información. packaging y verificación de la Adquisición y verificación de la información. información. Estas categorías definen las actividades Difusión de información. reales que los planificadores hacen en relación a la información.

Intercambio de información/ planificador como un transmisor de información/compartir información

Los siguientes son subcategorías amplias que definen las actividades que son realizadas por los planificadores en relación a la información:

Packaging de información/ extracción de información/apoyo a las actividades de expertos/ producción de productos de información.

Adquisición de la información y verificación de la información.

Adquisición de la información. Recopilación de información/ fuentes de información. Difusión y recepción de información. Solicitud de información.

Verificación de la información/ comparación de información/ orientación frente a la desinformación.

Packaging de información.

Dar información.

Estas subcategorías definen un patrón de actividades que caracterizan la forma de manejar la información.


1290)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

b) Codificación axial

Si durante la codificación abierta se fracturan los datos en busca de conceptos y categorías, a través de la codificación axial, los datos se reagrupan. Se denomina axial porque la codificación ocurre alrededor del eje de una categoría y enlaza las categorías en cuanto a sus propiedades y dimensiones, es decir, es un proceso en el que se relacionan las categorías con sus subcategorías para formar categorías más precisas y densas. La codificación axial no se realiza con posterioridad a la codificación abierta, sino que, una vez definidas una serie de categorías a través de la codificación abierta, se busca las relaciones entre ellas. Es decir, pueden ser procesos que transcurran de forma paralela. Strauss y Corbin (1998) describen la codificación axial como la realización de las siguientes tareas: a) explicar las propiedades de una categoría y sus dimensiones; b) identificar condiciones, acciones/interacciones y consecuencias asociadas con un fenómeno descrito por la categoría; e) relacionar una categoría con sus subcategorías por medio de oraciones que denoten las relaciones de unas con otras; d) buscar claves en los datos que denoten como se pueden relacionar las categorías principales entre sí. Con la codificación axial se obtiene un esquema que facilita una mejor comprensión de los fenómenos y proporciona un camino para configurar la categoría central. La categoría central es aquella categoría que podemos considerar más importante para la investigación. Strauss (1987) enumera los siguientes criterios para juzgar una categoría como central: .,.. Debe ser realmente central, es decir, relacionada con otras categorías y sus propiedades lo máximo posible . .,.. Debe aparecer frecuentemente en los datos, es decir, es un patrón estable . .,.. Se relaciona fácilmente con otras categorías y esta relación no tiene que ser forzada. Dado el grado de relación con otras categorías, la central tarda más en saturarse . .,.. Su denominación debe ser lo suficientemente abstracta como para que pueda ser utilizada en otra área de investigación, permitiendo que lleve al desarrollo de una teoría más general. .,.. A medida que los detalles de una categoría central se resuelven analíticamente, la teoría avanza notablemente. Tal y como se ha mencionado anteriormente, el análisis realizado por Mutshewa (2010) derivó en la obtención de ocho categorías principales. Para cada una de esas categorías se definió el qué, cuándo, dónde, por qué, cómo y la consecuencia. Este


11. ANÁLISISDE DATOSCUALITATIVO

(291]

proceso buscó determinar la relación entre las categorías. En la tabla 36 se describen estos aspectos para la categoría Patrón de uso de la información, de la que previamente se ha descrito su emergencia a través de la codificación abierta (tabla 35). Tabla 36. Proceso de codificación axial en la teoría fundamentada (adaptado de Mutshewa, 2010) Categoría

principal

PATRÓNDE USO DE LA INFORMACIÓN

QUÉ Define las actividades conductuales observables de los planificadores durante el curso de un proyecto. Crear un ambiente propicio para la interpretación de las situaciones por los stakeholders. CUÁNDO A lo largo del tiempo de vida del proyecto. DÓNDE

Lugar de realización del proyecto, el contexto de información del proyecto, el centro de información. POR QUÉ Acción para facilitar la planificación del medio ambiente; realizar su trabajo. CóMO Información para la acción, tareas y actividades. Extracción, clasificación y resumen de información, traducción, recogida y recopi!ación de información, verificación de la información, difusión de la información. CONSECUENCIA

Poder informacional fuerte, valor de la información, permitir acciones, permitir planificación ambiental, planificador se convierte en el distribuidor de información, la participación de los planificadores cobra sentido, los stakeholders vinculados con la información, se hace posible más adquisición de información, más poder de negociación para los planificadores, interpretación del problema ambiental de los planificadores, solo la información relevante se da a las partes interesadas.

c) Codificación selectiva

Por último, el tercer procedimiento de codificación definido en la TF es la codificación selectiva. El lugar que ocupa en todo el proceso es descrito por Strauss y Corbin (1998) de la siguiente forma: En la codificación abierta, el analista se preocupa por generar categorías y sus propiedades y luego busca determinar cómo varían en su rango dimensional. En la codificación axial, las categorías se construyen de forma sistemática y se ligan a las categorías. No obstante, solo cuando las categorías principales se integran finalmente para formar un esquema teórico mayor, los hallazgos de la investigación adquieren la forma de teoría. La codificación selectiva es el proceso de integrar y refinar las categorías.


[292]

MÉTODOSY TÉCNICASPARALA INVESTIGACIÓNDEL COMPORTAMIENTOINFORMACIONAL

Por lo tanto, a través de la codificación selectiva se revisan y actualizan las categorías integrando los conceptos entorno a la categoría central y construyendo la teoría final. 11.3.3-4-

TEORÍA SUSTANTIVA Y TEORÍA FORMAL

Como se ha mencionado previamente, el objetivo básico de la TF es la emergencia de teoría de los datos recogidos durante el proceso de investigación social. Glaser y Strauss (1967) destacan como los principales objetivos de la teorización en sociología, entre otros, el permitir la predicción y explicación de la conducta y el contribuir al avance teórico de la disciplina. Glaser y Strauss (1967) distinguen dos tipos de teoría, la sustantiva y la formal, dependiendo del grado de desarrollo alcanzado. En palabras de estos investigadores: «[... ] por teoría sustantiva entendemos aquella desarrollada para un área sustantiva o empírica de la sociología tal como el cuidado del paciente, las relaciones de razas, la formación profesional, delincuencia o organizaciones de investigación». Se trata de áreas específicas donde estos investigadores habían trabajado. Igualmente, por teoría formal entienden «el desarrollo de un área formal o conceptual de la sociología, tales como el estigma, la conducta desviada, la organización formal, la socialización, la congruencia de estado, la autoridad y el poder, los sistemas de recompensa, o lamovilidad social». O, dicho de otra manera, la teoría formal explica fenómenos sociales de mayor amplitud La teoría sustantiva está basada en la investigación en un área social específica y su aplicación se limita a esa área de conocimiento. Tiene un carácter interino, pues da base conceptual a los interrogantes planteados en el curso de una investigación y son la base de una posterior construcción de teoría formal. La teoría sustantiva es la que deriva de una investigación específica y la teoría formal es la «gran teoría» elaborada a partir de diversas teorías sustantivas que han alcanzado un nivel conceptual sólido (Valles, 1999). Desde este punto de vista, la mayoría de modelos teóricos en el ámbito del estudio del comportamiento informacional podrían considerarse teorías sustantivas, ya que son el resultado de un proceso de investigación en un ámbito en concreto a pesar de que en raras ocasiones se refieran a esos modelos de tal forma. Una excepción es el trabajo de Mccaughan y Mckenna (2007), en el que proponen una teoría sustantiva de forma explícita que describe el comportamiento informacional de los pacientes recién diagnosticados de cáncer. En la mayor parte de las ocasiones la propuesta teórica que deriva de los estudios basados en la teoría fundamentada es denominada como modelo, categorías emergentes, marcos teóricos, teorías o categorías centrales (González Teruel y Abad González, 2012).


11. ANÁLISISDE DATOSCUALITATIVO

(2931

11.4. RESUMEN

El proceso de análisis de datos cualitativos es un proceso de búsqueda sistemática y de organización de las transcripciones de entrevistas, las notas de campo y otros materiales que el investigador recopila para aumentar su propia comprensión y presentar lo que ha descubierto a los demás. El análisis consiste en trabajar con los datos, su organización, la división en unidades manejables, la síntesis, la búsqueda de patrones, el descubrimiento de lo que es importante y la decisión de lo que se comunicará a los demás. Existen diversas tradiciones en el modo de abordar el análisis de datos cualitativos y es una materia que dista mucho de estar tan sistematizada como el análisis cuantitativo. Una clasificación de los distintos tipos de análisis cualitativo distinguen dos tradiciones. Una tradición arraigada en la sociología que trata el texto como ún medio de acceder a la experiencia humana y otra, que se enmarca en la tradición lingüística, que aborda el texto como objeto de análisis en sí mismo. En la consideración del texto como ventana a la experiencia de la tradición sociológica, además se distingue entre aquellas técnicas que analizan el texto obtenido por medio de técnicas de obtención de información como entrevistas (elicitación sistemática) y aquellas que parten del texto libre no generado ad hoc o proveniente de preguntas abiertas de entrevistas (texto libre). En este último caso, además se distinguen las técnicas orientadas a la reducción del texto a palabras y aquellas orientadas a la traducción de palabras en códigos. En el ámbito de la información y documentación las técnicas más frecuentemente utilizadas son el análisis de contenido y la teoría fundamentada. El análisis de contenido es definido por Piñuel Ragada (2002) como el conjunto de procedimientos interpretativos de productos comunicativos (mensajes, textos o discursos) que proceden de procesos singulares de comunicación previamente registrados, y que, basados en técnicas de medida, a veces cuantitativas (estadísticas basadas en el recuento de unidades), a veces cualitativas (lógicas basadas en la combinación de categorías), tienen por objetivo elaborar y procesar datos relevantes sobre las condiciones mismas en que se han producido aquellos textos, o sobre las condiciones que puedan darse para su empleo posterior. Este epígrafe se centra en el análisis de contenido cualitativo, que es definido por Mayring (2000) como una aproximación empírica y metodológica al análisis de textos en su contexto de comunicación siguiendo unas reglas analíticas de contenido sin cuantificación. El objetivo de la teoría fundamentada es generar teoría a partir de los datos obtenidos en contextos naturales a través de un proceso inductivo que refleje una realidad, no la realidad, a través de la estrategia del método comparativo constante. En la teoría fundamentada, los supuestos teóricos se descubren y formulan al relacionarse


[294]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

con el campo y emergen de los datos empíricos que se extraen de él. Desde esta pers- pectiva, el proceso de investigación transcurre de forma que la recogida y análisis de datos se hace de forma simultánea y recurrente, sirviéndose para ello de diversas estrategias como el muestreo teórico, la saturación teórica, el método comparativo constante y diversos procedimientos de codificación.


BIBLIOGRAFÍA

ADAMS,A., y A. BLANDFORD (2002): «Acceptability of medical digital libraries», Health Informatics Jorm1al, 8(2), 58-66. ADLER,P. A., y P. Adler (1994): «Observacional techniques», en N. K. DENZINy Y. S. LJNCOLN (eds.): Handbook of qualitative research (pp. 377-392), Thousand Oaks, CA: Sage. ANDER-EGG, E. (1987): Técnicas de Investigación Social, México: El Ateneo. s.,l. RANDERS,E. NASLUND,D. STOCKELD y A. C. MATTIASSON (2006): «Patients' ANDREASSEN, experiences of living with oesophageal cancer», ]ournal of Clínica/ Nttrsing, 15(6), 685-695. (2005): «Family members' experiences, information needs and information seeking in relation to living with a patient with oesophageal cancer», Ettropean ]ournal of Cancer Care, 14(5), 426-434. J. E., K. A. PEARCE,C. IRESONy M. M. LovE (2005): «Information-seeking behaviors of ANDREWS, practitioners in a primary care practice-based research network (PBRN)»,Journal of the Medica/ Library Association, 93(2), 206-212. ANGUERA, M. T. (1990): «Metodología observacional», en J.ARNAU,M. T. ANGUERA y J. GóMEZ: Metodología de la investigación en Ciencias del Comportamiento (pp. 125-236), Murcia: Secretariado de Publicaciones de la Universidad de Murcia. (1995): «La observación participante», en A. AGUIRREBAZÁN(ed.): Etnografía. Metodología cualitativa en la investigación sociocttltttral (pp. 73-84), Barcelona: Bixaren Universitaria. (2003): «La observación», en C. MORENORossET (ed.): Evaluación psicológica. Concepto, proceso y aplicación en las áreas del desarrollo y de la inteligencia (pp. 271-308), Madrid: Sanz y Torres. H. y P. T. KNJGHT( 1999): lnterviewing for social scientists. An introductory resottrce with ARKSEY, examples, Thousand Oaks, CA: Sage. AsuNKA,S., H. S. CHAEy G. NATRIELLO (2011 ): «Towards an understanding of the use of an institutional repository with integrated social networking tools: A case study of PocketKnowledge», Library & Jnformation Science Research, 33(1), 80-88. BADER,G. E., y C. A. Ross1 (2002): Focus Groups: A Step-By-Step Guide (3." ed.), The Bader Group. BAKEMAN, R., y J. M. GoTTMAN(1989): Observación de la interacción: una introducción al análisis secitencial, Madrid: Morata. L. M. (1998): «Sense making in multiple sclerosis: The information needs of people during an BAKER, acure exacerbation», Qualitative Health Research, 8(1 ), 106-120. BALDWIN, N.S., y R. E. RICE(1997): «Information-seeking behavior of securities analysts: Individual and institucional influences, information sources and channels, and outcomes», Journal of the American Society for Jnformation Science, 48(8), 674-693. BARDIN,L. (1986): El análisis de contenido, Madrid: Akal. BARRIOS, M., T. CoscuLLUELAy J.TuRBANY(2008): «Estudio bibliométrico de la producción científica sobre encuestas en línea», V Congreso de Metodología de Encuestas, Córdoba: Consejo Superior de Investigaciones Científicas.


(296]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

BARRIOS, M., A. VJLLARROYA, A. BORREGO y c. ÜLLÉ(2011 ): «Response rates and data quality in web and mail surveys administered to PhD holders», Social Science Computer Review, 29(2), 208-220. BERG,B. L. (2001): Qualitative research methods for the social sciences (4." ed.), Boston: Allyn & Bacon. BERKNER D. S. (1979): «Library staff development through performance appraisal», College and Research Libraries, 40(4), 335-344. BERNARD, H. R. (2000): Social research methods. Qualitative and quantitative approaches, Thousand Oaks, CA: Sage. (2006): Research methods in anthropology: qualitative and quantitative approaches (4." ed.), Lanham: Altamira. y G. W. RYAN(2010): Analyzing qualitative data: systematic approaches, Newbury Park, CA: Sage. BERRYMAN, J. M. (2008): Judgements during information seeking: policy and research workers' assessments of enough information social sciences (tesis doctoral no publicada), Sydney: University of Technology. BtGGS,M. (1991): «The role of research in the development of a profession ora discipline», en C. McCLUREy P. HERNON(eds.): Library and information science research: perspectives and strategies for improvement, Information management, po/icy, and services (pp. 72-84), Norwood: Ablex. BLACK,E. (2009): «Web analytics: A picture of the academic library web site user», Journal of Web Librarianship, 3(1), 3-14. BLAKE,C., y W. PRATI(2006): «Collaborative information synthesis l. A model of information behaviors of scientists in medicine and public health», Journal of the American Society for Information Science, 57(13), 1740-1749. BLYTHE,J.,y J. A. RoYLE(1993) «Assessing nurses' information needs in the work environment», Bulletin of the Medica/ Library Association, 81 (4 ), 433-435. BOEIJE,B. (2010): Analysis in qualitative research, Los Ángeles, CA: Sage. BoGDAN,R. C., y S. K. BtKLEN(1982): Qualitative research for education: An introduction to theory and methods, Boston: Allyn and Bacon. BORREGO A., L. ANGLADA, M. BARRIOS y N. CoMELLAS (2007): «Use and users of electronic joumals at Catalan universities: The results of a survey»,Journa/ o/ Academic Librarianship, 33(1), 67-75. B0v1NG,K. B., y J. StMONSEN (2004): «Http log analysis. An approach to studying the use of web-based information systems», Scandinavian ]ournal of Information Systems, 16(1), 145-174. BROWNC. M. (1999): «Information seeking behavior of scientists in the electronic information age: Astronomers, chemists, mathematicians, and physicists»,Journal o/ the American Society for Information Science, 50(10), 929 -943. BRYANT, J., G. MATIHEWSy G. WALTON (2009): «Academic libraries and social and learning space: A case study of Loughborough University Library, UK», ]ournal of Librarianship and Information Science,41(1), 7-18. BucHANAN,B.,J. D. MooRE, D. E. FORSYTHE, G. CARENINI, S. ÜHLSSONy G. BANKS (1995): «An intelligent interactive system for delivering individualized information to patients», Artificial lntelligence in Medicine, 7(2), 117-154. K. J.,J.SEEHOLZER y J. SALEM(2009): «No Natives Here: A Focus Group Study of Student BuRHANNA, Perceptions ofWeb 2.0 and the Academic Library»,Journal of Academic Librarianship, 35(6), 523-532. BurrERFIELD,L. D., W. A. BoRGEN,N. E. AMUNDSON y A.-S. T. MAcuo (2005): «Fifry years of the critica! incident technique: 1954-2004 and beyond», Qualitative Research, 5(4), 475-497. CARLOCK, D.M., y A.M. PERRY(2008): «Exploring faculty experiences with e-books: a focus group», Library Hi Tech, 26(2), 244-254. CARR,D. (1980): «The agent and the learner: interactions in assisted adult library learning», Public Library Quarterly, 2 (2), 3-19. CASE,D. O. (2006): «Information behavior», Annual Review of lnformation Science and Technology, 40, 293-327. CHARMAZ, K. (2006): Constructing grounded theory: a practica/ guide through qualitative analysis, Thousand Oaks, CA: Sage. CHASE,L., y Alvarez, J. (2000): «Internet research: the role of the focus group», Library & Information Science Research, 22(4), 357-369.


BIBLIOGRAFÍA

[297)

CHELL,E. (2004): «Critica) incident Technique», en C. CASSELLy G. SYMON(2004): Essential guide to qualitative methods in organizacional research (pp. 45-60), Londres: Sage. Cttoo, C. W., B. DETLORy D. TuRNBULL(2000): «Information Seeking on the Web: An Integrated Model of Browsing and Searching», First Monday, 5(2). Recuperado de http://firstmonday.org/htbin/ cgiwra p/bin/ojs/index. ph p/fm/article/view Article/729/63 8. (2000): Web work: lnformation seeking and knowledge work on the World Wide Web, Dordrecht: Kluwer Academic Publishers. CIBER(2009a): Evaluating the usage and impact of e-journals in the UK. Aims, scope, methods and research context. Recuperado de http://www.rin.ac.uk/system/files/attachments/Aims_scope_ methods_context_CIBER_ejournals_working_paper.pdf. (2009b): Evaluating the usage and impact of e-journals in the UK. Jnformation usage and seeking behaviour subject and institutional profiles. Recuperado de http://www.rin.ac.uk/system/files/ attachments/lnformation_usage_behaviour_c1BER_ejournals_working_paper.pdf. (2011): E-journals: their use, value and impact-final report. Research Information Network. Recuperado de 2011, from work/communicating-and-disseminating-research/e-journals-their-usevalue-and-impact. COBBLEDICK,S. (1996): «The information-seeking behavior of artists: Exploratory interviews», Library Quarter/y, 66(4), 343-372. CoCHRAN,W. G. (1987): Técnicas de muestreo (7.ª imp.), México, DF: Compañía Editorial Continental. COHEN,J.(1988): Statistical power analysis for the behavioral sciences (2.ª ed.), Hillsdale, NJ: Lawrence Erlbaum. - (1992): «A Power Primer», Psychological Bulletin, 112(1), 155-159. CONVERSE,P. D., E. w.WOLFE,X. HUANGy F. L. ÜSWALD(2008): «Response rates for mixed-mode surveys using mail and e-mail/Web», American journal of Evaluation, 29(1), 99-107. CooK, T. D. y D. T. CAMPBELL( 1979): Quasi- experimentation: Design and analysis issues for field settings, Boston: Houghton Mifflin. CoorER, J., R. LEWISy C. URQUHART(2004): «Using participant or non-participant observation to explain information behaviour», Jnformation Research, 9(4). Recuperado de http://informationr.net/ ir/9-4/paperl 84.html. CoorER,J., y URQUHART(2005): «The information needs and information-seeking behaviours of homecare workers and clients receiving home care», Health Information and Libraries Journal, 22(2), 107-116. CoRBETTA,P. (2010): Metodología y técnicas de investigación social (ed. revisada), Madrid: McGrawHill. CoRREIA,Z. P., y T. D. WILSON(2001 ): «Factors influencing environmental scanning in the organizational context», Information Research, 7(1). Recuperado de http://informationr.net/ir/7-1 / paper121.hrml Couper, M. R. (1984): «The Delphi technique: characteristics and sequence model. Advances in Nursing Science, 7(1), 72-77. CoYNE, l. T. (1997): «Sampling in qualirative research. Purposeful and theorical sampling; merging or clear boundaries?»,Journa/ of Advanced Nursing, 26, 623-630. CRAVEN,J., F.JoHNSON y G. BuTTERS(2010): «The usability and functionality of an online catalogue», Aslib Proceedings, 62(1 ), 70-84. CuLLEN, R., M. CLARKy R. EssoN (2011): «Evidence-based information-seeking skills of junior doctors entering the workforce: an evaluation of the impact of information literacy training during preclinical years», Health Information and Libraries Journa/, 28(2), 119-129. CURRY,A. (2005): «If I ask, will they answer? Evaluating public library reference service to gay/lesbian youth», Reference & User Services Quarter/y, 45(1), 65-75. CURTIS,K. L., A. C. WELLERy J. M. HuRD (1997): «Information-seeking behavior of health science faculty: the impact of new information technologies», Bul/etin of the Medica/ Library Association, 85(4), 402-410. CuTRONI,J. (2010): Google Analytics, Sebastopol, CA: O'Reilly. DALKEY, N., y O. HELMER(1963): «An experimental application of the Delphi method to the use of experts», Management Science, 9(3), 458-467.


12981

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

DALTON, M.S., y L. CHAR.'JIGO (2004): «Historians and their information sources», College & Research Libraries, 65(5), 400-425. DE LEEUW, E. D. (2005): «To mix or not to mix data collection modes in surveys», Journal of Official Statistics, 21(2), 233-255. DEBus, M. (1988): A handbook for excellence in focus group research. Healthcom Project special Report Series, Washington, DC: Porter/Novelli. DELGADOLórEz-CózAR, E. (2000): «Los métodos de investigación empleados en la literatura científica producida en Biblioteconomía y Documentación», en J. LóPEZ-YEPES (ed.): Congreso Universitario de Ciencias de la Documentación. Teoría, historia y metodología de la documentación en España (1975-2000). l. 2000, Madrid (pp. 625-641 ), Madrid: Facultad de Ciencias de Información. Universidad Complutense de Madrid. DENSCOMBE, M. (2007): The good research guide for sma/1-scale social research pro;ects (3." ed.), Maidenhead: McGraw-Hill. DICKERSON, S., A.M. REINHART, T. H. fEELEY,R. BIOANI,E. RICH,V. K. GARGy C. 0. HERSHEY (2004): «Patienr Internet use for health information at three urban primary care clinics»,Journa/ of the American Medica/ Informatics Association, 11(6), 499-504. DILLMAN, D. A. ( 1978): Mail and telephone surveys: The total design method for surveys, Nueva York: Wiley-lnterscience. ( 1991 ): «The design and administration of mail surveys», Annz,al Review of Sociology, 17, 225-249. (2007): Mail and Internet surveys: The tailored design method (2.ª ed.), Hoboken, NJ: John Wiley & Sons. DILLMAN,D. A.,J. R. CLARKy M. A. Sinclair (1995): «How prenotice letters, stamped return envelopes, and reminder postcards affect mailback response rates for census questionnaires», Survey Methodology, 21, 1-7. DILLMAN, D. A., J. D. SMYTHy L. M. CHRISTIAN (2009): Internet, mai/, and mixed-mode surveys: The tailored design method (3.ª ed.), Hoboken, NJ: John Wiley and Sons. D1LLMAN, D. A., R. D. ToRTORAy D. BowKER(1998): Principies for constructing web surveys: an initial statement (Technical Report No. 98-50) Pullman, WA Washington State University, Social and Economic Sciences Research Center. DowNs, R. (1999): «Digital library support for scholarly research», Infonnation Processing & Management, 35(3), 281-291. DRESANG, E. T., M. GRoss y L. HoLT (2007): «New perspectives: An analysis of gender, net-generation children, and computers», Library Trends, 56(2), 360-386. EDMUNDS, H. (1999): The Focus group research handbook, Lincolnwood (111.):NTCBusiness Books. ELDREDGE,J. D., M. R. HARRISy M. T. AscHER(2009): «Defining the Medica) Library Association research agenda: methodology and final results from a consensus process», Journal of the Medica! Ubrary Association, 97( 3 ), 178-185. ELLIS,D. (1989): «A behavioural approach to information retrieval system design»,Journal of Documentation, 45(3), 171-212. - (1993): «Modeling the information-seeking patterns of academic researchers: A grounded theory approach», Library Quarter/y, 63(4), 469-486. ELo, S., y H. KYNGAS (2008): «The qualitative content analysis process>+,]ourna/of advanced nursing, 62(1), 107-115. EMBI,P.J., T. R. YACKEL y J. R. LOGAN(2004): «Impacts of computerized physician documentation in a teaching hospital: perceptions of faculty and resident physicians»,Journa/ of the American Medica/ Informatics Association, 11 (4), 300-309. ERLANDSON, D. A., E. L. HARRIS,B. L. SKIPPERy S. D. ALLEN(1993): Doing naturalistic inquiry: a guide to methods, Newbury Park, CA: Sage. (2008): «Código internacional 1cdESOMARpara investigación social y de mercados», ESOMAR recuperado de http://www.esomar.org/index.php/professional-standards.html. EvERTSON, C. M., y J. L. GREEN(1989): «La observación como indagación y método», La investigación de la enseñanza, II: Métodos cualitativos y de observación (pp. 303-406), Barcelona: Paidós. fEINBERG,W. E. (1971): «Teaching the Type I and Type II Errors: The Judicial Process», The American Statistician, 25(3), 30-32.


BIBLIOGRAFÍA

[299]

FERET,B., y M. MARCINEK (2005): «The future of the academic library and the academic librarían: a Delphi study reloaded», New Review of Infonnation Networking, 11 ( 1), 37-63. FERNÁNDEZ BALLESTEROS, R. (1992): «La observación», en R. FERNÁNDEZ BALLESTEROS (coord.): Introducción a la evaluación psicológica (pp. 137-182), Madrid: Pirámide. FERRINI,A. y J. J. MoHOR (2009): «Uses, limitations, and trends in web analytics», en B. jANSEN,A. SrINK,y l. TAKSA (eds.): Handbook of research on web /og analysis (pp. 124-142), Pensylvania, Hershey: IGI Global. FINK,A.,J. KosECOFF,CHASs1r,; y R. H. BROOK(1984): «Consensus methods: characteristics and guidelines for use», American ]01m1al of Pttblic Health, 74(9), 979-983. FISHER,K. E., y H. jULIEN(2009): «Information behavior», Annual Review of Infonnation Science and Technology, 43, 317-358. FISHER,K. E., S. ERDELEZ y L. E. F. McKECHNIE(eds.) (2005): Theories of infonnation behavior, Medford: Information Today. FLANAGAN,J. C. (1954): «The critica! incident technique», Psychological Bulletin, 51(4), 327-358. FLEMING-MAY, R., y L. YuRo (2009): «From student to scholar: the academic library and social sciences PhD students transformation», Libraries and the Academy, 9(2), 199-221. FucK, U. (2004): Introducción a la investigación cualitativa, Madrid: Morata. Fooov, W. (1993): Constructing questions for interviews and questionnaires: Theory and practice in social research, Cambridge: Cambridge University Press. FoRTIER,A. (2008): Le comportament informationnel des ieunes adultes québécois en matiere sexuelle (tesis doctoral no publicada), Montreal: Universitée de Montréal. C. Dufour y P. Bergeron (2010): «Le comportement informacionnel des jeunes adulces québécois en maciere de saneé sexuelle», Revue canadie11nedes sciences de /'information et de bibliothéconomiel Canadian Journal of lnformation and Library Science, 34(4), 433-456. FosTER,A. E. (2005): «A non-linear model of information seeking behaviour», Information Research, 10(2). Recuperado de http://informationr.net/ir/10-2/paper222.html. FosTER,P. (2006): «Observacional research», en R. Sapsford y V.Jupp (2006): Data collection and analysis (pp. 57-92), Londres: Sage. FowLER,F. J. (1995): Improvi11g survey questions: Design and Evaluation, Thousand Oaks, CA: Sage. - (2002): Survey research methods (3.ª ed.), Thousand Oaks, CA: Sage. FR11s,L. S., B. ELvERDAM y K. G. ScHMIDT(2003): «The patient's perspective-A qualitative study of acute myeloid leukaemia patients' need for information and their information-seeking behaviour», Supportive Care in Cancer, 11 (3 ), 162-170. FROHMANN, B. (1994): «Discourse analysis as a research method in library and information science», Library & Information Science Research, 16(2), 119-138. GAZAN,R. (2005): «lmposing structures: Narrative analysis and che design of information systems», Library & Information Science Research, 27(3), 346-362. GEORGE,C. A., A. BRIGHT, T. HuRLBERT,E. C. LINKE,G. ST.CLAIRy J. STEIN(2006): «Scholarly use of information: Graduate students' informacion seeking behaviour», Library Research and Publications, 21. Recuperado de http://repository.cmu.edu/lib_science/21. GHAPHERY, J. (2005): «Too quick? Log analysis of Quick Links from an academic library website», OCLC Systems & Services, 21(3), 148-155. GILLHAM,B. (2005): Research interviewing. The range of techniques, Nueva York, NY: Open University Press. GIVEN,L., y G. J. LECKIE(2003): «Sweeping» che library: mapping the social activicy space of che public library», Library & lnformation Science Research, 25(4), 365-385. ( 1967): The discovery of Grounded Theory: Strategies for qualitative GLASER,B. G., y A. L. STRAUSS research, Chicago: Aldine Publishing. (1978): Theoretical sensitivity: Advances in the methodology of Grounded Theory, Mili Valley,CA: Sociology Press. (1992): Emergence vs. forcing: basics of Grounded Theory analysis, Mili Valley, CA: Sociology Press. GoLo, R. L. (1958): «Roles in sociological field observations»,Socia/ Forces,36(3), 217-223. A., y M.F. ABADGARCÍA12012): «Grounded theory for generating theory in che GoNZÁLEZTERUEL, study of information behavior», Library & Information Science Research, 34(1), 31-36.


[300]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

GONZÁLEZ TERUEL, A. (2000) Valoración de las necesidades de información de los médicos: publicaciones en el periodo 1990-1998 y estudio de un caso, Valencia: Universitat de Valencia. MAYOR,T. HERNÁNDEZ FERNÁNDEZ, J. F.SANCHEZ MATEOS, GoNZÁLEZ-GONZÁLEZ, A. l., E. EsCORTELL T. SANzCUESTAy R. RIESGOFUERTES (2005): «Necesidades de información de los médicos de atención primaria: análisis de preguntas y su resolución», Atención Primaria, 35(8), 419-22. GONZÁLEZ-GONZÁLEZ, A. l., J. F. SÁNCHEZ MATEOS,T. SANZCUESTA,R. RIESGOFUERTES, E. EscoRTELLMAYORy T. HERNÁNDEZ FERNÁNDEZ (2006): «Estudio de las necesidades de información generadas por los médicos de atención primaria (proyecto Enigma)», Atención Primaria, 38(4), 219-24. Gooo, P. l., y J. W. HARDIN(2006): Common Errors in Statistics (and How to Avoid Them) (1." ed.), Hoboken NJ: Wiley-lnterscience. GORDEN,R. L. (1969): lnterviewing: Strategies, techniques and tactics, Homewood, Ill: Dorsey Press. GORMAN,G. E., y P. CLAYTON (2005): Qualitative research for the information professional: a practica/ handbook, Londres: Library Association Publishing. GRANEHEIM, U. H., y B. LUNDMAN (2004): «Qualitative content analysis in nursing research: concepts, procedures and measures to achieve trustworthiness», Nurse Education Today, 24(1), 105-112. GRAY,D. E. (2004): Doing research in the real word, Londres: Sage. GREEN,J.W. (2000): «Delphi method in web site selection: using the experts», Reference Librarían, 33(69), 299-310. GREEN,J.,y N. THOROGOOD (2004): Qualitative methods for health research, Londres: Sage. GREEN,R. (1991): «The profession's models of information: a congnitive linguistic analysis»,Journa/ of Documentation, 47(2), 130-148. GREENBAUM, T. L. (1998): The handbook for focus group research, Thousand Oaks, CA: Sage. GROVES,R.M., D. A. DILLMAN, J. L. ELTINGE y R. J. A. LITTLE(2002): Survey nonresponse, Hoboken NJ: Wiley-lnterscience. E. S1NGER y R. TouRANGEAU (2004 ): Survey GROVES,R. M., F.J. FowLER,M. CourER, J. M. LEPKOWSKI, methodology, Hoboken, NJ: John Wiley and Sons. GuBA,E. G., y Y. S. LINCOLN(1994): «Competing paradigms in qualitative research», en N. DENZINy l. LINCOLN(eds.): Handbook of qualitative research (pp. 105-117), Londres: Sage. HAAs,S. W., y E. S. GRAMS(2000): «Readers, authors, and page structure: A discussion of four questions arising from a content analysis of Web pages», journal of the American Society for Information Science, 51(2), 181-192. HAMER,J. S. (2003): «Coming-Out: Gay Males lnformation Seeking», School Libraries Worldwide, 9(2), 73-89. HARER,J. B., y B. R. COLE(2005): «The importance of the stakeholder in performance measurement: critical processes and performance measures for assessing and improving academic library services and programs», College & Research Libraries, 66(2), 149-170. HARwooo, l. A. (2001) Developing scenarios for post-merger and acquisition integration: a grounded theory of'risk bartering' (tesis doctoral no publicada), Southampton: Universicy of Southampton, School of Management. HAYSLETT, M. M., y B. M. WILDEMUTH (2004): «Pixels or pencils? The relative effectiveness of webbased versus paper surveys», Library and Information Science Research, 26, 73-93. HERNÁNDEZ-SAMPIERI, R., C. FERNÁNDEZ-COLLADO y P. BAPTISTA-LUCIO (2010): Metodología de la investigación (5." ed.), México: McGraw-Hill/Interamericana de España. HERNER,S., y M. HERNER(1967): «Information needs and uses in science and technology», Annua/ Review of lnformation Science and Technology, 2, 1-34. HERSBERGER, J. (2001 ): «Everyday information needs and information sources of homeless parents», The New Review of Information Behaviour Research, 2, 119-134. HEWINS,E. R. (1990): «Information need and use scudies», Annual Review of Information Science and Techno/ogy, 25, 145-172. HrnER, P., y B. PYMM(2008): «Empirical research methods reporred in high-profile LIS journal literature», Library and lnformation Science Research, 30, 108-114. HIGA-MooRE,M. L., B. BuNNETT, H. G. MAYOy C. A. ÜLNEY(2002): «Use of focus groups in a library's strategic planning process»,Journal of the Medica/ Library Association, 90(1), 86-92.


BIBLIOGRAFIA

1301]

(2004): «Consensus without all the meetings: using the Delphi method to HowzE, P. C., y C. DALRYMPLE determine course content for library instruction», Reference Services Review, 32(2), 174-184. HsIEH, L. F.,J. B. CHIN y M. C. Wu (2004 ): «The performance indicators of university e-library in Taiwan», The Electronic Library, 22(4), 325-330. IBM (2003): Log file formats. Recuperado de http://publib.boulder.ibm.com/tividd/td/lTWSNITWSA_ info45/en_US/HTMUguide/c-logs.html. lsHIHARA,M. (2008): «Evaluation of quality of reference services in public libraries», Library and Information Science, 59, 41-67. jAMALI,H. R. y D. NICHOLAS(2010): «lnterdisciplinarity and the information-seeking behavior of scientists», lnformation Processing & Management, 46(2), 233-243. jANSEN,B. J. (2006): «Search log analysis: What it is, what's been done, how to do it», Library & lnformation Science Research, 28(3), 407-432. (2009a): ccThemethodology of search log analysis», en B. jANSEN,A. SrINK, y l. TAKSA(eds.): Handbook of research on web log analysis (pp. 100-123), Pensylvania, Hershey: IGI Global. (2009b): «Understanding User-Web lnteractions via Web Analytics», Synthesis Lectures on Information Concepts, Retrieval, and Services, 1(1), 1-102. (2000): «Real life, real users, and real needs: a srudy and analysis jANSEN,B., y A. SrrNK y T. SARACEVIC of user queries on the web», lnformation Processing & Management, 36(2), 207-227. jANSEN,B., y A. SrrNK (2006): «How are we searching the World Wide Web? A comparison of nine search engine transaction logs», Information Processing & Management, 42(1), 248-263. JISC Collections (2010): JISC national e-books observatory project: 2007 - 2010. Recuperado de http:// observatory.jiscebooks.org/. jOHNSON,C. A. (2003): Information networks: lnvestigating the information behaviour of Mongolia's urban residents (tesis doctoral no publicada), Toronto: University of Toronto. joRGENSEN,D. (1989): Participant observation, Newbury Park, CA: Sage. JuuEN, H., J. PECOSKIEy K. REED (2011 ): «Trends in information behavior research, 1999-2008: A content analysis», Library & Information Science Research, 33( 1 ), 19-24. juLIEN, H., y L. J. DuGGAN(2000): «A longitudinal analysis of the information needs and uses literature», Library & Information Science Research, 22, 1-19. jULIEN,H., y D. MICHELS(2004): «lntra-individual information behaviour in daily life», lnformation Processing and Management, 40(3), 547-562. jUNKER,B. ( 1972): Introducción a las ciencias sociales. El trabajo de campo, Buenos Aires: Ediciones Marymar. KAHN,R. L. y C. F. CANNEL( 1967): The Dynamics of lnterviewing, Nueva York: Wiley. KAWULICH,B. B. (2005): «La observación participante como método de recolección de datos», Forttm Qualitative Sozialforschung / Forttm: Qualitative Social Research, 6(2), art. 43. Recuperado de http://nbn- resolving.de/urn:nbn:de:0114-fqs0502430. KEATS,D. M. (2000): lnterviewing: A Practica/ Cuide far Students and Professionals, Buckingham: Open University Press. KELLER,A. (2001): «Future development of electronic journals: a Delphi survey», The Electronic Library, 19(6), 383-396. KIERNAN,N. E., M. KIERNAN,M. A. ÜYLERy C. GILLES(2005): «Is a web survey as effective as a mail survey? A field experiment among computer users», American ]ournal of Evaluation, 26, 245-252. KIM, H. H., y Y. H. K1M (2008): «Usability study of digital institutional repositories», Electronic Library, 26(6), 863-881. K1M,H., S. Y. PARKy l. BoZEMAN(2011): «Online health information search and evaluation: observations and semi-structured interviews with college students and maternal health experts», Health Information and Libraries ]ournal, 28(3 ), 188-199. KocHTANEK,T. (1999): «Delphi study of digital libraries», Information Processing & Management, 35(3), 245-254. KRAAIJENBRINK, J. (2007): «Engineers and the web: an analysis of real life gaps in information usage», Information Processing & Management, 43(5), 1368-1382. KRIPPENDORFF, K. (2004): Content Analysis: An /ntroduction to lts Methodology, Newbury Park, CA: Sage.


[302]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIE!'.'TO INFORMACIONAL

KRUEGER R. A. (1991): El grupo de discusión. Guía práctica para la investigación aplicada, Madrid: Ediciones Pirámide. y M. A. CASEY(2009): Focus Groups. A practica/ guide far applied research (4.ª ed.), Thousand Oaks, CA: Sage. (1998): Moderating focus group: Focus Group Kit 4, Thousand Oaks, CA: Sage. KuEI, Y. y W. l. YANG(2008): «Motives for and consequences of reading internet book reviews», The Electronic Library, 26( 1), 97-11 O. KVALE,S., y S. BRINKMANN (2009): lnterViews. Learning the craft of qualitative research interviewing (2.ª ed), Thousand Oaks: Sage. LANDETA,j.(1999): Fundamentos del método De/phi,», Barcelona: Ariel. LANDRY, C. F.(2006): «Work roles, tasks, and the information behavior of dentists», Journal of the American Society for Infomiation Science and Technology, 57(14), 1896-1908. LARGE,A.,J. BEHESHTI y T. RAHMAN(2002): «Design criteria for children's Web portals: The users speak out»,Journal of the American Society far Jnformation Science and Techno/ogy, 53(2), 79-94. LAVRAKAS, P.J. (2008): Encyclopedia of Survey Research Methods, Thousand Oaks, CA: Sage. LEE,D.M. S., E.M. TRAUTHy D. FARWELL (1995): «Critica) Skills and Knowledge Requirements of Is Professionals-a Joint Academic-Industry Investigation», Mis Quarter/y, 19(3), 313-340. LEE,P., N.B. GrnsE y N.A. Sathe (2003): «Benchmarking information needs and use in the Tennessee public health community»,Journa/ of the Medica/ Library Association, 91 (3), 322-336. LEÓNGARCÍA,o., y l. MONTEROGARCÍA-CELAY (2006): Metodologías científicas en psicología, Barcelona: Editorial uoc. LINCOLN,Y. S., y E. G. GusA (1985): Naturalistic inquiry, Newbury Park, CA: Sage. LINCOLN,Y.S., S. A. LYNHAM y E. G. GusA (2011 ): «Paradigmatic controversies, contradictions, and emerging confluences revisited», en N. K. DENZINy Y.S. LINCOLN(eds.): The Sage handbook of qualitative research (4/ ed., pp. 97-128), Thousand Oaks, CA: Sage. LINDBERG, D. A., E. R. S1EGEL, B. A. RArr, K. T. WALLINGFORD y S. R. W11soN (1993): «Use of Medline by physicians for clinical problem solving»,Journa/ of American Medica/ Association, 269(24), 3124-3129. L1NE,M. B. ( 1971 ): «The information uses and needs of social scientists: an overview of Infross», Aslib Proceedings, 23(8), 412-434. LINSTONE, H. A., y M. TuROFF(eds.) (1975): The De/phi method. Techniques and applications, Reading, Ma: Addison-Wesley. LoMAX,E. C., H. J. LowE y T. F. LoGAN(1997): «An Investigation of the Information Seeking Behavior of Medica) Oncologists in Metropolitan Pittsburgh Using a Multimethod Approach», Proceedings of the AMIA Annua/ Fa// Symposium (p. 871 ). American Medica) Informatics Association. Recuperado de http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2233358/. LoRN, S. L. ( 1999): Muestreo: dise,io y análisis, Madrid: Internacional Thomson Editores. LUDWIG,L., y S. STARR(2005): «Library as place: results of a delphi study», Journa/ of the Medica/ Library Association, 93(3), 315-326. MAcDONALD, J., P. BATHy A. BooTH (2011 ): «Information overload and information poverty: challenges for healthcare services managers?»,Journa/ of Documentation, 67(2), 238-263. E., y T. D. WILSON(2009): «A Delphi investigation inro the research needs in Swedish MACEVICIUTE, librarienship», Information Research, 14(4). Recuperado de http://informationr.net/ir/14-4 / paper419.html. MAcMULLJN, S. D., y R. S. TAYLOR (1984): «Problem dimensions and informarion traits», The Jnformation Society, 3(1 ), 91-111. J. A., l. HERNÁNDEZ-GARCÍA, M. GONZÁLEZ-HIERRO y l. VELÁZQUEZ-SAN MADERUELO-fERNÁNDEZ, FRANCISCO (2009): «Necesidades de información de los usuarios de Atención Primaria desde la perspectiva de los profesionales sanitarios. Un estudio Delphi», Gaceta sanitaria, 23(5), 365-372. MANFREDA, K. L., M. BOSNJAK, J. BERELAK, l. HAASy V. VEHOVAR (2008): «Web surveys versus other survey modes: A meta-analysis comparing response rates», lnternationa/ Journal of Market Research, 50(1), 79-104. MANSOURIAN, Y. (2008): «Contextualization of web searching: a grounded theory approach», The Electronic Library, 36(2), 202-214.


BIBLJOGRAFIA

(3031

MARCHAND,D. A., W. J. KETIINGERy J. D. RoLLINS (2000): «Information Orientation: People, Technology and the Bottom Line», S/oan Management Review, 41(4), 69-80. (2001 ): Information Orientation: The link to business performance, Nueva York: Oxford University Press. MARKEY,K., F.SWANSON,A. jENKINS,B. J.jENNINGS,B. ST jEAN, V. ROSENBERG,X. YAOy R. L. FROST (2008): «Designing and testing a web-based board game for teaching information literacy skills and concepts», Library Hi Tech, 26(4), 663-681. MARSH,E. E., y M. D. WHITE (2003): «A taxonomy of relationships between images and text»,Journa/ of Documentation, 59(6), 647-672. MARSHALL,M. N. (1996): «Sampling for qualitative research», Family practice, 13(6), 522-525. MATAVIRE,R., y l. BROWN(2008): «lnvestigating the use of "Grounded Theory" in information systems research», Proceedi11gsof the 2008 annual research conference of the South African lnstitute of

Computer Scientists and Information Techno/ogists on 1T research in developing countries riding the wave of techno/ogy-SAICSIT '08 (pp. 139-147), Nueva York: ACM Press. C. MANFREDIy M. W1LLIAMS(2002): «Factors influencing medica! MATIHEWS,A. K., S. A. SELLERGREN, information seeking among African American cancer patients», Journal of Health Commimication, 7(3), 205-219. MAUREL,D., y P. BERGERON(2007): «Problem siruations encountered by middle managers working in a municipality in transition», Information Research, 12(4). Recuperado de http://informationr.net/ ir/12-4/colis/colis21. MAYRING,Philipp (2000): «Qualitative Content Analysis», Forum Qualitative Sozia/forschung / Forum: Qualitative Social Research, 1(2), art. 20. Recuperado de http://nbn-resolving.de/urn:nbn:de:0114fqs0002204. McCAUGHAN,E., y H. McKENNA, (2007): «Never-ending making sense: towards a substantive theory of the information-seeking behaviour of newly diagnosed cancer patients», Journal of Clínica/ Nursing, 16(11), 2096-104. McKECHNIE, L. E. F., L. M. BAKER,M. GREENWOODy H. jULIEN (2002): «Research method trends in human information literature>,, New Review of lnformation Behaviour Research, 3, 113-125. McKECHNIE, L. E. F., K. E. PETIIGREWy S. L.jOYCE (2001): «The origins and contextual use of theory in human information behaviour research», New Review of Information Behaviour Research, 2, 47-63. McKNIGHT, M. (2006): «The information seeking of on-duty critica! care nurses: evidence from participant observation and in-context interviews RMP», Journal o{ the Medica/ Library Association, 94(2), 145-151. (2007): «A grounded theory model of on-duty critica! care nurses' information behavior: The patient-chart cycle of informative interactions»,jouma/ of Documentation, 63(1), 57-73. MEHO, L. l. (2001 ): «The information seeking behavior of social science faculty studying stateless nations» (tesis doctoral no publicada), Chapel Hill, NC: University of North Carolina. - y H. R. Trnso (2003): «Modeling the information-seeking behavior of social scientists: Ellis's study revisited»,Journa/ of the American Society for Jnformation Science, 54(6), 570 -587. MELLON,C. A. (1986): «Library anxiety: a grounded theory and its development», College and Research Libraries, 47(2), 160-165. MELTZER,E., P. D. MAUGHANy T. K. FRY(1995): «Undergraduate in focus: Can student input lead to new directions in planning undergraduate library services?», Ubrary Trends, 44(2), 400-422. MENZEL,H. (1966): «Information needs and uses in science and technology», Annual Review of lnformation Science and Techno/ogy, 1, 41-69. MILES, M. B., y A.M. HUBERMAN(1994): Qualitative data analysis: an expanded sourcebook (2! ed.), Thousand Oaks, CA: Sage. MILLAR,M. M., y D. A. D1LLMAN(2011): «Improving response to Web and mixed-mode surveys», Public Opinion Quarter/y,75(2), 249-269. MORAN, B. B. (1997): Preparing tomorrotv's health sciences librarians: feasibility and marketing studies. Final Report, Chapel Hill, NC: National Library of Medicine. MoRGAN, D. L. ( 1997): Focus Group as qualitative research, Thousand Oaks, CA: Sage. MuTSHEWA,A. (2010): «The use of information by environmental planners: A qualitative study using Grounded Theory methodology», lnformation Processing & Management, 46(2), 212-232.


[304)

MÉTODOS Y TÉCNICASPARALA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL

NAVARRO, P., y C. DíAZ (1994): «Análisis de contenido. Métodos y técnicas cualitativas de investigación en Ciencias Sociales (pp. 177-224), Madrid: Síntesis. NAYLOR, S., B. STOFFELy S. VANDERLAAN(2008): «Why isn't our chat reference used more? Finding of focus group discussions with undergraduate students», Reference & User Services Quarterly, 47(4), 342-354. NEUMAN,D. (1995): «High school studenrs' use of databases: results of a national Delphi study», Journal of the American Society for Information Science, 46(4), 284-298. NEUMAN,W. L. (2007): Basics of social research. Qualitative and quatttitative approaches (2.ª ed.), Boston: Pearson Education. NICHOLAS,D., l. RowLANDS,D. CLARK,P. HUNTINGTON, H. R. jAMALI,y c. ÜLLE(2008): «UK scholarly e-book usage: a landmark survey», Aslib Proceedings, 60(4), 311-334. NICHOLAS,D., P.WILLIAMS, l. ROWLANDS y H. R.jAMALI(2010): «Researchers' e-journal use and information seeking behaviour»,Journa/ of Information Science, 36(4), 494-516 NIELSEN,P., y A. FJUK(2010): «The Reality beyond the Hype: Mobile Internet is Primarily an Extension of PC-Based Internet», Ittformation Society, 26(5), 375-382. NwAGWU,W. E. (2009): «Participatory Gender-Oriented Study of the Information Needs of the Youth in a Rural Community in South-Eastern Nigeria», African Journal of Library Archives and Information Science, 19(2), 129-140. ÜLLÉ,C., y A. BORREGO (2010): «A qualitative study of che impact of electronic journals on scholarly information behavior», Library & information science research, 32(3), 221-228. ÜRTEGAPRIEGO,L. (2005): «Análisis de sesiones de la web del Cindoc: una aproximación a la minería de uso web», El profesional de la información, 14(3), 190-200. ÜRTON,R., R. MARCELLA y G. BAXTER (2000): «An observacional study of che information seeking behaviour of Members of Parliament in che United Kingdom», Aslib Proceedings, 52(6), 207-217. ÜSTRANDER, M.C. (2008): «Talking, looking, flying, searching: information seeking behavior in Second Life», Library Hi Tech, 26(4), 512-524. PARTHASARATHY, M., y A. BHATTACHERJEE (1998): «Understanding post-adoption behavior in the context of online services», Information Systems Research, 9(4), 362-379. PATTON, M. Q. (1987): How to use qualitative methods in evaluation, Newbury Park, CA: Sage. (1990): Qualitative evaluation and research methods (2.ª ed.), Thousand Oaks, CA: Sage publications. (2002): Qualitative research and evaluation methods (3.3 ed.), Thousand Oaks, CA: Sage. PAYNE, S. L. (1951): The art of asking questions, Princenton, NY: Princenton University Press. PÉREZfERNÁNDEZ, M. M., P. GARCÍASAGREDO y J.J. GÉRVAS (1990): «Conjunto mínimo básico de datos en Atención Primaria. Un estudio Delphi», Atención Primaria, 7(2), 112-118. PÉREZ,C. (2010): Técnicas de muestreo estadístico, Madrid: Garceta. PETERS, T. A. (1993): «The history and development of transaction log analysis», Library Hi Tech, 11(1), 41-66. - KuRTH,M., P. FLAHERTY, B. SANDORE y N. K. KASKE(1993): «Transaction log analysis», Library Hi Tech, 2(42), 1993. PETTIGREW, K. E. (1999): «Waiting for chiropody: contextual results from an ethnographic study of the information behaviour among attendees at community clinics», Information Processing & Management, 35(6), 801-817. PICKARD, A. J. (2007): Research methods in information, Londres: Facet. PINGS,V. M. y F.ANDERSON ( 1965): A study of the use of Wayne State University Medica/ Library, part 7, Detroit, MI: Wayne State University, School of Medicine Library and Biomedical Information Service Center (Report No. 10). PIÑUEL-RAGADA, J. (2002): «Epistemología, metodología y técnicas del análisis de contenido», Estudios de Sociolingüística, 3(1), 1-42. P1rrs, S., y A. STANLEY (2007): «Understanding researchers: findings from a focus group», Learned Publishing, 20(4), 245-251. PowELL,R. (1997): Basic research methods for librarians (3.ª ed.), Norwood, NJ: Ablex. PRABHA, c.,L. s.CONNAWAY, L. ÜLSZEWSKI y L. R.JENKINS(2007): «What is enough? Satisficing information needs»,Journal of Documentation, 63(1), 74-89.


BlBLIOGRAFfA

[305]

QAYYUM, M. A., K. WILLIAMSON, Y. H. LIU y P. HIDER(2010): «Investigating the News Seeking Behavior of Young Adules», Australian Academic & Research Libraries, 41 (3), 178-191. RADFORD,M. L. (1998): «Approach or avoidance? The role of nonverbal communication in the academic library user's decision to initiate a reference encounter», Library Trends, 46(4), 699-717. - (2006): «The Critical Incident Technique and the qualitative evaluation of the connecting libraries and schools project», Library Trends, 55(1), 46-64. REDDY,M., y P.SPENCE(2008): «Collaborative information seeking: a field study of a multidisciplinary patient care team», Information Processing & Management, 44(1), 242-255. RIAZA-CHAPARRO, M. (2007): «Nuevas técnicas de estudios de usuario aplicadas a bibliotecas», Revista General de Información y Documentación, 17(2), 45-61. RIEH,S. Y. (2004 ): «On the web at home: Information seeking and web searching in the home environment»,Journal of the American Society for Information Science and Techno/ogy, 55(8), 743-753. RITCHIE,J., J. LEWISy G. EL AM(2003): «Designing and selecting samples», en J. RJTCHIEy J. LEWIS (ed.): Qualitative research practice, Thousand Oaks, CA: Sage. RODRÍGUEZ GóMEZ,G., J. GIL FLORESy E. GARCÍA JIMÉNEZ( 1996): Metodología de la investigación cualitativa, Archidona: Aljibe. RooRí GUEZÜSUNA,J. ( 1991 ): «Métodos de muestreo», Cuadernos metodológicos, núm. 1, Madrid: Centro de Investigaciones Sociológicas. ROYAL, R. (1997): Statistical evidence: a likelihood paradigm, Londres: Chapman & Hall. RusJN, H. J., e l. S. RusJN (1995): Qualitative interviewing. The art of hearing data, Thousand Oaks: Sage. RYAN,G. W. y H. R. BERNARD (2000): «Data management and analysis methods», en N. K. DENZINy Y. S. LJNCOLN(eds.): Handbook of Qualitative Methods, 2.ª ed. (pp. 769-802), Thousand Oaks, CA: Sage. SAIRANEN, A., y R. SAVOLAINEN (201 O): «Avoiding health information in context of uncertainty management», Information Research, 15(4), paper 443. Recuperado de http://informationr.neúir/154/paper443.html. SALAZAR, P. H., D. NICHOLASe l. RowLAND(2009): «Acceso y uso de libros electrónicos por comunidades universitarias del Reino Unido», Revista Interamericano de Biblioteco/ogía, 32(2), 13-58. SAPSFORD, R., y V. Jurr, (2006): Data collection and analysis (2." ed.}, Londres: Sage. SAVOLAINEN, R, y J. KARI(2004a}: «Conceptions of the Internet in everyday life information seeking», ]ournal of Information Science, 30(3), 219-226. (2004b): «Placing the Internet in information source horizons. A study of information seeking by Internet users in the context of self-development», Library & Information Science Research, 26(4), 415-433. L., y A. L. STRAUS ( 1979): Field research. Strategies for natural sociology, Englewood Cliffs, SCHATZMAN NJ: Prentice-Hall. y ScHEELE,D. (1975): «Reality construction as a produce of delphi interaction», en H. A. LINSTONE M. TUROFF(eds.): The De/phi method. Techniques and applications (pp. 35-67), Reading, Ma: Addison-Wesley. SEEHOLZER, J., y J. A. SALEM(2011 ): «Library on the go: A focus group study of the mobile Web and the academic library», College & Research Libraries, 72(1), 9-20. SERRANO Cosos, J. y A. CAsADO-SÁNCHEZ (2011 ): «Library analytics: métricas online en servicios de información web», Anuario ThinkEpi, 5, 192-194. SHEBLE,L., y B. M. WILDEMUTH (2009): «Transaction Logs», en B. M. WILDEMUTH (ed.): Applications of social research methods to questions in Information and Library Science (pp. 166-177), Westport, CT: Libraries Unlimited. SHEEHAN, K. B. (2002): «Toward a typology of Internet users and online privacy concerns», Information Society, 18( 1), 21-32. SHIRI,A. (2010): «Query reformulation strategies in an interdisciplinary digital library: the case of nanoscience and technology», 2010 Fifth International Conference on Digital Information Management (ICDIM) (pp. 200-206), Thunder Bay, ON: IEEE.


[306]

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

SHOHAM,S., y Z. SHEMER-SHALMAN (2003): «Territorial behavior in the school library», School Libraries Worldwide, 9(2), 1 -23. (1991): «Evaluating the impact of Medline using the Critical SIEGEL,E. R., B. A. RAPPy D. A. LINDBERG lncident Technique», Proceedings!the ... Annual Symposium on Computer Application {sic] in Medica/ Care. Symposium on Computer Applications in Medica/ Care, 83-87. SINGH,K. (2007): Quantitative social research methods, Thousand Oaks, CA: Sage publications. SMITH-MCLALLEN, A., M. F1SHBEIN y R. C. HoRNIK(2011 ): «Psychosocial determinants of cancerrelated information seeking among cancer patients»,Jounal of Health Communication, 16, 212-225. SOLOMON, P.(1997): «Conversation in information-seeking contexts: A test of an analytical framework», Library & Information Science Research, 19(3), 217-248. SoNNENWALD, D. (1999): «An integrated human information behavior research framework for information studies», Library & Information Science Research, 21(4), 429-457. SPINK,A., y B. J.jANSE (2004): Web search: public searching of the web. New York, Nueva York: Kluwer Academic. SPRADLEY,J. (1980) Observación Participante, Nueva York: Rinehart and Winston. STARKWEATHER, W. M., y C. C. WALLIN(1999): «Faculty response to library technology: lnsights on attitudes», Library Trends, 47(4), 640-668. STENMARK, D., y T. jADAAN(2007): «Intranet users information-seeking behaviour: An analysis of longitudinal search log data», Proceedings of the American Society for Information Science and Technology, 43(1), 1-19. STEVENS, S. S. (1946): «On the theory of scales measurement», Science, 103(2684), 677-680. L. (1996): «User acceptance of electronic journals: lnterviews with chemists at Cornell STEWART, University», College & Research Libraries, 57(4), 339-349. STRAUSS, A. L. (1987): Qualitative analysis for social scientists, Cambridge: Cambridge University Press. STRAUSS, A., y J. CoRBIN(1998): Basics of qualitative research: Grounded theory procedures and techniques (2.ª ed.), Los Ángeles: Sage. STREATFIELD, D. R., y T. D. WILSON(1982): «Information innovations in social services departments: a third report on project INISS»,Journa/ of Documentation, 38(4), 273-281. TAKSA, l., A. SPINKy B. jANSEN(2009): «Web log analysis: Diversity of research methodologies», en B. jANSEN,A. SPINK,y l. TAKSA (eds.): Handbook of research on web log ana/ysis (pp. 506-522), Pensylvania, Hershey: IGI Global. TANG,P. C., C. NEWCOMB, S. GoRDENy N. KREIDER(1997): «Meeting the information needs of patients: Results from a patient focus group»,Journal of the American Medica/ Informatics Association, 672-676. TANG,P. C., y C. NEWCOMB(1998): «Informing patients: A guide for providing patient health information», Journal of the American Medica/ Informatics Association, 5(6), 563-570. TENOPIR,C., D. W. KINGy A. BuSH (2004): «Medica! faculty's use of print and electronic journals: changes over time and in comparison with scientists», Journal of the Medica/ Library Association, 92(2), 233-241. TESCH,R. (1990): Qualitative research: analysis types and software tools, Nueva York: Falmer. TONTA,Y. (1992): «Analysis of search failure in document retrieval systems: a review», The Public Acces Computer Systems Review, 3(1), 4-53. (2000): The Psychology of Survey Response, Cambridge, UK: TouRANGEAU, R., L. J. R1PS y K. RASINSKI Cambridge University Press. TRINIDAD, A., V. CARRERO y R. SORIANO(2006): La Teoría Fundamentada «Grounded Theory». La construcción e la teoría a través el análisis interpretaciona/, Madrid: Centro de Investigaciones Sociológicas. TROCHIM, W. M. K. (2006): Nonprobability sampling. Recuperado de http://www.socialresearchmethods. net/kb/sampnon.php. c. J., A. LIGHT,R. THOMAS,A. BARKER, A. YEOMAN, J. COOPER,c. ARMSTRONG, R. FENTON, URQUHART, R. LONSDALE y S. SPINK(2003): «Critica! incident technique and explicitation interviewing in studies of information behavior», Library & Information Science Research, 25(1), 63-88. VALLES, M.S. (1999): Técnicas cualitativas de investigación social. Reflexión metodológica y práctica profesional, Madrid: Síntesis. - (2002): Entrevistas cualitativas, Madrid: Centro de investigaciones sociológicas.


1308)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

Xrn, B. (2009): «Older Adults' Health Information Wants in the Internet Age: Implications for PatientProvider Relationships»,Journa/ of Health Communication, 14(6), 510-524. ZHANG,Y. (2008): «Undergraduate Students' Mental Models of the Web as an Information Retrieval System », ]ournal of the American Society for lnformation Science and Technology, 59( 13), 20872098. y B. M. WILDEMUTH(2009): «Qualitative analysis of content», en B.WILDEMUTH(ed.): Applications of Social Research Methods to Questions in Jnformation and Library Science (pp. 308-319), Westport, CT: Libraries Unlimited. ZuccALA, A. (2010): «Open access and civic scientific information literacy», Information Research-an lnternational Electronic Journal, 15( 1). Recuperado de: http://informationr.net/ir/15-1/paper426. html.


BIBLIOGRAF(A

[307]

VAUGHAN, M. W., y N. ScHWARTZ (1999): «Jumpstarting the information design for a community network»,journal of the American Society for Information Science, 50(7), 588-597. (2007): «The use of online electronic VIBERT,N.,J. F. ROUET,c. Ros, M. RAMONDy B. DESHOULLIERES information resources in scientific research: The case of neuroscience», Library & Information Science Research, 29(4), 508 -532. (2007): «The Use of OPACin a Large Academic Library: VILLEN-RUEDA, L., J. SENSOy F.MoYA-ANEGÓN A Transactional Log Analysis Study of Subject Searching», The ]ournal of Academic Librarianship, 33(3), 327-337. WALKER, D., y F.MYRICK(2006): «Grounded theory: an exploration of process and procedure», Qualitative Health Research, 16(4 ), 54 7-59. WALLER, V. (201 O): «Accessing the collection of a large public library: an analysis of OPACuse», Libres. Library and Information Science Research Electronic Journal, 20(1 ), 1-27. WANG,P., M. W. BERRYy Y. YANG(2003): «Mining longitudinal web queries: Trends and patterns», Journal of tbe American Society for Information Science and Technology, 54(8), 743-758. WANG,P., y D. SoERGEL(1998): «A cognitive model of document use during a research project. Study I. Document selection»,Journal of the American Society for Information Science, 49(2), 115-133. WANG,P., y M. D. WHJTE(1999): «A cognitive model of document use during a research project. Study II. Decisions at the reading and citing stages», ]ournal of the American Society for I nfonnation Science, 50(2), 98-114. WEBANALYTICS DEFINITIONS (2008): Web Analytics Association. Recuperado de http://www. webanalyticsassociation.org/resource/resmgr/PDF _standards/WebAnalyticsDefinitions.pdf WEBER,R. P. (1985): Basic content analysis, Beverly Hills: Sage. WENGRAF, T. (2002): Qualitative research interviewing, Thousand Oaks: Sage. L. (1997): «lnformation access issues for interdisciplinary scholars: results of a Delphi WESTBROOK, study on women's studies research»,Journa/ of Academic Libraria11ship,23(3), 211-216. WHJTE,M. D., M. MATTESON y E. G. ABELS(2008): «Beyond dictionaries-Understanding information behavior of professional translators»,journal of Documentation, 64(4), 576-601. WHITE,M. D., y E. E. MARSH(2006): «Content analysis: a flexible methodology», Library Trends, 55(1), 22-45. WJLLIAMS,P., y B. GuNTER(2006): «Triangulating qualitative research and computer transaction logs in health information studies», Aslib Proceedings, 58( 1/2), 129-139. y M. D. CooPER ( 1989): Use of the critica/ i11cide11t technique W1LSON,S. R., N. STARRSCHNEIDKRAUT to evaluate the impact of Medline. (Repon No. NTIS order no PB90 142522), Palo Alto, CA: American Institute for Research. (ed.): Fifty W1LSON,T. D. (1994): «Information needs and uses: 50 years of progress?», en B. C. VICKERY years of information progress: a Journal of Documentation Review (pp. 15-51 ), Londres: Aslib. D. R. STREATFIELD y C. MuLLINGS(1979): «Information needs in local authority social services departments: a second report on project INISS»,Journa/ o/ Documentation, 35(2), 120-136. y D. R. STREATFIELD (1977): «Informations needs in local authority social services departments: an interim report on project INISS»,Journa/ of Documelltation, 33(4), 277-293. y B. PENDLETON (1978): Jnformation needs STREATFIELD, D.S., c. MuLLINGS,v. LOWNDES-SMITH and information services in local authority social services departme11ts (Pro;ect IN/SS). Final report ... on stages 1 and 2. October 1975-December, 1977, Londres: British Library (British Library R & D Report Series No. 5453. 2 vols.) y F. L. ÜSWALD(2008): «Item-level nonresponse rates in an attitudinal WoLFE,E. W., P. D. CONVERSE, survey of teachers delivered vía mail and Web»,Journal of Computer-Mediated Commimication, 14, 35-66. Wooo, F. y P. WRIGHT( 1996): «The impact of information on clinical decision making by General Medica( Practitioners», Information Research, 2(1), Recuperado de: http://InformationR.net/ir/2-1/ papert 1.html. WooLSEY,L. K. (1986): «The critica( incident technique: an innovative qualitative method of research», Canadian ]oumal of Counselling, 20(4), 242-254.


ÍNDICE DE MATERIAS

Adecuación referencial: 45-46 Afijación: 61-63 Alternativa de respuesta: 84-85, 90, 96, 104, 201 Análisis conversacional: 270 Análisis de casos negativos: 45-46 Análisis de contenido: 271-281 Análisis del discurso: 270,271 Análisis de la variancia: 262 Análisis narrativo: 270, 271 Audit trail: 4 7 Auditoría de confirmabilidad: 47-48 Auditoría de dependibilidad: 47 Autoadministrado: 93, 98, 101-102, 107

Descripción densa: 46 Deseabilidad social: 101-103, 105-106, 202 Desviación típica: 211, 216-217, 252-253, 258 Diccionarios de contenido: 270 Distribución de frecuencias: 248

Carta de preaviso: 107, 116 Categorización: 276-279 Calidad de la investigación: 41-48 Chi cuadrado: 263 Cliente oculto, técnica del: 164 Codificación: 276-279, 287-291 Codificación abierta: 276, 287-289 Codificación axial: 290-291 Codificación selectiva: 291 Concordancia interobservador: 169 Concordancia intraobservador: 169 Confiabilidad: 44-48 Confiabilidad en el análisis de contenido: 281 Confirmabilidad: 47-48 Consentimiento informado: 52, 187, 192, 200, 205 Consulta a expertos: 96, 114, 145 Contraste de hipótesis: 96, 114, 145, 257-261, 264,266,268 Correlación: 248, 254-256 Credibilidad: 45-46

Efecto de primacía: 90, 101 Efecto de recencia: 90, 101,233 Encuesta cara a cara: 98-101, 105-106, 113 Encueras telefónicas: 90, 99-101 Encuestas por correo: 98, 101-104 Encuestas web: 98, 103-105 Encuestas en grupo: 98, 105-106 Entrevista estructurada: 43, 124, 139 Entrevista no estructurada: 122 Entrevista semiestructurada: 123, 142 Entrevistas cognitivas: 97 Error de cobertura: 105, 112-14 Error de medida: 112-113 Error de no respuesta: 112-114 Error muestra): 75, 112, 116 Error tipo 1: 260-261, 264 Error tipo 11:260, 267 Escala Likert: 91,217,221 Escalas de medida: 244-245, 267 Estadística descriptiva: 243, 247-248, 257 Estadística inferencia): 244, 257 Estudios de cohorte: 36 Estudios de panel: 36 Estudios de tendencia: 36 Estudios experimentales: 36-37 Estudios no experimentales: 3 7 Ética: 50-52, 163 Etiquetado de páginas: 230-232

Dato cualitativo: 269 Dependibilidad: 47

Fiabilidad: 41-44, 80, 83, 137, 141,153,169, 181


(310)

MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL

Forma de administración: 50, 79, 81-83, 90, 97, 99-104, 109, 117 Grado de significación: 264-266 Grupo de expertos: 214-213 Grupo moderador: 21, 211-213 Hipótesis alternativa: 259-260 Hipótesis nula: 259-260, 264-267 Incidente crítico: 43 Indicadores clave de rendimiento: 236 Inducción analítica: 270 Intervalo de confianza: 75, 258 Investigación correlaciona(: 35 Investigación cualitativa: 31-32, 39 Investigación cuantitativa: 31-32 Key performance indicators: 236

Logs: 228 Marco muestral: 56, 58, 65, 69, 76, 100, 113 Media: 211, 216-218, 221-222, 224-225, 246, 248, 250,-253, 257-259 Mediana: 211, 216-218, 225,248, 250-252 Método comparativo constante: 286-287 Métrica web: 232-233 Moda:248-251 Modelos de decisión etnográfica: 270 Moderador: 24, 187-193, 196, 198-205, 207-208, 211-213 Moderador externo: 189,193,205 Moderador interno: 188-189, 193,201,205 Muestra representativa: 57, 68, 257 Muestra sesgada: 57, 68 Muestreo accidental: 24, 58, 66, 68-69, 73, 78 Muestreo aleatorio estratificado: 58, 60-61, 63, 65,67, 72 Muestreo aleatorio por conglomerados: 58, 62 Muestreo aleatorio simple: 23, 58-59, 62-65, 7778, 101 Muestreo aleatorio sistemático: 58, 60 Muestreo intencional: 58, 66-67, 69-71, 133, 142, 178,274 Muestreo no probabilístico: 33, 55-56, 58, 65-66, 147,158,272,274,285 Muestreo por bola de nieve: 58, 67, 73, 140 Muestreo por cuotas: 58, 71-73 Muestreo probabilístico: 55, 57-58, 65, 78, 257, 272,274 Muestreo teórico: 285-286 Nivel de confianza: 50, 75, 77,221, 260-261 Nivel de significación: 260-261, 264-265, 267

No respuesta: 92, 96-97, 100, 102-107, 112-114, 116, 137, 154 Notas decampo: 174-175 Observación Observación Observación Observación Observación Observación Observación

abierta: 161, 163-164 encubierta: 161, 163-164 estructurada: 161, 167-171 no estructurada: 161, 171-175 no participante: 161, 164-165 participante: 161, 164-165 persistente: 46

Pagetagging:230-232 Paradigmas de las ciencias sociales: 27-30 Participación prolongada: 46 Potencia: 260, 267 Preguntas de investigación: 158,162,278 Preguntas de respuesta jerarquizada: 215-216 Preguntas de respuesta por comparación: 217-218 Preguntas de respuesta por estimación: 218-219 Preguntas de respuesta por valoración: 216-217 Preguntas filtro: 94, 98, 103 Preguntas primarias: 128-129, 142 Preguntas secundarias: 128-129 Prueba piloto: 49, 82, 94, 96-98, 114-115, 139, 186 Rango intercuartílico: 211, 216-217, 225,252 Razonamiento deductivo: 33 Razonamiento inductivo: 33 Reactividad: 84-85, 163, 165-166, 176 Registro de transacciones: 228 Regresión: 263-264, 268 Rol del observador: 165-166 Saturación teórica: 285-286 Sesgo del investigador: 84, 137 Significación estadística: 140, 265-267

Tailored design method: 107, 109, 116 Tamaño del efecto: 266-267 Tamaño de muestra: 50, 58, 73-74, 76-78, 113, 265,267 T de Student: 262 Técnica Delphi: 209-225 Tendencia central: 211, 215-218, 224,248, 250253 Teoría formal: 292 Teoría sustantiva: 292 Transcripción: 24, 99-100, 103, 105-106, 135137, 142,169, 187-188, 190,203,246 Transferibilidad: 46 Triangulación: 33, 46,153,228 Unidades de análisis: 275


[311]

Ă?NDICEDE MATERIAS

Unidades de registro: 275 Validez: 37,41-44,56, 80-81, 98,104,115,137, 153,201,220,240,246,281 Variable cualitativa: 244, 248-249

Variable cuantitativa: 244, 262 Variable dependiente: 36-37, 263-64, 266 Variable independiente: 36-37, 262-263

Web Tracker:233-23


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.