Evaluaci贸n orientada a la toma de decisiones
Daniel Stufflebeam: contexto del autor
1958. Después del lanzamiento del Sputnik I, el gobierno de EUA destina millones de dólares en proyectos de matemáticas y ciencias.
1964-1965. Se establece el Acta de Educación Primaria y Secundaria y se conforma un Comité de Evaluación Nacional con el propósito de crear una nueva evaluación orientada a incidir en los programas y en la práctica educativa global
Gran impacto: programas educativos + informe de evaluación.
Necesidad de evaluar.
No existían profesionales de la evaluación.
Daniel Stufflebeam: contexto del autor
1965. Como director del Test Development Center de la Universidad Estatal de Ohio es invitado al “negocio de la evaluación” para apoyar a las escuelas.
Visita sitios donde se desarrollaban evaluaciones.
Funda The Evaluation Center en la Universidad Estatal de Ohio.
Visita escuelas y se da cuenta de que no se implementan los planes.
Oportunidad para mejorar la teoría de la evaluación: orientarla hacia la toma de decisiones.
Daniel Stufflebeam: contexto del autor
Uso de pruebas estandarizadas.
Informes que no permitían identificar y resolver problemas.
Evaluación que no respondía a las necesidades de las personas.
Búsqueda de un método más factible.
Redefinición del concepto y los propósitos de la evaluación.
Necesidad de una teoría pertinente.
Daniel Stufflebeam: conceptualización de la evaluación
1966. Proceso mediante el cual se proporciona información útil para la toma de decisiones.
2003. Proceso de delineación, obtención, divulgación y uso de la información descriptiva y de juicio acerca del mérito, valor y cualidades distintivas de un objeto para guiar la toma de decisiones, apoyar prácticas efectivas e incrementar la comprensión del fenómeno involucrado.
Conceptos fundamentales
Evaluación de contexto. Evaluación de entrada. Evaluación de proceso. Evaluación de producto. Estándares profesionales. Metaevaluación. Toma de decisiones.
Descripción del modelo CIPP
Propósito Guiar evaluaciones formativas y sumativas de proyectos, programas, personas, productos, instituciones y sistemas. Cuatro fases Context (contexto). Input (entrada). Process (proceso). Product (producto).
Componentes Principales del modelo CIPP 贸n ci ua al Ev da tra en
O bj et iv os
de
es an Pl
贸n i ac o u al ext v E nt co
de
de to uc od pr
pr oc es o de
Ev al ua ci 贸n
s do lta su Re
贸n ci ua al Ev
Ac ci on es
Valores centrales
Descripción del modelo CIPP
E. de contexto (metas). Análisis de los elementos relevantes del escenario. ¿En dónde y cómo está ubicado el programa?
E. de entrada (planes). Se valoran los recursos y estrategias necesarios para lograr las metas y objetivos del programa. ¿Con qué cuenta para lograr sus objetivos?
E. de proceso (acciones). Se valora la implementación de los planes y se identifican problemas. ¿Cómo se está implementando el programa? ¿Qué ajustes necesita?
Descripción del modelo CIPP
E. del producto (resultados). Evaluar los logros producidos en el programa: esperados y no esperados. a) b) c) d)
Impacto. Alcance del programa en relación con los usuarios. Eficacia. Calidad de los resultados: usuarios y ambiente. Sustentabilidad. Continuación del programa. Transferencia. Grado en que el programa puede ser adaptado.
Decripción del modelo Revisiones del modelo 1966. Evaluación de proceso y producto. 1967. Modelo CIPP (contexto-insumos-proceso-producto). 1971. Evaluación orientada hacia la mejora. 1972. Evaluación formativa y sumativa. 2003. Evaluación de producto: impacto, eficacia, sustentabilidad y transferencia. 2007. Lista de verificación.
Modelo: proceso de evaluación 1. 2. 3. 4. 5. 6. 7.
Acuerdos contractuales. Evaluación del contexto. Evaluación de entrada o de insumos. Evaluación de proceso. Evaluación de producto. Metaevaluación. Informe final.
Modelo: proceso de evaluación
Acuerdos ntractuales
2. Evaluación del contexto
6. Evaluación de la eficacia
5. Evaluación del impacto
7. Evaluación de la sustentabilidad
8. Evaluación de la transferencia
Diez días después de la entrega formal del informe, los resultados deben darse a conocer a la comunidad, se puede llevar a cabo una presentación pública de los resultados (ver lista de cotejo)
3. Evaluación de entrada
4. Evaluación de proceso
9. Metaevaluación
10. Informe final
Muestra de algunos métodos e instrumentos utilizados en evaluaciones a través del modelo CIPP Métodos e instrumentos
Contexto
Entrada
Exámenes
x
Revisión de literatura
x
x
Revisión de documentos
x
x
Impacto
Efectividad
Sustentabilidad
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
Visitas a otros programas Observación in situ Entrevistas con los participantes
Proceso
x
Estudios de caso
Transferencia
x
x
Grupos focales
x
x
x
x
x
x
x
Reporte de tareas
x
x
x
x
x
x
x
(...)
El rol del evaluador
Su papel es fundamental.
Tiene que considerar los valores sociales, institucionales, y técnico-profesionales del programa o entidad que va a evaluar.
Se reúne con las partes interesadas para clarificar los valores (base de la planeación y puesta en práctica de la evaluación).
Es objetivista, no relativista: ética objetiva e independiente de los sentimientos personales.
Ventajas
Modelo flexible.
Procedimiento completo o en parte. Modalidades: evaluación interna y externa. Funciones: formativa y sumativa. Diversos escenarios y profesionistas. Amplitud de métodos de recolección de datos.
Modelo sólido, sistemático, práctico e integrador.
Integra los estándares de evaluación de programas educativos.
Ventajas
Es sensible a la realidad de las evaluaciones. Énfasis en los valores. Importancia a diversos usuarios de la evaluación. Integra los estándares de evaluación de programas educativos. Integra los estándares para las evaluaciones. Se obtiene información útil para tomar decisiones en cualquier etapa del proceso.
Ventajas
Se evalúan los resultados esperados e inesperados. La evaluación es un elemento esencial para el mejoramiento y la rendición de cuentas. Contribuye a la evaluación como disciplina. Contribuye a la profesionalización de la evaluación.
Limitaciones Modelo complejo (requiere capacitación). Modelo para tomadores de decisiones. No se toman en cuenta otras audiencias. Las evaluaciones son costosas. Cuando se toman elementos aislados se pierde la fuerza del modelo.
MARIANA ZÚÑIGA GARCÍA ©México, 2013 Este material puede ser reproducido con fines no lucrativos, siempre y cuando se cite la fuente completa.