ASOCIACION LATINOAMERICANA DE POLIGRAFISTAS
NUM,12-Octubre Nro, 06 * OCTUBRE-2007 2018- BOGOTA, BOGOTÁ,D.C. DC-COLOMBIA - COLOMBIA
Presidente Fundador Dr. Sídney Wise Arias Presidente Zoraida Karina Soto Castellanos Vicepresidente Stephanie Luzbeth Cárdenas Díaz Secretario Lenin Alexander Fierro Báez Tesorero Dalgy Yineth Delgado Serrano Director Ejecutivo: José Aníbal Torreblanca García Editor de la revista: Manuel Antonio Novoa Bermúdez Comité Editorial: Felipe Malagón Bolaños Sandra Zambrano Peña Aida Núñez de Wise Fotografía: Archivos particulares Diseño e impresión: Instituto San Pablo Apóstol Carrera 24 B Nro. 29 A 02 Sur PBX: 746 2138 www.ispaeducacion.edu.co Bogotá-Colombia
Una Revisión de la Literatura sobre las Contramedidas
Poligráficas y la Técnica de Preguntas Comparativas Mark Handler y Charles Honts Honts, Handler y Hartwig, LLC Walt Goodson Departamento de Seguridad Pública de Texas
Resumen Revisamos la investigación sobre el efecto de las contramedidas en la técnica de preguntas comparativas. Proveemos una consolidación de la literatura sobre contramedidas así como una definición operacional y una taxonomía sobre las contramedidas. Inspeccionamos la literatura pertinente acerca de la efectividad y limitaciones de ciertas tácticas de contramedidas. Ofrecemos respuestas basadas en la evidencia a preguntas sobre contramedidas comunes y hacemos recomendaciones para el reporte de contramedidas. Palabras clave: contramedidas, técnica poligráfica de preguntas comparativas. Una Revisión de la Literatura sobre las Contramedidas Poligráficas y la Técnica de Preguntas Comparativas Para que una contramedida sea efectiva en una Técnica de Preguntas Comparativas (CQT por sus iniciales en inglés), debe satisfacer dos requisi-
tos. Primero, debe crear suficiente diferencia en las mediciones poligráficas a las preguntas comparativas y relevantes para producir un resultado de honestidad o inconcluso. Segundo, debe ser realizada de una manera encubierta para no ser identificada por el examinador, un observador o en cualquier revisión de control de calidad. En consideración de qué tipo de información sería de mayor ayuda para los examinadores, proveemos respuestas basadas en la evidencia a algunas preguntas importantes acerca de las contramedidas. Nuestra definición operacional de “contramedida”? Ha habido una gran cantidad de definiciones propuestas desde dentro y fuera de la profesión para el término contramedida (CM). Nosotros requeríamos definir operacionalmente CM en la forma en la que aplica a los exámenes poligráficos. Para nuestros propósitos, consideramos que una CM es cualquier cosa que un sujeto examinado hace para intentar alterar los datos del examen y así producir un resultado de honestidad (negati33
vo) en la prueba. Esta definición incluye a sujetos inocentes tratando de asegurar un resultado de Verdadero Negativo (TN por sus iniciales en inglés), así como a sujetos engañosos tratando de producir un resultado de Falso Negativo (FN por sus iniciales en inglés). Una persona podría argüir aparentemente, que todos los sujetos se implican en alguna forma de conducta para producir resultados de honestidad y están intentando hacer contramedidas – los honestos diciendo la verdad y los engañosos mintiendo, pero sentimos que estas acciones no encajan en nuestra definición de alterar los datos del examen. Alterar significa cambiar o hacer diferente de una manera significativa. Qué tipo de contramedidas usa la gente? Seguimos la taxonomía de Honts (1987) ya que divide las contramedidas en categorías que has sido investigadas, si bien otros han producido recomendaciones diferentes para la categorización de las contramedidas (ver Krapohl, 2009). Siguiendo lo planteado por Honts (1987) dividimos las contramedidas en las siguientes categorías: 1. Contramedidas de Estado General: acciones intentadas para alterar el estado psicológico del sujeto y/o las reacciones fisiológicas medidas a través de la totalidad del examen. Incluyen cosas tales como: drogas, relajación o agentes de interferencia. No se enfocan en un punto específico de la evaluación. 2. Contramedidas de Punto Específico: como lo sugiere su nombre, son acciones realizadas por el sujeto en puntos específicos del proceso de evaluación. Pueden ser intentos para reducir las reacciones a las preguntas relevantes, si bien en la mayoría de los casos se trata de esfuerzos para incrementar las reacciones a las preguntas comparativas. Pueden ser empleadas de manera física, mental o en combinación de ambas. 4
3. Contramedidas Espontáneas: son contramedidas que los sujetos reportan hacer sin planeación ni premeditación. Una cantidad de estudios de laboratorio cuestionaron a examinados acerca de sus esfuerzos para producir resultados de honestidad. Estas indagaciones son la fuente de la mayoría de nuestro conocimiento acerca de las contramedidas espontáneas. Los sujetos reportan cosas tales como: relajación, racionalización, imaginarios, intentos por controlar su respiración o el pulso cardiaco, intentos por estar calmado, morder su lengua o presionar los dedos de los pies en puntos al azar. 4. Contramedidas de Información: personas que saben que van a pasar por un examen poligráfico (tanto culpables como inocentes) frcuentemente buscan información acerca cde técnicas poligráficas y contramedidas en internet y otras fuentes. Esta búsqueda de información puede ser motivada por satisfacer una curiosidad, un intento por ocultar el engaño o un esfuerzo por asegurar que la honestidad sea obvia. Una vez contamos con nuestra definición operacional y taxonomía, buscamos proveer respuestas basadas en la evidencia a algunas preguntas importantes acerca de las contramedidas. Respuestas basadas en la evidencia y prácticas concernientes a las contramedidas no son asuntos simples. Deben estar basadas en la investigación y no en anécdotas ni en dogmas. Las respuestas basadas en la evidencia y las prácticas deben ser calificadas por las limitaciones de la investigación en la cual están basadas. Tales calificaciones dependen de aspectos como si los sujetos fueron entrenados o si tuvieron prácticas empleando un instrumento. Quiénes eran los sujetos? El examinador usó algún tipo de sensor de movimientos? El siguiente es un resumen de algunos hallazgos provenientes de estudios con revisión de pares publicados, los cuales revisamos para este artículo:
1. El artículo de Rovner (1986) consiste en la re escritura de su disertación doctoral de 1979 en la cual él entrenó sujetos acerca de los principios de la evaluación CQT, incluyendo darles dibujos de ejemplo de reacciones. El llamó a este grupo el grupo con información. Igualmente, le suministró al grupo informado entrenamiento en contramedidas de Punto Específico, empleando una variedad de contramedidas físicas y mentales, de las que se sabe que producen reacciones. Tuvo un segundo grupo llamado Grupo con Información + Práctica. Les dio el mismo material, pero les permitió practicar sus contramedidas en un polígrafo, antes de su examen real. La exactitud de los del grupo control y del grupo con información fue cercana al 88%. Sin embargo, la exactitud de los resultados del grupo con información más práctica fue cercana al 62%. No reportó resultados usando un sensor de actividad o haciendo intentos por identificar a los sujetos que habían realizado contramedidas. 2. Dawson (1980) usó actores entrenados en el método Stanislavsky para intentar contramedidas de Estado General en un estudio de laboratorio con simulación de crimen. Los sujetos no estaban entrenados en los principios de la poligrafía y no realizaron prácticas. El grupo de actores que hicieron contramedidas fueron motivados a pasar por inocentes y mostrar sus habilidades superiores en actuación. Los sujetos deshonestos que emplearon contramedidas, afirmaron haber empleado imaginería y memorias previas como estrategias. Los efectos de las contramedidas de Estado General no fueron efectivas. Excluyendo los resultados inconclusos, todos los sujetos que hicieron contramedidas mostraron decepción durante el examen. Una nota al margen: Dawson condujo un interesante experimento adicional. Tuvo sujetos que
respondieron las preguntas de dos formas; inmediatamente después de la pregunta o con un retraso de 8 segundos. El midió las respuestas de tres formas: después de la pregunta sin una respuesta, después de la respuesta inmediata y después de la respuesta demorada. Basado en puntajes numéricos, el reportó lo siguiente: la exactitud de las respuestas inmediatas fue así: 75% correcta, 12% incorrecta y 12% de inconclusos. Las mediciones después de la pregunta pero antes de la respuesta demorada, produjeron una exactitud así: 83% correcta, 8% incorrecta y 8% de inconclusos. Las mediciones realizadas después de la respuesta demorada resultaron así: 29% correcta, 8% incorrecta y 62% de inconclusos. 3. Bradley y Ainsworth (1984) evaluaron contramedidas de Estado General empleando intoxicación con alcohol durante la simulación de un crimen y también durante el examen poligráfico. Evaluaron a los sujetos con un examen CQT y con el CIT. Limitaremos nuestra discusión a los resultados de los exámenes CQT. Midieron la tasa cardiaca, la respiración y la respuesta electrodérmica durante la simulación de un robo con disparos. Reportaron que la intoxicación con alcohol durante el crimen disminuyó la capacidad de detección en la respuesta electrodérmica. La intoxicación durante la evaluación no fue efectiva. 4. Honts, Hodes y Raskin (1985) en un primer experimento entrenaron al grupo de contramedidas en los principios del examen CQT y en contramedidas de Punto Específico. Entrenaron a los sujetos en contramedidas físicas (presionar los dedos de los pies contra el piso) y de dolor (morderse la lengua). Los sujetos no tuvieron prácticas con un instrumento. Emplearon un foto pletismógrafo en lugar de la banda cardio. No reportaron efectos significativos en el grupo de contramedidas. Tampoco fueron capaces de detectar cuáles 55
sujetos emplearon contramedidas ni por observación directa ni en la revisión de las gráficas. No emplearon un sensor de movimientos. 5. Honts, Hodes y Raskin (1985) en el experimento 2 entrenaron al grupo de contramedidas en los principios de la técnica poligráfica CQT y en contramedidas de Punto Específico. Entrenaron a los sujetos en contramedidas físicas (presionar los dedos de los pies contra el piso) y dolor (morder la lengua). Sin embargo, a diferencia del experimento 1, estos sujetos con contramedidas practicaron con un instrumento. Usaron una banda cardio estándar para el experimento. Reportaron que se presentó una tasa de 47% de Falsos Negativos para el grupo de contramedidas. Una vez más, fueron incapaces de detectar cuáles sujetos habían usado contramedidas ni por observación directa ni por revisión de las gráficas. No emplearon un sensor de movimientos. 6. Honts, Raskin y Kircher (1987) entrenaron sujetos en Contramedidas de Punto Específico de tipo físico (presionar los dedos de los pies contra el piso) y dolor (morder la lengua). Les dieron a los sujetos entrenamiento en los principios de la técnica CQT y los entrenaron en cuanto a cuándo y cómo aplicar las contramedidas en las preguntas comparativas. No tuvieron prácticas con instrumentos. Midieron los movimientos musculares a través de electromiografía (EMG) en la mandíbula y la pantorrilla de los sujetos. Reportaron que no se presentaron Falsos Negativos en el grupo control de culpables, los cuales no usaron contramedidas. Identificaron correctamente al 78% de los sujetos inocentes. Setenta por ciento del grupo culpable con contramedidas produjeron resultados de Falsos negativos. Identificaron al 90% de los sujetos que realizaron contramedidas, a través de los trazos de la EMG. 6
7. Honts, Raskin, Kircher y Hodes (1988) incluyeron 65 sujetos deshonestos, provenientes de cuatro estudios, quienes habían sido indagados acerca del uso de contramedidas Espontáneas. Sesenta por ciento (39/65) de los sujetos deshonestos admitieron haber usado Contramedidas Espontáneas. Las estrategias incluyeron: relajación, racionalización, auto engaño, disociación, imaginería, intentos de controlar la respiración o la tasa cardiaca, morderse la lengua, intentos por un control general de las respuestas fisiológicas y presión de los dedos de los pies contra el piso. La exactitud de los calificadores ciegos fue: 80% correctos, 3% incorrectos y 17% inconclusos. El uso de Contramedidas Espontáneas no afectó los resultados de los exámenes. Los examinadores no pudieron identificar a los sujetos que emplearon contramedidas. No se usó sensor de movimientos. 8. Raskin y Kircher (1990) entrenaron sujetos en Contramedidas de Punto Específico físicas (contracción muscular) y mentales (contar hacia atrás). Les enseñaron los principios básicos de la evaluación poligráfica y también cuándo deberían emplear las contramedidas. Los entrenaron y pudieron practicar con un instrumento. Emplearon un sensor de movimientos. Las contramedidas produjeron cerca de 50% de Falsos Negativos cuando se calificaron a través del computador. Todas las contramedidas físicas fueron identificadas a través de la revisión de los datos provenientes del sensor de movimientos.
También entrenaron a un grupo con “relajación” en los principios de la poligrafía. Este grupo empleó la relajación autógena, como una Contramedida de Estado General, a lo largo de todo el examen. La relajación como Contramedida de Estado General no fue efectiva.
9. Honts, Raskin y Kircher (1994) entrenaron sujetos en Contramedidas de Punto Específico y en los principios del examen poligráfico CQT. En este caso emplearon contramedidas físicas (contracción muscular), de dolor (morder la lengua) y mentales (contar hacia atrás), durante las preguntas comparativas. Los sujetos fueron entrenados pero no tuvieron prácticas con un instrumento poligráfico. Hicieron mediciones EMG en la mandíbula y la pantorrilla. El grupo de contramedidas produjo una tasa de 50% de Falsos Negativos y no fueron detectados ni por observación directa ni en la revisión de las gráficas. Fueron capaces de identificar los grupos de contramedidas de dolor y físicas, mediante los puntajes EMG los cuales fueron significativamente más grandes que los otros grupos. 10. El artículo de O´Toole y cols., (1994) fue una replicación parcial del estudio de Bradley y Ainsworth (1984) acerca de las Contramedidas de Estado General usando alcohol. En este caso, el grupo deshonesto fue intoxicado únicamente durante el robo simulado. Midieron conductancia de la piel, respiración y amplitud del pulso en el dedo. No suministraron ninguna información sobre los principios de la poligrafía, no hicieron entrenamiento ni practicaron contramedidas con los sujetos de este grupo. La intoxicación con alcohol durante el robo no tuvo efecto en los resultados poligráficos. 11. Honts, Amato y Gordon (2001) no entrenaron a los sujetos pero les indagaron acerca de las acciones que habían realizado para ayudarse a pasar sus exámenes poligráficos en un estudio grande de laboratorio. En general, 68% de los sujetos reportaron haber intentado usar una Contramedida Espontánea. Casi la mitad de los sujetos honestos (46%) reportaron el uso de al menos una Contramedida Espontánea. Estas Contramedidas Espontáneas
incluyeron: alterar la respiración así como estrategias mentales y físicas. Las Contramedidas Espontáneas no afectaron los puntajes de decepción, pero cambiaron los puntajes de honestidad en una dirección negativa. En otras palabras, los sujetos honestos que trataron de ayudarse a incrementar sus chances de un resultado de Verdadero Negativo, tuvieron menos puntajes de honestidad que aquellos que no intentaron Contramedidas Espontáneas. Estos sujetos no fueron entrenados, ni tampoco tuvieron la oportunidad de practicar con un instrumento. No hubo sensor de movimientos que fuese empleado en ninguno de estos casos.
Más tarde, tres instructores federales certificados revisaron las gráficas, en un esfuerzo por identificar la presencia de contramedidas. Ninguno de estos tres instructores entrenados pudo identificar a los sujetos que habían realizado contramedidas en un nivel superior al azar, al revisar las gráficas de los exámenes.
12. Oglivie y Dutton (2008) reanalizaron los datos no publicados de un experimentos de contramedidas en laboratorio, con y sin el trazo del sensor de movimientos. En este caso los sensores de movimientos incluían unidades de silla, pies y brazos. Los sujetos con contramedidas recibieron una copia de la publicación de internet titulada The Lie Behind the Lie Detector (Maschke y Scalabrini, 2002) como una referencia. Este material contiene descripciones detalladas de los principios del examen poligráfico CQT, así como estrategias de contramedidas. Los sujetos con contramedidas tuvieron que pasar un examen escrito acerca del material de contramedidas, antes de proceder. Emplearon Contramedidas de Punto Específico de tipo físico (enroscar los dedos de los pies) durante las preguntas comparativas. A un subgrupo dentro del grupo de contramedidas le fue permitido practi77
de las acciones que habían realizado para ayudarse a pasar sus exámenes poligráficos en un gran estudio de laboratorio. En general un 48% de los sujetos reportaron haber intentado Contramedidas Espontáneas. Cerca del 50% a los que se examinó con preguntas comparativas de mentira probable (PLC) reportaron Contramedidas Espontáneas. Para los sujetos a los que se aplicó la variante de preguntas comparativas de mentira dirigida (DLC), cerca del 46% reportaron Contramedidas Espontáneas. Descomponiendo estos datos dentro del grupo de culpables, en general 78% del grupo de culpables, reportó intentos de Contramedidas Espontáneas (DLC=72%, PLC=83%). Dentro del grupo de sujetos honestos, en general 18% reportaron intentos de Contramedidas Espontáneas (DLC=20%, PLC=15%). Ninguna de las diferencias fue significativa.
car con un instrumento mientras recibían retroalimentación en tiempo real, por parte de un examinador experimentado.
Cinco examinadores poligráficos experimentados revisaron las gráficas en dos condiciones: con y sin el sensor de movimientos. A los examinadores se les pidió: a) calificar los exámenes empleando el sistema federal de 7 puntos con normas para exámenes de evidencia, y b) usar la escala de Likert de 5 puntos, tanto en ausencia como en presencia de contramedidas.
La media de puntajes en presencia/ausencia de contramedidas fue significativa estadísticamente entre las condiciones de sensor y no sensor. Sin el sensor de movimientos, los puntajes de los casos con presencia/ausencia de contramedidas fueron cercanos a cero. Los examinadores no tuvieron un desempeño que estuviera por encima de los niveles de azar, cuando confiaban en los canales tradicionales de poligrafía para identificar las contramedidas sin los datos del sensor de movimientos. La adición de los datos del sensor de movimientos hizo más probable la identificación del grupo de contramedidas.
Como nota adicional, el promedio de los puntajes totales de sujetos culpables que hicieron contramedidas con el sensor de movimientos fue similar al promedio de los puntajes de sujetos honestos (en ambos casos fueron positivos). El promedio de puntajes totales de sujetos culpables que hicieron contramedidas fue el doble que el promedio de los puntajes de sujetos honestos. Estos datos sugieren que las estrategias de Contramedidas de Punto Específico pueden incrementar los resultados de Falsos Negativos.
13. Honts y Reavy (2015) no entrenaron a ninguno de sus sujetos pero les indagaron acerca 8
Los Investigadores no hicieron ningún intento por identificar contramedidas, ni a través de observación directa ni revisión de las gráficas. Al igual que Honts, Amato y Gordon (2001) los puntajes de sujetos honestos que hicieron contramedidas, fueron menos positivos. Una vez más, estos datos sugieren que los sujetos honestos que usan Contramedidas Espontáneas, disminuyen sus chances de pasar el examen.
14. El estudio de Stephenson y Barry (1998) no se relacionó con la técnica CQT pero se discute acá debido a sus hallazgos. Los sujetos fueron poligrafistas y por ende tenían amplio conocimiento acerca de los procedimientos poligráficos CQT y sobre contramedidas. Se evaluó si se podía identificar un sujeto que realice “movimientos físicos ente los dedos de los pies y los hombros”, mientras se recopilan gráficas. Emplearon un sensor de movimientos montado al frente de la silla del examinado. Recopilaron gráficas en un simulacro
de examen de familiarización, en el que el examinador contaba de 1 a 10. En algún punto del examen, el examinado realizaba una contramedida física encubierta y recordaba el número en que había intentado la contramedida. Ubicaron un “observador” directamente al frente del sujeto, para que mirara el movimiento. La tasa general de detección de contramedidas del examinador observando al sujeto fue de 9%. El “observador” identificó las Contramedidas de Punto Específico en el 36% de los casos. Cuando se usó el sensor de movimientos, los autores del estudio identificaron 85% de los intentos de contramedidas. 15. Honts y Halloway (2007) realizaron una replicación constructiva del estudio de Rovner (1986) usando el Test de Espionaje y Sabotaje (TES). Le suministraron a la mitad de los sujetos honestos y deshonestos el libro The Lie Behind the Lie Detector (Maschke y Scalabrini, 2000) para que lo estudiaran durante una semana. No encontraron efectos significativos por el suministro de información en la validez del TES. Una vez más, no obstante, aquellos sujetos que reportaron el uso de contramedidas, tuvieron significativamente menos probabilidades de obtener puntajes de honestidad. Esto incluyó tanto a los sujetos honestos como a los deshonestos. Ahora vamos a proveer algunas preguntas frecuentes sobre el tema de las contramedidas junto con respuestas basadas en la evidencia. 1. Sujetos tanto inocentes como culpables intentan hacer contramedidas? La respuesta simple es “Si”. La investigación muestra que tanto sujetos inocentes como culpables reportan haber intentado Contramedidas Espontáneas. A partir de los datos del estudio # 9 (Honts, Raskin y Kircher, 1994), que estaba limitar a sujetos deshonestos, 65% de ellos intentaron
Contramedidas Espontáneas. A partir de los datos del estudio # 13 (Honts y Reavy, 2015) cerca de la mitad de los sujetos en general reportaron intentos de Contramedidas Espontáneas. Una mayor proporción de sujetos culpables reportaron haber intentado Contramedidas Espontáneas, pero el 18% de los sujetos inocentes también reportaron haberlas intentado. A partir de los datos del estudio # 11 (Honts, Amato y Gordon), encontramos que cerca del 68% general y cerca del 50% de los inocentes intentaron Contramedidas Espontáneas. 2. Qué tipo de contramedidas intentan hacer los sujetos? A partir de los datos de una cantidad de estudios acerca de las Contramedidas Espontáneas, se incluyen una variedad de estrategias reportadas: relajación, racionalización, auto engaño, disociación, imaginería, intentos de controlar la respiración o la tasa cardiaca, morderse la lengua, intentos de controlar las respuestas fisiológicas generales y presionar los dedos de los pies contra el piso. Las Contramedidas de Punto Específico, generalmente incluyen actividades de tipo físico (presionar o enroscar los dedos de los pies, etc.), de dolor (morderse la lengua) o mentales (contar hacia atrás). Algunas fuentes de información sobre las contramedidas sugieren acciones como contraer el esfínter anal (http://www.polygraph. com/). Consejos más soficticados acerca de contramedidas de conducta en el examen y la grabación de gráficas se ofrece en https://antipolygraph.org/ (Maschke y Scalabrini, 2005). Algunos examinadores describen intentos de una forma de Contramedidas de Estado General, al describir intentos de racionalización, relajación, disociación, imaginería, etc. 3. Qué tipo de contramedidas son efectivas incrementando los resultados de Verdaderos Negativos, creando resultados de Falsos Negativos o inconclusos, y en qué medida lo son? 99
Las Contramedidas Espontáneas no produjeron efectos para los sujetos deshonestos, en términos de incrementar los resultados de Verdaderos Negativos o inconclusos, ni tampoco se encontró que generaran efectos confiables en los puntajes numéricos. Los sujetos deshonestos en el estudio # 15 llevaron los puntajes lejos de un resultado de honestidad. Las Contramedidas Espontáneas en sujetos honestos disminuyeron sus chances de ser encontrados honestos. La información sobre las contramedidas que lleva a aquellas de tipo Espontáneo, simplemente desplazó los puntajes hacia la dirección negativa (ver estudio #15). Las Contramedidas de Estado General no han demostrado ser efectivas (ver estudios 2 y 10). El estudio 3 reportó algún grado de efecto producto de la intoxicación durante la ejecución de un crimen simulado. Las Contramedidas de Punto Específico han demostrado ser efectivas en desplazar la mediciones de la respuesta diferencial e incrementar los resultados de Falso Negativos (ver los estudios 1, 4, 5, 6, 8, 9 y 12) si se ha tenido entrenamientos específico y no solo suministro de información. De esta forma, las Contramedidas de Punto Específico paredón ser las más peligrosas cuando se combinan con entrenamiento y práctica. 4. Los examinados de pruebas poligráficas tratan de hacer contramedidas más con preguntas comparativas de mentira dirigida o la variante de mentira probable? Esto no ha sido demostrado a través de la investigación relevante (ver estudio 13). 5. Pueden los examinadores identificar a examinados que estén usando contramedidas en un nivel superior al azar? La adición de un sensor de movimientos hace una diferencia? No existen estudios que soporten que sin un sensor de movimientos que los examinadores pueden identificar contramedidas en un nivel superior al azar (ver estudios 4, 5, 7, 11 y 12). De hecho la 10
investigación indica que cuando los examinadores tratan de identificar contramedidas, acusan de manera falsa a un número sustancial (47% o más) de inocentes que no usan contramedidas, de emplearlas (estudio 5). Con un sensor de movimientos (o un EMG) los poligrafistas son significativamente capaces de identificar usuarios de contramedidas (ver estudios 6, 8, 9, 12 y 14) que empleen aquellas que requieren movimientos (por ejemplo presionar los dedos de los pies contra el piso). Finalmente, no hay evidencia en cuanto a que el actual entrenamiento en detección de contramedidas sea efectivo. De hecho, las supuestas señales de contramedidas respiratorias causadas por los materiales producidos por Williams (http:// www.polygraph.com/) han demostrado ocurrir de una manera natural en un número sustancial de sujetos inocentes que no están usando contramedidas (Honts y Crawford, 2010). 6. Cómo afecta el uso de contramedidas los puntajes de sujetos honestos y deshonestos? Las Contramedidas de Punto Específico incrementan los resultados de Falsos Negativos, si se hacen después de haber recibido entrenamiento al producir efectos significativos en los sensores poligráficos, dependiendo del tipo de contramedida usada (ver estudios 1, 5, 6, 8, 9 y 12). No es claro cuál sería su efecto en cuanto al incremento de resultados de Verdaderos Negativos, aunque no hay razón para pensar que no podrían ser efectivas. Las Contramedidas Espontáneas no incrementan los Falsos Negativos y probablemente hagan disminuir los resultados de Verdaderos Negativos. Se esperaría que las Contramedidas de Información que conllevan a Contramedidas Espontáneas, produzcan resultados similares. Las Contramedidas Espontáneas son extremadamente comunes en los examinados y parece no haber evidencia alguna en que sean efectivas. De esta manera y como parece sugerir la evidencia, si los datos simplemente
parecen estar desordenados y se cuenta con datos no contaminados suficientes para analizar el examen, el calificador debe tratar de analizar esos datos no contaminados y una decisión debe ser rendida si se alcanzan puntajes concluyentes (por ejemplo, NDI/NSR, DI/SR). Los examinadores deben reportar cuando la cantidad y la calidad de los datos sean insuficientes para finalizar una evaluación numérica estandarizada. En ejemplo de cómo se podría redactar el reporte, sería: Después de evaluar la cantidad y la calidad de los datos de examen recopilados durante la prueba, determino que los datos del examen fueron de una insuficiente cantidad y/o calidad interpretable, como el resultado de numerosos artefactos como para conducir una evaluación numérica estandarizada. En otras palabras, hubo una cantidad insuficiente de datos como para rendir una decisión confiable en el examen. Es improbable que las Contramedidas de Estado General puedan crear una respuesta diferencial entre preguntas relevantes y comparativas que pudiesen incrementar los resultados de Verdaderos Negativos o Falsos Negativos. En el peor de los casos, se puede esperar que causen un resultado inconcluso, debido al efecto mitigante en la capacidad de reacción general a todas las preguntas del examen; incluso su papel incrementando los resultados inconclusos no ha sido demostrado en un estudio con revisión de pares y publicado. Un estudio no publicado (Gatchel y cols., 1983) evaluó los efectos de las Contramedidas de Estado General a través del consumo del beta bloqueador propanolol. El único hallazgo significativo fue un incremento en la exactitud con los inocentes. El estudio 3 no reportó efectos debidos a la intoxicación del alcohol durante un examen poligráfico. Sin embargo, como se ha mencionado, reportaron un efecto debido a la intoxicación en el momento del crimen. La replicación de ese es-
tudio no pudo encontrar un efecto del alcohol y resultados de Falsos Negativos por intoxicación en el momento del crimen (ver estudio 10). En el estudio 2, actores experimentados trataron de producir resultados de Falsos Negativos usando Contramedidas de Estado General, pero no tuvieron efecto. En resumen, la base de investigación sobre las contramedidas es incompleta y se requieren estudios adicionales. Sin embargo, la limitada investigación muestra que las contramedidas entrenadas son algo que debería preocupar a los examinadores, en la medida en que bajo ciertas circunstancias, tales contramedidas han producido números sustanciales de errores de Falsos Negativos. Más aún, cuando los examinados deshonestos entrenados emplean contramedidas los examinadores no han mostrado una habilidad para identificar a aquellos sujetos a niveles superiores al azar, sin algún tipo de sensor de movimientos (y esto solo para contramedidas que requieran algún tipo de movimiento físico). Sin importar casos anecdóticos de éxito en la detección de contramedidas, ninguna investigación ha mostrado que algún examinador sea capaz de detectar confiablemente contramedidas a partir de un patrón simple de reconocimiento. De hecho, como se ha mencionado, la investigación ha demostrado que los patrones respiratorios que supuestamente están asociados a algunas aproximaciones de entrenamiento a través de internet, ocurren naturalmente en los registros de respiración en un número sustancial de sujetos inocentes (Honts y Crawford, 2010). Nos percatamos de una serie de cosas que podría ser contramedidas aparecen espontáneamente en sujetos honestos. Lo que podría distinguir estos eventos de una contramedida, sería la frecuencia o la focalización de las conductas. Por ejemplo, sujetos tanto inocentes como culpables se mueven durante el examen. Esto no quiere decir en sí mismo que los movimientos no sean útiles para 1111
la detección de intentos de contramedidas. De hecho, la investigación muestra que los movimientos pueden ser un fuerte indicativo en este sentido. La sola presencia de hiperventilación, como otro ejemplo, no confirma una contramedida, pero si persiste a pesar de las instrucciones del examinador o si parece ocurrir solo en una categoría de pregunta, entonces puede ser un indicativo útil. Básicamente, nosotros esperamos investigación adicional que ayude a desarrollar mediciones mejoradas de anormalidades entre grupos de preguntas. Esfuerzos futuros en la detección de contramedidas deberían enfocarse en la aproximación de una medición objetiva. La investigación claramente muestra que cuando los examinadores tratan de detectar contra-
Referencias Bradley, M.T. & Ainsworth, D. (1984). Alcohol and the psychophysiological detection of deception. Psychophysiology 21, 63-71 Dawson, M.E. (1980). Physiological detection of deception: Measurement of responses to questions and answers during countermeasure maneuvers, Psychophysiology 17, 8-17 Gatchel, R.J., Smith J.E., Kaplan, N.M., et al. (1983). The effect of propranolol on polygraphic detection of deception. Unpublished manuscript. 12
medidas, acusan falsamente a un número sustancial de sujetos inocentes. Los examinadores deben ser extremadamente cuidadosos acerca del reporte de contramedidas, basándose en su habilidad para intuir que un sujeto ha usado este tipo de estrategias. Hacer esto pone en riesgo al inocente. El lado positivo de esta literatura es que cuando los sujetos deshonestos se involucran en contramedidas que requieran movimientos, pueden ser identificados de manera confiable cuando los examinadores usan sensor de movimientos. Finalmente, no hay investigación publicada en cuanto a que la información disponible en sitios web de contramedidas sea de alguna forma peligrosa para la validez del examen CQT.
Honts, C.R. (1986). Countermeasures and the physiological detection of deception: a psychophysiological analysis. Dissertation Abstracts International 47, 1761B. Honts, C.R., Hodes, R.L. & Raskin, D.C.(1985). The effects of physical countermeasures on the physiological detection of deception. Journal of Applied Psychology 70. 177-187 Honts, C.R. (1987). Interpreting research on countermeasures and the physiological detection of deception. Journal of Police Science and Administration 15, 204-209
Honts, C.R., Raskin, D.C. & Kircher J.C. (1987). Effects of the physical countermeasures and their electromyographic detection during polygraph tests for deception. Journal of Psychophysiology 1, 241-247 Honts, C.R., Raskin, D.C., Kircher J.C. & Hodes, R.L. (1988). Effects of spontaneous countermeasures on the physiological detection of deception. Journal of Police Science and Administration 16, 91-94 Honts, C.R., Raskin, D.C. & Kircher J.C (1994). Mental and physical countermeasures reduce the accuracy of polygraph tests. Journal of Applied Psychology 79, 252-259 Honts, C.R., Amato S. & Gordon, A.K. (2001). Effects of spontaneous countermeasures used against the comparison question test. Polygraph 30, 1-9 Honts, C.R. & Alloway, W. (2007). Information does not affect the validity of a comparison question test. Legal and Criminological Psychology. 12, 311-312 Honts, C.R. & Crawford, M. (2010). Polygraph countermeasures cannot be detected from respiratory signatures: Government policy puts the innocent at risk. Paper presented at the American Psychology-Law Society Meeting, Vancouver. 17-20 March. Honts, C.R. & Reavy, R. (2015). The comparison question polygraph test: a contrast of methods and scoring. Physiology & Behavior 143, 15 – 26
Krapohl, D.H., (2009). A taxonomy of polygraph countermeasures. Polygraph 38, 89-105 Maschke, G.W. & Scalabrini, G.J. (2002). The lie behind the lie detector. Internet https://antipolygraph.or/lie-behind-the-lie-detector.pdf Maschke, G.W. & Scalabrini, G.J. (2005). The lie behind the lie detector. Second Edition. Internet https://antipolygraph.or/lie-behind-thelie-detector.pdf Ogilvie, J. & Dutton, D.W. (2008). Improving the detection of physical countermeasures with chair sensors. Polygraph 37(4), 136-148 O´Toole, D., Yuille. J.C., Patrick, C.J. & Iacono, W.G. (1994). Alcohol and the physiological detection of deception: arousal and memory influences. Psychophysiology 31, 253-263 Raskin, D.C. & Kircher, J.C. (1990). Development of a computerized polygraph system and physiological measures for detection of deception and countermeasures. A pilot study.
Manuscritos No Publicados Rovner, L.I., Raskin, D.C. & Kircher, J.C. (1979). Effects of information and practice on detection of deception. Psychophysiology 16, 197198 (abstract). Rovner, L.I. (1986). The accuracy of physiological detection of deception for subjects with prior knowledge. Polygraph 15, 1-39
Los Examinadores pueden encontrar en la Tabla 1 una referencia rápida para consolidación de los datos de estudios sobre las contramedidas. Nótese que Honts y cols., 1988 no está incluido en la tabla, en la medida en que esos resultados fueron derivados de estudios ya incluidos. 1313
Estudio
Rovner (1986)
Dawson (1980)
Bradley y Ainsworth (1984)
Honts, Hodes y Raskin (1985) Experimento # 1
Tipo de Examen
CQT
Tipo de Contramedida
El grupo que practicó contramedidas las usó físicas y mentales
CQT
Contramedidas de Estado General
Tuvieron práctica y recibieron retroalimentación
Limitado a la parte de CQT
Contramedidas de Estado General – intoxicación con alcohol durante el crimen y durante el polígrafo
CQT
Los grupos de contramedidas hicieron lo siguiente: 1. Morderse la lengua o, 2. Contracción muscular presionando los dedos de los pies contra el piso
Entrenamiento S/N
Instrucción y Práctica con Instrumento S/N
Práctica: no
Instrucción: si
No
No
Instrucción: si Los grupos de información y de Práctica: si información más práctica recibieron entrenamiento extensivo en principios de la poligrafía y estrategias de contramedidas No
No
Todos recibieron entrenamiento extensivo en principios de la poligrafía y estrategias de contramedidas
Sensor de Movimientos
No
No
Las Contramedidas de Estado General to produjeron efectos
Exactitud de calificación: Grupo estándar =87.5%; grupo con información =87.5%; grupo con información y práctica= 62.5%
Hallazgos Reportados
No
No hubo efectos por intoxicación con alcohol durante la evaluación. Las reacciones de EDA se vieron reducidas por intoxicación durante el escenario del crimen.
S/N
No. Tampoco se usó banda cardio en el experimento 1
No se encontraron efectos significativos por las Contramedidas. No se pudo detectar a los sujetos que hacían contramedidas ni por la interpretación de las gráficas ni por la observación
14
1515
CQT
CQT
CQT
Honts, Hodes y Raskin (1985) Experimento # 2
Honts, Raskin y Kircher (1987)
Raskin y Kircher (1990)
El grupo de relajación empleó: imaginería mental
El grupo de contramedidas hizo lo siguiente: física: contracción muscular MAS mental; contar hacia atrás
El grupo de contramedidas hizo lo siguiente: morderse la lengua y presionar los dedos de los pies contra el piso
2. Contracción muscular presionando los dedos de los pies contra el piso
1. Morderse la lengua o,
Los grupos de contramedidas hicieron lo siguiente:
El grupo de contramedidas y el grupo de relajación fueron entrenados en los principios de la poligrafía y en contramedidas. Practicaron en registros.
El grupo de contramedidas recibió entrenamiento extensivo en principios de la poligrafía y estrategias de contramedidas
Todos recibieron entrenamiento extensivo en principios de la poligrafía y estrategias de contramedidas
Práctica: no
Instrucción: si
Práctica: no
Instrucción: si
Práctica: si
Instrucción: si
Si: sensor de movimientos
Si. Se empleó EMG en mandíbula y pierna
No
La relajación no fue efectiva. Todos los sujetos que realizaron contramedidas físicas fueron identificados con el sensor de movimientos
Computador: grupo de contramedidas =50% Falsos Negativos.
No hubo Falsos Negativos en el grupo de control. 78% de los inocentes fueron identificados correctamente. 90% de los sujetos con contramedidas que generaron resultados de Falsos Negativos, fueron identificados con los trazos del EMG
No se pudo detectar a los sujetos que hacían contramedidas ni por la interpretación de las gráficas ni por la observación
Honts, Raskin y Kircher (1994)
O´Toole y cols. (1994)
Honts, Amato y Gordon (2001)
CQT
El grupo de contramedidas usó: física: contracción muscular más dolor: morderse la lengua
Limitado a la parte de CQT
Contramedidas de Estado General – intoxicación con alcohol durante el crimen
El grupo de mentales: contar hacia atrás
CQT
Todas las contramedidas fueron espontáneas – algunos sujetos usaron más de una. 32% - Respiración 76% - Mental 10% - Físicas
Todos recibieron entrenamiento extensivo en principios de la poligrafía y estrategias de contramedidas
No
No
Instrucción: si Práctica: no
No
Instrucción: no Práctica: no
No
No
EMG – mandíbula y pantorrilla
Tres instructores del DoDPI no identificaron la presencia de contramedidas en un nivel superior al azar. 47% de decisiones sobre presencia de contramedidas se dieron en sujetos honestos..
No se encontraron efectos por la intoxicación con alcohol durante el crimen
Falsos Negativos =50% de quienes hicieron contramedidas mentales y físicas. No se pudo identificar contramedidas ni por la observación ni por los trazos de las gráficas. Las mediciones de EMG en los grupos de contramedidas fueron significa- tivamente mayores que en los sujetos del grupo control
16
1717
CQT
CQT
Oglivie y Dutton (2008)
Honts y Reavy (2015)
Espontáneas
Contramedidas físicas: enroscar los dedos de los pies
No
Todos recibieron entrenamiento extensivo en principios de la poligrafía y estrategias de contramedidas
No
Práctica: si, para un subtest
Instrucción: si
Si
Se hicieron comparaciones con y sin sensores de pies, brazos y silla. 15 sujetos inocentes y culpables de control y 38 tipos de contramedidas. Las gráficas se imprimieron con y sin el trazo de movimientos
Los puntajes de honestidad fueron menos positivos cuando se intentaron contramedidas
PLC=15%; DLC=20%
18% inocentes que intentaron contramedidas
PLC=83%; DLC=72%
78% culpables que intentaron contramedidas
PLC=50%; DLC=46%
48% intentaron contramedidas
No se intentaba identificar contramedidas.
La media de puntajes en el sensor de actividad fue significativa para los grupos de contramedidas con y sin sensor. No se pudo determinar la presencia de contramedidas sin el sensor.
Cinco calificadores observaron los 68 casos
Stephenson y Barry (1988)
Honts y Alloway (2007)
Examinador contando de 1 a 10
CQT
El sujeto hizo un movimiento físico entre los dedos de los pies y el hombro
Contramedidas de Información y Espontáneas
Tenía información ya que era un examinador
No
No
Instrucción: si, ya que era un examinador. Práctica: Si
Si. Bajo las patas de la silla
Si. Se empleó el Se tuvo un observador sensor de silla en frente del sujeto, en de Lafayette adición al examinador. y una barra sensora bajo las Las tasas de detección patas delanteras de contramedidas fueron: Examinador = de la silla 9%; observador 36%; trazo del sensor de movimientos = 85%
No se encontraron efectos sobre Falsos Negativos culpables; los puntajes de probabilidad de los sujetos honestos que hicieron contramedidas se desplazaron lejos de la zona de honestidad
18
El efecto de caída de conductancia
electrodérmica inducida en el circuito bidactilar: Preconizando su
denominación técnica y explicando sus causas científicas.
Carlos Monge*
Resumen El presente artículo busca explicar de forma simplificada las causas científicas de un fenómeno visto tan comúnmente en el comportamiento de gráficos de Poligrafía, del que solamente se instruía al discente a no considerarlo para su puntuación durante el análisis bioestadístico de los datos fisiológicos; sin embargo, el estudio también persigue el objetivo de preconizar la denominación técnica a este fenómeno, ya que hasta hoy en día carece de un tecnicismo propio para referirlo en el argot poligráfico; de tal manera, que las siguientes líneas están dedicadas al estudio de la caída o inhibición momentánea de la conducción eléctrico-galvánica sobre la epidermis de los dedos, donde se encuentran instalados los electrodos del Conductógrafo. Al respecto, los principios teóricos sugieren que este evento se debe al aumento de contacto de la superficie dactilar por una maniobra de presión sobre los electrodos del canal galvánico del polígrafo. Dicho fenómeno suele ser apreciado mediante la precipitación
momentánea de la línea gráfica de conducción galvánica y se debe a que las propiedades histológicas elásticas del pulpejo permiten abarcar mayor superficie de contacto, al ejecutar una maniobra de presión sobre los nodos de conducción. De ahí que el estrato superior epidérmico de la almohadilla dactilar (fingerpad), conocido como capa córnea, es el principal agente físico responsable de disminuir la conductancia eléctrica en los dedos, debido a que está compuesta en gran parte por la proteína llamada queratina, misma que está integrada por azufre, y que a su vez, este elemento químico es considerado como un pésimo conductor eléctrico. Palabras clave: efecto de caída de conductancia electrodérmica inducida, canal galvánico del polígrafo, línea gráfica de conducción galvánica, epidermis, pulpejo dactilar, electrodo, capa cornea, queratina, azufre, fingerpad, almohadilla digital, Conductógrafo, corriente eléctrica galvánica, área de contacto epidérmico, maniobra de semi-flexión dactilar, circuito bidactilar. 1919
Fuente de la imagen base: http://1150hga.blogspot.mx/2010/09/dedo-en-boutonniere.html
Introducción Desafortunadamente gran parte de la escasa teoría poligráfica que actualmente tenemos sólo está basada en tratar los efectos que involucran la compleja labor de la detección de la mentira, dejando de lado el conocimiento de las causas o principios científicos que los originan, situación que hoy motiva a nuevos pensadores de la materia en buscar respuestas a esas lagunas de conocimiento que enriquecen el automatismo de los técnicos poligráficos y afianzan aún más la corriente anti-científica de nuestra disciplina frente a la comunidad epistémica. En este sentido, la explicación de la hipótesis vertida en supralíneas está fundamentada en el método demostrativo de la Ciencia, el cual consiste en explicar hechos basados en principios (leyes), teorías, conceptos o axiomas, previamente comprobados en tesis y universalmente aceptados por la comunidad científica. Otro aspecto que es importante resaltar del 20
presente estudio, es que su logística de fundamentación está basada en promover la filosofía del pensamiento lateral de Edward de Bono (2008), quien ilustra básicamente que los problemas pueden ser solucionados por medio de otras perspectivas no tradicionales, buscando respuestas desde otras direcciones que no son inmediatas, pero que proporcionan un conocimiento más integral. Esto quiere decir, que regularmente las explicaciones a problemas en materia de poligrafía, sólo están basadas en bibliografía o referencias de autores propiamente de la materia, limitando así, el campo del conocimiento (modalidad conocida como pensamiento vertical) y proporcionando soluciones a problemas científicos con baja aceptación por la comunidad científica; lo cual, es generado por la endeble fundamentación teórica. En suma, los objetivos de esta investigación documental, son: explicar y describir las causas que están detrás del fenómeno de caída de conductividad epidérmica y preconizar la denominación técnico-científica al fenómeno que hasta hoy en día carece de un nombre formal para referirlo.
Metodología Como se refirió en párrafos anteriores, la metodología utilizada para resolver la problemática, se basó en el método demostrativo, consistente en fundamentar hipótesis en principios o datos previamente comprobados y validados científicamente. También el presente estudio está direccionado bajo la filosofía del pensamiento lateral en donde se tomaron como eje rector a bibliografías en materia de Física, Química, Biología, Medicina, Dactiloscopia, histología de la piel humana, Electrónica, Poligrafía, Fisioterapia clínica, etc., dejando entrever que la solución a la problemá-
tica posee una perspectiva multilateral y circular; donde además, los temas de naturaleza técnica especial fueron tratados con títulos bibliográficos de nivel de especialidad, con el propósito de obtener conclusiones de calidad y con confianza científica. No obstante, es imperativo mencionar que el estudio primario que inspiró al investigador para teorizar sobre los factores que intervienen en la producción del efecto de caída de conductancia epidérmica, fue el artículo del Doctor en Biomecánica, Roland Ennos, de la universidad de Hull, del Reino Unido., que tituló: The frictional properties of human fingerpads (las propiedades de fricción de los dedos humanos), publicado en abril del 2009 en la revista The Journal of Experimental Biology. Dicha tarea investigativa del profesor Ennos, fue orientada a develar la función real de las crestas epidérmicas, en la que necesitó estudiar las propiedades de fricción de dichas estructuras biológicas, tomando como muestra de prueba la región anatómica de la parte distal de los dedos (pulpejos). De dicho estudio se derivaron datos concretos que permitieron fundamentar la teoría del efecto de caída de conductancia epidérmica momentánea, los cuales se tratarán más adelante.
Desarrollo Características gráficas del fenómeno El efecto de Caída de conductividad epidérmica inducida es reconocible ilustrativamente en un gráfico de poligrafía mediante el descenso momentáneo de la línea gráfica de conducción galvánica, continuado por un esfuerzo ascendente de la misma para recuperar su nivel tónico sobre el canal de centrado.
línea gráfica de conducción
EDA
caida de conductividad
recuperación de conductividad
Figura1. Se observa la forma de onda de la línea gráfica de conducción eléctrica con interrupción de flujo temporal de la corriente continua sobre el circuito cutáneo dactilar; manifestando gráficamente el efecto de caída de conductancia epidérmica inducida.
En un primer plano de acercamiento a la explicación de este fenómeno, es imperativo mencionar que cuando la línea gráfica de conducción está situada de forma horizontal con respecto al eje de centrado (Fig. 2) , significa que la corriente eléctrica galvánica (o continua) fluye -aunque con dificultad- a través de la piel (medio de conducción biológico) facilitada por una normal (línea base) en la porción de la emulsión depositada en la superficie de la capa cornea de la epidermis, llamada película hidrolipídica.
EDA
Figura 2. Representación de la forma del trazo electrodérmico con ausencia de estimulación y flujo eléctrico estable sobre el circuito cutáneo dactilar. Además, representa un estado más o menos estable de resistividad eléctrica.
Por el contrario, si traemos a nuestra mente momentos donde se desinstala voluntaria o accidentalmente un electrodo de la mano del sujeto de 2121
prueba, observamos un patrón de trazo del EDA en el que la línea gráfica de conducción pierde continuidad (Fig.3), precipitándose sin regreso a su eje centrado. Es aquí entonces, donde se puede apreciar un ejemplo de caída de conducción eléctrica de tipo permanente, la cual se recupera hasta que es reinstalado el electrodo para que la corriente galvánica fluya nuevamente, con una representación gráfica en el que la línea de conducción asciende abruptamente a nivel del eje de centrado para posicionarse de forma horizontal. El electrodo se desconecta, interrumpiendo el cierre del circuito eléctrico.
El electrodo se reinstala, cerrando el flujo eléctrico del polo negativo al positivo. EDA
El software con el filtro adecuado, posiciona la línea gráfica de conducción con respecto a su eje de centrado.
Figura 3. Representación gráfica de la caída de conductividad eléctrica del EDA por desconexión de un electrodo, interrumpiendo la continuidad del flujo de cargas eléctricas en el circuito eléctrico cutáneo.
Este fenómeno descrito, es en sí, lo que ocurre en el patrón eléctrico que se está analizando, simplemente que la maniobra de interrupción del flujo de electrones es en sentido intermitente, no permanente, en donde se involucran otros factores que se estudian a continuación.
Factores que rigen las propiedades eléctricas de la piel Ante esto, es importante mencionar que la piel humana en su forma pura (sin elementos hidrolípidos o agentes extraños con propiedades de electronegatividad) no es buen conductor de cargas eléctri22
cas, debido a que la superficie externa de la epidermis, llamado estrato córneo, está compuesto por queratina, una proteína rica en azufre, mismo que está clasificado por la tabla periódica como un elemento químico no metal, considerado como un mal conductor de calor y electricidad. De esta manera, la capa córnea es quien domina las propiedades eléctricas de la piel (conductancia y resistencia), y que según Kelley (1992, p. 72) … “la resistencia de la piel varía de acuerdo con el espesor de la capa de queratina epidérmica, su limpieza y su sequedad.” Es así que se habla de la pulcritud de la epidermis como un factor determinante para facilitar la conducción eléctrica, debido a que la suciedad está compuesta por partículas variopintas que pueden poseer distintos niveles de electronegatividad. Por otro lado, la sequedad está representada por la humedad o película electrolítica, cuyos iones permiten trasportar cargas eléctricas (electrones) de un punto a otro a través del medio biológico conductor. En un sentido más amplio, de los autores del libro: Introducción a la bioingeniería, nos ilustran: “La resistencia… depende de la trayectoria de la corriente, de la superficie de contacto (zona, área), de la humedad de la piel, la magnitud y frecuencia de la tensión, de la edad, del peso, y también del estado fisiológico”. (Mompín., et al. 1998, p.123). En suma, esto quiere decir que la resistencia es una propiedad que está dominada por distintos factores que deben “considerarse seriamente” durante la fase de recolección de datos, si es que se quieren resultados más justos y condiciones realmente controladas en la aplicación del experimento del examen poligráfico; lo cual, es un campo temático listo para emprender nuevos estudios en aras de perfeccionar la metodología de la Poligrafía. En cuanto al concepto de resistencia eléctrica, hasta aquí, se ha tratado, pero sin profundizar en su significado, por lo que debemos de entenderlo
como la oposición de desplazamiento que reciben los electrones libres al fluir por un determinado material. Es entonces que la propiedad de la resistencia eléctrica de los materiales según Robert Seippel (2003) se ve influenciada por la intervención de varios factores, dentro de los cuales los principales son: la longitud, área de la sección transversal (forma geométrica del material), temperatura y la naturaleza del conductor.
Estructura atómica de la piel En razón a la naturaleza de la estructura atómica del medio conductor, si se pudiera comparar a niveles atómicos la constitución de una línea de cobre con la piel humana, muy probablemente la disposición de los átomos de esta última se mostrarían más desorganizados que del primero, por lo que si hiciéramos pasar una carga eléctrica por ambas sustancias, el metal resultaría con menor resistencia y mayor conductancia debido a que posee mejor organización, uniformidad y densidad de las partículas que la integran. Por el contrario, la piel humana, con simple referencia macroscópica, se puede sensibilizar al tacto con una densidad muy por debajo a la de un conductor metálico; así como también, se puede observar sin mayores recursos tecnológicos una superficie no homogénea, con bastas irregularidades que muestran una solución de continuidad, y más aún, cuando se trata de los dermatoglifos presentes en la región plantar y palmar. De esta última, zona donde se sitúa la parte distal de los miembros dactilares donde se instalan los electrodos del Conductógrafo y que además juegan un papel trascendental para explicar el ECCEE.
Figura 4. A manera de ilustración se observa la estructura atómica y el comportamiento del flujo de cargas eléctricas sobre los conductores de cobre y piel humana; en los que se aprecia la oposición (resistencia) que brindan ambos materiales a la circulación de electrones.
En definitiva, entre más organizada es la estructura atómica de un material, es más amigable para el flujo de cargas negativas, que en contrario sensu, la desorganización atómica propicia la generación de calor por el choque de los electores con los átomos, transformando parte de su energía en forma de calor, consiguiendo el calentamiento del conductor (Andrés, Antón y Barrio, 2008). Esto quiere decir, que la piel humana es un mal conductor de electricidad, y que al igual que otros materiales con índices de resistencias altos, necesitan mayor esfuerzo para que sus electrones se separen de sus átomos, debido a que se encuentran ligados fuertemente por su electromagnetismo; lo que es igual, a que sus electrones tienen poca libertad de movimiento y que poseen menos electrones libres que constituyan un fluido de cargas para formar corriente eléctrica.
2323
La excitabilidad de las glándulas sudoríparas y el sudor electrolítico Otro factor que rige la resistencia de la piel humana es la excitabilidad intermitente e irregular de las glándulas sudoríparas, quienes secretan sobre la epidermis dosis de emulsión de sudor, que dependerán en su proporción de la valencia emocional y significancia psicológica que tenga la pregunta estímulo para el sujeto de prueba; lo cual, la data normativa es que sea directamente proporcional al nivel de conductividad galvánica. No obstante, cabe recordar de manera breve, que el 99% del agua que compone al sudor, no es la sustancia que facilita el flujo de la corriente continua sobre la piel de los dedos, sino más bien, es el 1% que está compuesto de minerales (sales, electrolitos o iones) diluidos en el medio acuoso lo que permite la circulación de la corriente eléctrica del electrodo negativo (cátodo) al positivo (ánodo), dando como resultado una especie de modelo bidimensional de una célula electrolítica. En resumidas cuentas, el fenómeno que hace posible el flujo de cargas eléctricas (continua o galvánica) sobre la piel de los dactilares, es la electrolisis., definida como la descomposición de una sustancia por medio de electricidad. De lo anterior expuesto, resulta el siguiente supuesto: a mayor presencia de electrolitos, mayor conductancia y menor resistencia. A menor presencia de electrolitos, menor conductancia y mayor resistencia.
24
Habrá de decir también, que la superficie epidérmica de los miembros dactilares (y en su totalidad la palma de la mano y planta de los pies) está provista de complejos gravados naturales denominados lofogramas, o dactilogramas para la región especifica de los dedos; los cuales, están constituidos por papilas cutáneas, que, a su vez, en sucesión consecutiva, integran una cresta papilar diversiforme, que, en consecuencia, entre una y otra, se ubican los llamados surcos intercrestales. Así mismo, en la cúspide de las crestas lofoscopicas (cerca de su vértice) se hallan situados los poros; orificios que tienen la función de segregar el sudor proveniente de la glándula sudorípara (Trujillo, 2006).
Las crestas papilares: posibles líneas de ducción eléctrica
con-
Los datos anteriores permiten deducir algunos aspectos de interés temático. En primer lugar, sugieren que el sudor psicológico o emocional (en dosificaciones normales, no patológicas) al ser excretados por los poros de las cresta papilares, es vertido y reabsorbido sobre estas mismas estructuras. Segundo, las complejas distribuciones de líneas crestales que conforman el dactilograma natural (permeado de agua y electrolitos), pareciera ser que se comportan como las líneas de conducción de un circuito eléctrico, donde la corriente eléctrica continua que se aplica con el polígrafo (en aras de registrar la actividad sudogladular) circula de forma dirigida, facilitado de alguna manera el flujo de electrones por estas vías (Fig.5).
lisa de los electrodos del Conductografo, lo que sugiere que la electricidad galvánica fluya por estas líneas papilares previstas de electrolitos del sudor, mismas que son responsables de la huella dactilar latente que igualmente es impresa por contacto en una superficie pulimentadas.
Figura 5. En la parte superior se observa una repre-
sentación del flujo y dirección de la corriente eléctrica galvánica (del polo negativo al positivo) sobre el circuito bidactilar; y en la parte inferior, el área limitada del electrodo que tiene contacto con la epidermis dactilar, donde las crestas papilares son las responsables de restar superficie de fricción y ser las vías de conducción eléctrica.
Como una mera aproximación para confirmar lo anterior, posiblemente basta con poner atención a la develación de una huella dactilar latente con polvos dactiloscópicos (Fig.6), tal cual, lo realiza un criminalista en la escena del crimen; cuyo principio básico consiste en que la sustancia pulimentada es adherida (por medio de una brocha especial) exclusivamente a los residuos sudoríparos que replican por contacto solo las líneas papilares que conforman al dactilograma natural y no toda la superficie de la epidermis del pulpejo de un dedo. Esto quiere decir, que las crestas papilares (no los surcos intercrestales) son las únicas estructuras epidérmicas que tienen contacto con la superficie
Figura 6. Huella dactilar latente impresa sobre una superficie lisa color blanco, revelada con uso de polvo magnético color rojo de firma SIRCHE® y una brocha magnética marca LIGHTNING POWDER. En ella se puede evidenciar la limitada superficie epidérmica de la punta dactilar que contacta con el estrato de soporte, de tal suerte, que refleja el mismo comportamiento de contacto sobre la superficie de los conductores dactilares del polígrafo.
Coeficiente de resistividad de la piel húmeda por sudación En suma, a todo lo anterior, la resistencia, es una propiedad eléctrica que fluctúa de un material a otro y cuyos valores de variabilidad se conocen como coeficiente de resistividad, se mide en ohm*metro (Ω•m). Un valor alto indicaría que el material es un mal conductor de electricidad e inversamente a un valor bajo. Ahora, hablando de la piel humana, como medio biológico de conducción para la toma del registro electrodérmico y como principal factor responsable del fenómeno de caída de conductividad 2525
epidérmica inducida... “la Norma CEI-479 (Comité Eléctrico Internacional) da unos valores más detallados en función del estado de la piel (seca, húmeda, mojada o sumergida).” (Cortés, 2007, p.310), mostrando datos proxi sobre el coeficiente de resistividad de la piel frente a una corriente continua y alterna.
Tabla 1: Coeficientes de resistividad de la piel humana en estado seca, húmeda, mojada y sumergida en agua, con variación del voltaje de la corriente eléctrica.
Partiendo de los datos tabulares anteriores, los pulpejos que están en contacto con los electrodos del Conductografo, suelen estar permeados parcialmente de sudor psicológico, por lo que están dentro de la categoría de piel húmeda, y considerando que la intensidad de corriente que emite el Conductografo es de tipo galvánica (también llamada continua, constante o directa), la cual, según Garis L. Siliega (2010), es un flujo eléctrico de baja tensión que se encuentra dentro del rango de 60-80 voltios (V), y con una intensidad no mayor de 200 miliamperios, lo cual da una resistencia aproximada de ± 2 000 Ω; situación que ha llevado a fabricantes de polígrafos a ampliar los rangos de resistencia (Ω) y cantidad de corriente (A) del Conductografo , con el objetivo de abarcar una gama más extensa de valores de resistividad de piel que dependen de factores que fluctúan entre las personas; tales como la trayectoria de la corriente, de la zona de contacto, humedad de la piel, edad, voltaje, intensidad de corriente, edad, peso y estado fisiológico de la persona (Mompín et al. , 1988). Lo anterior, lleva a concluir que la resistencia de la piel es un factor que no se comporta de forma estable y constante, como lo puede ser un metal puro, en el que si se hace pasar una carga eléctrica con un voltaje y amperaje controlado, el coeficiente de resistencia será constante e invariable; de ahí, el origen, sentido y la forma de onda (trazos) del registro electrodérmico del polígrafo, en el que la línea de conducción gráfica se manifiesta con ascendencias intermitentes y de magnitud variada.
Nota. Fuente: Cortés, D.J.M. (2007). Técnicas de prevención de riesgos laborales: seguridad e higiene del trabajo (p. 310).
26
Por lo tanto, de todos los factores que tienen injerencia determinante para la conductancia y resistencia de la piel humana, y en especial, sobre la zona de las puntas dactilares, resulta de suma relevancia la extensión de la epidermis que está en contacto con los electrodos para dar origen al ECCEI; situación en la que el profesor Ennos nos aporta datos muy valiosos para teorizar finalmente la causa-efecto del fenómeno.
Los hallazgos del Dr. Roland Ennos Como se mencionó anteriormente, el experimento del profesor Ennos persiguió el objetivo de responder la interrogante ¿por qué tenemos huellas dactilares? para lo cual, hecho mano de sus amplios conocimientos en Física para estudiar sólo un factor (de muchos otros componentes que comprende la naturaleza del fenómeno) llamado, “fricción”. No obstante, la discusión de sus resultados y conclusiones arrojaron luz sobre las posibles funciones de las crestas papilares; pero, además, despertó la necesidad de revisar y verificar experimentalmente otras hipótesis que hoy en día se emplean para justificar la presencia funcional de estas estructuras biológicas. Ante este reto, el Dr. Ennos sistematizó una ingeniosa serie de ensayos que consistieron en medir y comparar el rendimiento de fricción de una sección de piel con crestas epidérmicas (huellas dactilares) contra una superficie de piel plana (la zona del antebrazo), posicionándolas (individualmente) de forma paralela sobre una porción de tira o lamina de plexiglás (vidrio acrílico) con intervención de distintos rangos de fuerzas o cargas de presión y desplazamientos direccionales para obtener las diferencias del cociente de la fuerza friccional para ambas regiones cutáneas. Los ensayos se ejecutaron con diferentes dedos, ángulos de contacto y con distintas anchuras de la chapa de acrílico (Fig.7).
Maquinaria de prueba Instrom
Acrílico Carga
Placa de sujeción posterior
Figura 7. Se aprecia el diagrama del Dr. Ennos en el que ilustra cuál es la disposición de los elementos que intervinieron durante las pruebas experimentales que realizó para medir la fricción dactilar. En el modelo se muestra a un miembro dactilar sujeto firmemente a una placa sobre la lámina de acrílico, donde el pulpejo hace contacto con la superficie mencionada. Del lado derecho está la carga o peso que ejerce fuerza direccional en distintos rangos controlados sobre el pulpejo. En la parte superior se halla la máquina de prueba Instron, cuya función es levantar la hoja de plexiglás para medir la fuerza de agarre que ejercen las crestas papilares que comprende el área que entró en contacto con el material plástico (Warman & Roland, 2009).
2727
Del estudio realizado por el profesor Roland, básicamente se obtuvieron las siguientes conclusiones: • La presencia de las crestas papilares en el pulpejo de los dedos (en comparación con la piel lisa), reducen el área de contacto con las superficies lisas en un promedio de 33% (1/3). De las situaciones examinadas el área de contacto real osciló en los rangos de 66.7 ± 8.0% tomado del perímetro de la zona del dactilograma en incidencia con el soporte.
Existe la posibilidad que las crestas epidérmicas aumenten la fricción en superficies rugosas en comparación con la piel lisa, porque la histología del fingerpads con propiedades flexibles y deformables, permite que las crestas se proyecten en las depresiones o irregularidades de bajo relieve para proporcionar mayor fuerza de agarre durante la tracción.
Discusión
• Las puntas de los dedos, a quien denominó “fingerpads”, parecieran haberse comportado -como su nombre lo sugiere- en forma de almohadillas, permitiendo flexibilidad en su estructura conforme se aplican fuerzas de presión para maximizar el área de contacto dactilar sobre las superficies y así mejorar la fuerza de agarre.
Por último, planteó y retomó posibilidades hipotéticas sobre la función o funciones por el cual están presentes las crestas papilares en nuestras manos y pies; dejando luz en el camino e incentivando a nuevos pensadores a la verificación empírica de los siguientes supuestos.
• Las crestas epidérmicas poseen una función protectora ante las fuerzas ejercidas durante el agarre y abrasión con los objetos de contacto, las cuales parece ser que inhiben la formación de callosidades. • Las crestas papilares y en especial los surcos intercrestales, pareciera ser que actúan como la banda de rodamiento de un neumático, de modo que tienden a mejorar el agarre en superficies húmedas o mojadas, pues disminuyen el contacto con el agua (factor que disminuye la fricción) al permitir que esta fluya fácilmente entre surcos. 28
Dicho lo anterior, empecemos a conjugar todos los datos previamente demostrados para teorizar las causas probables que dan origen al efecto de interrupción temporal del flujo eléctrico sobre el circuito dactilar, provocado por una maniobra de presión pulpar sobre el electrodo. Como primer punto a desarrollar, se debe tener claro que el medio cutáneo en estado puro (sin electrolitos de la sudación) es un material que no posee las propiedades idóneas para facilitar la conducción eléctrica, debido a que su constitución y densidad atómica desordenada opone significativa resistencia al paso de electrones libres; pues recordemos que el componente que le permite ser más amigable a la electricidad es la presencia de electrolitos diluidos en la emulsión sudorípara, misma que es secretada de forma intermitente y en dosis variopintas dependiendo
de la significancia subjetiva del estímulo. No obstante, el estrato cutáneo que es el principal factor responsable de sus variados coeficientes de resistencia eléctrica, es la capa más externa de la piel llamada epidermis, quien en gran parte está compuesta por el componente proteico de queratina blanda. En bonanza a esto, Fortoul (2013) ilustra que “hasta el 90% de la epidermis está constituida por células epiteliales llamadas queratinocitos” (p.210). Misma proteína que está organizada en su mayoría por un elemento químico denominado Azufre (S), catalogado como mal conductor de electricidad; de aquí que los pulpejos con callosidades son producto de estratos gruesos de queratina con anormales cantidades de azufre, sustancia que le brinda a la piel rigidez y dureza. De tal manera, que esta condición es en muchos de los casos la responsable de aquellos registros electrodérmicos basales o con resistencia fásica. No obstante, en defensa de la piel, posiblemente la región más amigable al flujo de corriente eléctrica, son las zonas cutáneas con presencia de crestas papilares, tal cual están dispuestos los pulpejos que regularmente se usan para instalar los electrodos del Conductografo. De tal manera, que si bien es la epidermis (con sus elementos de queratina y azufre) el factor antagónico al flujo de cargas eléctricas, estas estructuras histológicas que yacen debajo de las puntas dactilares, restan en promedio –según el Dr. Ennos –el 33% de la superficie de contacto sobre extensiones lisas, lo que significa que el contacto con la superficie del electrodo no se da en su totalidad, debido a que se ve limitado por las cimas de las crestas papilares. Esto quiere decir, que los dactilares sugieren ser una de las mejores zonas cutáneas para la conducción eléctrica, debido a que el electrodo tiene un mínimo contacto con la epidermis (Fig.8).
Figura 8: Se observa a manera de evidencia una huella dactilar latente revelada (con polvos dactiloscópicos) en la superficie interna de la placa del electrodo del Conductografo que está en contacto con el pulpejo, después de ser utilizada por un examinado durante la fase de recolección de datos electrodérmicos.
Siguiendo en el mismo orden de ideas, es probable que la corriente continua circule en el mismo sentido (sobre las líneas lofoscópicas), debido a que el sudor electrolítico es depositado sobre estos altorrelieves lineales y no dentro de las depresiones intercrestales (tal cual lo sugiere la impresión de una huella dactilar latente), lo que nos permite deducir que permanecen más secos que las crestas epidérmicas. Por lo tanto, esta variable es un factor que se suma al aumento de la resistencia que origina la caída de conductividad eléctrica sobre el circuito bidactilar, lo cual se debe a que las crestas papilares tienden a deprimirse, logrando entrar en contacto el espacio intercrestal (depresiones-cuencas) con el conductor eléctrico, generando oposición al flujo de corriente por aumento del área de contacto epidérmica, y consecuentemente, con incremento de queratina y azufre, elementos –como hemos mencionadoresponsables de dominar las propiedades eléctricas de la piel.
2929
Cabe mencionar, que dicho efecto resulta de las propiedades de maleabilidad y flexibilidad que posee el tejido que integra a la almohadilla digital (fingerpad), pues durante la maniobra de semi-flexión dactilar, la fuerza que se ejerce de la punta del dedo sobre la lámina del electrodo probablemente genera el desplazamiento de las líneas papilares en sentido lateral; no obstante, otra posibilidad que puede acaecer a esta escala, es la deformación o reducción del espesor crestal, ocasionando en cualquiera de las hipótesis el aumento del área de contacto epidérmico (Fig.9)
Otro fenómeno que se suscita durante la maniobra de presión del pulpejo contra la placa conductora, es la expansión del área de contacto de la punta digital, pues el tejido especializado que integra a esta área anatómica reacciona incrementando el perímetro de apoyo de la almohadilla pulpar para mejorar la fuerza de agarre contra superficie de rozamiento. Ensayo de referencia En aras de confirmar lo anterior, se procedió a tomar dos impresiones dactilares artificiales de la punta de un mismo dedo índice de la mano derecha de un sujeto de prueba de sexo masculino, con dimensiones anatómicas de 1.65 m de estatura y un peso de 72 kg. Para obtener los dactilogramas se empleó un cojín y tinta dactiloscópica marca PrintMatic TM, los cuales fueron plasmados sobre una hoja blanca de papel bond, misma que se sujetó sobre el platillo de una balanza marca Lacor Menaje Profesional S.L, de 15 kg máx., la cual instaló a nivel del reposabrazos de la silla de polígrafo y donde se dejó descansar la zona palmar de la mano.
Figura 9: a) Distribución anatómica en corte trasversal
de la piel del pulpejo dactilar. b) Áreas de contacto de la epidermis digital con el electrodo bajo presión dactilar normal. c) aumento del área de contacto epidérmico digital con incremento de la presión dactilar. Fuente de la imagen base: https://www.info-radiofrecuencia.es/flacidez-cambios-naturales-del-envejecimiento-de-la-piel.html
30
Una vez posicionadas los elementos técnicos y humanos para el experimento, el sujeto de prueba –sin perder la posición normal durante el intest- ejecutó dos improntas del dedo índice en diferentes zonas del papel, con diferencias de presión dactilar en kilogramo-fuerza (Fig.10). En una de ellas (B) se registró una fuerza normal de 425 kgf correspondiente al peso anatómico regular de la región del antebrazomano. En la segunda (A), se ejecutó una maniobra biomecánica de semi-flexión del dedo índice, con una presión del pulpejo de 700kgf.
Al sustituir los valores se obtuvo lo siguiente: Impresión A) A ᴑ= 1.2 X 0.8 X 3.141592 = 3.01592832 cm2
(fuerza extra de presión)
Impresión B) Figura 10: impresiones dactilares de un dedo índice con variación de kilogramo fuerza de presión. Los surcos intercrestales están representados por los espacios lineales en blanco y las crestas papilares en color negro (regiones exclusivamente incide la tinta), mismos que exponen las delimitadas zonas epidérmicas del pulpejo que tienen contacto con las superficies lisas.
Al tener recolectadas las impresiones, se procedió a calcular el área en cm2 y las diferencias que resultaron con las distintas fuerzas de presión aplicadas; de tal suerte, que considerando que la imagen de los dactilogramas corresponde (en su mayoría) a la forma de una elipse se optó por emplear el siguiente modelo algebraico para calcular la superficie este de tipo de estructuras geométricas: Aᴑ=a.b.π A ᴑ = área a= longitud mayor del semieje de la elipse b= longitud menor del semieje de la elipse π= (pi) 3.141592.
A ᴑ= 1.0 X 0.7 X 3.141592 = 2.1991144 cm2
(fuerza normal de presión)
Como se puede notar, las diferencias en los valores de la superficie cuadrada son notables con respecto a la fuerza de presión aplicada, resultando la impresión A con un diferencial en el aumento de área de contacto del 0.81 cm2, que en percentiles equivalen al 27% de incremento del área de contacto. Lo anterior, quiere decir, que existe una correlación directa entre el aumento del área de contacto con la presión ejercida en kilogramo-fuerza durante la maniobra de semi-flexión dactilar y que a su vez está correlacionada con el efecto de caída de conductancia electrodérmica, en donde los factores de queratina y azufre adquieren predominancia al aumentar la superficie en centímetros cuadrados de contacto epidérmico-crestal con la corriente continua Lo anterior se debe a que pulpejos “contienen tejido adiposo que se divide en numerosos compartimentos mediante tabiques fibrosos que discurren entre la falange distal y la piel” (Palastanga, Fiel & Soames, 2000). Dichas bolsas de grasa tienen la función de proteger las estructuras subyacentes de altas presiones dadas durante el mecanismo de prensión. Consecuentemente, este comportamiento cutáneo es una variable más que se suma para desencadenar el efecto de caída de conductancia epidérmica inducida, lo cual se reduce a la siguiente hipótesis: 3131
“A mayor área de contacto de la epidermis del pulpejo dactilar contra el electrodo, mayor es la resistencia al flujo de cargas eléctricas”. Habrá que decir también que la interrupción temporal del flujo eléctrico sobre el circuito bidactilar, se puede dar tanto al ejercer presión digital sobre el electrodo positivo como negativo, debido a que ambos integran la trayectoria cerrada que comprende el medio por donde circulan los electrones (llamado circuito eléctrico biológico); de tal manera, que si la maniobra de prensión del pulpejo se ejecuta sobre el ánodo (polo negativo), se interrumpe temporalmente la entrada de corriente eléctrica proveniente del rectificador del ordenador; por el contrario, si ocurre sobre el cátodo (polo positivo), se suspende transitoriamente la salida del flujo eléctrico con dirección al DAS (Fig.11); esto en base al sentido real de circulación de la corriente.
área de contacto de los componentes bioquímicos de la epidermis (propiedades aislantes), inducido por maniobra de semi-flexión dactilar.
Por otra parte, conviene subrayar que la teorización de la presente hipótesis resulta bastamente fundamentada con los principios y datos experimentales aquí vertidos; sin embargo, es evidente que deben realizarse experimentos más exactos con métodos y tecnología más sofisticada que proporcionen datos cuantitativos sistemáticos sobre los cambios de resistencia durante la maniobra de presión dactilar sobre los electrodos del Conductografo, donde se consideren las variables de peso, estatura y volumen del tejido de la almohadilla dactilar de los sujetos de prueba, pues se deduce que aparentemente pueden tener impacto en los valores del efecto de caída de conductancia electrodérmica inducida. Así mismo, se deben realizar observaciones a escalas más finas para confirmar las deformaciones o cambios comportamentales que sufren las crestas papilares durante el incremento de la fuerza de presión contra la placa del electrodo, que dan lugar al aumento del área de contacto epidérmico. Mientras tanto, este estudio inicial es suficiente para conocer las variables que intervienen en la producción de dicho efecto y motivador para ampliar ambiciosamente el conocimiento de este fenómeno, que desde luego dará luz para futuros métodos, técnicas o tecnologías involucradas en la detección probabilística de la mentira.
Conclusión
Figura 11: a) interrupción temporal de la “señal eléctrica de entrada” b) suspensión momentánea de la “señal eléctrica de salida”. Ambos casos generados por aumento de resistencia, producto del incremento del 32
El resultado de esta investigación permitió alcanzar el conocimiento científico de los factores que intervienen en la producción del efecto de caída de conductancia electrodérmica inducida por maniobra de semi-flexión (o prensión) del miembro dactilar sobre el electrodo del Conductografo
del polígrafo, en donde el pulpejo ejerce un punto de presión extra sobre el conductor, reflejando finalmente una caída de la línea grafica de conducción galvánica. El resultado de esta operación biomecánica articular genera cambios tisulares en la almohadilla dactilar (fingerpad), presentándose aumento del área del contacto epidérmico-digital sobre la placa conductora, que a su vez es originado por tres probables causas: • Expansión del hemisferio de la almohadilla dactilar. • Desplazamiento lateral de las líneas papilares. • Deformación o reducción del espesor crestal. En términos hipotéticos: “A mayor área de contacto de la epidermis pulpar con el electrodo, mayor resistencia al flujo de cargas eléctricas”. Ahora, tomando en consideración que la epidermis crestopapilar de las puntas digitales disminuyen la superficie de contacto en un 33% sobre extensiones lisas (como las placas del electrodo), los cambios que estas sufren al aplicar una fuerza extra de presión dactilar (por maniobra de semi –flexión) contra la placa del electrodo, producen
un aumento en la superficie de contacto; de tal manera, que la epidermis al estar integrada en un 90% por queratina, y a su vez, por azufre - considerado un mal conductor de electricidad- produce la interrupción abrupta y momentánea del flujo de corriente continua por el circuito biológico bidactilar; logrando retomar la conducción eléctrica una vez que el exceso de superficie de epidermis se retira, es decir, regresa la fuerza de presión normal (peso de la región brazo-mano); o en su caso, si la fuerza de presión extra sobre las terminales conductoras es sostenida, se logra recuperar la conducción hasta que los electrones del flujo eléctrico se vinculan a los iones (electrolitos) del área de extensión epidérmica desplegada por la maniobra de semi-flexión sostenida. Finalmente, un tema que está íntimamente ligado a este efecto y que queda pendiente tratar en otro momento de estudio, es determinar la intención con que se produce, si es dirigida deliberadamente o de forma espontánea; sin embargo, estas líneas de meditación nos permite concluir que es más recomendable colocar los electrodos dactilares con la palma de la mano hacia arriba, debido a que de esta manera se resta la fuerza de presión que ejerce el peso de la región antebrazo-mano sobre la placa conductora (factor que se presume puede ejercer influencia para aumentar el área de contacto epidérmico), y además se evita la manipulación intencional del registro.
3333
Referencias Alcalde, SM.P. (2010). Electrónica general: equipos electrónicos de consumo. 2ed. España: Ediciones paraninfo. Andrés, C. D. M., Antón, B.J. L. & Barrio, P. J. (2008). Física y Química 1º Bachillerato. España: Editorial Editex. Antón, B. F. & Turégano, J.V. D.L. (2004). Policía científica. 3 ed. Vol.1. España: Editorial Titant lo Blanch. Cortés, D. J. M. (2007). Técnicas de prevención de riesgos laborales: seguridad e higiene del trabajo. 9 ed. Madrid: Editorial Tébar. De Bono, E. (2008). El pensamiento lateral práctico. España: Editorial Paidos. Ennos, A.R., Warman, P.H. (2009). The frictional properties of human finger pads. The Journal of Experimental Biology, 153(2) 2016-2022. DOI: 10.1016/j.cbpa.2009.04.204. Recuperado de https://www.researchgate.net/publication/247128490 Fortoul, V. G. T. I. (2013). Histología y biología celular. 2 ed. México: McGRAW-HILL Hermosa, D. A. (2005). Principios de electricidad y electrónica. 2 ed. Vol.1. España: Editorial Marcombo
34
Kelley, W.N. (1992). Medicina interna. 2 ed. Vol. 1. España: Editorial medica panamericana. Klaus, W., Goldsmith, L.A., Katz, S.L., Gllchrest, B.A., Paller, A.S. & Leffell, D. J. (2009). Dermatología en medicina general. 7ª ed. Buenos Aires: Medica panamericana. Mompín, P. J., et al. (1998). Introducción a la Bioingeniería. España: Boixareu editores. Palastanga, N., Fiel, D. & Soames, R. (2000). Anatomía y movimiento humano. Estructura y funcionamiento. [Traducido al español de Anatomy & Human Movement]. 3 ed. Barcelona: Editorial Paidotribo. Seippel, R.G. (2003). Fundamentos de electricidad. Principios de electricidad, electrónica, control y ordenadores. España: Editorial Reverté. Silega, G. L. (2010). Tratado de medicina física hidrología y climatología médica. United Sates of Americas: Editorial Hippocrates publishing. Sánchez, B. I. (2008). Manual SERMEF de rehabilitación y medicina física. Madrid: Editorial Medica Panamericana. P. 180 Trujillo, A. (2006). Estudio científico de la dactiloscopia. México: Editorial Limusa. Ulrich, W. (2010). Histología. 2 ed. España: Editorial medica panamericana
Bibliografia Álvarez, R. U., González, C.I., López, A.L., Manilla, M.D., Ortega, S.G.E., Romero, M. M. L., … Ma. De la Luz. (2005). Química II. Manual de actividades experimentales para el alumno. 2ed. México: Comité editorial del colegio de ciencias y humanidades. Antón, B.F. & Turégano, J.V. D.L. (2004). Policía científica. 3 ed. Vol.1. España: Editorial Titant lo Blanch. Balcells, J., Daura, F., Pallás, R. & Esparza, R. (1992). Interferencias electromagnéticas en sistemas electrónicos. España: Boixareu editores. Beavan, C. (2003). Huellas dactilares: Los orígenes de la dactiloscopia y de la ciencia de la identificación criminal. Barcelona: Alba editorial. Boucsein, W. (2012). Electrodermal Activity. 2ed. USA: Springer. Cortés, D.J.M. (2007). Técnicas de prevención de riesgos laborales: seguridad e higiene del trabajo. 9 ed. Madrid: Editorial Tebar. Callón, Á. J. (2017). Elementos de la tabla periódica y sus propiedades. Recuperado de: http:// elementos.org.es Eucerin. (2017). Comprendiendo la piel. Estructura y función de la piel. Recuperado de: http:// www.eucerin.es/acerca-de-la-piel/conocimientos-basicos-sobre-la-piel/estructura-yfuncion-de-la-piel
na. Instituto de Investigación Textil y Cooperación Industrial. 43-70. Recuperado de: https://upcommons.upc.edu/bitstream/handle/2099/5909/Article02.pdf?sequence=1 Gómez, J. G. (2017). Tratado multidisciplinar sobre la actividad cerebral, los procesos mentales superiores y nuestro comportamiento. Recuperado de: http://www.biopsicologia.net Kelley, W. N. (1992). Medicina interna. Vol. 1. Buenos Aires: Editorial medica panamericana. Laborda., J. F. (2014). Quilo de ciencia. Vol. V. México: Jorge Laborda. Lafayette Instrument Company. (Nov. 2013). Diseño del circuito y evolución del EDA LX 4000 Y LX 5000. info@lafayetteinstrument. com Monge, R.C.H. (2014). Mecanismos de operación de las unidades de retroalimentación biológica en poligrafía. Recuperado de: http://criminalistica.mx/areas-forenses/criminologia/1566mecanismos-de-operacion-de-las-unidadesde-retrolimentacion-biologica-en-poligrafia Mompín, P. J., et al. (1998). Introducción a la Bioingeniería. España: Boixareu editores. Pallás, A.R. (1993). Adquisición y Distribución de Señales. España: Editorial Marcombo. Reicherter, J. & Handler, M. (Sin fecha). Manual de fisiológica para aprendices permanentes en la ciencia PDD. Parte 1. EUA: American Polygraph Association.
Fowler, R. J. (1994). Electricidad: principios y aplicaciones. Barcelona: Editorial Reverté S.A.
Real Academia Española. (2001). Diccionario de la lengua española. 22ed. Recuperado en http://www.rae.es/rae.html
Gacén, G. J. (Sin fecha). Aspectos químicos del blanqueo de la lana con peróxido de hidrógeno: Modificación química de la querati-
Universidad de Salamanca. (2014). Diccionario médico-biológico, histórico y etimológico. Recuperado de: http://dicciomed.eusal.es 3535
Test de Familiarización
Empleando Imágenes
Manuel Novoa Bermúdez Felipe Malagón Bolaños
Resumen Diversas fuentes hablan de la importancia y beneficios en la aplicación de los exámenes de familiarización, al punto que en la actualidad se considera una práctica de obligatorio cumplimiento en todo tipo de exámenes poligráficos. A lo largo de los años, se ha venido empleando una variada cantidad de exámenes de esta naturaleza, bajo diversas modalidades de aplicación. Sin embargo, en muchas ocasiones podría concluirse que los examinadores no perciben una utilidad real proveniente del cumplimiento de este requisito; de la misma forma, se reporta de manera frecuente que las mayores reacciones de estas gráficas no ocurren en los números/elementos elegidos. El presente estudio pretende presentar una nueva modalidad de examen de familiarización, tendiente a la obtención de mejores resultados a través de la estimulación visual del examinado para permitir elaboraciones cognitivas que a la postre generen reacciones de mayor magnitud. Este proyecto se enmarca igualmente dentro de una serie de investigaciones que implican estimulación visual en diversas instancias del examen y su posible impacto en términos del incremento de la confiabilidad general de la poligrafía. 36
Las primeras fases del proyecto incluyeron igualmente, una recopilación de información relacionada con la práctica de campo actual en relación con el examen de familiarización a lo largo de norte, centro y sur América, a nivel de práctica, resultados y percepción de los examinadores acerca de estas metodologías. Los resultados obtenidos en el estudio sugieren que la estimulación visual conlleva un impacto positivo en términos de la magnitud de reacción, la actitud de los examinados y la percepción de los examinadores. Quizá el mayor aporte de esta metodología esté relacionado con una mejor comprensión de los examinados en cuanto a la instrucción de mentir, facilitando el proceso de introducción de las preguntas comparativas de mentira dirigida – DLC. Palabras Clave: Stim Test, elaboración cognitiva, percepción, estímulo visual, familiarización,
Introducción Este estudio hace parte de un proyecto integral tendiente a la búsqueda de protocolos poligráficos más confiables y exactos, especialmente en el contexto de exámenes exploratorios (preempleo
y rutina). El empleo de metodologías como la automatización (Blalock, 2009), así como la estimulación visual y/o auditiva (Kircher y cols., 2006), generaron en los autores la idea de buscar mejorar la aplicación y los resultados del examen de familiarización, y determinar las posibles razones que explicaran por qué la magnitud de reacción ante el número/elemento elegido no es siempre la mayor de la gráfica. El origen del examen de familiarización se remonta a épocas tempranas en la poligrafía. Alder (2007), reportó el empleo de lo que sería el primer examen de familiarización, por parte de Leonard Keeler, en la década de 1920. Por otra parte, de acuerdo a Matte (1996), en la década de 1930 Clarence Lee, un integrante del Departamento de Policía de Berkeley en California, desarrolló un “Examen de Control” destinado a determinar la capacidad de reacción de los examinados. Esta metodología incluía el empleo de cartas y manejaba una modalidad sin conocimiento. Al parecer, durante largo tiempo se prefirió emplear diferentes metodologías de familiarización bajo la modalidad sin conocimiento. En la década de 1970, se publica un artículo en el que se propone una nueva versión denominada por su autor como “Sensitivity Level Test” (Matzke, 1972). A través de este procedimiento, el autor pretendía evitar una imagen amateur y de truco de magia, inmersa dentro de los exámenes de familiarización preferidos hasta ese momento. El “Sensitivity Level test” era un examen numérico con conocimiento, cuyo propósito según el autor consistía en establecer una reacción específica a una mentira conocida y permitir al evaluador un mejor análisis de las gráficas del examen. El sujeto examinado era instruido para escribir un número entre el 13 y el 20 en un pedazo de papel y luego responder con un No a todas las preguntas a ser realizadas dentro del examen de familiarización.
Aunque el autor no presenta estadísticas relacionadas con el empleo de esta versión en contraste con las versiones tradicionales en ese momento, concluye que la percepción del examinado así como su acondicionamiento hacia el examen, deberían ser mejores. Más adelante, Steven Kirby realiza un estudio destinado a la comparación de los métodos de familiarización con cartas, en sus versiones con y sin conocimiento, y sus efectos sobre el procedimiento poligráfico (Kirby, 1981). El autor concluyó que no se presentaba diferencia significativa en el uso de ambas metodologías, más allá de los intentos de los sujetos culpables de distorsionar los trazos ante la carta elegida en la versión con conocimiento; en este estudio se emplearon 40 paquetes de gráficas con resultados confirmados. En cualquier caso, la utilidad y ventajas de la aplicación del examen de familiarización han sido ampliamente sustentadas a lo largo del tiempo. Por ejemplo, la revista Polygraph de la Asociación Americana de Poligrafía – APA, dedicó buena parte de su volumen 7 Número 3 de 1978 a los diferentes exámenes de estimulación. En tal publicación, Gordon Barland, PhD., menciona como una de sus principales ventajas la de fomentar la reactividad diferencial de los sujetos inocentes y culpables, evitar reacciones “espontáneas” que son características de la primera gráfica realizada en un examen, familiarizar al sujeto con los sensores, etc. (Barland, 1978). En otro artículo de esa misma revista, Ronald Decker describe lo que él denomina como Test de Estimulación del Ejército; una versión del tradicional examen numérico de 7 cifras con conocimiento, con la particularidad que el examinado era instruido para escribir un número entre el 3 y el 7 pero con su mano no dominante. De la misma forma, el pedazo de papel con el número escrito era pegado en la pared el fren3737
te y se le instruía a la persona para visualizarlo mientras respondía que no lo había escrito. De la misma forma, se manejaba una secuencia de 5 preguntas, dependiendo del número elegido por el examinado, ubicando siempre en el medio el número elegido, así: si la persona escribía el 5, la secuencia iría del 3 al 7, y así sucesivamente (Decker, 1978). De la misma forma, en caso que el examinado reaccionara a un número diferente al elegido, el protocolo incluía la instrucción de cuestionar al examinado acerca de la razón por la que esto había sucedido. Por otro lado, si la mayor reacción se presentaba en el número elegido y la gráfica era clara, la indicación consistía en mostrarla al examinado.
los resultados incrementando el índice de un 66% al 100% (Bradley y Janisse, 1981).
Stanley Abrams, PhD., describe el uso de una metodología numérica con conocimiento, que incluía la muestra al sujeto de alguna gráfica de familiarización en la que la reacción al número fuera obvia y se le explicaba someramente las activaciones a esta pregunta (a nivel de EDA y Cardio, únicamente). Para este autor, el componente de estimulación psicológico asociado al examen de familiarización, es el aspecto fundamental de su aplicación. De la misma forma, planteó le necesidad de aclarar al examinado el propósito del examen, en términos de ser una herramienta para aumentar la confiabilidad de los resultados (Abrams, 1978).
Uno de los más ambiciosos trabajos en este sentido, fue desarrollado por John Kircher y colaboradores en 2010. Se trató de una investigación de laboratorio con una muestra conformada por 336 sujetos, en la que se demostró el impacto del empleo del examen de familiarización, en un rango del 77% al 90% (en exámenes con pregunta comparativa de mentira probable – PLC) y del 75% al 83% (en exámenes con pregunta comparativa de mentira dirigida – DLC). En el estudio logró demostrarse que, para alcanzar estos incrementos en la efectividad, era indispensable realizar una adecuada retroalimentación de los resultados del examen de familiarización al participante. En este proyecto, se empleó una versión numérica con conocimiento, en la que el sujeto era instruido para escribir un número entre el 3 y el 6. La gráfica contenía las preguntas del 1 al 7. Por otra parte, dentro del diseño experimental, se estableció que sin importar el resultado real, todos los sujetos asignados al grupo experimental que incluía la retroalimentación del examen de familiarización, se les diría que habían mostrado una reacción significativa al número elegido, mientras que en los números a los que habían respondido con la verdad, sus reacciones habían sido mínimas o inexistentes. (Kircher y cols., 2010).
En los años siguientes, se han desarrollado proyectos para verificar mediante experimentación los efectos y utilidad de los exámenes de familiarización. Bradley y Janisse, desarrollaron un proyecto de laboratorio tendiente a establecer los beneficios del empleo del examen de familiarización, así como registros de la actividad pupilar como un posible nuevo canal de medición fisiológica y una comparación en términos de efectividad de técnicas de la familia CQT versus GKT (Guilty Knowledge Test). A la postre, se demostró que el uso del examen de familiarización tenía efectos en el incremento de la confiabilidad de
La evidencia científica de soporte con relación al empleo del examen de familiarización, ha llevado a que su implementación haya sido incluida dentro de los criterios de administración de las diferentes técnicas poligráficas, así como en diferentes estándares de práctica de poligrafía. Específicamente, la American Polygraph Association - APA en sus estándares de práctica en el numeral 1.7.5, menciona el deber de los examinadores miembros de aplicar un examen de familiarización en las pruebas de preempleo, rutina y casos específicos (American Polygraph Association, 2015).
38
Metodología Muestra: el proyecto incluyó una muestra total de 1.440 exámenes poligráficos exploratorios (preempleo y rutina) así como 250 encuestas respondidas por poligrafistas de Norte, Centro y Sur América. Examinadores: los 1.080 exámenes poligráficos analizados, fueron realizados por poligrafistas del Latinamerican Polygraph Institute. Cada uno de los examinadores es graduado de una escuela de poligrafía certificada por la Asociación Americana de Poligrafía – APA, y que han cumplido con el requisito de la educación continuada de acuerdo a su tiempo de graduación. Por su parte, las encuestas online, fueron respondidas por miembros de la Asociación Americana de Poligrafía – APA y la Asociación Latinoamericana de Poligrafistas – ALP, con lo cual se confirma que se trata de poligrafistas egresados de un curso básico en alguna escuela certificada por la APA. Instrumentos Poligráficos: Para los exámenes poligráficos analizados, se emplearon instrumentos Limestone Technologies, referencia DataPac_ USB y Paragón.
Procedimiento El proyecto implicó la realización de diversas etapas, destinadas a la consecución de información previa sobre las metodologías empleadas en la actualidad, así como de datos provenientes de la aplicación de la metodología propuesta. Primera etapa: se aplicó una encuesta online a poligrafistas de Norte, Centro y Sur América, acerca del uso y percepción del examen de familiarización. Se empleó una encuesta estandarizada con respuesta de selección múltiple, que fue enviada vía correo electrónico y respondida
de manera virtual por los participantes. En total participaron 194 poligrafistas de Latinoamérica y 56 de Estados Unidos. Las preguntas incluidas en la encuesta fueron: 1. A qué sector pertenece: a. Privado b. Gobierno c. Otros 2. Aplica usted durante sus pruebas un examen de familiarización: a. Siempre b.
En la mayoría de mis exámenes
c.
En muy pocos casos
d.
En algunos de mis exámenes
e. Nunca 3. En caso de aplicar un examen de familiarización, cuál emplea: a. Numérico b. Naipes c. Colores d. Otro 4. En la aplicación del examen de familiarización, aplica usted la versión con conocimiento o sin conocimiento: a.
Con conocimiento
b.
Sin conocimiento
5. En caso de aplicar el examen de familiarización, en qué fase lo hace: a.
Después de la entrevista 3939
b.
Antes de la entrevista
6. Si aplica el examen de familiarización antes de la entrevista, cuál es la razón: a.
Considero que refuerza el acondicionamiento del sujeto
b.
Considero que así se obtienen más admisiones durante la entrevista
c.
Así lo aprendí durante mi curso básico
d. Simplemente porque es la instrucción en mi unidad/empresa e.
Considero que así está establecido en los criterios de administración del examen
7. Si aplica el examen de familiarización antes de la entrevista, cuál es la razón: a.
b.
Considero que si se hace antes de la entrevista, el sujeto pierde la familiarización al momento de llegar a las gráficas de análisis No me parece adecuado/necesario colocar y retirar en dos oportunidades los sensores al examinado durante el examen
c.
Así lo aprendí durante mi curso básico
d.
Considero que así está establecido en los criterios de administración del examen
e.
Simplemente porque es la instrucción en mi unidad/empresa
8. Califique su opinión sobre el examen de familiarización
40
a.
Es muy útil
b.
Es útil
c.
No implica ventajas ni desventajas
d.
Es inútil
e.
Es totalmente inútil
9. Seleccione un rango de coincidencia del test de familiarización a.
76% - 100%
b.
51% - 75%
c.
26% - 50%
d.
0% - 25%
Segunda etapa: consistió en el análisis de una muestra de exámenes en los que se aplicó la versión tradicional del test de familiarización de 5 números con conocimiento, en la que el sujeto era instruido a escribir y mentir puntualmente acerca del número 3. La muestra consistió en 360 exámenes exploratorios (preempleo y rutina) realizados en Latinamerican Polygraph Institute. Los resultados fueron registrados en una matriz que contenía los siguientes ítems:
Identificación del Examen
Diagnóstico del Examen
Reacción al Número 3
Tercera etapa: se analizaron los efectos del empleo de la versión de 7 números, pidiendo al sujeto que escogiese un dígito entre el 3 y el 5. De la misma forma se aplicó el procedimiento antes de la entrevista pretest. Se analizó una muestra de 360 exámenes exploratorios (preempleo y rutina) realizados en Latinamerican Polygraph Institute. Luego de cada examen, los poligrafistas diligenciaron una encuesta que contenía las siguientes preguntas:
1. Resultado del Examen a. NSR b. SR c. INC d. N.O. 2. Sin tener en cuenta el número uno, la mayor reacción de la gráfica se presentó ante el número elegido: a. Si b. No 3. Por favor califique cómo se sintió usted usando el stim de siete números y elección de número, en comparación con la versión de 5 números. a. Mejor b. Igual c. Peor 4. Las reacciones ante el número elegido en comparación con las reacciones usuales al número 3 en la versión de 5 números sin elección, fueron:
6. En su opinión el stim test de 7 números y elección de número supera la versión tradicional de 5 números a. Si b. No Cuarta etapa: se pretendió verificar el efecto de emplear la versión de 5 números con conocimiento, con la única opción de escribir el número 3 y empleando un cartel para que el examinado visualizara este número al momento de correr la gráfica. Se analizó una muestra de 360 sujetos, correspondientes a exámenes exploratorios (preempleo y rutina) realizados en Latinamerican Polygraph Institute. Una vez concluido cada examen, los poligrafistas diligenciaron una encuesta que contenía las siguientes preguntas: 1. Resultado del examen: a) NSR b) SR c) INC d) N.O. 2. Sin tener en cuenta el número 1, ¿la mayor reacción de la gráfica se presentó ante el número 3?
a.
Significativamente de mayor magnitud
b.
Levemente de mayor magnitud
c.
De magnitud equivalente
a) Si
d.
De magnitud levemente menor
b) No
e.
De magnitud significativamente menor
5. La actitud del examinado ante el stim test de 7 números y elección de número fue:
3. Por favor califique cómo se sintió usted usando el stim test de cinco números y cartel, en comparación con la versión tradicional sin cartel.
a.
Mejor que ante la versión tradicional
a) Mejor
b.
Equivalente a la versión tradicional
b) Igual
c.
Peor que ante la versión tradicional
c) Peor 4141
4. Las reacciones ante el número 3, en comparación con las reacciones usuales al número elegido sin cartel, fueron: a)
Significativamente de mayor magnitud
b)
Levemente de mayor magnitud
c)
De magnitud equivalente
d)
De magnitud levemente menor
e)
De magnitud significativamente menor
Las imágenes eran presentadas por espacio de 30 segundos al sujeto, en una plantilla con la siguiente distribución:
5. La actitud del examinado ante el stim test de 5 números y uso de cartel fue: a)
Mejor que ante la versión tradicional
b)
Equivalente a la versión tradicional
c)
Peor que ante la versión tradicional
6. En su opinión, el stim test de 5 números y uso de cartel supera a la versión tradicional: a) Si b) No Quinta etapa: consistió en la aplicación de la versión propuesta de un examen de familiarización con imágenes. Esta propuesta hace parte de un paquete de proyectos tendientes a verificar las ventajas del uso de estimulación audiovisual en diferentes etapas del examen poligráfico. En una muestra de 360 sujetos se reemplazó la lista de números por las siguientes imágenes: • Carro • Casa • Avión • Perro • Moto 42
Se manejó un template de siete preguntas, que incluía los cinco elementos de las imágenes, más otros dos no relacionados, que fueron ubicados respectivamente en la primera y última posición de la secuencia. El elemento elegido por el examinado era ubicado en cualquier posición de la secuencia, a excepción de la primera o la séptima. Un ejemplo podría ser: X- La gráfica va a iniciar por favor no se mueva 1.
¿Escogió usted el balón?
2.
¿El avión?
3.
¿La casa?
4.
¿El perro?
5.
¿La moto?
6.
¿El carro?
7.
¿El barco?
XX –La gráfica va a terminar, por favor no se mueva hasta mi indicación Antes de realizar la gráfica, las preguntas eran repasadas con el sujeto en el mismo orden del template.
Una vez finalizado cada examen, los poligrafistas participantes diligenciaron una encuesta que contenía las siguientes preguntas: 1. Por favor califique cómo se sintió usando el test de familiarización visual en comparación con la versión numérica: a. Mejor b. Igual c. Peor 2. Sin tener en cuenta la reacción al primer elemento, la reacción al elemento elegido fue la mayor de la gráfica:
a. Si b. No
Resultados Primera Fase: encuesta online a poligrafistas latinoamericanos: el análisis de la muestra arrojó los siguientes resultados: Distribución de la Muestra Sector Porcentaje Privado 80.41% Gobierno 19.07% Otros 0.52%
a. Si b. No 3. Las reacciones ante la figura elegida en comparación con las reacciones usuales al número 3 o 4 de la versión numérica, fueron:
A la pregunta “Aplica usted durante sus pruebas un examen de familiarización”, los participantes respondieron: Opiniones
Porcentaje
Siempre
69.59%
a.
Significativamente de mayor magnitud
b.
Levemente de mayor magnitud
En la mayoría de mis exámenes
11.34%
c.
De magnitud equivalente
En muy pocos casos
8.25%
d.
De magnitud levemente menor
7.73%
e.
De magnitud significativamente menor
En algunos de mis exámenes Nunca
3.09%
4. La actitud del examinado ante el Test con Imágenes fue a.
Mejor que ante la versión numérica
b.
Equivalente a la versión numérica
c.
Peor que ante la versión numérica
5. Por favor escriba la razón que tuvo el examinado para escoger la figura
Las respuestas a la pregunta “En caso de aplicar el examen de familiarización, cuál emplea”, fueron: Opiniones Numérico Otro Naipes Colores
Porcentaje 93.65% 5.29% 0.53% 0.53%
6. En su opinión el Test de Familiarización con Imágenes supera la versión numérica tradicional 4343
A la pregunta “En la aplicación del examen de familiarización, aplica la versión con conocimiento o sin conocimiento”, las respuestas fueron: Opiniones Con conocimiento Sin conocimiento
Porcentaje 92.06% 7.94%
Las respuestas a la pregunta “En caso de aplicar el examen de familiarización, en qué fase del examen lo hace”, fueron: Opiniones Después de la entrevista Antes de la entrevista
Porcentaje 60.32% 39.68%
En cuanto a la pregunta “Si aplica el examen de familiarización antes de la entrevista, cuál es la razón”, los sujetos respondieron: Opiniones
Porcentaje
Considero que refuerza el acondicionamiento del sujeto
41.98%
Considero que así se obtienen más admisiones durante la entrevista
20.61%
Así lo aprendí durante mi curso básico
18.32%
Simplemente porque es la instrucción en mi unidad/empresa Considero que así está establecido en los criterios de administración del examen 44
Las respuestas a la pregunta “Si aplica el examen de familiarización después de la entrevista, cuál es la razón”, fueron: Opiniones
Porcentaje
Considero que si se hace antes de la entrevista, el sujeto pierde la familiarización al momento de llegar a las gráficas de análisis
31.58%
No me parece adecuado/necesario colocar y retirar en dos oportunidades los sensores al sujeto durante el examen
24.56%
Así lo aprendí durante mi curso básico
24.56%
Considero que así está establecido en los criterios de administración del examen
14.91%
Simplemente porque es la instrucción en mi unidad/empresa
4.39%
A la pregunta “Califique su opinión sobre el examen de familiarización” los examinadores respondieron: Opinión
10.69%
8.4%
Porcentaje
Es muy útil
50.52%
Es útil
29.90%
No implica ventajas ni desventajas
14.43%
Es inútil
3.61%
Es totalmente inútil
1.55%
Cuando se solicitó seleccionar un grado de coincidencia en el examen de familiarización, los sujetos dieron las siguientes respuestas: Opinión 51% - 75% 26% – 50% 76% - 100% 0% - 25%
Porcentaje 45.26% 26.32% 16.84% 11.58%
En cuanto a la encuesta online aplicada a poligrafistas estadounidenses, los resultados fueron: A la pregunta “A qué sector pertenece”, las respuestas fueron: Opinión
Porcentaje
Law Enforcement (apoyo a la justicia)
44.64%
Privado Gobierno Otros
44.64% 7.14% 3.57%
Las respuestas a la pregunta “Aplica usted un examen de familiarización”, fueron: Opiniones Siempre
Porcentaje 69.64%
En la mayoría de mis exámenes
19.64%
En algunos de mis exámenes
7.14%
Nunca En muy pocos casos
1.79% 1.79%
Cuando se preguntó “Qué tipo de test aplica”, los examinadores respondieron: Opinión Numérico Otro Cartas Imágenes
Porcentaje 76.36% 12.73% 7.27% 3.64%
A la pregunta “Si no usa el test de familiarización, explique por qué no lo hace”, las respuestas fueron: Opinión No es obligatorio
Porcentaje 38.89%
Siempre/algunas veces aplico el examen de familiarización
22.22%
No es útil
16.67%
Puede ser malinterpretado por el examinado
11.11%
Es una pérdida de tiempo
5.56%
Alguien me sugirió/ indicó no hacerlo
5.56%
Cuando se preguntó “En qué momento aplica el examen de familiarización”, los examinadores respondieron: Opinión
Porcentaje
Después de la entrevista pretest
85.45%
Antes de la entrevista pretest
14.55%
4545
A la pregunta “Aplica usted el examen de familiarización con conocimiento o sin conocimiento”, los examinadores respondieron: Opinión Con conocimiento Sin conocimiento
Porcentaje 82.27% 12.73%
En cuanto a la opinión acerca del examen de familiarización, las respuestas fueron: Opinión Es muy útil Es útil No tiene ventajas no desventajas Es inútil
Porcentaje 51.14% 33.93% 5.36% 3.57%
Con relación al índice de coincidencia con la mayor reacción de las gráficas, las respuestas fueron: Opinión 76% - 100% 51% - 75% 26% - 50%
Porcentaje 40.00% 33.33% 26.67%
Segunda fase: con relación a la muestra analizada empleando la versión tradicional del examen de familiarización, de 5 números y respuesta conocida, se obtuvieron los siguientes resultados: Indicador
46
Porcentaje
Sujetos cuya mayor reacción ocurre al #3
24% de la muestra total
Sujetos NSR con mayor reacción en el número 3
74% de los sujetos con mayor reacción al 3
Sujetos SR con mayor reacción en el número 3
26% de los sujetos con mayor reacción al número 3
Total de sujetos cuya mayor reacción no ocurrió ante el número 3
76% del total de sujetos
Sujetos NSR cuya mayor reacción no estuvo en el número 3
72% de los sujetos sin mayor reacción al 3
Sujetos SR cuya mayor reacción no estuvo en el número 3
28% de los sujetos sin mayor reacción al 3
Tercera fase: respecto a la muestra de aplicación de la versión de 7 números con conocimiento y elección de número entre el 3 y el 5, se obtuvieron los siguientes resultados: Opciones NSR SR N.O. INC
Resultado del Examen Porcentaje 74.59% 22.82% 2.49% 0.10%
A la pregunta “Sin tener en cuenta el número 1, la mayor reacción de la gráfica se presentó ante el número elegido”, las respuestas fueron: Opciones No Si
Porcentaje 59.34% 40.66/
Cuando se preguntó “Por favor califique cómo se sintió usted usando el stim test de 7 números y elección de número, en comparación con la versión de 5 números”, los sujetos respondieron así: Opciones Igual Peor Mejor
Porcentaje 79.56% 11.93% 8.51%
Ante la pregunta “Las reacciones ante el número elegido en comparación con las reacciones usuales al número 3 en la versión se 5 números sin elección fueron” se obtuvo: Opciones
Cuarta fase: los resultados que arrojaron las encuestas aplicadas, fueron: Ante la pregunta sobre el resultado del examen, los resultados fueron:
Porcentaje
De magnitud equivalente
56.64%
De magnitud levemente menor
17.12%
Levemente de mayor magnitud
12.76%
Significativamente de mayor magnitud
7.26%
De magnitud significativamente menor
6.22%
Opciones N.S.R. S.R. INC. N.O.
Cuando se preguntó “Sin tener en cuenta el número 1 ¿la mayor reacción de la gráfica se presentó ante el número 3?, los resultados obtenidos fueron: Opciones
Cuando se preguntó “La actitud del examinado ante el stim test de siete números y elección de números fue”, se obtuvieron los siguientes porcentajes: Opciones
Porcentaje
Equivalente a la versión tradicional
83.34%
Peor que ante la versión tradicional
8.71%
Mejor que ante la versión tradicional
7.95%
Finalmente, ante la pregunta “En su opinión, el stim test de 7 números y elección de número, supera a la versión tradicional de 5 números”, las respuestas fueron: Opciones No Si
Porcentaje 87.45% 12.55%
Porcentaje 74.75% 23.93% 0.34% 0.98%
Si No
Porcentaje 50.49% 49.51%
Con relación a la pregunta “Por favor califique cómo se sintió usted usando el stim test de 5 números y cartel, en comparación con la versión tradicional sin cartel”, los resultados arrojados fueron: Opciones Mejor Igual Peor
Porcentaje 11.80% 87.21% 0.99%
Ante la pregunta “¿Las reacciones ante el número 3 en comparación con las reacciones usuales al número elegido sin cartel, fueron?” las respuestas obtenidas mostraron estas tendencias: Opciones Significativamente de mayor magnitud
Porcentaje 9.84% 4747
Levemente de mayor magnitud
19.34%
De magnitud equivalente
58.68%
De magnitud levemente menor
9.84%
De magnitud significativamente menor
2.30%
Cuando se preguntó “La actitud del examinado ante el stim test de 5 números y uso de cartel fue”, se obtuvieron los siguientes resultados: Opciones
Porcentaje
Opciones Mejor Igual Peor
Porcentaje 31.77% 64.58% 3.65%
A la pregunta “Las reacciones ante la figura elegida en comparación con las reacciones usuales al número 3 o 4 de la versión tradicional fueron”, arrojó los siguientes resultados:
Mejor que ante la versión tradicional
11.15%
Equivalente a la versión tradicional
88.20%
Significativamente de mayor magnitud
12.50%
Peor que ante la versión tradicional
0.65%
Levemente de mayor magnitud
26.30%
De magnitud equivalente
44.01%
De magnitud levemente menor
14.84%
De magnitud significativamente menor
2.35%
Finalmente, respecto a la pregunta “¿En su opinión, el stim test de 5 números y uso de cartel supera a la versión tradicional?”, los resultados fueron: Opciones Si No
Porcentaje 36.72% 63.28%
Quinta fase: los resultados obtenidos a cada una de las preguntas realizadas en la encuesta fueron: A la pregunta “Sin tener en cuenta el primer y último elemento, la reacción al elemento elegido fue la mayor de la gráfica”, los resultados fueron: Opciones Si No 48
Cuando se le pidió a cada examinador calificar cómo se sintió usando el test de familiarización visual, en comparación con la versión tradicional, las respuestas fueron:
Porcentaje 52.85% 47.15%
Opciones
Porcentaje
Cuando se preguntó a los participantes acerca de la actitud del examinado ante el procedimiento con imágenes, las respuestas fueron: Opciones
Porcentaje
Mejor que ante la versión numérica
21.09%
Equivalente a la versión numérica
76.56%
Peor que ante la versión numérica
2.35%
Ante la pregunta “En su opinión el test de familiarización con imágenes supera a la versión tradicional”, las respuestas obtenidas fueron: Opciones Si No
Porcentaje 40.10% 59.90%
Resumen General de Resultados con las diferentes metodologías A continuación se presentan los resultados consolidados de cada una de las metodologías empleadas durante las diferentes fases del proyecto, en términos de la magnitud de reacción al número/ elemento elegido: Tipo de Examen de Familiarización Cinco Números Siete Números Cinco Números y Cartel Imágenes
Mayor Reacción al Número/Elemento Elegido 24% 40% 50% 53%
Conclusiones Primera fase: el análisis de los datos obtenidos en la encuesta aplicada a poligrafistas latinoamericanos, los principales hallazgos son:
• Un 45% de la muestra manifestó obtener un grado de coincidencia (mayor magnitud de reacción al número/elemento elegido) entre el 51% al 75% de las ocasiones. • Por otra parte, el análisis de las encuestas de la población Latinoamericana reveló consistencia en las respuestas respecto a la población estadounidense, así: • La gran mayoría de los examinadores aplican el test de familiarización • Se prefiere la versión numérica con conocimiento • La mayoría aplica el test después de la entrevista • 41% de la muestra reportó un nivel de coincidencia del número elegido y la mayor reacción, entre el 76% y el 100%. Segunda fase: el análisis de la muestra arrojó los siguientes resultados: - Las reacciones de mayor magnitud al número 3 no constituyen predicción de resultados ni NSR ni SR; es decir, no existe una correlación entre los resultados del stim test y el diagnóstico del examen. - En la gran mayoría de los casos los sujetos no reaccionan al número elegido.
• La gran mayoría de los examinadores, aplican el examen de familiarización en su versión numérica con conocimiento.
- No es posible a través de los datos analizados establecer si la reacción al número 3 o 4 es un buen predictor de la instrucción de mentir.
• Más del 50% de los sujetos de la muestra, aplican el examen de familiarización después de la entrevista pretest.
Tercera fase: en la tercera fase, los resultados obtenidos permitieron establecer las siguientes conclusiones:
• Aproximadamente el 50% calificó como muy útil el procedimiento del test de familiarización.
• En cuanto a la mayor magnitud de reacción ante el número elegido, los examinadores reportaron una coincidencia del 41% 4949
• En opinión de los examinadores, no se presentaron diferencias significativas entre la versión tradicional y la versión de 7 números con elección de número • A nivel de la magnitud de reacción, los niveles generales se mantuvieron • La actitud del examinado fue en esencia la misma Cuarta fase: la revisión de los datos obtenidos en esta etapa del proyecto arrojó las siguientes conclusiones: • El uso del cartel, conllevó un incremento en la reactividad al número 3. Sin embargo, en la percepción de los examinadores, esta metodología no implicó mejoría en el procedimiento general. • La magnitud como tal de la reacción al número no se vio afectada significativamente por el uso del cartel. • No se observó un cambio en la actitud del examinado hacia el proceso. • En un 63.28% de los casos, los examinadores opinaron que la metodología del cartel no supera a la tradicional.
50
Quinta fase: el análisis de los resultados obtenidos permite elaborar las siguientes observaciones: • Se evidenció que el empleo de estimulación visual supera a la versión tradicional, en términos de la magnitud de reacción hacia el elemento elegido. Los resultados apuntan a demostrar las ventajas del empleo de la estimulación visual durante el examen poligráfico. • Esta metodología parecería contribuir a una mejor comprensión del sujeto con respecto a la instrucción de mentir; por esta razón ayudaría a la introducción de las preguntas dirigidas Directed Lie Comparison - DLC. • Si bien en los datos obtenidos respecto a la actitud del examinado y del examinador al proceso los resultados estuvieron por debajo de lo esperado, es claro que la metodología apunta a mostrar ventajas a nivel de resultados sobre la metodología tradicional.
Recomendaciones Se sugiere que en futuros estudios, se verifique el impacto de la metodología de familiarización con imágenes, sobre la introducción de las preguntas comparativas de mentira dirigida.
Bibliografía Abrams, S. (1978). The utilization and effectiveness of the Stimulation Test. Polygraph. 7(3): 178-181 Alder, K. (2007). America’s two gadgets. Isis, 98(1), 124–137. American Polygraph Association (2015). APA Standards of Practice. http://www.polygraph.org/assets/docs/Misc.Docs/apa%20standards%20of%20practice%20effective%20 3-11-16%20final.pdf American Polygraph Association (2011). Metaanalytic survey of criterion accuracy of validated polygraph techniques: Report prepared for the American Polygraph Association Board of Directors by the ad hoc Committee on Validated Techniques. Polygraph 40(4), 194-305. Barland, G.H. (1978). An Introduction to the Number Test. Polygraph. 7(3): 173 - 175 Blalock, B. (2009). Capitalizing on technology to increase standardization and reliability in a polygraph examination. Polygraph. 38(2): 154 – 166.
Bradley. M.T., & Janisse, M.P. (1981). Accuracy Demonstrations, Threat, and the Detection of Deception: Cardiovascular, Electrodermal and Pupillary Measures. Polygraph. 10(2): 77 - 91 Decker, R.E. (1978). The Army Stimulation Test – A Control Procedure. Polygraph. 7(3): 176-177. Kirby, S.L. (1981). The comparison of two stimulus tests and their effect on the polygraph technique. Polygraph. 10(2): 63 – 76. Kircher, J.C., Packer, T., Bell, B.G., Bernhardt, P.C. (2010). Effects of prior demonstrations of polygraph accuracy on outcomes of probable-lie and directed-lie polygraph tests. Polygraph. 39(1): 22 - 66 Kircher, J., Woltz, D., Bell, B., Bernhardt, P.C. (2006). Effects of audiovisual presentations of test questions during Relevant Irrelevant polygraph examinations and new measures. Polygraph 35(1): 25 – 5 Matte J. (1996). Forensic Psychophysiology Using the Polygraph. Scientific Truth Verification – Lie Detection. J.A.M Publications. U.S.A. Matzke, N. (1972). Sensitivity Level Test vs. Card Tests. Polygraph. 1(4). 238-240
5151
Porque es más difícil mentir que decir la verdad. Los ojos no mienten. • Pruebas pre empleo • Pruebas rutinarias
web: converus.es tele: +1-801-331-8840 email: info@converus.com
Líderes en Latinoamérica en el entrenamiento de Poligrafistas profesionales. Somos la única escuela de Poligrafía en Colombia que reúne los más altos estándares de calidad en el entrenamiento de Psicofisiologos Forenses y en las técnicas de manejo del polígrafo. - Capacitación y Entrenamiento - Servicios especializados - Exámenes de poligrafo
- Asesoría - Consultoría - Investigaciones - Equipos
www.latinamericanpolygraph.com Carrera 46 # 93-70 Barrio la Castellana PBX: (57) (1) 2369630 Bogotá - Colombia
LATINAMERICAN INSTITUTE FOR CREDIBILITY ASSESSMENT
SU MEJOR OPCIÓN EN POLIGRAFÍA
*Pruebas Poligraficas *Entrenamiento y Capacitaciones *Equipos y Tecnología
CERTIFICADO ACADEMICAMENTE POR:
APA
ALP
Lima, Perú Calle los petirrojos (Calle 17) No 438 Urb.- San Isidro PBX: 5112268450, 98-132, 9-89141354 E mail: lpiperu11@gmail.com
INSTITUTO LATINO DE POLIGRAFÍA MÉXICO
DESCUBRIMOS LA VERDAD APOYADOS EN LA CIENCIA Y LA TECNOLOGÍA
*Pruebas Poligraficas *Entrenamiento y Capacitaciones *Equipos y Tecnología
: R O EP
T N E AM
O D A FIC
I T R CE
56 MÉXICO,
C I M E D A AC
ALP
APA
D.F- Génova 33 - Col. Juárez - Del. Cuauhtémoc Tel. (55) 5208-7823 - E mail: poligrafia@ilpm.com.mx
La Respuesta del Canal Vasomotor
en el Examen de Preguntas Comparativas
Charles R. Honts1 Mark Handler1 Pam Shaw2 Mike Gougler2
Resumen Analizamos una herramienta de evaluación basada en un algoritmo, para la medición de las reacciones a nivel vasomotor, generadas por un pletismógrafo fotoeléctrico en un experimento de simulación de delito en laboratorio. Diez estudiantes que se encontraban en la fase final de su curso básico de poligrafía, participaron en el estudio proyecto examinadores y como sujetos de estudio. Se condujeron cuarenta exámenes y se analizaron con el Sistema de Calificación Empírica (ESS, Nelson y cols., 2011), con puntajes para la respuesta vasomotora que predijeron significativamente la culpabilidad y la inocencia y que se correlacionaron más significativamente con el Criterio de Culpabilidad que las respuestas de presión sanguínea y respiración. El análisis discriminante de nuestros datos, produjo una solución de tres variables que ordenó los predictores (el más fuerte primero) electroderma, vasomotor y presión sanguínea. La respiración no contribuyó de manera significativa a la solución y por lo tanto no fue incluida en el modelo. En la
validación cruzada N-1, nuestro modelo de análisis discriminante clasificó correctamente el 92.5% de los exámenes. Estos resultados son consistentes con una gran cantidad de investigación que muestra que la respuesta vasomotora realiza una valiosa contribución a la detección fisiológica del engaño. Se exhorta a los examinadores a adoptar su uso. Palabras clave: respuesta del canal vaso motor, pletismógrafo fotoeléctrico, amplitud de pulso en el dedo, examen de pregunta comparativa de mentira dirigida. La Respuesta del Canal Vasomotor en el Examen de Pregunta Comparativa Por más de 50 años, los investigadores han estudiado la respuesta del canal vasomotor como una medición predictiva en la detección del engaño (para ejemplos tempranos ver, Kubis,
1 2
Honts, Handler y Hartwig, LLC National Polygraph Academy
5757
1962; Podlesny y Raskin, 1978). Típicamente, la respuesta del canal vasomotor se mide con un pletismógrafo foto eléctrico colocado en un dedo, como el pulgar. La medición de la actividad vasomotora a través de la amplitud del pulso en el dedo (FPA, filtro de alto paso) y del volumen sanguíneo en el dedo (sin filtro) (Podlesny y Raskin, 1978) fueron examinadas y se encontró que, generalmente, la amplitud del pulso posee la medición más fuerte y más sencilla de calificar (Kircher, 1983). Las mediciones de la respuesta del canal vasomotor suministraron una discriminación estadísticamente significativa entre sujetos culpables e inocentes en una cantidad de estudios previos del examen de preguntas comparativas (Barland y Raskin, 1975; Honts, Amato y Gordon, 2000; Honts y Reavy, 2015; Horowitz, Kircher, Honts y Raskin, 1997; Kircher y Raskin, 1988, Kircher, Packard, Bell y Bernhardt, 2005; Kubis, 1962; Podlesny y Raskin, 1978; Rovner, 1986; Raskin y Hare, 1978; Raskin y Kircher, 1990). En un artículo de Kircher y Raskin (1988) la medición de la amplitud del pulso en el dedo (FPA) una correlación más fuerte con los culpables (.60) que la presión relativa del pulso (.53) y la respiración (.57). Honts, Amato y Gordon (2000) reportaron que la correlación de los puntajes numéricos del canal vasomotor con criterio (culpables e inocentes) fue de 0.51, valor equivalente al de la presión sanguínea. Kircher y cols., (2005) reportaron una correlación similar entre la FPA ay la presión sanguínea en exámenes de mentira probable (.43 versus .42). Para exámenes de mentira dirigida, la correlación de la FPA excedió la de la presión sanguínea (.44 versus .31). Más recientemente, Honts y Reavy (2015) reportaron que la correlación del canal vasomotor con el criterio (.45) excedió las correlaciones de la presión sanguínea (.41) y la respiración (.24) y se aproximó a la respuesta electrodérmica (.48). Podlesny y
58
Truslow (1993) es el único estudio publicado con revisión de pares que pudimos encontrar, en el que no se reportó un efecto significativo por lo menos para una característica de la respuesta vasomotora. Bell, Raskin, Honts, y Kircher (1999) así como Handler (2006) describen el criterio para evaluar la FPA. El criterio FPA requiere la evaluación visual de las diferencias relativas de decremento en FPA y la duración de tal decremento, entre las preguntas relevantes y comparativas. Sin embargo, la medición de la actividad vasomotora no está incluida en el análisis de gráficas (TDA) usado por los Programas Federales del Gobierno de E.U.A. (Departamento de Defensa, 2006). El Programa Federal es usado como un modelo por una cantidad de programas de entrenamiento acreditados por la Asociación Americana de Poligrafía. La gran mayoría de los datos disponibles en la actualidad muestran que adoptar el criterio de la FPA en los procesos de calificación numérica, mejora la discriminación de los inocentes y culpables en exámenes con preguntas comparativas. Lo que no se sabe es por qué la resistencia en la profesión de la poligrafía a la incorporación del criterio de FPA en las evaluaciones numéricas. Una razón puede ser una preocupación acerca de la confiablidad en la evaluación del criterio de FPA debida a una posible subjetividad en el uso del criterio de calificación. Tratar de discriminar cambios similares de amplitud y duración puede ser difícil para algunos examinadores, especialmente cuando son nuevos en la poligrafía. Por esta razón, buscamos desarrollar y evaluar una herramienta de evaluación algorítmica que permitiera clasificar confiablemente diferencias en las reacciones en FPA entre preguntas. De esta forma, un objetivo del presente estudio fue el de suministrar a los examinadores con medios altamente confiables y fáciles de usar para comparar respuestas en sus registros vasomotores.
Método
en el cojín de la silla del sujeto monitoreaba la actividad de movimientos.
Participantes
El segundo autor trabajó con ingenieros de hardware y software de Lafayette Instrument Company (Lafayette, IN) para mejorar la herramienta de evaluación del canal vasomotor que analizamos en este proyecto. Las ventanas de tiempo para la herramienta de evaluación fueron desarrolladas a través de hallazgos de investigación reportados por Podlesny y Raskin (1978) así como Rovner (1986). El pletismógrafo usado en este experimento fue el modelo 76604A-5L de Lafayette Instrument Company (Lafayette, IN) modelo 76604A-5L con una bombilla LED infrarroja que emitía 950 nanómetros. La señal electrónica del fototransistor fue de tipo AC emparejada con un filtro de paso alto con punto de corte de 0.5 Hz y un filtro de paso bajo de 10 Hz, antes de su conversión en ondulación vasomotora (Amplitud del Puso del Dedo) para su inspección visual. Los datos crudos del fototransistor fueron sampleados a 30 muestras por segundo y enviados a la herramienta de evaluación del computador para el trazado virtual. Para el trazado virtual, el promedio de amplitud fue medido desde 5 hasta 10 segundos luego del estímulo y se dividió por la amplitud promedio medida después de 3 segundos de la fase pre estímulo hasta el inicio del estímulo, para producir un “ratio de respuesta”. Después de que se recopilaba una gráfica los ratios de respuesta resultantes eran trazados, de forma que un punto más alto indicaba una mayor reacción. Luego el examinador miraba la altura de los ratios de respuestas de las preguntas relevantes y comparativas para determinar el puntaje. Los “puntos” de ratio de respuesta se ubican en el inicio del estímulo por convención. Un punto más alto visiblemente indica una mayor reducción en la amplitud de la pregunta del examen. Ver Apéndice D para una muestra del trazado virtual y el Apéndice E para un ejemplo de la representación gráfica con el software disponible comparable de los instrumentos Stoelting.
Una cohorte de diez poligrafistas en entrenamiento participó en este estudio, tanto como examinadores como sujetos de estudio. Los participantes estaban en su décima semana de entrenamiento (la última semana) en una escuela de poligrafía acreditada por la Asociación Americana de Poligrafía. La participación en el estudio fue voluntaria. Negarse a participar no tenía consecuencias en el empleo, las calificaciones de desempeño ni el estatus de entrenamiento de los participantes. Nueve de los diez participantes eran investigadores experimentados del campo del apoyo a la justicia, con un promedio de más de 19 años en vigilancia. El participante restante había finalizado estudios de pregrado en ciencias sociales y de conducta y era un oficial de libertad condicional retirado con 27 años de experiencia. Ocho de los participantes eran hombres. Las edades iban de 33 a 61, con una media de 44.5 años de edad. Aparato Los examinadores estudiante usaron cuatro equipos LX-5000 y un LX-4000 de Lafayette Instrument Company. La respiración toráxica y abdominal fue medida usando sistemas estandarizados de neumo como bandas selladas de caucho. La actividad electrodérmica (EDA) fue medida en la modalidad de resistencia de la piel, empleando electrodos de acero inoxidable ubicados en las falanges distales de los dedos corazón o pulgar de la mano izquierda o derecha. La presión sanguínea relativa fue medida usando una banda ubicada en el brazo o antebrazo opuesto de aquel usado para la medición del EDA. La amplitud del pulso en el dedo fue medida con un foto pletismógrafo eléctrico colocado en el dedo corazón derecho o izquierdo (en la misma mano en que se había recopilado el EDA). Un sensor localizado
5959
Procedimiento El diseño de este estudio de recolección de datos fue simple de dos condiciones, un experimento de delito simulado con Culpables e Inocentes. El diseño fue implementado usando una variación de un escenario de delito desarrollado en la Universidad de Utah (Podlesny y Raskin, 1978). Luego de ser llamados a una oficina designada por el director de la escuela, se les pedía a los participantes seleccionar uno de diez sobres. Los diez sobres tenían una de cinco cartas de asignación de culpabilidad (Apéndice B). A los estudiantes examinadores se les dio la opción de no participar en el estudio y podían elegir formas alternativas de finalizar la asignación de prácticas, si bien ninguno fue excluido. La mitad de los participantes (los inocentes) fueron instruidos para llevar un sobre que se encontraba adentro del que habían elegido, a un buzón de correo en una zona de oficinas con alto movimiento. Se les dijo que no iban a robar nada y que si podrían producir resultados sin engaño durante los exámenes poligráficos, se les colocaría en competencia para obtener diez puntos extra en la nota de su examen final. Igualmente se advirtió a los participantes en contra de intentar afectar los resultados de sus exámenes a través del uso de contramedidas. Se les informó que dos revisores experimentados inspeccionarían las gráficas que ellos produjeran y si concluían que el sujeto había usado contramedidas, perderían 20 puntos de su examen final. (Ver Apéndice A para las Instrucciones de los Inocentes). Los otros participantes (Culpables) recibieron instrucciones en las que se les asignaba la comisión del robo de un sobre ubicado en la misma zona de alto movimiento, sin ser sorprendidos. Había un billete de US$20 dentro del sobre los cuales los participantes culpables debían “robar”; además se les dio la instrucción de mantener ese billete con ellos durante el tiempo restante del experimento, advirtiendo que el 60
director de la escuela lo reclamaría al finalizar el experimento. Igualmente se les ofreció a los culpables la misma advertencia sobre las contramedidas que los inocentes (Ver Apéndice B para las instrucciones de los culpables). Un aliado monitoreó de manera subrepticia las acciones de los participantes inocentes y culpables. Tolos los participantes realizaron completamente sus tareas asignadas sin incidentes. En el curso de los dos días siguientes, cada sujeto evaluó a cuatro de sus compañeros de clase. El horario de evaluación fue arreglado para cada estudiante examinador para que evaluara a dos inocentes y dos culpables, si bien el orden fue aleatorizado para ayudar a ocultar su estatus. Luego de reportarse para la evaluación, cada estudiante examinador siguió un protocolo estandarizado de examen Utah de mentira comparativa. (Raskin y Honts, 2002). El director de la escuela asignó cada sujeto de evaluación los examinados para iniciar recopilando información sobre el estado general de salud del sujeto, las horas de sueño la noche anterior y si había consumido alimentos el día del examen. A los participantes se les preguntó si habían robado dinero de una oficina y todos negaron haberlo hecho. Los examinadores estudiantes solicitaron a cada sujeto de examen describir sus actividades en el edificio de la escuela, incluyendo la oficina de la cual el dinero se había robado. Luego los examinadores estudiantes explicaron la función de cada sensor y le dieron al sujeto una explicación general del proceso de evaluación, incluyendo que iban a sentir un poco de incomodidad como resultado de la presión en la banda cardiovascular. Cada sujeto de examen firmó una autorización consintiendo la colocación de los componentes y en ese momento el examen continuó. Cada sujeto recibió un examen práctico para familiarizarlo con los procedimientos del examen y a todos ellos se les dio retroalimentación positiva acerca de su ejecución durante este examen de práctica (Kircher y cols., 2001). El examen prác-
tico fue un examen de respuesta conocida, donde el sujeto escribió el número 3 en un pedazo de papel, que contenía los números 1, 2,4 y5 pre impresos. Entonces el examinador les preguntaba “Con relación al número que usted escribió en el papel, fue el número 5?” y continuaba así hasta el número 5. Los datos fueron recopilados usando un examen de un solo tema con tres preguntas relevantes, siguiendo el protocolo Utah (Raskin y Honts, 2002). Todos los exámenes fueron conducidos con preguntas comparativas de mentira dirigida (DLC). Todos los exámenes incluyeron cinco repeticiones de las preguntas con grabación de datos (ver Apéndice C para las preguntas y respuestas de los examinados). Después de cada recolección de datos, el examinador liberaba la presión en la banda y le daba al sujeto cerca de un minute de Descanso, antes de volver a colocar presión y recopilar datos de la siguiente gráfica. Después que las cinco repeticiones eran grabadas, el examinador retiraba los componentes y retiraba al sujeto de examen. Cada estudiante tomó cuatro exámenes (con la única excepción de un estudiante que presentó una excusa médica en una oportunidad y que fue reemplazado por otro estudiante programado con el mismo estado de criterio). La mitad de los exámenes fueron programados azarosamente y un total de 40 exámenes fueron recopilados. El director de la escuela o un instructor senior revisó todas las gráficas para garantizar procedimientos de recolección de datos adecuados. A un estudiante examinador se le solicitó repetir un examen porque el pretest fue insuficiente y no siguió las prácticas estandarizadas. El examen inadecuado no fue incluido en los análisis de nuestro estudio. Luego que fueron recopiladas todas las gráficas, los estudiantes examinadores calificaban los exámenes que habían conducido. Sus resultados grabados fueron escaneados y mantenidos como parte de sus registros de estudios. A los exámenes
individuales les fueron retirados los datos personales y fueron enviados por email a un examinador experimentado, quien estaba consciente de la tasa base aproximada, pero desconocía totalmente la asignación de cada sujeto. El examinador experimentado había demostrado competencia en la evaluación numérica en varios experimentos anteriores, incluyendo uno en el que se evaluó la FPA (Honts y Reavy, 2015). El examinador experimentado analizó los datos usando el ESS para los componentes de respiración, cardio y EDA, mientras que empleó la herramienta de evaluación del canal vasomotor para el FPA y calificó 36 de los 40 exámenes. Un estudiante que usó un LX-4000 no identificó el puerto auxiliar en el cual se había conectado el pletismógrafo. Esto resultó en una pérdida de la herramienta de evaluación del canal vasomotor para cuatro exámenes. En aquellos casos, el examinador experimentado calificó el componente del pletismógrafo de manera visual. Los puntajes FPA fueron asignados con la escala estándar ESS de tres puntos, -1, 0, +1. El examinador experimentado ingresó todos puntajes en una matriz de Excel (Microsoft, 2013) y la envió al director de la escuela (tercer autor). El director de la escuela entonces envió los puntajes del examinador experimentado, los exámenes individuales y el criterio de asignación al primer autor para el análisis.
Resultados Debido a que las respuestas del canal vasomotor fueron calificadas empleando el Sistema de Evaluación Numérica de Utah, en lugar de la nueva herramienta de calificación de ese canal, realizamos un análisis inicial para ver si había diferencias significativas entre los puntajes totales generados por la herramienta y el sistema Utah. Un ANOVA de Culpable (Culpable, Inocente) x método (Utah, Herramienta) del total de puntajes vasomotores, no produjo efectos significativos involucrando la 6161
variable del método. El efecto principal de Culpabilidad fue significativo, F (1, 36) = 9.88, p = .003, ηp2 = 0.215. Puntajes Numéricos Con 40 exámenes, cinco repeticiones de preguntas y tres preguntas relevantes, había 600 ocasiones posibles para asignar un puntaje numérico en cada uno de los componentes. La tasa de asignación de puntajes se muestra en la Tabla 1. La respuesta vasomotora fue calificada la mayoría de las veces, mientras que el neumo fue calificado la minoría de las veces.
Tabla 1 Frecuencia y Porcentaje de Calificación de los Diversos Componentes en las 600 Oportunidades Componente
Frecuencia
Porcentaje de Calificación
Respiración Electroderma Presión Sanguínea Vasomotor
51 370 390 447
8.5% 61.7% 65.0% 74.5%
Las medias de los componentes fisiológicos se muestran en la Tabla 2 para los sujetos inocentes
62
y culpables. Las diferencias entre las medias de culpables e inocentes, evaluadas con muestras independientes t - tests (df = 38) fueron significativas para todos los componentes y el puntaje total fue p < .01. Los puntajes totales y por componente fueron correlacionados con cada uno de los otros y con el criterio de culpabilidad. Los valores de correlación se presentan en la Tabla 3. Los puntajes totales y por componente se correlacionaron significativamente con los criterios de culpabilidad y fueron ordenados en su poder predictivo, de la siguiente forma: electroderma > vasomotor > presión sanguínea > respiración.
Tabla 2 Medias y Desviaciones Estándar por Componente y por Puntajes Totales para Sujetos Inocentes y Culpables Medición
Culpable
Inocente
Respiración
-1.85 (2.25)
0.00 (0.72)
Actividad Electrodérmica
-7.10 (6.54)
6.30 (7.52)
Presión Sanguínea Media
-1.05 (3.28)
3.55 (3.71)
Actividad Vasomotora
-1.80 (3.43)
3.65 (3.17)
Puntaje Total ESS
-11.80 (7.69)
13.50 (9.30)
Tabla 3 Correlación de Puntajes Totales y por Componente con la Culpabilidad Medición
Respiración
Electroderma
0.41b
Presión Sanguínea
0.25
0.37a
0.22 0.52b 0.49b
0.44b 0.91b 0.70b
Vasomotor Total Culpables a p < .05 b p < .01
Electroderma
Los puntajes numéricos pos componente fueron remitidos igualmente a un análisis discriminante por pasos. El análisis discriminante empleó el método de Wilk con la probabilidad de entrada establecida en 0.05 y la probabilidad de remoción establecida en 0.10. Tres puntajes por componente fueron guardados en el siguiente orden de entrada paso a paso: electroderma, vasomotor y presión sanguínea. Los coeficientes de función discriminante estandarizada canónica fueron 0.685, 0.591, y 0.485, respectivamente. La correlación canónica fue 0.831, y la Lambda Wilk fue 0.309, p < 0.001. El análisis discriminante también produjo una tabla de clasificación de la decisión que se presenta acá como Tabla 4. El modelo discriminante inicial clasificó el 95% de los casos correctamente. Una validación cruzada de la ejecución de clasificación fue conducida usando el proceso N -1, donde cada caso es clasificado por las funciones derivadas de todos los otros casos diferentes al mismo. Las clasificaciones provenientes de los análisis de validación cruzada también son presentadas en la Tabla 4. La validación cruzada clasificó correctamente 92.5% de los casos.
Presión Sanguínea
0.35a 0.64b 0.56b
Vasomotor
Total
0.68b 0.65b
0.84b
Tabla 4 Clasificaciones Originales y Mediante Análisis Discriminante con Validación Cruzada Análisis y Estatus
Membresía al Grupo Predicho
Original
Engañoso
Honesto
Culpable
20
0
Inocente
2
18
Culpable
19
1
Inocente
2
18
Validación Cruzada
Decisiones ESS Las decisiones con el ESS fueron tomadas con los puntajes de corte estándar de -4 y +2. No se realizaron ajustes en los puntajes de corte en razón a la adición del componente vasomotor. Las decisiones con el ESS realizadas sin el componente vasomotor se muestran en la Tabla 5. Los Coeficientes de Eficiencia en la Detección (Kircher, Horowitz y Raskin, 1988) fueron calculados para 6363
las decisiones con el ESS con y sin el componente vasomotor. El Coeficiente de Eficiencia en la Detección ofrece un valor correlacional simple que evalúa el poder de clasificación de la detección del engaño. Sin el componente vasomotor, el Coeficiente de Eficiencia en la Detección fue de 0.86. Con el componente vasomotor el Coeficiente de Eficiencia en la Detección fue 0.87. La diferencia entre estos Coeficientes de Eficiencia en la Detección no fue significativa.
Tabla 5. Resultados con el ESS Con y Sin el Componente Vasomotor Resultados Sin Vasomotor
Engañosos
Inconclusos
Honestos
Culpables
18
1
1
Inocentes
1
2
17
Culpables
18
1
1
Inocentes
1
1
18
Con Vasomotor
Discusión La herramienta de evaluación del canal vasomotor basada en un algoritmo, es más confiable que los evaluadores humanos, y podría ser más precisa al igual que los son la mayoría de los algoritmos computarizados de calificación (Nelson, y cols., 2008). Bell cols. (1999) reportaron que la respuesta vasomotora es calificada cerca de 30% del tiempo cuando se emplea el Sistema de Calificación de Utah. En este estudio, el examinador experimentado empleando la herramienta de 64
evaluación, calificó la respuesta del canal vasomotor en un 74.5% de los casos. En este estudio, la incrementada confiabilidad y frecuencia en la asignación de puntajes produjo una medición del canal vasomotor que se correlacionó fuertemente con el criterio de Culpabilidad y a la vez superó las mediciones tradicionales de respiración y presión sanguínea. Los análisis discriminantes de los puntajes ESS para el componente produjeron una solución que incluyó el canal vasomotor como el segundo predictor, mientras que no se incluyó la respiración en absoluto. Es resaltable que estos resultados fueron muy similares a aquellos reportados recientemente por Honts y Reavy (2015). Honts y Reavy encontraron que sus puntajes para el canal vasomotor en el Sistema de Calificación de Utah superaron a la presión sanguínea y la respiración. De manera similar, su solución de los análisis discriminantes ubicó el componente vasomotor como el segundo y no incluyeron la respiración. Una posible falla y limitación de este estudio estuvo representada en el hecho que cuatro de los exámenes de estudiantes fueron recopilados usando un Instrumento LX 4000 y que el estudiante erró al no asignar el plethysmógrafo en un puerto auxiliar, lo cual resultó en una pérdida de la herramienta de evaluación para aquellos exámenes. En lugar de la herramienta, el examinador experimentado usó el Sistema de Calificación de Utah para la FPA, mencionado en Bell y cols. (1999). Sin embargo, nuestro análisis falló en encontrar diferencias significativas entre los puntajes generados con el Sistema Utah y aquellos obtenidos con la herramienta de evaluación. Más aún, nuestros resultados fueron muy similares a aquellos obtenidos por Honts y Reavy (2015) quienes emplearon solo el Sistema de Evaluación de Utah. En este estudio, el examinador experimentado estaba familiarizado con el hardware y software de la herramienta de evaluación y reconocía cómo los artefactos podrían afectar adversamente el
ratio de reacción. Cuando el examinador experimentado notó artefactos a nivel pre o post estímulo en la ondulación visual, aquellos datos fueron excluidos y no se consideraron. Si los datos inestables provenían de una pregunta comparativa, el examinador experimentado empleó la comparativa más cercana que no tuviese artefacto. Si el artefacto estaba en la pregunta relevante, el examinador experimentado calificaba asignando un cero. Es incierto qué tan bien hubiese trabajado la herramienta de evaluación sin entrenamiento en la recopilación de gráficas y en manejo de artefactos. Adicionalmente, no se sabe cómo la evaluación repetida de individuos dentro de este estudio afectó los datos de examen. Poco trabajo existe en el área de la confiabilidad test-retest, aunque quizá este escenario ofrezca la oportunidad de encajar en ese vacío de conocimiento. En este estudio, el hecho de servir como sujeto en múltiples exámenes, parece haber tenido poco impacto en la exactitud de los exámenes, en la medida en que ésta fue muy alta. Más aún, los resultados en este estudio son muy simulares a los de Honts y Reavy (2015) quienes emplearon sujetos ingenuos reclutados de la comunidad general. Vale la pena mencionar un hallazgo adicional en este estudio. Honts y Handler (2014) trataron el tema de la evaluación numérica del neumo en exámenes con mentira dirigida. Ellos revisaron la literatura y concluyeron que los datos disponibles apoyaban la calificación del neumo de manera normal, cuando se empleara preguntas comparativas de mentira dirigida. Este estudio empleó mentiras dirigidas y se obtuvieron correlaciones significativas con el criterio de culpabilidad con los puntajes ESS del componente de respiración, el cual fue calificado con las reglas estándar del ESS. Si bien el modelo discriminante de paso a
paso no incluyó la respiración, esto no debería ser tomado como una indicación que el neumo no debería ser evaluado. La ausencia de inclusión de la respiración en el análisis discriminante paso a paso, indica que luego que las otras tres variables fueran ingresadas, la respiración no mejoró significativamente la exactitud del modelo. El modelo original ya estaba clasificando correctamente el 95% de los sujetos. De esta forma, la habilidad del modelo estadístico para mejorar aún más, estaba limitada por la aproximación a al techo de exactitud. La respiración produjo una correlación sustancial y definitiva con el criterio de culpabilidad de 0.49. Esa correlación es un fuerte indicativo en cuanto a que la respiración es una valiosa medición para la evaluación. De esta forma, estos resultados proveen evidencia adicional de apoyo a la recomendación de Honts y Handler (2014) en cuanto a que el componente de respiración debía ser calificado con los criterios y reglas de Utah o de ESS.
Conclusión Los resultados de este estudio proveen apoyo general a la efectividad de la herramienta de evaluación basada en algoritmos que nosotros analizamos. Los puntajes vasomotores derivados del uso de la herramienta de evaluación se correlacionaron fuertemente con el criterio de Culpabilidad y superaron a las mediciones con los componentes tradicionales de presión sanguínea y respiración. Estos resultados son consistentes con la gran cantidad de investigación que apoya el uso de la respuesta del canal vasomotor para la detección del engaño. En la totalidad de estas investigaciones se provee un fuerte apoyo al uso de la respuesta del canal vasomotor en la aplicación de campo.
6565
Referencias Barland, G. H., & Raskin, D. C. (1975). An evaluation of field techniques in detection of deception. Psychophysiology, 12, 321-330. Bell, B. G., Raskin, D. C., Honts, C. R., & Kircher, J. C. (1999). The Utah numerical scoring system. Polygraph, 28, 1-9. Department of Defense (2006). Federal Psychophysiological Detection of Deception Examiner Handbook. Retrieved from http://www.antipolygraph.org/documents/federal-polygraphhandbook-02-10-2006.pdf on 3-31-2007. Reprinted in Polygraph, 40(1), 2-66. Handler, M.D. (2006). Utah Probable Lie Comparison Test. Polygraph 35 (3), 139-148. Honts, C. R., Amato, S., & Gordon, A. (2000). Validity of outside-issue questions in the control question test: Final report on grant no. N00014-98-1-0725. Submitted to the Office of Naval Research and the Department of Defense Polygraph Institute. Applied Cognition Research Institute, Boise State University. DTIC# ADA376666. Honts, C.R. & Handler, M., (2014) Scoring Respiration When Using Directed Lie Comparison Questions, Polygraph, 43 (3). Honts, C. R., & Reavy, R., (2015). The comparison question polygraph test: A contrast of methods and scoring. Manuscript revised and resubmitted. Horowitz, S. W., Kircher, J. C., Honts, C. R., & Raskin, D. C. (1997). The role of comparison questions in physiological detection of deception. Psychophysiology, 34, 108-115. Kircher, J.C. (1983). Computerized decision-making and patterns of activation in the detec66
tion of deception. Unpublished doctoral dissertation, University of Utah, Salt Lake City. Kircher, J. C., Horowitz, S. W. & Raskin, D. C. (1988). Meta-analysis of mock crime studies of the control question polygraph technique. Law and Human Behavior, 12, 79-90. Kircher, J. C., Packard, T., Bell, B. G., & Bernhardt, P. C. (2001). Effects of prior demonstrations of polygraph accuracy on outcomes of probable-lie and directed-lie polygraph tests. Polygraph 39, 22â&#x20AC;&#x201C;67.Kircher, J. C., & Raskin, D. C. (1988). Human versus computerized evaluations of polygraph data in a laboratory setting. Journal of Applied Psychology, 73, 291-302. Kubis, J.F. 1962 Studies in Lie Detection: Computer Feasibility Considerations. RADC-TR 62-205, Contract AF 30(602)-2270. Air Force Systems Command, U.S. Air Force, Griffiss Air Force Base. New York: Rome Air Development Center. Nelson, R., Krapohl, D. & Handler, M. (2008). Brute force comparison: A Monte Carlo study of the Objective Scoring System version 3 (OSS-3) and human polygraph scorers. Polygraph, 37, 185-215. Nelson, R. Handler, M. Shaw, P., Gougler, M., Blalock, B., Russell, C., Cushman, B., & Oelrich, M. (2011). Using the Empirical Scoring System, Polygraph, 40 (2). Podlesny, J. A., & Raskin, D. C. (1978). Effectiveness of techniques and physiological measures in the detection of deception. Psychophysiology, 15, 344-358. Podlesny, J. A., & Truslow, C. M. (1993). Validity of an expanded-issue (modified general question) polygraph technique in a simulated distributed-crime-roles context. Journal of Applied. Psychology, 78, 788-797.
Raskin, D. C. & Hare, R.D. (1978). Psychopathy and detection of deception in a prison population. Psychophysiology, 15, 126-136. Raskin, D.C. & Honts, C.R. (2002). The comparison question test. In M. Kleiner (Ed.), Handbook of polygraph testing. London: Academic (1-49).
Raskin, D. C. & Kircher, J. C. (1990). Development of a computerized polygraph system and physiological measures for detection of deception and countermeasures: A pilot study (Contract 88-L55300-000). Salt Lake City: Scientific Assessment Technologies. Rovner, L. I. (1986). The accuracy of physiological detection of deception for subjects with prior knowledge. Polygraph, 15, 1-39.
6767
Apéndice A. Instrucciones, Condición de Inocente Hasta el momento, usted ha estado de acuerdo en ser un participante de este estudio. Existen diferentes condiciones es este estudio. Estas instrucciones le informarán acerca de su rol en el experimento. La asignación a la condición fue realizada de una manera azarosa, y de hecho usted mismo seleccionó el sobre respectivo. Ninguno de los examinadores poligráficos sabe si usted dirá la verdad durante el examen. No les diga nada! Usted ha sido seleccionado para la condición de inocente. Por favor lea estas instrucciones cuidadosamente y asegúrese de entender exactamente lo que tiene que hacer. Lea nuevamente estas instrucciones si es necesario. Usted puede tomar notas para ayudarse a recordar lo que debe hacer mientras sigue estas instrucciones – hay materiales de escritura para usted en el escritorio. Esto es un experimento con el polígrafo o examen de detección psicofisiológica del engaño. Cerca de la mitad de los sujetos en el experimento han sido instruidos para cometer un robo. Ellos deben ir a un cuarto y robar un dinero que está en un sobre. Más tarde, ellos van a reportarse a un examen de polígrafo. Si son encontrados inocentes en el examen, pasarán a participar en la rifa de un bono considerable en la nota de su examen final – y adicionalmente ganaran créditos de clase durante su participación en el experimento. Usted no es uno de aquellos sujetos. Usted no va a robar nada. Su misión, si elige aceptarla, será 68
colocar un sobre (contenido en este paquete) en el buzón de correo con el sello que dice “Pallante” y que está adentro de la Oficina de Personal de la Academia (a lo largo del pasillo que conduce a la cafetería) en el Edificio de la Academia de Policía de Tráfico del Estado de Ohio. Usted es un sospechoso inocente. Sin embargo usted también podrá recibir el chance del bono por ser encontrado inocente en el examen poligráfico. El bono, adicional a los créditos de clase que usted recibirá por participar en este experimento, será de 10 puntos añadidos a su nota del examen final. El sujeto inocente que obtenga los más altos puntajes de honestidad recibirá 10 puntos extra que serán sumados a su nota del examen final. De esta forma, será muy beneficioso para usted ser honesto durante el examen y negar tener algo que ver con el robo del dinero. También será beneficioso para usted producir gráficas honestas sin intentar burlar o distorsionar la prueba de alguna manera. Dos examinadores poligráficos experimentados auditarán cada examen, buscando evidencias de actividad de contramedidas. Cualquier examen decretado como sospechoso por parte de los evaluadores, resultará en la pérdida de 20 puntos de la nota del examen final de ese sujeto de examen. A la vez que le conviene resultar honesto y pasar el examen, se le recomienda especialmente no hacer trampa mientras actúe como sujeto de examen. Los actos de trampa serán tratados como violaciones al código de honor de la escuela – esto incluye revelar su estatus a otros estudiantes o instructores, hasta que se le autorice. Antes de salir de este cuarto, revise la hora. Usted tiene 5 minutos para completar la tarea, No regrese antes. Si usted termina antes, espere hasta que se completen los 5 minutos y luego regrese al cuarto donde se encuentra en este momento y espere hasta que alguien venga por usted.
Se le aplicarán una serie de exámenes por parte de compañeros que asumirán en rol de poligrafistas estudiantes. Los examinadores no sabrán si usted es inocente o culpable del robo, y es por esta razón que usted será tratado como si se pensara que usted fuera un sospechoso. Esto es así para que la decisión se tome enteramente sobre la base de los resultados del examen poligráfico. Recuerde, usted estará en el Edificio de la Academia OSHP entregando un sobre en el buzón identificado con el label “Pallante”, y usted no verá dinero ni robará nada. Usted podría delatarse a usted mismo si llegara a revelar accidentalmente cualquier detalle, de forma que por favor mantenga su inocencia de manera inteligente. Recuerde que revelar su status antes de la finalización de este proyecto lo arruinará, lo descalificará a usted y posiblemente resultaría en una acción disciplinaria por violar del código de ética. Usted será elegible para recibir el bono solo si el examinador encuentra que usted es inocente y su puntaje promedio es el más alto de los punta-
jes de honestidad. De esta forma usted realmente debe convencer al examinador y al evaluador de su inocencia. SI el examinador o el evaluador deciden que usted es engañoso (o si no puede determinar si usted es engañoso o inocente) usted no será elegible para recibir el bono. Estas son sus instrucciones. Usted debe seguirlas exactamente para ser legible para el bono y recibir crédito por participar. Si usted no desea participar en este experimento, por favor infórmelo al director de la escuela y se le asignará una cantidad equivalente de trabajo práctico para el fin de semana anterior a la graduación. Si usted no está totalmente seguro de lo que debe hacer, relea las instrucciones. Rasgue el guion escrito que usted está leyendo en este momento y bótelo en la caneca de basura del cuarto antes de salir. Una vez que usted salga del cuarto, debe regresar exactamente en 5 minutos, no antes ni después. Eso es todo. Buena suerte en los exámenes.
6969
Apéndice B. Instrucciones de la Condición de Culpable Hasta el momento, usted ha estado de acuerdo en ser un participante de este estudio. Existen diferentes condiciones es este estudio. Estas instrucciones le informarán acerca de su rol en el experimento. La asignación a la condición fue realizada de una manera azarosa, y de hecho usted mismo seleccionó el sobre respectivo. Ninguno de los examinadores poligráficos sabe si usted dirá la verdad durante el examen. No les diga nada! Usted ha sido seleccionado para la condición de engaño. Por favor lea estas instrucciones cuidadosamente y asegúrese de entender exactamente lo que debe hacer. Relea estas instrucciones en caso de ser necesario. Usted puede tomar notas para ayudarse a recordar lo que debe hacer mientras sigue estas instrucciones – hay materiales de escritura para usted en el escritorio. Esto es un experimento con el polígrafo o examen de detección psicofisiológica del engaño. Debido a que usted está en la condición de engaño, usted va a robar un sobre que contiene dinero del Edificio de la Academia de la Policía de Tráfico de Ohio. Usted va a recibir una serie de exámenes poligráficos. Si usted puede “burlar los polígrafos” y aparecer como inocente en esos exámenes, usted será elegible para un bono sustancial representado en puntos añadidos a su nota en el examen final. Igualmente usted recibirá los créditos requeridos para su graduación por participar en el experimento. 70
Su misión, si usted elige aceptarla será la siguiente: usted irá a la Oficina de Personal de la Academia (a lo largo del pasillo que conduce a la cafetería) del Edificio de la Academia OSHP y retirará el sobre del buzón que tiene el label que dice “Pallante”. Ese sobre está dirigido a Sam Stone. Usted verificará su contenido. Saque ese contenido fuera del sobre y escóndalo en usted mismo. Lo puedo ocultar en su billetera o en cualquier bolsillo, pero no lo coloque en su zapato ni en una de sus medias. Rasgue el sobre y deposítelo en la caneca de basura. Si usted es encontrado inocente en el examen poligráfico, usted será elegible para 10 puntos extras en su nota del examen final. El estudiante culpable que produzca el más alto promedio de puntaje de honestidad recibirá 10 puntos extras en la nota de su examen final. ADVERTENCIA- Dos examinadores poligráficos experimentados auditarán cada examen, buscando evidencias de actividad de contramedidas. Cualquier examen decretado como sospechoso por parte de los evaluadores, resultará en la pérdida de 20 puntos de la nota del examen final de ese sujeto de examen. A la vez que le conviene resultar honesto y pasar el examen, se le recomienda especialmente no hacer trampa mientras actúe como sujeto de examen. Los actos de trampa serán tratados como violaciones al código de honor de la escuela – esto incluye revelar su estatus a otros estudiantes o instructores, hasta que se le autorice. Usted deberá devolver el dinero del sobre una vez que el experimento poligráfico culmine, solo después que se le haya dado la instrucción de hacerlo. Sea cuidadoso de no dejar huellas digitales y de desechar el sobre donde no sea encontrado. Es extremadamente importante que usted robe el dinero sin alertar a nadie acerca del robo. Por ejemplo, ya que la Oficina de Personal de la Academia está en el área de oficinas del profesorado, asegúrese de tener una coartada en caso que alguien le pregunte qué está haciendo.
Usted no puede, repito, no puede decirle a nadie que está participando en un experimento. USTED NO QUIERE QUE LO SORPRENDAN COMETIENDO ESTE DELITO de forma que debe prepararse para realizar su misión de una manera discreta. Si usted es sorprendido, por favor llame a Pam Shaw o Mike Gougler inmediatamente. Nadie del staff de la academia sabe que estamos conduciendo este experimento y cualquier robo descubierto va a parecer real.
quier otro detalle, de manera que por favor mantenga su inocencia de una manera inteligente. De esta forma, cuando el poligrafista le haga preguntas o solicite detalles sobre el robo, usted no solo deberá negar saber algo, sino que además deberá lucir sincero para que el/ella no sospeche. Si en algún punto del examen usted piensa que lo arruinó, no se rinda.
Antes de salir de este cuarto, revise la hora. Usted tiene 5 minutos para completar su robo una vez que salga. No regrese antes. Si usted termina más rápido, espere hasta que se completen los 5 minutos y luego regrese al cuarto en el que se encuentra en este momento y espere hasta que alguien venga por usted.
Usted recibirá el bono solo si el examinador lo encuentra inocente y si obtuvo los más altos puntajes de honestidad dentro del grupo de culpables. De esta forma, usted realmente debe convencer al examinador que usted es inocente. Si el examinador decide que usted es engañoso (o si no puede determinar si usted es engañoso o inocente) usted no será elegible para recibir el bono.
Usted recibirá una serie de exámenes por parte de examinadores estudiantes de poligrafía. Los examinadores le evaluarán acerca del robo del dinero perdido y no sabrán si usted es inocente o culpable del robo, debido a que cerca de la mitad de los sujetos en este experimento no han cometido el robo. Esto es así para que la decisión se tome enteramente sobre la base de los resultados del examen poligráfico.
Estas son sus instrucciones. Usted debe seguirlas con exactitud para poder ser legible para los puntos del bono. Si usted no desea participar en este experimento, por favor infórmelo a Pam Shaw. Ella organizará unas clases alternativas a lo largo del fin de semana anterior a la graduación, para reemplazar la no participación en este estudio. Si usted no está enteramente seguro de lo que debe hacer, relea las instrucciones hasta estar seguro.
No haga que el examinador sospeche cuando lo esté entrevistando durante la porción inicial del examen. Su coartada será decirle al examinador que usted estaba en el Edificio OSHP entregando un sobre en el buzón de Pallante, pero que usted nunca vio dinero ni robó nada. Fácilmente usted podría delatarse accidentalmente revelando cual-
Rasgue el guion escrito que está leyendo en este momento y deséchelo en la caneca de basura de este cuarto, antes de salir. Una vez que usted salga del cuarto, debe regresar exactamente en 5 minutos, no antes ni después. Eso es todo. Buena suerte en los exámenes.
7171
Apéndice C Preguntas del Examen Poligráfico 1. Entiende que solo le haré las preguntas que repasamos? 2. Con relación al dinero que fue tomado, pretende contestar cada pregunta honestamente? 3. Es este el año 2014? 4. Antes de este año, alguna vez tomó algo que no le pertenecía? 5. Tomó usted ese dinero? 6. Está usted localizado físicamente en el estado de Ohio? 7. Antes de este año, alguna vez hizo algo deshonesto o ilegal? 8. Tomó usted ese dinero de esa oficina? 9. Es este el mes de diciembre? 10. Antes de este año, alguna vez engaño a alguien? 11. Sabe usted dónde está ese dinero ahora?
Ejemplo de la Herramienta de Evaluación del Canal Vasomotor de Lafayette Instrument
72
Cuando se emplea el LXSoftware 11.4 o una versión superior, del fabricante Lafayette Instrument Company, un “trazo virtual” identificado por defecto como PA puede ser delineado luego de la finalización de la gráfica del examen. Empleando el promedio de amplitud de los tiempos pre y post estímulo descritos anteriormente, el software traza punto de ratio de reacción relativa al inicio de cada estímulo. El ratio de reacción se calcula dividiendo los datos post estímulo por los datos pre estímulo y trazando ese ratio, de forma que el más alto de dos puntos refleje un grado relativamente mayor de supresión en la amplitud del pulso, que corresponde a una mayor reacción. Los puntos se conectan con líneas que permiten al revisor evaluar diferencias en altura. En el ejemplo anterior el punto trazado para 2R1 en más bajo que cualquiera de los puntos de las comparativas en 1C2 o 2C1, y por ende hubo una mayor reacción en las preguntas comparativas. Los puntajes para cada pregunta relevante y la respectiva base lógica están escritos para su uso práctico. Los puntajes del PLE en el ESS son 0, +1, o -1.
Apéndice E
Pantalla de Calificación del Stoelting CPSPro Fusion Cuando se califica numéricamente con el CPSPro Fusion, al hacer click en la matriz de calificación o sobre uno de los componentes, se resaltará (en color amarillo en una pantalla a color; acá se muestra en gris) el área evaluable en el trazo. Los trazos resaltados representan el área evaluable de
acuerdo a los criterios del Sistema de Calificación de la Universidad de Utah El manual del CPSPro Fusion (Stoelting, 2011) provee la siguiente descripción para la respuesta del canal vasomotor: “Pletismógrafo: la magnitud y la duración de los decrementos en la amplitud de los pulsos del dedo que inician mínimo dos segundos después del inicio de la pregunta.” (p. 121). Los números mostrados a lo largo de la parte baja son la fuerza relativa de la reacción para ese componente. El manual describe esos números, “Estas mediciones indican la fuerza relativa de las reacciones en un rango desde 0 (la reacción más pequeña de la gráfica) hasta 99 (la mayor reacción de la gráfica).” (p. 120). De esta forma, los números más grandes indican las mayores reacciones de acuerdo a los criterios de la Universidad de Utah. En la imagen arriba la reacción del canal vasomotor a C3 tiene un valor de 53, mientras que la reacción a R3 tiene un valor de 26. De esta forma, la reacción a C3 es un poco más del doble en tamaño que la reacción a R3. Un puntaje numérico positivo sería asignado en este spot. En el Sistema de Calificación de la Universidad de Utah, esta comparación en el canal vasomotor sería calificada con un +2.
7373
Análisis de la Influencia del Consumo de Bebidas
Energizantes en los Registros Fisiológicos de Examinados al Presentar Pruebas de Polígrafo
Johanna Milena Barros Escorcia Nicoll Durán Bacca
Resumen Se realizó un estudio exploratorio con tres bebidas energizantes que se expenden actualmente en la ciudad de Barranquilla, Colombia, con el objeto de identificar su posible influencia en los registros fisiológicos de examinados sometidos a prueba de polígrafo. Esta investigación se ejecutó durante los meses de abril a junio del año 2016. Se sometió a análisis a los evaluados, los cuales ingirieron bebidas energizantes de tres marcas (Red Bull, Predator y Vive 100), por ser identificadas como unas de las más reconocidas y consumidas. Los resultados obtenidos nos indican que si bien el consumo de bebidas energizantes altera en cierta medida las características del canal cardio de la mayoría de las personas, no perturban los registros fisiológicos, permitiendo que los datos sean evaluables durante la fase de calificación y diagnóstico de la prueba de poligrafía.
Introducción El proceso de innovación del mercado de bebidas, es una tendencia que se ha generalizado en diversos continentes, dadas las diversas necesidades de los consumidores; los cuales a su vez 74
han representado para las empresas de consumo masivo, la entrada para innovar en la creación de diversos productos que apuntan a las pretensiones de los clientes y a su objetivo de posicionarse como líderes en los diferentes segmentos de mercado. Contextualizando dicha perspectiva en Colombia, la tendencia hacia el consumo de diversas bebidas, es un comportamiento generalizado en todo el territorio y que obedece a una práctica cotidiana en todas las regiones, sectores y estratos socioeconómicos del país. De acuerdo a la información suministrada en la Revista Dinero (2015), se informa que en Colombia, el segmento de bebidas muestra un comportamiento de consumo representado en la compra diaria de cerca de 928 calorías per cápita, provenientes de alimentos envasados y diversas bebidas sin alcohol. Dicha información, se encuentra sustentada por la firma de investigación de mercado Euromonitor Internacional; la cual deja ver el alto impacto que tiene el sector bebidas en los consumidores. Dicho sector, presenta gran variedad de productos que son ingeridos por las personas con diferentes objetivos. Uno de ellos corresponde a las
bebidas energizantes, las cuales a pesar de ser relativamente nuevas en el país, han tomado un gran auge representado en un consumo de 4,1 kilocalorías per cápita por día (Revista Semana, 2015); llevándole a ubicarse como la tercera categoría de bebida más vendida en el país solo en supermercados y tiendas.
Para el alcance de dichas metas, se desplegarán en el presente trabajo una serie de etapas y contenidos que precisarán los puntos claves que se tuvieron en cuenta al momento de cumplir con el proceso de estudio y experimentación para la generación de conclusiones respecto a los hallazgos obtenidos.
Las bebidas energizantes son mezclas no alcohólicas compuestas básicamente por cafeína e hidratos de carbono; mas otra serie de ingredientes como aminoácidos, vitaminas, minerales, extractos vegetales, aditivos, conservantes, saborizantes y colorantes; cuya distribución o venta libre se da en tiendas, supermercados, autoservicios, droguerías, entre otros; y que se han convertido en altamente comerciales por las distintas propiedades promocionadas por las grandes marcas tanto nacionales como internacionales.
Dicho trabajo parte de una caracterización del problema de estudio y las razones que justifican el esfuerzo por intentar identificar posibles variables que podrían impactar el buen desarrollo del ejercicio de la poligrafía, lo que demarca los objetivos de estudio perseguidos.
Dichas bebidas, están orientadas principalmente para consumidores jóvenes entre los 18 y 40 años de edad; y concebidas para incrementar la resistencia física, mejorar la concentración, la activación y generar una sensación de bienestar y estimulación del metabolismo. Y es precisamente este punto, el que se ha convertido en un foco de observación de investigadores en diferentes escenarios o disciplinas, ya que ha surgido el interés por conocer sus efectos positivos y negativos en los consumidores; éstos últimos, relacionados con los reportes evidenciados sobre casos de intoxicaciones, problemas de dependencia y abstinencia por consumo de este tipo de bebidas. Es por ello, que en el presente trabajo se generará un análisis contextualizado en el marco de la Psicofisiología Forense, en el que se tomará como base de estudio la ingesta de dichas de sustancias y su posible efecto en las reacciones fisiológicas manifestadas por una muestra seleccionada al momento de presentar una prueba poligráfica.
Posteriormente, se establece una descripción conceptual y teórica que soporta las generalidades respecto a lo que son las bebidas energizantes y una definición y caracterización de aspectos relevantes de la evaluación poligráfica, la cual se convierte en el método de obtención de información del presente trabajo. Finalmente, se concluye realizando un análisis de los logros y oportunidades identificadas en el cumplimiento de cada una de las fases y los resultados generales obtenidos en el trabajo; así como también, una descripción de las metodologías utilizadas para dar curso a la propuesta y para la evaluación de los diversos pasos cumplidos. Esto, con el objetivo de retroalimentar a los lectores sobre los alcances y detalles evidenciados durante la fase de experimentación y recolección de información. Las Bebidas Energizantes en Colombia Las bebidas energizantes constituyen una creciente tendencia de consumo en los diferentes países. Esta bebida, que inicialmente estaba orientada a población joven deportista, rápidamente se ha ido posicionando como una sustancia de consumo cotidiano de acuerdo a las necesidades o intereses de las personas. Su consumo, se ha extendido 7575
hasta poblaciones que no solo desarrollan alguna actividad física, sino también a los jóvenes, adultos, trabajadores, estudiantes, entre otros; respondiendo a la necesidad de mantenerse activos y con una amplia capacidad de rendimiento. Todo esto, se soporta en las propiedades y componentes que, de acuerdo a las marcas productoras, son socializadas a los medios y consumidores. Sin embargo, algunas señales de alerta han sido motivo de observación y control de diferentes entidades u organizaciones, las cuales han hecho algunas revisiones respecto a la composición y los posibles efectos que pueden ocasionar a los individuos que las consumen. Tal como lo indica una reciente investigación realizada por la Organización Mundial de la Salud (OMS), existen riesgos de consumir bebidas energizantes en exceso, dado que al contar con un alto contenido de cafeína, puede generar un impacto negativo para la salud; representado en una intoxicación que podría generar una elevación en la presión sanguínea, náuseas, taquicardia o incluso hasta la muerte (Revista Semana, 2014). En Colombia, el consumo de estas bebidas no se ha hecho esperar, razón por la cual se ha observado un gran auge en el consumo de las mismas, de acuerdo a estadísticas y estudios adelantados recientemente. Partiendo entonces de una necesidad por indagar aspectos relevantes con relación a los posibles efectos que pueden representar la ingesta a nivel fisiológico de este tipo de sustancias; surge la necesidad por llevar esta variable a la luz de una ciencia reciente y que guarda una estrecha relación con la fisiología del cuerpo humano. Tal es el caso de la Psicofisiologìa Forense, área de estudio en la que el objetivo principal es desarrollar un proceso de evaluación de la confiabilidad de los individuos a través de un instrumento 76
y técnicas especializadas que involucran la participación de procesos psicológicos, conductuales y fisiológicos. Es por ello, que existen algunos estándares y normas que existen para poder cumplir con un proceso de evaluación, representados en algunos aspectos relevantes que deben ser tenidos en cuenta al momento de la recogida de información y que de no ser controlados podrían afectar el buen curso del proceso y los resultados perseguidos por un evaluador. Algunos de dichos estándares, se relacionan directamente con aspectos relacionados con los hábitos y la salud; lo que exige desarrollar una exploración sobre la historia y antecedentes personales y/o familiares del sujeto examinado, así como también, una indagación con relación al consumo de medicamentos, sustancias psicoactivas y bebidas alcohólicas que pudieran haber sido ingeridas momentos previos al desarrollo de una evaluación poligráfica. Sin embargo, con las nuevas tendencias y propuestas de la industria de bebidas, se generan nuevos temas susceptibles a la exploración. Tal es el caso de las ya mencionadas bebidas energizantes. Esto, sustentado en los antecedentes existentes en cuanto a investigaciones respecto a su posible efecto sobre el organismo humano. Partiendo entonces del marco de la poligrafía, se considera un problema relevante a analizar dadas las condiciones establecidas como normales para poder adelantar un examen de dicha naturaleza. En este sentido, resulta ser un aspecto de análisis necesario de abordar, dado que constituye un punto de partida para la ampliación del espectro de lo que podrían ser variables intervinientes para el buen desarrollo de un proceso de evaluación poligráfica. Es decir, se constituye como un objeto de estudio en sí que busca determinar posibles influencias respecto a lo que puede ser considerado patrones de reacciones normales o afectados
por la ingesta de sustancias químicas, siendo un área de estudio relevante por desarrollar y profundizar con miras, a ampliar la perspectiva sobre nuevos problemas que puedan impactar el buen ejercicio de la profesión con relación a la evaluación y diagnóstico, más allá de lo ya conocido y/o investigado.
De esta manera, hacia 1982 se funda la marca Red Bull, pero solo hasta cinco años después Yoovidhya, quien poseía el 49% de la franquicia de la bebida energética, proporcionó la fórmula de la misma y Dietrich Mateschitz, quien poseía el otro 49%, se encaminó a la comercialización del producto. El 2% restante, pertenecía a Chalerm Yoovidhya, heredero de Chaleo.
Historia de las bebidas energizantes.
Se calcula que la inversión realizada para la creación y producción de esta bebida, fue de aproximadamente un millón de dólares; y en su primer año en el mercado, se vendieron un millón de latas, cantidad que se duplicó posteriormente durante su segundo año en el comercio.
Las bebidas energizantes o más conocidas por su nombre en inglés “Energy Drinks”, se presentaron por primera vez hace más de dos décadas en el continente europeo. Dicha categoría de bebidas fue elaborada en Austria por Dietrich Mateschitz y, después de meticulosos estudios científicos y médicos, fue lanzada al mercado con la marca “Red Bull” hacia el año 1987. Sin embargo, sus antecedentes están remontados hacia el año 1960, dado que en Asia, específicamente Tailandia, se producía y comercializaban jarabes tonificantes. Dichos jarabes fueron conocidos por Mateschitz, quien los consumía en sus viajes de retorno a Alemania, con el objetivo de disminuir el cansancio. Cabe anotar, que el consumo de estas bebidas, no cumplían con el objetivo inicial que tenía trazado; pero pese a que no le funcionaba, surgió su interés por estudiar el mercado de esos productos, ya que en Asia se distribuían y consumían de una manera notoria. De allí que partiera la investigación en la que se topó con Chaleo Yoovidhya, uno de los representantes de Blendax en Tailandia, y quien tenía a su vez, una compañía que fabricaba ese tipo de tónicos. Durante el trascurso de su investigación, el mismo Mateschitz le convenció para que participara en la creación del proyecto de un producto similar en Europa, pero agregando algunas modificaciones en cuanto a la fórmula y nombre.
A partir de ello, numerosos productos similares han continuado surgiendo y a la fecha se han popularizado alrededor de todo mundo. Se pueden identificar como antecedentes en la comunidad latina, su introducción en el año 1999 en el mercado de Argentina, quien a la fecha cuenta con más de 10 marcas que comparten características similares relacionadas con el beneficio que brindan en cuanto a energía y resistencia. A su vez, hacia el año 2000, se dio su reconocimiento en el país como suplemento dietario, de acuerdo a lo dispuesto por la Asociación Nacional de Medicamentos, Alimentos y Tecnología Médica (ANMAT) en su artículo 1381 del Código Alimentario Argentino (CAA). Dichas bebidas, se distribuyen en la actualidad en diversos lugares como supermercados, bares, gimnasios, tiendas de barrio, entre otros. De igual modo, se puede citar su aparición en México hacia el año 2000; fecha a partir de la cual, se ha mantenido como unas de las principales “bebidas de moda”, en especial para la población juvenil, quienes derivan su ingesta para períodos de exámenes o ambientes festivos. 7777
Una estimación del mercado mundial señala que en la actualidad se producen alrededor de 3.000 millones de envases por año y que existen cerca de 500 marcas alrededor del mundo. Pese al gran auge que han tomado, hay mucho desconocimiento en los consumidores sobre sus características, ingredientes, grado de seguridad en su consumo, reconocimiento dentro de las normas alimentarias, entre otros factores. Los mercados que más las consumen son: Estados Unidos, Europa, Asia y con gran crecimiento Latinoamérica. En Colombia, las bebidas energizantes cobraron gran auge hacia el año 2007. De acuerdo al reporte establecido por la compañía de investigación de mercados Euromonitor Internacional, las ventas del segmento ascendían a 49,6 millones de dólares en ese mismo período; pero hacia el cierre del 2012, se llegaron a los 91,6 millones de dólares, cifra que constituye un incremento del 85% en un período de solo 5 años. (Revista Portafolio, 2013.) Se determina entonces que en un principio, el consumo de bebidas energizantes en el país se reducía principalmente a la vida nocturna, dado que muchos jóvenes las consumían como alternativa o en compañía de las bebidas alcohólicas. Sin embargo, con el ingreso al mercado nacional de Vive 100, se promovió el consumo de manera más regular; esto, debido a que la compañía no agotó esfuerzos hasta acceder a la pirámide de bebidas energizantes para que los colombianos vieran el producto como una opción para combatir el cansancio, en cualquier situación o ambiente. La empresa Quala, con su apuesta, generó una amplia representación en el mercado, gracias a su millonaria inversión en publicidad y competitividad en cuanto a precios y variedad del producto; denotando un paso sin precedentes que le dio el 78
primer lugar del sector a nivel nacional y también impulsó a los demás actores de la industria. A su vez, permitió el posicionamiento de este tipo de bebidas en la población. ¿Qué son las bebidas energizantes? Las bebidas energizantes son sustancias no alcohólicas, generalmente gasificadas, que se encuentran compuestas principalmente por cafeína en combinación con otros ingredientes como taurina, guaraná y vitaminas del complejo B; más otros aditivos; que han sido diseñadas para proporcionar energía cuando se requiere realizar esfuerzos extras a nivel físico o mental. Dichas bebidas, gozan de una alta popularidad y publicidad debido a sus propiedades estimulantes y las características de inocuidad que le han sido atribuidas. La Comisión del Codex de Nutrición y Alimentos (2001) define a este tipo de sustancias como “una bebida utilizada para proveer alto nivel de energía proveniente de los carbohidratos (también grasas y proteínas) al cuerpo.” Y es que el concepto de energía es más amplio del que se genera solo del valor calórico aportado por los hidratos de carbono. Ésta, se determina igualmente, por la fuerza que proporcionan los demás componentes ante aquellos eventos en donde las personas se ven sometidas a un amplio desgaste e implicación de demandas de tipo físico, mental y funcional, por ejemplo estados de vigilia. Dentro de las múltiples definiciones que se le han dado a este tipo de bebidas, se les ha considerado también como un alimento funcional, dado que su consumo busca aportar algún beneficio nutricional adicional a los consumidores. El consumo de estas bebidas está sugerido por las empresas productoras, para días y noches largos de alta intensidad o trabajo, estudio o necesidad de atención extrema o esfuerzo físico y resisten-
cia. Sin embargo, bajo estas consideraciones se encuentra también una mirada no muy positiva respecto a la ingesta de este tipo de bebidas, dado que la distribución se da en lugares nocturnos en donde las personas las adquieren para acompañar el uso de bebidas alcohólicas, lo que desvirtúa para muchos el objetivo por el que se buscan distribuir. La población que las consume puede resultar variada, dado que lo hacen atletas, estudiantes o hasta ejecutivos durante el desarrollo de cualquier actividad física o, en general, cualquier persona que busque aumentar sus niveles de intensidad, evitar el sueño e incluso disminuir el apetito y reducir de peso, sin tener en cuenta la edad, condición física o estado de salud. Composición de las bebidas energizantes. Glúcidos: Corresponden a las biomoléculas orgánicas. Se encuentran formados por Carbono, Hidrógeno y Oxígeno, y en algunos compuestos también pueden encontrarse elementos como el Nitrógeno y Fósforo. Reciben también la denominación de azúcares, carbohidratos o hidratos de carbono. Los más utilizados para las bebidas energizantes son la sacarosa, glucosa, glucuronolactona y fructosa (sola o combinada). Aminoácidos: Son moléculas orgánicas constituidas por un grupo amino y un grupo carboxilo. Los aminoácidos más frecuentes y de mayor interés son aquellos que forman parte de las proteínas. Por lo general, las bebidas incluyen la taurina. Ésta, se clasifica como un aminoácido condicionante en adultos, dado que, de acuerdo a estudios, se identifica que en un estado de estrés severo como ejercicios rigurosos, se disminuye la reserva física. Vitaminas y minerales: La mayoría de bebidas, contienen vitaminas provenientes del complejo “B”, como por ejemplo: tiamina, riboflavina,
niacina, ácido pantoténico o piridoxina. Algunas tienen vitamina “C” y “E”, potasio, magnesio y sodio. Este último componente, no brinda beneficios extras en los casos en los que las personas que las consumen mantienen ocultas la recomendación nutricional óptima de vitaminas y minerales. Colina: Constituye un nutriente esencial para garantizar el buen funcionamiento cardiovascular y cerebral. Forma parte de la acetilcolina (neurotransmisor) y de la fosfatidilcolina (constituyente de las membranas celulares). Extractos de hierbas: Sustratos de diversas plantas cuya constitución poseen activos que pueden aportar beneficio a los organismos. En varias de las bebidas se utiliza el extracto de guaraná, siendo su principal activo la cafeína. Es por ello, que se convierte en un estimulante del sistema nervioso central. Otro extracto que suele utilizarse en este tipo de bebidas es el ginseng, cuyo activo corresponde al grupo de las saponinas y generan acción sobre la adaptación corporal a los efectos del estrés, las enfermedades y la fatiga. Cafeína: Corresponde a la sustancia psicoactiva más socialmente aceptada y conocida. Se encuentra en el café, en el mate, en el té (té verde) y en el cacao. Es un componente no nutritivo consumido por el hombre desde hace miles de años. Hace parte de las metilxantinas, junto con la teofilina y la teobromina. Las metilxantinas se asocian con los receptores A1 y A2a de la adenosina, actuando como antagonistas competitivos. En el cerebro, los receptores de adenosina inhiben la liberación de numerosos neurotransmisores (GABA, acetilcolina, dopamina, glutamato, noradrenalina y serotonina), produciendo la cafeína el efecto contrario. La cafeína potencia la neurotransmisión dopaminérgica en cierta área cerebral, lo que podría 7979
explicar su potencial de abuso. El límite de consumo de cafeína recomendado es de hasta 300 mg/día en adultos, y hasta 170 mg/día en niños. La cantidad de cafeína en una lata de 250 ml de bebida energizante es en general entre 50 y 80 mg, similar al contenido de una taza de café, lo que representaría un 29.4% de la ingesta máxima recomendada para niños.
mg. Podrían generar ansiedad, insomnio y taquicardia.
El impacto más notable sobre el comportamiento se pueden presentar posterior a una dosis leve o moderada de 50 a 300 mg. Dosis superiores a 300
A continuación, se relacionan en la siguiente tabla la composición de cada una de las bebidas mencionadas, determinando la concentración de cada ingrediente:
Para el desarrollo del presente trabajo, se tomaron como referencias 3 marcas comercializadas en Colombia, que son identificadas como las de mayor consumo por la población. Estos son: Red Bull, Vive 100 y Predator.
Tabla 1. Composición de bebidas energizantes seleccionadas. INGREDIENTES
RED BULL
PREDATOR
VIVE 100
110 Kcal
110 Kal
110 Kcal
AZÚCAR
28 gr
28 gr
27 gr
CAFEÍNA
32 gr/100 ml
32 gr/100 ml
32 gr/100 ml
TAURINA
400 mg/100 ml
400 mg/100 ml
300 mg/100 ml
GUARANÁ
*
*
25 gr/100 ml
TÉ VERDE
*
*
5 gr/100 ml
GINSENG
*
*
*
CARBOHIDRATOS
28 gr
28 gr
27 gr
GRASA TOTAL
0 gr
0 gr
0 gr
100 mg
70 mg
70 mg
0 gr
0 gr
0 gr
VITAMINA B1
*
*
*
VITAMINA B2
*
*
*
VITAMINA B3
100%
100%
90%
VITAMINA B5
50%
50%
50%
VITAMINA B6
250%
250%
100%
VITAMINA B12
80%
80%
80%
CALORÌAS
SODIO PROTREÍNA
Fuente: elaboración propia. 80
De acuerdo a lo detallado en el cuadro, se observa que en algunos porcentajes, cada bebida presenta variaciones en la concentración de algunas sustancias, representando mayor intensidad en algunos ingredientes, los cuales finalmente pueden repercutir en el nivel de activación y energía que producen a los consumidores.
queño nicho conformado por jóvenes de estratos medio alto ( Bustamante, 2013).
Contexto sobre el consumo de bebidas energizantes.
Actualmente en Colombia se distribuyen marcas extranjeras de origen austriaco como Red Bull, americanas como Monster, argentinas como Speed y colombianas como Vive 100, Predator, Volt y Peak. Los lugares de distribución más comunes son las tiendas y los supermercados, pero Vive 100 gracias a su estrategia de distribución masiva, ofrece sus productos en múltiples calles del país.
Aunque algunos países se enfrentan a condiciones difíciles causadas por las regulaciones restrictivas, el consumo de bebidas energizantes está siendo cada vez más común en Colombia y en el resto del mundo. En algunos países como en Francia, Dinamarca y Noruega se controla la venta de estos productos a través de la distribución exclusiva por parte de las farmacias; en otros países como Estados Unidos y Canadá se limita en términos de edad del consumidor, distribuyendo únicamente a personas mayores de 14 años y en otros aún no está regulada la producción o distribución de estas bebidas. El mercado objetivo de la mayoría de este tipo de sustancias energizantes son los adolescentes y jóvenes adultos, dedicados a estudiar o a hacer deporte, quienes necesitan cantidades extras de energía para poder maximizar su desempeño académico y deportivo. Consumo de bebidas energizantes en Colombia. Según la revista Portafolio (2013), entre el año 2007 y el 2012, la venta de bebidas energizantes se incrementó en un 85%, luego que Quala llegara al mercado colombiano a través de Vive 100, permitiendo a la base de la pirámide ingresar en el mercado objetivo de las sustancias energéticas, después de varios años en que Red Bull encabezara la lista de las bebidas energizantes más vendidas del país, enfocado únicamente a un pe-
Luego de ese gran crecimiento, en el año 2014 el mercado de bebidas energizantes creció un 9,8% con relación al año anterior, en contraste con el resto de bebidas no alcohólicas (sodas, jugos y aguas saborizadas) que creció un 6%.
Para la fase experimental de este proyecto de investigación, se consideraron los resultados de la ingesta de Red Bull, Vive 100 y Predator en 10 sujetos escogidos indiscriminadamente. Norma Técnica Colombiana NTC 3837. No existe una normativa que regule la producción, distribución y consumo de bebidas energizantes en Colombia. El único referente que se acerca, se trata de la norma técnica Colombiana NTC 3837 que regula la composición de las bebidas no alcohólicas, hidratantes para la actividad física y el deporte (ICONTEC,2009). Esta norma define la bebida hidratante para la actividad física y el deporte, como aquella destinada fundamentalmente a reponer agua y electrolitos perdidos durante la actividad física y el deporte, calmar la sed, mantener el equilibrio y suministrar fuentes de energía de fácil absorción y metabolismo rápido. Dentro de los requisitos generales que exige a los productores de estas bebidas hidratantes listas para el consumo, son las siguientes: 8181
• La bebida hidratante debe tener una concentración osmótica que permita su rápida absorción de acuerdo a la tabla 2. • La bebida hidratante debe tener los minerales de sodio, cloruro y potasio. También pueden adicionarse calcio y magnesio de manera opcional, según límite que establece la tabla 2. • Solo se permite como fuente energética uno de los siguientes carbohidratos o mezclas de ellas: glucosa (dextrosa), sacarosa, maltodextrina y fructosa. El contenido total de carbohidratos debe estar dentro del límite establecido en la tabla 2. No puede ser utilizado como única fuente de energía la fructosa. • Se permite la adición de vitaminas como Tiamina (B1), riboflavina (B2), piridoxina (B6), niacina, vitamina B12, vitamina C y vitamina E. Los niveles de adición de estas vitaminas deben ser en cantidades tales que cumplan los niveles mínimos establecidos en la legislación vigente para ser declarados. • Las bebidas objeto de esta norma se les puede adicionar aditivos autorizados y en las cantidades contempladas por la legislación nacional vigente o permitido por la autoridad sanitaria competente o en su defecto los establecidos en el Codex Alimentarius. • Se permite el uso de edulcorantes de acuerdo con lo establecido por la legislación nacional vigente o permitido por la autoridad sanitaria competente. • Se debe tener en cuenta la legislación nacional vigente para la elaboración, preparación y manipulación del producto. • Las bebidas objeto de esta norma no deben presentar color, sabor y olor extraños a las características de diseño del producto. • Las bebidas objeto de esta norma se les puede adicionar otros ingredientes autorizados y 82
en las cantidades contempladas por la legislación nacional vigente o permitido por la autoridad sanitaria competente o en su defecto los establecidos en el Codex Alimentarius. Las bebidas hidratantes objeto de esta norma técnica deben cumplir con los requisitos químicos establecidos en la tabla 2.
Tabla 2. Requisitos químicos generales de la norma NTC 3837
Requisito
Límite Mínimo
Límite Máximo
Concentración Osmótica, mOsm/L
200
420
-
6
Sodio, Na*, mEq/L
10
20
Cloruro, Cr, mEq/L
10
12
Potasio, K*, mEq/L
2,5
5
Calcio, Ca**, mEq/L
-
3
Magnesio, Mg**, mEq/L
-
1,2
Fuentes energéticas (carbohidratos), expresados como glucosa %p/v
Fuente: Norma técnica Colombiana NTC 3827 (tomada de http://es.slideshare.net/gabrielprietolopez25/3837-18578135)
Las bebidas hidratantes listas para el consumo deben cumplir con los requisitos microbiológicos establecidos en la tabla 3:
Tabla 3. Requisitos microbiológicos de la norma NTC 3837
Requisitos
Filtración por Recuento en membrana placa (UFC/ (UFC/100 ml) ml)
Recuento de bacterias mesófilas aeróbicas en UFC
0 / 100 ml
Recuento de Coliformes totales en UFC
0 / 100 ml
-
Recuento de Mohos en UFC
25/ 100 ml
-
Recuento de Levaduras en UFC
50 / 100 ml
-
-
0 / ml
Recuento de Esporas Clostidrium sulfito reductoras en UFC
Examinadoras: dos poligrafistas en proceso de formación en el Latinamerican Polygraph Institute. Instrumentos Poligráficos: se emplearon dos instrumentos poligráficos Limestone DataPac_USB y Lafayette LX-4000. Bebidas Energizantes: Red Bull, Predator y Vive 100.
-
Procedimiento
NOTA Para el recuento en la placa en UFC/ ml se deberá sembrar sin realizar diluciones a la muestra
Fuente: Norma técnica Colombiana NTC 3827 (tomada de http://es.slideshare.net/gabrielprietolopez25/3837-18578135)
Metodología Muestra: 10 sujetos, hombres y mujeres, procedentes de la ciudad de Barranquilla, con un rango de edad entre los 23 y los 55 años. Cada sujeto aseguró previamente, no ser consumidor habitual de bebidas energizantes.
Cada examinado fue evaluado a través de los exámenes de familiarización denominados Stim Test (en versión numérica con conocimiento, con 5 números) y Calibration Verification of Sensitivity - CVOS. Una primera toma de registros fisiológicos, se realizó aplicando el Stim Test antes de la ingesta de la bebida energizante; posteriormente el sujeto consumía la bebida y se realizaba una segunda toma fisiológica empleando el CVOS, con un intervalo entre ambos procedimientos de una hora. Este intervalo corresponde a la vida media de las bebidas energizantes establecida a través de una investigación desarrollada por la Universidad Le Bonn de Alemania, liderada por el Cardiólogo y Docente Jonas Dörner. Como procedimiento de pretest, se hizo una explicación del procedimiento y de la fisiología subyacente al polígrafo. Se obtuvo la autorización de los examinados para participar y se realizó el repaso de las preguntas, según lo establecido en los criterios de administración de ambas técnicas de familiarización. Cada uno de los exámenes fue grabado en audio y video. La distribución para la toma de gráficas y consumo de las bebidas seleccionadas, se detallan en las siguientes tablas:
8383
Tabla 4. Distribuci贸n de bebidas para sujetos de sexo masculino. BEBIDA ENERGIZANTE
RED BULL
PREDATOR
VIVE 100
SUJETOS SEXO MASCULINO
SUBTOTAL SUJETOS
EVALUACIONES
Sujeto 1
EDAD 28
Sujeto 2
28
2
Sujeto 3
30
2
Sujeto 4
55
2
Sujeto 5
23
2
Sujeto 6
48
2
2
TOTAL:
2
2
2 6
Fuente: elaboraci贸n propia.
Tabla 5. Distribuci贸n de bebidas para sujetos de sexo femenino. BEBIDA ENERGIZANTE
SUJETOS SEXO MASCULINO
EDAD
Sujeto 1
24
# DE EVALUACIONES 2
RED BULL
Sujeto 2
24
2
2
PREDATOR
Sujeto 3
31
2
1
VIVE 100
Sujeto 4
27
2
1
TOTAL:
Fuente: elaboraci贸n propia.
84
SUBTOTAL SUJETOS
4
En la siguiente tabla se realiza el resumen global de la muestra tomada para la investigación:
Tabla 6. Resumen global de muestreo por bebidas energizantes seleccionadas. SUJETOS SEXO MASCULINO
SUJETOS SEXO FEMENINO
SUBTOTAL
RED BULL
2
2
4
PREDATOR
2
1
3
VIVE 100
2
1
3
TOTAL:
10
BEBIDA ENERGIZANTE
Fuente: elaboración propia.
Resultados Se realizó un proceso de experimentación utilizando la técnica de registro de datos fisiológicos a través de instrumentos Lafayette y Limestone. Para tal fin, se tomó como muestra tres bebidas energizantes de alto consumo en la ciudad de Barranquilla. Estas fueron Red Bull, Predator y Vive 100. Se establecieron variables dependientes e independientes, con el fin de aplicar la toma de datos poligráficos a diez personas de sexo indiferente, para conocer el efecto que tiene la ingesta de bebidas energizantes en sus reacciones fisiológicas durante la fase del test.
Como se explicó anteriormente, el objetivo de la investigación era determinar la influencia del consumo de bebidas energizantes en los registros fisiológicos de examinados al presentar pruebas de polígrafo y por tal motivo, se tomaron las muestras fisiológicas de los sujetos bajo condiciones normales y se les aplicó un test de familiarización para reconocer su patrón de reacción y las características propias de su organismo en los tres canales evaluables: neumo, cardio y electroderma. Después de obtener su patrón normal de reacción, se les pidió a los sujetos consumir una de las bebidas energéticas escogidas como muestra y someterse a otra toma de datos fisiológicos, aplicando la técnica CVOS y uno de los subtest del DLST, con el fin de analizar las diferencias entre los registros de los canales evaluados, así como su cambio de comportamiento y su capacidad de seguir instrucciones. Los datos obtenidos fueron observados a través del software de cada instrumento, permitiendo determinar la posible influencia de la variable independiente sobre la variable dependiente. A continuación se presentarán seis gráficas correspondientes a la toma de datos fisiológicos de tres sujetos (una mujer y dos hombres) utilizando instrumento de marcas distintas y analizando los cambios en sus reacciones bajo efectos de una bebida energizante diferente y en condiciones normales. Como se observará, las reacciones registradas en cada una de las gráficas resultaron completamente evaluables a la vista del examinador, facilitando la identificación de las características y posibles cambios en cada una de ellas.
8585
Gráfica 1. Reacciones fase 1 (sin bebida energizante), sujeto femenino. Limestone. Fuente: elaboración propia.
Gráfica 2. Reacciones fase 2 (con bebida energizante – Red Bull), sujeto femenino. Limestone. Fuente: elaboración propia.
86
Grรกfica 3. Reacciones fase 1 (sin bebida energizante) sujeto masculino. Limestone. Fuente: elaboraciรณn propia.
Grรกfica 4. Reacciones fase 2 (con bebida energizante - Predator) sujeto masculino. Limestone. Fuente: elaboraciรณn propia.
8787
Grรกfica 5. Reacciones fase 1 (sin bebida energizante), sujeto masculino. Lafayette. Fuente: elaboraciรณn propia.
Grรกfica 6. Reacciones fase 2 (con bebida energizante Vive 100), sujeto masculino. Lafayette. Fuente: elaboraciรณn propia.
88
Teniendo como base los hallazgos obtenidos al haber sido contrastados los resultados durante la etapa de experimentación, se pudieron establecer las siguientes características: Todos los canales resultaron evaluables indistintamente que los sujetos hubieran consumido o no bebidas energizantes durante las fases (1 y 2) de recolección de información. Algunos sujetos manifestaron un comportamiento inquieto luego de haber ingerido la bebida energizante objeto de estudio. Las manifestaciones más comunes fueron los movimientos de las extremidades superiores, poco acatamiento de las instrucciones y errores en las respuestas emitidas ante las preguntas ensayadas. Cabe anotar, que esta condición no fue generalizada para toda la muestra, puesto que sólo 30% presentó este tipo de conductas.
tales como medicamentos para tratar trastornos mentales, ingesta de sustancias alucinógenas y alcohol. Dadas las características y la composición de las bebidas energizantes, no hay evidencia de que alteren la capacidad de reacción ante los estímulos evaluados en una prueba poligráfica, sin embargo, sí pueden afectar las características comportamentales observables del sujeto, aumentando su nivel de activación que pueden generar en algunas ocasiones, dificultad para centrar su atención en la fase del test, como se esperaría en condiciones normales. No es necesario definir un texto o guía para restringir el uso de bebidas energizantes al momento de realizar evaluaciones poligráficas, puesto que el consumo de estas bebidas no afectan los registros fisiológicos ni impide que se pueda calificar regularmente los registros a evaluar
No se evidenciaron variaciones significativas en los registros fisiológicos entre las fases de experimentación.
Recomendaciones
No existieron diferencias en los resultados de las gráficas ante el empleo de dos instrumentos de marcas y referencias diferentes.
Fomentar la investigación de otras sustancias desconocidas que puedan afectar de manera voluntaria o involuntaria los resultados del polígrafo.
Con relación al objetivo señalado en la presente investigación de tipo experimental, se pudieron establecer las siguientes conclusiones.
Ampliar la presente investigación, teniendo en cuenta otras bebidas energizantes con mayor concentración y usando una población más amplia, que permita obtener más muestras experimentales, con el fin de ratificar los hallazgos obtenidos en este estudio o controvertir los resultados del mismo.
No se determinó una influencia directa de la ingesta de bebidas energizantes sobre las reacciones fisiológicas de sujetos que presentan una prueba fisiológica. Esto, porque las reacciones resultaron evaluables, se dieron entre las ventanas establecidas y conservaron las características del patrón inicial (sin exposición a la bebida energizante). Se puede inferir que las únicas sustancias capaces realmente de afectar uno o todos los canales evaluables de una evaluación poligráfica son aquellas que inhiben reacciones del sistema nervioso,
Bibliografía Agencias. (2013). Las bebidas energéticas alteran el ritmo de nuestro corazón. marzo 29, 2016, de 20 Minutos Sitio web: http:// www.20minutos.es/noticia/1996390/0/bebidas- energeticas/alteran/ritmo-cardiaco/ 8989
ANMAT. (2000). Suplementos dietarios en la Argentina. junio 06, 2016, de Asociación Nacional de Medicamentos, alimentos y Tecnología Médica Sitio web: http://www.anmat. gov.ar/alimentos/suplementos_dietarios-hierbas.pdf Bustamante, C. (2013). La batalla de las bebidas energizantes. junio 19, 2016, de Portafolio Sitio web: http://www.portafolio.co/negocios/empresas/batalla-bebidasenergizantes-74014 Castellanos, R., Rossana, M. & Frezer, G.. (2006). Efectos fisiológicos de las bebidas energizantes. marzo 19, 2016, de Universidad Nacional Autónoma de Honduras Sitio web: http://www.bvs.hn/RFCM/pdf/2006/pdf/ RFCMVol3-1-2006-8 Comisión del Códex Alimentarius. (1995). Informe de la 23a reunión del CODEX sobre el etiquetado de los alimentos. junio 9, 2016, de Food and Agriculture Organization of the United Nations Sitio web: http://www.fao. org/home/en/ Cote, M., Rangel, C., Sánchez, M. & Medina, A. (2011). Bebidas energizantes: ¿hidratantes o estimulantes?. mayo 25, 2016, de Scientific Electronic Library Online Sitio web: http://www.scielo.org.co/pdf/rfmun/v59n3/ v59n3a08 Díaz, P. (2005). Estudio comparativo de las distintas bebidas energizantes que se expenden actualmente en Guayaquil (tesis). mayo 25, 2016, de Universidad de Guayaquil Sitio web: http://repositorio.ug.edu.ec/bitstream/ redug/3309/1/Pablo%20AntonioD.%20Ch.. pdf Dinero. (2015). El mercado de las calorías: bebidas. marzo 15, 2016, de Publicaciones Semana S.A. Sitio web: http://www.dinero.com/ 90
empresas/articulo/el-mercado-bebidaslombia/205804
co-
Gorab, A. (2009). Bebidas energizantes. abril 05, 2016, de Colegio de Pediatría de Nuevo León, A.C. Sitio web: http://www.cpnlac.org/ memoriasacademicasinteramericano2009/ files/BEBIDAS%20ENER GIZANTES%20 MEDICOS%5B1%5D%20-%20Alicia%20 Gorab%20Ram%EDrez.pdf Laboratorio Profeco. (2011). Estudio de calidad. Bebidas energéticas: La chispa enlatada. Marzo 15, 2016, de Revista del consumidor Sitio web: http://revistadelconsumidor.gob.mx/ wp- content/uploads/2011/04/pdf-bebidas2. pdf Redacción vivir. (2013). Así actúan las bebidas energizantes en el corazón. abril 08, 2016, de El Espectador Sitio web: http://www. elespectador.com/noticias/actualidad/asi-actuan- bebidas-energizantes-el-corazon-articulo-461989 Revista Semana. (2014). Los riesgos de excederse con las bebidas energizantes. abril 13, 2016, de Semana Sitio web: http://www. semana.com/educacion/articulo/los-riesgosdeexcederse-con-las-bebidas-energizantes/406698-3 Roussos, A., Franchello, A., Flax Marcó, F., De Leo, M., Larocca,T., Barbeito, S., Rochaix, A., Jacobez, S. & Alculumbre, R. (2009). Bebidas energizantes y su consumo en adolescentes. Abril 19, 2016, de Sociedad Argentina de Nutrición Sitio web: http://www.sanutricion. org.ar/files/upload/files/bebidas_energizantes_consumo_adolescentes.pdf Scott, C. (2012). Ciencia poligráfica. Estados Unidos: Bepa. PP 5-11.
Las Leyes
Científicas de la Poligrafía.
Los primeros principios científico-filosóficos donde se fundamenta su metodología diagnóstica.
Carlos H. Monge Rodríguez.
Resumen A partir de que la Poligrafía consolidó su tecnología y sus primeros esquemas metodológicos, ha intentado exhaustivamente ser reconocida como ciencia frente a la comunidad científica, apoyándose de herramientas como la estadística y la metodología experimental; sin embargo, a pesar de los valiosos estudios realizados por diversos investigadores que han aportado evidencia sobre la validez de la detección de la mentira con uso del modelo poligráfico, no han logrado explicar en el arduo camino del debate, el por qué y cómo de este hallazgo diagnóstico; situación que ha llevado a la ceñida criba epistémica, no aceptar plenamente su carácter científico. Ante este complicado escenario, el presente trabajo filosófico tiene como principal propósito determinar con este antaño debate y otorgar a esta disciplina la envergadura científica que la evidencia demanda. Por tal motivo, el estudio inicial consistió en analizar la teoría y técnica de la poligrafía, en la cual se encontró la carencia de un componente “elemental” que toda doctrina que se jacta de ser científica posee y que es denominado, “Leyes Científicas”; las cuales son regularidades natura-
les del comportamiento de un objeto de estudio (fenómeno)., fundamento prístino de toda disertación, teoría, método, técnica, procedimiento y tecnología. Para lograr el objetivo de este proyecto se revisaron los principios supremos de la ciencia en general, adentrándose consecuentemente a los campos profundos de la Filosofía, y por ende, de la Epistemología (teoría de la ciencia), la cual, permitió con el uso del método racional–experimental y el método hipotético-deductivo, develar y postular (no crearlos) las constantes naturales (leyes científicas) involucradas en la detección poligráfica de la mentira. Los resultados mostraron que estos axiomas yacían en un estado tácito sobre la evidencia empírica y la praxis metodológica. Finalmente, el análisis filosófico permitió concluir que la ingeniería metodológica de la poligrafía para la detección de la mentira yacía en una condición de presupuesto implícito, bajo cinco Leyes Científicas de carácter neuropsicofisiológicas y estadística: Principio de identidad mnésico-mental, principio del pensamiento dirigido, principio de identificación mnésico-mental, principio del potencial de diferencial y principio de significancia estadística. 9191
Palabras clave: Principio de identidad mnésicomental, principio del pensamiento dirigido, principio de identificación mnésico-mental, principio del potencial de diferencial, principio de significancia estadística, leyes científicas, primeros principios, Filosofía, Epistemología, método racional – experimental, axiomas, principios, ingeniería metodológica diagnóstica, Ciencia, Leyes neuropsicofisiológicas y estadística.
Introducción Hasta hace apenas un quindenio la industria de la poligrafía se ha ocupado seriamente en revisar y fundamentar en ciencia (fáctica y formal) su teoría actual, y basar sus nuevas investigaciones en métodos científicos y filosóficos; además, ha unificado acuerdos dentro del gremio epistémico referentes a sus políticas y estándares técnicos; todo esto, a raíz de una época de objeciones de parte de la comunidad científica en general –y de la cultura popular-, desacuerdos internos y obstáculos legales, pero más aún, esta revolución y evolución científica se debió a un hito sin antecedente en la historia de la poligrafía, cuando la National Academy of Sciences (2003) de los Estados Unidos de América, emitió un informe en el 2002 sobre la validez y fundamentos científicos de la poligrafía, en donde el comité encargado de la investigación concluyó que los exámenes poligráficos descansan en bases científicas débiles a pesar de casi un siglo de estudio, pues aseguraron que no ha acumulado conocimiento y no fortalecido sus fundamentos científicos de manera significativa ya que ha estado en relativo aislamiento de los campos relacionados a las ciencias básicas. Por último, dictaminaron que los estudios sobre la exactitud de la técnica -disponible en ese momento- carecían del rigor científico, pues parecía que los datos reportados estaban influenciados subjetivamente. Derivado de la seriedad del dictamen anterior, en los últimos años los investigadores de la poligrafía 92
han intentado desmedidamente robustecer el sector estadístico y metodológico experimental de la disciplina; no obstante, a pesar de tan brillantes esfuerzos intelectuales aún no se ha logrado responder a la comunidad científica lo más elemental: “las causas o principios en donde se fundamenta el efecto diagnóstico de mendacidad”. Dicho de otra manera, la comunidad poligráfica, y tal vez, muchos críticos exigentes, están convencidos sin duda alguna de su eficacia técnica; sin embargo, la enorme limitante radica en no poder elucidar el cómo y el por qué se da el hallazgo diagnóstico; es decir, cuáles variables regulares de la naturaleza humana entran en juego para hacer factible la detección de la mentira con la ingeniería metodológica de la poligrafía. Y desde luego, la difícil respuesta recae forzosamente sobre el campo de la Filosofía de la ciencia; eje de fundamentación, que, en conjunto con la metodología experimental y la estadística, resultan ser las bases que brindan validez y rigor científico a una disciplina (McGuigan, 1983). Contrariamente, a pesar de la trascendencia e importancia de este sector en las ciencias especiales, en la poligrafía resulta ser el campo menos desarrollado y más descuidado dentro de su teoría. Su andamiaje suele estar integrado por conceptos epistemológicos elementales que permiten desarrollar y comprender conocimientos más complejos de esa ciencia en particular. Dentro de este marco conceptual se pueden encontrar los objetos de estudio, finalidad, tareas, división teórica, metodología específica, método científico, utilidad y las bases primeras, las Leyes Científicas (Monge, 2011). Dicho componente, resulta ser la base y principio que fundamentan la razón y actuar de todo procedimiento u operación técnica de una ciencia en especial (Hempel, 2005); de aquí, que toda operación, procedimiento, técnica y método de una especialidad, esté diseñada bajo el fundamento y respaldo de estos principios científicos.
“Un principio en general es aquello de lo cual procede una cosa (Aristóteles)… Cada ciencia tiene sus propios principios, que también se llaman axiomas. A partir de ellos se fundamentan las demás proposiciones que constituyen dicha ciencia”. (Gutiérrez, 1993, p. 174). Por tanto, esta obra pretende sumar al trabajo global que se ha venido dando para robustecer el carácter científico de la poligrafía, en él se presentará formalmente el componente fundamental y superior que poseen las “verdaderas ciencias”, sus Leyes Científicas. El tema se ha desarrollado bajo la propuesta de un esquema nomológico “unificado” de los axiomas que explican aquellas regularidades naturales que se encuentran detrás del diagnóstico poligráfico de mentira; en este diseño explicativo se evidenciará racionalmente cómo la poligrafía yace sobre un sistema de leyes naturales de origen neuropsicofisiológicas y estadísticas que fundamentan su actuar procedimental de cada una de sus fases. Dicha pesquisa está basada en el método racional de la filosofía, el cual permitió contemplar y analizar a nivel inteligible las entrañas teóricas y procedimentales de la técnica poligráfica, como propósito, busca sacar a la luz aquellos Principios o Leyes que fundamentan y dan validez a su metodología diagnóstica; no obstante, su objetivo no es crear postulados nuevos, sino develar, exponer y expresar los principios supremos que yacen en estado tácito dentro del andamiaje teórico y técnico de esta ciencia. Pues como bien ilustra el Dr. en Filosofía, Gutiérrez Sáenz: “Una de las características más notables de los principios (axiomas o postulados) de una ciencia, consiste en que suelen mantenerse en un estado de presupuesto implícito (por lo menos durante las etapas iniciales de esa ciencia) y, por tanto, no son detectados con claridad por la mayoría
de las personas que se dedican al trabajo científico… De no ser por estos axiomas o postulados, no habría manera de asentar proporciones1 con carácter propiamente científico, es decir, fundamentadas… La fundamentación es la cualidad específica que logra elevar una afirmación cualquiera al rango de ciencia... Los fundamentos de una ciencia pueden compararse con los cimientos de un edificio. Su estabilidad depende de la calidad de estos fundamentos”. (Gutiérrez, 1990, pp. 51, 52, 236) En definitiva, el desconocimiento de estas premisas fundamentales, tanto para los científicos de casa, como externos, o el mismo escrutinio público, acarrea consecuencias graves para el prestigio y aceptación epistémica de una ciencia en especial. A saber, se enlistan algunos contextos adversos que seguramente para muchos de los expertos en poligrafía sonarán muy familiares. 1. Las opiniones técnico-científicas pueden ser fácilmente objetables al carecer de las leyes explícitas que expliquen el fenómeno de estudio, opinión, diagnóstico, pronóstico o tratamiento que se derive de él. 2. Cuando el juzgador es ajeno a la materia, o solo conoce un sector científico de modo superficial y tiene frente a sus ojos evidencia empírica o datos sensibles que proceden de la realidad interna (reacciones fisiológicas o cognitivas) y que se emplean en correlato para conocer el fenómeno, el juzgador y observador externo tiene la necesidad de consultar y conocer los fundamentos primeros que respalden los hallazgos; de lo contrario, son fácilmente rechazados por no entrar en su sistema de creencias válidas.
1
Proposición: es la enunciación (oral o escrita) de un pensamiento que tiene las características de ser consistente en una afirmación o negación, y del que se puede decir que es verdadero o falso dependiendo de sus fundamentos. (Chávez, 2014)
9393
3. Cuando una disciplina no tiene a la luz estos principios implícitos, tanto para ser estudiados o ser cuestionados, generan desconfianza e incertidumbre en sus discentes o consultantes. Por otra parte, avanzando en temática; cuando un científico analiza los principios de su propia ciencia, en ese momento está haciendo labor filosófica (Guzmán, 2001), actividad que no ha sido exclusiva de la poligrafía, pues la historia de las ciencias en general han registrado esta etapa de crisis y crítica como evolución natural en las disciplinas científicas, debido a que es común que dichas “revoluciones científicas acontezcan cuando esos principios implícitos son sacados a la luz para ser cuestionados y permutados”… (Guzmán, 2001, p. 237). Por tanto, la revelación y publicación de estos axiomas permitirán a científicos propios y ajenos fundamentar los diagnósticos técnicos y hacer valer el carácter científico de esta disciplina; no obstante, está claro que no deben considerarse dogmáticos, absolutos ni terminados, debido a que la ciencia en general sigue un proceso de evolución constante, pues, como en la mayoría de la leyes y teorías científicas están sujetas a sustituciones y modificaciones cada vez más precisas a la realidad, derivadas de nuevas observaciones o hechos plausible de falsacionismo (Chalmers, 2015); sumado a que las Leyes científicas se cumplen dentro de una data normativa susceptible a posibles excepciones a la regla, pero que sin duda, son un punto de partida que dará paso al perfeccionamiento de los fundamentos epistemológicos de la ciencia, y en especial al de la Poligrafía . Como símil complementario se cita lo siguiente: “Es clásico el ejemplo de la evolución de la Física desde Newton hasta Einstein. Los principios físicos en los tiempos de Newton (referentes a la masa, el tiempo, la gravedad) tuvieron que ser sustituidos por otros diferentes a raíz de las investigaciones… 94
de Einstein. (Actualmente ya se habla de un conjunto espacio-tiempo, la relatividad del tiempo, el cambio de la masa, etc.). Los antiguos principios no pasaron al terreno de la falsedad, sino al terreno del simple caso particular, que no podría sustentar el campo más amplio que últimamente se ha descubierto.” (Guzmán, 2001, p. 236) Hechas las puntualizaciones anteriores, es importante documentar que en la historia de la poligrafía, diversos investigadores han visualizado la perspectiva de estudio que en este trabajo se ha planteado. Tal es el caso de Robert B. Bates, quien extraordinariamente vislumbró y auguró en 1986, en su documento Towards a Philosophy of Polygraph Science: Accepted Standards of the Polygraph Profession2, la necesidad de establecer una Filosofía de la Ciencia Poligráfica, donde se establezcan fundamentos sistemáticos basados en principios básicos y premisas fundamentales que permitan dar origen a una subestructura teórica firme, donde subyazcan las reglas, políticas, criterios de interpretación, formatos de examen, escalas de calificación y demás conocimientos derivados, para que entonces así, se pueda hablar de una ciencia “verdadera”, capaz de superar los obstáculos del escrutinio legal, científico y público. Bates (1986) argumentaba que las objeciones, obstáculos y la no aceptación del mundo jurídico y científico se debía a dos cosas: ambigüedades básicas generales en la teoría y en la técnica (criterios, escalas, formatos, reglas, etc.) y desacuerdo y ausencia de principios fundamentales (filosofía de la poligrafía); por lo que convocaba a la industria de la poligrafía a dejar los egos de lado, para establecer y formalizar una subestructura filosófica donde descansara la teoría poligráfica para fundamentar su tarea diagnóstica, y que esta a su vez fuese enseñada a poligrafistas y en las escuelas de poligrafía para que finalmente se tuviera el reconocimiento de una profesión con el
2
Traducción del título: Hacia una Filosofía de la Ciencia Poligráfica: Estándares aceptados por la profesión de la poligrafía.
rigor científico-filosófico como en el resto de las disciplinas científicas. El resultado final, aseguró que será más fácil debatir las objeciones y sostener su aceptación. Finalmente, las hipótesis universales (leyes científicas) que aquí se postulan como las bases prístinas donde se fundamenta la validez de la detección poligráfica de la mentira, son: 1. Principio de identidad mnésico-mental 2. Principio del pensamiento dirigido. 3. Principio de identificación mnésico – mental. 4. Principio de potencial de diferencial. 5. Principio de significancia estadística.
Metodología “En el momento en que un científico analiza los principios de su propia ciencia, ipso facto está haciendo labor filosófica”. (Gutiérrez, 2001, p.19) El verso anterior, deja al descubierto la divisa de este trabajo de investigación, en el que se trastocan los terrenos de la Filosofía, y que por tanto, toda la actividad intelectual versada aquí, está sujeta naturalmente al método experimental-racional3, mismo que consiste en captar la esencia más profunda de las cosas por medio de la intelectualización y de la experiencia misma; es decir, mediante la contemplación y reflexión constante de los datos captados a partir de la experiencia de algún objeto factico (hechos materiales) o formal (como forma de pensamiento u evento psi Lo experimental en los campos de la filosofía, no se refiere a experimentos como en física o química, sino a la experiencia sensible…es pues, este el primer paso en el método filosófico…todo conocimiento parte del dato sensible. No hay ideas innatas…antes de razonar, el hombre se tiene que poner en contacto inmediato con las cosas... y por tanto, al momento de filosofar es la inteligencia (también llamada entendimiento, razón o mente)…que capta el sentido profundo de los entes… las causas supremas, la esencia, el fundamento intrínseco de lo real. (Gutiérrez, 1993, pp. 42, 43, 288290)
cológico). Es entonces, el hecho filosófico de la mente, quien está representado por la actividad cognoscitiva para busca soluciones o explicaciones superiores a problemas abstractos. Solo así, es factible alcanzar el conocimiento intelectual4. Pongamos un caso concreto que permita materializar el entendimiento del método experimentalracional de la filosofía: Imaginemos por un instante que un investigador poligrafista establece una estadística en el cual de 100 personas evaluadas, el 30 por ciento de los resultados que obtiene son inconclusos y al revisar el procedimiento no encontró falla técnica alguna; sin embargo, al verse aturdido por esta laguna de ignorancia e impotencia por el desconocimiento del motivo de los resultados no conclusivos, decide explorar otras variables físicas, médicas y psicológicas del evaluado; concatenando al final que en los 30 casos, los examinados poseían un coeficiente intelectual deficiente, ligado a la deficiencia en la atención cognitiva. Ante esto, decide revisar los procesos fundamentales de la atención que predominan durante el intest de la técnica poligráfica; hallando al final, que el trabajo atencional en las condiciones del test, implican cambiar el foco de atención de forma intermitente, además de mantener la concentración durante un tiempo poco mayor a cinco minutos….En conclusión, de los datos sensibles que documentó el investigador de forma individual, logra inducir (de lo particular a lo general) hipotéticamente el significado de estos datos concurrentes, en donde el factor de la atención sostenida y alternante está directamente influenciada, en mayor o menor grado, con los resultados in-
3
4
Contrario al conocimiento sensible, que es producto de la sensación, percepción, imaginación y memoria, y que se distingue por ser un conocimiento de lo particular (a un caso concreto) y contingente; el intelectual se distingue por generar –a raíz del dato sensibleconocimiento de lo universal (a todos los casos) a partir de la intelectualización de conceptos, juicios y razonamientos amplios. En concreto, de los datos que inicialmente nos muestran los sentidos, se llega a la formulación de un concepto universal (Tarrío, 2015, p. 33,35)
9595
conclusos. Hipótesis que puede ser universal si llegara a recabar mayor evidencia en casos individuales, hasta el grado de posicionarse a nivel de Ley científica. El símil anterior, permite entender en términos prácticos, la aplicación del método experimental –racional y la interacción íntima entre el conocimiento sensible e intelectual para obtener explicaciones o soluciones de origen, últimas, superiores, totales, esenciales o radicales. Esto es, hacer filosofía en las ciencias. Regresando a la solemnidad que representa al campo de la filosofía, el acto filosófico de contemplación y meditación, permitió desentrañar y exponer los fundamentos básicos (leyes o principios) que yacían intrínsecamente en lo profundo de la teoría actual de la poligrafía. Gran parte de los principios que se expondrán a continuación tienen una base de captación empírico-racional; sin embargo, algunos de los axiomas -por su naturaleza intrínseca subjetiva- fueron intelectualizados sólo por la vía del método filosófico de la introspección y autoevaluación, los cuales, después de que el lector pueda contemplarlos y analizarlos, coincidirá que son tan evidentes y naturales que nadie podrá dudar de ellos. Como es de saber, la introspección se conoce como un método filosófico empleado por la psicología para llegar a conocer estados y procesos internos subjetivos (Rodríguez, 1999); tales como los constructos psicológicos: emociones, conciencia, atención, memoria, percepción, carácter, mente, pensamiento, personalidad, etc. Por tanto, en la empresa del filosofar, existen dos tipos de reflexión (volver una y otra vez sobre los pensamientos) para llegar al conocimiento y significado esencial de objetos abstractos. Marcel en Blázquez, opina que nos acercamos a la realidad de dos maneras: “la primera reflexión se realiza cuando la persona se mantiene apartada de su 96
realidad, cuando intenta describirla y objetivarla… La segunda reflexión restaura la inmediatez de la relación con la realidad. En ella, la persona adopta una actitud de participante de la vida”. (Andrés, 2014, p. 316) Esto quiere decir, que el primer entendimiento se alcanza cuando el investigador o el pensante que se admiran y asombra del universo se torna en el papel de “espectador”; solo así, logra producir conocimiento objetivo. Dicha modalidad está relacionada con las ciencias fácticas, con lo científico, con la observación, la medición y el experimento. Por su parte, el segundo tipo de reflexión, el investigador deja de ser espectador para convertirse en “actor” o partícipe del fenómeno. Es en este plano donde entran en juego los problemas de estudio meramente filosóficos, pues, para el entendimiento o captación racional de un ente abstracto, es necesario realizar observaciones introspectivas, que, desde luego, al final, deben llegar –en cierto nivel de la investigación- a ser verificadas con el mundo real. Hasta aquí, se puede decir que los dos tipos de métodos y reflexiones descritas por Marcel, fueron en esencia las posturas cognoscitivas que se llevaron a cabo a lo largo de esta investigación; mismos que hicieron posible –con mucho temple, paciencia y persistencia- captar la esencia de los primeros principios (Leyes científicas) que se encontraban contenidos en estado sosegado –sin expresarse- dentro de la metodología diagnóstica de la poligrafía, entendiéndose por esto, que dichos axiomas engloban a los actores involucrados en el diagnosis (evaluado y evaluador) y a los procedimientos y operaciones mismas del proceso metodológico. Como se mencionó en supralíneas, estos postulados no son el hilo negro de la poligrafía, pues son fundamentos que se encontraban intrínsecos
en la teoría y práctica de esta disciplina, en donde la mayoría de los poligrafistas los aplicaban y formaban parte de ellos – y muchas veces sin darse cuenta de ello - en la praxis diaria. De tal manera, que es importante reafirmar, que no se trata de algo nuevo, sino más bien, que la pesquisa intelectual se enfocó en captarlos, develarlos y documentarlos con el objetivo de contar con uno de los requisitos epistemológicos que establece la filosofía de la ciencia para la estructura de una ciencia en particular.
Desarrollo Como se ha mencionado reiteradamente, toda la argumentación científica que se contempla a continuación, pertenece a los campos apasionantes y profundos de la Filosofía. Sin embargo, la filosofía que se trata no está enmarcada en la lingüística tradicional de ella, pues para muchos, los textos convencionales resultan oscuros y difícil para el entendimiento, de tal manera, que la terminología expresada aquí, promete ser dura. “Para poligrafistas”. ¿Qué es la filosofía y cuál es su utilidad en las ciencias en particular? La filosofía es una ciencia formal que tiene como objeto de estudio todos los fenómenos o entes (todas las cosas) que existen en la realidad externa o interna del hombre; su finalidad es intelectualizar (uso de las capacidades cognoscitivas de la mente) soluciones o explicaciones totales, radicales, primeras, superiores o más ulteriores sobre las causas verdaderas que originan la existencia de un fenómeno particular. Su práctica se conoce como filosofar y se expresa mediante razonamientos y el uso del discurso. Su intervención en las ciencias se da “a nivel inteligible, a problemas donde las ciencias no tienen soporte material suficiente que pueda sustentar
sus hipótesis y que necesitan que le sean fundamentadas... Las soluciones se generan sobre los espacios huecos (no materiales) del universo del saber, donde las ciencias o la percepción sensible se ve limitada por objetividad material y es aquí el momento, en el que la meditación y reflexión (filosofar) auxilian al científico para buscar una explicación a nivel abstracto, que solamente puede ser comprendida y percibida a nivel inteligible.” (Monge, 2011, p. 17) La Filosofía enfocada a campos de las ciencias fácticas o formales, es considerada como una rama del saber que trabaja paralelamente con lo científico. Se puede definir como una ciencia de cabecera de la investigación científica, su propósito es auxiliarla en su camino para resolver problemas de naturaleza abstracta (primeros principios, leyes, conceptos, constructos, hipótesis, teorías). Su aplicación la debe realizar idóneamente un profesional en filosofía; sin embargo, en la práctica investigativa, es el científico, durante la fase de fundamentación y comprobación de sus hipótesis es quien lo realiza, y a veces, sin darse cuenta de ello. De aquí, que Mario Bunge (2010) afirma que la Filosofía de la Ciencia (también llamada Epistemología) se ocupa de problemas filosóficos que surgen en la investigación científica, y que por tanto, todos los científicos, sin importar el ramo al que pertenezcan, hacen filosofía sin saberlo. Es entonces, la Filosofía tan elemental en las ciencias particulares, que llega a ocupar un capítulo dentro de la teoría de una disciplina científica. Principalmente tiene dos participaciones en ellas: a) Auxilia a resolver problemas científico - filosóficos durante la actividad investigativa. b) Edifica la subestructura teórica de fundamentos primeros donde se cimientan los conocimientos derivados de una ciencia. 9797
No obstante, habrá que mencionar que la mayoría de la personas llegan a considerar que la Filosofía es una disciplina ajena a la ciencias fácticas, que sólo trata temas de aspecto religioso, existenciales, poéticos, estéticos, éticos, novelescos o de los tiempos griegos; lo cierto es, que esta doctrina sí se ocupa de dichos tópicos, pues los tratan las ramas que de ella derivan; tan es así, que la Filosofía está satelitada por varios tipos de problemas (llamados problemas filosóficos) con características sui generis, por lo que cada uno de ellos tiene una disciplina especializada en el objeto material de estudio que representa al problema. En representación de lo anterior, contémplese el siguiente esquema: Disciplina
98
Objeto de estudio
Lógica
Formas de pensamiento y métodos dirigir al entendimiento.
Ética
Códigos de la vida humana en sociedad.
Estética
La belleza y su relación en la vida del hombre.
Cosmología
Leyes, origen y evolución del universo.
Metafísica
Naturaleza, propiedades, causas y fines de cualquier entidad de la realidad.
Teología
Estudia la entidad del concepto de Dios y los hechos relacionados con él.
Gnoseología
Principios, fundamentos y métodos del conocimiento humano en general.
Epistemología
Auxilia en resolver problemas filosóficos durante la investigación científica; fundamenta y valida el conocimiento científico.
Disciplinas filosóficas específicas (filosofía de la educación, filosofía de la tecnología, etc.)
Establecen y representan la subestructura teórica donde se concentran los primeros principios de la ciencia particular.
Figura 1. Las Disciplinas y objetos de estudio que comprenden a la ciencia de la filosofía.
Por otro lado, Gálvez Betancouri (1960) plantea un aspecto más integral, en el que agrupa las filosofías en pensamiento filosófico libre, y pensamiento apegado a explicaciones científicas; siendo este último la categoría donde se sitúa el tópico neurálgico de este trabajo investigativo. En ella se tratan aspectos concernientes a la fundamentación de la ciencias especiales, ya que como se ha mencionado, la filosofía se encarga de constituir una especie de subestructura teórica, en donde descansa el sistema de fundamentos generales, tales como: reglas, conceptos, modelos, metodologías, técnicas, hipótesis y teorías de una ciencia en particular; además, proporciona validez ( de verdadero) al conocimiento que produce la disciplina especial (como lo es el resultado técnico de diagnóstico, predicción o de identificación). De tal suerte, a pesar de que la mayoría de los científicos llegan a olvidar la base filosófica de su disciplina por la rutina diaria de sus tareas técnicas, todas las ciencias especiales, sea Física, Química, Matemáticas, Criminalística o Astronomía, descansan sobre una base sólida firme de primeros principios (subestructura filosófica). De ahí, que existe una gran variabilidad de ramas espe-
ciales de la filosofía, como lo son: La filosofía del derecho, filosofía de la psicología, filosofía de las lenguas, filosofía de la ciencia, filosofía de la historia, filosofía de la educación, filosofía política, filosofía de la medicina, filosofía de las matemáticas, etc.
dición inglesa, Philosophy of Sciences, hay una tradición francesa paralela, Epistemologie, y de acuerdo con las tradiciones intelectuales en que se han formado las universidades latinoamericanas a veces, los académicos, se refieren a Epistemología, a veces a Filosofía de la Ciencia” (p. 12).
Por tal motivo, como bien postuló Robert Bates (1986), es importante consolidar una Filosofía de la Ciencia Poligráfica donde se establezcan los motores de inicio que recubran de validez científica de los diagnósticos técnicos; de tal modo y sin herir susceptibilidades, sería banal e insulso, obstinarse en seguir desarrollando elaboradas estadísticas para comprobar la exactitud y precisión de las técnicas poligráficas, o diseñar nuevos e ingeniosos protocolos de prueba, si no existe una subestructura filosófica de postulados, axiomas o leyes que fundamenten y nutran dichos conocimientos secundarios.
Sus quehaceres están limitados a la industria de la ciencia material, en los que atinentemente Mario Bunge ilustra:
La epistemología: plataforma filosófica para consolidar el carácter científico de la poligrafía Como se refirió en supralineas, la también denominada, Ciencia de las Ciencias, o madre de todas las ciencias, la Filosofía, posee una serie de especialidades que tratan los diferentes problemas filosóficos que le han preocupado y ocupado desde que el hombre tuvo luz de razón. Dentro de estas, se halla una rama encomendada especialmente al estudio del conocimiento científico y de su proceso de obtención, la investigación científica; la cual, formalmente es distinguida como, Epistemología; no obstante, algunas otras escuelas o corrientes de pensamiento prefieren, Filosofía de la ciencia, aunque algunos más románticos y apasionados gustan por la nomenclatura de Teoría de la Ciencia, Ciencia de la Ciencia o Filosofía científica. Al respecto, Pérez (1998) explica que “Filosofía de la ciencia y Epistemología son dos términos que se pueden usar como sinónimos. Hay una tra-
c) se ocupa de problemas filosóficos que se presentan de hecho en el curso de la investigación científica o en la reflexión acerca de los problemas, métodos y teorías de la ciencia… d) Es capaz de distinguir la ciencia autentica de la pseudociencia; la investigación profunda, de la superficial; la búsqueda de la verdad… (Bunge, 2004, pp. 21, 28-29). Como se puede apreciar, esta disciplina es la única rama del saber humano que posee la envergadura y autoridad doctrinal para discriminar entre una verdadera ciencia, de una pseudociencia; todo, a partir de los elementos de justificación del conocimiento científico (Villoro, 1999); es decir, de los componentes que integran la estructura o cuerpo doctrinal de una disciplina verdaderamente científica. Dichos elementos permiten dar identidad científica y hacer factible la identificación y discriminación de aquella que se jacta de tener el carácter de ciencia. A saber, la filosofía de la ciencia establece 10 criterios mínimos indispensables para demostrar5 el perfil científico de una disciplina, lo cual, se logra a partir de una evaluación o arbitraje epistemológico sobre la arquitectura teórica de la doctrina postulante. Dichos elementos vienen a constituir
5
“La demostración es un razonamiento o serie de razonamientos que prueban la validez de un nuevo conocimiento, estableciendo las conexiones necesarias con otros conocimientos”. (AvalosGonzález et al., 2004, p. 143). Por su parte Gálvez Betancourt la define como “el conjunto de procedimientos adecuados para determinar con certeza la verdad o falsedad de un juicio, a través de su fundamentación en conocimientos ciertos.” (p.175)
9999
en su conjunto la denominada estructura de la ciencia (Nagel, 1961; Pérez, 2008). Concepción que se encuentra estipulada (en sentido particular) en torno a la definición de ciencia en cuanto a su contenido (McGuigan, 1983), entendiéndose, como el “conjunto de conocimientos sistemáticamente ordenados dentro de un cuerpo lógico de doctrina, con sus principios, leyes, reglas y métodos propios.” (Llamas, 2004, p. 67) Dichos “elementos constitutivos de la ciencia” (Figura 2) vienen a representar la subestructura filosófica de la que habló el investigador poligrafista Robert B. Bates en 1986, y dentro de los cuales se encuentra un predominante factor estipulado como, Principios o Leyes Científicas. Estructura de las Ciencias 1. Objeto material 2. Objeto formal 3. Finalidad 4. Objetivos específicos 5. Andamiaje teórico 6. Taxonomía epistémica 7. Utilidad 8. Principios o leyes 9. Método especifico 10. Método científico
Figura 2: Modelo de validación epistemológico. En validez científica de la poligrafía (p.34), por Monge, R.C.H., 2012, México.
Este fundamento imperativo, no es un capricho opcional de una u otra ciencia, sino que es tan elemental, que todas las ramas del sa100
ber científico, sean humanas, naturales o sociales, poseen, o deben tener, estos cimientos teóricos-empíricos de forma explícita, pues sin el descubrimiento y documentación de estos patrones más o menos constantes del comportamiento del fenómeno de estudio (leyes científicas), resultaría imposible explicar, predecir o diagnosticar nuevos eventos. Dicho requerimiento es solo un ingrediente de otros más necesarios para integrar y validar a una ciencia en particular; sin embargo, se advierte, que es el más importante de los requisitos, pues constituye la base sólida incipiente sobre la que se erigen conocimientos derivados o más complejos, tales como metodologías, técnicas, modelos teóricos, hipótesis, explicaciones demostrativas, predicciones, diagnósticos, conceptos, formulas, e incluso, el desarrollo de artefactos tecnológicos. De tal manera, que la trascendencia de las leyes científicas es tal, que resultaría imposible que hoy en día la Medicina pudiera realizar un trasplante de corazón a cualquier persona en el mundo, si no se hubiera descubierto y documentado la regularidad del comportamiento (ley natural) de las células del tejido cardiaco al mantener un impulso eléctrico constante e independientemente al resto del organismo -llamado de automaticidad-, con la factibilidad de mantenerse latiendo extra corporalmente (Castellano, Pérez & Attie, 2004) A manera de estudio comparado, y para aproximarnos más al entendimiento del concepto de los primeros principios científicos (también llamadas leyes generales) de las ciencias en particular, la disciplina de la Criminalística posee 7 principios que están debidamente sistematizados, verificados y que se manifiestan de forma “más o menos” constante dentro de la data normativa del fenómeno material del acto criminal. El conocimiento de estos postulados dan certeza a los estudios de reconstrucción e identificación realizados durante la labor investigativa. A saber, se tienen enunciadas 7 leyes: principio de uso, principios de
producción, principio de intercambio6, principio de correspondencia de características, principio de reconstrucción de hechos, principio de probabilidad y principio de certeza. (Bobadilla, 2016) Como ejemplo adicional, la Sociología cuenta con 3 leyes científicas7 básicas que rigen el fenómeno de masas humanas: Ley de la repetición de fenómenos, Ley de la adaptación de los fenómenos y Ley de la oposición de los fenómenos (Tarde, 1987). A partir de estos comportamientos naturales y constantes de la interacción de un grupo social, la Sociología establece sus teorías y puede describir, explicar y predecir eventos en otras sociedades. De igual forma, la ciencia de las huellas crestopapilares, denominada Lofoscopia, está basada en tres leyes universales: perennidad, inmutabilidad y diversidad8 (Arriaga, 2006; Antón & de Luis y Turégano, 2004; Antón & de Luis y Turégano, 1998; Nieto, 2007). Mismas que fundamentan su labor identificativa, pues si no existiese esta regularidad universal sobre la disposición de las crestas epidérmicas entre los humanos, la aseveración de identificar sería un hecho banal y un juego de azar. En el mismo sentido, la Óptica geométrica, desarrolla toda su teoría, métodos, técnicas y tecnología a partir de las regularidades de actuación del fenómeno de luz sobre el espacio, definido dentro de tres enunciados nomológicos que forman la base de esta disciplina de la Física. Esto es: ley de la propagación rectilínea, ley de la reflexión y ley de la refracción9 (Rossi, 2003). Dichos postulados han permitido comprender el comportamiento constante de la luz para poder desarrollar
6
7 8 9
El principio de intercambio, fue descubierto y enunciado en 1928 por el criminalista francés Edmond Locard. (Locard, 1934)
Postulados enunciados por Gabriel Tarde en 1987, en su libro Las leyes sociales. Enunciadas originalmente por el medico británico Francis Galton, primo de Charles Darwin; en la revista inglesa Revue Scientifique del 22 de mayo de 1981. (Milanta, 1993) La ley de la refracción de la luz, descubierta en 1621 por el matemático holandés Willebrord Snel van Royen, mejor conocido en el mundo científico como Snell. No obstante, fue publicada y conocida hasta 1703 por Huygens en su libro Dióptrica. (Millán, Escofet & Pérez, 2004)
tecnologías como la televisión, computadoras o cámaras fotográficas. En el mismo orden, la Psicología, la Botánica, la Medicina, el Derecho, la Economía, la Astronomía, la Estadística, la Química, y una lista innumerable de doctrinas naturales, sociales y humanas (del pensamiento) con verdadero prestigio científico, cuentan explícitamente con estos principios, mismos que se van particularizando y especializando dependiendo de la naturaleza del fenómeno de estudio, pues, en definitiva, solo el verdadero especialista conoce estas minucias elementales. Derivado de lo anterior, se aprecia que la historia misma refleja que las leyes o principios de las ciencias en particular, suelen ser enunciadas y publicadas valientemente –por pensadores ermitaños- sobre la lupa del cruel escrutinio de la comunidad epistémica, en el que la resistencia motivada por los egos se ha visto palpable, pues a final, el fiel aliado del tiempo, ha decantado –tarde para la vida de ellos- dicha verdad. Hasta aquí, se ha utilizado sin demarcaciones el término de Ley y Principio Científico, y pues, como se ha de deducir, el lector seguramente se está preguntando… ¿cuál es la diferencia entre principio y ley?, ¿o son exactamente lo mismo?… para esta, y otras dudas relacionadas al tema, damos paso al siguiente aparatado. ¿Principio o Ley científica? Seguramente, gran parte de los que están atendiendo estas líneas, han tenido frente a sus ojos textos de Física con titulares como, “Leyes de Newton”, o, algunos otros con el epígrafe de “Principios de Newton” … Es aquí, donde la interrogante comienza, y que muy pocos conocen la respuesta epistemológica exacta; de tal manera, que es tan elemental dar explicación a esta incógnita, que resultaría incomprensible e insensato por nuestra parte, adentrarse al tema tan comple101 101
jo –por el nivel de abstracción- de los principios de la poligrafía si no se conoce este básico. Por lo tanto, se da partida a los siguientes párrafos. Un principio científico, se entiende como el origen, inicio, fuente o fundamento primero de donde parte el desarrollo y estructura de conocimientos científicos más complejos de una ciencia; es decir, es el “cimiento sólido incipiente” sobre el que se erige una disciplina, permitiendo fundamentar explicaciones, descripciones, predicciones, diagnósticos, dictámenes u opiniones técnicas; así como, lograr el control y prevención de fenómenos. Se llega a conocer mediante la enunciación de un juicio afirmativo llamado enunciado nomológico. “En cada ciencia existen ciertas proposiciones llamadas principios de esa ciencia… los principios de una ciencia son las proposiciones o tesis básicas a partir de las cuales se apoyan o se infieren las demás proposiciones de esa ciencia. También se han llamado axiomas o postulados.” (Gutiérrez, 1990, p. 235) Para clarificar aún más este concepto, contémplese la siguiente anécdota del autor: En una ocasión veía una entrevista realizada a un médico de la Nasa en la que le preguntaban sobre los efectos posibles que se provocarían en un astronauta si este llegara a retirarse el casco exponiéndose al vacío del espacio. Ante este cuestionamiento, el médico se dispuso a desarrollar argumentos en los que describía a detalle las alteraciones fisiológicas y lesiones que se provocan en estas condiciones. Por lo que la pregunta que surgió de inmediato fue: ¿Cómo puede inferir estas afectaciones en la salud, si nunca se han registrado en condiciones controladas estos efectos? y más aún, si el médico no tiene precedente de haber estado en el espacio y bueno, finalmente después de varios días de meditación filosófica y de estudio de bibliografías en la materia, la res102
puesta recayó poderosamente sobre el concepto de principio científico; puesto que los argumentos que emitía el médico estaban basados en leyes naturales fisiológicas de cuerpo humano y las leyes de la física del espacio; principios científicos que han sido comprobados universalmente con anterioridad. Llegando a la conclusión que a esta operación intelectual de disertación se le conoce epistemológicamente como: demostración científica (explicaciones basadas en primeros principios previamente comprobados). Lo anterior lleva a comprender que un principio científico es la base u origen teórico- empírico sobre el que se fundamenta una argumentación o discurso al que se le pretende dar un sentido de cientificidad; siendo dichas bases, las propias Leyes Científicas, (de la naturaleza, del pensamiento o de la sociedad. Ahora bien, una Ley científica es un fenómeno de la realidad de tipo natural (de la naturaleza), social o humano (del pensamiento) que se comporta y manifiesta de forma universal y regular, hasta ciertos límites; esto es, siempre y cuando, las condiciones o variables involucradas para su producción no cambien. En otras palabras, es un hecho natural, espontáneo, que puede pertenecer a la naturaleza misma, al campo humano o social, donde su manifestación es constante y su universalidad ha sido comprobada por el método científico, e incorporado a una de las teorías de la enciclopedia de la ciencia, para explicar, predecir, controlar o diagnosticar fenómenos de igual composición. Su aparición natural se da con independencia del marco de referencia del hombre cognoscente, pues incluso él mismo forma parte de esta pre codificación natural; es decir, que los fenómenos se dan con independencia de la voluntad humana. Para dar más luz a este concepto, contémplese la siguiente línea de ideas:
El estudio del comportamiento de los vientos sobre el globo terráqueo –facilitado por la tecnología de los satélites- ha permitido evidenciar que estos están sometidos a ciertos patrones de actuación, tanto para formar huracanes, como tornados; de tal manera, que la meteorología hoy en día puede predecir con semanas de anticipación o meses, cuántos meteoros se formarán y la trayectoria probable que seguirán. Este hecho, resulta un ejemplo claro de lo que es una ley científica de la naturaleza y cómo esta es aplicada a la práctica de la ciencia y a favor de la vida cotidiana. Para Gutiérrez Sáenz (1990), una ley científica es “… una relación constante entre hechos o fenómenos… expresan la manera normal del comportamiento de los fenómenos naturales” (p. 239). Por su parte, Hempel (2005), califica a estas regularidades de la naturaleza como “hipótesis universales”, cuya generalidad es comprendida por medio de un enunciado de forma condicional universal que puede confirmarse por hallazgos empíricos, adecuados dentro de ciertas limitantes, y que a su vez constituyen la base común de diversos procedimientos considerados como propios de las ciencias. Cabe resaltar, que Hempel (2005), al igual que Sáenz (1990), se restringen a calificar a las “Leyes generales” de la naturaleza como meras “hipótesis”, posición cautelosa que toman por la siguiente razón: A pesar de que estas constantes se tornan con evidencia abrumadora, no es posible humanamente generalizar la observación a todo el universo en escala terrestre, y más aún, opinan que sería una aberración extrapolarlas fuera de la tierra. Por tal motivo, es oportuno que el científico visualice a la ciencia de una forma más humilde y no con una posición absolutista o demasiado optimista, en donde incluso se le ha calificado como el lugar donde radica la verdad. Por otro lado, las leyes que gobiernan al mundo son reglas naturales que rigen el actuar de los
fenómenos del universo y que se logra conocer mediante un enunciado nomológico que explica una regla afirmativa en donde regularme se expresa sólo el aspecto positivo, dejando de forma tácita el aspecto negativo. Popper (1987), citado por Echeverría (1998), “afirmaba así que las leyes científicas y el saber técnico no sólo nos permiten conocer lo que podemos hacer, sino que sobre todo aclaran lo que no es posible hacer.” (p. 163) “Pues bien, las leyes científicas desempeñan un papel fundamental en esta determinación de lo posible y lo imposible” (Echeverría, 1998, p. 163). Pues su influencia incide no sólo en el marco de la “teoría” científica, sino en la “práctica” científica misma, y también en la vida cotidiana; debido a que en ellas recae la posibilidad misma de existir rutinariamente, ya que su manifestación se da de forma modular, en sinergia, en donde todas ellas, sean físicas, químicas, biológicas o geológicas, se encuentran dentro de un marco sistémico. Para esto, simplemente piense en la gravedad misma, pues existen datos empíricos comprobados, como la ausencia de esta fuerza en el espacio -fuera del globo terráqueo- ejerce un cambio drástico en la normalidad de la fisiología y anatomía del organismo del astronauta, en donde la densidad ósea, resistencia muscular, frecuencia y dimensiones cardiacas, son unas de las principales variaciones. (Kanas & Manzey, 2008) Con lo que respecta a su intervención en la teoría científica -de estas también llamadas Hipótesis Universales- suelen compartirse y tener involucramiento en distintas disciplinas específicas del conocimiento científico, en donde un objeto de estudio puede ser transversal para dos material distintas con finalidades y tareas independientes. A partir de estas, ellas pueden entender y explicar fenómenos más complejos. Por otra parte, en la práctica científica, su trascendencia radica en que, durante la investigación de nuevos conocimientos, ya sea el científico que 103 103
persigue el avance de la ciencia o el profesional que aplica la ciencia (a veces sin darse cuenta), actúan conforme a las Leyes Universales comprobadas para obtener resultados válidos y confiables, más o menos aproximados a la verdad (realidad). El apego a estos fundamentos pristiños el científico puede cumplir con sus propósitos técnicos; como lo son: predecir, diagnosticar, aplicar un tratamiento, diseñar tecnología, manejar o controlar fenómenos. De tal manera, que la ciencia y sus leyes, son el mejor tipo de conocimiento actualmente disponible –plausible de ser refutado- que nos ayudan a comprender más a la naturaleza, para que ante el dilema de un fenómeno, se puedan llegar a conclusiones o tomar decisiones, y a su vez, asumir los riesgos más convenientes, según los datos estadísticos que recomiende al científico. Finalmente, su impacto en la vida cotidiana es tal, que ellas gobiernan la vida misma y permiten que nuestros días trascurran de forma regular. Para dilucidar esto, piense por un instante como el flujo del agua dentro de los hogares circula con facilidad como si algo lo empujara; la razón es simple y se llama fuerza de gravedad. Por este motivo los depósitos de agua suelen estar en la parte alta de la casa con el objetivo de que esta fuerza influya en la distribución del líquido vital. Otro símil de cómo las leyes de la naturaleza influyen en la vida ordinaria, se encuentra en el siguiente escenario. Recuerda por un momento alguno de los días soleados de verano que has vivido. Seguramente tendrás alguna experiencia en donde alguien te recomendó cambiarte la camisa o blusa de color negra que traías puesta, con la firme idea de que te provocaría más calor… Ante esto, la pregunta necesaria es, ¿Por qué sucede este efecto?, y la respuesta radica en que las tonalidades obscuras poseen la propiedad de absorber mayormente los haz de luz, reduciendo el efecto de la reflexión de los mismos y provocando consecuentemente 104
el aumento de la temperatura. No obstante, esta regularidad nomológica no suele aplicarse por completo a todos los objetos de tonalidades obscuras, existen excepciones a la regla, especialmente sobre pinturas con propiedades pulimentadas, que poseen la característica de mejorar la reflexión de los rayos de luz. Justamente, esta singularidad excepcional se le conoce como los límites de las leyes científicas. Dichas acepciones o límites de una ley particular, para muchos parecieran ser claras contradicciones, en donde ponen en duda la afirmación científica (la regla) e incluso la validez de la ciencia particular; no obstante, dichos límites, son los parámetros de actuación de la variables involucradas en la manifestación regular del fenómeno, y que por tanto, en estricto sentido, los límites de los campos de actuación de una ley natural (ley positiva) son los inicios antagónicos de otra ley (ley negativa) que contra resta el efecto de la primera. Estas variaciones se deben a un equilibrio de las fuerzas naturales que busca constantemente el universo para modular los fenómenos. Pensemos por un momento en lo siguiente… Todos hemos experimentado la Ley de la gravedad, y nadie en su razón puede dudar de la existencia de esta constante natural; empero, si nos detenemos a reflexionar la afirmación con que se enuncia la Ley (de Newton) de la gravitación universal, en donde “Todos los cuerpos se atraen con fuerzas proporcionales a sus masas e inversamente proporcionales al cuadrado de la distancia que los separa” (De Llano, 1994, p. 150), y la contrastamos con la facultad que tiene la llama de un fosforo para mantenerse vertical ascendente y no descender, a pesar de girar el fosforo, o la capacidad de un avión de mantener en los aires y no caer, e incluso, el comportamiento de un globo de cantoya al liberarlo al viento; parecieran ser contradicciones en los que pudieran poner en duda -para el no científico- la ley de la gravedad; sin embargo, estas típicas aceptaciones a la regla
son producto de la intervención de leyes antagónicas al efecto gravitacional. Esta postura es una realidad de la ciencia, pues deja entrever un aspecto más humilde de lo que es realmente una ley científica, y la ciencia misma, pues pareciera ser que la concepción que se tiene sobre ella es de todopoderosa. Situación y posición que muchos utilizado cuando intentan callar a su contra opinante con expresiones como: esto está científicamente demostrado…, o, esto está fundamentado en ciencia. Lo que significaría para muchos que el debate está terminado, que no hay nada más que decir, dejando entrever sido “probado” definitivamente por evidencia empírica. Lo cierto es que esta apreciación absolutista y sobrehumana que se ha atribuido a la ciencia, se ha vinculado a ella más de lo que realmente es. (Zanotti, 2014). Por otro lado, dado los límites de la capacidad humana para comprender en su totalidad las reglas que gobiernan el actuar de las leyes del universo, académicamente se ha optado por clasificarlas por asignaturas, de tal manera, que cada especialidad científica se especializa en el estudio y descubrimiento de las leyes que obedecen al fenómeno de su campo; sin embargo, lo cierto es que no hay leyes individuales, sino que estrictamente todas las que se conocen de forma específica (sean químicas, psicológicas, cognitivas o físicas) se concatenan y manifiestan de forma simultánea en la realidad –por lo menos en la tierra-. Esto es, que “en el campo de una disciplina científica especifica coexisten leyes que presentan diferentes niveles de generalidad. Las leyes más generales de una ciencia son aquellas que determinan sus principios teóricos y se diferencian de las leyes particulares que rigen una esfera más amplia de su campo.” (Díaz, 2006, p.88) Ante esto, las leyes científicas se dividen en naturales (físicas, químicas, biológicas, geológicas, astronómicas), humanas (de tipo lingüístico, lógi-
cas, matemáticas, etc.) y sociales (económicas, del derecho o políticas). De la misma forma, Díaz Narváez (2006) comparte: “En el mundo existen leyes objetivas (fenómenos biológicos, químicos, físicos, entre otros) y leyes subjetivas, propias de la actividad intelectual y afectiva de los seres humanos. Las leyes de la realidad (objetiva y subjetiva) cuando son descubiertas por los seres humanos y expresadas en lenguaje científico, se denominan leyes científicas.” (p.87) Dichos fundamentos primeros están condenados a recorrer un arduo y riguroso camino antes de que se han aceptados y validados por una comunidad científica sumamente critica. Sus fuentes de origen suelen provenir de investigaciones científicas experimentales y de investigaciones científico filosóficas. La primera en mención se caracteriza por ir en busca del descubrimiento de estos primeros principios con el uso del método experimental en disciplinas que pretenden entender fenómenos que no han sido explicados y que están inmersos en su campo de estudio; la segunda, se distingue por lograr el descubrimiento o develación de estos axiomas por medio la intelectualización (meditación y reflexión) de la teoría actual donde yace una disciplina y en la que dichos postulados permanecen en estado implícito. El ejemplo más claro de este último es el trabajo de investigación llevado a cabo en estas páginas, en el que su objetivo es captar, enunciar y exponer los primeros principios de la poligrafía con el uso del método filosófico. Y bueno, para tener más claro el tema de las leyes científicas se explicará brevemente el proceso de creación y validación según la corriente del Inductivismo (de lo particular a lo general). Las Ciencias formales, y aún más, las Ciencia fácticas, persiguen siempre de forma persistente e inalcanzable conocer la verdad del hecho que se investiga; entendiéndose por verdad, como las 105 105
causas reales (variables correlaciónales) que permiten la manifestación de un fenómeno (variable dependiente y supuesto efecto). De tal manera, que cuando la variable(s) independiente(s) (supuestas causas) tiene una relación aparentemente constante con la producción de la variable (s) dependiente (s) (supuestos efectos), captado a partir de algunos cuantos hechos singulares, nace -hasta ese momento- una hipótesis válida, respaldada por la presencia de evidencia moderada; sin embargo, sólo cuando la evidencia es abrumadora – generada a partir de la reproducibilidad del experimento, con similares resultados, por diferentes investigadores y distintos lugares del mundo- hasta entonces, es factible, y aún con cierta cautela, hablar de Ley Científica, por lo que “podría llegar a concluirse que esa ley es suficientemente universal y necesaria como para constituir un principio científico.” (Gutiérrez, 1990, p. 34) Derivado de lo anterior, las preguntas que seguramente está en la mente del lector son: ¿la metodología experimental de la poligrafía está respaldada por evidencia abrumadora, o sea, por leyes científicas, a pesar de que algunos de sus resultados son no concluyentes o falsos? Y, ¿es real la detección de la mentira? La respuesta contundente sería sí, debido a que en las ciencias experimentales no hay resultados absolutos, deterministas, torales e infalibles, pues, por su naturaleza “empírica”, están sujetos a márgenes de error e intervalos de confianza, aunado, a que existen variables extrañas en la naturaleza que aún son desconocidas para la ciencia de la poligrafía; de ahí que debe de aprenderse a diferenciar dos temas que giran en torno a esta disciplina: ¿es científicamente válida la poligrafía? Y ¿Qué tan exacta es la técnica poligráfica?... porque una disciplina puede ser científica por los principios generales y específicos donde se fundamenta y estar mermada en su exactitud y precisión para realizar sus identificaciones en comparación con otras técnicas del gremio. 106
Finalmente, después de estas aclaraciones, se puede concretar que ambos vocablos (ley o principio científico) son correctos para referirse a estas primicias empíricas del conocimiento científico y que el empleo de uno o de otro, sólo dependerá del enfoque explicativo que quiera otorgarse en la argumentación, puesto que al referirse el término “principio científico”, se alude específicamente a las bases científicas que sustentan a los argumentos teóricos de una disciplina. Y, por lo tanto, al usar el vocablo “ley científica”, estaremos refiriendo al fenómeno, a la regla natural de comportamiento que se manifiesta de manera más o menos constante y necesaria, y que forma parte de los principios prístinos de una disciplina para cumplir su fin y tareas: explicar, predecir, describir, diagnosticar, subministrar tratamientos o controlar fenómenos naturales y de la naturaleza, y consecuentemente, el desarrollo de tecnología.
Resultados Los “primeros principios” de la Poligrafía. Imagine por un instante que fuese posible dejar en blanco nuestro entendimiento sobre las especificaciones que se han realizado anteriormente, y que al escuchar enunciar el tópico: Los Principios Científicos de la Poligrafía, seguramente se asociaría con reglas de procedimiento aplicadas a alguna de las fases de la metodología, o, a aspectos de antecedentes históricos, o incluso, a fundamentos fisiológicos, psicológicos, cognitivos, tecnológicos y estadísticos; sin embargo, como hemos comprendido, los primeros principios que se hacen alusión en este trabajo, se tratan de verdades anteriores o fundamentos de origen a todo conocimiento científico derivado. (Márquez, 1973, p.187) Lo anterior, lleva a disertar que existen dos tipos de principios científicos; generales y especiales. Los principios generales, son también llamados
causas próximas o fundamentos inmediatos (Gutiérrez, 2001), los cuales, son compartidos incluso con otras ciencias para estructurar su andamiaje teórico y buscar explicaciones inmediatas a sus fenómenos de estudio. Suelen encontrarse aquí, datos estadísticos, conceptos generales o teorías compartidas. Por su parte, los principios que se plantean en esta investigación, son fundamentos ulteriores, supremos o radicales, pues no dependen del plano sensorial directamente, su captación se da a nivel cognoscitivo y no perceptible, mediante la intervención de las distintas formas de contemplación y análisis racional, motivada por datos sensibles que despiertan el espíritu filosófico. A dichas bases, se le denomina principios especiales, causas ultimas o fundamentos ulteriores (Gutiérrez, 2001), mismos que viene a formar parte exclusivamente de la ciencia en particular que los representa, del fenómeno del que deriva su estudio y que además aplica para fundamentar sus tesis, dictámenes o causas que la sostienen.
los actores partícipes en un examen poligráfico. Como la mayoría de los axiomas, estos no son perceptibles, sino cognoscibles; es decir, que su conocimiento y compresión no se logra solo por la vía sensible de un caso particular, sino que es necesario la intelectualización de una serie de experiencias. Dichos postulados comprenden leyes objetivas y leyes subjetivas, que en específico son de naturaleza cognitiva, fisiológica, psicológica, filosófica (filosofía de la mente) y estadística, y que, en definitiva, vienen a fundamenta en general, a gran parte de las técnicas que conforman a la Ciencia de la Detección de la Mentira. Finalmente, basta de propaganda y de la buena retórica. Damos paso formal al apartado neurálgico de esta investigación, en la que se anticipa, por el grado de especialidad, que será complejo para el que no es poligrafista captar inmediatamente la esencia y presencia de estos principios dentro de la metodología de la técnica. 1. Principio de Identidad Mnésico-Mental
En terrenos de nuestra doctrina, los principios próximos que fundamentan un diagnóstico de mendacidad, corresponden a la confiabilidad y validez estadística de la técnica utilizada, al control de calidad del procedimiento realizado, a las políticas técnicas recomendadas para recolección, análisis e interpretación de los datos fisiológicos, e incluso, podríamos agregar los últimos cortes diagnósticos validados. Sin embargo, los principios supremos corresponden a aquellas leyes o reglas naturales, más o menos constantes, que gobiernan el actuar o manifestación del fenómeno de estudio al que ocupa a nuestra materia y a su metodología, y donde se soporta todos los principios generales.
“La identidad mnésico - mental de una persona es uniexistente, irrepetible e idéntica a sí misma. Es quien es, y no podrá dejar de ser, y ser otra, ni habrá otro en el mismo tiempo”.
Por tanto, la teoría de la poligrafía se encuentra sostenida por un sistema de leyes científicas debidamente concatenadas dentro de su metodología diagnóstica y que involucran fuertemente a
La profundidad de las palabras de esta cita bíblica sintetiza la esencia y trascendencia de este axioma universal, en él, se puede percibir a nivel cognoscible esa cualidad identitaria de concien-
21 Y mientras comían, dijo: En verdad os digo que uno de vosotros me entregará. 22 Y ellos, profundamente entristecidos, comenzaron a decirle uno por uno: ¿Acaso soy yo, Señor? 23 Respondiendo Él, dijo: El que metió la mano conmigo en el plato, ése me entregará. 24… Mejor le fuera a ese hombre no haber nacido. 25 Y respondiendo Judas, él que le iba a entregar, dijo: ¿Acaso soy yo, Rabí? Y Él le dijo: Tú lo has dicho. (Mateo 26:2125, La Biblia de las Américas)
107 107
cia, de vivencia y de existencia que poseen los hombres para ser únicos e irrepetibles en tiempo y espacio. Esta propiedad condena a reconocer como propios los hechos experimentados (y a veces, aunque se deseé no haberlos vivido) a causa de la memoria, misma que pasa a formar parte de nuestra identidad mental- personal. De tal manera, que yo soy él que fui, y él que soy ahora. Para facilitar aún mejor el entendimiento de este postulado, quizá un incidente de mi propia vida ayude a ilustrarlo. Hace cerca de nueve años, durante mi etapa universitaria, se suscitó el robo de varias computadoras del centro de cómputo de la universidad. Las investigaciones de las autoridades ministeriales y la presencia de los peritos forenses durante varios días en las instalaciones de la escuela, generaba una enorme suspicacia y desconfianza entre el personal, pues las pesquisas preliminares sugerían que dicho hurto fue realizado por alguien del alumnado o profesorado… Ante esto, la pregunta que todo mundo se hacía, era: ¿Quién de todos los compañeros o maestros presentes en la institución, realizó el robo de los ordenadores?... Al término de la semana, los dactiloscopistas realizaron la toma de huellas decadactilares a los 25 integrantes de mi grupo –incluyendo a mí-, estableciendo diagnósticos positivos para dos compañeros en específico. Al final del interrogatorio ambas personas terminaron admitiendo los hechos. Lo importante de la experiencia anterior, es la identidad que guardaban estos dos sujetos con respecto al resto de los alumnos y maestros - también sospechosos-, pero que, sin embargo; sólo estos dos poseían la individualidad mental de ser autores del robo; experiencia guardada exclusivamente en la memoria de los perpetradores; misma que paso a formar parte de su biografía de vida, y por tanto, de su identidad mental. 108
Emerick (2016) nos ilustra al respecto: La mente tiene una función especial en nuestra experiencia. Es la encargada de recopilar y almacenar información de y acerca de la identidad física, la identidad social, el Alma y todo lo que experimentamos, para luego coordinar y usar esa información para producir una visión de la realidad que nos permita andar por la vida… No existen dos personas que tengan exactamente las mismas creencias o piensen exactamente igual porque cada individuo tiene experiencias diferentes de la vida en sociedad. En el mismo sentido, la identidad mental varía infinitamente de persona a persona… La identidad social de cada persona es diferente porque no hay dos individuos que tengan exactamente la misma experiencia social… La identidad mental de cada ser humano es única porque está formada de información específica que ha sido recopilada, almacenada y coordinada por la mente de cada individuo y cada uno ha tenido una experiencia única en la vida (pp. 64-66). Es así que la identidad mental, de ser yo mismo, y de tener conciencia de lo que fui, de lo que hice o de lo que soy a consecuencia de aquello, adquiere un grado más de individualidad por los hechos mismos, los sucesos, vivencias, experiencias, o como quiera que le llamemos, pues son en sí mismas, únicas, singulares e irrepetibles; momentos que quedan individualizados por el contexto espacial y en el tiempo mismo. Esta situación significa, que a pesar de que varias personas históricamente han presenciado un hecho dramático, como un accidente mortal o un homicidio, estos eventos han ocupado un lugar en el tiempo y en el espacio de forma individual, y que desde la perspectiva interna del sujeto, quedan registradas en la memoria humana que le otorga una etiqueta identitaria al individuo; tal vez, uno de ellos como testigo, otro como autor del homicidio y uno más como encubridor… no lo sobemos, hasta descubrir la identidad que guardan.
Mestre (2016), filósofo de origen español, nos explica magistralmente que “la memoria es la capacidad que tenemos para recordar algo que ya ha sucedido en el pasado… La identidad personal nace a partir de la concepción de la memoria a largo plazo. La memoria a largo plazo es la que nos permite recordar lo que nos ha sucedido, tanto hace poco, como hace mucho tiempo. Nosotros somos porque recordamos que fuimos y nosotros somos aquello que sentíamos cuando éramos; nosotros recordamos, y al recordar lo que hacemos es sentirnos identificados con el ser que hacía aquello que recordamos… Lo que soy, es producto de mi memoria”. Por su parte Erikson (1968 / 1971), citado por Ruiz (2014), advierte que “el sentido de identidad personal proporciona a la vez un sentido de unicidad e individualidad y una conciencia de poseer una personalidad diferente” (p.21). Este yo mismo, es un estado mental de procedencia y estancia única y original, que yace solo en la mente de quien recuerda una anécdota y que es imposible e impensable de que el otro también reviva y resienta lo que el primero vivencio… esto quiere decir, que al recordar un suceso dramático o inusual, la escena mnesica solo es posible que exista mentalmente en la persona que lo experimento y no en el otro que nunca la vivió; situación y condición cognoscitiva que pertenece a la identidad del portador mental. Hasta aquí, el lector podría pensar que este principio universal de la mente es un postulado inspirado románticamente por el autor, pero lo cierto es que este fenómeno cognoscible es tratado por la Filosofía de la mente, dentro de la teoría de la identidad mente-cuerpo, también denominada, teoría de la identidad psico - física, tesis de la identidad de la mente, o simplemente, teoría de la identidad. (Broncado et al., 1995) En su forma más general, este principio de identidad, también es campo de estudio y aplicación
de la ciencia de la Lógica (disciplina de la filosofía); es el primero de los cuatro principios denominados: leyes fundamentales del pensamiento, o también nombrados como principios supremos de la Lógica, principios supremos de la ciencia, primeros principios de la ciencia, principios del conocimiento, principios del pensamiento, principios lógicos supremos, principios supremos de la lógica, leyes del entendimiento, de la actividad intelectual o principios supremos del pensamiento. Los axiomas restantes son: tercero excluido, de no contracción y de razón suficiente. Los tres primeros, incluyendo al de identidad, fueron promulgados por Aristóteles; el último, fue anunciado por filósofo alemán Wilhelm Leibniz (Barco, 2004; Di castro, 2006; Gálvez, 1960; Gutiérrez, 1993; Márquez, 2002; Márquez, 1951; Monge, 2011; Montes, 1977). Principio de identidad. “Todo lo que es, es igual a sí mismo y distinto de los demás”… (Márquez, 2002, p.25). La Lógica nos dice que este postulado es aplicable a todo objeto material (ontológico) que existe en el mundo externo, pero también a los pensamientos, a la mente misma, a cualquier entidad lógica. En campos de la Filosofía de la mente, esta propiedad humana es conocida como “unicidad de la mente” (Márquez, 2006), que en términos específicos al hombre, es una propiedad que yace en la memoria humana y que es posible, gracias a la existencia de la conciencia histórica; es decir, la capacidad de percibir y reconocer como propias las acciones llevadas a cabo en el pasado; de tal manera, que en esa entidad mnesica, radica la nuestras características identitarias, como la información personal, experiencias sociales o personales (positivas o negativas) que permiten en su conjunto dar origen al “sentido de identidad”; dicha cualidad hace factible configurar quienes somos, elaborar nuestra biografía y conservar experiencias. (Fernández, 2011). 109 109
“No podemos vivir sin conciencia de lo que hemos vivido…nuestra vida perdería sentido.” (Varela, Ávila & Fortoul, 2005) En concreto, en esta entidad cognitiva metafísicamente es donde radica la esencia de existir, de ser uno mismo y distinto a los demás. En ella, yace todo lo que somos, lo que hicimos, lo que fuimos, lo que hemos aprendido, pretendemos ser y de donde provenimos. Tan es así, que en la memoria –y en especial la episódica- se almacenan vivencias negativas y positivas a lo largo de nuestra vida; de tal manera, que gracias al atributo de esta individualización mental, es factible por medio de la metodología de la poligrafía, - tratándose de un caso específico- identificar o discriminar al culpable del inocente; o en un caso, en un examen de permanencia o nuevo ingreso, detectar al veraz o al mendaz sobre temas específicos de examinación…En otras palabras, sino fuese por esta Ley cognitiva, no sería posible la existencia de verdaderos diagnósticos positivos y negativos, pues la evidencia más objetiva y contundente que se tiene para demostrar la validez de este principio y la existencia de esta propiedad mental, es el meta análisis de la Asociación Americana de Poligrafía publicado en el 2012, pues más halla de agrupar datos numéricos para demostrar la exactitud y precisión de las técnicas poligráficas y de validar solo aquellas que cuenten con ciertos estándares, el objetivo último de este estudio fue demostrarle a la comunidad científica en general que es factible y real detectar indirecta y probabilísticamente la mentira mediante la metodología de la poligrafía. Sumando al entendimiento de este axioma, imaginemos un caso extraordinario, en donde estamos investigando un homicidio con dos sospechosos, ambos gemelos homocigóticos, con homónimos, y en un caso extremo, con evidencia física que demuestra su presencia de ambos en la escena del crimen; sin embargo, solo uno de estos dos sujetos tiene la identidad mental de ser el autor 110
material del hecho, por poseer en su memoria episódica el registro de la información espaciotemporal del evento criminal donde fue trasgresor y cuya información solo puede estar archivada mediante recuerdos en la mente del verdadero criminal y no así ,en la del testigo… su gemelo. Como un corolario más, es importante afirmar que la identidad mental de una persona llega a predeterminar su resultado poligráfico, incluso, desde antes de que ingrese el evaluado al cubículo de evaluación, pues el resultado está dado por las experiencias de vida almacenadas en su memoria; de tal forma, que todos los individuos poseemos una identidad mental condicionada, ya sea por la moral, como buenos o malos; penalmente: culpables o inocentes, o poligráficamente; como veraz o mendaz, siendo imposible ser ambos al mismo tiempo; lo cual quiere decir, que el examinado posee previamente una unicidad cognitiva distinta a los demás (como honesto o corrupto) y el trabajo del poligrafista radica en dirigir y organizar los pensamientos de cada persona para develar en consecuencia su identidad memorística. Reflexionemos por un momento el siguiente escenario de la vida de todos los días para poder demostrar la existencia de este principio. Cuántas veces hemos experimentado cuando un aroma, una melodía o un lugar físico, trae a nuestra mente recuerdos de sucesos agradables o desagradables muy personales, que incluso, teniendo personas contiguas a nosotros en el momento exacto de percibir el estímulo en conjunto, el episodio de vida evocado es único e irrepetible para él que lo asocia mentalmente; de tal manera, que si existiera la enorme coincidencia de que otra persona también asociara el evento sensorial, el recuerdo biográfico sería individual y distinto al de nosotros… esto es el principio de identidad mnesico-mental. Finalmente, debemos dejar claro de forma contundente, que la identidad de una mente, está
dada por la entidad cognitiva de la memoria y predominantemente por la información personal (como el nombre propio, edad, sexo, sexualidad, identidad de los padres, hermanos, familiares, amigos, lugar donde vive, etc.) y las experiencias de vida; mismas que se individualizan por el momento, lugar, contexto y emociones experimentadas durante el suceso; que al igual, poseen un componente de unicidad que las hace irrepetibles en algún otro momento de la línea de la historia. En este sentido, está claro, que esta ley cognitiva, como todas las leyes científicas naturales, tienen limitantes, pero que dichas excepciones a la regla no son incongruencias que demeriten su categoría de ley, sino que obseden a un comportamiento no absolutista natural en todas las leyes. De tal suerte, que la limitante de este principio serían los estados psicopatológicos que afecten directamente la identidad mental de una persona; como pueden ser tal vez: el trastorno de identidad múltiple, el Alzheimer, demencia senil, amnesia por traumatismo, etc. 2. Principio del pensamiento dirigido. “Partiendo de la idea que la evaluación poligráfica es un experimento científico “controlado”, y que es necesario, en la medida de lo posible, que el examinado pueda discernir mentalmente entre los conceptos (recuerdos) específicos objeto de evaluación y descarte aquellos que no lo son, solo puede incrementarse esta posibilidad de esto, cuando se recurre técnicamente al proceso cognoscitivo del pensamiento dirigido”. Como se ha explicado, el foco de atención suele situarse sobre estímulos externos (objetos que se manifiestan en la realidad externa) y eventos psicológicos (productos cognitivos del recordar, imaginar, absortar, etc.) que en condiciones naturales se desplaza de forma libre, espontánea y sin restricciones, motivado solo por aspectos subjetivos y sin que exista la intervención de un
orientador (Monge, 2016). Tal es así, que este comportamiento mental es gobernado por una Ley cognitiva denominada, Asociación Libre10; misma que se define como un proceso, función o actividad cognoscitiva mediante el cual, la mente de una persona trae a su conciencia pensamientos (unidades cognoscitivas = imágenes, símbolos, conceptos, reglas de creencias o matemáticas) de forma libre, espontánea y sin filtros, todo a partir de la presentación simple y vaga de un estímulo; es decir, sin una previa inducción, guía o sugestión del mismo; sin embargo, este flujo libre de pensamientos está condicionado fuertemente por el acervo de información memorística producto de experiencias del pasado, datos que se han adquirido por medio de algún modelo aprendizaje (Chavarría, 1985; Reale, Antíseri, 2010; Bezanilla, Miranda, 2014; Vives, 2006; Monge 2016). Dicho estimulo puede tomar forma de una pregunta, comentario, palabra, imagen, aroma, etc. Cabe mencionar que el psicólogo, biólogo y epistemólogo suizo, Jean Piaget, denominaba a este efecto cognoscitivo como Asimilación, mismo que definía como “la tendencia a comprender la nueva información en términos de las estructuras mentales existentes.” (Baron, 1997, G-2) Por su parte, Laplanche (1996), citado por Bezanilla y Miranda (2014, p.189), menciona que la Asociación libre es el “método de expresar sin discriminación todos los pensamientos que vienen a la mente…” “En el psicoanálisis se considera un procedimiento en el que el paciente reporta de forma espontánea al terapeuta todos sus pensamientos.” (Baron, 1997, G-2) Los primeros estudios sobre el descubrimiento de este comportamiento natural de la actividad cognoscitiva surgen en la clínica psicológica, en lo terapéutico, sobre el diseño de test proyectivos verbales denominados “test de asociación de palabras” o “prueba de asociación libre”. Sus principales exponentes fueron: Francis Galton (1879), S. Freud (1901, 1904), Wilhelm Wundt y Carl Gustav Jung (1904,1910). Este último inició la aplicación de estos test como un “detector de mentiras”; tema al que se le dedicó extensos estudios de laboratorio y de campo. (Mas, 2010, pp.135139; Anastasi & Urbina,1998, pp. 425-428; Vives, 2005, pp. 31-35)
10
111 111
Del mismo modo, la teoría de la generalización de estímulos citada por Honing y Urcuioli (1981) y Pearce (1986), explican que “es la tendencia a que estímulos similares al estímulo condicionado provoquen respuestas condicionadas semejantes.” (Baron, 1997, p.151). En sentido reduccionista, esto significa que todo lo que suene, se vea, se sienta o se huela igual o similar a una experiencia previa significante, generará una respuesta cognitiva, fisiológica y conductual semejante a la primera exposición del evento estigmatizado. Para ejemplificarlo, Baron (1997) ilustra con el siguiente escenario: suponga que una niña ha sufrido varias experiencias dolorosas a causa de picaduras de avispas, lo cual, le ha generado un fuerte temor condicionado, por lo que cada vez que escuche a otros insectos voladores –como las moscas- posiblemente generé respuestas similares.
gida. La cognición sin dirección se refiere al flujo libre de los pensamientos sin estar sujetos a control. Y la cognición con dirección, hace referencia a pensamientos que son generados a partir de un problema planteado o instrucción, tanto por la persona misma, como por un segundo.
Derivado de lo anterior, surge la importancia de recalcar que los métodos empleados para la introducción de las preguntas de prueba persiguen implícitamente el objetivo de construir conceptualizaciones claras entre los interlocutores inmersos en la fase de entrevista del examen (poligrafista y evaluado); lo cual, solo se logra mediante un canal de comunicación efectivo, condicionamiento y sugestión. De tal manera, que una pregunta de examen será válida, solo cuando el concepto del examinado encaja en la definición del evaluador o institución. (Shurany & Gordon, 2016)
Esto quiere decir, que ante la demanda de una tarea (operativa y/o cognitiva) los pensamientos de una persona pueden dirigirse de forma controlada mediante la inducción, guía o instrucción de otra persona que funja como orientador. Por tal motivo, la metodología diagnóstica de la mentira en la técnica poligráfica, específicamente en su fase de la entrevista pre-test, se auxilia de esta modalidad cognoscitiva para aumentar la posibilidad de que el estímulo se vincule a un recuerdo particular que forme parte del concepto que integre a las preguntas relevantes y comparativas objeto de evaluación. Por tanto, para evitar que predomine el pensamiento libre en el sujeto de prueba, donde existe la probabilidad que evoque recuerdos episódicos distintos al concepto de la pregunta de examen (por efecto del principio de asociación libre), el poligrafista aplica una serie de operaciones dentro de los procedimientos denominados introducción de preguntas relevantes e introducción de preguntas comparativas; los cuales, están basados en las técnicas de comunicación efectiva, aprendizaje por condicionamiento clásico y sugestión.
Por lo tanto, el flujo libre de pensamientos es un comportamiento cognitivo que viene a constituir un factor antagónico que dificulta evaluar la literalidad del tema de una pregunta de prueba; sin embargo, esta regla cognitiva, al igual que otras leyes naturales, opera hasta ciertos límites con el efecto compensatorio de otra ley cognitiva.
El propósito de dichas técnicas es procurar -en la medida de lo posible- clarificar el entendimiento de los temas de examen, en términos de definición, organización y exclusión de las conductas hipotéticas que forman y no, parte del contenido de las preguntas de prueba. (Shurany & Gordon, 2016; Prado, 2010; Nelson, 2016; Monge, 2013)
Ante esto, Chavarría (1985), define que las actividades cognoscitivas (acción mental mediante el cual se estructuran pensamientos) se dividen de forma general en dos clases: sin dirección y diri-
No obstante, es importante dejar claro, que a pesar de que se ejecutan estos protocolos para disminuir el efecto de dominio del principio de asociación libre, hay personas que siguen vincu-
112
lando recuerdos vivenciales que no son objeto de evaluación, con la estructura semántica de la pregunta, situación en la que se especula, que son causa de la carga emocional y cognitiva asociada fuertemente a ciertos componentes semánticos del estímulo (Ejemplo: reacciona en consumo de sustancias ilícitas y su vivencia corresponde a venta de drogas). En consecuencia, la praxis sugiere que pareciera ser que las personas liberan tensión psicológica (o dejan de manifestar fuerza de reacción saliente a una pregunta específica) mediante acciones de sugestión11 (desplazamiento, minimización, justificación de una acción) y realizando catarsis12 (expresión de la vivencia que les genera saliencia atencional). Dichas excepciones a la regla vienen a constituir los límites de operación de una ley científica, o también llamadas, “variables extrañas”; factores responsables de producir resultados no deseados en los experimentos científicos, como lo es el caso que se está planteando, o los propios resultados de un diagnóstico inconcluso. Como es de deducir, el establecimiento de una pregunta de prueba no es una práctica arbitraria como se ha vendido en los eventos televisivos y sensacionalistas, de tal forma, que para definir y construir una pregunta de prueba existe una metodología que permite aumentar la posibilidad de disminuir el efecto dominante del principio antagónico de la asociación libre. Pues como bien ilustra el profesor Don Grubin, “La función del examinador es, por tanto, intentar situar al sujeto que va a ser examinado en un contexto psicológico tal que incremente las posibilidades de que toda excitación a preguntas Rojí y cabestrero (2013), explican que la sugestión es un “proceso mediante el cual una persona es conducida a un estado mental tal que asume acríticamente una sensación, una idea o una acción.” Rhue, Lynn y Kirsch (1993) mencionan que el termino proceso hace referencia a que las sugestiones conllevan una serie de acciones por parte de alguien. Habitualmente, estas acciones consisten en la enunciación de asertos o frases, pero pueden estar acompañadas por elementos gestuales, variaciones en la respiración, del tono de voz, de la velocidad de las palabras, etc.” (Rojí y Cabestrero, 2013, p. 149)
11
específicas pueda reputarse como el resultado a respuestas mentirosas.” (Villamarín, 2014, p. 33) Para precisar aún más la claridad de los conceptos de pensamiento libre y dirigido, se cita el siguiente ejemplo: Supongamos por un instante que estamos realizando un experimento de laboratorio para verificar la existencia de estos comportamientos cognitivos; en el que solicitamos al sujeto A de prueba caminar dos kilómetros sobre un bulevar principal, el más concurrido, transitado y publicitado de la ciudad. Durante su caminata su atención cognitiva y sus pensamientos derivados seguramente se provocarán de forma libre, voluntaria y con toda naturalidad, atendiendo a los estímulos que le sean más atractivos o salientes. De tal manera, que tal vez observe un espectacular de ropa, pasos más adelante a una chica, enseguida a uno de sus vehículos de ensueño, posteriormente la sirena de una ambulancia y finalmente a un motociclista vuelto un bólido. En el segundo experimento, pedimos al sujeto B realizar la misma caminata, pero con una diferencia transcendental, en la que instruimos y guiamos a la persona a acotarse exclusivamente en conmutar el número de anuncios publicitarios relacionados con alimentos; de manera que sus pensamientos fluirán, pero ahora de forma dirigida-y seguramente con una u otra distracción-. Como podemos apreciar, en el primer escenario, la actividad cognoscitiva fluyó de forma natural y libre, en el que después de las percepciones de los diversos objetos, se generaron ideas espontáneas que el individuo asoció con experiencias previas. En el segundo caso, la cognición es sometida a una orientación controlada a partir de la asimilación de una instrucción y establecimiento de directrices, las que permitieron el surgimiento de la modalidad del pensamiento dirigido. En suma, el principio de pensamiento dirigido con apoyo de los procedimientos técnicos adecuados de comunicación efectiva, condicionamiento y 113 113
sugestión, aplicados sistemática y metódicamente durante la introducción de las preguntas de prueba, permite aumentar la posibilidad de situar y orientar el pensamiento del sujeto de prueba hacia el marco conceptual de las preguntas de examen; pues gracias a este principio procedimental se puede tener la alta probabilidad de que ante la presencia de saliencia diferencial en una pregunta objetivo, el examinado pueda estar ocultando un pensamiento (vivencia) familiarizado al contenido temático de la misma y no a otro aspecto sin contexto asociativo lógico. 3. Principio de identificación mnésico – mental. “Generalmente se espera que el recuerdo vivencial no se evoque mentalmente si no existe una asociación-familiarización entre el estímulo externo y la información episódica almacena en la memoria autobiográfica”. La naturaleza de este principio es de tipo cognitivo e involucra fuertemente a la memoria autobiográfica. Se caracteriza principalmente por ser un reflejo y respuesta innata, espontanea e incondicionada de la mente al evocar recuerdos episódicos, pues incluso surgen autónomamente sin que exista voluntad del sujeto sobre ellos. En psicología cognitiva forma parte de las leyes de la memoria “en general”, y es denominada también como: Ley de la asimilación; que establece que nosotros “recordamos las ideas en la medida que estas se asocien a otras existentes en la mente, que se inserten en una estructura ya conocida” … (Valdivia, C., s.f) Este principio está íntimamente relacionado con el postulado de identidad mnesico-mental, debido a que la identificación o detección de la identidad mental de un individuo (conformada por la información personal y experiencias de vida) está determinada por su conciencia histórica; es de114
cir, por la capacidad de darse cuenta y reconocer como propios los recuerdos de las acciones o eventos vividos en el pasado; lo cual, forma parte del control del origen de los recuerdos (de la experiencia o de la imaginación) y del proceso del control de la realidad (atributos sensoriales, contextuales y cognitivos) para validar que un recuerdo es productor de una experiencia. (Suengas, 2000; Manzanero & Álvarez, 2015; Johnson & Raye, 1981) Dicha capacidad de evocar y percibir conscientemente una escena y sensación retrospectiva (flashback) sobre un acontecimiento experimentado en el pasado, solo es posible cuando la mente asocia, asimila o identifica el estímulo de la pregunta (o de cualquier otra naturaleza sensorial) con la información icónica vivencial almacenada previamente en el acervo de la memoria autobiográfica. A contrario sensu, si la mente no asimila el ítem (pregunta de prueba) con alguna información episódica de la memoria, el recuerdo imagenológico no será rememorado, y por lo tanto, la conciencia histórica permite reconocer que no existe una vivencia o acción al respecto. En términos concretos, la tesis radica en que el sujeto al que se estima veraz a un tema específico de prueba, no genera carga cognitiva memorística al percibir y procesar la pregunta de prueba, dominando posiblemente en ese instante alguna otra función mental, como lo es la imaginación. Por el contrario, en el individuo mendaz, se desarrolla carga cognitiva memorística al procesar el estímulo; es decir, se infiere la presencia de un recuerdo (o recuerdos) icónico producto de alguna vivencia que se vincula con la estructura semántica de la pregunta. Por otra parte, es importante destacar que el acto natural de la mente para vincular un estímulo con un contenido imagenológico (escenarios de sucesos) no es un proceso cognitivo simplista, pues como se explicó en el principio anterior, el
foco atencional interno (sobre los pensamientos mismos) en condiciones naturales se desplaza de forma espontánea y sin restricciones, lo que significa llanamente: “lo primero que venga a la mente”. De tal suerte, que, para intentar mitigar este efecto de desplazamiento libre del pensamiento mismo, que es gobernado por la Ley cognitiva de Asociación libre, el poligrafista procura mediante las técnicas de sugestión, condicionamiento y comunicación efectiva, canalizar los pensamientos y recuerdos de un sujeto dentro de un concepto relevante (pregunta de estudio) a evaluar, para así permitir que el esfuerzo mental (carga cognitiva) generado por de trabajo mental de dirigir la atención y evocar el recuerdo(s), refleje una reacción fisiológica fásica que permita -mediante la repetición secuencial de este estimulo respuesta- dar una oportunidad de detectar la mentira específica del tema diana. Finalmente, este efecto de organización de la cosmovisión es posible por medio del control y uso de la ley cognitiva del pensamiento dirigido, mismo que cobra relevancia operacional dentro de la fase de “introducción de preguntas de prueba”. 4. Principio de potencial de diferencial. “En promedio, la mendacidad a las preguntas relevantes genera mayor potencial de reacción que en las preguntas comparativas, e inversamente, la veracidad a las preguntas relevantes manifiesta menor fuerza de reacción que en las preguntas de comparación.” Ante todo, para poder captar cognosciblemente este postulado, necesitamos introducir el término “potencial de diferencial”, descifrando de forma ordenada los vocablos que componen a este prístino y toral concepto en la detección poligráfica de la mentira. Según la Real Academia Española (2017), en términos generales, Potencial, significa “fuerza o po-
der de determinado orden”; en Física, se entiende como magnitud o energía capaz de realizar un trabajo (Hewitt, 1999), y en Neurociencias –específicamente- es un impulso de voltaje que viaja por el axón capaz de detonar la activación bioquímica de una neurona, momento en el que se dice que un nervio se ha “disparado.” (Giancoli, 2006) En concreto, todas estas definiciones confluyen en una sola esencia significante, en donde el término “potencial” hace referencia a algún tipo de energía o fuerza capaz de producir un cambio, respuesta o modificación en algún sector de la realidad; de aquí, que existen términos como potencial de acción, potencial gravitatorio, potenciales evocados, potencial electromagnético, potencial de hidrogeno, potencial electrolítico o potencial humano; todos, enfocados a la capacidad de generar un cambio o movimiento en la realidad a partir de un algún tipo de disposición limitada de combustible o energía. En el campo de la poligrafía (psicofisiológia forense), el termino potencial se refiere a la “energía, esfuerzo, excitación, consumo o desgaste fisiológico que desencadena un determinado órgano o tejido diana como respuesta espontánea y fásica ante el procesamiento sistémico del estímulo, mismo que está dado por el complejo neural y cognitivo del organismo del individuo”. Por su parte, el vocablo de diferencial, significa simplemente distinción, variación, diferencia, discrepancia u oposición clara entre un objeto que está siendo comparado con otro. Por lo tanto, el principio de “potencial de diferencial” se define como la distinción visiblemente gráfica y cognosciblemente estadística de la fuerza de reacción fisiológica generada diferencialmente entre las preguntas relevantes (de investigación) y las preguntas comparativas (controles), en una serie controlada de presentaciones experimentales de un estímulo comparado con otros; esto es, que el parámetro que permite distinguir 115 115
entre una persona veraz y una mendaz sobre un tema específico de investigación, resulta ser la ganancia, magnitud o intensidad fisiológica que refleja biológicamente el sujeto como respuesta ante el procesamiento sistémico-nervioso del estímulo relevante y control. Lo anterior se encuentra respaldado por diversos estudios científicos que han comprobado con evidencia empírica, de campo y laboratorio, que la intensidad de las reacciones fisiológicas a las preguntas relevantes (investigación) y comparativas, están en función del engaño y honestidad a las preguntas donde se cuestiona y evalúa un comportamiento o hecho del pasado (Asociación Americana de Poligrafía, 2011 a; Ansley,1983; 1990; Abrams, 1973; 1977;1989; Franz, 1988; National Research Council, 2003; Nelson y Handler, 2013; Office of Technology Assessment, 1983; Podlesny y Raskin, 1978; Kircher y Raskin, 1988; Krapohl, 2013; Krapohl y McManus, 1999; Raskin, Honts y Kircher, 2014; Raskin, Kircher, Honts y Horowitz, 1988). Esto quiere decir, que el parámetro o índice para diferenciar a los evaluados mendaces y veraces con respecto a temas específicos de evaluación, viene a determinarse en definitiva por la diferencia de energía fisiológica o nivel de excitación simpática que libera el organismo del examinado como respuesta derivada del procesamiento neurocognitivo de las preguntas relevantes y comparativas (Monge, 2016). De tal forma, que “los examinados engañosos generalmente exhiben mayor magnitud de cambio en la actividad autónoma en respuesta a estímulos relevantes que a los estímulos de comparación, mientras que los examinados veraces exhibirán generalmente mayor magnitud del cambio a estímulos de comparación que a los estímulos relevantes.” (Nelson, 2016) En consecuencia, el razonamiento anterior nos lleva a introducir inercialmente el concepto de “Saliencia diferencial”; el cual, hace posible que 116
el axioma de potencial de diferencial sea cognoscible a la luz de la razón. Dicho constructo psicológico permite dirimir un potencial de diferencial de veracidad o mendacidad sobre un tema diana de evaluación, el cual se logra a través de operacionalización de forma “inductiva” para determinar qué pregunta, de las dos comparadas (relevante vs comparativa), presenta mayor ganancia fisiológica. Esto es, que para llegar a establecer saliencia diferencial de entre dos estímulos, hay que analizar y medir de forma particular el comportamiento responsivo de los estímulos comparados; de tal forma, que durante el acto de medición de la magnitud de la respuesta fisiológica, el punto o valor se asigna –en un acto de comparación por competición de atributos- al ítem con mayores características gráficas de excitación simpática. Al respecto, Krapohl, Handler & Sturm (2012) nos ilustran que esta expresión, … caracteriza la correlación positiva entre los grados de significancia psicológica y la intensidad de la respuesta fisiológica. El concepto de la prominencia diferencial está basado en la premisa de que las reacciones pueden revelar procesos subyacentes, los cuales pueden ser explotados para detectar el engaño o el reconocimiento bajo condiciones controladas y estructuradas. Esto no restringe el mecanismo operante al miedo, pero asume un camino común para la expresión fisiológica de los procesos cognitivos y emocionales, que dan lugar a la prominencia psicológica. Esto está propuesto como una sustitución para la vieja hipótesis del “Set Psicológico”. Ver: Handler & Nelson (2007); Handler, Shaw & Gougler (2010); Senter, Weatherman, Krapohl & Horvath (2010). De tal modo, que las saliencias diferenciales determinadas durante el análisis de datos, tanto por canal fisiológico, como por preguntas, se lleva a cabo a partir del marco de referencia del obser-
vador (experimentador-examinador), estimando la significancia psicológica que le asigna el sujeto a los estímulos, a partir de la correlación con el nivel de energía fisiológica liberada como respuesta del procesamiento neurocognitivo de los ítems, misma que se va manifestando de forma intermitente y fásica durante el gráfico de prueba. A decir de Handler & Nelson (2015), esta variación en el potencial fisiológico de reacción se debe al factor emocional y al factor cognitivo, dirigidos por un proceso de aprendizaje por condicionamiento clásico durante la construcción de los conceptos relevantes y comparativos. En suma, se puede deducir que el principio de potencial de diferencial está en función del mecanismo mental de saliencia diferencial que asigna el sistema cognitivo-emocional del examinado a los diferentes estímulos de prueba. Dicho estado subjetivo es estimado por el examinador a parir de la correlación que existe con el potencial de reacción fisiológico; el cual, a través de su conversión cuantitativa, por medio de un modelo estadístico-matemático de medición indirecta, es posible distinguir la distribución de la carga cognitiva y emocional que ha dado lugar sobre los estímulos comparativos y relevantes; la decantación asimétrica de los valores acumulados sobre alguno de las variables binominales mencionadas, permite reputar, probabilísticamente, la veracidad o mendacidad con respecto al tema objetivo. El anterior razonamiento nos lleva a sostener que esta ley neurocognitiva de la detección poligráfica del engaño, esta amalgamada por la axiomatización de tres grandes teorías, que al igual que Handler & Nelson (2015), el autor comparte. He aquí una breve noción de sus aspectos más relevantes. a) Teoría de la emoción b) Teoría de cognitiva c) Teoría del condicionamiento clásico
a) Teoría emocional. Este artefacto teórico está compuesto por corrientes de pensamiento de tipo fisiológicas, neurológicas y cognitivas (psicológico), mismas que se agrupan al final del inconforme camino del debate para explicar de forma sinergial la naturaleza, origen, proceso, manifestación y fin de las emociones humanas. De tal forma, que la Psicología Emocional no solo estudia el síndrome afectivo desde la orientación conductual (psicológica) y fisiológica, pues está claro que las emociones se ven influenciadas inherentemente por procesos cognitivos; de aquí, que las posturas que explican este fenómeno y que tienen mayor aceptación y validez en la comunidad científica, se conocen como Teorías Cognitivas de la Emoción; no obstante, aunque se sabe que estas dos variables (emoción –cognición) se interrelacionan en la realidad para conformar el sistema cognitivoemocional, la academia opta por enseñarlos de forma separada para una mejor comprensión a la mente humana. En este mismo sentido, la ciencia de la detección científica de la mentira (CDCM), estudia la mendacidad desde modelos teóricos de la Psicología Emocional y de la Psicología Cognitiva; de los cuales, se derivan tres supuestos que nos aproximan a la explicación de la interrogante: ¿Por qué y cómo es factible detectar la mentira en el ser humano? Con lo que respecta a la teoría emocional de la detección del engaño -que es la que nos ocupa en este apartado- se destaca lo siguiente: • La detectabilidad de los signos y síntomas de tensión emocional (actitudinales, fisiológicos y cognitivos), bajo contextos de mentira, incrementa cuando se suman ciertos factores psicosociales. Al respecto, señala que cuando el sujeto mendaz tiene una motivación que lo mueve volitivamente a ocultar un pensamien117 117
to para obtener una recompensa ante el éxito del engaño o algún castigo en caso de fallar, este tiende a experimentar mayor tensión psicológica; es decir, que la existencia de una causa suficiente que motive su interés para tener éxito en convencer a su interlocutor, y por ende, parecer creíble frente a él, marca una diferencia significativa para la detección probabilística del engaño. (DePaulo, 2015; Hartwig y Bond, 2014; Martínez, 2014) • Otro factor es el contexto ambiental en el que se desahoga el acto de mendacidad; tal como: mentir cara a cara, situaciones de alto riesgo (terminar en prisión, pérdida de empleo, menoscabo de la imagen social, etc.), calidad del interrogador o receptor (policía vs compañero de clase), presencia de evidencia, en otros. Asimismo, el contenido de la mentira, es un elemento más que está en razón a la naturaleza del tema falseado, por lo que no es lo mismo engañar sobre la cita furtiva con tu pretendiente, que mentir sobre tu participación en un homicidio. (DePaulo, 2015; Hartwig y Bond, 2014; Martínez, 2014) • Por otra parte, el tipo mentira que emplea el mendaz en su mensaje, se agrega a las condiciones que incrementan la tensión emocional y cognitiva en el sujeto; lo cual quiere decir, que ejecutar una mentira narrativa vs mentira dicotómica, genera mayor carga en el sistema cognitivo-emocional (Hartwig & Bond, 2014; DePaulo, 2015; Monge, 2016); de aquí, que los expertos recomiendan usar modelos de entrevista cognitiva para develar o elicitar claves de engaño válidas. • Postula que el acto de mentir no está acompañado por una emoción distintiva, como se creía tradicionalmente lo era el temor (a ser descubierto o las consecuencias) o la culpa, pues al ser un estado emocional de tipo complejo se encuentra influenciada por una com118
binación de emociones que muy posiblemente son de valencia negativa (Blandón, López, Masip & Fenn, 2017; Martínez, 2014; Monge, 2016; Khan, Nelson & Handler, 2009); de aquí, que su detectabilidad por vías de señales conductuales resulta ser un poco superior a la del azar, con casi un 70% (Hartwig & Bond, 2014). Esto se debe a que no existen señales comportamentales específicas y universales para ésta, o cualquier otra emoción compuesta (Martínez, 2014). Cualidad que distingue a las emociones básicas o primarias. (Redorta, Obiols y Bisquerra, 2006; Martínez-Pecino et al., 2014) No obstante, a pesar de que confluyen distintas afecciones durante el síndrome emocional de la mentira, hay emociones que dominan durante ese momento; situación que nos lleva a pensar que la hipótesis tradicional del miedo a las consecuencias y a ser descubierto, no esta tan alejada de la realidad, y en específico, por los temas de investigación en donde la situación en juego es de alto riesgo para el examinado. Motivo por el cual no debe restringirse o excluirse totalmente el mecanismo operante del miedo durante la detección de la mentira. (Krapohl, Handler y Sturm, 2012) Ante este escenario, existe la posibilidad de estar palpando una de las causas responsables de los falsos diagnósticos (negativos y positivos); pues nos lleva a rememorar en cuántas ocasiones los famosos cuartos gráficos resultan sin reacciones significativas (puntajes positivos), después de que el evaluado comentó vivencias no críticas que no había proporcionado en entrevista (situación en la que le precede una detección técnica); donde por ejemplo, la detección de mentira en el tema de consumo de drogas resulta estar vinculado a una vivencia donde su padre es víctima de una adicción, o en su caso, una detección técnica en la pregunta de comisión de delitos, cuando el examinado fue víctima en su infancia de un acto de violencia sexual.
En definitiva, los escenarios antes planteados (que son casos de la realidad) nos permiten deducir que detrás de los diagnósticos de veracidad o de engaño, pueden estar involucrada cualquier emoción intensa (positiva o negativa) que provoque una saliencia diferencial tanto en las preguntas relevantes como comparativas, en donde la vergüenza, ira, ansiedad, asco, frustración, rencor, pena, impotencia o el arrepentimiento, pudieran tener una partición principal, en confluencia con el temor y la culpa. • En la misma línea de ideas, al fungir las preguntas de prueba como estímulos condicionados y ser estos procesados neurocognitivamente, dan lugar a una reacción emocional asociativa; en donde dicho estado afectivo elicitado, trae consigo una etiqueta de valencia emocional negativa (o probablemente también positiva) otorgada subjetivamente durante la experiencia y valoración del evento original. Dicha situación, se suma a las posibles causas que generan falsos diagnósticos, debido a que las imágenes gráficas y fonéticas (palabras) que conforman a las preguntas estímulo se encuentran posiblemente tan arraigadas afectivamente a un evento pasado que trae consigo un estado emocional asociado. • La mentira, al igual que cualquier otra conducta humana está acompañada naturalmente de emociones, situación que lleva a plantear que este estado emocional complejo está situado bajo un principio reconocido universalmente por la Psicología y las Neurociencias, que sostienen que toda emoción humana está acompañada de tres componentes: neurofisiológico, cognitivo (incluye conciencia del sentimiento o afecto = experiencia subjetiva) y comportamental. (Baron, 1997; Sperling, 1966; Sanjuán, 2013; Alonso, 2007; Pasantes, 2003; Vásquez, 2016; Vila, 1996;
Vigotsky, 2004; Garrido, 2009; Aguado, 2005 & Fernández, García, Jiménez, Martín, & Domínguez, 2013). Por tanto, dichos planos de manifestación hacen factible afirmar que la mentira es un fenómeno no observacional que puede ser medido mediante métodos indirectos o indicadores correlacionales y por consiguiente, detectable probabilísticamente. • El nivel de activación de los planos de manifestación de las emociones y en específico, de la mentira, sugieren estar en virtud de la carga o sobrecarga emocional que manifiesta de forma aguda el sujeto durante el acto de mentir; misma que posiblemente está dada por la cantidad de emociones involucradas, la intensidad y la valencia negativa de los estados afectivos que percibe el sujeto durante el acto de intentar ocultar un pensamiento y del trabajo cognitivo que realiza para parecer creíble. En este sentido, los factores que se suman para desencadenar este estado cognitivo-emocional son el elemento de confrontación y el elemento punitivo (consecuencias). Lo anterior quiere decir, que la diferencia en el potencial de reacción fisiológico entre una pregunta y otra (relevante vs control), está en virtud de las cualidades afectivas mencionadas que revive el sujeto durante el acto de mentir; pues debemos dejar claro que la mentira –tanto en contextos de laboratorio como naturales- solo puede existir cuando es provocada; es decir, que en la idea popular de “mentirse a sí mismo”, resultaría un acto fallido. • El estado afectivo difiere de una persona que miente a la que habla con veracidad, pues el mendaz experimenta determinadas emociones negativas e intensas que surgen por condicionamiento social, en donde al individuo desde pequeño se le ha inculcado que mentir es una conducta reprobable (moral y religiosamente) y que su confirmación implica una 119 119
consecuencia, a su vez, que su manifestación es delatable por los signos de nerviosismo y culpa. (Blandón, López, Masip & Fenn, 2017) b) Teoría cognitiva: La teoría cognitiva del engaño sugiere que el esfuerzo o desgaste cognitivo suele ser mayor en un cerebro que ejecuta una mentira, que aquel que vierte la verdad experimentada. En otras palabras, el sujeto mendaz está cognitivamente ocupado en un esfuerzo mental, conductual y emocional para figurar ser sincero; situación que traduce en una sobrecarga cognitiva. Advierte que uno de los posibles componentes cognitivos que tiene mayor involucramiento en el acto de mentir, es la memoria episódica y semántica. Entidades mentales que están en constante conflicto en la conciencia del sujeto mendaz, quien intenta inhibir a la primera y procurando no perder el hilo lógico conductor del engaño. c) Teoría del condicionamiento clásico: • Modelo teórico que propone que es posible introducir un aprendizaje en un sujeto de prueba mediante un contexto controlado, en donde ciertos estímulos específicos son expuestos de forma consistente durante un lapso de tiempo sobre el sistema neurocognitivo del examinado, permitiendo generar respuestas de forma específica y orientada ante la aparición de dicho evento estimulante. Esto quiere decir, que el condicionamiento clásico, en combinación con una comunicación efectiva, facilita al individuo, dónde, cómo y cuándo reaccionar. Concluyendo esta sección podemos decir que las fluctuaciones en la responsividad fisiológica está fuertemente condicionada por la carga cognitiva y emocional presente en cada estímulo. Factores que son determinantes para dirimir el potencial diferencial. 120
5. Principio de significancia estadística. “A mayor frecuencia de reacciones fisiológicas salientes, en uno de dos estímulos comparados (control vs relevante), en tres situaciones y momentos distintos de serie y con un mínimo de tres registros cada uno; menor es la probabilidad que sea producto de la casualidad y mayor su significancia de mendacidad.” En primer lugar, para evitar confusiones debemos aclarar que en la literatura de la Estadística suele usarse de forma indistinta significación estadística o significancia estadística; sin embargo, debemos acotar el término de “significativo” (de significancia o significación) para poder entender este principio, que aparentemente pareciera estar asociado solo a temas científicos de laboratorio, situación que en el campo de la lógica natural u ordinaria no está tan ajeno. Veremos más adelante. Bellón (2008) nos comenta: “El término “significativo” suele generar confusión y no muchos investigadores lo comprenden bien. En general, cuando hablamos que algo es “significativo”, implica que es importante o destacado. Sin embargo, en la terminología estadística, un “resultado significativo” quiere decir altamente improbable, pero no necesariamente tiene que ser “importante”. Ramalle y Bermejo (1996), aclaran que “muchas veces, por desconocimiento o por pereza mental, solemos utilizar ambos términos como equivalentes. A pesar de las muchas advertencias de los estadísticos…sobre la importancia de diferenciar ambos conceptos, sigue habiendo cierta confusión. Es fácil poner ejemplos en los que podemos ver como estadísticamente significativo no quiere decir necesariamente importante o relevante. La significación indica una asociación o diferencia entre variables que difícilmente se pueden explicar por el azar… (pp. 863-865). Gento y Gunter (2012), señalan que “La significación hace referencia al grado de representatividad
de los datos obtenidos… en una muestra extraída de una determinada población” (p. 134). Lo cual se refiere, a que tanto ese conjunto de datos puede representar significancia (improbabilidad que sea azaroso el resultado) para la confirmación de la hipótesis. No obstante, la significancia estadística no es indicativa de la magnitud de la diferencia o fuerza de la relación con la hipótesis. Solo habla de la probabilidad de obtener el mismo resultado en otro ensayo, llevado a cabo en similares condiciones experimentales; lo que confirmaría que la tendencia de los estadísticos fue algo más que buena suerte. (Vilalta, 2016)
dera correlación o asociación entre las variables previstas en la hipótesis. (Moncada, 2005; Moya, 2002 & Martin, 2008)
Este postulado y teoría matemática es empleado en la práctica por el resto de las ciencias experimentales en aras de poner a prueba la objetividad de sus hipótesis (confirmarla o falsearla), a partir de un grupo determinado de ensayos experimentales para observar su comportamiento holístico. Por tanto, es aplicado a investigaciones de campo y de laboratorio, en tareas enfocadas a hacer ciencia o en aplicar la ciencia.
Por tanto, al usar la expresión: “hay significancia estadística en los resultados obtenidos”, es afirmar que hay una diferencia entre la cantidad de los datos recolectados entre dos muestras a la que se aplicó y no el tratamiento experimental (supuesta causa del efecto); dicha asimetría diferencial de los datos (obtenido estadísticamente mediante estadígrafos y test) sugiere que el hallazgo guarda un significado inteligente que da respuesta positiva o negativa a la hipótesis de investigación y donde queda disminuida la probabilidad de que el resultado o efecto se haya generado por accidente o mera casualidad; lo cual, se deriva y fundamenta en una premisa: la frecuencia o recurrencia tendentiva con el que se replicó el efecto medido en los diferentes ensayos.
Con lo que respecta a la empresa del avance de la ciencia, auxilia en establecer la universalidad de la hipótesis para elevarla a nivel de ley científica. Por su parte, en materia en donde se aplica la ciencia a problemas técnicos, e incluso cotidianos, este concepto nos permite y facilita la toma de decisiones al intelectualizar el significado que nos proporciona la frecuencia de aparición del efecto medido. De tal forma, se dice que los resultados de una serie de ensayos para poner a prueba una hipótesis (en sus dos vertientes de planteamiento: hipótesis nula e hipótesis alternativa) son “estadísticamente significativos” cuando queda reducida la posibilidad de que hayan sido fruto de un hecho accidental, fortuito, ocasional o azaroso; de esta manera, el supuesto sería que los datos generados fueron producidos por el tratamiento experimental de la variable independiente (supuestas causas del efecto causado en la variable dependiente); es decir, que existe una verda-
Insistiendo en el tema, Fontes et al. (2015) nos explica que un resultado se denomina estadísticamente significativo cuando no es probable que haya sido debido al azar. Una “diferencia estadísticamente significativa” solamente significa que hay evidencias estadísticas de que hay una diferencia entre las variables estudiadas. No significa que la diferencia sea grande, importante, o significativa en el sentido estricto de la palabra.
Como podemos visualizar, la fórmula central del término “significancia estadística”, es la consistencia o frecuencia con el que se replica el fenómeno que está midiendo en los diferentes ensayos comprendidos en dos grupos de muestras (uno al que se le aplica el tratamiento experimental y otro control); al final, las diferencias cuantificadas reflejarán un significado de asociación o discrepancia; es decir, que hay o no, una correlación entre las variables de la hipótesis. Situación que se realiza en muestras representativas y considerables porque uno, dos o tres eventos no significarían nada; por lo que es necesario, buscar la recurren121 121
cia del fenómeno para confirmar su existencia en la realidad.
Otros símiles relacionados a temas científicos serían los siguientes:
Hasta aquí, hemos analizado cualitativamente el concepto de significancia en el campo de la estadística, sin embargo, este postulado también tiene una conversión numérica –común en las ciencias fácticas- que consiste en aplicar los llamados “test, técnicas o pruebas de significación estadística”; no obstante, este tema será tema de otra disertación, pues lo relevante de este postulado es ver cómo el factor de frecuencias con el que se manifiesta un fenómeno es tan influenciable y poderoso para la acción de toma de decisiones, determinación de conclusiones y asunción de riesgos.
Derivado de varios terremotos en la república mexicana en julio 2017, un sismólogo explicaba en un noticiero que los eventos se debían al movimiento brusco del llamado “cinturón de fuego”; al cuestionarle los conductores del programa sobre este concepto, el experto explicó que se trataba de una gran placa tectónica que circunscribía las costas de océano pacifico, y que la peculiar denominación se atribuía a la gran actividad sísmica inusual que puede suscitarse en cualquier momento. Ante esta afirmación, un interventor preguntó ¿cómo se había detectado este cinturón de fuego?, por lo que el profesional explicó que se realizó un estudio estadístico de los sismos suscitados en esta zona durante los últimos cien años. Situación que llevó a los sismólogos a entender que la frecuencia o consistencia con que se presentaron estos fenómenos en diferentes momentos, permitió deducir que esta agrupación de datos ordenados guardaba un significado inteligible, el cual, más tarde, se tradujo como el hallazgo de una gran placa tectónica que acumulaba tensión, llamada “cinturón de fuego”. El estudio estadístico de la replicación de estos fenómenos en torno a esta zona, permitió intelectualizar que estos datos no se agruparon por azar o simple casualidad, sino que debajo de ellos había una causa clara.
Dicho efecto de consistencias, no solo influye en la tarea de confirmación de hipótesis para las ciencias, sino que también tiene una fuerte intervención en la vida de todos los días. Y para esto, basta con contemplar el siguiente escenario cotidiano: Imaginemos, que durante varios meses hemos tomado la ruta “A” para llegar a nuestro nuevo trabajo, en la que hemos registrado un tiempo promedio de 45 minutos de camino; sin embargo, en una de esas ocasiones, por equivocación transitamos por la “ruta B”, en la que sorprendentemente el tiempo transcurrido resultó ser de 26 minutos, situación de la que podríamos deducir que simplemente fue algo de suerte y que seguramente se debió al poco tráfico o a la hora; no obstante, decidimos tomar esa alternativa al siguiente día obteniendo el mismo resultado; situación que nos lleva a prolongar esta decisión por cinco días más (motivados por la curiosidad). Al final, la extrañeza fue que el tiempo de 26 minutos fue másmenos consistente. Por tanto, ante tal recurrencia favorable en los tiempos en distintos días, la razón nos indica que el resultado de tomar esa ruta significa algo más que una mera casualidad. 122
En otro contexto, el principio de significancia estadística también es empleado implícitamente en la actividad juzgadora del juez durante la impartición de justicia ante un hecho delictivo. Para esto, el juzgador tiene que allegarse de la evidencia confirmada y experimentada por su panel de expertos forenses, quienes le aportan datos objetivos y subjetivos pertenecientes a diferentes técnicas periciales, en donde la adminiculación de estos y el enlace dirigido hacia la persona juzgada, podría determinar por mayorías, la alta probabilidad de involucramiento en el evento criminal. Esto quiere decir, que ningún indicio asilado sería
prueba suficiente para determinar la culpabilidad de una persona –incluso el test de ADN, solo el conjunto de datos concatenados significaría que no concurrieron por coincidencia, sino que tiene una causa suficiente.
creado hermosas y sutiles reglas que determinaban la mayor parte de lo que ocurría en el universo, mientras que dejaba unas cuantas cosas completamente al azar. Esa idea le parecía un error.” (Walter, 2017, § 14. 5)
Hasta aquí está claro, que cuando la reproducibilidad (también llamada replicabilidad) de los resultados o del efecto supuesto de la hipótesis se da en condiciones similares y diferentes momentos, e incluso por distintos investigadores y lugares, permite a la razón del investigador concluir que el hallazgo estadístico tiene un contenido conceptual y que es improbable que el fenómeno sea producto del azar.
Fue así como la razón de Einstein lo llevó a aferrarse a la corriente de la causalidad y renunciar totalmente a las cuestiones de fe o de la casualidad; puesto que al conocer como tantas variables interactúan sutil, ordenada, sistemática y naturalmente en un universo debidamente adminiculado en elegantes leyes o reglas regulares que lo gobiernan, resulta ingenuo pensar que toda esta logística natural fue producto del azar, o del privilegio de la casualidad.
Esta condición la dejó clara el propio Sócrates en su diálogo con Teetetes, escritos de Platón, donde afirma poderosamente que “La ciencia no reside en las sensaciones sino en el razonamiento sobre las sensaciones, puesto que, según parece, solo por el razonamiento se puede descubrir la ciencia y la verdad, y es imposible conseguirlo por otro rumbo”. (Ambriz, 2006, p.36) De la misma forma, Albert Einstein en su trabajo vitalicio por descubrir las reglas elegantes del universo, en una carta escrita a Max Born, “el Amigo y físico con el que discutiría este tema a lo largo de más de tres décadas: «la mecánica cuántica sin duda resulta imponente –diría Einstein-. Pero una voz interior me dice que eso no es todavía lo real. La teoría dice mucho, pero en realidad no nos acerca en absoluto a los secretos del Viejo. Sea como fuere, yo estoy convencido de que Dios no juega a los dados». (Walter, 2017, § 14. 5) Esta simple expresión –pero sumamente profunda- no fue una elocuencia ególatra de Einstein, sino que “era un principio que Einstein elevaba (como hiciera en el caso de la relatividad) a la categoría de postulado que le guiaba en su trabajo…Cuando plateaba esta cuestión, había una posibilidad de no creer que el buen Dios hubiera
Lo anterior permite afianzar la realidad del postulado de significancia estadística, dado que cuanto un efecto de la realidad de manifiesta de forma consistente en el tiempo (en diferentes momentos) la razón nos permite deducir que existe una causa suficiente que provoca ese patrón consistente, y que su vez alberga un significado inteligente, que solo puede ser alcanzado a nivel cognoscible por la estadística de los datos manifestados y no por una experiencia sensible aislada. En concreto, este postulado es una ley natural que rige a la razón misma del hombre para llegar a la toma de decisiones y establecer conclusiones, tanto en contextos cotidianos, como en la rigurosidad misma del trabajo científico. En esto último, cabe mencionar que esta ley estadística es aplicable tanto a poligrafía como al resto de las ciencias empíricas, las cuales la usan para universalizar hipótesis o en aplicar el método hipotético deductivo para solucionar casos concretos. Hasta aquí, seguramente el lector se preguntará en qué momento aplica este axioma en la metodología de la poligrafía y cómo interviene en proceso de diagnóstico de la mentira. Ante esto, debemos dejar claro, que si bien la mentira es un 123 123
fenómeno conductual con implicaciones neuropsicofisiológicas dependientes de detonadores psicosociales (tanto para su manifestación como para su intensidad de expresión biológica), la tarea técnica de identificación de este fenómeno no sensible -por su naturaleza subjetiva- se ve limitado al no realizarse por una medición directa, por lo que su detección implica un tipo estudio estadístico basado en mediciones correlacionales (medición indirecta) sobre “datas proxis” (fuentes indirectas = índices fisiológicos) que permitan aproximarnos probabilístamente a la existencia del estado cognitivo-emocional de mendacidad. (Nelson, 2016). Por tanto, la factibilidad de llegar a identificar objetivamente la presencia de este fenómeno, radica esencialmente en la aplicación de la estadística descriptiva, basada en la observación del comportamiento de la distribución y frecuencia de los guarismos (símbolos con valor numérico), positivos (+) y negativos (-) que son asignados a las reacciones fisiológicas más salientes (mayor fuerza de reacción fisiológica) durante la fase de análisis de datos; esto, dependiendo si pertenecen a las preguntas control (+), o a las de investigación (-). En otras palabras, el diagnóstico consiste en un análisis bioestadístico de la frecuencia con el que se presentan los valores (+ / -) que son asignados a las reacciones de la preguntas que tienen mayor ganancia fisiológica; de tal manera, que se trata de un procedimiento de comparación sobre la magnitud de reacción entre dos estímulos (preguntas) del test (controles y de investigación); en el que al final de la conversión o transformación numérica del dato sensible, la decisión diagnóstica de veracidad o mendacidad está discernida en base a la acumulación de reacciones fisiológicas salientes en uno de dos estímulos comparados. Es decir, que la detección está supeditada a un proceso de competición de valores (+ o -) basado en la ley de los signos del álgebra, en donde la esencia del estudio radica en un diagnóstico por mayorías. 124
De tal forma, que sería anti científico determinar la mendacidad de una persona con tan solo una reacción aislada en una pregunta, por lo que es necesario recolectar una serie de muestras fisiológicas distribuidas en tres gráficos, variando la posición de comparación de la pregunta de investigación, versus pregunta control, para confirmar que el efecto de la intensidad de reacción no se obedezca a un evento fortuito. Por último, cabe mencionar que la influencia toral de este axioma en el diagnóstico poligráfico, esta con independencia del tipo de escala de calificación y punto de corte al que obedezca la técnica que se esté aplicando.
Discusión Por décadas, los poligrafistas y las personas (victimas, testigos, victimarios, etc.) que han constatado la efectividad de la técnica, están ciertos que la detección de la mentira por medio de su metodología es una realidad a la luz de la razón y de la evidencia empírica; desde luego, como toda técnica que ocupa el método científico experimental –que no son exactas- sus resultados son probabilísticos, con márgenes de error e intervalos de confianza; sin embargo, el problema mayúsculo no radica en esto, sino inicia cuando los técnicos intentan defender la validez del resultado diagnóstico concluyente, y específicamente, sobre las bases científicas en donde se erige y fundamenta su ingeniería técnica y tecnológica. Como un hito en la historia de la disciplina, en el 2011, la American Polygraph Association publicó un estudio meta-analítico13 enfocado en el 13 Treinta y ocho estudios cumplieron con los requisitos cualitativos y cuantitativos para su inclusión en el meta-análisis. Estos estudios incluyeron 32 muestras diferentes y describieron los resultados de 45 experimentos y encuestas diferentes. Estos estudios incluyeron a 295 evaluadores que proporcionaron 11.737 resultados de 3.723 exámenes, incluidos 6.109 puntajes de 2.015 exámenes engañosos confirmados, 5.628 puntajes de 1.708 exámenes verídicos confirmados. Algunos de los casos fueron puntuados por múltiples puntajes y utilizando múltiples métodos TDA... Excluyendo los
tema de la exactitud de la técnica poligráfica; cuyo objetivo fue más allá de eliminar el uso de técnicas no estandarizadas, validadas o experimentales, pues en sí permitió implícitamente demostrar a la comunidad científica que la detección de la mentira con el uso de la técnica de la poligrafía, es un hecho real y posible. No obstante, si bien el problema de la exactitud podríamos decir que ha sido superado, ahora resta fundamentar en que constantes naturales o leyes científicas estamos confiando este descubrimiento diagnóstico. En el mismo sentido, en el 2003 la Academia Nacional de Ciencias de los Estados Unidos de América, en su documento, “El polígrafo y la detección de la mentira”, visualizó esta laguna de conocimiento dentro de su estructura teórica, pues en términos muy reductivos, dictaminó que su base teórica es bastante débil y que existe desconocimiento sobre los procesos que subyacen a las respuestas del polígrafo. Ante esto, es elemental señalar que toda ciencia fáctica alcanza el rigor científico solo en función de tres ejes torales: con estadística, metodología experimental y filosofía de la ciencia (McGuigan, 1983); postura que nos lleva a deducir que esta disciplina se ha enfocado fuertemente en robustecerse los dos primeros ejes, y se ha brindado poca atención, o restado importancia, a su componente filosófico. Capítulo en donde radica la respuesta nomológica (leyes científicas) que constituye el sustento más ulterior que explica la razón del resultados atípicos, las técnicas de preguntas de comparación destinadas a pruebas diagnósticas específicas de eventos (una sola emisión), en las que se supone que las varianzas de criterio de múltiples preguntas relevantes no son independientes, produjo una tasa de precisión de decisión agregada de .890 (.829 -. 951), con una tasa combinada no concluyente de .110 (.047 - .173). Las técnicas de PDD diseñadas para ser interpretadas con la suposición de independencia de la varianza de criterio de múltiples preguntas relevantes (múltiple-problema y -faceta) produjeron una tasa de precisión de decisión agregada de .850 (.773 - .926) con una tasa combinada no concluyente de .125 (.068 - .183). La combinación de todas las técnicas validadas de PDD, excluyendo resultados atípicos, produjo una precisión de decisión de .869 (.798 - .940) con una tasa no concluyente de .128 (.068 - .187). (APA, 2011)
hallazgo empírico de la detección de la mentira con uso de la ingeniería poligráfica. Ante este panorama, el presente estudio Epistemológico pretende dar respuesta y fundamentación radical a esta problemática que se padece fuertemente a nivel mundial en materia de poligrafía; en el que la evidencia teórica indica que el cuerpo disciplinario de la teoría poligráfica, actualmente disponible, carece de la enunciación de “Leyes Científicas” que describan la regularidad del comportamiento de su fenómeno de estudio (la detección mentira) sobre el que versa su ingeniería diagnóstica. Dicha aseveración se derivó de un profundo análisis comparativo epistemológico, entre los componentes de justificación científica la ciencia en particular –que establece la teoría de la ciencia-, con la teoría actual de la poligrafía, en donde se halló que carece explícitamente de este fundamento prístino y en general, de una Filosofía de la ciencia (Monge, 2011); misma, que resulta ser parte primordial del plan de estudio de toda disciplina científica, pues en este apartado radican los fundamentos primeros más básicos de una especialidad. De tal manera, que dicha afirmación adquiere tal relevancia, debido a que la Epistemología o Filosofía de la ciencia, sostiene que este componente básico e imperativo funge como una subestructura teórica que brinda fundamentación, confianza, sentido lógico y validez al resto de los conocimientos derivados (especulativos y aplicativos) de una doctrina en especial. Dicho en otras palabras, los diagnósticos, explicaciones, descripciones, pronósticos, argumentaciones, resultados, métodos e incluso tecnología, se soportan y constituyen a partir de estas constantes naturales empíricas. En este sentido, Monge (2011), reportó que la disciplina presentaba ausencia de una estructura teórica debidamente “sistematizada” y de la que era necesario e imperativo iniciar su ingeniería, debido a que esta cualidad, afirma Cegarra (2012), 125 125
resulta ser epistemológicamente uno de varios caracteres que distingue a la verdadera ciencia de la pseudociencia. De acuerdo con esto, varios investigadores y críticos de la materia han coincidido que el estado actual de la poligrafía aparenta ser “ateórica”(Monge, 2011; Krapohl, 2015; Palmatier & Rovnerc, 2015), pues en comparación con otras disciplinas científicas esta doctrina cuenta con un limitado marco epistemológico con conceptos básicos e introductorios que toda asignatura científica posee; como lo son: el objeto material y formal de estudio, finalidad, división teórica, tareas específicas, método científico y metodología especial; además, la situación que motivó el diseño de esta investigación, fue que esta especialidad no contaba con la enunciación expresa de Leyes Científicas dentro de su marco teórico, mismas que describieran la constante natural que rige al efecto de la detección de la mentira por medio su sistema de conocimientos aplicados. En el mismo orden de ideas, Krapohl (2015) nos comenta que el estigma de “ateórico” que persigue a la poligrafía, se debe a que su investigación y practica no están fundadas en un marco teórico, sino que se han planteado intentos de teorías que han pretendido elucidar los procesos que subyacen a la detección de la mentira; sin embargo, estas perspectivas explicativas, que en realidad son hipótesis – y no teorías en el sentido estricto-, no han podido axiomatizarse al grado que puedan consolidar una especie de “teoría de campo unificado”, debido a que cada una de ellas aborda desde posiciones individuales (no sistémico) las posibles causas de este efecto diagnóstico. Al respecto, Raskin y Barland, en 1973, resumieron cinco teorías que explican desde diferentes posturas cómo funciona la detección del engaño con el uso de la metodología de la poligrafía; no obstante, actualmente solo cuatro de ellas han llegado a situarse sobre la mesa del debate, sin llegar 126
a constituir completamente una “teoría” (Krapohl, 2015), debido a que se presentan como orientaciones de pensamiento independientes, sin llegar a integrarse en sinergia para explicar de forma integral el efecto diagnóstico de la mentira. Además, dichas aproximaciones presentan una serie de matices explicativos en el que unas se enfocan en un solo aspecto, otras toman una perspectiva distinta, una más pareciera ser una combinación de ambas. En concreto, estas perspectivas teóricas que explicaremos brevemente a continuación, resultan ser unilaterales, con una visión vertical, en el que al final de la discusión no logran integrar sus aciertos; asimismo, sus ópticas ideológicas limítrofes no logran fundamentar y explicar del porqué de cada una de las fases del procedimiento y del efecto diagnóstico que produce este. Sin embargo, convienen rescatar que estos supuestos fueron la inspiración incipiente de los primeros principios que hoy se postulan en este estudio. Veremos pues, que el constructo del Set Psicológico (SP)de Cleve Backster (Matte & Grove, 2001)., alude que en la determinación de la veracidad o mendacidad de una persona, con respecto a un tema relevante de evaluación, estará determinado por la “selectividad” en el que su atención y órganos de los sentidos se sintonizan hacia un estímulo (o tipos de estímulos) específico; pues según la teoría, puede ser tanto a preguntas relevantes (para el engaño), o comparativas (para la veracidad), aunque también sugiere que esta distinción y discriminación puede darse tanto en preguntas sintomáticas, como en relevantes de sacrificio. No obstante, como podemos apreciar, el set psicológico tiene como presupuesto básico la atención selectiva, condición psicobiológica que no es aplicable a la realidad, pues los estudios señalan que la atención cognitiva en un examen de polígrafo, donde los ítems se exponen de forma intermitente y consecutiva, no se focaliza a un estímulo particular, sino más bien, atiende a cada
uno de los estímulos que comprenden al formato de prueba, mediante la modulación de un mecanismo atencional alternante y sostenido (Monge, 2016). Por su parte, la hipótesis, Gravedad del Asunto Relevante (GAR) del Dr. Avital Ginton (2009), propone que la fuerza de atracción de la atención del examinado mendaz a las preguntas relevantes, está en virtud de las cualidades semánticas y conceptuales de este estimulo, mismas que tienen la propiedad de captar y atraer la atención del examinado culpable, desvinculándose atencionalmente de los asuntos comparativos que no son significativos para él; puesto que, cuanto mayor sea la preocupación del sujeto a los temas de investigación, mayor es la captura de atención a estos ítems. Como consecuencia, al examinado inocente, al no tener vínculo asociativo con el contenido de la pregunta relevante, le resulta más fácilmente desprenderse del asunto de investigación para virar su atención a los asuntos comparativos. Como podemos apreciar esta explicación resulta ser muy limitada a los mecanismos atenciones que realmente dominan durante un examen de polígrafo, pues deja a relucir que la selectividad atentiva tradicional (al igual que la teoría del set psicológico) es quien toma el control de la determinación de una persona veraz y mendaz; situación que actualmente las neurociencias nos han explicado que es un estado atentivo falso durante el intest de polígrafo. Por tal motivo, podemos deducir que esta orientación explicativa no satisface la complejidad de los factores cognitivos – emocionales que influyen en la decantación diagnostica. Un año después de la postulación del enfoque GAR, surge una nueva orientación denominada Saliencia Diferencial (SD), postura hipotética que se plantea en contra de las aproximaciones “selectivas” de SP y GAR, con la cual parece ser que la poligrafía comienza a ver la luz (Senter, Weatherman, Krapohl & Horvath, 2010); pues el
constructo elucide que no existe una “selección” atencional, ni organoléptica, para uno u otro tipo de estímulo en el examen de prueba, debido a que la evidencia sugiere que el efecto fisiológico responsivo está presente de forma regular en todos y cada uno de los estímulos, y no como un mecanismo operante selectivo como lo proponen las nociones anteriores. Por tanto, el fenómeno de Saliencia Diferencial se puede definir como un mecanismo mental (generalmente no consiente) en que el sistema cognitivo-emocional de la persona, atiende y asigna distintos grados y matices de significancia psicología14 a los estímulos expuestos en el ambiente (controlado o natural), con el objetivo de explorar y evaluar el medio que lo rodea para procurar la supervivencia y adaptación. Dichas variaciones en la prominencia mental desplegada a los estímulos ambientales, facilita al sujeto la toma de decisiones para identificar por ejemplo riesgos o desplegar un curso de acción pertinente según las demandas del ambiente o tareas encomendadas. De esta manera, en un ambiente ecológico, la mente, efectúa una especie de mecanismo de evaluación panorámico sobre el radio de interacción y dominio para establecer saliencia diferencial sobre los distintos estímulos presentes a su alrededor, y poder así, priorizar las necesidades atentivas. Sin embargo, en las condiciones de laboratorio en las que se efectúa la evaluación poligráfica, el comportamiento de la mente al efectuar saliencia diferencial (variación en la significancia psicológica) sobre los distintos ítems, se provoca La significancia psicológica puede entenderse como el resultado del proceso perceptivo mediante el cual se asigna un significado, valor o sentido lógico a las sensaciones estimulantes percibidas en el ambiente. Dichas etiquetas con las que se califican a los estímulos, surgen a partir de experiencia previas, o , ausencia de ellas, con las que se forman las impresiones consientes de la realidad física del entorno, permitiendo establecer modelos mentales (también llamados filtros, mapas o set mental) que llegan a tener un efecto condicionado en la persona que determina en gran medida lo que se piensa y se siente de los objetos, personas o sucesos; tan es así, que el significado psicológico de los eventos estimulantes suelen tener un componente lógico (como amenazantes, importante, novedoso, sorprendente, inesperado, familiar, complicado) y afectivo (emoción).
14
127 127
de forma inteligente y controlada, y no espontánea como en el medio natural; tan es así, que los estímulos son expuestos de forma intermitente y durante un lapso de tiempo corto, puesto que durante estas ventanas de atención externa e interna (estimulo-respuesta-recuerdo) el examinado evalúa y reconoce cognitivamente la imagen gráfica y fonética de la pregunta para vincularla (o no) a un recuerdo imagenológico y así, asignarle simultáneamente un significado lógico y afectivo (experiencia subjetiva y consiente de la emoción) que parece diferenciar de estímulo en estimulo durante la secuencia del gráfico. Dicha distribución y concentración de la energía mental puede verse reflejada en el nivel del esfuerzo fisiológico de las respuestas fásicas procedentes de las preguntas estímulos; pues existe evidencia, dentro de los “límites de normalidad”, que el grado de saliencia diferencial que ejerce la mente sobre las preguntas de prueba, es un proceso cognitivo intensamente relacionado con la fuerza de reacción fisiológica. (Krapohl, Handler & Sturm, 2012; Senter, Weatherman, Krapohl & Horvath, 2010) De esta forma, la prominencia en la responsividad fisiológica es el parámetro para establecer probabilísticamente qué tema de evaluación (comparativo o relevantes) le es más significativo al examinado, permitiendo estimar en última instancia, su estado de mendacidad o veracidad respecto al tema diana. Por lo tanto, como se puede apreciar inteligiblemente, el concepto de SD no solo está dominado por el factor emocional, sino también por un complejo de procesos neurocognitivos (sensación, percepción, atención y memoria) y de aprendizaje por condicionamiento que subyacen a estas variaciones de responsivas; por ello, es necesario que este constructo se amplié e incorporé a una teoría neurocientifica sólida, que hasta hoy en día parece ser que la Teoría de los Proce128
sos Preliminares (TPP) del Dr. Robert Barry promete consolidar un modelo neuropsicofisológico de la poligrafía que explique de forma sistémica los fenómenos que están detrás del proceso de “caja de negra” de la detección psicofisiológica del engaño. En este sentido, Palmatier y Rovner (2015) han impulsado la incorporación de este sistema teórico a la poligrafía, mismo que es originado en la Psicofisiológia Clínica y que fue influenciado fuertemente por las aportaciones del Dr. Barry (1996), quien en un inicio desarrolló este explanans para describir los procesos neurocognitivos previos al surgimiento de la respuesta de orientación, tomando como base el estudio de las reacciones fisiológicas fásicas; lo cual, resulta similar al efecto producido en el sujeto de prueba cuando está expuesto a los estímulos de forma orientada, especifica y controlada; pues los procesos neurológicos, cognitivos y emocionales en estos contextos psicológicos parecen compartir el mismo circuito biológico. De tal suerte, que, si existe una teoría de los procesos preliminares a la respuesta de orientación, sumamente explorada y aceptada por la comunidad neurocientifica, es posible en un futuro cercano, tomar como eje este diseño teórico para consolidar una teoría de los procesos preliminares a la detección psicofisiológica de la mentira. Como conclusión a las anteriores perspectivas, la única que cumple estrictamente con los alcances de una verdadera “teoría”, es justamente la TPP, pues a pesar de que el SP, GAR Y SD se presentan en diversas disertaciones poligráficas con el grado de teoría, en la taxonomía epistémica solo se trata de “hipótesis”; pues es importante recordar que una teoría “es una proposición que articula orgánicamente diversas leyes y conceptos con el objeto de explicar y predecir, en la medida de lo posible, determinados fenómenos que se presentan en una parcela de la realidad objetiva.” (Rojas, 2002)
Coincidentemente, Happel (2005) comparte que los medios para detectar el engaño, incluyendo la poligrafía, requieren avances conceptuales sustanciales en la ciencia del engaño, en particular, en el establecimiento de una “base teórica” sobre la cual se debe fundamentar dicho sistema, enfatizando que la “Neurociencia” y los campos relacionados a ella, pueden hacer contribuciones significativas al desarrollo de una teoría del engaño. De tal forma, que la denominada TPP es el único de los diseños explicativos que se encuentra fundamentada por un conjunto de conceptos y “leyes científicas generales15” propias de la Teoría Cognitiva, Teoría Emocional y Teoría Conductual, que coincidentemente resultan ser las mismas corrientes que hoy en día se están recurriendo en poligrafía para elucidar los procesos que influyen en la detección factible del engaño. Situación que nos lleva a opinar que este andamiaje parece ser el idóneo para acoger a las leyes científicas de la poligrafía (leyes especiales) que en este trabajo de investigación se promulgan, debido a que la naturaleza de estos postulados son de carácter cognoscitivo, emocional, fisiológico, conductual y estadístico; mismos, que insistentemente cabe aclarar, no fueron creados, ni mucho menos presentados como una panacea, sino más bien, fueron develados, puestos de manifiesto a los ojos de la razón, pues yacían en estado tácito en las entrañas mecanicistas de la ingeniería metodológica de la técnica, y del que más de uno de ellos, ya Los fenómenos de estudio que originan y ocupan a las ciencias especiales se encuentran regidos por leyes naturales particulares que gobiernan -dentro de los límites de normalidad- el comportamiento de ese fenómeno, pues a partir de estas regularidades se puede predecir, diagnosticar, explicar o controlar entidades similares; no obstante, existen leyes de la naturaleza que son aún más generales, pues su influencia sobre estos fenómenos especiales es indirecta y determinante; de aquí, que las leyes científicas están concebidas como un “sistema” natural, como se denota en el siguiente ejemplo: En la medicina, el fenómeno de la respiración está regulado fundamentalmente por estructuras neurales universalmente verificadas (leyes científicas), como son la protuberancia y el bulbo raquídeo del tallo cerebral; sin embargo, las Leyes físicas de los gases, como la ley de Boyle, de Charles, de Henri y de Avogadro influyen fuertemente en el cumplimiento de dicho proceso vital.
15
habían sido mencionados implícitamente en diversas disertaciones poligráficas, pero sin llegar a visualizarlos con el valor y estatus epistemológico que representan. Otras disertaciones revisadas en el curso de esta investigación, consideradas referentes en el tema de las Bases científicas de la poligrafía, mostraron que en su contenido no tratan los fundamentos prístinos o primeras bases científicas a las que hace alusión el tema neural de esta tesis, pues para los críticos más exigentes de la poligrafía, estos estudios resultan no satisfactorios para suplir el carácter de ciencia que demanda la técnica. Por ejemplo, Nelson (2016), en su artículo, bases científicas de la evaluación poligráfica, desarrolla este tema en torno a una mera descripción de todo el proceso que comprende la evaluación poligráfica, utilizando tecnicismos formales para explicar cada operación y procedimientos empleados místicamente por el examinador. También, trastoca temas estadísticos referentes a la exactitud de la técnica y algunas bases fisiológicas y psicológicas que fundamentan la detección de la mentira; pero en esencia, deja de lado componentes imprescindibles para toda filosofía de la ciencia en especial, las leyes científicas. Otro documento ejemplar sobre este tópico, y del que es imprescindible mencionar, es el realizado por Krapohl (2013): Una revisión bibliográfica de los principios de la poligrafía; mismo en el que se hace alusión a 20 premisas que han dejado huella en la teoría y práctica de la poligrafía. Dichas bases, recopiladas de diversos estudios, pretenden guiar al examinador profesional a dirigir sus evaluaciones con ética, técnica y cientificidad. No obstante, la esencia de estos principios, obedecen a reglas y recomendaciones técnicas respaldas en investigaciones, pero que al igual no están dedicados a los primeros principios de una ciencia (que no son reglas o recomendaciones técnicas), las leyes científicas. 129 129
A pesar de ello, las publicaciones de Nelson y Krapohl, hacen mención extraordinaria, a uno de los axiomas de la poligrafía que en esta tesis se postula, y que fue la chispa incipiente de razón para deducir el aquí denominado, principio de potencial de diferencial. Mismo, que se encuentra enlistado en la monografía de Krapohl con el número 4, y que lo enuncia de la siguiente manera: “En promedio, los examinados que mienten reaccionan más fuerte a las preguntas Relevantes de lo que los examinados veraces reaccionan a las preguntas comparativas.” (Krapohl, 2013, p. 31) En cuanto a Nelson (2016), él lo describe de la siguiente manera: “Los examinados engañosos generalmente exhiben mayor magnitud de cambio en la actividad autónoma en respuesta a estímulos relevantes que a los estímulos de comparación, mientras que los examinados veraces exhibirán generalmente mayor magnitud de cambio a estímulos de comparación que a los estímulos relevantes…” (p. 74) Por otro lado, la obra de Shurany y Gordon (2016), de epígrafe: La entrevista de pre-test; la base de la poligrafía, sugiere ser en una primera aproximación, un libro que presenta los fundamentos radicales donde se cimienta la poligrafía; empero, en su desarrollo argumentativo muestra una temática basada en la descripción de las distintas operaciones llevadas a cabo durante la fase del pre-test de la evaluación poligrafía, aportando una serie de consejerías basadas en la expertiz de los autores para abordar cada una de las operaciones que comprende esta etapa del examen. También, agregan al final un conjunto de formatos que recomiendan emplear durante esta fase. Luego entonces, las expectativas de encontrar fundamentos científicos de la poligrafía terminan siendo muy lejana; sin embargo, la aportación termina siendo muy enriquecedora. En contraste, Nathan Gordon (2017), en una autoría individual, desarrolla su libro, Essentials of 130
Polygraph and Polygraph Testing, sobre una logística de antecedentes históricos, reglas para formular preguntas, generalidades de instrumentación, una noción breve de psicofisiológica, algunos formatos de técnicas y ética poligráfica; sin embargo, no se aprecia un capitular relacionado sobre los principios supremos de la disciplina poligráfica donde fundamente su actuar práctico. Un título más que fue consultado en aras de hallar antecedentes documentales sobre el tema de los postulados de poligrafía, fue la obra: Handbook of Polygraph Testing de Murray Kleiner (2002), mismo que funge como coordinador de la misma, pues esta bibliografía está integrada por una serie de disertaciones científicas de temas especializados, pero donde también se ausenta el tema de interés para esta investigación. Por su parte, Tuvya T. Amsel (2014), en su libro: Practicing Polygraph: Best Practice Guide, aborda el tema de las “bases de la detección del engaño” desde una óptica tradicional con el set psicológico y el temor a ser descubierto; sin embargo, visualiza la importancia de trastocar el tema de los primeros fundamentos de una formar preliminar, pues posterior a este apartado medular se desarrolla una serie de temáticas de muy fino toque técnico, de los cuales, sin el preámbulo de la fundamentación, no sería posible su credibilidad técnica. Finalmente, la última bibliografía consultada en aras de hallar antecedentes sobre algún de tipo de disertación encaminada a enunciar los principios o leyes de la naturaleza de la detección de la mentira, fue Scientific Validity of Polygraph Testing: A Research Review and Evaluation (1983) de la Oficina de Evaluación de Tecnología del Congreso de los Estados Unidos. Documento científico donde se vierte este tema bajo el rubro de “teoría del polígrafo”. Dicho apartado se desarrolla desde una orientación igualmente tradicionalista, basada en la idea superada de que cuando una
persona se examina, teme a la detección, y ese miedo genera una reacción fisiológica medible cuando dicha persona responde engañosamente. En suma, es alentador mencionar que, en ninguna de las disertaciones anteriormente revisadas y consideradas posiblemente como hitos en la referencia bibliográfica sobre el asunto de las bases científicas de la poligrafía, se encontró documentado tema alguno que conciba “específicamente” el componente epistémico de fundamentación más superior de toda ciencia, las “leyes científicas”. Situación, que resulta interesante porque permite confirmar la hipótesis de ausencia teórica de este elemento epistemológico dentro de la teoría de la poligrafía actualmente disponible; misma que fue el motor que motivó el diseño de este estudio científico-filosófico y que muy probablemente dejará huella en la historia de esta ciencia después de haber comprendido la trascendencia de los enunciados nomológicos aquí planteados. En definitiva, la evidencia racional nos lleva a deducir que la ingeniería metodológica de la poligrafía descansa sobre un sistema de leyes de naturaleza neuropsicofisiológicas y estadísticas, abarcando aspectos de carácter cognitivo, emocional, fisiológico, de condicionamiento por aprendizaje y de la toma de decisiones racionales por frecuencia estadística. A saber, las Leyes que se dedujeron son: 1. Principio de Identidad Mnésico-Mental 2. Principio del pensamiento dirigido. 3. Principio de identificación Mnésico – mental. 4. Principio de potencial de diferencial. 5.
Principio de significancia estadística.
Estas reglas nomológicas no son absolutas e invariables, pues como todas las leyes de la naturaleza (de cualquier sector de la ciencia en gene-
ral) actúan dentro de los límites de normalidad; las aparentes contradicciones o inconsistencias del no cumplimiento del axioma se encuentran contempladas como excepciones a la regla, dado que dichos límites de actuación están acotados por una ley negativa ( o varias) que se opone a la regularidad del fenómeno natural descubierto y verificado empíricamente con antelación investigativa. Finalmente, la naturaleza está dotada de leyes positivas y negativas que buscan siempre un equilibrio. Ante esto es importante tener en cuenta que los postulados que impulsa la presente lección, no deben considerarse como la última palabra, debido a que son una primera aproximación a este marco teórico ausente en la teoría de la poligrafía, pues está claro que ningún estudio por sí solo, o investigador conspicuo, puede poseer la verdad absoluta. Aquí es necesario que investigaciones futuras puedan validar, robustecer o reformular los primeros principios aquí promulgados, para entonces poder tener una sub estructura teórico - filosófica mucho más firme en donde los poligrafistas puedan tener certeza y confianza de sus diagnósticos. Tan es así, que el hecho de eliminar el paradigma de “caja negra” que actualmente persigue como estigma a la poligrafía, por haber tenido en la obscuridad las leyes que rigen su metodología diagnóstica, generará colateralmente un estado de certidumbre tanto en el escrutinio científico, como en sus adeptos. Esto es, que los postulados tendrán implicaciones importantes en la fundamentación científica de los diagnósticos técnicos, pues la presencia documental de estas regularidades nomológicas permitirán al técnico poligrafista tener mayor rigor y seguridad científica en sus opiniones técnicas, y a su vez, hacer frente ante cualquier debate donde se tenga que argumentar la cientificidad de la disciplina y del diagnóstico; lo cual, permitirá que la 131 131
poligrafía goce de plenitud teórica sobre los tres ejes rectores que demuestran el carácter científico de cualquier rama fáctica del saber humano: la estadística, metodología experimental y filosofía de la ciencia. Este último, capítulo donde se concentran las leyes científicas. Como bien afirma Hempel (2005), las hipótesis de forma universal o leyes generales, constituyen la base común de diversos procedimientos propios de las ciencias (p.307); las cuales se encuentran provistas de variopintas operaciones para la lograr cumplimentación de sus procesos técnicos. Dichas prácticas técnicas están diseñadas sobre las directrices de las leyes naturales que rigen al fenómeno específico de su competencia; lo cual quiere decir, que el proceder técnico de los profesionales para realizar sus tareas y cumplir sus objetivos, no son ejecutados por creatividad, ocurrencia o causalidad; son actuaciones procedimentales debidamente diseñadas a las leyes científicas del fenómeno de su intervención. Para esto, pensemos por un momento en el proceder de un paramédico al realizar maniobras de reanimación cardiopulmonar. Empíricamente está comprobado que es posible mantener por unos minutos la vida del cerebro y de los tejidos después de un paro cardiorrespiratorio, a partir de oxigenar artificialmente la sangre y hacerla circular por los pulmones, cerebro y tejidos. Lo cual llevan a cabo los profesionales presionando el tórax para oprimir los vasos sanguíneos (como esponja) y hacer posible que la sangre pueda circular. Con lo que respecta, a la insuflación se realiza para intentar introducir oxígeno a los pulmones y que estos puedan oxigenar la sangre que se hace circular dentro de ellos. (Reyes, Aristizábal & Leal; 2006). Ejemplos como estos abundan en la ciencia fáctica; no obstante, un notable símil es la técnica que emplea un científico forense en accidentología vial para determinar la velocidad de un vehículo 132
de motor por medio de la medición lineal de la huella de fricción de neumático y de la aplicación de una ecuación matemática, en donde el valor de la longitud de la huella de frenada cobra absoluta relevancia. En un primer vistazo, esto parecería muy aventurado e increíble, pero el protocolo de actuación está fundamentado en la “ley de la conservación de la energía” que explica, que, “la energía no se pierde ni se destruye únicamente se trasforma, lo cual, nos permite establecer que la energía de movimiento del vehículo se convirtió en un trabajo de frenado, realizado por el sistema mecánico de frenos al bloquear los neumáticos, aprovechando las fuerzas de fricción que se presentaban entre la superficie de rodamiento y el neumático, permitiendo detener el vehículo después de dejar impresa la huella.” (Hernández, 2008, p.206) Lo anterior permite comprender las palabras de Hempel, pues en definitiva todos los procesos técnicos de actuación de las ciencias fácticas, incluyendo especialmente a la poligrafía, están diseñados sobre regularidades empíricas universalmente comprobados. De tal forma, que el sistema de leyes de la poligrafía que en este trabajo se postulan, fundamentan la razón del porqué de cada una de las operaciones que se ejecutan durante las fases del pre-test, in-test y análisis e interpretación de datos; mismas que hacen factible que la detección de la mentira por medio de la metodología de la poligrafía sea una realidad. Por otra parte, sería recomendable que estudios posteriores se enfoquen en realizar estadística dentro de la comunidad epistémica poligráfica sobre la confirmación, rectificación o no reconocimiento de cada uno de estos principios, pues solo de esta manera, estos postulados científicofilosóficos alcanzaran objetivamente la propiedad de “universales”. Lo anterior, se encuentra en razón a la naturaleza propia del tema de estudio –que es filosófico-, debido a que, si se tratara de una tesis empírica, el arbitraje solo se reduciría
en reproducir la formula científica que el autor publica. Por otra parte, es necesario realizar estudios paralelos para verificar si estas leyes de la detección poligráfica de la mentira tienen aplicabilidad y relación constante con el fenómeno de la detección de la mentira en general, incluyendo a otros sistemas y protocolos de detección; aunque aventuradamente el autor guarda cautelosamente cierta afirmación para esta universalidad.
más primitivo que permite conocer el comportamiento más o menos estable del fenómeno de estudio; pues a partir de estas regularidades de la naturaleza, el científico que aplica la ciencia, puede establecer diagnósticos, explicaciones, predicciones, tratamientos, procedimientos técnicos, teorías y desarrollar artefactos tecnológicos. Dicha unidad fundamental del conocimiento científico se conoce como, “Ley Científica”.
Finalmente, como se mencionó en supralíneas, una de las principales limitaciones de este estudio se ve reflejado en su naturaleza epistemológica misma, debido a que el tema de las “leyes científicas”, en general, es una concepción teórico - empírica que no es perceptible, sino cognoscible; es decir, que la comprensión de estas directrices constantes y regulares de la naturaleza, de la mente y de la sociedad, no son posibles a nivel sensible (de lo individual), sino inteligible (para lo general). De aquí, que uno de los principales inconvenientes, es que solo los expertos en poligrafía podrán comprender las regularidades que rigen el fenómeno de la detección poligráfica de la mentira; de tal manera, que personas legos en la materia o ajenos totalmente, necesitarán de la asistencia de un profesional para una interpretación correcta.
Este estudio permitió tener claro que la teoría de la poligrafía, actualmente disponible, se encuentra en un estado precario con respecto a su campo de fundamentación Epistemológico, debido a que ha presentado mayores avances de investigación en el sector Estadístico y Metodológico Experimental; situación que ha dejado en evidencia que su teoría carecía de la enunciación explicita y específica de leyes científicas que describieran aquellas regularidades naturales que intervienen en el proceso del diagnóstico poligráfico de la mentira.
Conclusión En un primer plano, esta tesis ha permitido dimensionar lo toral y trascendencia de la Filosofía de la ciencia (también llamada Epistemología) en las disciplinas fácticas y formales, y en especial, de la Poligrafía; suele estar presente en todos los campos verdaderamente científicos en forma de una sub-estructura teórica donde se cimienta regularmente la teoría técnica y especulativa; en ella, radican las bases de donde se erige y fundamentan los conocimientos derivados y más complejos de una ciencia en especial. Además, en esta teoría epistemológica subyace el fundamento empírico
Para obtener esta aproximación, la investigación fue basada en el método filosófico experimentalracional, y consistió básicamente en develar los principios naturales neuropsicofisológicos y estadísticos que han estado inmersos implícitamente en la ingeniería metodológica de la poligrafía; de ahí, que la comunidad epistémica poligráfica a pesar de que ha podido comprobar con evidencia empírica que su metodológica diagnóstica funciona –con sus respectivos márgenes de error-, no ha logrado explicar al escrutinio científico del porqué. Justamente, esta investigación pretende suplir dicha laguna teórica con los primeros principios que aquí se postulan, pues la única forma de disipar dicha incógnita, radica en la Teoría de la Ciencia (Epistemología), y en especial, en ciertas leyes de la naturaleza humana, fisiológicas y de la mente, que están inmersas tácitamente en el proceso de la detección poligráfica de la mentira. En definitiva, los resultados del estudio sugieren que la ingeniería metodológica de la poligrafía 133 133
ha descansado sobre un sistema de leyes de carácter cognitivo, emocional, fisiológico, de condicionamiento por aprendizaje y de la toma de decisiones racionales. Dichos postulados –como se mencionó en supralíneas- no son nuevos, ni mucho menos fueron creados; son leyes naturales que fueron puestas a la luz dentro del mecanicismo metodológico donde yacían, y que incluso, es importante mencionar, que han sido enunciadas y estudiadas con antelación en otras materias del saber humano, como lo son la filosofía de la mente, las neurociencias experimentales, la estadística y la propia psicofisiología clínica; sin embargo, considerando que la ciencia en general y sus leyes universales conforman un sistema de equilibrio e interrelación global, estas pueden intervenir en varios fenómenos naturales. Por tal motivo, dado el contexto psicológico de la tarea de detectar el engaño en un examen de poligrafía, estos axiomas confluyen adminiculosamente y toman relevancia en el proceso poligráfico para hacer factible la identificación probabilística de la mendacidad. A saber, las hipótesis universales son: 1. Principio de identidad mnésico-mental 2. Principio del pensamiento dirigido. 3. Principio de identificación mnésico – mental. 4. Principio de potencial de diferencial. 5. Principio de significancia estadística.
134
Cabe mencionar que lector podrá apreciar durante el estudio de estas premisas, que estas reflejaran una sistematización acorde a cada fase de la evaluación poligráfica; de tal forma, que cada principio explica y fundamenta el porqué de cada procedimiento que integra la metodología poligráfica. Pues cabe recordar que todas las fases procedimentales que integran una técnica científica, están cimentada sobre constantes naturales más o menos estables. Así mismo, es importante advertir que estas leyes – como cualquier otra de carácter científico- no pretenden mostrarse como absolutas o todo poderosas, debido a que estas operan dentro de ciertos “límites de normalidad, en donde las aparentes contradicciones, o no cumplimiento de la ley, dará lugar a las acepciones a la regla. En suma, esta obra no pretende mostrarse como la última palabra, sino como una primera aproximación y en definitiva, son necesarios estudios posteriores de carácter epistemológico para confirmarlos, sustituirlos o reformarlos, pero que sin duda, son un buen inicio para construir la filosofía de la ciencia de la poligrafía. Finalmente, sería recomendable que futuras investigaciones analicen las leyes de la poligrafía para verificar si su aplicabilidad se da igualmente en el fenómeno de la detección de la mentira en general, sin importar la técnica, sistema o procedimiento de detección. Situación de la que el autor visualiza un buen augurio.
Referencias Abrams, S. (1973). Polygraph validity and reliability: A review. Journal of forensics sciences, 18, 313-326. Abrams, S. (1977). A polygraph handbook for attorneys. Lexington, MA: Lexington Books. Abrams, S. (1989). The complete polygraph handbook. Lexington, MA: Lexington Books. Aguado, A. L. (2005). Emoción, afecto y motivación: Un enfoque de procesos. Madrid. Alianza editorial. Alonso, G. J. I. (2007). Psicología. México. McGraw-Hill Interamericana. Ambriz, V. J. J. (2006). Filosofa de la ciencia: teoría y práctica para la formación del hábito científico. México. Editorial folia universitaria. American polygraph association. (2011 a). By laws: American Polygraph associatión, effective 1-1-2012. Retrieved january 6, 2012. Amsel, T.T. (2017). Practicing Polygraph: Best Practice Guide. USA. © Tuvya T. Amsel, PhD. All rights reserved. Anastasi, A. U. S. (1998). Tests psicológicos. México. Prentice-Hall. Andrade – Lotero, L. L. A. (2012). Teoría de la carga cognitiva, diseño multimedia y aprendizaje: un estado del arte. Magis, Revista internacional de investigación en Educación, 5 (10), 75-92.
Ansley, N. (1990). Law notes: Civil and criminal cases. Polygraph, 19, 72-102. Antón, B. F. & de Luis, T. J. V. (1998). Manual de técnica policial. España. 2 ed. Editorial tirant lo Blanch. Antón, B. F. & de Luis, T. J. V. (2004). Policía científica. México. 3 ed. V1. Editorial tirant lo Blanch. Arriaga, T. (2006). El estudio científico de la dactiloscopia. México. Editorial limusa. Avalos, G. M. A., et al. (2004). Metodología de las ciencias. México. Umbral editorial. Ávila, B.H.L. (2006). Introducción a la metodología de la investigación. México. Editorial Eumed.net Barco, G. C. (2004). Elementos de lógica. Colombia. Editorial universidad de Caldas. Baron, R. A. (1997). Fundamentos de psicología. México. 3ed. Prentice-Hall Hispanoamericana, S. A. Barry, R.J. (1996). Preliminary process theory: towards an integrated account of the psychophysiology of cognitive processes. Acta Neurobiol. Exp. 1 (56) 469-484. Recuperado de https://www.ncbi.nlm.nih.gov/pubmed/8787208 Bates, R. B. (1986). Towards a Philosophy of Polygraph Science: Accepted Standards of the Polygraph Profession. Polygraph, 15 (4), 271275.
Andrés, M. Y. (2014). Filosofía existencial para terapeutas y uno que otro curioso. México. Ediciones Lag.
Bellón, J. M. (15/12/2008). Significación estadística y significación clínica. [Entrada de blog]. Recuperado de http://www.epidemiologiamolecular.com/significación-estadistica-significación-clinica/
Ansley, N. (1983). A compendium on Polygraph validity. Polygraph, 12, 53-61.
Bernal, T. C. A. (2006). Metodología de la investigación: para administración, economía, 135 135
humanidades. 2ª ed. México. Pearson Educación. Bezanilla, J. M., Miranda, M. A. (2014). Socionomia familiar: una mirada compleja. México. PEI editorial. Blandón, I. G., López, R. M., Masip, J. & Fenn, E. (2017). Cognición, emoción y mentira: implicaciones para detectar el engaño. Anuario de psicología jurídica. 27 (2017) 95-106. Doi: 10.1016/j.apj.2017.02.004 Bobadilla, R. P. (2016). Manual de investigación criminal: una perspectiva de la evidencia. España. Editorial Tirant lo Blanch. Broncado, F. (Coord.)., Rabossi, E., García, C. M., Quesada, D., Ezquerro, J., Corbí, J… Villanueva, E. (1995). La mente humana. Madrid, España. Editorial Trotta.
Chalmers, A. F. (2015). ¿Qué es esa cosa llamada ciencia?: Una valoración de la naturaleza y el estudio de la ciencia y sus métodos. México. 28 ed. Siglo Veintiuno editores. Chávez, C. P. (2014). Compendio de lógica. México. Grupo editorial patria. De Llano, C. (1994). Física. México. Editorial progreso. De Paulo, B. (2015). Cómo y porqué mentimos. EUA. Babelcube, Inc. Di Castro, S. E. (Coord.). (2006). Conocimientos fundamentales de filosofía. México. McGRAW-hILL / Interamericana editores.
Bunge, M. (1959). La ciencia: Su método y su filosofía. Colombia. Nueva gráfica, S, de R. L.
Díaz, N. V. P. (2009). Metodología de la investigación científica y bioestadística: para médicos, odontólogos y estudiantes de ciencia de la salud. 2ª ed. Santiago de Chile. RIL editores.
Bunge, M. (2004). Epistemología. Barcelona. Siglo veintiuno editores.
Edmond, L. (1934). Manuel de technique policiere. 2 ed. Paris. Payot.
Bunge, M. [exactas.uba.] (2010, Marzo 22). ¿Para qué sirve la epistemología? [Archivo de video] Recuperado de https://vimeo.com/19986457
Emerick, R. (2016). Afirmación del alma: una nueva concepción del alma humana para una mejor salud mental. EUA. Rose dog book store.
Burón, O.J. (2003). Psicología médico-forense. La investigación del delito. España. Editorial Desclée De Brouwer, S.A. Castellano, C., Pérez, J. M. A. & Attie, F. (2004). Electrocardiografía clínica. España. 2 ed. Editorial Elsevier. Cegarra, S. J. (2012). La ciencia. Metodología de la investigación científica y tecnológica (pp. 1-18). Madrid, España: Ediciones Díaz de Santos. Chavarría, M. C. (1985). Desarrollo y atención del niño de 7 a 12 años. San José, Costa Rica. Editorial universidad estatal a distancia. 136
Fernández, E. (2011). Revista digital de medicina psicosomática y psicoterapia. Identidad y personalidad: o como sabemos que somos diferentes de los demás, 2 (4), 1-18. Recuperado de http://www.psicociencias.com/pdf_noticias/Identidad_y_personalidad.pdf Fernández, E., García, B., Jiménez, M., Martín, M., & Domínguez, F. (2013). Psicología de emoción. España. Editorial universitaria Ramón Areces. Fontes, de G. S., García, G. C., Quintanilla, C. L., Rodríguez, F. R., Rubio, de L. P. & Sarriá, S.
E. (2015). Fundamentos de investigación en psicológica. Madrid. Universidad Nacional de Educación a Distancia. Franz, M. L. (1988). Relative contributions of physiological recordings to detect deception. Technical report contract #MDA90488-M-6612. Argenbright polygraph, Inc.: Atlanta, GA. Gálvez, B. C. (1960). Lógica. México. Secretaria de Educación Pública. Gálvez, B. C. (1960). Lógica. México. Secretaria de Educación Pública. Garrido, G. I. (2009). Piscología de la emoción. España. Editorial síntesis. Gento, P. S. (Coord.) & Gunter, H. (2012). La investigación en el tratamiento educativo de la diversidad. España. Universidad nacional de educación a distancia. Giancoli, C. D. (2006). Física: Principios con aplicaciones. 6 ed. México. Pearson Educación. Ginton, A. (2009). Relevant Issue Gravity (RIG) Strength – a New Concept in PDD that Reframes the Notion of Psychological Set and the Role of Attention in CQT Polygraph Examinations. Polygraph. 38(3) 204-217. Gordon, N. J. (2017). Essentials of Polygraph and Polygraph Testing. USA. CRC Press Taylor & Francis Group. Gougler, M. et al. (2011). Meta-Analytic Survey of Criterion Accuracy of Validated Polygraph Techniques. Polygraph, 40(4), 193-305. Gutiérrez, S. R. (1990). Introducción al método científico. México. Editorial esfinge. Gutiérrez, S. R. (1993). Introducción a la Lógica. México. Editorial Esfinge.
Happel, M. D. (2005). Neuroscience and the Detection of Deception. Review of Policy Research. 22 (5) 667–685. DOI: 10.1111/ j.1541-1338.2005. 00166.x Hartwig, M. & Bond, Jr. C. F. (2014). Lie Detection from Multiple Cues: A Meta-analysis. Applied Cognitive Psychology, Appl. Cognit. Psychol. 28 (2014) 661–676. DOI: 10.1002/acp.3052 Hempel, C. G. (2005). La explicación científica: Estudios sobre la filosofía de la ciencia. España. Editorial Paidós. Hernández, M. J. M. (2008). Los accidentes de tráfico: manual básico de investigación de hechos de tránsito terrestre 2. México. Criminalistica.com.mx Hewitt, P. G. (1999). Física conceptual. México. Addison Wesley Longman. Khan, J., Nelson, R. & Handler, M. (2009). An Exploration of Emotion and Cognition during Polygraph Testing. Polygraph, 2009, 38 (3). Recuperado de https://pdfs.semanticscholar. org/24f0/508d8a404731ddfaf55d87fbd859b 5229de1.pdf Kircher, J. C., & Raskin, D. C. (1988). Human versus computerized evaluations of polygraph data in a laboratory setting. Joumal of applied psychology, 73 (2), 291-302. Kleiner, M. (2002). Handbook of Polygraph Testing. USA. Academic Press. Krapohl, D. J. & Shaw, P. k. (2015). Fundamentals of Polygraph Practice. USA. Elsevier. Krapohl, D. J. (2013). Una revisión bibliográfica de los principios de la poligrafía. Revista: El poligrafista internacional de la Asociación Latinoamericana de Poligrafía. (9), 27-58. 137 137
Krapohl, D. J., & McManus, B. (1999). An objective method for manually scoring polygraph data. Polygraph, 28(3), 2’
Matte, J.A. & Grove, R.N. (2001). Psychological set: its origin, theory and application. Polygraph. 30 (3) 196–202.
Krapohl, D., Handler, M. & Sturm, S. (2012). Referencia de terminología para la ciencia de la detección psicofisiológica del engaño (PDD). 3ª ed. Recuperado de file:///C:/Users/24170/ AppData/Local/Temp/spanish%20terminology%20reference.pdf
McGuigan, F. J. (1983). Psicología experimental: enfoque metodológico. 3ed. México. Editorial Trillas.
Llamas, J. M. (2004). Estructura científica de la venta: técnicas profesionales de ventas. México. Editorial Limusa. Manzanero, A. L. & Álvarez, M. A. (2015). La memoria humana. España. Ediciones pirámide. Márquez, D. H. (2006). El problema de la unicidad de la mente en la ética de Spinoza. (Tesis de maestría). Universidad Simón Bolívar, Venezuela. Márquez, M. D. (1951). Lógica: lógica simbólica. México. Editorial E. C. L. A.L. S. A. Márquez, M. D. (1973). Lógica. Lógica simbólica. 9ª ed. México. Editorial E.C.L.A.L.S.A Márquez, M. D. (2002). Lógica: Lenguaje y pensamiento. México, DF. Editorial Edere. Martin, D. W. (2008). Psicología experimental: como hacer experimentos en psicológica. 7 ed. México. Cengage learning editores. Martínez, S. J. M. (2014). La psicología de la mentira. España. Editorial Paidós. Martínez, P. R., y Guerra, de los S. J. M. (Coords). (2014). Aspectos psicosociales de la comunicación. España. Editorial Pirámide. Mas, R. F. J. (2010). Temas de investigación comercial. España. 6 ed. Editorial club universitario. 138
Mestre, C. J. V. (2016). Relación entre memoria e identidad personal. [Video file]. Recuperado de https://www.unprofesor.com/cienciassociales/relacion-entre-memoria-e-identidadpersonal-1249.html Milanta, A. (1993). Vucetich. Argentina. Dei genitrix. Millán, M. S., Escofet, J. & Pérez, E. (2004). Óptica geométrica. España. Editorial Ariel. Moncada, J. J. (2005). Estadística: para ciencias del movimiento humano. San José, Costa Rica. Editorial de la universidad de Costa Rica. Monge, R. C. H. (2011). La validez científica de la Poligrafía: los fundamentos supremos de la ciencia que la validan como conocimiento científico. Tesis para obtener el grado de licenciado. México. Recuperado de https://criminalistica.mx/areas-forenses/categorias/1520la-validez-cientifica-de-la-poligrafia Monge, R. C. H. (2013). Método de Introducción de preguntas relevantes. (Ensayo inédito). Escuela nacional de poligrafía. México. Monge, R. C. H. (2016). El fenómeno atencional en la detección psicofisiológica de la mentira: describiendo su comportamiento y lógica procedimental en las pruebas poligráficas. Revista: El poligrafista internacional de la Asociación Latinoamericana de Poligrafía. (11), 34-39.
Montes, D. O. F. (1977). Lógica. México. Editorial Porrúa. Moya, de M. L. (2002). Introducción a la estadística de la salud. San José, Costa Rica. Editorial de la universidad de Costa Rica. Nagel, E. (2006). La estructura de la ciencia. España. Paidos. National Research Council. (2003). The Polygraph and Lie Detection. Washington, DC: The National Academies Press. https://doi. org/10.17226/10420. Nelson, R. & Handler, M. (2013). A brief history of scientific reviews of polygraph accuracy research. APA Magazine, 47 (6), 22-28. Nelson, R. (2016). Bases científicas de la evaluación poligráfica. Revista: El poligrafista internacional de la Asociación Latinoamericana de Poligrafía. (11), 65-104. Nelson, R. (2016). Lecciones de cinco minutos de Ciencia: Teoría de la medición y detección del Engaño. APA Magazine. 49 (6). Traducción de Rodolfo Prado Pelayo. Nick, k. & Dietrich, M. (2008). Space Psychology and Psychiatry. 2. ed. USA. Space Technology. Nieto, A. J. (2007). Apuntes de criminalística. España. 3 ed. Editorial tecnos. Office of technology assessment. (1983). The validity of polygraph testing: A research review and evaluation. Printed in polygraph, 12, 198-319. Páez, D. D. & Adrián, J. A. (1993). Arte, lenguaje y emoción: la función de la experiencia estética desde una perspectiva vigotskiana. España. Editorial fundamentos.
Palmatier, J. J. & Rovner, L. (2014). Credibility assessment: Preliminary Process Theory, the polygraph process, and construct validity. International Journal of Psychophysiology. 95 (2015) 3–13. Recuperado de https://www. researchgate.net/publication/263129994_ Credibility_Assessment_Preliminary_Process_Theory_the_Polygraph_Process_and_ Construct_Validity [accessed Feb 13 2018]. Pasantes, E. (2003). De neuronas, emociones y motivaciones. 2ed. México. Fondo de cultura económica. Pérez, S. C. (1998). Sobre un concepto histórico de ciencia: De la epistemología actual a la dialéctica. Santiago de chile. LOM ediciones. Pérez, T. R. (2008). La estructura de la ciencia. México. Fondo de cultura económica. Platas, E. (2008). Revista mexicana de ciencias forense. Simulación y engaño, 3 (13), 21-30. Podlesny, J. A. & Raskin, D. C. (1978). Effectiveness of techniques and physiological measures in the detection of deception. Psychophysiology, 15, 344-359. Prado, P. R. (26 al 30 de julio 2010). Propuesta de un protocolo de evaluación de confiabilidad. X seminario internacional de entrenamiento avanzado en poligrafía; ciencia y practica de campo. Seminario llevado a cabo por International Polygraph Services Center, Ciudad de México. Ramalle, G. E. & Bermejo, A. R. (1996). El significado de lo significativo. Algunas consideraciones sobre los test de significación y el uso del valor “p”. Atención primaria 14(5) 863865. Raskin, D. C., Honts, C. R. & Kircher, J. C. (2014). Credebility assessment: Scientific research and applications. Academic Press. 139 139
Raskin, D. C., Kircher, J. C., Honts, C. R., and Horowitz, S. W. (1988). A study of the validity of polygraph examinations in criminal investigations. Final report. National Institute of Justice, Grant No. 85-IJ-CX-0040. University of Utah: Salt Lake City, UT. Real Academia Española. (2001). Potencial. En Diccionario de la lengua española (22.a ed.). Recuperado de http://dle.rae. es/?id=Trg1grH Reale, G., Antíseri, D. (2010). Historia de la filosofía: de Freud a nuestros días. Bogotá, Colombia. 2a. Ed. Editorial san pablo. Redorta, J., Obiols, M., y Bisquerra, R. (2006). Emoción y conflicto: aprenda a manejar las emociones. España. Ediciones Paidos. Reyes, M. A., Aristizábal, D. G. & Leal, Q. F. J. (2006). Neumología Pediátrica. 5ª. Ed. Bogotá. Editorial Medica Internacional.
Sanjuán, A. M. (2013). La dimensión emocional en la educación literaria. 1ed. Zaragoza, España. Prensas de la universidad de Zaragoza. Santa Biblia. Versión Reina- Valeria. (1960). Sociedades bíblicas en América Latina. Senter, S. M., Weatherman D., Krapohl, D. J & Horvath, F.S. (2010). Psychological set or differential salience: a proposal for reconciling theory and terminology in polygraph testing. Polygraph. 39(2) 109–117. Zanotti, G. [newmediaUFM]. (2014, Enero 31). Filosofía de la Ciencia en el siglo XX [Archivo de Video]. Recuperado de https://newmedia. ufm.edu/video/filosofia-de-la-ciencia-en-elsiglo-xx/ Shurany, T. & Gordon, N. J. (2016). La entrevista de pre-test; la base de la poligrafía. USA. Academy scientific investigative training. Sosa, J.M. (2008). Criminalística 1. México. 2ed. Editorial Limusa.
Rodríguez, G. M. (1999). Una introducción a la filosofía de las emociones. España. Huerga y Fierro editores.
Sperling, A. D. (1966). Psicología simplificada. México. 3ed. Compañía general de ediciones.
Rojas, S. R. (2002). Investigación social: teoría y praxis. México. Editorial Plaza y Valdés.
Suengas, G. A. (2000). Antropos. Huellas del conocimiento. Psicología cognitiva de la memoria: El control del origen de los recuerdos. -(189-190). 209-215.
Rojí, B. & Cabestrero, R. (2013). Entrevista y sugestiones indirectas: Entrenamiento comunicativo para jóvenes psicoterapeutas. Madrid, España. Editorial UNED. Rossi, B. (2003). Fundamentos de óptica. España. Editorial reverté. Ruiz, A. J. M. (2014). La relación entre procesos de identidad personal y estilos de pensamiento: un recurso para la orientación educativa en la enseñanza secundaria. Editorial área de innovación y desarrollo, S. L. 140
Tarde, G. (1987). Las leyes sociales. Barcelona. Casa editorial sopena. Tarrío, J. M. (2015). Filosofía 1º bachillerato. España. Editorial editex. Valdivia, C. S. (Sin fecha). Métodos de concentración mental. Santiago, Chile. Editorial Círculo Aleph. Varela, R. M., Ávila, C. M. R. & Fortoul, V. G. T. I. (2005). La memoria: definición, función y
juego para la enseñanza de la medicina. México. Editorial medica panamericana. Vásquez, E. A. editor. (2016). Manual de introducción a la psicología cognitiva. Montevideo: Unidad de Comunicación de la Universidad de la República. Vigotsky, L. (2004). Teoría de las emociones: Estudio histórico - Psicológico. España. Ediciones Akal.
Villamarín, L. M. L. (2014). Neurociencia y detección de la verdad y del engaño en el proceso penal: El uso del escáner cerebral (fMRI) y del brainfingerprinting (P300). Madrid. Editorial Marcial Pons. Villoro, L. (1999). El conocimiento. España. Editorial Trotta.
Vila, C. J. (1996). Una introducción a la psicofisiológia clínica. España. Ediciones pirámide.
Vives, G. M. (2005). Test proyectivos: aplicación al diagnóstico y tratamiento clínicos. España. Ediciones de la universidad de Barcelona.
Vilalta, P. C. J. (2016). Análisis de datos. México. Centro de investigaciones y docencia económicas.
Walter, I. (2017). Einstein: su vida y su universo. EUA. Penguin randon house grupo editorial.
141 141
142
143 143
144