Revista Colombiana de Filosofía de la Ciencia - RCFC

Page 1

Vol. XVI - No. 33

2016 julio - diciembre

ISSN 0124 - 4620

Revista Colombiana de Filosofía de la Ciencia

DEPARTAMENTO DE HUMANIDADES Programa de Filosofía



R evista Colombiana de Filosofía de la Ciencia

Indexada en Publindex, Categoría B Philosopher’s Index Red de revistas científicas de América Latina y el Caribe, España y Portugual (RedALyC)

DEPARTAMENTO DE HUMANIDADES Programa de Filosofía


DEPARTAMENTO DE HUMANIDADES Programa de Filosofía

©Revista Colombiana de Filosofía de la Ciencia ISSN: 0124-4620 Volumen XVI No. 33 2016 julio-diciembre Editor Edgar Eslava, Universidad El Bosque Editor Asistente Gustavo Silva, Universidad El Bosque Asistente Editorial Alejandro Cabrera, Universidad El Bosque Comité Editorial Gustavo Caponi, Universidad Federal de Santa Catarina. José Luis Cárdenas, Universidad El Bosque. Flor Emilce Cely, Universidad El Bosque. William Duica, Universidad Nacional de Colombia. Edgar Eslava, Universidad El Bosque. Olimpia Lombardi, Universidad de Buenos Aires. Comité Científico Rafael Alemañ, Universidad Miguel Hernández, España. Eugenio Andrade, Universidad Nacional de Colombia. Alfredo Marcos, Universidad de Valladolid, España. Nicholas Rescher, Universidad de Pittsburg, EE.UU. José Luis Villaveces, Universidad Nacional de Colombia. Fundador Carlos Eduardo Maldonado, Universidad El Bosque UNIVERSIDAD EL BOSQUE Rector Rafael Sánchez París, MD, MSc Vicerrectora Académica María Clara Rangel Galvis, OD, MSc, PhD Vicerrector Administrativo Francisco José Falla Carrasco Vicerrector de Investigaciones Miguel Ernesto Otero Cadena, MD Directora del Departamento de Humanidades Ana Isabel Mendieta Directora del Programa de Filosofía Ana Isabel Rico Torres Corrección de estilo RCFC Concepto, diseño, diagramación y cubierta Centro de Diseño y Comunicación; Facultad de Diseño, Imagen y Comunicación; Universidad El Bosque Impresión Javegraf Solicitud de canje Universidad El Bosque, Biblioteca – Canje, Bogotá - Cundinamarca Colombia, biblioteca@unbosque.edu.co Suscripción anual Colombia: $20.000. Latinoamérica: US$20. Otros países: US$40 Suscripción electrónica Para recibir dos números al año solicitar el formulario de suscripción al correo revistafilosofiaciencia@unbosque.edu.co Correspondencia e información Universidad El Bosque, Departamento de Humanidades, Cra. 7B # 132-11, Tel. (57-1) 258 81 48, revistafilosofiaciencia@unbosque.edu.co Tarifa Postal Reducida Servicios Postales Nacionales S.A. No 2015 - 280 4-72, vence 31 de Dic. 2015




Contenido Editorial

70 años del Departamento de Filosofía de la Universidad Nacional de Colombia Gustavo Silva Carrero

La filosofía como espacio de las ciencias Rafael Carrillo (Colombia)

Diatribas en torno a la racionalidad científica. Claves para una comprensión especulativa de la deuda y el distanciamiento intelectual de Feyerabend respecto a Popper Teresa Gargiulo (Argentina)

Realismo científico y nominalismo. Respuesta a Stathis Psillos Matías Alejandro Guirado (Argentina)

Kitcher y la organización de la investigación científica: un análisis de la ciencia desde los modelos ideales de la economía Álvaro Gallardo (Colombia)

7 9

17 47

83

El cálculo racional para elegir o la deliberación con sabiduría Jonathan Echeverri Álvarez, Juan Diego Lopera Echavarría & Jesús Goenaga Peña (Colombia)

Los artefactos en cuanto posibilitadores de acción. Problemas en torno a la noción de agencia material en el debate contemporáneo Diego Parente (Argentina)

Metaheurísticas y resolución de problemas complejos Carlos Eduardo Maldonado (Colombia)

El cuerpo humano como un sistema complejo a la luz del contexto histórico-científico del descubrimiento de la circulación pulmonar: de alejandrinos, árabes, herejes y nobles Horacio Serna (Colombia)

Especulaciones y controversias en la cosmología física contemporánea: el problema de la creación en la hipótesis del multiverso, un análisis histórico David Mayo Sánchez (España)

¿Son válidos los argumentos evolutivos desacreditadores en contra de la ciencia cognitiva creacionista de la religión? Jorge Sierra (Colombia)

113

139 169

187

213

251

Reseña Martínez, Sergio & Xiang Huang Hacia una Filosofía de la ciencia centrada en las prácticas Sergio Andrés Henao López (Colombia)

279

Indicaciones para los autores

285

Instructions for authors

287



Editorial 70 años del Departamento de Filosofía de la Universidad Nacional de Colombia El 20 de marzo de 1946 se llevó a cabo, en el aula máxima de la Facultad de Derecho, el acto fundacional del Instituto de Filosofía y Letras de la Universidad Nacional de Colombia. Rafael Carrillo, primer director del Instituto, afirmaba en su discurso inaugural: "más que a través de ninguna otra institución, la Universidad podrá en adelante proyectarse sobre la vida nacional”. La fundación del Instituto señaló el inicio de la filosofía moderna en Colombia. Al menos, ese fue el objetivo de los intelectuales fundadores quienes como Danilo Cruz Vélez sostenían que el desarrollo cultural del país presentaba fuertes rasgos de aldeanismo. Así, la creación del Instituto de Filosofía y Letras en la Universidad no solamente buscaba formalizar el estudio de la disciplina en el ámbito académico, sino que además pretendía influir en la fundamentación moderna de las demás ciencias presentes en la Institución y, a su vez, en el desarrollo cultural del país. Carrillo tituló su discurso inaugural “La filosofía como espacio de las ciencias”, presentando su visión armónica entre filosofía y ciencia que según él, desde la alborada de la civilización es alimentada por una “raza exótica de hombres, los filósofos”. La Revista Colombiana de Filosofía de la Ciencias se une a la celebración de los 70 años del Departamento de Filosofía de la Universidad Nacional de Colombia. A modo de reconocimiento y agradecimiento por la monumental labor que en favor de la filosofía han desarrollado desde la Universidad Nacional, queremos publicar en esta edición el discurso completo del profesor Rafael Carrillo, leido con ocación de la apertura del Instituto. Como verán los lectores el discurso de Carillo es un excelente ejemplo de lo que esta Revista siempre ha querido impulsar, el diálogo permanente ente la filosofía y la ciencia. Gustavo Silva Carrero



L a filosofía como espacio de las ciencias1 Al cabo de un instante de reflexión sobre este acto, el entendimiento se inclinaría a la conclusión de que no se trata de un acto más que celebra la Universidad Nacional de Colombia. No nos hemos citado aquí, ni para dar los primeros pasos en el camino espiritual del año universitario; ni para entregar un título corriente a éste o a aquel estudiante que abandona las aulas, ni para asistir a la conmemoración de un día epónimo en la historia nacional, ni para escuchar la palabra forastera de un sabio interesante que pasa por Colombia. Se trata ahora de un acto casi definitivo en la vida de la nación. Las palabras que estáis escuchando y las que váis a escuchar en seguida, no tienen sino el carácter de cualidades exteriores de que está revestida la esencia misma de este acto definitivo. La Universidad Nacional de Colombia, señores, arroja sus fundamentos. Esencialmente, este acto no quiere decir otra cosa sino que la Universidad Nacional se ha fundamentado a sí misma, y el Instituto de Filosofía y Letras, que oficialmente empieza a funcionar esta noche, constituye su fundamento. Una breve excursión intelectual por el interior de la Ciudad Universitaria puede traer claridad sobre este aserto, si los pies ligeros de vuestra atención están listos a seguirme.2 Todo el ámbito de esta ciudad espiritual está dedicado, como es fácil observar, a hacer ciencia. Es más: está dedicado sólo a hacer ciencia. No tiene importancia entrar a averiguar, después de lo que acabamos de sostener, si se está haciendo ciencia original. La historia de esta provincia del saber no es la historia de las aportaciones originales, sino la historia de una tenaz continuación que tiene su punto de partida en unas cuantas cabezas de rara estirpe, que un día en las costas jónicas, empezaron a ver el mundo convertido en problemas. La historia de la ciencia es la historia de la integración de los conocimientos científicos, y un hallazgo sensacional significa sólo que las cosas estaban ya en sazón para ese hallazgo. Detrás de la teoría de la relatividad, por ejemplo, hay una serie de aportes sin los cuales ella no habría sido posible. Es bastante precipitado hablar de originalidad cuando se está dentro del campo de la ciencia. Recogiendo la expresión que da título a una obra divulgadora de los conocimientos científicos, cabe decir mejor, para no comprometernos: la ciencia avanza. En efecto, a la ciencia, como a la mujer de la tradición bíblica, le está prohibido mirar hacia atrás. No puede, pues, recogerse una sola letra 1 La transcripción desde el original fue realizada por Paula Jones Obregón, estudiante del Programa de Filosofía de la Universidad El Bosque. 2 Con la exposición que va a leerse, inauguró el director del Instituto de Filosofía y Letras, el 20 de marzo del presente año [1946], la creación de esta entidad en la Universidad Nacional de Colombia.


Carrillo, Rafael

de la afirmación que sostiene que aquí y allí, en la Universidad Nacional, se hace ciencia. Son ya numerosos los institutos y facultades que van integrando la Universidad. En cada uno de ellos se cultiva o se transmite la ciencia. Y como en toda Universidad, se cultivan y se transmiten las ciencias de la naturaleza y las ciencias de la naturaleza y las ciencias de la cultura. Nuestra Universidad ha sido hasta ahora un centro para la ciencia. No cabe hablar de una misión más alta. Sin embargo, la Universidad así no es del todo Universidad, como las ciencias solas no son del todo ciencias. Las ciencias son ellas y su fundamentación. La Universidad son sus facultades científicas y un centro de filosofía sobre el cual se apoyan esas facultades. La misión de la ciencia -se sabe hace mucho tiempoes diferente de la misión de la filosofía. La ciencia puede hacer muchas cosas que la filosofía no se propone realizar, porque caen fuera de sus dominios. Pero el hecho de una diversidad de misiones no implica nunca una capacidad absoluta para el logro de sus respectivas finalidades. La filosofía y la ciencia, con insistente reciprocidad se solicitan en el camino de sus progresos. La ciencia tiene el inconveniente, con respecto a la filosofía, de no poder volverse sobre sí misma para interrogarse sobre sus métodos o sobre sus últimos principios. La ciencia no puede fundamentarse a sí misma. Sólo la filosofía posee este privilegio de ser para sí, que es también el privilegio del espíritu. Si la ciencia es incapaz de esta hazaña filosófica, tendrá que acudir a quien sea capaz de realizar desde el exterior su fundamentación y de compulsar sus métodos. Por esa incapacidad de ser para sí de la ciencia, ha acontecido que de cuando en cuando, en el curso de su historia, y obedeciendo al ademán inesperado de un filósofo, haya tenido que detenerse y esperar los interrogantes que le formule la filosofía. En el momento en que la ciencia está corriendo más de prisa, la filosofía, que es la ciencia sin prisa, da a aquélla una zancadilla certera y la detiene en su marcha altanera. Así sucedió que, en el último tercio de la centuria antepasada, un hombre de estatura menos que mediana, incapacitado más que nadie, orgánica y espiritualmente, para ejercer funciones de mandarín -salud tan frágil y pasión tan grande por la libertad no ha habido nunca- ordenó desde su celda meditabunda de Koenisberg a todos los científicos de su época que detuvieran su avance. La actitud de Kant fue una actitud contra la arrogancia de la ciencia, que daba por supuesto lo que en realidad debía ser convertido en cuestiones. Desde entonces, y con más conciencia que nunca, la filosofía se ocupa de una serie de problemas de los cuales no podrán seguir despreocupándose las ciencias particulares. Esa edad arrogante y envalentonada por que atravesó la historia de la investigación científica está hace mucho tiempo concluida. El

10

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 9-16


La filosofía como espacio de las ciencias

signo de la época contemporánea consiste en una mutua colaboración entre la filosofía y la ciencia, por extremistas que aparezcan algunas tendencias dentro de ésta, y por mucho que se quiera buscar para la disciplina filosófica un objeto exclusivo y un propósito peculiar. Dentro de la variedad de fines que a estas horas de su desarrollo se le asignan a la filosofía, siempre tendremos que contar con uno: la fundamentación de la ciencia. La definición de la filosofía no podrá en ningún caso circunscribirse a esta fundamentación, pero una enumeración de sus propósitos resultaría incompleta si prescindiera de ella. La filosofía es la ciencia fundamentadora por uno de los aspectos más interesantes de su definición total, y lo es no sólo del conocimiento científico sino de todo conocimiento. Las ciencias de la naturaleza y las ciencias de la cultura, que integran el conjunto de la actividad intelectual en que hasta el momento se ha afanado la Universidad Nacional de Colombia -y cuyos nombres están inscritos virtualmente en cada una de las fachadas de las respectivas facultades e institutos - no pueden avanzar por sí solas. Esto no quiere significar que por sí solas no puedan existir. No se vea con extrañeza que se hable aquí de un acto solemne en que la Universidad arroja sus propios fundamentos. ¿No existía ya desde años -podría argüirse- este centro más o menos completo de estudios diversificados, en donde se trabajaba dentro del territorio de las ciencias de la naturaleza y de las ciencias del espíritu? ¿A qué viene, pues, hablar de que hoy ponemos sus fundamentos? Esta manera de impugnación tiene aparentemente motivos. Pero en realidad se confunden, una vez más, los fundamentos como etapa que origina una determinada existencia con los fundamentos como principios lógicos de esa misma existencia. Para aceptar la misión particular de la filosofía como ciencia fundamentadora de los conocimientos científicos, no es necesario tornar partido previamente ante las dos opiniones que, en forma respectiva, la consideran como una fuente o como un resultado de la ciencia. No sería posible, vistas las cosas profundamente, situarla en los comienzos de la investigación científica. Quienes esperan que la filosofía rinda sus resultados mejores después de un desarrollo intenso y amplio de las ciencias particulares, es decir, que la filosofía venga a ser filosofía al final de ese período de esplendor científico que actualmente se produce, no ven que ella quedaría desposeída de su rango intelectual habiendo tenido que esperar veinte siglos para empezar a acreditarse. Pero cualquiera que sea el partido que se torne ante estos dos frentes de opiniones, a lo largo de la historia de la cultura encontraremos algunas etapas en que la investigación filosófica se intensifica luégo de un período de trabajo científico y por causa de este trabajo. Estamos entonces en la etapa de las fundamenta-

11


Carrillo, Rafael

ciones. La filosofía se da a la tarea de fundamentar lo que previamente existía. La fundamentación lógica es distinta de la fundamentación genética. Desde este punto de vista, puede y debe hablarse de que en el presente acto solemne la Universidad Nacional coloca los fundamentos de sí misma. No hay matemáticas, no hay física, no hay química, no hay biología, no hay derecho, no hay medicina, en el sentido esencial y hasta existencial de cada uno de estos conceptos, donde se ha prescindido de la respectiva fundamentación filosófica. Ello explica que los matemáticos y los físicos, los biólogos y los juristas se hayan hecho filósofos. La presencia de un Instituto de Filosofía y Letras en el área de la Ciudad Universitaria, no tiene solamente una significación simbólica, sino el sentido de una necesidad satisfecha. Y en qué oportuno momento se satisface esta necesidad. En el momento de la reconstrucción de la filosofía. La filosofía experimenta, a principios del presente siglo, un viraje reconstructivo que conserva todavía en su estado actual. Este viraje reconstructivo lo tomó a raíz de la necesidad surgida en la ciencia de establecer sólidas bases desde dónde partir firmemente, o sea, de la necesidad de hallar una fundamentación inquebrantable. No fue ya la voz de un filósofo la que hizo detenerse a los científicos para mirar hacia atrás. Este período de fundamentación nació de la ciencia misma, y precisamente de la ciencia que ha vivido más orgullosa de sus postulados, y que más invulnerables ha considerado sus principios. En la Universidad de Halle, a fines del siglo pasado, un profesor de matemáticas, hasta entonces conocido a duras penas dentro de los muros silenciosos de aquella institución, se encuentra con dificultades crecientes a través de sus investigaciones aritméticas. Una vez más, había un científico que echaba de menos la filosofía. También Helmholtz, al proseguir o querer proseguir sus estudios de óptica fisiológica, se quejaba de lo atrasado de la psicología de su tiempo. La psicología en aquella época era aún filosofía. Y este estado de perplejidad y de queja se extiende a gran parte de las ciencias naturales. Los problemas metafísicos, dice Brentano, tales como, por ejemplo, el principio general de causalidad y su presunto carácter a priori, vemos cómo en algunas de sus investigaciones, como en la que se refiere a la ley de la acción recíproca entre las fuerzas de la naturaleza, el naturalista se ve tenazmente conducido al umbral de las más altas cuestiones metafísicas. Aquel prudente y malicioso profesor que observó dificultades a lo largo de sus elucidaciones matemáticas, y a causa de la observación de tales dificultades, se hizo filósofo. De allí proviene el movimiento filosófico que vivimos actualmente, uno de los más serios de toda la historia del espíritu. La necesidad de fundamentar la ciencia de la aritmética creó la fenomenología, y con la fenomenología empieza el período de reconstrucción del pensamiento filosó-

12

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 9-16


La filosofía como espacio de las ciencias

fico. Pero este período reconstructivo no se queda dentro del territorio de la filosofía, sino que se hace extensivo a las ciencias particulares. No hay noticia de un movimiento filosófico semejante. La época de Hegel apenas se le parece. La corriente fenomenológica reconstruye la filosofía. Las ciencias particulares trabajan ahora bajo la advocación de este nuevo movimiento, y participan por lo tanto del carácter reconstructivo. Los más distantes dominios del saber, desde la física hasta la sociología y el derecho, desde la biología hasta la ética, desde la religión hasta la estética, desde la metafísica de la existencia hasta el fenómeno del conocimiento, todo corre a ponerse bajo la amplia protección filosófica de la nueva manera. Los dominios de las diversas ramas de la filosofía y de los sistemas diferentes, y los territorios de las ciencias particulares y de casi todo el saber humano, se funden y se consolidan dentro del nuevo imperio de la fenomenología. Husserl legisla y legisla desde la milenaria Universidad de Friburgo de Brisgovia para este nuevo imperio. Principia en Halle como modesto profesor de matemáticas, y ahora lo encontramos hecho ya emperador de la filosofía en la Universidad de Friburgo, capital del imperio. Este período imperial sigue todavía en su afán reconstructivo. Alcanza hasta nosotros, y no se ve que haya de detenerse por ahora. A diferencia de lo acaecido a la muerte de Hegel -otro espíritu que dominó imperialmente el saber de su tiempo-, a diferencia de lo acaecido a su muerte, que su filosofía empezó a sucumbir al día siguiente casi de ocurrida, a la muerte de Husserl pareció fortificarse su herencia espiritual. El filósofo más atendido actualmente en el mundo, procede de él. Las varias ramificaciones de la fenomenología no expresan otra cosa que el poderío de esta corriente y la perduración de sus ideas fundamentales. ¡Qué momento tan interesante del pensamiento filosófico éste en que ha llegado a la vida el Instituto que inauguramos! No hace siquiera un par de decenios, en los centros más autorizados y rigorosos de Europa, y como siguiendo con fidelidad irrestricta los imperativos de la filosofía fenomenológica, se prescribía al lado del estudio de las ciencias matemáticas el planteamiento y la indagación de los problemas filosóficos. Y esta prescripción no procedía oficialmente de las aulas universitarias, ni era iniciativa privada de un profesor de la materia, en cuya cabeza se agolparan en un día cualquiera de profunda meditación los últimos interrogantes de su disciplina. Los estudios de filosofía se prescribían al lado del pénsum de ciencias matemáticas, y se prescribían por orden legislativa. Expresando el carácter fundamental de la filosofía con respecto a las ciencias, un expositor de alta jerarquía intelectual decía hace poco: Toda ciencia llega en su evolución y desarrollo a un punto en que se ve obligada a someter sus bases lógicas y su índole de conocimiento a un examen más riguroso. La matemática ha entrado en tal período a fines del siglo pasado, y los trabajos de los sabios más salientes

13


Carrillo, Rafael

tienden a sondear las bases lógicas para, mediante ellas, penetrar en la esencia de la matemática 3 . Junto a esta expresión que acabáis de escuchar, sería fácil enumerar una serie dilatada de nombres significativos que han tenido que recurrir a la lógica ya la gnoseología ante la perplejidad producida por cuestiones básicas para sus ulteriores indagaciones. Cuántos matemáticos no se han convertido hoy a la filosofía, y cuánto no ha ganado su ciencia con esa conversión. Los tratados de filosofía de la matemática y de la filosofía de las ciencias en general forman ya una bibliografía que requiere una dedicación exclusiva para llegar a manejarla con mediana responsabilidad. Los conceptos de número y de espacio, por ejemplo, son investigados filosóficamente en profundos capítulos de la moderna producción científica, y hasta en libros especiales. Del mismo modo, los problemas de los últimos principios de la matemática se abordan desde la filosofía, y la lógica, que es rama esencial de ésta, asume principalmente funciones de disciplina fundamentadora. Pero, como ya se ha dicho, también la física, y en no menor proporción que la matemática, tiene tarde o temprano que habérselas con la filosofía. Nacieron siendo una misma cosa, y difícilmente podrán alguna vez separarse. La armonía entre ellas dos, que empezó siendo pura unificación en las costas del Asia Menor, prosigue actualmente como una actitud de mutua colaboración. Más aún; estamos muy lejos de esa etapa de la historia de la física en que se le asignaba a ésta, como a todas las ciencias particulares, el objetivo único y limitado de observar y descubrir conexiones entre fenómenos, y formular desde esta observación las leyes generales. La física tendría por objeto la averiguación de las causas y de determinados fenómenos observados, y su sentido y su carácter podría expresarse de una vez con aquella famosa expresión utilitaria: saber para prever. Muy lejos estamos hoy de semejante concepción de la ciencia física. Tan lejos, que sus propósitos más apasionantes se confunden con un antiguo propósito de la filosofía: la solución del problema de la unidad metafísica del mundo. No es otra cosa la física atómica, ni son otros los fines de esa formidable legión de sabios que, en torno a la física teórica, constituyen la más alta dignidad científica del siglo XX. La teoría de la relatividad, y a pesar de que su creador cree haberse quedado dentro de los límites de la física, dio un paso hacia la filosofía. Einstein -cuyo observatorio astronómico lo constituyeron siempre un lápiz cualquiera y unas cuartillas de papel, y que desde su modesta habitación de una tranquila calle berlinesa ordenaba a los astrónomos que comprobaran sus cálculos- más parece un espíritu dedicado a la especulación filosófica que a la matemática y a la 3 Ver Brand y Deutschbein: Introducción a la filosofía matemática. Rev. De Occ. Madrid

14

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 9-16


La filosofía como espacio de las ciencias

física. No es nada raro que haya vuelto a suscitar viejas cuestiones de filosofía. El espacio y el tiempo, que en Kant pasan al primer plano del interés filosófico, son de nuevo atendidos dentro de la física relativista. En la aproximación de la física a la filosofía podríamos ir más lejos. Heisenberg -a quien todo el mundo conoce ya como “uno de los hombres más reputados en la física teórica moderna”- se expresa favorablemente a nuestro tema, en un estudio sobre la teoría de los cuantos. “Es conveniente, dice, volver a las antiguas discusiones fundamentales e importantísimas para la epistemología, sobre la dificultad de separar los aspectos subjetivos y objetivos del mundo. Muchas de las abstracciones características de la física teórica moderna se encuentran discutidas en la filosofía de los siglos pasados. En aquella época dichas abstracciones pudieron ser consideradas como meros ejercicios mentales por aquellos científicos que sólo se interesaban por la realidad; pero hoy día los refinamientos del arte experimental nos obligan a tomarlas seriamente en consideración.” Cualquier exposición seria sobre el concepto de naturaleza en la física moderna corrobora las anteriores palabras de Heisenberg. Con un interés de vida o muerte para la física, se plantea ahora el problema, tan viejo en sus primeras manifestaciones como la filosofía, de la esencia del conocimiento. La naturaleza, sobre que la física recae, no es en la física moderna lo que se creyó hasta no hace mucho: algo existente con independencia del observador. La naturaleza es ella y algo más: el que la observa. La naturaleza, que es el propuesto objeto del conocimiento físico, está constituída por la relación estructural del sujeto-objeto. Esta tesis, dice James Jeans, encuentra su expresión definitiva en la parábola ondular, que dice que la naturaleza consta de ondas y, desde luego, de ondas de conocimiento (o falta de conocimientos) en nuestro espíritu.4 No creo necesario aportar otros casos y otras razones de autorizados representantes de la ciencia contemporánea de la naturaleza. Con los aportados hasta aquí, queda justificada la existencia de este Instituto. Si quisiéramos justificarla más, la tarea sería tan grata y tan fácil como la anterior. No tendría sino que exponer brevemente la dirección de la filosofía actual que tiene como finalidad la fundamentación de las ciencias de la cultura. Y, junto a los representantes de la filosofía de la ciencia, natural, presentaros un grupo no menos egregio de fundamentadores de las ciencias del espíritu. Quién de vosotros no está ya pensando en ese Hegel de la edad contemporánea que fue Guillermo Dilthey. Y hasta en los manuales de historia de la filosofía se describe hoy la labor de la escuela de Badén, centro de la nueva dirección y foco de los problemas más inquietantes con que hoy se enfrenta la meditación filosófica. 4 Ver sobre esto James Jeans: La nueva imagen física del mundo. Rev de Occ.

15


Carrillo, Rafael

Por diversos aspectos vemos, pues, mil veces justificada la fundación de un Instituto de Filosofía y Letras en la Universidad de Colombia. Por medio de él, más que a través de ninguna otra institución, la Universidad podrá en adelante proyectarse sobre la vida nacional. Su misión no queda reducida a la propia Universidad. Existiendo aquí, en el plano real de la Ciudad Universitaria, existe también en el centro mismo de la nación. Es el Instituto de Filosofía y Letras el centro de estudios mejor dotado por su propia naturaleza para proyectarse desde la Universidad hacia la nación, y desde la nación hacia fuera del país. El conocimiento de un país no lo hacen posible fuera de él sino los directores intelectuales de ese país. Y nada más propio para formar esa diplomacia intelectual que un instituto de esta índole. Señor rector de la Universidad Nacional de Colombia, señor decano de la Facultad de Derecho: habéis recortado, dentro del perímetro cultural de la Ciudad Universitaria, el único espacio claro en donde las ciencias particulares que aquí se estudian pueden moverse y progresar. Por vuestro interés y vuestra visión para el futuro, se realiza siquiera simbólicamente en nuestra historia la armonía entre la filosofía y las ciencias, llevada a cabo en la alborada de la civilización occidental por una raza exótica de hombres, los filósofos, que el mismo viejo Sócrates, padre de todos ellos, no se atrevía a explicar. La Universidad Nacional os debe sus fundamentos. Ya empieza a ser una gratificación para vosotros este crecido número de estudiantes que todas las tardes llenan el recinto dedicado a las lecciones del instituto, atraídos por el desinterés, la forma más auténtica de la atracción intelectual. Las palabras escritas a la entrada de una Facultad de Filosofía y Letras suramericana podrían servir provisionalmente para dar expresión a esta apetencia desinteresada de cultura, y sintetizar por lo pronto el programa del Instituto con que habéis robustecido nuestra Universidad: Con los pies en la tierra, pero con la mirada en las estrellas. Rafael Carrillo

16

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 9-16


Diatribas en torno a la racionalidad científica. Claves para una comprensión especulativa de la deuda y el distanciamiento intelectual de

Feyerabend respecto a Popper1,2

Diatribes on scientific rationality. K eys to a speculative understanding of debt and intellectual distance of

Feyerabend about Popper Teresa Gargiulo3,4

R esumen Las discusiones que Paul Feyerabend mantuvo con Popper le permitieron descubrir las falencias y limitaciones de una noción univoca de racionalidad científica. Feyerabend da cuenta cómo aquellos elementos míticos o metafísicos que Popper reconoce como precientíficos constituyen el seno del quehacer científico. Esta crítica a Popper le permitió al vienés entender de una manera imperfecta lo que no es la ciencia y, por tanto, la necesidad de emprender una nueva visión o teoría acerca de la ciencia. Luego, fueron estas discusiones con Popper las que le señalaron el camino o la dirección por la cual debía pensar su comprensión positiva acerca de la ciencia. Su comprensión positiva de la racionalidad ciencia no es sino un intento de refutar dialécticamente el proyecto popperiano de definir la ciencia en contraposición con la metafísica. Nuestro propósito es analizar la deuda intelectual y el posterior distanciamiento de Feyerabend respecto a Popper, desde su progresiva comprensión de la racionalidad científica. Palabras Claves: Feyerabend, Popper, Ciencia, Criterio de Demarcación, Metafísica.

A bstract The discussions that Paul Feyerabend held with Popper, allowed him to discover the flaws and limitations of an univocal notion of scientific rationality. Feyerabend realized how those mythical or metaphysical elements –that Popper recognized as pre-scientific– constitute, paradoxically, the heart of the scientific work. This criticism to Popper allowed him understands, imperfectly, what is not science and, therefore, the need to undertake a new vision or theory of science. Then, these discussions with Popper show him the way or the direction in which he should think his positive understanding of 1 Recibido: 15 de septiembre de 2015. Aceptado: 4 de diciembre de 2015. 2 Este artículo se debe citar así: Gargiulo, Teresa. “Diatribas en torno a la Racionalidad Científica. Claves para una comprensión especulativa de la deuda y el distanciamiento intelectual de Feyerabend respecto a Popper”. Rev. Colomb. Filos. Cienc. 16.33 (2016): 17-46. 3 Universidad Nacional de Cuyo, CONICET. Correo electrónico: gargiulomteresa@gmail.com 4 Mendoza (Argentina).


Gargiulo, Teresa

science. His understanding of the science is nothing but an attempt to refute dialectically the Popper ´s project to define science as opposed to metaphysics. Our purpose is to analyze the intellectual debt and subsequent detachment of Feyerabend regarding Popper, from his progressive understanding of scientific rationality. Key Words: Feyerabend, Popper, Science, Demarcation Criterion, Metaphysics.

1. Introducción En las tres últimas décadas ha existido un importante debate en torno a la relación entre Feyerabend y Popper. Esta relación presenta un carácter complejo, no solo por la distancia que se abrió entre los dos, sino también por el retrato posterior que el vienés hizo –justa o injustamente– de aquel que supo ser su maestro.5 Se ha discutido si Feyerabend, después de esta ruptura logra independizarse intelectualmente de su maestro, o si continúa pensando bajo sus mismas coordenadas. Existen a su vez distintas periodizaciones respecto a la evolución de un Feyerabend popperiano; y distintas lecturas en torno a las posibles causas de esta ruptura intelectual. La literatura que se ocupa por esclarecer las causas y otras tantas aristas de esta desavenencia intelectual podemos dividirla en dos grandes grupos. Por un lado, tenemos las confesiones y valoraciones de sus propios colegas coetáneos, tales como las que ofrecen Agassi (1974; 1980), Edgley y Watkins. Por otro lado, contamos con los estudios y los análisis críticos que han hecho los especialistas. En este segundo grupo se destacan los trabajos de Preston, Farrell (2000; 2003); Oberheim y Collodel. Un amigo con el que asistió a las clases de Popper en la London School of Economics, Joseph Agassi (1974 291-300), sostiene que uno de los primeros motivos que condujo a Feyerabend a tomar distancia respecto a Popper fue el hecho de descubrir a principios de 1960 ciertas inconsistencias entre su teoría de la explicación y el progreso científico. Alude también, como otro factor que puede haber influenciado en su cambio de actitud respecto a Popper, al compromiso político de Feyerabend con el Trotskismo durante la revolución estudiantil (Agassi 1980 422-424). Roy Edgley, quien en 1955 fue colega del vienes en la Universidad de Bristol, ofrece también una descripción en torno a la relación Feyerabend/Popper. 5 Para una crítica de la concepción que tiene Feyerabend acerca del falsacionismo popperiano ver Settle.

18

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 17-46


Diatribas en torno a la racionalidad científica

Explica que fueros las mismas ideas que Feyerabend en 1958 comenzó a mantener y madurar en la Universidad de Berkeley –muchas de ellas a fines a la posición de Thomas Kuhn– las que lo apartaron naturalmente del falsacionismo popperiano. Por otro lado, Edgley corrige a Agassi explicando que su desencanto con Popper comienza ya en 1950 y que su filiación con la nueva izquierda es una consecuencia de este desencanto, más no su causa (155-156). Por su parte, John Watkins (48-49), argumenta que aun cuando Feyerabend supo señalar algunas inconsistencias del falsacionismo, éste seguía argumentando bajo sus mismos principios. De aquí, su preocupación por declararse abiertamente como opositor de aquel racionalismo crítico en el que se había formado por más de diez años. Pues de no hacerlo corría el riesgo de que su teoría de la ciencia sea valorada como un simple eco de la de su maestro. Abriendo ya el campo de los estudios críticos, disponemos de la interpretación que hace John Preston (11 y ss.) en torno a una rica evidencia textual. Preston, inaugura una tendencia interpretativa cuando asegura que el racionalismo crítico de Popper constituye el contexto que da forma a toda la obra temprana del vienés, y ello a pesar de su posterior insistencia por ocultarlo.6 A pesar de su determinación a principios de 1960 por alejarse de Popper su misma propuesta de un pluralismo metodológico sigue siendo dependiente de los ideales epistémicos de Popper, tales como progreso científico, verdad, conocimiento y racionalidad científica –explica Preston (191). Por lo que sería justo valorar su pluralismo como una extensión, o al menos, como un esfuerzo por hacer explícito lo que ya estaba implícito en la doctrina popperiana (134). En esta misma línea, Robert Farrell (2003) conviene con Preston que las primeras tesis de Feyerabend están modeladas originalmente por Popper. Pero agrega además que incluso la obra tardía del vienés supone ciertas tesis popperianas tales como conceder un importante lugar a la crítica y el pluralismo, así como su desiderátum normativo/ontológico de apuntar a la mejor. Esto lo convierte de suyo, aunque en un nivel meta-metodológico, en un fiel popperiano. Eric Oberheim (87, 93, 115) comparte parcialmente esta lectura de Preston y Farrell cuando señala que efectivamente Feyerabend adopta y defienda en sus publicaciones anteriores a 1970 los principios propios del racionalismo crítico. 6 Oberheim (2-3) ha estudiado el pensamiento de Feyerabend desde los originales lo cual le permite conocer las variaciones y correcciones que el autor fue introduciendo en las distintas ediciones o publicaciones de una misma obra. Dicha investigación le permitió descubrir, por ejemplo, el hecho de que en la colección de artículos que publico en el volumen I y II de los Philosophical Papers en 1981, Feyerabend omite todo reconocimiento a Popper.

19


Gargiulo, Teresa

Incluso asegura que Popper es una de las fuentes que ejerce más influencia sobre el desarrollo intelectual de Feyerabend (115). No obstante, Oberheim advierte que esto no lo convierte de suyo en un ferviente popperiano. Por el contrario, considera más justo entender a Feyerabend como un oportunista epistemológico o un pluralista filosófico que desarrolló sus ideas independientemente de los ismos filosóficos tales como el popperianismo (114). Argumenta que su compromiso con el racionalismo crítico es de carácter pragmático, es decir, no forma parte de una profunda convicción epistemológica (93-94). Finalmente, Mateo Collodel procura enriquecer este debate analizando el itinerario intelectual del vienés desde un enfoque socio psicológico. Describe a Feyerabend hasta mediados de 1960 como un fiel discípulo crítico de Popper. Argumenta que en sus reflexiones en torno a la mecánica cuántica –que no son sino una crítica a las ideas de Popper– y en sus correcciones metodológicas al racionalismo, Feyerabend nunca atacó directamente a Popper. Todo lo contrario, muestra estar perfectamente entrenado en el racionalismo crítico de su maestro. Pero entre 1965 y 1969 explica que el vienés fue alejándose gradualmente de la escuela de Popper e incluso del racionalismo crítico. La causa de ello reside particularmente en la evolución de la escuela popperiana en una organización cuasi-religosa. Pues esto entraba en conflicto con la clase de filósofo que Feyerabend buscaba encarnar. Colloner insiste que la escuela popperiana se le presenta al vienés como un modelo intelectual absolutamente inconsistente con su autoconcepto intelectual. No obstante, y a pesar de esta profusa literatura, se destaca una parcela inédita de estudio acerca de la relación Popper/Feyerabend. Pues tales estudios no parecen atender a una de las críticas más radicales que Feyerabend dirige a Popper, a saber, su impotencia para formular una clara noción de ciencia. Pues según el vienes el criterio popperiano de demarcación se limita a ofrecer una definición negativa de ciencia, es decir, una discriminación dialéctica de la ciencia respecto a lo que no es ciencia; determinando así mucho más claramente lo que no es que lo que es positivamente la ciencia. Creemos que si no se considera este costado especulativo de la relación se corre el riesgo de ofrecer una versión fragmentaria e incompleta de ella. La crítica de Feyerabend al que supo ser su maestro en la London School of Economics no se limita a mostrar las conveniencias metodológicas de su pluralismo teórico respecto a los ideales epistémicos del racionalismo crítico. Tampoco acaba en corregir la interpretación que hace Popper respecto a la mecánica cuántica. Su crítica –y he aquí la tesis que procuramos defender– se ordena a dar cuenta, en general, de la incapacidad de Popper por definir qué es la ciencia. A lo largo de distintas obras el vienés le señala –al que

20

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 17-46


Diatribas en torno a la racionalidad científica

supo ser su maestro– que la búsqueda de un criterio de demarcación no es un camino efectivo para definir la ciencia. Nuestro epistemólogo da cuenta cómo aquellos elementos míticos o metafísicos que Popper reconoce como pre-científicos constituyen paradojalmente el seno del quehacer científico. Al destacar la presencia de la metafísica en la ciencia Feyerabend no pretende denostar la ciencia sino demostrar que es falsa la dialéctica que el racionalismo crítico establece entre ciencia y metafísica. De este modo, procura denunciar el fracaso de un racionalismo que pretende definir la ciencia en posición dialéctica con la metafísica. Esta crítica a Popper le permitió a Feyerabend entender de una manera imperfecta lo que no es la ciencia, y por tanto, la necesidad de emprender una nueva visión o teoría acerca de la ciencia. Luego, se puede decir que, en gran medida, fueron estas discusiones con Popper las que le señalaron, el camino o la dirección por la cual debía pensar su comprensión positiva acerca de la ciencia. A saber, la ciencia entendida como la suma de múltiples tradiciones míticas, filosóficas y artísticas que interactúan recíprocamente. Nuestro propósito es analizar tanto las críticas que el vienés le dirige a su maestro, como sus concomitantes esfuerzos por trascender las coordenadas intelectuales de éste en una nueva comprensión de la ciencia. Creemos que esta doble mirada de la relación de Feyerabend con Popper ofrece un horizonte más comprehensivo acerca de la riqueza especulativa de sus disputas. Nos permitirá mostrar, particularmente, la deuda intelectual que el primero tiene respecto a su maestro. Pues aun cuando la comprensión positiva de la ciencia a la que accede Feyerabend sea el resultado de un distanciamiento respecto del proyecto popperiano de erigir un criterio de demarcación, éste sigue siendo deudor indirectamente de su maestro. Pues la nueva comprensión positiva de la ciencia esbozada por Feyerabend no es sino un intento de refutar dialécticamente el proyecto popperiano de definir la ciencia en contraposición con la metafísica. En este sentido, el valor del presente estudio no radica en la originalidad o la novedad de su tesis sino, más bien, en el horizonte comprehensivo en el que se explica la incidencia de Popper en la noción positiva de ciencia formulada por Feyerabend. Para poder dar cuenta de nuestra tesis analizaremos dos puntos. En primer lugar, expondremos, específicamente, los dilemas o absurdos que el vienés advierte en los intentos de Popper por definir la ciencia a expensas de lo metafísico. Estudiaremos su anarquismo epistemológico como un intento por desestabilizar el modelo unívoco de racionalidad científica propuesto por Popper (1). En segundo lugar, analizaremos la comprensión positiva de la

21


Gargiulo, Teresa

ciencia que tiene el vienés en orden a mostrar cómo ésta puede ser entendida como una respuesta dialéctica a la noción popperiana de ciencia (2). El orden expositivo de nuestro trabajo no busca respetar un orden estrictamente cronológico. La exposición es más bien hermenéutica y comprensiva. Pero evidentemente en orden a manifestar cómo Feyerabend va madurando su concepción acerca de la obra de Popper, hemos visto conveniente distinguir y mencionar las etapas y las obras en las que desarrolla respectivamente cada una de esta tesis.

2. Diatribas contra un modelo unívoco de racionalidad científica

En sus artículos publicados entre 1955 y 1968, Feyerabend se muestra fiel a una tradición popperiana. Inscribe al mito en un estadio pre-científico en la medida en que no posee originariamente un contenido susceptible de falsación empírica. Asegura que para que el mito devenga en ciencia debe ser formulado de modo tal que sea posible especificar un resultado capaz de ser examinado experimentalmente. Pero, hasta ese entonces, ni el mito ni la filosofía parecerían estar originariamente –según el vienés (1960/1981h, 36, 43)7 – en el mismo nivel que la ciencia. Pero a finales de los años 70, y como resultado de su primera versión del pluralismo metodológico y de sus estudios culturales comparados, Feyerabend emprende una revisión crítica de su propia formación en el racionalismo popperiano y, por ende, de esta categorización pre-científica del mito y la filosofía. Mediante distintos argumentos muestra las paradojas que se siguen de los intentos de restringir lo mítico o lo metafísico a un estadio pre-científico. A partir de la formulación de su anarquismo epistemológico Feyerabend convierte al falsacionismo en blanco de sus críticas8, pues lo valora como un intento por establecer un modelo unívoco de racionalidad científico. En este contexto de cuestionamientos radicales Feyerabend se aboca a demostrar las 7 Para facilitar la lectura, las citas de algunas obras de Paul Feyerabend tendrán doble fecha. Se hará en el caso de que se trate de una obra cuya edición original haya sido corregida, ampliada o reeditada. La primera se refiere al año de la primera publicación y la segunda a la publicación consultada. El objetivo de la doble fecha es dar cuenta de un orden cronológico de las publicaciones y, al mismo tiempo, remitir el lector a los lugares precisos donde pueda cotejar las citas textuales, las paráfrasis y las referencias generales. 8 Para una crítica de la concepción que tiene Feyerabend acerca del falsacionismo popperiano se puede ver: Settle. Para un estudio critico acerca de las tesis popperianas que inciden y permanecen a lo largo de su obra se puede ver Farrell (2000, 257-266; 2003, 147-156) y Oberheim (85 y ss).

22

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 17-46


Diatribas en torno a la racionalidad científica

contradicciones y limitaciones que supone el proyecto popperiano de erigir un criterio de demarcación. Señala los dilemas que plantea su objetivo de definir negativamente a la ciencia, es decir, de procurar definirla a través de una discriminación dialéctica respecto de todo elemento metafísico. Entre las distintas objeciones que dirige contra el falsacionismo pueden distinguirse las objeciones históricas de las conceptuales. Aunque cabe aclarar que muchas veces estos dos tipos de argumentos se presentan íntimamente entrelazados. En los argumentos históricos el vienés expone cómo en ciertos hechos históricos paradigmáticos de la ciencia se han adoptado estándares o normas metodológicas que son antitéticas con el falsacionismo. Arguye que si el falsacionismo no describe la práctica científica real debe ser reconocido como un criterio vacío9. Sus argumentos conceptuales, en cambio, consisten en exponer las limitaciones lógicas y metodológicas que presenta el falsacionismo a la hora de ofrecer una noción de ciencia. En línea con este segundo tipo de objeciones cabe citar su pluralismo metodológico. Éste constituyó una ocasión para demostrar metodológicamente la presencia ineludible y positiva que juegan en el quehacer científico todo aquellos elementos que el racionalista crítico reconocería como metafísicos. Pues de estos elementos –arguye Feyerabend–dependen justamente la posibilidad de superar el conservadurismo conceptual, aumentar el contenido empírico de la ciencia y recuperar el valor descriptivo de las teorías científicas. Ante la posibilidad de que una teoría seleccione únicamente la evidencia que la confirma, deviniendo así en un dogmatismo, Feyerabend (1965 150-151) destaca la necesidad de introducir teorías alternativas que provean nueva evidencia o experimentos cruciales capaces de cuestionar o refutar a la teoría imperante. Pero estas teorías no pueden ser inferidas de la evidencia observacional propia de la teoría vigente. Esta dificultad da lugar al vienés (1958/1981g 36) a reivindicar la necesidad de la metafísica, esta vez entendida como fuente no observacional de las especulaciones que dan origen a las nuevas teorías. Luego, el progreso científico reclama que la metafísica no se limite a reflejar o clarificar los desarrollos de la ciencia sino que juegue un rol activo y crítico dentro del mismo quehacer científico construyendo visiones del mundo alternativas a las imperantes (Feyerabend 1963b 66). Con su habitual ironía Feyerabend señala la paradoja por la cual el ideal de aumento de contenido –que persigue tanto el popperiano como el positivista– exige adoptar la proliferación teórica y, por ende, ser buenos metafísicos. 9 Farrell (2003, 26-35) expone los argumentos que formula Feyerabend contra el falsacionismo desde su análisis histórico de la revolución copernicana, de modo análogo a cómo el vienés lo hace con el positivismo lógico.

23


Gargiulo, Teresa

Según el principio de aumento de contenido una teoría es preferible en cuanto ofrece mayor información que las teorías precedentes. Pues bien, el vienés demuestra que es posible obtener nueva evidencia empírica capaz de refutar o falsear una teoría firmemente arraigada en la medida que se proponen y desarrollan nuevas teorías alternativas. Luego el ideal de aumento de contenido empírico solo puede ser asegurado en virtud de una especulación metafísica10 que permita instaurar una competencia entre teorías alternativas (Feyerabend 1963/1999 99; 1963/2013 293). Nuestro autor también defiende la metafísica en cuanto que por ella la ciencia puede explicar y dar cuenta del mundo. Las visiones metafísicas constituyen para el vienés (1958 103-104; 1963a 321-322) la base del intento por explicar científicamente las propiedades del mundo. Argumenta que si se las excluye, la ciencia deviene en un esquematismo predictivo de fenómenos carentes de explicación y sentido. Feyerabend (1958/1981 22; 1964/1981a 180) sostiene e ilustra concretamente esta tesis con el problema de la interpretación de la física cuántica. Insiste que no habrá progreso en la interpretación de la teoría cuántica hasta que la atención en la sofisticada formulación matemática se dirija hacia los problemas filosóficos fundamentales.11 Hasta aquí el vienés procura dar cuenta cómo aquellos elementos que paradojalmente son descriptos por el positivismo lógico o por el racionalismo críticos como a-científico, pre-científicos o pseudo-científicos constituyen paradojalmente el seno del quehacer científico. Se podría contemplar la posibilidad de que se acuse a Feyerabend de cometer aquí una instancia de falacia genética: pues no porque en la metafísica se hayan iniciado ideas que llegaron a ser parte de la ciencia, debe reconocerse el fracaso de la separación entre ciencia y metafísica. O, desde otra perspectiva, no porque en la metafísica se explique la génesis psicológica o accidental de la ciencia se puede dictar la superioridad de aquella sobre ella. En pocas palabras, se podría objetar a Feyerabend que no puede juzgar legítimamente a la ciencia actual en razón de su origen mítico o filosófico.

10 Feyerabend concibe la metafísica no como una disciplina autónoma respecto a la ciencia sino como una dimensión integrada en el cuerpo y la práctica del conocimiento científico, es decir, como las distintas cosmovisiones o meta-teorías que atraviesan y definen el entero curso del quehacer científico. Para profundizar en las distintas connotaciones y roles que adquiere en la obra del vienés la metafísica respecto a la ciencia se puede ver Gargiulo (2015a; 2015c). 11 Para profundizar en el abordaje que hace Feyerabend respecto al problema realismo-instrumentalismo en el principio de complementariedad de Bohr se puede ver Gargiulo (2012).

24

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 17-46


Diatribas en torno a la racionalidad científica

Tal objeción sería válida si Feyerabend se limitara a defender metafísica en virtud de que ella constituye el reservorio imaginativo a partir del cual se originan las teorías científicas. Pero nuestro filósofo (1963a 321-322) no defiende la metafísica como un mero dispositivo psicológico que interviene en la invención de nuevos modelos explicativos, tal como ya lo supo hacer Karl Popper. Dando un paso más, postula la conveniencia metodológica de que la metafísica sea parte de lo que sus interlocutores reconocen como quehacer propiamente científico. Sin abandonar nunca el carácter irónico de esta crítica da cuenta de las ventajas metodológicas que se siguen de la integración de la metafísica en la práctica científica, a saber, argumenta que sin ella la ciencia no podría prevenir los dogmatismos que obstaculizan el progreso científico, aumentar su contenido empírico y, finalmente, superar el carácter instrumental que caracteriza a muchas de las teorías científicas. En Outline of pluralistic theory of knowledge and action (1968/1999 108-110) el vienés objeta el criterio popperiano de demarcación mostrando que incluso las teorías científicas potencialmente falseables recurren a hipótesis auxiliares que se basan, a su vez, en hipótesis metafísicas. Para determinar el valor de verdad de una teoría, se recurre usualmente a teorías auxiliares que tienen componentes metafísicos. Por ejemplo, uno de los supuestos sobre los que se funda el principio de complementariedad de Bohr –explica Feyerabend (1958/1981 22-23; 1958 81-82)– dicta que todo resultado experimental o conocimiento no puede ser sino expresado en los términos de la física clásica. Ahora bien, esta imposibilidad de encontrar un nuevo esquema conceptual –señala el vienés (1958 87)– no ha sido demostrada por la misma física, sino que se funda en la decisión metafísica, más o menos consciente, de no ir más allá de lo que es dado en la experiencia. En orden a evitar todo tipo de circularidad o una regresión hacia el infinito se debe admitir que hay una teoría metafísica o, lo que es lo mismo, una teoría infalsable. Ahora, si toda comprobación o falsación implica suposiciones metafísicas auxiliares, se sigue que la metafísica no queda limitada a una instancia previa a la actividad científica, sino que constituye el núcleo medular de la misma justificación o comprobación de la teoría científica. Popper –concluye Feyerabend– cae en una contradicción interna al pretender expulsar la metafísica del cuerpo de la ciencia (Feyerabend 1954/1955 481-482; 1955/1981 127-128; 1956 92 y ss.; 1961/1999 52; 1963/1999 99-100; 1964b 349; 1964/1981b 203; 1965 150; 1966 9; 1969/1981 154-155 n. 25 y 159 n. 29; 1970/1989 101-103; 1975/1992 2 n. 2; 1978/1981 173-174; 1981a 22-23; 1993/2008 34 n. 2).

25


Gargiulo, Teresa

Feyerabend (1972/1999 171-172; 1975/1992 204 n. 314; 1989/2000 60-61; 1991a 84-87) señala cómo numerosas teorías científicas se fundan en hipótesis metafísicas que aún no pueden ser falseadas.12 Esto lo hace en orden a invalidar aquella tesis de Popper (1980 40-41) según la cual la diferencia entre ciencia y no-ciencia radicaría en que la primera es conjetural y falsable mientras que la segunda está constituida por hipótesis infalsables. El epistemólogo vienés alega que cuando la teoría especial de la relatividad se enfrentó con las primeras falsasiones, no dejó de ser considerada por Einstein como una conjetura científica. Cabe aclarar que el vienés no se limita aquí a corregir algunos límites metodológicos del falsacionismo. Su tarea no acaba en subrayar las falencias de la epistemología normativa de Popper que erige el método como la garantía de la objetividad científica –tal como sugiere Nickels (126)–. Su crítica alcanza al mismo intento popperiano de establecer límites en orden a salvaguardar la racionalidad de la ciencia. O lo que es lo mismo, su proyecto de definir la ciencia en contraposición a cualquier otro tipo de racionalidad distinta a ella: Pero nuestra presente investigación no es acerca de si hay límites a nuestra razón; la cuestión es dónde están situados estos límites. ¿Están fuera de las ciencias de modo que la ciencia misma permanece completamente racional; o son los cambios irracionales una parte esencial incluso de la empresa más racional inventada por el hombre? ¿Contiene el histórico “ciencia” ingredientes que desafían un análisis racional, aunque pueden ser descritos con completa claridad en términos psicológicos o sociológicos? ¿La pretensión abstracta de acercarse a la verdad puede alcanzarse de una manera totalmente racional, o es quizás inaccesible para aquellos que deciden confiar solamente en la argumentación? (Feyerabend 1970/1989 103).

Feyerabend (1991b 12) asevera que todo intento por delimitar la empresa científica responde no sólo a las circunstancias particulares de cada investigación sino también a un trasfondo metafísico particular. En el ámbito de la filosofía de la ciencia cada corriente o tradición epistemológica sugiere una distinción entre lo científico y lo mítico, entre lo racional y lo irracional en función de la ontología o visión del mundo que la anima. Los distintos criterios de demarcación –escribe Feyerabend– “aparecen, se desvanecen y desaparecen de nuevo como arte de un proceso histórico muy complejo” (32). La aparente objetividad del criterio de demarcación ofrecido por Popper no es sino el

12 También se puede ver Feyerabend (1972/1999 172-174; 1975/1992 81-83, 100-103, 108-111, 130-131, 138140, 143-144; 1981ª 13-14, 21-22)

26

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 17-46


Diatribas en torno a la racionalidad científica

resultado de omitir toda referencia a la tradición metafísica que le da soporte (Feyerabend 1970/1989, 140-141, 178; 1993/2008, 220-221). Nuestro epistemólogo (1975/1992 203 n. 312) denuncia que ni el positivismo lógico ni la escuela popperiana –como sí en cambio lo supieron hacer Aristóteles y Platón– dan cuenta o reflexionan críticamente sobre sus propios criterios de demarcación. Cuestiones tales como qué es el conocimiento, o bajo qué circunstancias es preciso abandonar el criterio de demarcación, quedan sin responder. No sólo no existe una argumentación racional que sustente a dichos principios sino que las existentes tampoco atienden –según el vienés– a la práctica científica real desapareciendo así todo tipo de conexión entre la epistemología o filosofía de la ciencia y la misma ciencia: Todas las teorías del conocimiento (científico) surgen de la cuestión: ¿Qué es el conocimiento, y cómo puede detenerse? La respuesta tradicional contiene una definición del conocimiento, o del conocimiento potencial (un criterio de demarcación), y una enumeración de los pasos por los cuales puede obtenerse el conocimiento (por medio de los cuales el conocimiento puede separarse del no-conocimiento). La respuesta tradicional se considera generalmente como última. En cualquier caso, sólo rara vez se enseña cómo puede ser revisada. Las revisiones que de hecho ocurren son subrepticias, no acompañadas de argumentaciones; estas revisiones cambian a menudo la práctica acumuladora de conocimientos, pero sin cambiar la epistemología asociada. Como resultado, la conexión entre ciencia y epistemología se hace más tenue y finalmente desaparece por completo (Feyerabend 1975/1992 203).

El vienés señala a Popper la abierta contradicción que supone para su mismo criterio de demarcación el hecho de fundar la ciencia en un modelo arbitrario de racionalidad; a saber, un modelo de racionalidad al que puede adherir contingentemente una comunidad científica. Popper (1980 40-41) sostiene que todo enunciado científico debe ser contrastable intersubjetivamente y por tanto, que no pueden existir en la ciencia enunciados últimos. Todo enunciado que se deduzca de un enunciado contrastable intersubjetivamente debe ser él mismo también falsable o al menos deben ser falseables algunas de las conclusiones que se deduzcan de él. Popper (1962 37 y ss; 1980 37-38, 80-81) en orden a evitar las contrastaciones ad infinitum sugiere como solución confiar en la racionalidad de una comunidad científica. Pues ésta decidiría por consenso qué enunciados básicos gozan del rango de instancias falseadoras “últimas”. Ahora bien, estas consideraciones de Popper son las que le permiten a Feyerabend señalarle, a modo de una conclusión lógica, que no son las cualidades lógicas ni empíricas lo que define la empresa científica. Por el contrario, en esta instancia, son los factores sociológicos, psicológicos,

27


Gargiulo, Teresa

políticos, económicos y, en general, metafísicos los que marcan el curso de la actividad científica. En definitiva aquellos aspectos que son catalogados por el racionalista crítico como irracionales son la base sobre la cual descansa la ciencia. En Diálogos sobre el Método (1989/2000), escribe: a. Eso es exactamente lo que dice Popper. Él afirma que, cuando uno se ocupa de un problema, se hacen conjeturas y que las conjeturas son tentativas que se corrigen basándose en las refutaciones… b. Eso es exactamente lo que no ocurre en los momentos decisivos de la investigación científica. Puede suceder que existan conjeturas, pero muchas de ellas son inconscientes y sufren cambios y modificaciones sin que se realice ningún análisis explícito, sino es formando un proceso global de adaptación. Y, fíjate bien, esta adaptación no depende de un ente místico llamado “realidad objetiva”, sino de las auténticas relaciones entre las personas y las cosas. Depende de los colegas, la financiación, las restricciones económicas, las limitaciones de tiempo, el mare mágnum siempre cambiante del formalismo matemático, el juicio de lejanos comités de supervisión, la funcionalidad de los procesadores de datos, de los imanes. La política desempeña también un papel (…) (Feyerabend 1989/2000 139). En la medida que Popper no duda en atribuir a su metodología falsacionista un carácter convencional está introduciendo todos aquellos factores sociológicos y psicológicos que pretendía excluir de su definición de ciencia. Pues, si todos estos elementos inciden en el mismo acuerdo de la comunidad científica entonces no pueden ser reconocidos por la escuela popperiana como un dominio ajeno a la ciencia. Aún más, si los científicos –apunta Feyerabend– definen de modo convencional los criterios en virtud de los cuales se decide conservar o rechazar una teoría, entonces lo que es o no es científico queda circunscripto también a los acuerdos contingentes de la comunidad científica: Popper quiere decirnos lo que es racional en el campo científico y lo que no lo es. Afirma que es racional rechazar una teoría que entre en conflicto con un hecho aceptado, mientras que es irracional conservarla. Y supone que este criterio basta para hacer unánime la selección de teorías y racional el debate consiguiente. Sucede, sin embargo, que, cuando alguien rechaza una teoría sobre la base de una prueba considerada refutatoria, hace suposiciones que son tan racionales (o irracionales) como las del adversario, que se opone a considerar refutatoria dicha prueba (Feyerabend 1989/2000 66-67).

28

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 17-46


Diatribas en torno a la racionalidad científica

El criterio de demarcación propuesto por la escuela popperiana responde, en definitiva, a un proceso de juicios de valor comprometidos con una visión metafísica y cosmológica del mundo. A menos que se desarrollen argumentos que den cuenta de tales posiciones metafísicas, estas serán defendidas – arguye Feyerabend– de una manera circular, o lo que es lo mismo, de una manera irracional. Es singularmente conocido el recurso que emplean Popper y Lakatos para superar estas inconsistencias apuntadas por el vienés. Tanto el uno como el otro aseguran que los rasgos aparentemente irracionales de la ciencia tienen lugar en el mundo material o psicológico. Pero –alegan– que éstos están ausentes en el tercer mundo donde tiene lugar propiamente el crecimiento del conocimiento. Sólo en este tercer mundo se hace posible un juicio racional de todos los aspectos de la ciencia. En sus tres versiones del Tratado contra el Método (1975, 1988 y 1993) Feyerabend cuestiona la existencia de este tercer mundo. Argumenta que el científico está interesado en conocer, modificar e influir en el mundo material y que son justamente las variables psicológicas del científico las responsables de este progreso científico (Feyerabend 1970/1989 104-105). Otro intento de Popper por definir dialécticamente la ciencia respecto a lo no científico consiste en destacar la crítica como el elemento racional y distintivo del progreso científico. En cierto sentido, Popper no concibe a la ciencia como algo esencialmente distinto de los antiguos mitos. Por el contrario, asegura que la ciencia contiene en sí misma una visión del mundo y suposiciones metafísicas características del pensamiento mítico. La ciencia se distingue del mito en cuanto que es acompañada por una tradición de segundo orden, es decir, por la discusión crítica de sus elementos míticos. Popper (1966 231) admite, además, que nuevos estándares científicos pueden ser inventados y enseñados de manera muy irracional. No obstante, uno puede criticarlos después de que han sido adoptados. Ésta última posibilidad es lo que ciertamente garantiza la racionalidad del conocimiento científico. Contra esto, en primer lugar, Feyerabend (1991a 140) objeta que muchas de estas conjeturas o suposiciones metafísicas nunca se constituyen en objeto de una discusión explícita. Simplemente son parte del proceso general de adaptación de las teorías científicas que suponen las relaciones reales entre colegas, las restricciones financieras, las limitaciones de tiempo y el devenir de formalismos matemáticos y académicos. En segundo lugar, en More Clothes from the Emperor´s Bargain basement (1981c 234-235) Feyerabend le señala a Popper que tal definición de ciencia incurre en una petición de principio pues si todo

29


Gargiulo, Teresa

elemento científico debe someterse a una discusión crítica entonces también esta misma noción de ciencia debería estar sometida a un análisis crítico. Bartley (30) adjudica a Popper un racionalismo comprensivamente crítico (CCR) según el cual éste debe ser consecuente con su falsacionismo y someter a crítica a todas sus creencias y posiciones filosóficas básicas. Podría argumentarse contra Bartley –y en este caso también contra Feyerabend– que Popper (1966 232-240) no sostiene este tipo de racionalismo; más bien lo postula como una decisión convencional de carácter ético13. No obstante, la objeción del vienés es independientemente de si Bartley con su noción de CCR captura o no la intencionalidad del racionalismo popperiano, o de las paradojas lógicas autorreferenciales que surgen en torno a esta noción de racionalismo (Radnitzky, Bartley). Feyerabend (1963/1999 80-81; 1964a 253-254; 1968/1999 107-108; 1970/1989 99-100; 1972/1999 174-175; 1975/1992 47-48, 130-131, 138-140, 143-144, 158-161; 1980/1999 212-214; 1991b 77) reiteradamente argumenta en su pluralismo teórico que la noción crítica de ciencia postulada por Popper únicamente es posible en los términos de una yuxtaposición de teorías alternativas. Pero esta proliferación teórica exige obviar ciertas falsaciones en orden a preservar el pluralismo. Luego, en orden a salvaguardar el falsacionismo crítico se deben adoptar criterios metodológicos, por ejemplo, el principio de tenacidad, que son contrarios al falsacionismo14. Pero al vienés no le interesa únicamente señalar las contradicciones que existen entre la metodología popperiana y sus ideales epistémicos. Dando un paso más, Feyerabend (1970/1981b 149-151) argumenta que la referencia de Popper a la falsación y a la necesidad de discutir críticamente las alternativas no es sino una defensa solapada de los ideales epistemológicos de su racionalismo. Pues esta discusión crítica y abstracta acerca de las ventajas de las distintas teorías alternativas –que debería darse en una revolución científica– se desarrollaría en la clave de su modelo unívoco de racionalidad. En otras palabras, ante una revolución científica existe la posibilidad –explica Feyerabend– de elegir entre diversos modelos de racionalidad. Ahora bien, tal elección no puede ser catalogada por el racionalismo crítico como una elección racional. Pues para que

13 Para una exposición del debate entre Bartley y Popper se puede ver Gattei. 14 Feyerabend además destaca que la proliferación teórica no solo reguarda los ideales críticos del modelo de ciencia popperiano sino también, y sobre todo, sus compromisos éticos (Feyerabend 1961/1999 69-70, 77; 1970/1981a 65-67; 1970/1981b 143-144; 1970/1989 24-25; 1975/1992 4-6; 1978/1982 158-159, 200; 1978/1993 182-186; 1996/1999 79-80).

30

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 17-46


Diatribas en torno a la racionalidad científica

sea así, el elector ya debería estar comprometido con estándares racionales y por tanto su elección ya no sería última. Aquí Feyerabend (1977/1999 200-211) no busca mostrar la irracionalidad de esta elección última. Le interesa exponer que ésta puede presentarse como irracional o no-racional frente los criterios del racionalismo crítico. El racionalista se encuentra ante el dilema o de postular una regresión hacia el infinito o de reconocer una elección no racional de su propio modelo de ciencia o racionalidad. Aún más, si Popper concibe la delimitación entre ciencia y no ciencia como resultado de una elección o una decisión que se hace de acuerdo a sus ideales epistemológicos se sigue, entonces, que toda transición teórica o revolución o metodología será juzgada por él de acuerdo a su eficacia para alcanzar el ideal epistemológico de someter a toda sentencia a falsación. No obstante, en Historical Background: Some Observations on the Decay of the Philosophy of Science (1981a) Feyerabend alega que no existe ningún intento en la tradición popperiana de someter su criterio de demarcación a una confrontación con la práctica científica. Simplemente juzga las teorías científicas en sus propios términos, es decir, en función de los principios epistemológicos que normativamente decide formular. La racionalidad científica propuesta por Popper –apunta el vienés– no puede constituir un meta-criterio según el cual se juzgue objetivamente a las demás tradiciones. Pues dicha racionalidad, en sí misma, no es más que una tradición coexistente con otras formas de comprender el mundo. Ninguna tradición posee una superioridad intrínseca sobre sus rivales. Sólo se podría adjudicar superioridad a una tradición en particular si arbitrariamente se opta por sus pautas de evaluación (Feyerabend 1999d 202-203; 1982, 20-21, 27 y 93). Esta crítica al racionalismo crítico condujo a Feyerabend a sostener desde mediados de la década de los 70 hasta fines de los 80 una posición relativista15. Considera el peligro de que la ciencia se convierta en una ideología que inhiba el desarrollo de las demás cosmovisiones no científicas; y, en este

15 Para estudiar las distintas posiciones que Feyerabend mantiene respecto al relativismo se puede ver Gargiulo (2015d) y (2016a).

31


Gargiulo, Teresa

sentido propone como solución concebir la ciencia como una tradición entre las tantas formas existentes de ver el mundo16. En síntesis, Feyerabend denuncia que el criterio de demarcación que ofrece Popper no define el quehacer científico real. Lo único que permite es establecer si una investigación o teoría científica se somete o no a su metodología falsacionista. En Dialogo sobre el método (1989/2000) escribe “lo que llamas ‘la teoría de Popper’ es una contribución a la teoría de las confirmaciones y que no tiene nada que ver con la ciencia” (61). La crítica a este modelo unívoco de racionalidad científica justifica la posterior búsqueda de Feyerabend de una noción de ciencia que se presenta diametralmente opuesta a la de su maestro Popper. A continuación procuraremos exponer, en líneas generales, su propuesta de una visión alternativa de la racionalidad científica.

3. L a doctrina positiva de Feyerabend acerca de la ciencia Esta crítica que Feyerabend dirige a Popper puede ser valorada como el punto de partida de sus esfuerzos por ofrecer una nueva concepción de ciencia. Sus diatribas contra el criterio popperiano de demarcación constituyen el eje sobre el cual el vienés comienza a esbozar positivamente su comprensión de la ciencia. A saber, una visión más comprehensiva de la racionalidad científica donde el mito, el arte y la filosofía la integran y constituyen un único proceso 16 Feyerabend juzga al racionalismo humanista de Popper como una versión desvirtuada de la filosofía de Mill. Lo acusa de ofrecer en La Sociedad Abierta y sus Enemigos (1945) una estructura formal que garantiza únicamente la primacía de la ciencia sobre las demás tradiciones sin atender a la felicidad y a la libertad individual el cual es un rasgo característico de liberalismo de Mill (Feyerabend, 1992 32 n. 35; 1999d 218; 1982 3-4, 29, 89-90, 117, 124, 149; 1981e 31). La consecuencia que tiene esta forma de proceder sobre la existencia humana no es sino la obstaculización del libre desarrollo de la humanidad y de la vida en democracia (Feyerabend 1982 158-159). Feyerabend denuncia el proceder de la escuela popperiana como un comportamiento diametralmente inverso al de Mill. Su objetivo primario no es hacer de la ciencia una empresa más humana sino elaborar un método. Como respuesta a las cuestiones metodológicas y epistemológicas que plantea el problema de la inducción de Hume Popper generaliza una metodología o actitud crítica que debe regir no solo la ciencia sino a la política y conducta humana en general (Feyerabend, 1992 161; 1982 141; 2005 64-65; 1999h 107-108). Ahora bien, tal método se limita a ofrecer un modelo matemáticamente descriptible y empíricamente contrastable que nada dice acerca de la relación del hombre respecto a la naturaleza. El vienés escribe que en Popper “las consideraciones humanistas están reducidas al mínimo” (Feyerabend 1992 176). En este sentido, sería más propio decir que el humanismo del vienés se inscribe en la filosofía de Mill y relativizar las afirmaciones de Oberheim (93-94) quien asegura que a pesar que Feyerabend adopta una actitud crítica respecto al racionalismo crítico, no deja de adoptar la actitud normativa de la ética –propia de la tradición popperiana– para juzgar la ciencia. Para un estudio crítico sobre el humanismo de Feyerabend como heredero de la filosofía Mill se puede ver Lloyd (2000 122-123), Downes (2002 163-164). Para analizar la preocupación de Feyerabend por hacer de la ciencia una empresa más humana se puede ver Gargiulo (2012a) y (2016b).

32

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 17-46


Diatribas en torno a la racionalidad científica

histórico a partir del cual se configura la entera cultura occidental. En un sentido positivo, se puede decir que Feyerabend concibe la ciencia como la continua comunicación de múltiples e incluso antagónicas tradiciones. En los años 70, con la primera formulación de su anarquismo epistemológico, Feyerabend emprende la tarea de pensar la ciencia desde un horizonte más amplio. En su famoso ensayo Contra el método (1970/1989) –que es el antecesor de las sucesivas ediciones de su Tratado contra el Método (1975, 1988 y 1993)17 – ya muestra la necesidad de esbozar una explicación más compleja del conocimiento científico que la que ofrece el racionalismo crítico y el positivismo lógico con sus respectivos criterios de demarcación. En las dos primeras ediciones de su Tratado contra el método Feyerabend objeta los esfuerzos tanto del positivismo lógico como del racionalismo crítico por definir la ciencia a través de un método. Argumenta que las reglas y procedimientos metodológicos son el resultado de atender a la dinámica y al contexto particular de cada investigación. Luego, es la acción científica lo que define al método y no al revés (Feyerabend 1975/1992 xv- xvi). Popper, Lakatos e incluso Kuhn en la medida que intentan construir una metodología univoca para la ciencia ofrecen –explica el vienés– imágenes incompletas e inconsistentes de la ciencia. Esto es lo que justifica para él la necesidad no de una ciencia anárquica sino de una noción de ciencia que no sea definida por el método. En 1977 bajo el título Solicitud de un Año Sabático ofrece importantes claves para entender su obra. Allí explica que después de la reducción al absurdo de los distintos criterios de demarcación lo que resta es la tarea –caracterizada como un plan a largo plazo– de formular una nueva teoría o modelo de ciencia: Resultado: ni el contenido, ni el método, ni las reglas de la razón nos autorizan a separar la ciencia de la no-ciencia. Toda separación producida es un fenómeno local; se produce bajo ciertas condiciones, entre ciertas partes de la ciencia y ciertas partes de la no-ciencia, y no pueden utilizarse para inferir una diferencia esencial entre las cosas separadas. Mi plan a largo plazo es construir una teoría del conocimiento que tenga en cuenta esta situación. Esta teoría diferirá en dos aspectos de las teorías del conocimiento al uso:

17 Atenuando la tesis de Hacking (1994) quien sostiene que las publicaciones de su Tratado contra el método constituyen libros diferentes con un mismo título, podemos decir que Feyerabend fue reescribiendo y modificando esta obra de tal modo que ella fuera acorde a los progresos y avances que hacía respecto a su comprensión de la ciencia. Esto explicaría los extensos párrafos e incluso capítulos que en unas oportunidades omite y, en otras agrega.

33


Gargiulo, Teresa

1. Será una teoría de las ciencias tanto como de las artes (humanidades). En lugar de ver las ciencias y las artes como dos dominios diferentes, presentará a ambos como partes diferentes de una y la misma empresa, del mismo modo que la física y la biología aún son vistas como partes de una y la misma empresa: la ciencia. 2. No contendrá reglas abstractas. Todas las reglas, las de la lógica incluida, quedaran vinculadas a un contexto bien especificado, y dará una razón histórica del contexto y del correspondiente uso de reglas (Feyerabend 1977/2013 302-303). Ahora bien, en la tercera edición de su Tratado contra el método (1993) Feyerabend da un salto cualitativo: trasciende la discusión acerca de la relación que cada teoría establece con su método, tal como es planteada en el marco de una epistemología normativa o descriptiva de la ciencia. Sus críticas y denuncias no tienen como objeto el método en cuanto tal sino la misma noción de ciencia. La cuestión que se le presenta por resolver no es cuál es el método más eficaz sino qué es la ciencia. El vienés denuncia que la filosofía de la ciencia, tal como se desarrolló a lo largo del siglo XX, ha sido incapaz de ofrecer una clara noción de ciencia. Pues si el método es lo que define a la ciencia, y existe una pluralidad de métodos, se debe admitir que existe una infinidad de modos de entender la ciencia. O, en otras palabras, dada la identidad establecida por el racionalismo crítico entre ciencia y método, el anarquismo metodológico obliga a reconocer la ausencia de una definición que explique qué es ciencia (Feyerabend 1993/2008 238). En su libro recientemente publicado bajo el título Filosofía de lo Natural (1970/2013b)18 Feyerabend revaloriza el mito y la filosofía como tradiciones cognoscitivas cuyos contenidos y métodos son tan valiosos como los de la ciencia. Argumenta que pueden existir alternativas plenamente desarrolladas a una concepción científica del mundo; y que tales alternativas no pueden evaluarse con los criterios científicos actuales, sino sólo con los suyos propios. Sostiene que en las civilizaciones pre-occidente, el mito hacía vivir de una manera tal que los hombres no “extrañaban” la ciencia. Y, en definitiva, cómo

18 En el epistolario que mantiene Feyerabend con Lakatos (1968-1974/2000) entre los años 1968 y 1974 se menciona el manuscrito de una “Filosofía de la naturaleza”, que aquel nunca llegó a publicar –siquiera se sabía escrito. En 2007/8, Oberheim, revisando papeles de Feyerabend en el Archivo de Filosofía de la Universidad de Constanza, halló unas hojas mecanografiadas que, a la postre, resultaron ser aquel proyecto que, sin bien es inacabado –suponía tres tomos-, constituye un verdadero libro. Y así se publica en alemán y en inglés en 2009 y la traducción castellana en 2013.

34

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 17-46


Diatribas en torno a la racionalidad científica

es en esa relación en donde hay que ahondar para poder juzgar “racionalmente” a la racionalidad de la cual, la ciencia es el fruto más actual. Reflexionando sobre su evolución intelectual, sus trabajos y sus metas como filósofo, el filósofo vienés cuenta haber entendido en los años 70 que los mitos y las cosmologías no científicas ofrecen información fáctica sobre el mundo tan detallada como la que otorga la botánica, la biología o la medicina. Subraya que no existe “una diferencia esencial” (1977/2013 302) entre la ciencia, los mitos y la filosofía. Este descubrimiento significo evidentemente un paso especulativo importante en su comprensión positiva de la ciencia; y le ofreció un motivo más para encontrar, concomitantemente, superflua la consigna popperiana de modificar los mitos de modo que sean susceptibles de una falsación empírica (Feyerabend 1977/2013 297-298). Ciencia, mito y filosofía no son sino modos de concebir el mundo se le presentan al vienés como completos en el sentido que poseen métodos para alcanzar sus objetivos y para comprobar sus éxitos y fracasos. Cada uno de ellos reivindica una forma de vida que posee un vigoroso núcleo racional – explica (Feyerabend 1970/2013 43; 1975/1992 33; 1978/1982 85 n. 1). Pero el vienés no se limita únicamente a revalorizar el mito como un modo racional de representar el mundo. La noción de mito se le presenta incluso superior al concepto de ciencia pues le permite entender la ciencia, el arte, la filosofía y la religión como modos alternativos y recíprocamente intercambiables de abordar el mundo. En su Filosofía Natural escribe «Pero como el mito no admite nada que carezca de sentido […] puede tener un efecto “liberador” frente a la ciencia, siendo a veces superior a ésta» (Feyerabend, 1970/2013 130). El mito al recoger las transiciones existentes entre esquemas cosmológicos no admite sinsentidos. Describe el concepto de realidad que en un determinado período histórico influye en el actuar, sentir y percibir de los hombres. Pero, al mismo tiempo, revela el devenir de los factores psicológicos, sociales y culturales que cambian, en parte, por circunstancias externas y, en parte, como resultado de acciones humanas conscientes: (…) en el mundo hay transiciones, siendo indiferente que estas transiciones se hallen sin más en el material objetivo o hayan sido introducidas a través de maquinaciones ocultas: después de las maquinaciones, el mundo objetivo observado por el hombre que secretamente lo ordena contiene transiciones, y el mito las recoge (Feyerabend, 1970/2013 92).

Según esta interpretación natural del mito los elementos de la realidad, los “hechos” de la conciencia humana no son dados unívocamente. Por el contrario, los hechos son modelados conforme a una estructura cosmológica.

35


Gargiulo, Teresa

El mito es justamente el que manifiesta el orden que el hombre introduce en el mundo19. La ciencia, a diferencia del mito, se encuentra habitualmente en periodos de transiciones teóricas que constituyen auténticos problemas de sentido. Y esto es lo que Feyerabend se propuso mostrar con su doctrina de la inconmensurabilidad: en las transiciones teóricas es imposible poder distinguir desde el interior de una teoría científica los hechos de las teorías, el objeto real del objeto teórico, los elementos objetivos de los subjetivos, lo empírico de lo metafísico, lo racional de lo que parece ser irracional. Pues cada teoría científica en función de su ontología o visión del mundo establece un criterio de demarcación particular y arbitrario entre estas realidades. En una transición teórica existe una sustitución de ontología y un correspondiente cambio en el significado de los términos observacionales, y en el modo de seleccionar y disponer los hechos empíricos y los métodos. Luego, ninguno de estos elementos –ni los hechos empíricos, ni los términos observacionales, ni los métodos) pueden constituir el criterio universal y objetivo en función del cual se dé cuenta de la sustitución de sentido que supone una transición teórica. He aquí la impotencia que debe admitir el positivismo lógico y el racionalismo crítico a la hora de explicar las transiciones teóricas.20 A la hora de expresar los cambios de sentido que supone toda transición teórica, ambos deberían reconocer en la noción de mito una herramienta especulativa más fructífera que sus propios esquemas metodológicos. No sólo el mito, también el arte se erige para Feyerabend como un medio más apto para expresar el devenir del quehacer científico y de las culturas en general. En su artículo Let´s Make More Movies (1975/1999 198-199) presenta el arte escénico y el cine como aquellos que son capaces de representar la unidad de los elementos antagónicos que interactúan en un momento histórico tales como las teorías, las lecturas, las imágenes, las emociones, las instituciones y el estilo de vida que deviene y se transforma como resultado de tales interacciones. La versión más temprana de esta tesis se encuentra en On the Improvement of the Sciences and the Arts, and the Possible Identity of the Two (1967 411) donde argumenta que por el bien de la cultura occidental nunca debería haberse abierto el abismo entre las ciencias y las artes. Allí invita a que la ciencia se reapropie del método de múltiple representación característico 19 Feyerabend (1970/2013 90-91) destaca que éste orden representado de una manera indirecta está en el mundo, alejándose así de la teoría estructuralista de Levi-Strauss según la cual el orden representado no es de orden natural sino lógico, es decir, existe únicamente en la mente que lo observa. 20 Para analizar la doctrina de la inconmensurabilidad de Paul Feyerabend como una reducción al absurdo de las tesis del positivismo lógico y del racionalismo crítico, se puede ver, Gargiulo (2014a), (2014b) y (2015b).

36

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 17-46


Diatribas en torno a la racionalidad científica

del arte moderno. Un año más tarde, publica Outline of Pluralistic Theory of Knowledge and Action (1968/1999 105) donde asegura que tanto la ciencia y la filosofía deben aprender de la forma en que el arte contemporáneo se resiste a manifestar la realidad en conformidad con un único punto de vista. La ciencia debe imitar el pluralismo y la libertad de la creación artística. En su Filosofía Natural (1970/2013 134) escribe que la ciencia, en lugar de autoconsiderarse como la única vía para conocer objetivamente el mundo, debe imitar al mito y al arte en cuanto ambos manifiestan la contingencia de todo modo de representar y vivenciar el mundo. Esta teoría acerca de la estructura y función del mito le ofrecen al vienés nuevas claves para entender la ciencia, el arte y la filosofía: todas ellas deben ser comprendidas en un sentido mitológico en cuanto que deben recoger las transiciones de sentido que expresa el mito. El mito, la filosofía, el arte y la ciencia no son sino manifestaciones contingentes de un mundo abundante. Luego debería abandonarse todo intento de establecer una jerarquización entre estos tipos de saberes (Feyerabend 1970/2013 89). No solo porque estas constituyen vías alternativas para comprender el mundo sino porque la continua comunicación que existe entre ellas conforma un único devenir histórico: Las tres formas de vida a que se refiere –mito, filosofía y ciencia– ni pueden separarse nítidamente, ni se suceden siempre por este orden. El mito anticipa la ciencia, y la ciencia tiene rasgos mitológicos; filosofía, ciencia y mito ora conviven pacíficamente, ora se disputan el derecho a existir; “supersticiones” y “prejuicios” los encontramos por doquier (Feyerabend 1970/2013 37).

Los límites entre la ciencia, el mito y la filosofía quedan desdibujados. La ciencia entendida como la cultura occidental evoluciona y fluctúa a lo largo de la historia interactuando con diversos mitos y cosmovisiones del mundo. La ciencia, el mito y la filosofía no constituyen culturas cerradas sino que, por el contrario, se suceden en una continua y recíproca interacción. Y esto es lo que Feyerabend procura describir en su Filosofía Natural (1970/2013). El discurso de Aquiles, la filosofía de Parmenides, la crítica de Jenófanes a los dioses mitológicos, la filosofía de Descartes, el empirismo de Galileo, el mecanicismo de Newton y un largo etc., son expuestos por el vienés como hijos de una misma tradición que engendra nuestra visión científica del mundo. En oposición a la formación recibida en la London Schools of Economics, donde se buscaba definir la actividad científica mediante cánones metodológicos, Feyerabend define la ciencia como una tradición que se manifiesta históricamente heterogénea. La ciencia es en sí misma una tradición histórica. Y ante

37


Gargiulo, Teresa

la pregunta por la estructura propia de esta tradición y por los elementos que la distinguen de las demás tradiciones, el vienés responde que la ciencia posee una estructura que se define en función de las múltiples tradiciones mitológicas y filosóficas que la atraviesan históricamente. Feyerabend invita a estudiar la historia de la ciencia desde una racionalidad contextual. Es decir, propone explicar el quehacer científico en los términos de la racionalidad reconocida por sus mismos protagonistas (Feyerabend 1993/2008 237). En este sentido, le interesa destacar sobre todo que los criterios de racionalidad que ha ofrecido Popper son insuficientes para explicar todos los rasgos importantes del quehacer real de la ciencia. Ningún episodio de la historia de la ciencia se adecúa a la reconstrucción racional del falsacionismo. Pues la ciencia no es sólo un método sino también todos los elementos políticos, míticos, teológicos o metafísicos que componen su racionalidad. El vienés señala que para acceder a una imagen completa de la ciencia deben considerarse todos aquellos factores contextuales que son excluidos justamente por Popper (Feyerabend 1970/1989 101-102). El vienés ilustra, puntualmente, esta tesis (1993/2008 136-138, 144-146) analizando los argumentos “astronómicos” entre Galileo y la Iglesia. Alega que este episodio histórico no puede ser reducido a una cuestión metodológica. En él intervienen problemas de carácter epistémico, cosmológico y teológico que no son atendidos por el modelo popperiano de racionalidad. Pero que ciertamente están en consonancia con el modelo de racionalidad vigente en aquel entonces. Preguntémonos entonces: ¿podemos imaginar que después de haber oído hablar de Copérnico esa gente aún permaneciera ligada a sus concepciones? Sí. ¿Podemos imaginar que justificaron su actitud con razones propias? Sí. ¿Qué tipo de razones podían aludir? Una fuerte creencia en la verdad literal de la importancia de la forma del viaje de Cristo. ¿Es “irracional” esta creencia cuando se la compara con los argumentos “científicos”? Es “irracional” si se la compara con las reacciones “normales” de los partidarios del progreso, los cuales, sin embargo, son tan precarias como las reacciones normales del público de un mago. No es irracional cuando se tiene en cuenta la naturaleza de las concepciones del mundo. Esta naturaleza permite que cada grupo permanezca fiel a sus creencias cuando quiera y la situación política no se lo impida. (…) ¿Fue “racional” la decisión de la Iglesia? Depende de los criterios de racionalidad que escojamos (Feyerabend 1996/1999 85).

En función de los múltiples modelos de racionalidad científica se formulan, de época en época, distintos criterios para delimitar la empresa científica (Feyerabend 1972/1999 171-172). De aquí que el vienes no describa las disputas

38

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 17-46


Diatribas en torno a la racionalidad científica

entre Galileo y la Iglesia como el enfrentamiento de la racionalidad científica contra la irracionalidad, sino, más bien, como una controversia entre diversos criterios de racionalidad21. Entre líneas Feyerabend (1975/1992, 301) establece la legitimidad de elegir entre diversos modelos de racionalidad. En Ambigüedad y Armonía escribe: “no puede haber descubrimientos a menos que se abandone la casa razón o que la casa de la razón sea muy diferente de cómo la han pintado los filósofos y otros traficantes de ideas” (Feyerabend, 1996/1999 152). Estas consideraciones de vienés dieron ocasión a que Preston lo acuse de contemplar incluso la posibilidad de elegir creencias irracionales. Pues la elección entre diferentes formas de racionalidad no puede ser catalogada como una elección racional. Si ésta fuera racional –explica Preston (194-195)– entonces el elector ya estaría comprometido con estándares racionales y por tanto su elección ya no sería última. Lo que no parece entender aquí Preston es que Feyerabend (1977/1999 200-211) no busca mostrar la irracionalidad de esta elección última. Solo muestra que ésta puede presentarse como ‘un salto en el vació’, o como no-racional frente los criterios del racionalismo crítico. Pero nunca será valorada como irracional dentro de las coordenadas de su modelo contextual de racionalidad (Feyerabend 1989/2000 144-145). A nuestro entender, en esta breve exposición queda patente cómo el esfuerzo del vienés por comprender positivamente la ciencia, va en una dirección diametralmente opuesta a la de su maestro Popper. Si éste busca definir la ciencia a través de un criterio de demarcación, Feyerabend subraya la unidad intrínseca y dinámica que existe entre los elementos que aquel separa. Si Popper se esfuerza por defender un modelo unívoco de racionalidad científica, nuestro epistemólogo está interesado por demostrar la necesidad de formular un modelo de racionalidad más complejo y humano.

4. Conclusión En el primer punto, se expusieron los goznes centrales alrededor de los cuales se mueven la gran mayoría de las objeciones y dilemas que Feyerabend le dirige a su maestro. Estos son: su modelo univoco de racionalidad y su proyecto de erigir un criterio de demarcación. El vienés objeta a su maestro que es históricamente y metodológicamente falsa la dialéctica que intenta establecer entre 21 Para profundizar en los análisis que hace Feyerabend respecto a la disputa entre Galileo y la Iglesia se puede ver Gargiulo 2014b.

39


Gargiulo, Teresa

ciencia y metafísica; y, por tanto, que la búsqueda de un criterio de demarcación no es un camino efectivo para definir la ciencia. Demuestra que aquellos elementos frente a los cuales el racionalismo crítico procura delimitar una definición negativa de ciencia, constituyen paradojalmente el seno del quehacer científico. Ahora bien, esta unidad existente entre ciencia y metafísica exige a Feyerabend abandonar las dialécticas instauradas por racionalismo crítico y buscar nuevos elementos para analizar la ciencia. Esto nos condujo al segundo punto de nuestro trabajo. Allí expusimos cómo nuestro autor va madurando paulatinamente, a través de una ampliación temática y metodológica, una visión o teoría positiva acerca de la ciencia. Feyerabend entiende la ciencia como una pluralidad de tradiciones míticas, filosóficas y artísticas. Y en esta pluralidad reconoce diversas concepciones inter-teóricas de racionalidad, oponiéndose así a la noción univoca de racionalidad propuesta por Popper. Se podría decir que las discusiones con Popper le permitieron al vienes ver de una manera imperfecta lo que no es la ciencia y, por tanto, le señalaron, de algún modo, el camino o la dirección por la cual debía pensar su comprensión positiva acerca de la ciencia. Este nuevo camino para entender la ciencia consistía, concretamente, en negar el proyecto popperiano de definir dialécticamente la ciencia respecto de todo elemento metafísico. O dicho esto mismo, en otros términos: el itinerario intelectual que condujo al vienes hacia esa intelección estuvo configurado, en importante medida, como una respuesta dialéctica respecto al proyecto popperiano. En este sentido, creemos que sería legítimo reconocer en tanto en la obra temprana como más tardía del vienés una deuda intelectual con Popper. Pues toda su obra parece ser una extensa respuesta y revisión de su formación en el racionalismo crítico.

Trabajos citados Agassi, Joseph. “Postscript: On the Futility of Fighting the Philistines: Karl Popper’s Objective Knowledge”. Philosophia 4: 1 (1974):163-201. _____.“As you Like It”. In J. Agassi, The Gentle Art of Philosophical Polemics: Selected Reviews and Comments, LaSalle (IL), 1980. 419- 425. Bartley, William Warren. “Rationality Versus the Theory of Rationality”. The Critical Approach to Science and Philosophy. Bunge M. (ed.). London: The Free Press of Glencoe, Collier-MacMillan Limited, 1964. 3-31. Collodel, Matteo. “Was Feyerabend a Popperian? Methodological issues in the History of the Philosophy of Science” Studies in the History and Philosophy of Science. (En prensa). 40

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 17-46


Diatribas en torno a la racionalidad científica

Edgley, Roy. “Anarchy in Academia”. New Left Review 217 (May-June) (1996): 155- 160. Farrell, Robert. “Will the Popperian Feyerabend Please Step Forward: Pluralistic, Popperian Themes in the Philosophy of Paul Feyerabend”. International Studies in the Philosophy of Science, 14: 3 (October) (2000): 257-266. _____.Feyerabend and Scientific Values. Tightrope-Walking Rationality, Netherlands: Kluwer Academic Publishers, 2003. Feyerabend, Paul. “Review of Wittgenstein´s Philosophical Investigations.” The Philosophical Review 64 (1954/1955): 449-483. _____.“Wittgenstein´s Philosophical Investigations”. Problems of Empiricism. Philosophical Papers Volume 2. Cambridge: Cambridge University Press, 1955/1981. 99-130. _____.“A Note on the Paradox of Analysis.” Philosophical Studies 7 (1956): 92-96. _____.“Complementarity”. Proceedings of Aristotelian Society, Suppl. Vol. 32 (1958): 75-104. _____.“An attempt at a realistic interpretation of experience”. Realism, rationalism and scientific method, Philosophical Papers Volume 1. Cambridge: Cambridge University Press, 1958/1981. 17-36. _____.“On the Interpretation of scientific theories”. Realism, rationalism and scientific method, Philosophical Papers Volume 1. Cambridge: Cambridge University Press, 1960/1981. 37-43. _____.“Knowledge without foundation.” Paul K. Feyerabend: Knowledge, Science and Relativism, Philosophical Papers Volume 3, John Preston (ed.). Cambridge: Cambridge University Press, 1961/1999. 50-77. _____.“Review of Erkenntnislehre. By Victor Kraft”, British Journal for the Philosophy of Science 13 (1963a): 319-323. _____.“Materialism and the mind-body problem”, The Review of Metaphysics 17 (1963b): 49-66. _____.“How to be a good empiricist: a plea for tolerance in matters epistemological”. En Paul K. Feyerabend: Knowledge, Science and Relativism. Philosophical Papers Volume 3, John Preston (ed.). Cambridge: Cambridge University Press, 1963/1999. 78-103. 41


Gargiulo, Teresa

_____.“Carta a Jack J. C. Smart”. En Filosofía Natural. Buenos Aires: Debate, 1963/2013. 284-294. _____.“Review of Scientific Change.” Crombie A. (ed.). The British Journal for the Philosophy of Science 15 (1964a): 244-254. _____. “A Note on the Problem of Induction.” Journal of Philosophy 61 (1964b): 349-353. _____-.“Realism and Instrumentalism: Comments on the Logic of Factual Support.” En Realism, rationalism and scientific method, Philosophical Papers Volume 1. Cambridge: Cambridge University Press, 1964/1981a. 176-202. _____.“A Note on the Problem of Induction.” En Realism, rationalism and scientific method, Philosophical Papers Volume 1. Cambridge: Cambridge University Press, 1964/1981b. 203-206. _____.“Problems of Empiricism.” Beyond the Edge of Certainty. Essays in Contemporary Science and Philosophy. Colodny R. (ed.). Pittsburg: CPS Publications in the Philosophy of Science, 1965. 145-260. _____.“Herbert Feigl: A biographical Sketch.”En Mind, Matter and Method: Essays in Philosophy and Science in Honor of Herbert Feigl. Feyerabend P. & Maxwell G. (eds.). Minneapolis: University of Minnesota Press, 1966. 3-13. _____.“On the Improvement of the Sciences and the Arts, and the Possible Identity of the Two”. En Proceedings of the Boston Colloquium for the Philosophy of Science, 1964- 66, en Memory of Norwood Russell Hanson. Boston Studies in the Philosophy of Science, Volume III. Robert S. Cohen, Marx W. Wartofsky (eds.). Dordrecht, D. Reidel, 1967. 387- 415. _____.“Outline of Pluralistic Theory of Knowledge and Action”. En Paul K. Feyerabend: Knowledge, Science and Relativism, Philosophical Papers Volume 3, John Preston (ed.). Cambridge: Cambridge University Press, 1968/1999. 104-111. _____.“Linguistic arguments and scientific method”. En Realism, rationalism and scientific method, Philosophical papers vol. I. Cambridge: Cambridge University Press, 1969/1981. 146-160. _____.“Two Models of Epistemic Change: Mill and Hegel”. Problems of Empiricism. Philosophical Papers Volume 2. Cambridge: Cambridge University Press, 1970/1981a. 65-79.

42

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 17-46


Diatribas en torno a la racionalidad científica

_____.“Consolations for the Specialist”. Problems of Empiricism. Philosophical Papers Volume 2. Cambridge: Cambridge University Press, 1970/1981b. 131-167. _____.Contra el Método. Esquema de una Teoría Anarquista del Conocimiento. Barcelona: Ariel, 1970/1989. _____. Filosofía Natural. Buenos Aires: Debate, 1970/2013. _____. “On the Limited Validity of Methodological Rules.” En Paul K. Feyerabend: Knowledge, Science and Relativism, Philosophical Papers Volume 3, John Preston (ed.). Cambridge: Cambridge University Press, 1972/1999. 138-180. _____.“Popper´s Objective Knowledge”. En Problems of Empiricism. Philosophical Papers Volume 2. Cambridge: Cambridge University Press, 1975/1981. 168-201. _____. Tratado contra el Método. Esquema de una Teoría Anarquista del Conocimiento. Madrid: Tecnos, 1975/1992. _____.“Let´s Make More Movies”. En Paul K. Feyerabend: Knowledge, Science and Relativism, Philosophical Papers Volume 3, John Preston (ed.). Cambridge: Cambridge University Press, 1975/1999. 192-199. _____.“Rationalism, Relativism and Scientific Method”. En Paul K. Feyerabend: Knowledge, Science and Relativism, Philosophical Papers Volume 3, John Preston (ed.). Cambridge: Cambridge University Press, 1977/1999. 200-211. _____.“Preparación (Solicitud de un año Sabático, 1977). En Filosofía Natural. Buenos Aires: Debate, 1977/2013. 295-310. _____.“In Defence of Aristotle: Comments on the Condition of Content Increase.” Progress and Rationality in Science. Boston Studies in the Philosophy of Science. Vol. 58. Radnitzky G., Andersson G. (eds.). Dordrecht, D. Reidel Pub. Co., 1978. 143-180. _____.“Philosophy of Science versus scientific practice: observations on Mach, his followers and his opponents”. En Problems of Empiricism. Philosophical Papers Volume 2. Cambridge: Cambridge University Press, 1978/1981. 80-88. _____.La Ciencia en una Sociedad Libre. Madrid: Veintiuno Editores s.a, 1978/1982.

43


Gargiulo, Teresa

_____.¿Por qué no Platón? Madrid: Tecnos, 1978/1993. _____.“Democracy, Elitism and Scientific Method”. En Paul K. Feyerabend: Knowledge, Science and Relativism, Philosophical Papers Volume 3, John Preston (ed.). Cambridge: Cambridge University Press, 1980/1999. 212-226. _____.“Historical Background: Some Observations on the Decay of the Philosophy of Science”. Problems of Empiricism. Philosophical Papers Volume 2. Cambridge: Cambridge University Press, 1981a. 1-33. _____.“The Methodology of Scientific Research Programmes”. Problems of Empiricism. Philosophical Papers Volume 2. Cambridge: Cambridge University Press, 1981b: 202-230. _____.“More Clothes from the Emperor´s Bargain basement: a Review of Laudan´s Progress and its Problems”. En Problems of Empiricism. Philosophical Papers Volume 2. Cambridge: Cambridge University Press, 1981c. 231-246. _____Diálogos sobre el Método. 2ª ed. Madrid: Cátedra, 1989/2000. _____.Three Dialogues on Knowledge. Cambridge: Basil Blackwell, 1991a. _____.Diálogos sobre el conocimiento. Madrid: Cátedra, 1991b. _____.Against Method. Third Edition. London: Verso, 1993/2008. _____.Ambigüedad y Armonía. Barcelona: Paidós, 1996/1999. Gargiulo, Teresa. “Medicina y Filosofía: ¿Dos Disciplinas o un único arte cognoscitivo? Revista Philosophia 72 (2012a): 29-48. _____.“Algunas Reflexiones de Paul Karl Feyerabend en torno a los Supuestos Metafísicos del Principio de Complementariedad de Bohr”. Revista Colombiana de Filosofía de la Ciencia, Vol. 25 (2012b): 7-36. _____.“El Anarquismo Epistemológico de Paul Karl Feyerabend. Una reductico ad absurdum del Positivismo Lógico y del Racionalismo Crítico”. Aporía 7 (2014a): 63-85. _____.“El caso Galileo o las paradojas de una noción positivista de ciencia según Paul Karl Feyerabend”. Revista Tópicos 47 (2014b): 53-88. _____.“¿Qué entiende Feyerabend por Metafísica?” Agora. Papeles de Filosofía 34/1 (2015a): 59-86.

44

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 17-46


Diatribas en torno a la racionalidad científica

_____.“La doctrina de la Inconmensurabilidad en Paul Feyerabend: Una objeción contra una Particular Concepción de Racionalidad Científica”. Pensamiento (2015b). (En prensa). _____.“Las implicancias de la Proliferación Teórica en la relación cienciametafísica”. Revista Anales del Seminario de Historia de la Filosofía Vol 32 No. 1 (2015c): 221-258. _____.“Paul Karl Feyerabend y Thomas Kuhn en torno al problema del Relativismo. Relativismo o una Metafísica de la Abundancia”. Estudios Filosóficos Vol. 64, No. 186 (2015d): 255-279. _____.“El Relativismo de Feyerabend”. Ideas y valores (2016a). (En prensa). _____.“Lo humano como valor Epistémico. Apuntes en torno a la obra tardía de Paul Karl Feyerabend”. Universum (2016b). En prensa. Gattei, Stefano. “The Ethical Nature of Karl Popper´s Solution to the Problem of Rationality”. Philosophy of the Social Sciences 32 (2002): 240-266. Lakatos, Imre. “Falsification and the Methodology of Scientific Research Programmes”. En Criticism and the Growth of Knowledge. Lakatos I. and Musgrave A. (eds.). Cambridge: Cambridge University Press, 1970. 91-196. _____.La metodología de los programas de investigación científica. Madrid: Alianza, 1993. Lakatos, Imre, Feyerabend, Paul. For and Against Method. Including Lakatos´s Lectures os Scientific Method and Lakatos-Feyerabend Correspondence. Motterlini M. (ed). Chicago: University of Chicago Press, 1968-1974/2000. Nickels, Toledo. “La Epistemología según Feyerabend.” Cinta de Moebio 4 (1998): 123-129. Oberheim Eric. Feyerabend’s Philosophy. Quellen Und Studien Zur Philosophie. Berlín: Walter de Gruyter, 2006. Popper, Karl. La lógica de la investigación científica. Madrid: Técnos, 1962. _____.The Open Society and its Enemies: Vol. II. The High Tide of Prophecy: Hegel, Marx, and the aftermath. 5th. ed. Princeton: Princeton University Press, 1966. _____.The Logic of Scientific Discovery. 4th. ed. London: Routledge, 1980.

45


Gargiulo, Teresa

Preston, John. Feyerabend. Philosophy, Science and Society. Oxford: Blackwell, 1997. Radnitzky, Gerard, Bartley, William Warren. (eds.) Evolutionary Epistemology, Rationality, and the Sociology of Knowledge. Le Salle: Open Court, 1987. Settle, Tom. “The Point of Positive Evidence-Reply to Professor Feyerabend”. British Journal for the Philosophy of Science 20 (1969): 352-355. Watkins, John. “Feyerabend among Popperians, 1948-1978”. In J. Preston, G. Munévar, & D. Lamb (Eds.), The Worst Enemy of Science: Essays in Memory of Paul Feyerabend, Oxford & New York: Oxford University Press, 2000. 47-57

46

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 17-46


R ealismo científico y nominalismo. R espuesta a Stathis Psillos1,2 Cientific realism and nominalism. R eply to Stathis Psillos Matías Alejandro Guirado3,4

R esumen En este trabajo rechazo los alegatos de Psillos (2012) contra el nominalismo moderado (NM). El NM es una variante del realismo que recomienda restringir la creencia racional a los contenidos puramente nominalistas de las teorías científicas. Psillos cuestiona esta pretensión, aduciendo que los contenidos platónicos desempeñan un papel insoslayable en la explicación del éxito de la ciencia. Para refutar esta postura, hago tres cosas: sostengo que las teorías científicas tienen contenidos puramente nominalistas, defiendo la plausibilidad metacientífica del concepto de adecuación nominalista y descarto la existencia de hechos físico-matemáticos básicos. Palabras clave: antiplatonismo, matemática aplicada, nominalismo, realismo científico, Stathis Psillos.

A bstract In this paper I reject Psillos’ (2012) pleas against moderate nominalism (NM). NM is a brand of realism which proposes to restrict the rational belief to the purely nominalistic contents of scientific theories. Psillos disputes this pretension by arguing that Platonic contents play an indispensable role in explaining the success of science. In order to refute this stance, I do three things: I argue that scientific theories have purely nominalistic contents, defend the metascientific plausibility of the concept of nominalistic adequacy and rule out the existence of basic, physico-mathematical facts. Keywords: antiplatonism, applied mathematics, nominalism, scientific realism, Stathis Psillos.

1 Recibido: 15 de abril de 2016. Aceptado: 24 de junio de 2016. 2 Este artículo se debe citar: Guirado, Matías A. “Realismo científico y nominalismo. Respuesta a Stathis Psillos”. 
Rev. Colomb. Filos. Cienc. 16.33 (2016): 47-81. 3 Universidad de Buenos Aires. Correo electrónico: matias.ag@outlook.com 4 Buenos Aires (Argentina).


Guirado, Matías Alejandro

1. Introducción El denominado ‘argumento de la indispensabilidad’ (AI) o ‘argumento Quine-Putnam’ es quizá el mejor alegato en favor del platonismo matemático.5 En pocas palabras, el argumento es que debemos creer en la existencia de entidades matemáticas, dado que nuestras mejores teorías científicas nos comprometen esencialmente con entidades matemáticas y hay buenas razones para considerar que esas teorías son (literalmente) verdaderas o verosímiles. Este desarrollo del AI envuelve tres componentes: (i) la lectura quineana (lógico-semántica) de la ontología de las teorías, (ii) la tesis de la indispensabilidad de la matemática aplicada y (iii) la tesis del realismo científico. El enfoque quineano exige parafrasear las oraciones de las teorías en la notación de la lógica cuantificacional de primer orden para develar sus compromisos ontológicos. Si W es una de las entidades que ofician de rango de valuación de las variables ligadas surgidas de la formalización de una teoría T, decimos que T nos compromete ontológicamente con W (Quine 14). Este compromiso es indispensable si W reaparece en el universo de interpretación de cualquier alternativa empíricamente equivalente a T que conserve sus virtudes epistémicas (Colyvan 2010 10 -11). La indispensabilidad de la matemática es una vía para legitimar la creencia en entidades abstractas en el marco de la explicación realista del éxito de la ciencia. La idea realista tradicional es que el éxito de la ciencia sería un milagro o una coincidencia cósmica (es decir, un hecho completamente incomprensible) si los postulados de nuestras (actualmente) mejores teorías fueran (literalmente) falsos o inverosímiles (Putnam 73). “La tesis realista de que las teorías científicas son aproximadamente verdaderas es la mejor explicación del éxito empírico de tales teorías” (Psillos 1999 78). Pero los postulados de la ciencia (al menos en el terreno de la física) son, por regla general, enunciados físico-matemáticos, es decir, enunciados que adquieren significado al precio de comprometernos ontológicamente con objetos físicos y objetos matemáticos.6

5 El lector encontrará una exposición y defensa sistemáticas del argumento en Colyvan (2001). 6 Veamos un ejemplo. Bajo la óptica de Putnam, la Ley de la Gravitación Universal enuncia que “los cuerpos se comportan de tal manera que el cociente de dos números asociados con los cuerpos es igual a un tercer número” (74). Leída de este modo, la ley tiene implicancias tanto acerca de hechos matemáticos (la igualdad entre un número y el cociente del producto de otros dos números y un tercero) cuanto acerca de hechos mixtos (“asociaciones” entre números y cuerpos). Así, la ley de Newton es (literalmente) verdadera o verosímil solo si hay números reales, cocientes, etc.

48

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 47-81


Realismo científico y nominalismo

Así pues, una vez convenido que la matemática es indispensable para la ciencia y que la verdad (aproximada) de nuestras mejores teorías es la mejor explicación del éxito de la ciencia, las entidades matemáticas pasan a estar ontológicamente a la par de las “entidades teóricas”. Hay dos respuesta posibles al AI: una respuesta radical (negar que la matemática sea indispensable para la ciencia) y una respuesta moderada (argumentar que la indispensabilidad de la matemática es consistente con el antiplatonismo o, alternativamente, que la explicación de la indispensabilidad no es patrimonio del platonismo). Atacar la tesis de la indispensabilidad es un asunto complejo, porque exige nominalizar nuestras mejores teorías científicas (es decir, reformularlas sin asumir compromisos ontológicos con objetos matemáticos) o, en su defecto, dar cuenta de la plausibilidad metodológica de esta pretensión. Esta es la estrategia seguida por Hartry Field en Science without numbers (cf. Field). Allí, Field elaboró un método para eliminar la matemática de la ciencia bajo condiciones metateóricas que garanticen que los sustitutos nominalistas de las teorías existentes sean relativamente simples y atractivos (Field viii). Supongamos que T es una teoría científica y M la (única) teoría matemática aplicada en T. La tesis de Field es que hay una teoría N empíricamente equivalente a T tal que T = N+M y N preserva a grandes rasgos la pintura del mundo físico pintada por T, tanto en sus aspectos observables como inobservables. Técnicamente, decimos que N+M es una extensión nominalísticamente conservativa de N, es decir, que toda consecuencia deductiva nominalista de N+M será también una consecuencia deductiva de N (Field 11).7 El de Field es a todas luces, un nominalismo revolucionario (NR): su propuesta importa reelaborar los cánones metodológicos de la ciencia a la luz de modulaciones metafísicas ligadas al rechazo de las entidades abstractas. Para el común de los filósofos, la inviabilidad del proyecto de Field es cosa juzgada.8 De aquí que muchos autores apostaran por un nominalismo mode7 Para ilustrar su estrategia, Field procedió a nominalizar la teoría de la gravitación universal de Newton (G), proporcionando en el interín algunos indicios rudimentarios acerca de cómo extender su propuesta a otras áreas de la física. Dicho de manera breve y esquemática, la receta de Field envuelve tres pasos: (1) restringir el dominio de G a una ontología de puntos y regiones espaciotemporales; (2) sustituir los predicados para propiedades cuantitativas (propiedades como la temperatura o el potencial gravitacional) por predicados comparativos para relaciones entre puntos y regiones espaciotemporales (relaciones como ser más frío que o ser más pesado que); (3) probar teoremas de representación y unicidad a los efectos de que las relaciones básicas de la teoría nominalista de la gravitación preservan los rasgos estructurales de las operaciones matemáticas dispensadas. 8 El lector encontrará un resumen esquemático de las objeciones al proyecto de Field en Colyvan (2001 75).

49


Guirado, Matías Alejandro

rado (NM), compatible con el (pretendido) factum de la indispensabilidad. En lugar de exigir que la ciencia madura sea nominalizada, los partidarios del NM se proponen elaborar y motivar un criterio metodológico que justifique aceptar los contenidos platónicos de las teorías científicas (es decir, sus compromisos relativos a entidades matemáticas, modelos, etc.) y, simultáneamente, restringir la creencia a sus contenidos nominalistas. La réplica moderada al AI es que la adecuación nominalista de nuestras mejores teorías científicas es una buena explicación de su adecuación empírica (Balaguer, Leng, Vineberg), donde una teoría T es nominalísticamente adecuada “si es correcta en aquellas de sus consecuencias que no cuantifican sobre objetos matemáticos” (Leng 77). Además de buena, se pretende que la mentada explicación es suficiente, esto es, que no puede ser mejorada aduciendo además la verdad de los contenidos platónicos correspondientes. Pero, si la explicación nominalista del éxito de la ciencia es buena y suficiente, entonces es razonable embarcarse en aguas realistas sin hacer lugar a la creencia en entidades matemáticas. Para sostener esta implicación importa renunciar a la vieja idea realista de que la verdad (aproximada) es una propiedad global de las teorías maduras. Para restar dramatismo a esta variante del realismo, conviene quizá reformularla diciendo que los partidarios del NM preservan el concepto usual de aproximación a la verdad como clave de bóveda para la explicación del éxito de la ciencia, pero restringen su aplicación a las consecuencias nominalistas de las teorías. Es decir, consideran que las realizaciones de la ciencia madura son verdaderas o aproximadamente verdaderas exclusivamente en el nivel de sus contenidos nominalistas. Homologar los conceptos de verdad y adecuación nominalista (postular su coextensionalidad en el terreno de la ciencia madura) sería legítimo porque las entidades matemáticas -a diferencia de las denominadas ‘entidades teóricas’, en las que tanto los nominalistas cuanto los realistas tradicionales creenexisten fuera del espaciotiempo y, como consecuencia de esto, carecen de toda capacidad o poder de modificar o condicionar los hechos de la realidad espaciotemporal. Por ejemplo, no tiene sentido suponer que el mundo físico -ya sea en sus aspectos observables o inobservables- sería distinto si -ceteris paribusno existiera el número. Esta suerte de alegato metafísico-modal determina que el expediente a las entidades abstractas pueda juzgarse irrelevante a los efectos de explicar las virtudes epistémicas de teorías fundamentalmente empíricas.

50

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 47-81


Realismo científico y nominalismo

Psillos (2012)9 rechaza los lineamientos del NM, aduciendo que el realismo científico y el nominalismo son filosofías incompatibles. Esquemáticamente, sus réplicas son: (i) que la ineficacia causal de una entidad no es motivo suficiente para desmerecer su postulación; (ii) que no es factible delimitar los contenidos nominalistas de las teorías (en consecuencia, tampoco es factible dar a esos contenidos estatus de candidato independiente para la creencia); (iii) que el concepto de adecuación nominalista no es un buen sucedáneo del concepto tradicional de verdad (o verosimilitud). Estos cuestionamientos son importantes, porque sugieren -respectivamente- que los partidarios del NM no podrán legitimar su actitud hacia las teorías, explicar sus éxitos empíricos o caracterizar el objetivo epistemológico de la ciencia. En este trabajo reconstruyo las objeciones antinominalistas de Psillos y doy respuesta a cada una de ellas. En la segunda sección descarto que la relevancia explicativa de las entidades abstractas les devuelva alguna relevancia metafísica. Para esto apelaré al PAC o principio de aislamiento causal de las entidades abstractas. En la tercera sección defiendo la existencia de contenidos científicos puramente nominalistas y la plausibilidad de convertirlos en candidato independiente para la creencia sin distorsionar la explicación realista del éxito de las teorías. Luego apelo a la noción de n-adecuación o adecuación nominalista para caracterizar el objetivo epistemológico de la ciencia y doy cuenta de la solvencia metacientífica de esa apelación. En la cuarta sección argumento que la existencia de contenidos puramente nominalistas es un prerrequisito para fijar las condiciones veritativas de los enunciados mixtos (físico-matemáticos) y que, como consecuencia de esto, es racional aceptar teorías científicas altamente matematizadas y, simultáneamente, rehusar la creencia en entidades matemáticas.

2. Eficacia causal y contribución explicativa Los partidarios del NM admiten que la matemática juega un papel indispensable en la ciencia, pero niegan que el platonismo pueda arrogarse la explicación de ese hecho o sacar provecho de él. A su juicio, el que nuestras mejores teorías se resistan a ser nominalizadas no implica que debamos creer en la existencia de entidades matemáticas. La pregunta que los platonistas debieran responder es: ¿qué relevancia puede tener el hacer referencia a entidades causalmente 9 Algunas de las críticas antinominalistas de Psillos (2012) aparecen desarrolladas en trabajos previos (Psillos 2010, 2011), aunque de forma algo rudimentaria. Es por esto que mi exposición de sus argumentos se ceñirá al primero de los artículos mencionados.

51


Guirado, Matías Alejandro

inertes existentes fuera del espaciotiempo, cuando lidiamos con la pretensión de explicar fenómenos o regularidades espaciotemporales? La sospecha que se plantea aquí es que, dada su naturaleza, los números y el resto de los objetos matemáticos -a diferencia de entidades extraempíricas como los electrones- no pueden constituirse en antecedente causal de hechos o procesos espaciotemporales; es decir, no pueden hacer que algo ocurra en el mundo físico. Claro que la respuesta a la pregunta planteada en este párrafo no puede ceñirse a la pretensión de que, puesto que la matemática es indispensable para la ciencia y las teorías científicas vigentes son (aproximadamente) verdaderas, la aplicabilidad de la matemática es inconsistente con el antiplatonismo, dado que la cuestión pasa, precisamente, por determinar por qué es indispensable y cómo es posible que lo sea. Si el platonismo no resuelve estos interrogantes, entonces no podrá arrogarse la explicación de la aplicabilidad. Pero me parece que, una vez que postulamos que las entidades matemáticas son entidades platónicas (es decir, no-espaciales, no-temporales, no-causales, etc.), no solo perdemos de vista la posibilidad de explicar la aplicabilidad (y, por derivación, el fenómeno de la indispensabilidad), sino que, además, nos topamos con la intuición bruta de que las teorías científicas podrían ser nominalísticamente adecuadas pero falsas. Esta intuición es bruta porque remite a una faceta relativamente indisputable del mundo platónico: su independencia ontológica y su aislamiento metafísico respecto del mundo físico. Esa faceta ontológico-metafísica apunta a que la existencia o inexistencia de entidades matemáticas será totalmemente irrelevante en conexión con los hechos y las operaciones estudiadas por la ciencia. Como consecuencia de esto, es perfectamente razonable suponer que la realidad espaciotemporal tiene la naturaleza que la ciencia le atribuye y, simultáneamente, negar la existencia de entidades matemáticas. Pero entonces sería también razonable asumir que los contenidos puramente nominalistas de la ciencia son literalmente verdaderos (o verosímiles) y que los contenidos platónicos de la ciencia son literalmente falsos (o vacuamente verdaderos). Psillos pone el acento crítico en la faceta metacientífica del NM, es decir, en el proyecto de elaborar un realismo científico consistente con el antiplatonismo. Se trata de introducir un concepto de adecuación nominalista y argumentar que incluso si las teorías científicas no pueden ser nominalizadas, incluso si la matemática es teoréticamente indispensable para la ciencia, hay una manera de evitar el compromiso con el realismo matemático. Es suficiente, se argumenta, para la aplicabilidad de las teorías científicas y la explicación de sus éxitos empíricos que sean nominalísticamente adecuadas. (Psillos 2012 56).

52

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 47-81


Realismo científico y nominalismo

Mark Balaguer defiende una variante del NM denominada ‘realismo científico nominalista’. Esta variante aparece estructurada en torno a dos tesis: (NC) la ciencia empírica tiene un contenido puramente nominalista que captura una “pintura completa” del mundo físico y (COH) es coherente y tiene sentido mantener que el contenido nominalista de la ciencia empírica es verdadero y que el contenido platónico de la misma es ficticio (Balaguer 131). (COH) se sigue de (NC) en conjunción con el principio del aislamiento causal (PAC), “que dice que no hay interacciones causales entre objetos matemáticos y objetos físicos” (Balaguer 110; énfasis removido). Un corolario del NM es que las teorías científicas (particularmente en el campo de la física) son literalmente falsas, porque (casi) todas ellas tienen implicancias físico-matemáticas (por ejemplo, implicancias relativas al valor numérico de magnitudes escalares) y esas implicancias son literalmente falsas si no hay objetos matemáticos. En este sentido, Psillos se pregunta cómo es posible que “esta falsedad sistemática y sintomática de las teorías explique su adecuación empírica” (2012 57). La respuesta obvia a esta pregunta es que (NC) y el PAC son independientemente plausibles. Si los contenidos nominalistas de la ciencia ofrecen una pintura acabada del mundo físico y no hay objetos matemáticos causalmente poderosos, entonces la adecuación nominalista será una buena clave para explicar las realizaciones de la ciencia madura. Mary Leng llega a la misma conclusión, partiendo de premisas más cercanas al debate realismo vs. antirrealismo científico (cf. Leng). A su juicio, dado que las entidades matemáticas carecen de toda relevancia causal en conexión con lo observable, la verdad o falsedad de la matemática aplicada no podrá dirimirse a la luz de consideraciones relativas al éxito de la ciencia madura y, como consecuencia de esto, el argumento del no-milagro debiera ceñirse a los contenidos nominalistas de las teorías. En resumen: los partidarios del NM se amparan en el PAC para replicar que es imposible la existencia de entidades matemáticas causalmente relevantes para los hechos que conciernen a la ciencia (los hechos físicos, biológicos, psicológicos, etc.) y que, como consecuencia de esto, el estatus ontológico de esas entidades tendrá nula repercusión sobre las leyes naturales y las condiciones iniciales del mundo espaciotemporal. Así, es perfectamente razonable ceñir la actitud realista a los compromisos puramente nominalistas de la ciencia madura, esto es, considerar que sus teorías -en tanto y en cuanto guardan compromisos matemáticos- son nominalísticamente adecuadas pero falsas. A juicio de Psillos, el punto débil del NM es que el PAC no es un buen criterio de realidad. Veamos cuáles son sus argumentos al respecto. 53


Guirado, Matías Alejandro

Por empezar, dice que “hay una entera categoría de objetos abstractos cuya existencia es contingente (...) e inclusive contingente a partir de la existencia y el comportamiento de los objetos concretos” (Psillos 2012 59). Algunos objetos abstractos contingentes serían, a juicio de Psillos: el Ecuador, el centro de masa del sistema solar, los pensamientos (suponiendo un enfoque cartesiano de la relación mente-cuerpo) y, en general, los modelos teóricos de la ciencia: el oscilador armónico lineal, el sistema newtoniano de dos cuerpos, el plano inclinado sin fricción, etc. Psillos no aclara por qué o en qué sentido la existencia de tales entidades ha de ser sensible a la existencia de particulares concretos, pero, en el caso de los modelos teóricos, se encarga de agregar que “no son entidades abstractas puras, dado que se les adscribe propiedades físicas” (2012 59; bastardilla en el original). Sean o no “puras”, lo cierto es que todas las entidades abstractas (entre las cuales, valga aclararlo, no se cuenta la mente humana entendida al modo de una sustancia inmaterial; en caso contrario, difícilmente podría ser postulada para explicar fenómenos como el movimiento voluntario de las personas) son, por definición, entidades causalmente inertes existentes (si acaso) fuera del espaciotiempo, de modo que las propiedades físicas que eventualmente se les atribuya serán (si acaso) propiedades en abstracto, es decir, Formas platónicas. Decir que la existencia objetiva de estructuras o propiedades abstractas depende de la existencia y naturaleza de sus instancias espaciotemporales implica abandonar el platonismo y embarcarse –como mucho– en un realismo de universales inmanentes como el de David Malet Armstrong (cf. Armstrong). En la medida en que pretenda permanecer del lado platonista de la disputa metafísica, habrá que convenir que la existencia (o inexistencia) de modelos teóricos, números, etc. no podrá depender de la existencia (o inexistencia) de particulares concretos o, alternativamente, de sus propiedades físicas. Pero esta concesión importa, en principio, suscribir al PAC, es decir, al principio que da sustento metafísico a la lectura nominalista de las teorías. Desde la óptica tradicional, el que una entidad abstracta tenga realizaciones espaciotemporales no implica que su existencia dependa en algún sentido de la existencia o las propiedades de sus instancias. Por el contrario, se supone que el reino platónico es plenamente independiente del mundo físico. De aquí que se lo suela pensar como atemporal, inmutable, etc. Pero, entonces, la referencia a cosas tales como el oscilador armónico o el plano inclinado sin fricción será un recurso para aislar en la consideración y proceder a explicar en abstracto ciertos rasgos de los osciladores o planos concretos. Ahora bien,

54

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 47-81


Realismo científico y nominalismo

que de veras haya algo así como un oscilador armónico o un plano inclinado sin fricción en el reino platónico no es algo que guarde relación alguna con lo que suceda en el espaciotiempo. Dicho de manera general: que ciertas entidades abstractas sean presupuestas con el propósito de explicar o describir el comportamiento de entidades físicas no implica que el estatus ontológico de las primeras esté condicionado por el estatus ontológico de las segundas. Y cabe tener en cuenta que el precio que pagaría Psillos por cuestionar esta punto sería incurrir en una reconceptualización (por lo menos) controversial de la naturaleza de las entidades platónicas; una según la cual lo que suceda en el reino platónico será de alguna manera funcional a lo que suceda en el espaciotiempo, como si los objetos ordinarios pudieran transmitir información o energía hacia algo existente fuera del espacio tiempo. En suma, que algunas entidades tengan instanciaciones espaciotemporales no dice nada en contra de PAC. Por el contrario, cabe pensar que PAC expresa algo válido para toda entidad abstracta, tenga o no instanciaciones espaciotemporales. Pues, en caso contrario, habría que atribuir a las entidades abstractas un grado de susceptibilidad metafísica impropia del realismo platónico. Por tanto, sigue vigente la posibilidad de mantenerse realista en lo que respecta a los compromisos teóricos de la ciencia y, simultáneamente, suscribir al anti-realismo en lo que respecta a sus compromisos formales. Pasemos a considerar un segundo alegato contra el PAC. Psillos traza una distinción entre objetos abstractos matemáticos (OAMs) y objetos abstractos no-matemáticos (OANMs) y separa las actitudes que cabe adoptar hacia cada una de estas categorías. Entre los OANMs comprometidos en la ontología de la ciencia, se encuentran, fundamentalmente, los modelos teóricos. Estos modelos guardan una innegable relevancia epistémica: sin ir más lejos, juega un papel fundamental en la explicación de los fenómenos y en la intelección de las condiciones de contrastación de hipótesis fundamentales. Sería “absurdo –acota Psillos– decir que estos OANMs no son explicativamente relevantes para el éxito de las teorías”, o que “no contribuyen en nada a la explicación de los objetos físicos concretos y su comportamiento” (Psillos 2012 59).10 Pero estas son, precisamente, las virtudes epistémica tradicionalmente asociadas a la postulación de las denominadas ‘entidades teóricas’ (por ejemplo, los electrones). Entonces, la idea de Psillos parece ser que, si 10 Por ejemplo, uno puede explicar, acudiendo al modelo del oscilador armónico lineal, por qué el período de un péndulo concreto es proporcional a la raíz cuadrada de su longitud. Esta explicación reúne una serie de virtudes: soporta contrafácticos (es decir, sigue siendo válida frente a cambios plausibles de condiciones iniciales) y unifica la intelección de una amplia gama de fenómenos cinemáticos.

55


Guirado, Matías Alejandro

-como recomienda el NM- hemos de ser realistas con respecto a los compromisos nominalistas de la ciencia (por ejemplo, los compromisos relativos a los electrones y su carga negativa), también hemos de serlo con respecto a los compromisos platónicos (por ejemplo, los compromisos asumidos en la caracterización de un electrón atrapado en un oscilador armónico). Así, el PAC no parece ser un buen criterio de realidad (al menos para los realistas científicos), dado que conduce a rechazar la existencia de entidades cuya contribución epistémica las ubica a la par de las entidades teóricas. La apuesta de Psillos es sustituir el PAC por lo que podemos denominar ‘principio de relevancia explicativa’ (PRE). En lugar de la eficacia causal, lo que decide ahora el estatus de una entidad es su contribución (en rigor, la de su postulación o referencia) a la explicación de un hecho o una regularidad. Tomado como criterio de realidad, el PRE parece devolver a los modelos teóricos y al resto de los OANMs la dignidad ontológica que les arrebatara el PAC. Pero aquí hay que ser cuidadoso, porque el PRE responde a un factor epistémico (la relevancia explicativa del acto de introducir o postular entidades), mientras que el PAC responde a un criterio metafísico (la eficacia causal de las entidades). Ahora bien, los partidarios del NM reconocen abiertamente los beneficios epistémicos derivados de la presentación de modelos teóricos y otros OANMs. De hecho, algunos de ellos estarían dispuestos a conceder que, en ocasiones, la ciencia proporciona explicaciones matemáticas de hechos físicos (cf. Baker & Colyvan). Todo el punto es que la contribución explicativa de los componentes platónicos no podrá depender del estatus de las respectivas entidades, dado que, por definición, no puede haber relaciones de transferencia de información entre objetos físicos y objetos abstractos. En consecuencia, mientras el PRE sea visto como una alternativa al PAC sin que surjan razones de peso para rechazar el PAC, será explicativamente inocuo sostener que los contenidos platónicos de la ciencia son verdaderos. Así, volvemos al punto de partida: Psillos acude al PRE para sustituir al PAC, cuando, en rigor, las intuiciones conducen al PAC y señalan que, en el caso de las entidades abstractas, el PRE no puede funcionar como un criterio de realidad y, como consecuencia de esto, el PAC no es legítimamente sustituible por este. Por añadidura, cabe tener en cuenta que el PAC expresa una necesidad conceptual (derivada de la definición de ‘entidad abstracta’) presupuesta por la mayor parte de los partícipes del debate platonismo vs. antiplatonismo. Son muy pocos las filósofas o los filósofos que, apartándose de los consensos impe-

56

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 47-81


Realismo científico y nominalismo

rantes, se atreven a defender o sugerir la posibilidad de relaciones causales entre objetos físicos y objetos abstractos. Pero, en lugar de anticipar y rebatir las contrarréplicas que los nominalistas podrían esgrimir en conexión con estos tópicos, Psillos procede a refutar una contraestrategia nominalista que, a todas luces, sería impugnada por los partidarios del NM. La estrategia en cuestión reside en abandonar el NM tradicional y promover en su lugar lo que Psillos denomina ‘nominalismo indulgente’ o ‘NI’ (literalmente, ‘lenient nominalism’). A diferencia del NM, el NI hace lugar a la creencia en OANMs y restringe expresamente el rechazo (o el agnosticismo) a los OAMs. En este sentido, una ventaja presunta del NI en comparación con el NM es que el primero puede dar cuenta de la utilidad de los modelos y el resto de los OANMs. Más allá de los esfuerzos retóricos por disfrazar la cuestión de fondo (en particular, el hecho de que el NI no se aparta del NM al reivindicar el papel explicativo de los OANMs), el precio que se paga en nombre de toda esta especulación es abandonar el nominalismo. El NI es demasiado indulgente. La actitud que promueve va flagrantemente a contramano de la idea de que la ciencia tiene compromisos puramente nominalistas cuya adecuación al mundo explica todas las realizaciones epistémicas de las teorías maduras. En otras palabras: el NI es inconsistente con la premisa (NC) de Balaguer. El único aspecto genuinamente nominalista que cabe tributarle es su nombre. Claro que esa concesión al nominalismo que es el NI cumple un papel: se busca rebatir el realismo científico nominalista mostrando que el NM se hunde en el mismo bote que el NI. Para completar su estrategia retórica y desembarasarse al fin de NI, Psillos observa (correctamente) que algunos OAMs (por ejemplo, los espacios vectoriales y los grupos) intervienen en la constitución de algunos modelos teóricos. Sin embargo, infiere (erróneamente) que, si estos “OANM son explicativos, también lo son aquellas entidades matemáticas que son parte de su constitución” (2012 60). En principio, esta consideración promueve una reductio del NI: este recomienda rehusar la creencia en OAMs y restringir la creencia a los OANMs; pero, al parecer, la existencia y relevancia explicativa de los primeros es, en ocasiones, una condición para la existencia y relevancia explicativa de los segundos. Y, dado que, a juicio de Psillos, el NI es una superación del NM, la mentada reductio afecta también a este último. Además de prevalerse imprudentemente de la índole nominalista del NI, Psillos incurre en un caso de falacia de división: que una entidad A intervenga en la constitución de otra entidad B, no quiere decir que la existencia y relevancia

57


Guirado, Matías Alejandro

explicativa de A sea una condición para la existencia y relevancia explicativa de B. Por poner un ejemplo, el que el agua juegue un papel en la explicación de la disolución del azúcar no quiere decir que el oxígeno también lo haga. De cualquier manera, cabe insistir en que, en rigor, el switch hacia el NI implica apartarse del nominalismo, con lo cual, si se comprobara que la admisión de modelos importa cierta relegitimación ontológica de las entidades matemáticas, esto ya no contaría como una crítica atendible a nada parecido al NM o alguna variante plausible en su género. (De hecho, vimos que el NM reconoce abiertamente la contribución explicativa de los OANMs y que la existencia de explicaciones matemáticas de fenómenos físicos es consistente con el NI. Además, cabe recordar que estas concesiones están detrás de la decisión de moderar los ímpetus que dieron impulso al NR (es decir, al nominalismo revolucionario de Hartry Field). Para refrescar su alegato inicial (el alegato relativo al valor epistémico de los modelos) y dejar atrás el tópico del NI y su vinculación con el NM, Psillos cita y comenta un trabajo de Christopher Pincock (cf. Pincock), donde se defiende una postura cercana en espíritu al NM. Pincock reconoce abiertamente que la indispensabilidad de la matemática no basta para inferir la realidad de sus objetos. Pero, a la vez, niega que el nominalismo pueda sacar provecho de esta constatación. El motivo es que –a su juicio– “nuestras teorías (...) no determinan una colección de enunciados físicos que pudiéramos considerar como el contenido nominalista de esas teorías” (Pincock 267). Pero, a diferencia de los partidarios del NR, los partidarios del NM no se comprometen con la existencia de enunciados de esa índole; lo que dicen es que, debajo de la fachada físico-matemática de las teorías científicas, palpitan unos contenidos nominalistas cuya explicitación sea quizá imposible. Comprometerse con la existencia de esos contenidos y detener en ellos el ascenso realista hacia lo extraempírico es un rasgo característico del NM. Comprometerse con la posibilidad de separarlos respecto de los contenidos platónicos de la ciencia es un rasgo privativo del NR. Al no distinguir claramente estos lineamientos metodológicas, Pincock comete el error de presuponer (implícitamente) que la única estrategia nominalista plausible es la de Hartry Field. Hay que lamentar que, en lugar de reconocer y despejar esta confusión, Psillos intente sacar provecho de ella. Por una parte, insiste en la inseparabilidad de los contenidos nominalistas de las teorías e infiere -en la línea de Pincock- la consecuente imposibilidad de volcar en favor del nominalismo la irrelevancia metafísica de las entidades matemáticas (es decir, la vigencia de PAC). Por otra parte, le reprocha a Pincock el ceñir su análisis a un plano netamente epistémico, ligado a la consideración de los contenidos matemáticos de la ciencia,

58

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 47-81


Realismo científico y nominalismo

más que a las respectivas entidades. Pero, lejos de aliviar el entuerto y pasar a un plano de análisis metafísico, Psillos insiste en el PRE como criterio de realidad; sin embargo –como ya vimos– el PRE no es otra cosa que un criterio metodológico para dar estatus epistémico a ciertos compromisos ontológicos. A juicio de Psillos, “hay una posición más fuerte para ocupar [más fuerte que la de Pincock], viz, la propia idea de un contenido (...) libre de entidades abstractas es hueca”. El motivo es que “muy poco interesante (general y explicativo) puede ser dicho acerca del mundo físico sin estar comprometido con ellas” (2012 61). Claramente, la “idea” en cuestión permanece ceñida al plano de lo conceptual o epistémico; al papel desempeñado por los compromisos platónicos en la ciencia más que al estatuto de sus objetos. Claro que ese papel representa el caballo de batalla del platonismo; sin embargo, vimos que esta pretensión es infundada, que –en el caso de las entidades abstractas– la contribución explicativa no puede funcionar como criterio de realidad ni constituirse en factor para motivar uno que sea funcional al platonismo. Cabe además insistir en lo siguiente (me permito hacerlo en vista de la recurrencia del dislate de Psillos en este punto): el NM admite expresamente que las teorías científicas nos comprometen con entidades abstractas de diversa índole y que la referencia a estas entidades desempeña un importante papel explicativo, quizá indispensable. (De hecho, el propio Field suscribiría a esta idea, siempre y cuando tuviéramos en cuenta que, a su juicio, es factible dilucidar la contribución de la matemática aplicada y otros recursos platónicos sin abandonar el antiplatonismo; para esto bastaría con reformular las explicaciones físico-matemáticas en un lenguaje puramente nominalista o, alternativamente, vislumbrar bajo qué paraguas ontológico podría ponerse en marcha un proyecto de nominalización. Muchos especialistas olvidan que, en el fondo, el proyecto de Field persigue explicar -más que subestimar- la utilidad de la matemática para la ciencia). Lo que el NM rechaza tajantemente es que la relevancia explicativa de la matemática aplicada y los modelos teóricos constituya un alegato en favor del platonismo. Y hay un buen motivo para rechazarlo: el motivo es que, hasta el momento, no disponemos de elementos que conduzcan a suponer que PAC podría ser falso. Pero, si no cabe siquiera sospechar que los objetos abstractos interactúan de algún modo con nosotros o los sistemas físicos, entonces no están dadas las condiciones para adjudicarles un rol en el desarrollo de la empresa científica. En contraste, Psillos no brinda razones para adjudicar un rol de esa índole a las entidades abstractas a pesar de la vigencia del PAC. Solo ha insistido en el truismo de que los compromisos platónicos de la ciencia tienen un impacto

59


Guirado, Matías Alejandro

epistemológico y metodológico que no puede ser soslayado; un truismo al que, como vimos, el NM no es ajeno ni hostil. En suma, los argumentos antinominalistas basados en el PRE, lo mismo que las precauciones antinominalistas asociadas a la propuesta de Pincock, son –si acaso– alegatos embozados contra propuestas como el NR (el nominalismo de Field). El motivo, en pocas palabras, es que los partidarios de NM no ponen en cuestión ni subestiman la utilidad de la matemática para la ciencia. Por tanto, las dudas y las críticas forjadas al calor del NI o el problema de la inseparabilidad de los contenidos nominalistas solo afectan a una subfamilia de posiciones nominalistas: la de aquellas posiciones que abogan por una ciencia sin números y, en vista de esto, proponen revisar los cánones metodológicos vigentes.

3. Contenido y adecuación nominalistas Vimos en la sección precedente que tiene sentido rechazar la existencia de las entidades abstractas comprometidas en la ontología científica porque, a diferencia de lo que sucede con las denominadas ‘entidades teóricas’ (en las que los nominalistas sí creen), la existencia de las entidades abstractas está sujeta al PAC. También vimos que el PAC es un principio inmune a la crítica racional, por dos razones: (a) se limita a desplegar aspectos elementales de la definición de ‘entidad abstracta’; (b) el cuestionamiento de esos aspectos es fuertemente contraintuitivo, pues importa de alguna u otra forma concebir que el estatus de las entidades abstractas puede condicionar -o venir condicionado por- lo que suceda en el mundo físico. Pero hay otro frente de ataque antinominalista que ya fue sugerido por Psillos en el transcurso de su comentario al texto de Pincock. Consiste en cuestionar que la noción de adecuación nominalista (o n-adecuación) sea un buen sustituto del concepto tradicional de verdad (aproximada) y, con esto, que la actitud del NM tenga plausibilidad metacientífica. Psillos escribe al respecto: Hay un primer problema con la idea misma de caracterizar la n-adecuación. La caracterización de Leng, formulada como lo está respecto de la verdad de las consecuencias nominalísticamente estables de una teoría es problemática. Como Jeff Ketland ha señalado (comunicación privada), la requerida noción de n-adecuación debe ser modelo-teórica. (2012 59). La teoría de modelos tiene sus componentes platónicos, lo que justifica la advertencia de que la predicación de adecuación nominalista demandará compromisos con entidades nominalísticamente inadmisibles. La tesis de

60

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 47-81


Realismo científico y nominalismo

Ketland a la que alude Psillos es que una teoría T es nominalísticamente adecuada si y solo si –dicho de manera escueta– hay algún modelo de T con alguna subestructura isomorfa a la estructura espaciotemporal del mundo.11 Esta manera de entender la adecuación nominalista -huelga decirlo- nos compromete con entidades abstractas de diversa índole: modelos, subestructuras, isomorfismos, etc. Claro que los nominalistas niegan la existencia de entidades de esa naturaleza, con lo cual la afirmación de que una teoría dada es n-adecuada no podrá significar lo que de veras significa (supuesto que la intelección modelo-teórica de la n-adecuación sea un aspecto esencial de su análisis, al menos en ciertos contextos relevantes) toda vez que sea proferida por ellos. Psillos reconoce que esta objeción no es crucial (presumiblemente, porque –como veremos en breve– el entuerto no es imputable a la noción de n-adecuación, sino a un modo de desplegarla). Con todo, pretende llamar la atención sobre la problematicidad de sus consecuencias metacientíficas en conexión con el realismo científico antiplatonista. Incluso si esta objeción no es fatal para el uso del concepto de n-adecuación por parte del defensor del RCN [por ‘realismo científico nominalista’], seguramente le quitaría una gran parte de atractivo al RCN. Sus partidarios tendrían que tener una postura ficcionalista hacia un bloque central de su propia explicación de cómo las teorías capturan [latch onto] el mundo. (2012 62). Es cuestionable que la reputación filosófica de una noción deba dirimirse en aguas modelo-teóricas. Cuando modelizamos un concepto, como puede ser el de verdad o adecuación empírica, buscamos desentrañar las condiciones formales para su empleo de hecho más que dilucidar su contenido o naturaleza. Esto no quita que los avances en la materia arrojen nueva luz sobre aspectos informales de un concepto. El punto es que ese avance se estará realizando sobre un suelo que ya viene sembrado de intuiciones materiales. De hecho, la relativa eficacia con que se logre resguardar ese núcleo preteórico 11 La caracterización que ofrece Ketland se lleva a cabo en un lenguaje L que reúne tres características fundamentales: (i) es un lenguaje de primer orden con una interpretación estándar IM; (ii) contiene dos clases de variables: las c-variables, que recorren el dominio C de los objetos concretos, y las m-variables, que recorren el demonio M de los objetos matemáticos (C y M son dominios mutuamente excluyentes); (iii) contiene tres predicados primitivos: los c-predicados comparativos para relaciones nominalísticamente kosher entre elementos de C, los m-predicados para relaciones platónicas entre elementos de M y los r-predicados para relaciones mixtas (físico-matemáticas) entre objetos de M y objetos de C. Por otra parte, hay un sublenguaje LN que se desprende de L al suprimir el uso de m-variables, m-predicados y r-predicados. Este sublenguaje tiene su reducto en C, el núcleo puramente nominalista de IM. Entonces, una oración de L es verdadera si y solo si IM la satisface, mientras que una oración de LN es verdadera si y solo si IN la satisface, donde IN = <C, RN> y RN es el conjunto de las relaciones nominalísticamente kosher entre elementos de C. Así, un modelo es nominalísticamente correcto si y solo si tiene un reducto nominalista isomorfo al dominio de IN y una teoría T es nominalísticamente adecuada si y solo si tiene un modelo nominalísticamente correcto.

61


Guirado, Matías Alejandro

oficiará de piedra de toque para comparar intelecciones alternativas del correspondiente concepto. Ahora bien, ya se trate del concepto de verdad o el de n-adecuación, aceptar contenidos preteóricos no condiciona la actitud que uno deba adoptar hacia los recursos metateóricos involucrados en su análisis. Más al punto, juzgar que las teorías científicas son mayormente correctas en lo que respecta a sus compromisos nominalistas (sus compromisos relativos a determinaciones espaciotemporales de entidades espaciotemporales y a ninguna otra cosa) no exige hacer una lectura platonista de las herramientas de teoría de modelos empleadas para dar precisión a esa idea. Hay tres buenas razones para sustentar esta conclusión. En primer lugar, cualquiera que sepa un poco de epistemológica sabe que una teoría literalmente falsa puede tener aplicaciones exitosas. Que una teoría sea aceptada por la utilidad de sus aplicaciones no es motivo suficiente para creer en ella. Y, si esto vale para teorías con un alto grado de adecuación a lo empírico (por ejemplo, la dinámica newtoniana), entonces cabe esperar que valga (quizá con más razón) para teorías que solo envuelven compromisos con entidades metafísicamente aisladas de nosotros y del mundo físico (por ejemplo, la teoría de modelos). En segundo lugar, es bastante razonable suponer que el hecho de que nuestras mejores teorías capturen la estructura del mundo físico nada tiene que ver con la existencia (o inexistencia) de entidades extrafísicas. Sería simplemente descabellado razonar que un sistema físico (o biológico o químico) dado tiene la naturaleza que tiene en virtud de que existe fuera del espaciotiempo un objeto que tiene tal o cual propiedad. En tercer lugar, promover una lectura platonista de la metamatemática como condición para formular una explicación de la aplicabilidad de la matemática equivale esencialmente a tomar partido antes de dejar madurar el debate que nos convoca. Pues esto es, precisamente, lo que está en discusión: que pueda y deba inferirse la verdad de las teorías matemáticas en general como mejor explicación de sus (posibles) aplicaciones empíricas. Pero es esta discusión la que –desde época de Frege– ha sido señalada como proporcionando los primeros elementos racionales para decidir el estatus del platonismo en filosofía de la matemática. Favorecer la lectura platonista de la verdad matemática en general, antes de zanjar la cuestión de la sublectura de la matemática aplicada en particular, es colocar el carro delante del caballo. Si cabe poner en cuestión la fuerza lógica del argumento de indispensabilidad empírica, con más razón cabe poner en cuestión un argumento de indispensabilidad no-empí-

62

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 47-81


Realismo científico y nominalismo

rica (metamatemática, por ejemplo). ¿Por qué? Bueno, porque las inferencias basadas en aplicaciones empíricas son las únicas que parecen respaldar la idea de que la matemática es un cuerpo de verdades sin incurrir en petitio. De no mediar la intervención de un factor externo a la teoría matemática, la decisión de adoptar el platonismo tendrá un carácter compulsivo. (De hecho, hay un muy buen motivo para descartar la lectura platonista de la verdad matemática: el motivo es que resulta bastante problemático explicar cómo es posible que criatura espaciotemporales como nosotros procedan a cotejar la correspondencia de sus oraciones matemáticas con los hechos platónicos).12 En suma, es razonable utilizar recursos matemáticos con algún propósito (en nuestro caso, delimitar los contenidos nominalistas de las teoría y caracterizar sus condiciones de adecuación al mundo) antes de dar el debate acerca de los fundamentos ontológicos de la verdad matemática. Pasemos ahora a evaluar las críticas de Pillos al concepto de adecuación nominalista o n-adecuación. Recordemos al respecto que la batalla se libra en el plano metacientífico: los partidarios del NM esgrimen ese concepto como sucedáneo del concepto de verdad o verosimilitud de uso corriente entre los realistas. Así pues, la suerte del NM dependerá en buena medida de su capacidad para explicar los éxitos de nuestras (actuales) mejores teorías científicas y caracterizar el objetivo epistemológico de la ciencia sin echar a perder ninguna de las virtudes propias de la pintura realista tradicional. Psillos acota al respecto que el contenido nominalista de una teoría “subdetermina su contenido total”, dado que podemos “imaginar fácilmente una situación en la que dos (o más) teorías T1 y T2 tienen exactamente las mismas consecuencias nominalísticamente establecidas, pero difieren en sus formulaciones matemáticas” (2012 62-63). La objeción aquí es que la subdeterminación de los contenidos nominalistas conmina la actitud del NM al agnosticismo: el rechazo de las entidades matemáticas deja de ser una actitud plausible. Veamos cuál es el argumento de Psillos al respecto. Sean T1 y T2 dos teorías tales que T1 = N+M y T2 = N+(~M), donde N es una teoría puramente nominalista y M una teoría puramente matemática. Psillos da por sentado que T1 y T2 son nominalísticamente equivalentes (es decir, que tienen las mismas consecuencias “nominalísticamente establecidas”) a pesar de ser matemáticamente incompatibles (la primera tiene compromisos matemáticos, mientras que la segunda es incompatible con cualquier compromiso de esa índole). 12 Este es el núcleo de la célebre objeción epistemológica contra el platonismo matemático contemporáneo, planteada originariamente por Paul Benacerraf.

63


Guirado, Matías Alejandro

Ahora bien, dado que -como el propio Psillos admite- la existencia de objetos matemáticos es lógicamente contingente, hay dos mundos posibles (nomológicamente equivalentes) W1 y W2 tales que T1 es verdadera en W1 y T2 es verdadera en W2. Así, T2 es nominalísticamente adecuada pero falsa en W1 (porque, según T2, no hay objetos matemáticos, pero los hay en W1) y T1 es nominalísticamente adecuada pero falsa en W2 (porque, según T1, hay objetos matemáticos, pero no los hay en W2). Supongamos ahora -por mor de la argumentación- que ambas teorías son nominalísticamente adecuadas en el mundo actual @. La pregunta es: ¿T2 es verdadera o falsa en @? En otras palabras: ¿@ es idéntico a W1 o a W2? La objeción de Psillos es que el NM carece de criterios sustantivos para dar respuesta a estas preguntas y otras de similar tenor metafísico-modal. Es por esto que –a su juicio– los partidarios del NM solo pueden mostrarse agnósticos hacia las entidades matemáticas. Aquí cabe hacer tres aclaraciones. En primer lugar, el NM no puede (ni debe) aceptar una teoría como T2 = N+(~M), dado que T2 es nominalísticamente incompatible con T1, y, a diferencia de esta, ni siquiera puede ser vista como una extensión nominalísticamente conservativa de N. Pero, si una teoría (pretendidamente) físico-matemática como T2 no puede ser vista como una extensión nominalísticamente conservativa de un cuerpo de enunciados puramente nominalistas como N, entonces no es de incumbencia del NM (o del nominalismo en general) compararla con otra que (como T1) sí puede ser vista de ese modo. Lo que determina que T2 sea nominalísticamente incompatible con T1 es que T2 niega expresamente la existencia de objetos matemáticos y, como consecuencia de esto, tiene implicancias nominalistas (implicancias relativas a la inexistencia de entidades platónicas) que, claramente, van a contramano de T1. Pero esto quiere decir que, al adicionar ~M a N, podemos derivar una serie de consecuencias nominalistas (por ejemplo, consecuencias relativas a la inexistencia de números reales o ecuaciones diferenciales) que no eran originariamente derivables a partir de N+M o N. Por lo tanto, T2 ni siquiera constituye (como pretende Psillos) una extensión nominalísticamente conservativa de N: hay consecuencias nominalistas de T2 que exceden el poder deductivo de N. (En rigor, N no puede implicar nada acerca de la existencia o inexistencia de objetos matemáticos, dado que ni siquiera tiene un vocabulario matemático. N solo enuncia qué propiedades espaciotemporales tienen los objetos no-platónicos del mundo; por tanto, T2 no puede ser vista al modo de una extensión nominalísticamente conservativa de N).

64

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 47-81


Realismo científico y nominalismo

Ahora bien, si T2 es nominalísticamente incompatible con T1 y, además, no es una extensión nominalísticamente conservativa de N, entonces no es responsabilidad de los nominalistas responder a la pregunta que interroga si @ es W1 o W2. Esa pregunta carece de todo nexo sustantivo con la trama de supuestos asociados al NM en particular y al nominalismo en general. En segundo lugar, el máximo exponente del nominalismo en filosofía de la matemática –Hartry Field– advirtió expresamente que su postura está metodológicamente confinada al agnosticismo en materia de entidades abstractas (cf. Field 11). Si T es la teoría de la gravitación universal de Newton, N qua sustituto nominalista de T no puede expresar que no hay objetos matemáticos; solo puede expresar que todos los objetos no-matemáticos del mundo obedecen las leyes de la dinámica newtoniana. Pues, si N implicara que no hay objetos matemáticos, entonces sería incompatible con cualquier teoría matemática y, como consecuencia de esto, T sería internamente incoherente (lo cual, hasta donde sabemos, no es el caso), dado que –según la visión de Field– T es, precisamente, el resultado de aplicar M a N (es decir, T = N+M). Por último, cabe aclarar que el NM (y lo mismo vale para el nominalismo en general, en sus variantes estandarizadas) no persigue refutar la existencia de objetos matemáticos, sino desandar lo que se supone es el mejor alegato para comprometerse seriamente con su existencia: el denominado ‘argumento Quine-Putnam’. De cualquier manera, aun suponiendo que las teorías científicas estén subdeterminadas por sus contenidos nominalistas en algún sentido relevante, están igualmente subdeterminadas por sus contenidos matemáticos, o quizá más. Dado que -como el propio Psillos admite- es lógicamente posible que no haya objetos matemáticos, puede que solo los contenidos nominalistas de la ciencia sean de hecho (aproximadamente) verdaderos. Pero de esto se sigue que no hay ninguna constancia que permita decidir si T2 es verdadera o solo nominalísticamente adecuada, dado que no hay ninguna constancia que permita decidir si se obtienen o no las condiciones veritativas de la matemática. El motivo es que los seres humanos no podemos salir del espaciotiempo y proceder a cotejar si hay o no hay objetos abstractos. En cambio, sí hay constancias que hacen razonable suponer que se obtienen las condiciones de verdad (o verosimilitud) de los contenidos puramente nominalistas de la ciencia. Por ejemplo, es razonable suponer que, si no existieran electrones, entonces el comportamiento de los galvanómetros sería diferente al que actualmente tienen. Pero nada análogo a esto vale cuando uno se plantea la posibilidad de que no existan números reales o ecuaciones diferenciales. Por

65


Guirado, Matías Alejandro

añadidura, este modo de referirse a los contenidos nominalistas de la ciencia –este modo de referirse a las entidades teóricas, en términos de sus efectos espaciotemporales– está en la base del realismo científico tradicional. Leemos al respecto: “No es sorprendente que los galvanómetros (...) se comporten de la manera en que lo hacen, porque, si realmente hay electrones, (...) esa es la manera en la que nosotros tenemos que esperar que se comporten” (Smart 39). La apuesta del NM es que nada análogo a esto puede decirse con sentido respecto de las entidades matemáticas involucradas en la ontología científica. Por ejemplo, no tiene mucho sentido decir algo como: “no es sorprendente que los galvanómetros se comporten de la manera en que lo hacen, porque, si realmente hay números, esa es la manera en la que nosotros tenemos que esperar que se comporten”. Más que una objeción, Psillos ha hecho concesiones al NM al formular la acusación de subdeterminación. Le concede, fundamentalmente, dos cosas: (i) que las teorías científicas tienen contenidos puramente nominalistas (en caso contrario, no tendría sentido decir que esos contenidos tienen un efecto subdeterminante); (ii) que esos contenidos admiten diversas formulaciones matemáticas; y (iii) que los contenidos nominalistas configuran un sustrato independiente para la creencia. Esto último se desprende trivialmente de la idea de que la inexistencia de objetos matemáticos es una posibilidad lógica, junto con el supuesto de que T1 es nominalísticamente adecuada en @ (es decir, en un mundo posible rige el PAC). Claro que puede que T1 sea verdadera o verosímil, esto es, que refleje fielmente el mundo, tanto en sus aspectos físicos como extrafísicos. Pero nada obsta para que N –la subteoría puramente nominalista incrustada en T1– sea verdadera. A tal efecto, bastaría con que existan las “entidades teóricas” postuladas por T1 y que no haya entidades platónicas. No sería necesario un cambio de leyes o condiciones iniciales. Por otra parte, vimos que la intuición realista tradicional es que la captación de la naturaleza de las entidades teóricas explica la adecuación empírica de una teoría. Estas entidades –a diferencia de sus parientes platónicos– tienen efecto en los hechos y las regularidades observables. Pero esto quiere decir que el platonismo matemático no puede hacer ningún aporte a la explicación del éxito de la ciencia, con lo cual, si nos atenemos a los presupuestos que dan marco al alegato de Psillos, tiene pleno sentido asumir que nuestras (actuales) mejores teorías científicas tienen contenidos puramente nominalistas y que solo ellos son verdaderos o aproximadamente verdaderos. Psillos utiliza un alegato similar al precedente para objetar –de manera igualmente infructuosa– que el NM “no puede discriminar las teorías matemáticas

66

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 47-81


Realismo científico y nominalismo

falsas de aquellas que son usadas de manera estándar por los matemáticos y los físicos” (2012 64). Sean T1 y T2 dos teorías tales que T1 = N+M y T2 = N+(M´), donde N es una teoría puramente nominalista, M una teoría puramente matemática correcta (por poner un ejemplo, la teoría de que, entre otras cosas, 3 es primo) y M´ una teoría matemática incorrecta (la teoría de que, entre otras cosas, 3 es compuesto). (Los ficcionalistas proponen usar el predicado ‘verdadero-segúnla-matemática’ como sustituto antirrealista del concepto platónico de verdad. Esto les permite diferenciar la actitud a adoptar respecto de M y M´, sin necesidad de recaer en el platonismo. Pero Psillos pone en duda la pertinencia del ficcionalismo en este contexto; a su juicio, ese predicado remite a un factor externo a (e independiente de) los contenidos nominalistas de las teorías, pues aparece originariamente vinculado con una actitud hacia la matemática pura en general. Este cuestionamiento es fundado: en todo caso, el ficcionalismo tendrá alguna chance una vez que se logre rebatir el argumento Quine-Putnam, es decir, el principal argumento en favor de la idea de que la matemática es un cuerpo de verdades sustantivas y no de ficciones). El éxito de esta línea argumental depende fundamentalmente de T1 y T2 sean nominalísticamente equivalentes. Solo en ese caso, vale la acusación de que el NM no puede proporcionar una pauta para quedarse con la primera (la teoría matemáticamente correcta) y deshacerse de la segunda (la teoría matemáticamente incorrecta). Pero el punto es que, si T1 y T2 son matemáticamente incompatibles (en el sentido de que, presumiblemente, M´ es una reformulación incorrecta de M y tanto M’ como M están aplicadas a un mismo cuerpo de enunciados puramente nominalistas), entonces T1 y T2 han de ser también nominalísticamente incompatibles, dado que –vale la pena recordarlo– se supone que la matemática aplicada en ellas se utiliza para representar (o facilitar la representación de) hechos puramente nominalistas. Por ejemplo, T1 implica -nominalísticamente hablando- que no podemos dividir en grupos no-unitarios a la clase de los satélites naturales de Platón (porque, según M, 3 es primo), mientras que T2 implica que sí podemos hacerlo (porque, según M´, 3 es compuesto). Por lo tanto, la incompatibilidad nominalista es un criterio válido para discriminar entre teorías matemáticas correctas e incorrectas y juzgar que las primeras, a diferencia de las segundas, preservan las implicancias de las teorías puramente nominalistas a las que se aplican. Otra réplica natural al argumento de Psillos es que puede replantearse con respecto a la matemática aplicada: un mismo aparato matemático puede ser aplicado a teorías nominalistas correctas lo mismo que a teorías nominalistas incorrectas. Por ejemplo, podemos usar la aritmética elemental para elaborar

67


Guirado, Matías Alejandro

una nueva teoría astronómica que implique que Marte y Júpiter son satélites naturales de la Tierra. El punto es que los contenidos nominalistas y los contenidos platónicos de las teorías son lógicamente independientes entre sí: está en nosotros elegir la matemática correcta para desplegar teorías nominalísticamente plausibles (es decir, teorías que reflejen con tolerable precisión los aspectos observables e inobservables del mundo físico). Supongamos ahora, siguiendo a Psillos, que “la formulación matemática M de T1 provee a T1 de un número de virtudes teóricas por sobre la formulación matemática M´ de T2” (2012 64), donde M´ es ahora una teoría matemática distinta de M pero no necesariamente incorrecta o incompatible con ella. Las virtudes fundamentales a tener en cuenta aquí son la simplicidad y el poder de unificación explicativa. Ahora bien, dado que, bajo la óptica realista, estas virtudes son indicios de verdad o verosimilitud y T1 y T2 tienen los mismos contenidos nominalistas, pareciera ser que la superioridad de T1 sobre T2 dependerá exclusivamente de la simplicidad y el poder unificatorio de sus contenidos platónicos. Pero –acota Psillos– el aporte de esos contenidos no podrá ser apreciado si rechazamos la existencia de las respectivas entidades abstractas (o permanecemos agnósticos al respecto), con lo cual habrá aspectos del éxito de la ciencia que, prima facie, no podrán ser esclarecidos apelando al concepto de n-adecuación. Vimos que esta objeción es inviable si suponemos que M´ es una teoría matemática incorrecta. Supongamos entonces ahora que M´ es correcta (y compatible con M). La objeción que se plantea ahora es una variante del alegato relativo al aporte explicativo de los modelos teóricos, con lo cual la réplica a esa objeción será, en rigor, un subproducto de la respuesta que diera antes a ese alegato. La respuesta es que el NM admite que algunas teorías matemáticas resultan superiores a otras en conexión con sus aplicaciones (de hecho, creo que nadie en su sano juicio desafiaría esta postura), de la misma manera en que admite (porque es a esta altura un truismo) que algunos modelos juegan un papel explicativo más sustantivo que otros. Lo que en todo caso el NM negaría o pondría en cuestión es que la relativa superioridad de unos recursos platónicos sobre otros pueda ser tomada en cuenta como indicio de la existencia de entidades abstractas. Claro que los recursos platónicos son indispensables para hacer ciencia y algunos son más importantes que otros, pero, como ya vimos, nada de esto basta para establecer el platonismo. Esta salvedad es lo que divide las aguas: al presuponer la existencia de cosas como electrones o fotones, contribuimos a explicar el éxito práctico de nuestras mejores teorías, cosa que no sucede al

68

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 47-81


Realismo científico y nominalismo

suponer la existencia de objetos matemáticos o modelos teóricos. He aquí, precisamente, uno de los resultados fundamentales de la sección precedente: tiene sentido (de hecho, es independientemente plausible) suponer que algunos hechos del mundo observable serían diferentes si no existieran cosas tales como los electrones; pero no tiene sentido suponer que algunos hechos del mundo observable (o del mundo físico en general) serían diferentes si no existieran cosas tales como los números reales o las ecuaciones diferenciales. Ahora bien, esta intuición mantiene plena validez cuando comparamos teorías matemáticas rivales en lugar de considerar teorías matemáticas aisladas. Además, según parecen convenir los filósofos de la ciencia, no es irracional ponderar la superioridad de una teoría sobre otra en lo que respecta a sus virtudes teóricas desde una posición genéricamente antirrealista o agnóstica (antirrealista o agnóstica, tanto acerca de las “entidades teóricas”, cuanto de las entidades platónicas). Por lo tanto, el que los recursos platónicos de una teoría científica sean superiores a otros es perfectamente compatible con el antiplatonismo. (Vale aclarar que la consideración precedente no es –ni envuelve– una objeción al realismo de “entidades teóricas” sino, más bien, una reivindicación de la racionalidad del debate realismo vs. antirrealismo. Pero, en el caso de las entidades abstractas, la situación es distinta, porque no solo es racional permanecer en el antirrealismo al reconocer la importancia explicativa de su postulación (y el beneficio de postular unas entidades mejor que otras), sino que, además, la creencia en ellas no puede fundarse abductivamente a partir de consideraciones relativas al milagro de que las cosas en el nivel de lo observable sucedan “como si” los postulados de nuestras mejores teorías fueran acertados). En fin: la conclusión a la que arribamos es la siguiente: el hecho de que una teoría matemática sea más útil o simple que otra no dice nada en favor de la creencia en sus objeto, dado que –a diferencia de los que sucede con las entidades teóricas– los objetos en cuestión no hacen la diferencia en el nivel de la realidad física. EL PAC impide dar estatus ontológico a los criterios pragmáticos que rigen la elección de teorías matemáticas rivales. Psillos hace dos críticas adicionales a la noción de adecuación nominalista o n-adecuación. La primera crítica puede plantearse así. Supongamos que T1&T2 es la conjunción lógica de dos teorías científicas tradicionales (platonizadas) T1 y T2 y que Tna1&Tna2 es la conjunción de los respectivos reductos nominalistas de T1 y T2, donde -en la jerga de Psillos- el reducto nominalista de una teoría es el conjunto de sus consecuencias “nominalísticamente establecidas”. ¿Cómo garantizar que Tna1&Tna2 preserva el conjunto de las consecuencias

69


Guirado, Matías Alejandro

puramente nominalistas de T1&T2? En otras palabras, ¿cómo garantizar que Tna1&Tna2 es n-adecuada? La preocupación de Psillos es que la n-adecuación de Tna1&Tna2 solo puede garantizarse a costa de la conservatividad de la matemática; es decir, una vez convenido que (i) las teorías tienen contenidos puramente nominalistas y (ii) es factible separar o extraer -en la línea de Field- esos contenidos. El fundamento de esta preocupación es que una de las consecuencias de la conservatividad de la matemática reside precisamente en la posibilidad cierta de nominalizar toda la ciencia y, en el contexto del NM, se presume que esa tarea no puede ser llevada a cabo. El error de Psillos aquí reside en suponer que Tna1&Tna2 es un sustituto n-adecuado de T1&T2 solo si podemos explicitar los contenidos de Tna1&Tna2, es decir, solo si podemos nominalizar T1 y T2. Esto explica que la n-adecuación de una teoría sea vista como un subproducto de la conservatividad de la matemática aplicada. Pero es precisamente la intuición de que la conservatividad no es una condición necesaria para la n-aecuación lo que, en buena medida, explica la emergencia del NM como alternativa al NR. Los partidarios del NM no abogan por la separabilidad de los contenidos nominalistas. Solo buscan darles estatus de candidato independiente para la creencia. En rigor, la n-adecuación es un asunto completamente ajeno al problema de la conservatividad. Evidencia de esto es que es perfectamente razonable suponer que una teoría tiene contenidos puramente nominalistas pero no puede ser nominalizada. Juzgar lo contrario equivale a acorralar al nominalismo tras los pasos del proyecto de Field. Hay tres buenas razones para restar legitimidad filosófica a ese acorralamiento. Un argumento inductivo al respecto apunta a la inviabilidad del NR en conexión con las teorías actuales: se plantean serias dificultades al tratar de concebir cómo aplicar las técnicas de nominalización de Field a teorías que suponen una reconceptualización del espaciotiempo newtoniano (como sucede con la teoría de la relatividad) o carecen de una interpretación física precisa (como sucede con la teoría cuántica). Un argumento metafísico en favor de la existencia de contenidos puramente nominalistas es que PAC es verdadero, es decir, que las entidades platónicas -si las hay- carecen de toda injerencia causal sobre nosotros y el mundo físico. Por tanto, bien podría suceder que el mundo actual @ sea no más que el reducto nominalista de un mundo nomológicamente posible donde la ciencia vigente –con sus aplicaciones indispensables de teorías matemáticas- es literalmente verdadera.

70

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 47-81


Realismo científico y nominalismo

Otro argumento al respecto es uno de orden lingüístico: es factible separar el vocabulario fisicalista y el vocabulario platonista de la ciencia aplicando la intuición bruta de que algunas de las entidades extraempíricas a las que las teorías hacen referencia –si es que acaso existen– no están en el espaciotiempo. Por ejemplo, podemos usar esa intuición como criterio para separar expresiones como ‘electrón’ de expresiones como ‘π’ y tomar esta vía como un expediente práctico para discriminar qué entidades forman parte de la ontología nominalista de la ciencia y cuáles forman parte de su ontología platonista. En resumen, es razonable asumir que Tna1&Tna2 preserva el conjunto de las consecuencias nominalistas de T1&T2 sin embarcarnos en el (controversial) proyecto de Field, dado que (a), ex suppositione, T1 y T2 tienen una serie de implicancias puramente nominalistas y (b), por estipulación, Tna1 y Tna2 son el conjunto de las implicancias puramente nominalistas de T1 y T2 respectivamente. (Nótese que la validez de (b) es independiente de la posibilidad de volcar expresamente los contenidos de Tna1 y Tna2: nada de lo anterior exige suponer que nosotros estamos en condiciones de formular Tna1 y Tna2). La segunda crítica adicional al concepto de n-adecuación es que “las teorías no confrontan los fenómenos (...) directamente. Por el contrario, confrontan modelos de los datos, que son estructuras matemáticas (más precisamente, OANMs)” (Psillos 2012 65; bastardilla removida). Por poner un ejemplo (que no es de Psillos), la reconstrucción estándar de la trayectoria orbital de un planeta exige suponer que la estrella relevante y el planeta son esferas perfectas con distribuciones homogéneas de masa que interactúan en un marco dinámicamente aislado de la acción gravitacional de entidades adicionales. La respuesta natural a esta nueva crítica no es más que una reiteración de la réplica a una objeción que ya he rebatido: la objeción de que la ciencia tiene compromisos explicativamente indispensables con OANMs. Esa crítica al uso del concepto de n-adecuación es una ramificación trivial de aquella objeción. Ya he argumentado ad nauseam que la referencia a entidades matemáticas o cualquier OANM explicativamente indispensable no cuenta como elemento en favor del platonismo. El hecho de que esa referencia sea necesaria para idealizar o abstraer de ciertas condiciones el desempeño nomológico de un sistema físico no modifica el eje del asunto. Solo colabora en la consideración de una forma de contribución epistémica que no había sido tenida en cuenta antes. Pero, en última instancia, la apuesta final de Psillos es que no le será fácil al NM validar la suposición de que los fenómenos adquieren una “estructuración causal” una vez que filtramos las apariencias a partir de modelos.

71


Guirado, Matías Alejandro

Psillos alude sin nombrarla aquí a la concepción de van Fraassen (2008). Esta concepción equipara la presentación de una teoría científica con la especificación de una serie de modelos teóricos, modelos de datos y enunciados empíricos. Aquí solo importa detenerse en la cuestión de los modelos. Los modelos de datos tienden un puente entre los modelos de la teoría y los fenómenos: son estructuras que copian o reflejan los fenómenos y, a su vez, son embebibles en los modelos teóricos mediante funciones homomórficas. De aquí la preocupación de Psillos: al contrastar una teoría, el mundo observable queda relegado: en rigor, el científico confronta dos estructuras matemáticas. Los nominalistas pueden simplemente admitir que los modelos teóricos reflejan las relaciones que aparecen en los modelos de los datos, pero, de acuerdo con Psillos, la cuestión pasa por determinar si la noción de una “estructura causal” es una noción nominalísticamente kosher, es decir, si admite una intelección antiplatonista. Psillos deja abierta esta posibilidad y pasa a defender la existencia de hechos mixtos (físico-matemáticos) metafísicamente básicos o, alternativamente, a cuestionar la existencia de hechos puramente nominalistas metafísicamente fundamentales. Pero, antes de pasar a considerar este tópico, quisiera aludir brevemente a las opciones disponibles para el NM en lo que respecta a la cuestión de las alegadas estructuras causales. Una primera opción es conceder que se trata de una noción platónica y reservarle un uso desprovisto de creencia, en la línea de la actitud adoptada hacia los OANMs en general. Que las estructuras -al igual que los OANMs- sean entidades platónicas -si acaso son algo- no implica que la creencia en ellos sea una clave para explicar su relevancia epistémica. La otra opción es concebir que la noción de estructura es un expediente práctico para aludir a ciertas relaciones nominalísticamente kosher entre relata nominalísticamente kosher, donde una relación nominalísticamente kosher es una relación espaciotemporal definida o definible sobre un dominio de entidades completamente espaciotemporales. Cualquiera sea la vía que se adopte, lo cierto es que la cuestión de las estructuras causales no representa un problema particularmente acuciante para el NM.

4. El estatus de los hechos mixtos Las teorías científicas maduras (particularmente, las teorías físicas) tienen implicancias físico-matemáticas, es decir, contienen oraciones que aluden a relaciones (no-causales) entre objetos físicos y objetos matemáticos. Tomemos a modo de ejemplo, siguiendo a Balaguer (133), la oración:

72

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 47-81


Realismo científico y nominalismo

(A) El sistema físico S tiene una temperatura de cuarenta grados Celsius. Esta oración expresa que cierto objeto físico –el sistema S– y cierto objeto matemático –el número 40– mantienen cierta relación (no-causal): la relación temperatura en grados Celsius. De modo que un requisito para la obtención de las condiciones veritativas de oraciones como (A) es la existencia de hechos mixtos, es decir, de hechos físico-matemáticos. Y un requisito para la existencia de tales hechos es la existencia de objetos matemáticos. Los partidarios del NM aceptan la lectura literal de los enunciados mixtos de la ciencia –esto es, aceptan sus compromisos ontológicos intuitivos– pero niegan la existencia de entidades matemáticas, con lo cual niegan también la existencia de hechos mixtos. A juicio de ellos, (A) es –a lo sumo– una oración nominalísticamente adecuada, es decir, una oración (aproximadamente) verdadera en lo que respecta a su contenido puramente nominalista. La pregunta es: ¿cómo delimitar el contenido puramente nominalista de una oración o teoría mixta y, por esta vía, convertirlo en candidato independiente para la creencia? La respuesta de Balaguer es la siguiente: “el contenido puramente nominalista de una teoría T es que el mundo físico hace su parte en el “arreglo legal de T” [holds up its end of the “T bargain”], es decir, hace su parte para hacer verdadera a T” (Balaguer 135). Siguiendo esta línea, podemos decir que el contenido puramente nominalista de A es que hay un hecho completamente espaciotemporal que hace su aporte para la obtención de las condiciones veritativas de A. Pero esta manera de separar contenidos nominalistas nos compromete con la verdad (o verosimilitud) de oraciones físico-matemáticas y, como consecuencia de esto, nos hunde en el platonismo. Una manera de evitar esta dificultad es estipular que ese aporte es realizado en un mundo nomológicamente posible -distinto al actual- donde A es literalmente verdadera. (Si la apelación a mundos posibles se juzga problemática, podemos estipular simplemente que hay –en el mundo actual– un hecho o un estado de cosas puramente espaciotemporal que haría su aporte –un aporte física y causalmente suficiente– para la obtención de las condiciones veritativas de A si existieran objetos matemáticos). Balaguer (133) apela al PAC (el principio de ineficacia causal de las entidades abstractas) para argumentar que, si (A) es verdadera, entonces sus condiciones de verdad (o verosimilitud) sobrevienen a partir de dos clases de hechos enteramente independientes entre sí: una serie de hechos puramente nominalistas relativos al sistema físico S y una serie de hechos puramente platónicos relativos al número 40. Estos hechos son metafísicamente básicos, en el sentido

73


Guirado, Matías Alejandro

de que su existencia es condición de posibilidad para la existencia de hechos mixtos. Ahora bien, si los hechos puramente nominalistas son metafísicamente básicos e independientes de los hechos puramente platónicos (esto es, si su existencia es condición necesaria para la superveniencia de las condiciones veritativas de la ciencia empírica, pero no viene condicionada por la existencia de hechos platónicos), entonces es razonable restringir la creencia a los contenidos puramente nominalistas de la ciencia (y apelar al concepto de n-adecuación para dar cuenta del estatus de lo que, hasta el momento, son nuestras mejores teoría). Psillos pone en duda que el contenido puramente nominalista de (A) sea metafísicamente básico o, al menos, tan genuinamente básico como su contenido puramente platónico. Su argumento es el siguiente: Sea cual sea el estado [de S] (si (A) es entendida de manera literal y es verdadera), es tal que se encuentra en cierta relación (la relación Celsius) con el número 40. Este número es, por así decir, la única parte no negociable del hacedor de verdad de (A). Lo que sea el estado físico que se encuentra en la relación Celsius con 40 puede variar (al menos, podemos ser ignorantes respecto de él), pero que mantenga esta relación con este número es algo fijado (si (A) es verdadera). Parece ser que la unidad del hacedor de verdad de (A) requiere de este número, a la vez que solo requiere que haya uno u otro estado físico ligado con este número, módulo la relación Celsius. (Psillos 2012 66). Nótese que el argumento de Psillos no excluye la existencia de hechos nominalistas básicos. En particular, no excluye la existencia de un hecho completamente espaciotemporal operando de manera independiente como condición para la superveniencia de las condiciones de verdad (o verosimilitud) de (A). Tampoco excluye que el que S tenga la temperatura que tiene sea un hecho singular e identificable. Todo lo que se desprende del argumento es que la ocurrencia de este hecho -a diferencia de lo que sucede con los hechos puramente platónicos relativos al número 40- puede responder a condiciones antecedentes diversas. Por ejemplo, S puede tener la temperatura que tiene en virtud de su cercanía a cierta fuente de calor, o en virtud del monto de energía cinética acumulada en él, etc. Pero el estado termodinámico de S que oficia como condición para la superveniencia del hecho representado por (A) no es arbitrario en ningún sentido relevante. Lo arbitrario –como veremos en breve– será que se apele al número 40 como expediente para nombrar o representar ese estado. Que la temperatura de S sea una circunstancia sensible a las condiciones iniciales del mundo es completamente irrelevante en este contexto. El motivo

74

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 47-81


Realismo científico y nominalismo

es que, para el NM, lo fundamental es: (a) que hay un hecho completamente espaciotemporal que está detrás de la fachada físico-matemática de (A) y (b) que la ocurrencia de ese hecho es -metafísicamente hablando- una condición necesaria y suficiente para que S se encuentre en el estado termodinámico en el que se encuentra. Ahora bien, (a) y (b) son supuestos inocuos, porque son corolarios de PAC y, por derivación, de la definición de ‘entidad abstracta’ comúnmente aceptada por la gente dedicada a la filosofía de la matemática. Esa definición nos dice que las entidades abstractas son entidades causalmente inertes existentes fuera del espaciotiempo y que, como consecuencia de esto, se encuentran metafísicamente aisladas del espaciotiempo. Pero esto implica que el termómetro seguiría marcando ‘40’ al ser apoyado –bajo condiciones apropiadas– sobre el sistema físico S si –ceteris paribus– no existieran entidades tales como el número 40 o la función escalar temperatura en grados Celsius. El error de Psillos pasa por confundir el hecho de que S tenga la temperatura que efectivamente tiene con las condiciones iniciales del mundo que –en combinación con las leyes naturales– determinan que S atraviese ese estado termodinámico. Este error se hace patente en el siguiente pasaje: Cuando se enuncia que la temperatura-de-S-en-Celsius es 40 (...) se afirma que lo que es verdad de S en lo concerniente a su temperatura-en-Celsius es que es igual a 40 y que esto es verdadero independientemente de qué sea exactamente lo que realiza físicamente el estado de temperatura de S. (Psillos 2012 66). Vale aclararlo: un hecho físico-matemático puede tener “múltiples realizadores físicos” sin que por esto resulte irrelevante o arbitrario cuál sea el estado en el que debe encontrarse el sistema pertinente para que le corresponda un número determinado como valor de una magnitud dada una cierta escala. Supongamos que S tiene 40 grados Celsius de temperatura y que este hecho admite una multiplicidad de realizaciones físicas. El estado físico de S cuya existencia es necesaria para atribuirle el número 40 es que S tenga un monto de calor dado y no otro, independientemente de las condiciones que determinan que sea ese y no otro su estado termodinámico. Lo que se realiza en cualquier caso -independientemente de las condiciones antecedentes de rigor- es una relación no-causal específica entre S y 40 operando como condición para la verdad de (A). El que S tenga cierto estado termodinámico y el que, dado ese estado, el valor de la temperatura de S en grados centígrados sea cuarenta, son condiciones igualmente relevantes para el darse las condiciones veritativas de (A). Por añadidura, los hechos platónicos ostentan cierta arbitrariedad (al menos cuando se los concibe como condición para la superveniencia de enunciados mixtos) que escapa a los hechos nominalistas.

75


Guirado, Matías Alejandro

Los contenidos platónicos de una oración sobre el estado termodinámico de un sistema físico dependerán en buena medida de la elección de una escala pertinente; esa elección deberá a su vez efectuarse sobre el tamaño atribuido a la unidad, el tamaño del grado y el punto-cero de la escala. Pero estas elecciones son bastante arbitrarias. Por ejemplo, podemos expresar la temperatura de S empleando la escala en grados Celsius y, concomitantemente, fijar los contenidos platónicos de (A) a partir de circunstancias relativas al número 40, tomando como punto cero el punto de congelamiento del agua. Pero también podemos reflejar la temperatura de S empleando la escala en grados Kelvin. Para esto debemos reformular (A) en términos de una oración (B) cuyos contenidos platónicos vengan fijados a partir de circunstancias relativas al número 313,15, tomando al cero absoluto como punto cero de la escala. (Dicho sea de paso, esta arbitrariedad de los contenidos platónicos refuerza la idea de que los contenidos nominalistas de la ciencia constituyen un candidato independiente para la creencia; esto es, que es razonable proceder a explicar el éxito de la ciencia desde un punto de vista antiplatonista. Pues son estos hechos los que el científico quiere estudiar y reflejar en sus teorías y son los recursos platónicos los que pueden variar a la hora de formular y sistematizar las observaciones correspondientes). La última apuesta de Psillos en conexión con el tópico de los enunciados y los hechos mixtos es cuestionar la concepción de la matemática aplicada (o la aplicabilidad de la matemática) que acompaña al NM (en rigor, se trata de la concepción de Balaguer; pero, mutatis mutandis, la visión de fondo es adoptada o presupuesta por casi todos los partidarios del NM). Esa concepción dice que el lenguaje matemático es un expediente práctico para indexar o designar estados de los sistemas físicos (estados dinámicos, estados cinemáticos, etc.). Volviendo a (A), la idea es que el numeral ‘40’ es una manera de indexar o designar cierto estado termodinámico de S. La objeción de Psillos es que, al adoptar esta visión, “admitimos implícitamente que (A) tiene un contenido puramente nominalista y que no tiene un contenido platónico”. Según él, ya “no leemos (A) literalmente; no asumimos honestamente que expresa un hecho mixto (aun cuando no sea un hecho mixto básico)” (2012 67). Esta objeción parte de una confusión: Psillos pretende que el NM extrae la lectura o interpretación de (A) (la intelección de su significado) a partir de su propia concepción de la aplicabilidad de la matemática; cuando, en rigor, estas cuestiones corren por vías alternativas. El NM, al igual que el platonismo tradicional, promociona expresamente la lectura o interpretación literal de (A) y admite consecuentemente que –leída o interpretada literalmente– esa oración

76

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 47-81


Realismo científico y nominalismo

nos compromete con un hecho mixto; es decir, un hecho relativo a cierta relación entre una entidad espaciotemporal (el sistema físico S) y una entidad no-espaciotemporal (el número 40). De modo que lo que tiene que ocurrir en el mundo para que (A) sea verdadera es que S y 40 mantengan efectivamente la mentada relación. Ahora bien, una vez zanjada esta cuestión (semántica), la pregunta pendiente es: ¿por qué resulta (epistémicamente) relevante referir a números a la hora de hablar de la temperatura de los sistemas físicos? Una respuesta bastante razonable –una respuesta que tanto los platonistas como los antiplatonistas suelen dar o presuponer13, ateniéndose a los rudimentos de la teoría de la medición extensiva– es, más o menos, la siguiente: la secuencia de los números reales está estructurada de manera tal que, una vez elegida una unidad de medición, una escala y el punto cero de rigor, las relaciones entre números reflejan fielmente el ordenamiento de los sistemas físicos con base en la relación comparativa más frío que. Pero esta respuesta al problema de la aplicabilidad no implica (ni presupone) nada relativo a la lectura de los enunciados mixtos. Solo nos dice qué papel desempeña el lenguaje matemático en esos enunciados, cualquiera sea la lectura que adoptemos. Volviendo al ejemplo de Balaguer, que ‘40’ sea una manera de designar un particular estado de S no excluye que (A) sea leída literalmente como expresando que el número 40 mantiene una relación no-causal con S, o que la existencia del número 40 sea una precondición para la verdad de (A). En resumen: Psillos no supo o no quiso distinguir dos cosas: cómo leemos una oración, y qué papel epistémico asignamos a cierta expresión incluida en ella. Quisiera culminar esta sección con una breve digresión, relativa al estatus del NR (el nominalismo revolucionario). Las consideraciones precedentes abonan una intelección de la aplicabilidad que, en rigor, está a mitad de camino entre el NM y el NR.14 Digo esto porque, el que la matemática aplicada cumpla un papel fundamentalmente representacional (un papel ligado a la indexación o designación de estados físicos) quiere decir que hay un sustrato nominalista para cada uso de un término matemático. Dicho de manera más general: Por cada estructura matemática postulada en el terreno de la ciencia, hay una estructura nominalista tal que las relaciones cualitativas entre los elementos de la estructura aparecen reflejadas por relaciones cuantitativas entre los elementos de la estructura abstracta. (Por caso, la estructura de los objetos físicos ordenados mediante concatenación con base en la relación compara13 El lector encontrará una intelección platónica de la aplicabilidad de la matemática esencialmente equivalente a lo que aquí denomino ‘concepción representacional’ en Baker & Colyvan. 14 Una tesis emparentada con este punto de vista aparece expresamente sugerido en Balaguer (111-112).

77


Guirado, Matías Alejandro

tiva más frío que viene adecuadamente reflejada por la secuencia los números reales ordenados por la relación menor a, una vez definida una funcióntemperatura pertinente). Así pues, una vez concebida cierta estructura nominalista con su ordenamiento cualitativo, resulta factible hacer dos cosas importantes: (i) definir relaciones comparativas que preserven los rasgos estructurales de las operaciones platónicas involucradas en la asignación de valores para la magnitud física correspondiente (operaciones como la suma, la resta y la ordenación parcial ≥); (ii) reformular las oraciones mixtas que asignan elementos de la estructura de los reales a elementos de la estructura nominalista al modo de oraciones que reflejan no más que relaciones comparativas entre elementos de la segunda estructura. Estas observaciones son un primer indicio de que, pese a los consensos filosóficos establecidos, es al menos concebible nominalizar la ciencia siguiendo la estrategia de reaxiomatización de teorías Hartry Field, o alguna estrategia alternativa pero relevantemente parecida; por ejemplo, la que defiendo en un artículo de mi autoría (cf. Guirado).

5. Conclusiones Vimos en este trabajo que las objeciones antinominalistas de Psillos son irrelevantes, porque, o bien no van dirigidas al NM (sino, en el mejor de los casos, al nominalismo de Field), o bien se basan en alguna confusión filosófica de fondo. Concretamente, Psillos comete tres errores sustantivos: (a) inferir del rechazo moderado de las entidades abstractas un cuestionamiento de su relevancia explicativa; (b) juzgar que la negación o la reformulación errónea de una teoría matemática conservativa es ella misma conservativa; (c) confundir una lectura o interpretación de los enunciados mixtos de la ciencia con cierta concepción de la aplicabilidad del sublenguaje matemático; (d) confundir el aporte de un estado físico para la determinación de las condiciones veritativas de un enunciado mixto con el de sus respectivos realizadores. Estos errores no son circunstanciales ni esporádicos: son los pilares en los que se asientan los argumentos de Psillos. El análisis de estos argumentos ha sido ocasión para vislumbrar que el NM es una buena alternativa al realismo científico tradicional y, por añadidura, reconocer los factores a los que responde su factibilidad metacientífica. En primer lugar, vimos que, si PAC –es decir, el principio de aislamiento causal del reino platónico– es verdadero, entonces es razonable conjugar tres

78

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 47-81


Realismo científico y nominalismo

decisiones que aparentan ser incompatibles: (i) dar una explicación realista del éxito de la ciencia, (ii) restringir la creencia a sus contenidos puramente nominalistas y (iii) reconocer la contribución explicativa de la matemática aplicada. En segundo lugar, vimos que el postular que las teorías científicas tienen contenidos (puramente) nominalistas y que estos contenidos reflejan hechos metafísicamente básicos es un prerrequisito para fijar las condiciones veritativas de los respectivos enunciados mixtos. Esta doble postulación fortalece considerablemente la presunción de que los contenidos (puramente) nominalistas de la ciencia conforman un sustrato independiente para la creencia racional. En tercer lugar, vimos que el concepto de adecuación nominalista o n-adecuación es un buen sucedáneo del concepto realista ingenuo de verdad (o aproximación a la verdad). Sea para explicar el éxito de la ciencia o caracterizar su objetivo epistemológico, la idea de que nuestras mejores teorías capturan con (tolerable) precisión ciertos aspectos inobservables del mundo espaciotemporal es suficiente al respecto. Evidencia de esto es que resulta altamente implausible y contraintuitivo pretender que la creencia en entidades existentes fuera del espaciotiempo es una condición para dar cuenta de la adecuación de teorías formuladas para describir el comportamiento de entidades existentes en el espaciotiempo. Las consecuencias de adoptar el realismo científico y el alcance de sus compromisos ontológicos son asuntos que no han llamado toda la atención que merecen entre los especialistas. Quizá el mayor aporte del artículo de Psillos reside en haber puesto estos asuntos sobre la mesa, aunque más no sea para discutir las ramificaciones del argumento Quine-Putnam. Si bien este argumento tiene su raíz en el debate platonismo vs. antiplatonismo matemático, es claro que sus consecuencias se hacen sentir en el terreno más amplio de la ontología de la ciencia. Pues, al discutir la extensión y el papel de los compromisos platónicos de las teorías científicas, nos vemos llevados a repensar cuáles son los contenidos aptos para la creencia racional, qué contribución epistémica conlleva la referencia a entidades abstractas, qué relación guarda con el aporte epistémico de las hipótesis teóricas de la ciencia y cuáles son las conclusiones metafísicas que cabe extraer a partir del análisis de esa contribución. Aquí he aprovechado los desaciertos de Psillos para esbozar una respuesta a cada una de estas cuestiones. Pues creo haber mostrado que: (i) si bien es cierto que la ciencia tiene compromisos insoslayables con entidades platónicas, también es cierto que el platonismo es incapaz de explicar el factum de la indispensabilidad y, así, sacar provecho del él; (ii) la adecuación de los contenidos puramente nominalistas de nuestras mejores teorías brinda una explicación suficiente de todas sus virtudes epistémicas; (iii) esa explicación no

79


Guirado, Matías Alejandro

puede ser mejorada asumiendo el platonismo, dado que –presumiblemente– PAC es verdadero. Mostrar adicionalmente que las tesis (i)-(iii) pueden ser establecidas en el marco de un realismo nominalista a mitad de camino entre el NM y el NR es un asunto pendiente para un trabajo futuro.

Trabajos citados Armstrong, David Malet. A Theory of Universals. Cambridge: Cambridge University Press, 1978. Baker, Alan & Colyvan, Mark. “Indexing and Mathematical Explanation”. Philosophia Mathematica 3.19 (2011): 323–334. Balaguer, Mark. Platonism and Anti-Platonism in Mathematics. New York: Oxford University Press, 1998. Benacerraf, Paul. “Mathematical Truth”. The Journal of Philosophy 70.19 (1973): 661–679. Colyvan, Mark. The Indispensability of Mathematics. New York: Oxford University Press, 2001. _____.“There is No Easy Road to Nominalism”. Mind 119.474 (2010): 285–306. Field, Hartry. Science without Numbers. Princeton: Princeton University Press, 1980. Guirado, Matías.“Una defensa del realismo científico nominalista. Respuesta a Joseph Melia”. Revista Colombiana de Filosofía de la Ciencia 15.31 (2015): 31–54. Ketland, Jeffrey. “Nominalistic Adequacy”. Proceedings of the Aristotelian Society 111.2 (2011): 201–217. Leng, Mary. “Platonism and Anti-Platonism: Why Worry?”. International Studies in the Philosophy of Science 19.1 (2005): 65–84. Pincock, Christopher. “A role for mathematics in the physical sciences”. Nous 41.2 (2007): 253–275. Psillos, Stathis. Scientific Realism. How Science Tracks Truth. London: Routledge, 1999. _____.“Scientific Realism: Between Platonism and Nominalism”. Philosophy of Science 77.5 (2010): 947–958.

80

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 47-81


Realismo científico y nominalismo

_____.“Living with the abstract: realism and models”. Synthese 180.1 (2011): 3–17. _____.“Anti-Nominalistic Scientific Realism: A Defense”. Properties, Powers and Structures: Issues in the Metaphysics of Realism. Ed. A. Bird, B. Ellis & H. Sankey. London: Routledge, 2012. 53–69. Putnam, Hilary. Mathematics, Matter and Method. Cambridge: Cambridge University Press, 1975. Quine, Willard. From a Logical Point of View. Cambridge: Harvard University Press, 1980. Smart, John. Philosophy and Scientific Realism. London: Routledge and Kegan Paul, 1963. Van Fraassen, Bas. Scientific Representation: Paradoxes of Perspective. New York: Oxford University Press, 2008. Vineberg, Susan. “Confirmation and the Indispensability of Mathematics to Science”. Philosophy of Science 63.3 (1996): 256–263.

81



K itcher y la organización de la investigación científica: un análisis de la ciencia desde los modelos ideales de la economía 1,2

K itcher and organization of scientific research: an analysis of science from ideals of the economy models

Álvaro Gallardo3,4

R esumen Este documento muestra el trabajo de Kitcher en relación a la organización de la investigación en las ciencias. Se argumentará que el propósito del autor es valorable porque pretende mostrar desde un argumento nacido de la economía, que los científicos al buscar sus propios intereses (no necesariamente epistémicos) pueden lograr la verdad científica. El hecho de integrar elementos sociales e individuales en el desarrollo de la ciencia y con ello lograr conocimiento es una avance con relación a la epistemología tradicional y las epistemologías relativistas; sin embargo este desarrollo de la epistemología social tiene una limitación en términos de su perspectiva ontológica individualista la cual no permite sino ver al científico, como un agente que elige estratégicamente la teoría donde quiere inscribirse. La pintura de la ciencia así lograda se limita a ilustrar el trabajo de científicos de juguetes ofreciendo una postura limitada del trabajo científico. Se sugieren rutas de análisis que den mejor cuenta del trabajo científico al complementar los desarrollos de epistemología social con una ontología social más adecuada al propósito de la organización del trabajo científico. Palabras Clave: Filosofía de la ciencia, Análisis económico de la ciencia, epistemología social, modelación científica, ontología social.

1 Recibido: 8 de junio de 2015. Aceptado: 14 de septiembre de 2015. 2 Este artículo se debe citar así: Gallardo, Álvaro. “Kitcher y la organización de la investigación científica: un análisis de la ciencia desde los modelos ideales de la economía”. Rev. Colomb. Filos. Cienc. 16.33 (2016): 83-112. 3 Economista de la Universidad Nacional de Colombia. Magister en Filosofía de la Pontificia Universidad Javeriana. Estudiante del Doctorado en Filosofía en la Pontificia Universidad Javeriana. Afiliado a la Universidad Distrital Francisco José de Caldas. Correo electrónico: lagallardoe@udistrital.edu.co 4 Bogotá (Colombia)


Gallardo, Álvaro

A bstract This paper shows Kitcher´s work of Science Research Organization. We argue that copyright purpose is valuable. Scientists to pursue their own interests (not necessarily epistemic) can achieve scientific truth (argument born of the economy). The fact of integrating social and individual development of science elements and to achieve knowledge is an advance on traditional epistemology and relativistic epistemology; however this social epistemology development has a limitation in terms of its individualist ontological perspective. This development aproachs allows only see the scientist as an agent theory strategically choose where you want to enroll. The painting of science thus achieved simply illustrates the work of scientists of toys offering a limited position of scientific work. We suggest new analyzes routes in order to approach scientific work as a complement of a social epistemology development with more appropriate social ontology to the purpose of the organization. Keywords: Philosophy of Science, Economic analysis of science, social epistemology, scientific modeling, social ontology.

1. Introducción La ciencia, en la tradición anglosajona, se ha pensado desde dos grandes rutas: la analítica, encargada de ofrecer criterios de justificación científica; y la histórico—naturalista, que le ha dado importancia a los elementos contextuales en el proceso científico. Ambas perspectivas han conducido a dos imágenes exageradas de la actividad científica. Una de ellas resalta los elementos racionales y, otra, los elementos sociales (por ejemplo, el prestigio o el poder). En esta encrucijada, y desde raíces naturalistas, ha emergido una rama de la filosofía de la ciencia conocida como epistemología social, que trata de unir los componentes sociales y racionales en una sola perspectiva. Philip Kitcher es autor de esta apuesta filosófica. Sus trabajos buscan combinar elementos sociales y racionales en el marco de una estructura ética que permita generar criterios normativos de análisis científico. El propósito del autor amplía las versiones analíticas de la epistemología social que, desde un horizonte individualista, incluyen lo social en una estructura racional previa que nunca está sujeta a discusión (Goldman 1999), (Kitcher 2001b)5,

5 A decir verdad, el trabajo de Kitcher tiene dos momentos: el primero, relacionado con la versión convencional de tradición analítica de la epistemología social; en este momento es de resaltar su trabajo de 1993 (versión en español 2001b). El segundo, que es la versión reformada que aquí se estudia en profundidad con sus trabajos de 2001a y 2011.

84

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 83-112


Kitcher y la organización de la investigación científica

las corrientes sociológicas de la epistemología social que eliminan los criterios racionales de validación de la ciencia, sustituyéndolas por criterios basados en la acción comunicativa (Longino 2002) o en la discusión política en un horizonte republicano (Fuller 1988). Kitcher, en sus recientes desarrollos (desde el Kitcher 2001a al Kitcher 2011), logra separarse de ambas posturas, desde su teoría del realismo mínimo plantea que a pesar de que las teorías son racionales, todo el proceso de investigación está sujeto a los contextos sociales por lo que las verdades que se buscan son siempre significativas para alguien; en otras palabras se descubren verdades en un contexto dependiente de los intereses de la comunidad académica y de los ciudadanos en general. Como se puede apreciar, esta perspectiva logra un avance de las perspectivas extremas de los clúster racionales o sociológicos, y las mezclas de la epistemología social que siguen privilegiando ya sea el mundo racional o el mundo social. El problema central de la postura de Kitcher es su enfoque reduccionista que se limita a pensar la sociedad desde el individuo y sus comportamientos. En otras palabras, es una epistemología sin una ontología que relacione la agencia y la estructura que da cabida a estas relaciones. Este problema se ve reflejado en su elección metodológica que, sin interrogarse sobre cómo es el mundo social, se elige simplemente por los resultados obtenidos en las ciencias sociales, principalmente en la economía. En este trabajo, se mostrará que los resultados obtenidos son sólo aparentes y que esta elección mina las posibilidades de entendimiento de las comunidades académicas y su organización del trabajo cognitivo. La propuesta del autor se fortalecería si se incluye una ontología de lo social. Este tema queda abierto para próximos desarrollos, aunque en este documento a partir de un ejemplo de teoría de redes se analiza otra manera de pensar los problemas que no se reduce al individuo y sus motivaciones. Con esta propuesta, se dan pasos para consolidar una epistemología social no ideal y que tiene en cuenta a los científicos en sus múltiples dimensiones, no reduciéndolos al comportamiento estratégico propio de los científicos de juguete modelados por Kitcher. Para desarrollar estas ideas este documento se divide en 3 partes: en la primera se desarrollan los argumentos de Kitcher en relación a la división del trabajo cognitivo; en una segunda se muestran las limitaciones del análisis con un análisis alternativo, y finalmente se desarrollan unas conclusiones centradas en la importancia del matrimonio epistemología-ontología social para la filosofía del conocimiento específicamente para el tema de las prácticas científicas.

85


Gallardo, Álvaro

2. División del trabajo cognitivo y diversidad científica Kitcher, en su libro de 2001b, planteó el propósito central de la epistemología social en los siguientes términos: [E]l problema de la epistemología social, tal como la concibo, es identificar las propiedades de los sistemas sociales epistémicamente bien diseñados, es decir, especificar las condiciones en las cuales un grupo de individuos, que actúa de acuerdo con varias reglas para modificar sus prácticas individuales, logra generar, mediante sus interacciones, una secuencia progresiva de prácticas de consenso. …las estructuras sociales se consideran como relaciones entre individuos: por tanto, mi alejamiento de la tradición de la teorización epistemológica continúa siendo relativamente conservador (Kitcher 2001b 415).

La epistemología social se centra en encontrar los mecanismos para incluir lo social en lo cognitivo, haciendo compatible el argumento de las verdades significativas en un escenario de progreso y de cambio científico, con los intereses de los miembros de las comunidades científicas. Las visiones convencionales de la ciencia (la leyenda) se han preguntado por ¿cuál es el método adecuado de descubrimiento? Y por ¿cuál es la lógica de la justificación? Es bien sabido que con los trabajos de los positivistas lógicos y del empirismo lógico, el primer problema fue dejado de lado para luego ser posteriormente rescatado en el giro historicista. Gracias a este giro y al posterior giro naturalista, la separación entre los criterios de descubrimiento y de justificación se han empezado a desdibujar, Kitcher es continuador de esta perspectiva porque, las verdades significativas son contexto−dependientes y, eso niega una lógica de la justificación que es independiente del contexto. Con esto en mente, la idea de una investigación bien organizada pasa por entender los mecanismos para el “logro de verdades significativas reconociendo explícitamente la variabilidad de los estándares de significancia” (Kitcher 2001a 110). En este escenario, también queda en entredicho la perspectiva convencional que plantea una epistemología individualista. Los procesos de investigación son una actividad colectiva y, en este sentido, “la comunidad de investigadores no puede simplemente ser vista como una magnificada versión del individuo” (Kitcher 2001a 110). Esta perspectiva no necesariamente niega la metodología individualista a la hora de analizar los procesos sociales porque si bien lo social y lo colectivo existen, la situación sólo es entendible teniendo como punto de partida y como eje de intencionalidad al individuo; es éste quien a través de lógicas racionales e interactuando con los individuos define la organización

86

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 83-112


Kitcher y la organización de la investigación científica

social y las instituciones necesarias para llevar a cabo sus objetivos. No hay así una estructura social previa a los individuos en el análisis de Kitcher. Con estos elementos en mente, el lugar donde se puede analizar la actividad científica es el de las comunidades científicas. Ahora bien, estas comunidades tienen las siguientes características: 1. Las comunidades se forman dadas las limitaciones cognitivas que tiene los seres humanos; esto quiere decir que la conformación de la comunidad académica es un asunto de las preferencias de los científicos, de ahí la lógica individualista del autor para entender el escenario social de la ciencia; son los científicos los que racionalmente, eligen unirse o asociarse porque esto les permite maximizar sus avances en el conocimiento. 2. Los miembros de la comunidad científica tienen reglas de funcionamiento (creencias básicas y estándares) que pueden ser diversos; sin embargo, un elemento central de supervivencia y desarrollo de las mismas es la siguiente creencia: los miembros de una comunidad deben confiar en la autoridad de algunos miembros del pasado y autores reconocidos en el campo o en campos cercanos a su investigación, esto último porque siempre se debe confiar en el trabajo de otros científicos que apoyan y fortalecen la investigación propia. En términos generales, la ciencia evoluciona por la interacción de los científicos y por la interacción de ellos con la naturaleza desarrollando así prácticas de consenso (ver Kitcher 2001b 87-130). En este escenario de interrelación, base de la división del trabajo cognitivo, se pone bajo discusión: cuándo dar autoridad a las posiciones de los diferentes científicos, cuándo respetar o no la autoridad, o por el contrario, cuándo cambiar de perspectiva científica y no seguir a la autoridad. En estos casos, será el comportamiento estratégico de los científicos lo que definirá su posición dentro o fuera de la comunidad en un determinado escenario institucional. Estos comportamientos estratégicos son propios del enfoque económico neoclásico dominante en la economía del conocimiento científico. La pregunta central a la hora de plantear los mecanismos sociales en el interior de las comunidades académicas es sobre la división del trabajo que sea más adecuada para el logro de avances cognitivos. Cuando se tienen en cuenta los miembros de las comunidades científicas se debe reconocer que ellos no son seres especiales que desde la panacea de sus conocimientos buscan mejorar el bienestar de los demás mortales o que buscan la verdad a toda costa, son seres que funcionan por incentivos guiados por sus propios intereses. Algunos de ellos tienen como fuerza motivadora la

87


Gallardo, Álvaro

fama y el reconocimiento académico, otros, las rentabilidades económicas, algunos la verdad y otros (quizá la mayoría) una mezcla de estos intereses. A primera vista, parece que una adecuada organización del trabajo cognitivo debe desincentivar los valores no epistémicos de los miembros de la comunidad académica y propugnar por los epistémicos para los avances cognitivos, maximizando de esta manera los esfuerzos para el logro de las verdades significativas. Sin embargo, en este ámbito como en otros de investigación de los fenómenos sociales, el sentido común no parece ser la respuesta más adecuada. Desde el análisis económico neoclásico, Kitcher argumenta que los procesos sociales se definen por la interrelación de los miembros de la sociedad y que éstos, llevados por sus propios intereses, logran resultados sociales que, si bien no eran buscados, son los que surgen de la interrelación. Los incentivos individuales, cualquiera que ellos sean, producen resultados sociales benéficos, si los mecanismos institucionales de interacción y organización del trabajo son adecuados para el todo social y, por ende, la mejor manera de maximizar los resultados sociales es incentivando los logros individuales; no prohibiéndolos. Kitcher propone así una organización científica basada en los incentivos individuales, porque al hacerlo se lograrán los objetivos sociales de la ciencia, los cuales son las verdades significativas6. Este enfoque plantea que el avance de la ciencia se hace a través de la búsqueda de los intereses personales y no necesariamente de los epistémicos. La metáfora de la mano invisible7 resuena en este tipo de argumentos: los agentes buscando su propio interés (en este caso fama, reconocimiento o fortuna) logran a través del proceso de mercado (mercado de ideas)8 armonía y coordinación de las relaciones sociales entre científicos, logrando verdades significativas. La búsqueda individual alcanza un resultado social nunca buscado por los individuos, pero que emerge de las relaciones entre los individuos. Es un enfoque plenamente ortodoxo en economía dado que no tiene en cuenta los determinantes estructurales que 6 Kitcher ha sido el iniciador, junto con otros filósofos y economistas, de la llamada economía del conocimiento científico, que utiliza herramientas de la economía para analizar la ciencia; sobre todo, se plantean procesos contractuales de mercado donde se busca aprovechar las intenciones de los agentes para, de esta forma, desarrollar la ciencia (Zamora Bonilla 2012). Como dice Hands: “su trabajo (Philip Kitcher) representa la más influyente y consciente búsqueda por una filosofía de la ciencia que incluye la economía en un esfuerzo por salvar la racionalidad científica y la epistemología normativa de los ataques del relativismo y del construccionismo social” (Hands 2001 367). 7 El libro de Hull (1988) inauguró en la filosofía analítica este tipo de posiciones. En la literatura marxista. el trabajo de Latour y Woolgar (1995) hace una similar perspectiva que después fue retomada por Bourdieu (1999). 8 En el tema del mercado de ideas ver Zamora 2008.

88

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 83-112


Kitcher y la organización de la investigación científica

afectarían las conductas individuales como lo hacen los enfoques clásicos e institucionalistas. En el primer caso los individuos son atomizados o estratégicos y en las heterodoxias los individuos son incorporados en un ambiente social (Davis 2010). En el enfoque ortodoxo propio de Kitcher, la fuerza que lleva a las verdades significativas es la competencia entre científicos y sus escuelas que, al esforzarse por alcanzar fama y reputación, generan un sistema científico en el que se aceptan los trabajos que hayan pasado ciertos criterios de calidad, definidos por las normas de la comunidad científica, a través de un hipotético sistema rawlsiano de velo de ignorancia (Zamora 2005), o de prácticas de consenso Kitcher (2001b y 2011). Estos criterios de calidad definen los elementos básicos de la comunidad científica y son, por decirlo de otra manera, sus reglas de juego. Una vez entendido el punto de partida, los científicos que buscan sus propios objetivos, siendo miembros o disidentes de una comunidad científica. De lo anterior nace la pregunta de si la competencia debe llevar a una mirada homogénea o si el mercado de ideas debe basarse en una estructura de libre competencia donde nuevas ideas con estructuras teóricas diferentes incentivan la mayor competencia para el desarrollo constante de ideas. Kitcher planteará que la homogeneidad en el conocimiento no es lo adecuado; “debe dudarse de si la homogeneidad es la mejor política epistémica. Posiblemente, el logro colectivo de la verdad (o verdades significativas) podría ser avanzado si algunos miembros de la comunidad estuvieran en desacuerdo” (Kitcher 2001b 111). El autor propone la división del trabajo cognitivo: “la división del trabajo cognitivo se da cuando un grupo de investigadores, direccionados por un problema común, persiguen diferentes aproximaciones para su resolución” (Kitcher 2011 193). En este sentido, son los incentivos individuales en un escenario de competencia de ideas, donde es posible entender porque los investigadores se dedican a actividades que, en principio, son poco promisorias. Supongamos a algún científico que cree que hay mucha competencia entre los seguidores de un método (o paradigma, teoría), científico avalado por la comunidad académica, su opción es seguir trabajando en esta postura o buscar otra opción metodológica (cambio de paradigma o alternativa teórica) sabiendo que tomar esta decisión es riesgosa en el sentido de ser alejado de la comunidad académica de influencia, es decir, de las posibilidades de prestigio y fama. El científico puede tomar esta decisión porque debido a la baja competencia en esta alternativa, el chance de los científicos por lograr solucionar un enigma científico crece. En esta apuesta riesgosa si logra tener éxito, recu-

89


Gallardo, Álvaro

perará y acrecentará su prestigio en el interior de la comunidad; si fracasa, quedará marginado totalmente de la comunidad académica debido al cambio de opción metodológica, teórica o paradigmática. En este sentido, “la comunidad puede evitar el desastroso estado de homogeneidad y estar cercano al nivel óptimo” (Kitcher 2001 113) de avance en el conocimiento. Kitcher describe al científico como un ser que se comporta estratégicamente. Hace una valoración de las opciones y decide según la situación, pertenecer a una línea u otra de la investigación; en este sentido, “si la comunidad contiene suficientes miembros, entonces (…) la mejor estrategia es dividir el trabajo” (Kitcher 2001 112). Se asume una estructura de comunidad científica con agentes estratégicos (agentes imperfectos) que buscan maximizar su función objetivo (fama, fortuna o la verdad) y, para ello, toman decisiones de seguir dentro del programa de investigación donde está la mayoría y en el cual hay poca probabilidad de lograr maximizar su función objetivo o buscar una línea menos competitiva donde sus ideas fructifiquen y logren maximizar su función y, al hacerlo, mejorar y apalancar esta línea de investigación marginal. Kitcher construye modelos9 útiles para “trazar el mapa de un espacio en el que se pueden identificar las características epistemológicamente importantes de las comunidades científicas” (Kitcher 1993 419). El propósito central de estos modelos es el de mostrar que los valores de la ciencia no epistémicos como la confianza, la autoridad, la competencia, el deseo de crédito y reconocimiento serán positiva o negativamente canalizados dependiendo del ordenamiento social, el cual puede hacer o no “un buen uso epistémico de las motivaciones más dudosas” (Kitcher 1993 418). Los modelos de Kitcher, en general, demuestran que si se incentivan los intereses individuales, la organización institucional privilegiará la diversidad cognitiva hasta que racionalmente se llegue a un consenso objetivo sobre la mejor teoría. Lo que no niega un espacio para los disidentes siempre necesarios a la hora de interrogar por el saber establecido. Para demostrar lo anterior, lo primero que se debe definir son las diferentes clases de diversidad cognitiva para luego indagar por la manera más adecuada de organizar el trabajo cognitivo. Kitcher (2011) es explícito en las diversas fuentes de diversidad: 9 Los modelos tienen la característica de ser ideales, la justificación de este proceso es que permite “formular dichos problemas con cierta precisión, y tal precisión es importante tanto para identificar consecuencias como para revelar supuestos previamente ocultos. La precisión se obtiene a costa del realismo. Mis científicos de juguete no se comportan como científicos reales, ni mis comunidades de juguete son comunidades reales” (Kitcher 2001b 418).

90

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 83-112


Kitcher y la organización de la investigación científica

1. Cuando existen diversas estrategias para encontrar una solución a un problema común en el interior de una comunidad científica, en este caso el desacuerdo y, por ende, la fuente de diversidad se limita a las estrategias para solucionar un problema. 2. El caso en que existe un marcado desacuerdo teórico donde puede que el desacuerdo se dé en varios escenarios, más exactamente: [L]os investigadores dentro del mismo campo pueden estar en desacuerdo con respecto a los problemas a estudiar, sobre los estándares adecuados de certificación, acerca de las creencias y en qué personas (instrumentos o técnicas) confiar (Kitcher 2011 199).

En este caso, se puede presentar una diversidad radical que implicaría la imposibilidad de la comunicación entre las diferentes partes del debate. 3. En el caso que existe diversidad entre las personas que hacen parte de un área de investigación (ver Kitcher 2011 198-208). En cada una de estos elementos, es importante saber cuál diversidad es valorable y cuál debe ser evitada.

2.1. Diversidad 1: una subcomunidad de investigadores para resolver un problema con diferentes estrategias Este tipo de diversidad es la más común en el interior de una comunidad científica consolidada, los debates y las nuevas aperturas de análisis (teóricas y metodológicas) son comunes al interior de una comunidad de investigadores. Kitcher plantea que la mejor estrategia de investigación es aquella donde coexisten diferentes estrategias para lograr el objetivo de encontrar la solución de un problema o enigma científico. Resumamos su posición de la siguiente manera: si tenemos en total N investigadores dentro de una subcomunidad que buscan resolver un problema determinado, el chance de éxito mejora si el conjunto se subdivide en diferentes estrategias (S) buscando la mayor probabilidad esperada de éxito. Esta división del trabajo cognitivo se da incluso cuando una de las estrategias tiene un chance mayor (un P mayor) de éxito. El sentido común nos diría que “es mejor poner todos los huevos en la misma canasta, en la búsqueda de la estrategia más promisoria” (Kitcher 2011 194). Sin embargo, un hecho relevante de la actividad científica es que toda ella tiene rendimientos decrecientes, lo que quiere decir que la inversión adicional en una estrategia particular agrega muy poco al éxito en ese campo particular si ya se ha consolidado un grupo

91


Gallardo, Álvaro

amplio de investigadores. En cambio, si trabaja en una estrategia donde hay pocos científicos, la probabilidad marginal de este investigador puede exceder levemente la probabilidad marginal de trabajar en la estrategia dominante, entonces la solución óptima es dividir el trabajo en diferentes estrategias. Si bien, no se hacen explícitos, los supuestos generales de este modelo, es fácil descubrir que la solidez de las conclusiones descansa principalmente, en dos: los rendimientos decrecientes y la existencia de un grupo grande de investigadores, dos supuestos centrales de un modelo de competencia del mercado de ideas científicas. Si estos supuestos no se cumplen, las conclusiones no serían las planteadas en favor de la división del trabajo cognitivo. Es intuitivo que si los investigadores son pocos, la estrategia de división del trabajo cognitivo no sería la mejor, adicionalmente, si los rendimientos fueran crecientes podría ser eficiente que los investigadores trabajen libremente en la misma estrategia. La concepción de Kitcher está sujeta a una objeción importante en el uso de las probabilidades, dado que se reconoce que la asignación de probabilidades es “sospechosa” porque no hay manera alguna de determinarlas; sin embargo, lo anterior no mina la importancia de los argumentos definidos en el modelo que son válidos desde la lógica de la ciencia. Más exactamente: Ningún científico, sociólogo, economista o filósofo puede especificar las funciones que producen las probabilidades de éxito dada la asignación de x investigadores – pero los científicos pueden y hacen juicios mucho más duros. Ellos reconocen algunas veces que tener un individuo extra o un equipo adicional, trabajando en una aproximación particular probablemente no generará nada nuevo, el problema probablemente será resuelto si este individuo (o este equipo) hace algo diferente. Sin suponer que ellos puedan llegar a la división óptima de trabajo cognitivo, ellos plantean que una distribución heterogénea, puede ser superior a la completa uniformidad (Kitcher 2011 195).

Ahora bien, si la división es una estrategia más adecuada que la uniformidad, la pregunta es cómo lograr esta situación en una sub—comunidad. Al parecer hay muchas posibilidades: la planificación deliberada, la apreciación individual que se resume en lo que es mejor para la comunidad (cierto altruismo) o las apelaciones extracientíficas (afiliación o el deseo de fama). Kitcher escoge la segunda opción mostrando su inclinación a pensar que las personas se mueven por incentivos más que por criterios de coordinación o de altruismo en las relaciones sociales. El ejemplo de la estructura del ADN es esclarecedor: Watson no buscó resolver el problema al interior de la sub—comunidad dominante, como su objetivo era establecerse como un científico importante y estratégicamente escogió una ruta heterodoxa. Si hubiera seguido la estrategia

92

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 83-112


Kitcher y la organización de la investigación científica

dominante como fue el caso de Rosalind Franklin, la probabilidad de anunciar “la estructura del ADN hubiera sido infinitesimal” (Kitcher 2011 196). En resumen si existen dos métodos para un problema S y S*, y S es una mejor opción que S*, la probabilidad si n investigadores buscan S es mayor que si buscaran S*. Si asumimos rendimientos decrecientes, entonces incluir un científico adicional a S no es una buena alternativa para la solución del problema, la posibilidad de éxito es mayor si este investigador trabaja en S*. En otras palabras, es mejor que exista un camino nuevo a que todos se guíen por la misma estrategia. Este fue el caso que, según Kitcher, guio a Watson y Crick a buscar rutas diferentes: “el deseo por reconocimiento” los guio hacia la estrategia menos fiable produciendo una “bienvenida heterogeneidad”.

2.2. Diversidad 2: una comunidad de investigadores con desacuerdos intracampo de investigación. En este caso, los desacuerdos son más profundos que en la primera diversidad analizada. Se ubican tanto en los juicios de lo que es o no significativo, como en las creencias y en los estándares de certificación. El problema no es sólo de las estrategias, es de orden teórico al interior de la comunidad académica. En este caso, Kitcher remite a dos figuras emblemáticas dentro de la filosofía de la ciencia: Kuhn y Feyerabend; dos grandes autores que se ubican en dos lados opuestos con respecto a la adecuada diversidad teórica. La interpretación de Kitcher muestra a Feyerabend como el representante emblemático de la defensa a toda consta de la diversidad. La diversidad se erige como el motor de cambio y es deseable por ella misma. A diferencia de esta perspectiva: Por el otro lado, Kuhn representaría una versión moderada de la diversidad, para este autor, la diversidad es síntoma de etapas primitivas de la investigación científica y también es una característica en momentos cuando “el consenso se ha roto y un campo de investigación está en crisis” (Kitcher 2011 201).

Kitcher plantea que “ninguna de las posiciones sugeridas es la adecuada”. Él propone el modelo de fusión de la investigación que se resume en los siguientes términos: “puede ser bueno tener una distribución de los investigadores disponibles entre estrategias rivales que eviten los retornos decrecientes derivados de la duplicación de esfuerzos”; sin embargo, es consciente de que es un error caer en la trampa de la fragmentación del conocimiento (ver Knudseen 2002). Se reconoce que “una completa heterogeneidad debe ser desastrosa” dado que los “métodos promisorios requieren una masa crítica de investigadores para tener oportunidad de éxito”.

93


Gallardo, Álvaro

Si la fragmentación elimina la capacidad de avance por la pérdida de masa crítica, la unificación también es problemática, dado que “[L]a completa homogeneidad es típicamente mala a menos que el campo de investigación sea muy pequeño, de lo contrario, suficientes personas buscaran más que una aproximación potencial” (Kitcher 2011 202). La propuesta del modelo de fusión incluye los argumentos de Kuhn y Feyerabend sin verlos contradictorios porque se les asigna influencia a diferentes fases de la investigación. La diversidad es bienvenida cuando el problema no es resuelto (incluyendo la diversidad teórica, es decir, de creencias, opiniones, de juicios de significancia y diversidad en estándares de certificación); pero, cuando el problema se resuelve, la comunidad debería, en gran proporción, unirse: “mayor diversidad sobre el problema parece ahora una pérdida de tiempo”; no niega lo anterior, la existencia de los disidentes, el problema es ¿qué nivel de disidencia debe ser tolerado? Cuando el problema es resuelto y se asume un consenso dentro de la comunidad académica. Kitcher divide en dos grupos a los científicos, división que es afín al planteamiento de Kuhn y Feyerabend, los científicos conservadores y los anarquistas. Los científicos conservadores creen en la certificación de los procedimientos para acceder al conocimiento, mientras que los anarquistas creen en el total desacuerdo y asumen que “el choque de ideas produce un rico stock desde el cual seleccionar ideas” (Kitcher 2011 204). El argumento conservador es importante porque el consenso racional permite que no se pierda tiempo y esfuerzo analizando perspectivas olvidadas o marginales dentro de la comunidad científica. Sin embargo, Kitcher reconoce, que hay algo positivo en el argumento anarquista que rompe con el pensamiento dogmático y contribuye al refinamiento de los argumentos. Los desafiadores son personas que “reabren disputas que todos los demás piensan que han sido completamente liquidadas”. En la mayoría de los casos, ellos son completamente ignorados pero, en otros, “exponen y demuestran cómo planteamientos profundos y arraigados en la profesión pueden modificarse para abrir la vía a la solución del problema que se ve como significativa y difícil de resolver” (Kitcher 2001 205). En este sentido, y “bajo algunas circunstancias”, es mejor cierta diversidad en ciencia normal cuando el consenso es completo. Ahora bien, para que el sistema funcione hay que suponer ciertos elementos que Kitcher resume a continuación: Si la comunidad es relativamente grande, la diferencia en el éxito de resolver problemas, resultante del desvío de n investigadores a un tipo de investigación

94

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 83-112


Kitcher y la organización de la investigación científica

diferente, debe ser bastante pequeño (retornos decrecientes otra vez); mientras que la probabilidad de revisión significativa debe ser muy baja (los desafíos a la ortodoxia son usualmente defectuosos), por lo que el valor de hacer tal revisión puede ser lo suficientemente grande para hacer…que la estrategia de los desafiadores sea mayor que la pérdida en la solución de los problemas (Kitcher 2011 206).

Estos supuestos no son nada irreales y tienen que ver con el hacer práctico de las comunidades académicas bien consolidadas, los disidentes son considerados poco rigurosos y poco tenidos en cuenta. La característica es que en algunos momentos algunas de sus revisiones generarán utilidad en el interior de la comunidad científica; es así una salida al consenso total, pero de manera moderada, dado que la función de los disidentes es marginal en el proceso. En esta situación, Kitcher supone dos tipos de comportamientos: la de los conformistas y la de los aventureros. En palabras del autor, “si juegas como conformista, aprendes y adoptas el consenso dentro de tu campo, y buscas construir sobre las ideas recibidas para resolver problemas sobresalientes. Si juegas como aventurero, buscas alguna posible incompatibilidad con la ortodoxia en el campo” (Kitcher 2011 206). Con esta actitud, la apuesta sigue dependiendo de los incentivos en la comunidad; esto quiere decir que liquidar un problema o conjunto de problemas admite los disidentes, si hay suficientes aventureros capaces de buscar reconocimientos en el largo plazo, incluso cuando estén muertos. Los conformistas tendrán éxito en algunas soluciones de los problemas, adquiriendo más o menos reputación y honores de varias medidas, logrando así disfrutar del respeto de sus pares y contribuyendo a un valorable esfuerzo cooperativo. Los aventureros, por otro lado, deben vivir con la indiferencia y sus logros pueden ser ignorados por mucho tiempo; su riesgo es el olvido, pero su búsqueda refleja (…) la tenue posibilidad de que se va a articular algo novedoso, que será adoptado por la comunidad científica, y que pasarán a los libros de historia entre las grandes figuras en la historia de la investigación. Los aventureros juegan por apuestas de largo plazo con un débil chance de éxito (Kitcher 2011 207).

Como se ve, los incentivos son diferentes en estos dos grupos de seres humanos, unos buscan figurar con el mayor logro de un científico vivo, que es el premio Nobel, el cual es el mayor reconocimiento de una comunidad académica, mientras que el otro grupo busca pasar a la inmortalidad. La elección es un asunto de temperamento, con diferentes niveles de radicalidad.

95


Gallardo, Álvaro

2.3. Diversidad 3 diversidad social En este caso, las diferencias obedecen a códigos de valores que no dependen de la comunidad en sí misma, sino a factores culturales y sociales que afectan el desarrollo de la comunidad académica. En este sentido, se pueden clasificar dos tipos de divergencia: la primera tiene que ver con la negación a la entrada de visiones culturalmente alternativas a la manera “normal” de hacer ciencia, una manera que en muchos casos se identifica con la versión masculina y occidental de la ciencia. La segunda tiene que ver con el olvido de las opiniones de personas del mundo en desarrollo a la hora de decidir la agencia de investigación. Un ejemplo muy trabajado en múltiples documentos por Kitcher son las investigaciones biomédicas la cuales, al desconocer las necesidades de los más pobres quienes no pueden influir en las agendas motivadas por los intereses de los que pueden pagar, quedan marginadas de los avances de la investigación. En ambos casos, la diversidad se justifica porque “[L]o que varía son los juicios, decisiones y acciones que afectan el curso de la investigación…excluir personas que tienen un punto de vista diferente en una conversación ideal se ve como problemática” (Kitcher 2011 199). Lo importante es que la diversidad de opiniones puede hacer que problemas descuidados por asuntos de raza, género o desigualdad tengan importancia. El objetivo es expandir la diversidad lo mayor posible. En general, la optimización en el diseño institucional es problemática. La metáfora del mercado es limitada en este aspecto; no todos los incentivos individuales lograrán verdades significativas; por ejemplo, las comunidades pueden incentivar normas de publicación exigentes, las cuales hacen que los científicos tengan como objetivo publicar sólo por hacerlo, olvidando sus propios intereses académicos o incentivar desarrollos científicos que se apalanquen en asimetrías políticas (métodos y formas de razonar populares) o de gran acogida pública (como las basadas en prejuicios populares). En muchos de estos casos, los investigadores pierden el norte solamente para ganar prestigio. Se ve entonces que la metáfora del mercado debe ser canalizada por un marco institucional que, si bien, garantice la maximización de los valores individuales, no desfigure la verdad y de espacio a opiniones públicas de las poblaciones marginadas por el progreso económico. En términos generales, se busca entender a los científicos como guiados por diversos intereses. Esto es bueno para la ciencia, siempre y cuando los mecanismos institucionales permitan lograr una división del trabajo cognitiva adecuada para el avance de las verdades significativas, a través de los incentivos del mercado. El tema central es que las instituciones incentivan la lógica

96

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 83-112


Kitcher y la organización de la investigación científica

individual y su comportamiento estratégico, gracias a ello es posible encontrar verdades significativas que serán usadas en el marco socio—político de una ciencia bien ordenada. En palabras de Kitcher [T]ener una comunidad bien diseñada para el logro de objetivos epistémicos en los cuales las instituciones sociales que nosotros vemos como irrelevantes, aún contrarias, a estos objetivos (atribución de créditos, premios, fama) son a la medida de las motivaciones típicamente vistas como antiéticas a los objetivos (deseos por la gloria personal). Si nosotros podemos identificar un conjunto de predicamentos científicos, entonces nosotros debemos estar dispuestos a incorporar este tipo de análisis en un amplio estudio, uno que pueda mostrar los efectos de varios tipos de acuerdos sociales, dadas las motivaciones humanas existentes, escogiendo el paquete de acuerdos que podría promover mejor el logro cognitivo. (Kitcher 2001 113).

Hemos revisado la propuesta de división del trabajo cognitivo de Kitcher, la cual, a diferencia de otras vertientes analíticas, no se ocupa sólo de incluir elementos sociales sino que, se preocupa por la construcción de una organización de la actividad científica. Propone la idea de una ciencia bien ordenada que se preocupe tanto de la escasez de recursos como de las problemáticas morales a la hora de realizar los proyectos de investigación y la organización de la comunidad académica para logros cognitivos. La herencia analítica del autor se refleja en su nivel metodológico, ya que su punto de partida es que lo social se erige como producto estratégico de las decisiones individuales; de lo anterior se deduce una estructura de ciencia bien ordenada en la que las opiniones de los ciudadanos son guiadas por expertos para el logro de objetivos sociales; al mismo tiempo, se genera una estructura de la actividad científica basada en incentivos a los científicos que estratégicamente se dividen cognitivamente en una o varias comunidades científicas. La filosofía de la ciencia a la manera de Kitcher es, entonces naturalizada pero, altamente normativa, pues trata de definir cómo sería una ciencia bien ordenada y una organización de la actividad científica donde se puede dar la división del trabajo cognitivo y se respeten los incentivos individuales de los científicos, logrando así verdades significativas. Se puede concluir, entonces, que la propuesta del autor es un avance de las perspectivas tradicionales (sean relativistas o racionalistas) y de las perspectivas naturalizadas al incluir los elementos socio—políticos para el alcance de verdades significativas y al consolidar una propuesta naturalizada normativa. Veremos en el siguiente apartado que la postura del autor, si bien, es interesante y guía el entendimiento de problemas de la ciencia de una forma novedosa,

97


Gallardo, Álvaro

adolece de serias dificultades metodológicas y teóricas: se mostrará que en relación con la división del trabajo cognitivo existen problemas de falta de generalidad y de reduccionismo metodológico. Estas dificultades de la apuesta teórica de Kitcher ponen en duda la capacidad del desarrollo de la propuesta en un horizonte práctico. Este trabajo sugerirá que la raíz de los problemas encontrados es ontológica y que una redefinición de la misma haría posible y viable la apuesta teórica del autor.

3. Un camino para hacer viable lo pensable: un análisis desde la ontología de las prácticas científicas

Los argumentos de Kitcher que se han mostrado en este documento pueden resumirse, entonces, a través de dos prismas: el de las intenciones y el de los logros. Con respecto al primero, no se puede sino saludar las buenas intenciones de la propuesta al menos en tres sentidos: el primero, es el hecho de reconocer que la ciencia no se construye en un vacío sino que está regida por una estructura social que da nacimiento a las preguntas significativas; el segundo, es el reconocimiento que la actividad científica difícilmente es pura, que en la mayoría de los casos tiene implicaciones que deben ser evaluadas en todo el proceso de la actividad científica (desde la formulación del problema, la búsqueda de fondos, los resultados de la investigación y sus implicaciones futuras) y, finalmente, el reconocer que las actividades de los científicos no se hacen individualmente sino en comunidades científicas por seres humanos normales, es decir, que buscan objetivos no solo epistémicos sino individuales y sociales, obligando a una adecuada organización del trabajo cognitivo. Sin embargo, con respecto a los resultados, parecen existir dos grandes problemas: el primero tiene que ver con la fragilidad de las conclusiones a las que se llega con el modelo desarrollado, dado que, si cambian los supuestos centrales del modelo, las conclusiones a favor de la pluralidad científica se desvanecen y, el segundo, es que la metodología de Kitcher, al tener una ontología individualista, no logra comprender algunos problemas de la ciencia como la imposición de una teoría sobre otras aunque no se logre la objetividad, lo que daría cuenta, según Kitcher, de una irracionaldad de la ciencia pero que, desde nuestra perspectiva, puede ser el resultado de un sistema libre de actividad científica si se tienen en cuenta otros factores de la realidad social más allá de los individuos. Lo anterior no significaría el abandono de la propuesta de Kitcher, más bien, lo que se buscaría es darle sentido en una estructura conceptual que dé cuenta de la complejidad social de la empresa científica; si bien, no se avanzará de

98

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 83-112


Kitcher y la organización de la investigación científica

manera amplia en la propuesta, en esta sección mostraremos la riqueza que significaría para el autor, encuadrar sus ideas en una estructura más amplía: una ontología social, permitiendo entender la dinámica científica en sus múltiples dimensiones (epistémicas , psicológicas y sociológicas). Para mostrar lo anterior se analizan los problemas de la organización del trabajo cognitivo; se buscará entender, desde una ontología más amplia de lo social, los problemas de fragilidad del modelo de Kitcher y cómo pueden ser superados al analizar, de manera más compleja, las comunidades científicas enriqueciendo el análisis y llegando a conclusiones menos simplistas que, si bien, no son precisas (como la rigurosidad del método de modelación económica neoclásica de Kitcher), si sirven para explicar una mayor amplitud de conductas de los científicos en las comunidades académicas. Como se mostrará brevemente, si se tiene en cuenta una adecuada caracterización del todo social, es posible entender que los fenómenos sociales no tienen una sola lógica causal sino múltiples causalidades y dimensiones y, por ende, no sólo un resultado. Las perspectivas sobre ontología social han mostrado que la intencionalidad colectiva es un elemento importante de los procesos sociales; adicionalmente, los planteamientos de Tuomela (2007) Searle (2010) o List et al (2011) han mostrado que la intencionalidad colectiva no es solo estratégica como lo plantea Kitcher. Además de la intencionalidad colectiva modo individual, propio de los modelos estratégicos, desde la ontología social se abren otras posibilidades de comportamiento que incluyen lo que Tuomela et al. (2010) llaman intencionalidad colectiva modo nosotros, donde se presenta una intencionalidad compartida por los miembros de un grupo y que no puede ser reducible a la intencionalidad individual o estratégica propia de los modelos económicos estándar, de la filosofía analítica tradicional y de la epistemología social analítica. En la literatura de ontología social hay muchas vertientes; tenemos las analíticas descritas en el párrafo anterior, que son muy recientes y que todavía no han consolidado una postura clara, sus indagaciones son más bien, exploratorias y muy apegadas al individualismo metodológico; Por otro lado, existe una corriente más antigua, ligada a la sociología, que analiza el tema de la ontología social desde el lenguaje de la estructura y la agencia representada en los trabajos de Bourdieu (1999), D ´Agostino (2010), Giddens (1984), Wray (2011), y la teoría del actor-red, cuyo mayor representante es Latour (2007). Esta última concepción representa el opuesto de la corriente analítica y centra su análisis en la estructura; finalmente, existe otra corriente heredera del marxismo (aunque recientemente alejada de ella conocida como realismo crítico donde resaltan los trabajos de Bhaskar (2011), Tony Lawson (2003)

99


Gallardo, Álvaro

y Elder Vass (2010 y 2012) que ,después de un largo proceso que comenzó en los sesenta, ha logrado desarrollar un planteamiento de la ontología social donde parece existir un balance entre estructura y agencia muy adecuada para explicar el tema de los procesos sociales en las comunidades académicas. Desde perspectivas no analíticas, una característica de los procesos sociales es que lo social no es la suma de los individuos, los procesos sociales son una relación entre la estructura y la agencia que no nace sólo de las propiedades de agenciamiento, sino del complemento de ambos. Es de resaltar que cada una de ellas tiene su propia lógica; una cosa es las propiedades de los individuos y, otra, es cuando se relacionan con otros en determinadas estructuras sociales; esto quiere decir que nuevas propiedades nacen de las estructuras de relación entre los individuos, por lo cual, un estudio de lo individual es insuficiente en el proceso. En todo fenómeno social es importante recalcar las propiedades emergentes que nacen de las relaciones de los individuos en determinadas estructuras sociales; estas propiedades de emergencia no nacen de las propiedades de los agentes sino de las particularidades de la relación; esta característica de la ontología social nacida del realismo crítico, brevemente esbozada, nos permite una mirada y unas conclusiones diferentes a las planteadas por Kitcher. Es importante resaltar que la relación entre individuos no se hace de manera individual sino que muchas veces están mediadas por organizaciones, grupos o instituciones; esto quiere decir que hay diferentes jerarquías causales: una cosa es la relación entre dos o más personas que forman una propiedad emergente, es decir, un nuevo poder causal, cuando se unen en un grupo y, otra, es la relación entre grupos que generan un nuevo poder causal o propiedad emergente con sus propias particularidades al generar la comunidad académica. En términos generales, no hay una única manera de ver hacia dónde se direccionan las comunidades porque todo depende de las relaciones que se produzcan en los diferentes niveles jerárquicos; por ello, se puede decir que la precisión se pierde pero se gana más realismo a la hora de entender los fenómenos de las comunidades científicas. No hay una única ruta definida sino muchas posibilidades que dependen de las múltiples relaciones en diversas jerarquías. En términos de la organización de la actividad científica, Kitcher nos mostró que un mercado libre de ideas favorecería el pluralismo; sin embargo, desde una ontología social no individualista es posible problematizar sobre la idea de que el mercado de ideas privilegiará el pluralismo. En este sentido, puede nacer una propiedad a favor del pluralismo o del monismo científico dependiendo de las relaciones que nazcan en una determinada comunidad académica y no

100

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 83-112


Kitcher y la organización de la investigación científica

siempre una estructura de libre mercado de ideas privilegiará el pluralismo teórico como lo plantea Kitcher. En primera instancia se problematizarán los supuestos y la fragilidad de los modelos y luego los cambios en la comprensión del fenómeno de la división del trabajo cognitivo si se tiene una ontología social más allá del enfoque individualista.

3.1. Sobre la fragilidad del modelo Los supuestos del modelo de organización del trabajo cognitivo son: 1. Existencia de un número suficientemente grande de científicos. 2. Rendimientos decrecientes en la actividad científica. 3. Científicos estratégicos que buscan fama y reputación. 4. Los científicos conocen la probabilidad (bayesiana) de éxito o fracaso de las teorías rivales. Uno de los elementos fundamentales, que se olvida muchas veces cuando se hacen modelos como los desarrollados por Kitcher para la división del trabajo cognitivo, es la flexibilidad y heterogeneidad de los mismos, dados los supuestos que se tengan en cuenta. Muchos de los resultados a favor del mercado de ideas que propugna Kitcher obedecen a la estructura de supuestos empleada, principalmente, el supuesto de rendimientos decrecientes y la estructura de información; si estos cambian, los resultados son diferentes; como dice un reconocido epistemólogo de la economía cuando habla de los modelos epistémicos como los de Kitcher: [L]os contenidos de la economía no son en ninguna forma pre-programados para producir resultados que sirven a los servicios de la ciencia libre. En adición a los resultados en términos de una generosa mano-invisible, la economía también ofrece un depósito de resultados del “dorso de la mano invisible”. En ambos casos, los resultados son construidos como consecuencias no buscadas del comportamiento individual. En un conjunto de argumentos estos resultados son deseables, en otros ellos no lo son. Con pequeños ajustes en los supuestos de los modelos, las conclusiones serán de un tipo o de otro (Maki 2004 214).

Como ejemplo, podemos plantear una variación en el supuesto 2: supongamos, entonces, rendimientos crecientes; en este caso, no habría razón para el pluralismo porque más científicos trabajando en el mismo desarrollo gene-

101


Gallardo, Álvaro

rarían un mayor avance y no se restringiría su desarrollo; por lo anterior, si los científicos son estratégicos (supuesto 3) elegirían la ruta de investigación más prometedora alejándose de las alternativas; estas sólo serían tomadas por pensadores irracionales y no estratégicos. Igualmente, si la estructura de información no fuera clara (supuesto 4), si no asumimos que los científicos conocen las probabilidades de éxito o fracaso de las teorías, entonces [L]os científicos sin total información imitarían a otros científicos conducidos por la creencia de que los otros están en la posesión de la información que ellos no tienen. En tal situación, no hay diversidad cognitiva y no hay una generosa mano invisible en operación para soportar el descubrimiento colectivo de la verdad (Maki 2004 214).

Por lo anterior, se tienen diferentes modelos con diferentes conclusiones; este es el precio de la simplicidad dado que se incluyen diversos comportamientos pero no en una sola estructura, la diversidad de situaciones se explica con un modelo para cada situación. Puede ser que la causa individual descrita por el modelo pierda todo sentido y la relación o combinación con otros poderes causales puede generar nuevas propiedades emergentes que sólo pueden ser entendibles en la complejidad del fenómeno bajo estudio; es decir, que la ciencia y sus comunidades pueden entenderse mejor si toda la complejidad se toma en cuenta con los diversos agentes y las propiedades causales derivadas de sus relaciones en diversos escenarios que forman parte de la jerarquía institucional de la actividad científica. La invitación de este trabajo es a tener una estructura social de las comunidades académicas para luego sí emplear modelos que den cuenta de toda la complejidad del problema científico: es decir, una estructura donde tengan cabida sujetos con diferentes preferencias, con estrategias para buscar fama y reputación que eligen entre teorías, con otros que usan la imitación para obtenerla, con otros que siguen una determinada teoría porque en ella fueron criados y, finalmente, por otros que buscan la verdad por ella misma. En el siguiente aparte, complejizaremos un poco más la estructura de las comunidades académicas para ver cómo los resultados cambian con respecto a las conclusiones de Kitcher y cómo, a su vez, no hay que suponer un solo comportamiento dentro de los científicos pertenecientes a las comunidades académicas si una ontología social no individualista se pone en funcionamiento.

3.2. Sobre El enfoque ontológico En los trabajos de Rogier De Langhe (2010) y De Langhe et al. (2009) se pueden especificar algunos elementos de una ontología más compleja que la

102

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 83-112


Kitcher y la organización de la investigación científica

de Kitcher que, si bien, no son tan exigentes como los estándares que plantearía el realismo crítico, sí se basan en una de las tradiciones de ontología social: el análisis de redes; con este análisis, se muestran las abismales diferencias entre una ontología individualista de lo social como la de Kitcher y una donde la ontología social tiene en cuenta la estructura (relaciones entre nodos) y los individuos (los nodos). En este caso se piensa en un cambio de símil: de ‘la mano invisible’ a uno que incluye la relación entre los agentes y la estructura que es definida por la red de relaciones que componen la interacción entre los individuos o nodos de la relación. En este escenario las conclusiones son diferentes a las de Kitcher; se muestra desde esta perspectiva que el pluralismo en la ciencia sólo es posible por medio de la intervención pública porque, muy posiblemente, se presentarán obstáculos a este proceso que, no necesariamente, son producto de la irracionalidad, como sí lo manifiesta la tesis de Kitcher. Para mostrar lo anterior, es necesario recordar primero los argumentos de Kitcher a favor del pluralismo desde una perspectiva de mano invisible y luego ver el análisis de la ontología social De Langhe, basado en la teoría de redes. El planteamiento de Kitcher a favor del pluralismo es viable debido a los supuestos 1-4, anteriormente descritos: el supuesto 1 permite que los científicos elijan entre opciones; dado que si existen pocos lo mejor es la cooperación; el supuesto 2 permite entender que si hay muchos científicos trabajando en una línea de investigación el beneficio de que otro científico ingrese al proceso es muy bajo y es mejor que este científico se dedique a trabajar en otra línea de investigación no explorada; el supuesto 3 permite entender la fuerza motivadora que hace que los científicos desarrollen una línea de investigación o pasen a otra; los científicos analizan las probabilidades de éxito y tienen en cuenta la cantidad de científicos trabajando en las líneas de investigación, gracias a ello, eligen de manera estratégica pensando en motivaciones no epistémicas sino más individuales y, finalmente, el supuesto 4 nos permite esa elección dadas las motivaciones de 3, porque definen un conocimiento subjetivo de las probabilidades bayesianas. La gran contribución de Kitcher es mostrar que si se cumplen estos supuestos y, si el mercado de ideas funciona libremente, la opción maximizadora es el pluralismo mientras no se resuelven las disputas y de consenso generalizado con algunos disidentes, que siempre abrirán vías alternativas de análisis, si las disputas se han resuelto. La gran contribución es conciliar la necesaria cooperación en los desarrollos científicos y la competencia. La cooperación es necesaria para poder desarrollar los avances en el conocimiento, dado que para que una investigación se desarrolle los científicos deben aceptar avances

103


Gallardo, Álvaro

hechos por otros científicos y de contribuciones de un equipo de trabajo; la competencia, por el contrario, asegura que los esfuerzos de los científicos que cooperan se distribuyan entre las diferentes líneas si no se han liquidado las controversias. De esta manera, si se deja al libre funcionamiento del mercado de ideas, el resultado será el más deseable posible; la mano invisible parece funcionar de manera casi natural. En palabras de De Langhe et al. (2009) Cuando más científicos adoptan una concepción, hay más competencia por novedad, y originalidad, en la búsqueda de ser el primero en llegar a una solución a un problema importante...más generalmente, los retornos decrecientes son introducidos para compensar los retornos crecientes (de la cooperación). La interacción entre cooperación y competencia impulsará y apalancará a la comunidad académica a una distribución del trabajo entre la plena especialización y la plena diversidad. Idealmente, una política de laissez faire produce una distribución óptima. (De Langhe et al. 2009 280).

En este sentido, ni la total especialización es lo deseable porque caeríamos en lo que Knudseen (2002) llama la trampa de la unificación en las ciencias pero, tampoco, la total diversidad: caeríamos en la trampa de la fragmentación; parece, entonces, que la ruta de Kitcher es la más plausible para la organización de las comunidades científicas, en el mundo de los científicos de juguete de Kitcher, estos (...) libremente compiten con cada uno de los otros por el premio a ser los primeros en encontrar la solución. Como una consecuencia, ellos no necesariamente siguen el sendero que es mejor soportado por la evidencia disponible, sino que eligen según el número de personas que ya están buscando un determinado sendero, Como resultado, por un proceso de mano invisible la atención de los académicos es dispersa y produce el desideratum de la comunidad (...) La introducción de la competencia compensa los retornos crecientes que vienen con la cooperación: los retornos individuales decrecen cuando el número de científicos que siguen un cierto sendero aumenta. (De Langhe et a, 2009 280).

En contraposición el análisis de redes se centra en dos elementos: los nodos (que son los científicos) y las relaciones en red de estos nodos, que formarían la estructura. El análisis parte de una analogía nacida de la economía industrial, caracterizada por la innovación y los rendimientos crecientes. En este sentido, el análisis tiene que ver con otro espacio del mundo mercantil diferente al de

104

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 83-112


Kitcher y la organización de la investigación científica

los habituales bienes y servicios de la economía que es más afín a los desarrollos tecnológicos que son constantes y continuos. El análisis de la red necesita de los rendimientos crecientes y de una gran cantidad de agentes dado que “el valor de la red no depende de la escasez, de qué es hecho o de quién pertenece a la red sino de cuántas personas la usan...ver a las comunidades científicas como redes significa que ellas crecen exponencialmente y se fortalece en el tiempo cuando un nodo es agregado a la red. Como tal la adición de un científico a una comunidad de científicos no debería decrecer los prospectos de suceso de los otros científicos (como en Kitcher) sino que debería incrementar las posibilidades de éxito para la comunidad exponencialmente. (De Langhe 2010 40).

Un análisis de la potencia de las redes es bastante plausible en el mundo científico porque permite explicar muchos elementos institucionales del desarrollo científico y sus mecanismos de difusión; se plantean los siguientes puntos como elementos a favor de la analogía de redes para la explicación de la actividad científica. 1. “La actividad científica es un esfuerzo distribuido... 2. Los científicos agrupan sus ideas alrededor de ciertos conceptos básicos y supuestos teóricos... 3. La información es caracterizada por retornos crecientes... 4. Una gran red también se retroalimenta: más conferencias para ir, más journals para publicar, más empleos para aplicar... Las redes parecen importar en el mundo académico. 5. La estructura de incentivos en universidades tiende a premiar las investigaciones que han sido exitosas en el pasado. Estos premios vienen en la forma de más investigaciones, permitiendo que las investigaciones exitosas lo sean también en el futuro.” (De Langhe 2010 42). En términos generales, entre más amplia es la red, más posibilidades existen para generar innovación; al mismo tiempo, si la red es muy grande, es muy probable que se presente el olvido de otras perspectivas de análisis aunque no se haya logrado el consenso racional, dado que la red presiona a que los científicos sigan en el mismo paradigma o estándar de investigación. Lo anterior quiere decir que una vez una red crece desmesuradamente en relación a las otras, es muy costoso para un científico buscar otra red porque saldría de los esquemas de validez de la comunidad académica y de las institu-

105


Gallardo, Álvaro

ciones que al interior de la red lo respaldan, como son las universidades y los centros de investigación. Cuando los académicos en un campo, conocen la evidencia disponible y los argumentos, ellos reforzarán el mecanismo que entre mayor sea el grupo, se incrementa las posibilidades de que los científicos se junten al grupo...Entre más académicos estén en el grupo, se incrementan los costos hundidos, haciendo el cambio de red muy costoso. Un cambio científico entre redes es posible pero es muy poco probable... (De Langhe 2010 43).

Igualmente, es muy difícil que un nuevo miembro de la comunidad académica pueda salirse de la red porque no conoce otras redes dado que la red principal ha opacado las otras. Los nuevos no han gastado todavía la energía en conocer el campo. Así no pueden depender del conocimiento de los diferentes grupos. No pueden valorar la fiabilidad de los diferentes expertos y no tienen un conocimiento perfecto del estado de la disciplina en la cual debería estar dispuesto a comparar la evidencia disponible de los diferentes grupos o conocer a cuál red él se adapta. En verdad lo que yo propongo es simplemente que la probabilidad que el nuevo contribuya a una red X es igual al poder de X en la disciplina. Esto puede ser interpretado como la idea que el nuevo probablemente se junte al grupo al cual los pares pertenecen (De Langhe 2010 43).

Lo anterior quiere decir que en un mundo donde hay sólo un estándar, es más fácil el consenso pero, cuando hay muchas visiones, es muy difícil lograr la división del trabajo cognitivo, como lo plantea Kitcher, dado que en este caso se impondría la red que más crezca sin necesidad de llegar al consenso final hacia la verdad; en este sentido, la solución ‘mano invisible’ de consecuencias no buscadas de los actos individuales no sería una metáfora útil; buscando fama no se llega a la verdad, sino a un consenso impuesto por el monopolio dado por una red amplia que niega la posibilidad de crecimiento de las otras perspectivas independiente que se alcance o no la verdad. En otras palabras, el análisis más complejo de estructura-agencia de la red nos daría una situación de monopolio o consenso hacia al paradigma siendo la solución, en algunos casos irracional porque no está relacionado con criterios objetivos ni epistémicos. Otro elemento de esta perspectiva es que no es necesario que los científicos busquen fama o reputación, de hecho no debería importar qué tipo de comportamiento sigan; cuando no hay consenso, los científicos pueden tener diferentes intereses. El punto central es que están presionados a seguir en una red independiente de la motivación; en este sentido, la red impone unas condiciones a los agentes, una red que también ha sido tejida por la conducta de los

106

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 83-112


Kitcher y la organización de la investigación científica

agentes: como se ve, la estructura y la agencia se co-determinan haciendo más complejo pero más rico el análisis encontrado. Si este análisis tiene sentido, se ponen en peligro las conclusiones derivadas de Kitcher; se ve aquí que la libertad económica no siempre da los resultados deseados. En síntesis, para Kitcher, la mejor forma de organizar el trabajo cognitivo es asumiendo sujetos científicos estratégicos que a través de un proceso de mano invisible logren maximizar sus intereses y logren vía mano invisible el avance cognitivo; por otro lado, el análisis de De Langhe muestra que la mano invisible puede conducir a un monopolio de ideas sin que, necesariamente, se logren avances en el conocimiento, por lo que debe existir una intervención en términos de política pública para de esta manera, garantizar una distribución de ideas para el avance cognitivo. Las buenas intenciones deben estar respaldadas en una ontología social que no sea definida por un solo elemento causal, sino por diferentes dimensiones, y por la retroalimentación entre estructura y agencia: Los seres humanos no están determinadas por un solo grupo de incentivos y más aún por unas motivaciones que dependen sólo de ellos; la actividad de los científicos, en sus comunidades académicas y en sociedad, dependen de sus preferencias pero, también, de la estructura de esa misma comunidad y de la sociedad a la que pertenecen; es decir, de las relaciones de los diversos científicos y los poderes emergentes que ellos generen: si esto se tiene en cuenta, las conclusiones que se deriven sobre la actividad científica son diferentes a las habitualmente encontradas en los modelos que crean mundos simples como los descritos por Kitcher.

4. A modo de conclusión: kitcher buscador de verdades, encontrando precisión analítica Después del recorrido realizado por la epistemología social de Kitcher, queda la sensación de haber avanzado en una mejor comprensión de los problemas de la ciencia; sin embargo, estos avances se ven opacados por la creencia de que los planteamientos desarrollados no se pueden generalizar por falta de consistencia de la modelación empleada y por no considerar otro tipo de comportamientos al interior de las comunidades científicas. El problema no es de falta de pertinencia −tema al que, de sobra, no se le puede negar su importancia para la sociedad actual− ni de falta de un análisis riguroso. El problema tiene que ver más con la manera de entender los problemas sociales que se reduce a pensarlos desde la óptica del individuo, sin hacer el filtro nece-

107


Gallardo, Álvaro

sario por el entendimiento de los fenómenos sociales de una manera más amplia, teniendo en cuenta las estructuras que le dan vida al comportamiento individual. Como complemento de lo anterior implícito está el excesivo formalismo e idealidad del planteamiento. La epistemología social analítica se construye de manera similar a los modelos económicos del mainstream donde los intereses individuales son el punto de partida de la investigación; elementos centrales en la estrategia que siguen los científicos a la hora de realizar avances dentro de una determinada comunidad científica. Estos modelos se caracterizan por dar cuenta de procesos en un ambiente ideal, es decir, planteamientos que no son abstracciones de la realidad sino construcciones de la mente para entender pautas de acción individual. En este sentido, estos modelos son tratados con preceptos de seguridad analítica más que de pertinencia empírica; el mismo Kitcher justifica esta estrategia de análisis en su libro de 2001b, en los siguientes términos: Gran parte de la filosofía de la ciencia tradicional, al estilo de ciertos modelos económicos, desatiende los detalles engorrosos y asciende a alturas de abstracción en las que se puede alcanzar la elegancia y una precisión considerable. Debemos valorar la precisión y la elegancia por sí mismas, porque establecen un criterio con el que pueden juzgarse otros esfuerzos y por la posibilidad de que las idealizaciones extremas puedan revelar características amplias e importantes de los fenómenos (Kitcher 2001b 23).

En este sentido, los modelos son adecuados a la filosofía de la ciencia por su proyecto normativo: ante la ausencia de realidad de los modelos generales, lo único que puede hacer este tipo de planteamientos es relajar algunos supuestos base para incluir elementos adicionales, como dice Kitcher “…tenemos que idealizar los fenómenos pero sin dejar de incluir en nuestro análisis las características que los críticos subrayan” (Kitcher 2001b 23). El modelo base se convierte en la norma de evaluación de otros modelos más cercanos a la realidad que, a diferencia del modelo base, tienen supuestos adicionales que los hacen más plausibles para el entendimiento de problemas reales. Estos modelos adicionales se evalúan gracias al modelo base que tiene propiedades generales. Sin embargo, al eliminar la complejidad de la relación las conclusiones de la modelación siempre serán marginales a los procesos reales de la conducta científica y de lo que hace significativa la investigación. Si los modelos tienen sentido debería probarse que los modelos plausibles son menos óptimos que el modelo base, sin embargo, lo único que prueban estos modelos ideales es que son más sencillos pero en nada muestran que en verdad son más adecuados para lograr caracterizar el funcionamiento adecuado de

108

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 83-112


Kitcher y la organización de la investigación científica

las comunidades académicas de manera general. Con un leve cambio en los supuestos se ve como las conclusiones cambian perdiendo consistencia el proceso de modelación. Es de resaltar el trabajo de Kitcher en el entendimiento de las comunidades académicas. En este caso, la pregunta es por el tipo de organización de la actividad científica que lograría motivar a los científicos y sus intereses y, al mismo tiempo generar progreso cognitivo; en este sentido, los prismas social y racional se pueden evidenciar: lo social, se ve en que los científicos no sólo buscan verdades ni mejoras cognitivas dentro de la disciplina sino que también buscan de manera estratégica, fama y reputación. Es importante notar que, incluso si se buscan estos valores no epistémicos, una cierta división del trabajo cognitivo entre teorías alternativas o formas de análisis diverso, al interior de una concepción teórica, hace posible lograr avances epistémicos; lo racional es así el resultado de los procesos sociales; en este sentido, lo valorable es que no hay conflicto entre lo social y racional sino que de acuerdo con un determinado diseño institucional (que, para Kitcher, es la libertad de ideas) es posible la armonía entre ellas. Sin embargo, el problema de la falta de una ontología social se ve reflejado en muchos frentes: solo se entiende la ciencia como un fenómeno estratégico, no se tiene en cuenta que en la ciencia hay procesos de imitación, relaciones de poder y sobre todo procesos emergentes producto de la relación no determinista de la estructura y la agencia. No se puede negar que Kitcher logra con su trabajo una gran precisión analítica; es decir, bajo ciertos supuestos, es posible llegar a ciertos resultados y, si se asume una ontología individualista, esto puede resultar. Sin embargo, ¿es esta situación la deseable? ¿No será, más bien, que igual que los científicos, independiente de sus motivaciones, buscamos la verdad? Lo que se plantea como conclusión general es que el debate abierto se da entre verdad versus precisión. Esta tesis ha buscado demostrar que Kitcher ha logrado irse por la precisión de sus científicos de juguete y que, si el objetivo es buscar la verdad, un entendimiento de qué es lo social, es necesario incluir una ontología más compleja que dé cuenta de las conductas de los individuos en relación y mediada por instituciones, se logra una mejor aproximación al conocimiento del fenómeno científico; sin embargo, esta situación desborda las capacidades de este trabajo y de quien escribe. Finalmente, el entendimiento de las comunidades académicas con las múltiples motivaciones de los científicos, las posibles interrelaciones y los marcos

109


Gallardo, Álvaro

institucionales diversos donde se desarrolla la ciencia, hace imposible desde una descripción estratégica, determinar qué tipo de división del trabajo cognitivo es más adecuada. Lo cierto es que ante esta imposibilidad, lo mejor es dejar la vía abierta al pluralismo para, de este modo, posibilitar otros análisis posibles ante la complejidad de los problemas científicos a estudiar. La diversidad ante la incertidumbre es la mejor alternativa cuando de relaciones de poder académica se trata. Con una ontología social es posible, así, tener una mejor descripción de los fenómenos tal vez, a costa de la precisión; sin embargo, las recetas de política científica serán más ilustradas si hay un mayor entendimiento del fenómeno estudiado. Igualmente, es posible entender las múltiples dimensiones de las comunidades académicas y las diversas motivaciones de los científicos sin restringir la temática a una sola motivación para cada uno de los casos. Con la ontología social, es posible salir de estas idealidades y buscar una descripción que haga posible lo pensable en Kitcher que es, en últimas, generar una organización de las comunidades académicas que permita el progreso cognitivo.

Trabajos citados Bhaskar, R. Reclaiming Reality. New York: Routledge. 2011. Bourdieu, P. Intelectuales, política y poder. Buenos Aires: Eudeba. 1999. D´Agostino, F. Naturilizing Epistemology: Thomas Kuhn and the Essential Tension. New York: Palgrave Macmillan. 2010. De-Langhe, R. The Division of Labour in Science: The Tradeoff between Specialisation and Diversity. Journal of Economic Methodology , 37-51. 2010. De-Langhe, R., & Greiff, M. Standards and the Distribution of Cognitive Labour: A Model of the Dynamics of Scientific Activity. Logic Journal of the IGPL , 18 (2), 278-94. 2009. Elder-Vass, D. The Causal Power of Social Structures. Cambridge: Cambridge University Press. 2010. _____.The Reality of Social Construction. Cambridge: Cambridge University Press. 2012. Fuller, S. Social Epistemology. Indiana: Indiana University Press. 1998. Giddens, A. La constitución de la sociedad. Buenos Aires: Amorrortu editores. 1984. 110

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 83-112


Kitcher y la organización de la investigación científica

Goldman, A. Knowledge in a Social World. Oxford: Oxford University Press. 1999. Hands, W. Reflection Without Rules: Economic Methodology and Contemporary Science Theory. Cambridge: Cambridge University Press. 2001. Hull, D. Science as a Process: An Evolutionary Account of the Social and Conceptual Development of Science. Chicago: University of Chicago Press. 1988. _____.Science in a Democratic Society. New York: Prometheus Books. 2011. _____.El avance de la ciencia: Ciencia sin leyenda. México: Instituto de Investigaciones Filosóficas. 2001b. _____Science, Truth, and Democracy. Oxford: Oxford University Press. 2001a. Knudseen, C. The Essential Tension in the Social Sciences: Between the “Unification” and “Fragmentation” Trap. In H. S. Jensen, The Evolution of Scientific Knowledge. Edward Elgar. 2002. Latour, & Woolgar. La vida en el laboratorio: la construcción de los hechos científicos. Madrid: Alianza. 1995. Latour, B. Nunca fuimos modernos. Buenos Aires: Siglo XXI Editores. 2007. Lawson, T. Reorienting Economics. New York: Routledge. 2003. List, C., & Pettit, P. Group Agency: the Possibility, Design, and Status of Corporate Agents. New York: Oxford University Press. 2011. Longino, H. The Fate of Knowledge: Toward a Hybrid Epistemology. Princeton: Princeton University Press. 2002. Lumbreras, Á. V. Epistemología social y política del conocimiento: Un análisis del Programa de Investigación de Steve Fuller. Madrid: Universidad Complutense De Madrid, tesis doctoral, Facultad de Filosofía. 2006. Maki, U. Economic Epistemology: Hopes and Horrors. EPISTEME , 211-221. December. 2004. Roorda, J. Kitcher on Theory Choice. Erkenntnis, 46, 215-239. 1997. Searle, J. Making the Social World. Oxford: Oxford University Press. 2010. Tuomela, R. The Philosophy of Sociality: The Shared Point of View. Oxford: Oxford University Press. 2007. Tuomela, R., Hakli, R., & Miller, K. Two Kinds of We-Reasoning. Economics and Philosophy (26), 291-320. 2010. 111


Gallardo, Álvaro

Wray, B. Kuhn´s Evolutionary Social Epistemology. Edimburg: Cambridge University Press. 2011. Zamora, J. Ciencia Pública, Ciencia Privada. Reflexiones sobre el saber de la producción científica. México: Fondo de Cultura Económica. 2005. _____.¿Es la ciencia un mercado de ideas? ArtefaCToS, 1 (1), 71-80. 2008. _____.“The Economics of Scientific Knowledge”. En U. Mäki, Handbook of the Philosophy of Science. The Philosophy of Economics (pp. 928). North Holland: Elsevier. 2012.

112

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 83-112


El cálculo racional para elegir o la deliberación con sabiduría 1,2,3

R ational calculation to choose or the deliberation with wisdom

Jonathan Echeverri Álvarez4, Juan Diego Lopera Echavarría5 & Jesús Goenaga Peña6,7

R esumen Este artículo cuestiona el carácter normativo de la medición para la toma de decisiones y sugiere la deliberación con sabiduría como un recurso más adecuado para decidir en incertidumbre. La ciencia de la medición, en principio, plantea una teoría explicativa sobre cómo los agentes deciden, sin embargo, al mismo tiempo indica una estrategia aparentemente razonable para elegir. La propuesta explicativa, que surge en la modernidad con una consideración normativa sobre la racionalidad, se propone una reducción de la incertidumbre; contrario a la deliberación con sabiduría cuyo punto de partida es un retorno sobre sí mismo. El texto se compone de cuatro apartados. El primer apartado discute los criterios epistemológicos que subyacen a la ciencia de la medición para decidir, además, presenta la Teoría de la Utilidad Esperada como principal propuesta explicativa que incorpora estos criterios. El segundo muestra el procedimiento que utiliza un agente racional para decidir en incertidumbre. El tercero hace una comparación entre el carácter normativo de una ciencia de la medición y la deliberación con sabiduría. Finalmente, el cuarto exhibe una distinción entre incertidumbre epistémica e incertidumbre ontológica. Palabras clave: Medición, agente racional, toma de decisiones, incertidumbre, sabiduría.

1 Recibido: 4 de abril de 2016. Aceptado: 27 de septiembre de 2016. 2 Este artículo se debe citar así: Echeverri, Jonathan, Lopera, Juan Diego & Goenaga Jesús. “El cálculo racional para elegir o la deliberación con sabiduría”. Rev. Colomb. Filos. Cienc. 16.33 (2016): 113-137. 3 Este artículo es resultado de una investigación realizada con el apoyo financiero del Comité para el Desarrollo de la Investigación – CODI – Universidad de Antioquia. En la Convocatoria Programática Ciencias Sociales Humanidades y Artes 2014. La investigación tiene como título “De la sabiduría práctica y la decisión en incertidumbre”. Y está inscrita en el grupo de investigación el Método Analítico y sus Aplicaciones en las Ciencias Sociales y Humanas y el grupo de investigación Conocimiento, Historia, Filosofía, Ciencia y Sociedad. Agradecemos los comentarios de los siguientes colaboradores y auxiliares de investigación: Horacio Manrique Tisnés, Isabel Lopera, Natalia Valencia Soto, Astrid Palacio, Isabella Builes Roldán y Vladimir Riscanevo. 4 Corporación Universitaria Minuto de Dios. Uniminuto Bello. Correo electrónico: jonathan.echeverri@ uniminuto.edu 5 Departamento de Psicología. Universidad de Antioquia. Correo electrónico: diego.lopera@udea.edu.co 6 Departamento de Psicología. Universidad de Antioquia. Correo electrónico: jesus.goenaga@udea.edu.co 7 Medellín (Colombia).


Echeverri Álvarez, Jonathan; Lopera Echavarría, Juan Diego & Goenaga Peña, Jesús

A bstract This article questions the normative character of measurement for decision-making and it proposed to choose wisely as a more suitable alternative to decide in uncertainty. Science of measurement, in principle, supposed to raise an explanatory theory about how agents decide, however, at the same time it indicates a seemingly reasonable strategy to choose. A reduction of uncertainty is proposed in explanatory proposal that emerges in modernity with a normative consideration of rationality; contrary to a discussion with wisdom whose starting point is a turn on itself. The text has four sections. The first section discusses the epistemological criteria underlying the science of measurement to decide, also presents the Theory of Expected Utility incorporating the criteria. The second shows the process using a rational agent to decide in uncertainty. The third section makes a comparison between the normative character of a science of measurement and deliberation with wisdom. Finally, the fourth shows a distinction between epistemic uncertainty and ontological uncertainty. Key words: Measurement, rational agent, decision making, uncertainty, wisdom.

1. Introducción El interés moderno por una ciencia de la decisión tuvo como referencia la incertidumbre. ¿Cómo los seres humanos deciden en condiciones de incertidumbre? ¿Qué estrategias de pensamiento utilizan los humanos para decidir en medio del azar y la ignorancia? Plantear una propuesta explicativa al respecto, representa la agenda de trabajo de la investigación científica moderna. También, ambas inquietudes son un punto de referencia en la reflexión normativa. En el siguiente sentido, ¿cómo los seres humanos deben tomar decisiones en condiciones de incertidumbre? ¿Qué estrategias de pensamiento deben utilizar los humanos para decidir en medio del azar y la ignorancia? Las primeras dos inquietudes son la guía de un interés explicativo presente, especialmente, en la psicología, la economía y la matemática. Y las segundas dos inquietudes, representan la guía de un interés normativo presente, especialmente, en la filosofía. La ciencia moderna de la medición presenta una teoría explicativa sobre la decisión en incertidumbre y, a su vez, una sugerencia normativa implícita que sugiere cómo deberíamos decidir. Este artículo cuestiona el carácter normativo de la medición para la toma de decisiones y sugiere la deliberación con sabiduría como un recurso más adecuado para decidir en incertidumbre. Esto a través de un diálogo renovado entre filosofía y psicología, es decir, con la interacción de argumentos propios de la filosofía moral contemporánea y con estudios realizados desde la investigación básica en toma de decisiones. La ciencia de la medición, en principio, plantea una teoría explicativa sobre cómo los agentes deciden, sin embargo, al mismo tiempo indica una estra-

114

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 113-137


El cálculo racional para elegir

tegia aparentemente razonable para elegir. La propuesta explicativa, que surge en la modernidad con una consideración normativa sobre la racionalidad, se propone una reducción de la incertidumbre; contrario a un deliberación con sabiduría cuyo punto de partida es un retorno sobre sí mismo. El texto se compone de cuatro apartados. El primer apartado discute los criterios epistemológicos que subyacen a la ciencia de la medición para decidir; además, presenta la Teoría de la Utilidad Esperada como principal propuesta explicativa que incorpora estos criterios. Asimismo, compara esta propuesta teórica con la interpelación de Kahneman y Simon en relación con la presencia de una racionalidad limitada. El segundo muestra el procedimiento que utiliza un agente racional para decidir en incertidumbre a través de un análisis formal de la decisión. Este procedimiento se caracteriza por un conocimiento pleno de las preferencias personales y una estimación de probabilidad para sucesos inciertos. De tal forma, que el agente racional evalúa con detenimiento cada opción de respuesta y elige, luego del análisis formal, la mejor alternativa posible. El tercer apartado hace una comparación entre el carácter normativo de una ciencia de la medición y la deliberación con sabiduría; en ambas el punto de referencia es un tratamiento singular de la incertidumbre. En el primer caso, se propone una reducción de la incertidumbre con la estimación numérica, a través de la probabilidad, de sucesos inciertos que rodean toda decisión. Y en el segundo caso, se plantea un retorno sobre sí mismo que se carecteriza por un cuidado de sí, una consciencia de finitud, una relación cómplice con el azar, una contrastación entre la deliberación y la experiencia y la configuración de una serie de hábitos que organizan, en el decisor, la experiencia acumulada. Finalmente, el cuarto apartado exhibe una distinción entre incertidumbre epistémica e incertidumbre ontológica con el objeto de precisar conceptualmente el escenario que circunda las acciones de un decisor. En tal caso, hablamos de la presencia continua de ignorancia y azar como telón que circunda la decisión humana.

2. Sistema universal y único de medición Un asunto parece preocupar al ser humano desde la adquisición de una conciencia de sí mismo: la incertidumbre. ¿Podemos concebir alguna estrategia que permita asumir una elección en situaciones desconocidas? Es decir, intentar tener a disposición un recurso o herramienta de elección cuando no es posible conocer con exactitud las variables en juego y las consecuencias en un futuro, una vez hayamos optado por una alternativa de respuesta. Algunos autores concuerdan en resaltar las estrategias culturales que los seres humanos

115


Echeverri Álvarez, Jonathan; Lopera Echavarría, Juan Diego & Goenaga Peña, Jesús

se han ideado para resolver la compleja tarea de tomar una decisión. Entre las estrategias más llamativas: la adivinación (con todas sus variaciones, desde el uso de sortilegios como la lectura de cartas y huesos hasta la observación de hojas de té «taseografía» y el examinar hígados de animales sacrificados «hepatoscopia», incluyendo la numerología y la astrología) y los juegos de azar (lanzamiento de monedas y dados, juegos de cartas, entre otros) (Bernstein 1998; Buchanan y O´Connell 2006; Dennett 2007 [2006]; Taleb 2009 [2004] 2011 [2007]). Según Dennett (2007 [2006]), estas estrategias en la toma de decisiones son atractivas porque aceleran el proceso en escoger una alternativa, entre varias opciones posibles, como dispositivos que eligen por nosotros. En este caso se prefiere hacer uso de la fortuna, el destino o el oficio de los dioses para explicar no sólo el curso de los acontecimientos, sino también el resultado y la calidad de las decisiones tomadas. Estas estrategias son simples o complejas en función de la transcendencia o no de las circunstancias que demanden una elección. Inventamos trucos, buscamos ayuda, delegamos las circunstancias al deseo de seres sobrenaturales o al destino. En medio de estas maniobras que aún viven y se transforman en algunos contextos culturales, la matemática francesa de los siglos xvii y xviii se propuso hallar una pauta de comportamiento óptima para tomar una decisión en condiciones azarosas (Buchanan y O´Connell 2006; León 1987). Y esto, de acuerdo con León (1987), a través de la consecución de dos propósitos: “describir de la mejor forma posible la conducta del sujeto racional (que sería el objetivo más psicológico, por decirlo así) y por otro lado (…) deducir cuál es la mejor forma de decidir, suponiendo que se quiere obtener el máximo de beneficio” (p. 82). La ciencia moderna de la decisión se articuló rápidamente al intento de medir la conducta en la toma de decisiones y al mismo tiempo descubrir, con la matemática y la estadística como herramientas, la mejor opción posible en diversos contextos de elección. Sin embargo, esto a través de un supuesto problemático presente en la teoría económica moderna: los seres humanos son racionales y, por lo tanto, buscan siempre en sus decisiones el mayor beneficio posible para sí mismos, evaluando todas las opciones de elección (Kahneman 2003 [2002], 2012 [2011]; Pena 2005). Tal supuesto generó una tensión contemporánea entre modelos descriptivos (derivados especialmente de la psicología) que han intentado describir y explicar cómo los individuos toman decisiones, y modelos normativos (surgidos de la matemática y la teoría económica neoclásica) que suponen cómo se debería elegir, apelando al uso exclusivo de la razón para evaluar con detenimiento todas las opciones de respuesta y escoger la mejor alternativa en beneficio propio (León 1987; Kahneman 2003 [2002], 2012 [2011]; Pena 2005). Disponer de una herramienta matemática para decidir sopesando numéricamente las opciones

116

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 113-137


El cálculo racional para elegir

de respuesta supone disponer de una estrategia confiable que permite concebir con precisión la mejor opción a elegir. Esta pretensión ha generado una serie de controversias que están presentes incluso en la antigüedad. La ciencia de la medición para decidir no constituye una herramienta exclusiva de la modernidad. Nussbaum (1995a [1990]) sugiere, por ejemplo, que Aristóteles se opuso a esta posibilidad. En otras palabras, el debate en torno a la medición para elegir está presente en la antigüedad y se articula con la filosofía moral de la época. Para comprender la interpretación que hace Nussbaum (1995a [1990], 1995b [1986]) de Aristóteles en torno a una ciencia de la medición en la elección racional, es importante señalar al Protágoras de Platón como el diálogo que motiva este debate. Tal conversación da comienzo a la reflexión sobre la moral. Tres inquietudes fundamentales guían el diálogo entre Sócrates y Protágoras: ¿las normas morales son naturales (physie) o convencionales (nómos)?; ¿Cuál es el origen de la moral?; y ¿la virtud puede enseñarse? (Camps 2013; Platón Prot.). Las dos primeras preguntas sirven a los interlocutores para evaluar el carácter universal y convencional de la moral. Es decir, de acuerdo al mito de Prometeo presentado en el diálogo, al nacer todos los seres humanos disponen de un sentido universal para la moral (aidós) y la justicia (diké). Estas son dotaciones ofrecidas por Zeus, a través de Hermes, con el fin de permitir la convivencia humana; con la educación de ambas dotaciones es posible cultivar el carácter, tarea que, a juicio de Protágoras, corresponde a los sofistas (Platón Prot.). En palabras de Camps: La virtud ya no es patrimonio de los que por naturaleza son nobles y pueden llegar a héroes, sino algo que todos –todos los ciudadanos- pueden adquirir si se esfuerzan en ello. Hermes reparte el sentido de la moralidad y la justicia, pero ese sentido hay que seguir cultivándolo para que produzca efecto y forme el carácter. La moral no es innata, no viene dada, sino que exige voluntad y esfuerzo. Por eso hay que vincularla a la paideia, a la educación. (Camps 2013 26).

Esta observación lleva a los interlocutores del diálogo a la tercera pregunta sobre la enseñanza de la virtud. Sócrates en primera instancia plantea que la virtud no se puede enseñar y luego afirma, al final del diálogo, que si la virtud es conocimiento, entonces se puede enseñar. Esta consideración final de Sócrates supone que la persona virtuosa es justa, por ejemplo, en tanto conoce en qué consiste la justicia. De ahí que el agente débil (acrático) toma decisiones inadecuadas por ignorancia, no por incontinente. La akrasía o supuesta debilidad en la voluntad para hacer lo correcto, de acuerdo con Sócrates, no implica dejarse llevar por las pasiones, antes bien, este agente por una parte

117


Echeverri Álvarez, Jonathan; Lopera Echavarría, Juan Diego & Goenaga Peña, Jesús

desconoce la virtud y, por otro lado, no sabe medir, entre dos opciones de respuesta, cuál es la alternativa más ventajosa para el carácter (éthos) (Camps 2013; García 2007; Platón Prot.). Aristóteles expone la siguiente síntesis de este problema filosófico en la postura de Sócrates: Se podría preguntar cómo un hombre que tiene recto juicio puede ser incontinente. Algunos dicen que ello es imposible, si se tiene conocimiento: pues, como Sócrates pensaba, sería absurdo que existiendo el conocimiento, otra cosa lo dominara y arrastrara como un esclavo. Sócrates, en efecto, combatía a ultranza esta teoría, y sostenía que no hay incontinencia, porque nadie obra contra lo mejor a sabiendas, sino por ignorancia (Ética a Nicómaco 1146a 103).

A esta idea Camps (2011 2013) la llama “falacia socrática”, en tanto Socrátes supone, en el presente diálogo con Protágoras, que la ignorancia explica el comportamiento acrático. Según la autora, la ética aristotélica y sentimentalista de Hume y Spinoza refuta la tesis socrática al proponer que no basta con conocer el bien, es indispensable desearlo, comprometerse emocionalmente con la vida buena. Se asume entonces que al conocer el bien y desearlo resulta menos probable tener una incoherencia entre la teoría y la práctica, por ejemplo, entre una teoría de la justicia y una práctica de la justicia. No basta con conocer la justicia, es necesario desear la justicia hasta el límite de querer practicarla y hacerlo en concecuencia. “Si mis elecciones correctas requieren siempre una lucha, si todo el tiempo tengo que estar dominando sentimientos poderosos que van contra la virtud, soy menos virtuosa que la persona cuyas emociones están en armonía con sus acciones” (Nussbaum 1995a [1990] 134). La consideración de Sócrates en torno al agente débil es un aspecto crucial en el cual se introduce la medición como herramienta para elegir. De acuerdo con Sócrates es necesario conocer la virtud y luego, en un problema de elección moral, medir las opciones de respuesta para reconocer su respectivo valor con las posibles ventajas a obtener (Platón Prot.). Según Nussbaum (1995a [1990] 109), “tal ciencia de la medición está motivada – en su época como en la nuestra – por el deseo de simplificar y hacer manejable el enredado problema de la elección entre alternativas heterogéneas”. De igual forma, la autora plantea el siguiente argumento, presente en el diálogo de Platón, a favor de una ciencia de la medición: “los tipos más problemáticos de irracionalidad humana en la acción son causados por las pasiones que serían eliminadas o podrían volverse inofensivas por medio de la creencia a ultranza en la homogeneidad cualitativa de todos los valores” (Nussbaum 1995a [1990] 109). En este sentido, la irracionalidad humana en la acción es motivada por la pasión y es inofensiva cuando aguardamos la siguiente creencia: los valores que

118

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 113-137


El cálculo racional para elegir

subyacen a una decisión son homogéneos y, en consecuencia, las alternativas son conmensurables. Nussbaum (1995a [1990], 1995b [1986]) evalúa los argumentos a favor de una ciencia de la medición en la elección racional, con el propósito de exponer los desacuerdos de Aristóteles. La autora resume la posición de Aristóteles como una apuesta por la pluralidad de valores y la inconmensurabilidad para elegir. Contrario a la medición que exige la concepción de un único valor que permita comparar y valorar las alternativas para tomar una decisión. En este caso el único valor como referencia es aplicado en todas las circunstancias. Cuatro son las tesis constitutivas que configuran esta ciencia de la medición: Metricidad; Singularidad; Consecuencialismo y Placer. La Metricidad consiste en suponer que existe un único valor que se expresa en cantidad que es usado para comparar todas las opciones de respuesta. La Singularidad implica que existe un solo sistema de medición en cualquier situación de elección. El Consecuencialismo asume que las decisiones tomadas no son valiosas por sí mismas, sino como instrumentos para obtener efectos benéficos que son valorados por el agente que elige. Finalmente, el Placer constituye el único artículo que ha de maximizarse en la toma de decisiones (Nussbaum 1995a [1990], 1995b [1986]). De acuerdo con Nussbaum (1995a [1990]), al combinar el Consecuencialismo con la Metricidad se obtiene “la idea de maximización: lo decisivo en la elección racional es producir la mayor cantidad del valor operante en cada caso” (p. 109). Al combinar estas dos tesis con la Singularidad “tenemos la idea de que hay un único valor individual cuya maximización es, en todos los casos, lo decisivo en la elección racional” (109-110). Este único valor es el Placer. Estas cuatro tesis constitutivas, presentes en la antigüedad, no sólo conforman la ciencia de la medición para elegir, también representan el antecedente filosófico que posteriormente retoma el utilitarismo moderno en su propuesta ética (Camps 2013; Nussbaum 1995a [1990]). En síntesis, la ciencia de la medición para elegir es singular, consecuencialista, métrica y se articula al valor del placer como único referente que permite comparar al menos dos opciones de respuesta. En este contexto, tomar una decisión con base en esta ciencia de la medición implica usar las siguientes recomendaciones: analizar todas las alternativas de respuesta (¿Qué características tienen las opciones? ¿Cuáles son las similitudes y diferencias entre las alternativas?); apreciar las consecuencias derivadas de cada opción a elegir; juzgar las opciones por la cantidad de placer a obtener luego de realizar la elección; finalmente, este reporte de placer se representa con un valor numérico. Por ejemplo, si es necesario elegir entre A o B, de acuerdo con estos criterios es importante conocer a profundidad detalles de cada posibilidad; además, considerar las similitudes y diferencias entre los dos

119


Echeverri Álvarez, Jonathan; Lopera Echavarría, Juan Diego & Goenaga Peña, Jesús

opciones; evaluar la cantidad de placer a obtener en cada alternativa; y asignar esta cantidad de forma numérica, por ejemplo, elegir A reporta cinco unidades de placer, en cambio, elegir B lo hace en siete unidades de placer. Esta última asignación numérica es relevante en las funciones de utilidad sugeridas por la teoría económica moderna que sirven para representar las preferencias del agente racional en todas sus decisiones (Kahneman 2003 [2002], 2012 [2011]; León 1987; Pena 2005). De ahí que el agente racional compara sus opciones de elección en función del placer a obtener en cada alternativa. De igual forma, se espera que este agente elija por defecto la opción que le reporte una mayor cantidad de placer. Este es el único valor relevante a tener en cuenta en sus decisiones. Esta forma de proceder es sugerida en cualquier contexto de elección, ya sea en la dimensión económica, política, social, familiar o afectiva, entre otras. Es importante resaltar que el ensayo moderno que ofrece una teoría donde se articulan estos criterios, a propósito de las decisiones del agente racional, es presentado por Bernoulli (1954 [1738]) en una nueva teoría sobre la medición del riesgo. En este texto el autor introduce el concepto de utilidad. De acuerdo con Bernoulli (1954 [1738]), la conducta del sujeto racional está orientada a maximizar su respectiva utilidad esperada. Es decir, obtener el mayor beneficio acorde con la información disponible en el momento de elegir y con el conjunto de preferencias, metas y expectativas del decisor (Baron, 2008; Bernoulli 1954 [1738]; Kahneman 2003 [2002]; León, 1987). La pregunta fundamental en este caso para un agente racional es ¿cuál es la mejor opción a elegir, con la información disponible, de tal manera que pueda maximizar la utilidad esperada (preferencias, metas y expectativas)? En palabras de Kahneman (2003 [2002] 192): Bernoulli suponía que los diferentes niveles de riqueza tenían una utilidad concreta, y proponía que la regla de decisión en las elecciones realizadas en un contexto de riesgo fuera la de maximizar la utilidad esperada de la riqueza (la esperanza moral). El lenguaje del ensayo de Bernoulli es preceptivo – se refiere a lo que es sensato o razonable hacer – pero la teoría se planteaba también como una descripción de las elecciones de una persona razonable (Gigerenzer et al., 1989).

Bernoulli (1954 [1738]) articula los criterios de singularidad, consecuencialismo, metricidad y placer en su teoría de la utilidad esperada. Sin embargo, y de acuerdo con Kahneman (2003 [2002]), en el tono argumentativo de su propuesta es indistinguible la perspectiva descriptiva o normativa de la toma de decisiones. Es decir, en ocasiones el autor parece presentar una teoría explicativa sobre la elección pero luego sugiere que es la forma más razonable

120

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 113-137


El cálculo racional para elegir

de elegir. Es decir, la manera en que elige un agente racional ¿constituye una descripción precisa de cómo deciden los seres humanos o representa una sugerencia normativa sobre cómo deberían comportarse? Según Kahneman (2003 [2002], 2012 [2011]), la propuesta del agente racional no es una descripción y explicación adecuada de la toma de decisiones, de ahí que lo denomine el error de Bernoulli. Al presentarse la teoría como sugerencia normativa, merece una discusión en el plano de la filosofía moral y no en el ámbito de la investigación científica. No obstante, la teoría económica moderna, al incluir en su análisis teórico la figura del agente racional y la teoría de la utilidad esperada, no presenta una distinción clara entre ambas perspectivas, entre la perspectiva descriptiva y normativa de la toma de decisiones. Al respecto, Baron (2008) propone la distinción entre modelos descriptivos, normativos y prescriptivos, en los estudios del pensamiento y la decisión. Según el autor, los modelos descriptivos representan aquellas teorías que intentan explicar cómo los seres humanos piensan, resuelven problemas y toman decisiones. Los modelos prescriptivos son planteamientos que sugieren cómo se debe pensar o decidir. Por último, los modelos normativos representan un estándar que sugiere un conjunto de estrategias de elección para cumplir con las metas propuestas por un decisor. Desde esta perspectiva, el modelo descriptivo más representativo en la toma de decisiones durante la modernidad, con un carácter normativo en torno a la racionalidad, a propósito de una ciencia de la medición, es la Teoría de la Utilidad Esperada propuesta por Bernoulli (1954 [1738]). Y el modelo descriptivo sobre la elección, con mayor reconocimiento en la actualidad, es la Teoría Prospectiva propuesta por Kahneman & Tversky (1979)8. Las consideraciones prescriptivas, de acuerdo con Baron (2008), implican sugerencias prácticas

8 La Teoría de la Utilidad Esperada sugiere que si la conducta racional de un agente satisface una serie de axiomas en relación con sus preferencias, por lo tanto, este busca obtener el mayor beneficio posible en su respectiva función de utilidad (Kahneman 2012 [2011]; León 1987). En cambio, la Teoría Prospectiva explica que en todo proceso decisorio interviene una fase preparatoria y una fase evaluativa. En la primera etapa, la información para elegir no se representa de forma fidedigna, de ahí la relevancia que tienen los sesgos y heurísticos de elección; y en la segunda etapa, “se valora el impacto subjetivo de la probabilidad así como la utilidad de la recompensa” (León 1987 91). Al comparar ambas propuestas, Kahneman (2003 [2002] 193) resalta lo siguiente: “Las preferencias parecen estar determinadas por las actitudes frente a las ganancias y las pérdidas, definidas respecto a un punto de referencia, y la teoría de Bernoulli y sus sucesoras no incluían tal punto. Consecuentemente, propusimos una teoría alternativa para el riesgo, en la que la utilidad se vincula a las ganancias y a las pérdidas – variaciones de la riqueza en vez de niveles de la misma. Una de las innovaciones derivadas de la teoría prospectiva fue que se presentó explícitamente como una teoría descriptiva formal de las elecciones que la gente efectúa realmente y no como un modelo de tipo normativo. Esto fue un cambio respecto a una larga historia de elección de modelos que servían para perseguir un doble objetivo, como lógica de carácter normativo y como modelos descriptivos idealizados”.

121


Echeverri Álvarez, Jonathan; Lopera Echavarría, Juan Diego & Goenaga Peña, Jesús

para mejorar la toma de decisiones y los procesos de pensamiento. Esto en función de unas preferencias del decisor previamente establecidas. En ambos tipos de propuestas, los tres aspectos centrales a tratar son el decisor, la tarea y la respuesta (Kahneman 2003 [2002]; León 1987). Cada modelo hace énfasis en uno o varios de los tres aspectos. Por ejemplo, la Teoría de la Utilidad Esperada enfatiza en la tarea y la respuesta, a propósito del algoritmo necesario para optimizar una decisión, en cambio la Teoría Prospectiva destaca el papel del decisor y la respuesta para elegir en una tarea. En ambas teorías, la incertidumbre representa el telón que rodea toda decisión a considerar. En síntesis, la medición para la toma de decisiones, además de pretender una teoría explicativa de la decisión, constituye una herramienta que surge en la modernidad con el propósito de reducir los niveles de incertidumbre en el momento de elegir. Lo desconocido, en tal caso, representa un compendio de posibilidades de elección cuyas consecuencias requieren ser controladas y predecibles. En otras palabras, la ciencia de la medición en la modernidad plantea una teoría explicativa sobre cómo los agentes deciden (lo que sugiere un interés descriptivo); sin embargo, al mismo tiempo recomienda una estrategia aparentemente razonable para elegir en escenarios de incertidumbre (lo que implica la presencia de un modelo normativo). El surgimiento de una Teoría Prospectiva en la segunda mitad del siglo xx expone esta ambigüedad presente en la Teoría de la Utilidad Esperada (Kahneman 2003 [2002], 2012 [2011]; Kahneman & Tversky 1979). Y además, propone de forma exclusiva una teoría explicativa sobre la decisión humana. En este escenario, la Teoría de la Utilidad Esperada, como principal propuesta que surge en la modernidad para una ciencia de la medición en la toma decisiones (y cuyas tesis constitutivas son la metricidad, singularidad, consecuencialismo y placer), no plantea una explicación satisfactoria sobre la decision en incertidumbre. También, la ruta de elección que sugiere es cuestionable desde una perspectiva normativa. ¿Cuál es el carácter normativo de esta propuesta explicativa? ¿Qué alternativas existen en contraposición a esta dimensión normativa de la Utilidad Esperada? La figura del agente racional representa el antecedente normativo de esta propuesta moderna (con la tesis presente en el Protágoras de Platón sobre la comensurabilidad de los valores y la necesidad de un arte para medir las opciones de respuesta en un problema de elección moral), y la deliberación con sabiduría constituye una alternativa a considerar en relación con el cálculo racional para elegir en situaciones desconocidas. Antes de exponer esta segunda posibilidad normativa es necesario precisar algunos aspectos conceptuales del agente racional.

122

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 113-137


El cálculo racional para elegir

3. Del agente racional y el análisis formal de la decisión Una decisión sin incertidumbre es aquella donde “los resultados no dependen de la ocurrencia de sucesos desconocidos sino que se siguen automáticamente de las acciones” (Cañas 2008 57). En tal caso, un agente entre dos opciones de respuesta (A o B) descifra cuál efecto, en cada elección posible, tiene la mayor utilidad y en consecuencia toma la decisión que conduzca al resultado que reporte un mayor grado de satisfacción personal. En cambio, una decisión con incertidumbre se caracteriza porque los resultados “no dependen sólo de la opción que se tome, sino también de la ocurrencia de algunos sucesos; obtener un trabajo concreto puede depender no sólo de elegirlo (que es una decisión), sino también de superar una prueba (que es un suceso incierto)” (Cañas 2008 59). Estos sucesos inciertos que configuran la incertidumbre están presentes por ignorancia del agente (incertidumbre endógena, interna o epistémica) y por la ocurrencia de acontecimientos indeterminados que no son directamente controlados por el decisor (incertidumbre exógena, externa u ontológica) (Baron 2008; Lidley 2006; Naishtat 1994; Taleb 2011 [2007]). En este último caso, cada opción de respuesta (A o B) puede contar por ejemplo con al menos dos sucesos inciertos. De tal manera que en algún problema simple de elección entre dos alternativas de respuesta, y la presencia de dos sucesos inciertos, se pueden contemplar al menos cuatro resultados posibles. Un modelo básico de 2d x 2s que Cañas (2008) ilustra de la siguiente forma: dos decisiones alternativas, d1 y d2, con dos sucesos inciertos, s1 y s2, generan los siguientes cuatro resultados: r11 (d1 y s1), r12 (d1 y s2), r21 (d2 y s1) y r22 (d2 y s2). En esta circunstancia el agente jerarquiza la utilidad de las dos decisiones posibles y cuantifica su respectiva probabilidad de ocurrencia. Se espera que un agente racional, en este último escenario, escoja la alternativa que reporte un mayor grado de utilidad con la mayor posibilidad de ocurrencia, dada la presencia de un conjunto de sucesos inciertos (Baron 2008; Cañas 2008; Glimcher 2009; Rivera 2007). De acuerdo con Cañas (2008), la utilidad esperada entre dos decisiones alternativas con al menos dos sucesos inciertos se formaliza de la siguiente manera: Ud1 - p(s1) . u11 + p(s2) . u12 y Ud2 - p(s1) . u21 + p(s2) .u22. Esta medición permite al agente racional comparar y elegir entre la cuantificación de dos utilidades esperadas. El modelo básico de 2d x 2s, en un análisis formal, se ejemplifica de la siguiente forma: “Ramón va a invitar a Marta a escuchar música. En el club Menfis actúa la Killing Me Softly Band. En la Cueva actúan los Vagabudos del Blues, pero además a veces se deja caer por allí a cantar con los Vagabundos… Diamond, y las noches son entonces memorables” (Cañas 2008 61). En tal caso Ramón se enfrenta a dos decisiones posibles: d1 (ir al club

123


Echeverri Álvarez, Jonathan; Lopera Echavarría, Juan Diego & Goenaga Peña, Jesús

Menfis) o d2 (ir a la Cueva). Dos sucesos inciertos: s1 (Diamond pasa por la Cueva) o s2 (Diamond no pasa por la cueva). Y cuatro posibles resultados: r11 (d1 ir al Menfis y s1 Diamond pasa por la Cueva); r12 (d1 ir al Menfis y s2 Diamond no pasa por la cueva); r21 (d2 ir a la Cueva y s1 Diamond pasa por la Cueva); r22 (d2 ir a la Cueva y s2 Diamond no pasa por la Cueva). En este caso concreto, Ramón antes de estimar y comparar la utilidad esperada de las dos posibles decisiones d1 y d2, necesita estimar la probabilidad de ocurrencia de ambos sucesos inciertos, la utilidad a obtener en cada resultado y la jerarquía de utilidades. Ramón estima lo siguiente: probabilidad de ocurrencia del primer suceso incierto s1 (0,15) y probablidad de ocurrencia del segundo suceso incierto s2 (0,85). Es decir, él estima que Diamond probablemente no pasará por la Cueva aquel fin de semana en que invitará a Marta a escuchar música; la utilidad de los dos primeros resultados r11 y r12 (u11 y u12) es de 0,54 (Ramón y Marta estarían a gusto escuchando música en Menfils) y la utilidad de r21 o u21 (lo más satisfactorio es tener una noche memorable con los Vagabundos del Blues y Diamond en la Cueva) es 0,96 y r22 o u22 (sería bueno escuchar a los Vagabundos sin Diamond) es 0,32. Por jerarquía de utilidad, u21 ≥ u11 y u12 ≥ u22. Después, Ramón calcula las utilidades esperadas: Ud1 - p(s1) . u11 + p(s2) . u12 y Ud2 - p(s1) . u21 + p(s2) . u22. Con los datos disponibles, Ud1 - 0,54 y Ud2 - 0.416. Por lo tanto, Ramón en su condición de agente racional invita a Marta a escuchar música en el club Menfis. Los agentes no son racionales por defecto, logran serlo cuando aprenden a realizar un análisis formal de sus propias decisiones y lo aplican a sus vidas. De tal manera que toman decisiones racionales en un sentido amplio. Un agente racional que decide en condiciones de incertumbre (interna y externa), estima el grado de satisfacción o utilidad esperada de cada resultado a obtener, dada la información disponible sobre las opciones de respuesta, y la probalidad de ocurrencia de sucesos inciertos que puedan afectar el resultado esperado. Una vez el agente racional realiza esta tarea pone en marcha el curso de acción que asegura el mayor grado de satisfacción personal, en medio de los sucesos inciertos. Así por ejemplo, retomando el modelo formal simple de elección de 2d x 2s, ¿qué tiempo y recursos requiere un agente racional para tomar una decisión en un escenario de 3d x 3s, 4d x 4s, 5d x 5s, o en situaciones con mayor cantidad de decisiones y sucesos inciertos? ¿O qué habilidades son necesarias para elegir en una situación donde las decisiones en juego exigen una interacción entre intereses individuales y colectivos y, además, el bienestar de algún agente puede resultar afectado (situación propia de un dilema moral)? Las reglas que supone un análisis formal, para tomar la mejor decisión posible, requieren la existencia de entornos con información perfecta y una claridad

124

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 113-137


El cálculo racional para elegir

plena en el agente sobre sus preferencias en el momento de elegir. En relación con el segundo aspecto, de acuerdo con Naishtat (1994), un agente es racional en la medida que satisfaga las siguientes cuatro condiciones: conoce sus preferencias; el conjunto de preferencias es jerárquico y coherente, de tal forma que se pueda asignar un orden numérico de utilidad a cada una de estas de forma creciente; el agente sabe qué medios necesita para satisfacer sus preferencias; y en estas condiciones el agente utiliza los medios con el propósito de escoger la alternativa que reporte un mayor grado de utilidad (criterio de optimización). Estas condiciones necesarias de racionalidad y la exigencia de un análisis formal de la decisión permitió el surgimiento, como alternativa teórica en la segunda mitad de siglo xx, del concepto de racionalidad limitada (Kahneman 2003 [2002]; Pena 2005; Simon 1978, 2000). Simon (1978, 2000) plantea una diferencia entre racionalidad sustantiva y racionalidad procedimental. La primera, corresponde al estereotipo de homo oeconomicus o agente racional. El objetivo principal en este caso consiste en maximizar la utilidad personal. Y la segunda, exige una distinción entre el mundo o estado de posibilidad que ofrece éste y la percepción que tiene el agente para evaluar sus alternativas de elección. La racionalidad procedimental o limitada hace énfasis en los recursos de un agente para decidir, en relación a sus restricciones cognitivas y la presencia de un entorno impredecible para el decisor. Esta concepción sugiere que los individuos tienden a ser satisfactores en vez de maximizadores, es decir, por lo general los individuos eligen una opción con la cual se sienten satisfechos, aunque esta no sea la mejor, en vez de identificar y elegir la mejor alternativa posible. La investigación experimental de Kahneman (2003 [2002], 2012 [2011]), a partir de esta concepción de racionalidad limitada, conduce a elaborar un mapa que indica las características de esta arquitectura cognitiva en la toma de decisiones. La racionalidad es limitada en tanto: Las elecciones de los agentes no están exclusivamente determinadas por un objetivo general como pudiese ser la maximización del nivel de utilidad y por el entorno que rodea al sujeto, sino también por el conocimiento del mundo de aquellos que toman las decisiones, de su habilidad para recordar y extraer conclusiones, de la incapacidad para afrontar la incertidumbre, incluso de su incapacidad para integrar sus deseos en competencia. La racionalidad es limitada por la sencilla razón de que estas habilidades se encuentran severamente condicionadas. Por consiguiente, la conducta racional está tan severamente limitada por el entorno interno o los procesos personales como por el externo (Pena 2005 37).

En síntesis, la noción de agente racional constituye un punto de partida conceptual que posibilita un análisis formal de la decisión, en otras palabras, un trato matemático a la forma supuesta en que los agentes deciden en condiciones

125


Echeverri Álvarez, Jonathan; Lopera Echavarría, Juan Diego & Goenaga Peña, Jesús

de incertidumbre. En este caso el agente conoce a plenitud sus preferencias con su respectiva jerarquía de utilidad, lo que impide la existencia de una incertidumbre endógena, interna o epistémica; pero, a pesar de contar con la información pertinente para elegir, es inevitable la presencia de incertidumbre exógena, externa u ontológica. De ahí la importancia de estimar la probabilidad o posible ocurrencia de sucesos inciertos asociados a cada elección y la medición de la utilidad esperada a obtener en las alternativas de respuesta. La teoría de elección racional que subyace a la teoría de la utilidad esperada, propuesta durante la modernidad, representa una consideración normativa en torno a la decisión. Esta no señala una explicación satisfactoria de cómo los agentes deciden, como luego es demostrado, en la segunda mitad de siglo xx, por los hallazgos experimentales en psicología básica y las consecuentes propuestas teóricas de Simon (1978, 2000) y Kahneman (2003 [2002], 2012 [2011]). Asimismo, la sugerencia normativa implícita a la concepción moderna de utilidad esperada resalta un tratamiento singular de la incertidumbre, al menos ontológica, esto es, precisar el suceso o conjunto de posibles sucesos inciertos que acompañan toda posibilidad de elección y estimar su respectiva probabilidad de ocurrencia. Esto con el propósito de obtener una utilidad esperada en cada opción. A propósito de las restricciones descritas por la psicología contemporánea, de una racionalidad limitada, ¿es posible avisorar otra sugerencia normativa en un tratamiento singular de ambas versiones de la incertidumbre (epistémica y ontológica)?

4. L a deliberación con sabiduría La sabiduría, y su relación con la deliberación en incertidumbre, es un tema de especial interés para la filosofía y la psicología. Por una parte, basta con señalar la interpretación contemporánea sobre la sabiduría práctica que algunos autores retoman de la Ética a Nicómaco en Aristóteles (Aubenque 1999; Lopera 2016; Nussbaum 1995a [1990], 1995b [1986], 1996 [1993]). En tal caso, la sabiduría se postula como recurso valioso para deliberar en la indeterminación; “esa indeterminación en la que se encuentra la ética a la hora de tratar conflictos prácticos” (Camps 2013 402). La reflexión de Aristóteles, sobre la contingencia y la deliberación para elegir, constituye el antecedente filosófico que genera un mayor interés en la filosofía contemporánea (Camps 2013; Schwartz & Sharpe 2010). De otro lado, la sabiduría también es un problema de interés científico en psicología, especialmente, a partir de la segunda mitad de siglo xx (Hall 2010; Sternberg 1994, 2003). Por ejemplo,

126

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 113-137


El cálculo racional para elegir

Baltes y Smith (1994 117) conciben la sabiduría “como un sistema de conocimiento experto sobre la pragmática de la vida”. Una forma de conocimiento experto que, según los autores, es valioso en función del “curso, la variación, las condiciones, la conducta y el significado de la vida” (109). Un saber que se adquiere por experiencia y es útil en acertijos de la vida que exigen un juicio, una virtud o una decisión moral. Estos acertijos se caracterizan por tener un alto nivel de incertidumbre; no es posible identificar un algoritmo moral que permita saber con precisión la mejor alternativa a escojer en diversos dilemas morales; se pone en juego el bienestar de quien decide en relación con el bienestar de otras personas; y exige del decisor una respuesta que tiene implicaciones morales en torno a la convivencia y la forma como asume su vida. De ahí que la sabiduría también se entienda, desde la psicología, como una forma de saber experto sobre asuntos morales de la vida. En este caso, de acuerdo con Yañez, Corredor y Pacheco (2009 263): El concepto de sabiduría tiene una larga historia en la filosofía y religión oriental y occidental. Pero en la psicología este término se reintrodujo en dos vertientes de pensamiento diferentes. Por un lado, en la obra de Erikson y sus primeras formulaciones del ciclo vital, y por otro, como un campo particular de la experticia estudiada en la ciencia cognitiva. Pasando por encima las diferencias entre estas posiciones, lo fundamental de este concepto fue el establecer una distancia con los análisis formalistas de la psicología cognitiva y del desarrollo. El hombre sabio simplemente es aquel que ha logrado una flexibilidad para analizar las situaciones y es aquel que tolera la incertidumbre en todo proceso de decisión.

La referencia a la obra de Erikson, autor reconocido por sus contribuciones teóricas a la psicología del desarrollo en la segunda mitad de siglo xix (Hall 2010; Yañez y otros 2012), indica el interés en principio por el estudio de la sabiduría en la vejez, como un rasgo posible al final del ciclo vital. Y la experticia implica una habilidad que se agudiza con la acumulación permanente de vivencias, de acertijos que demandan sabiduría. Yañez y otros (2012) estiman que las diferentes propuestas teóricas implícitas (aquellas que buscan examinar la compresión de la sabiduría en la psicología popular y el uso que hacen las personas de esta idea en su vida cotidiana) y explícitas (aquellas que tienen como objeto un abordaje científico de la sabiduría a través, por ejemplo, del diseño experimental, baterías psicológicas y la medición objetiva) que se tejen-

127


Echeverri Álvarez, Jonathan; Lopera Echavarría, Juan Diego & Goenaga Peña, Jesús

sobre la sabiduría9 guardan en común las siguientes características: 1. Interés por estudiar habilidades en el desarrollo humano distintas a la creatividad y la inteligencia que demandan un desempeño cognitivo en tareas concretas; en tal caso, a diferencia de estas dos habilidades, “la sabiduría al contrario es el espacio de la incertidumbre, la flexibilidad en el juicio y la riqueza en el reconocimiento del contexto” (p. 279). 2. La sabiduría exige reconocer que el conocimiento y la acción humana hace parte de un escenario interpretativo y contextual. 3. “El ser humano y su estudio demandan teorías que procuren entender su funcionamiento de manera holista y con procesos totales que funcionen de manera armónica con contextos vivenciales y culturales particulares” (p. 280). 4. El desarrollo humano demanda una comprensión cada vez mayor de la complejidad humana en sus interacciones sociales. De ahí, por ejemplo, la importancia de la flexibilidad en el juicio moral. 5. La sabiduría se concibe como capacidad para emitir juicios en asuntos de la vida y la interacción humana. Entre algunas categorías relacionadas con esta habilidad: (…) capacidad de formular preguntas, de manejar la incertidumbre, de ser flexibles y reconocer las particularidades del contexto, el relativismo en el sentido de desprenderse de las reglas rígidas para poder descifrar las demandas del contexto y poder proponer pautas de análisis o planes de acción que sean sensibles a las demandas e historias particulares (280).

En el espectro de estas características nos interesa señalar que un punto de encuentro entre la filosofía y la psicología, a propósito de la sabiduría, es un 9 Para un conocimiento de estas teorías sugerimos ver el trabajo compilatorio de Sternberg (1994), Sternberg, & Jordan (2005) y la revisión teórica de Yañez y otros (2012). En la actualidad, las teorías psicológicas sobre la sabiduría que han adquirido un mayor reconocimiento son la propuesta de Sternberg (2003, 2012) y el equipo del Max Planck para el Desarrollo Humano en Berlín, liderado en su momento, en las décadas 80 y 90 del siglo pasado, por Paul Baltes. Al respecto, ver Baltes y Smith (1994) y Baltes & Freund (2002). Ambas propuestas se inscriben en el marco de las teorías explícitas de la sabiduría. Un aspecto relevante en la teoría de Sternberg (2003 2012) es la idea de balance. De acuerdo con el autor, la sabiduría integra la inteligencia, la creatividad y el conocimiento para el logro de un bien común. Y esto requiere un adecuado balance entre intereses (intrapersonales, interpersonales y extrapersonales) plazos (corto, mediano y largo plazo) y entornos (adaptación a los entornos existentes y selección de nuevos entornos). El balance es la asignación de un peso relativo, de acuerdo a las circunstancias, a cada uno de los componentes señalados para el logro de un bien común. Por otra parte, Baltes y Smith (1994) en su propuesta conciben la sabiduría como una forma de conocimiento experto que se traduce en una “percepción excepcional del desarrollo humano y los asuntos de la vida, juicio excepcionalmente bueno, consejo y comentario sobre los problemas difíciles de la vida” (p. 119). En el desarrollo de la sabiduría se estima el cumplimiento de los siguientes cinco criterios: 1. Rico conocimiento factual (sobre las condiciones de vida y sus variaciones); 2. Rico conocimiento procesual (estrategias de juicio y consejo en asuntos difíciles de la vida); 3. Contextualismo (contextos de vida y sus relaciones); 4. Relativismo (reconocimiento de la diferencia entre valores, prioridades y objetivos, en situaciones que demandan un juicio o una decisón moral); e 5. Incertidumbre (percepción de la propia ignorancia, la indeterminación de la vida, y la forma de particular de relacionarse con ambas; más lejos del control y más cerca del juego y la posibilidad que brinda la ignorancia y la indeterminación).

128

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 113-137


El cálculo racional para elegir

tratamiento singular de la incertidumbre. Una perspectiva que difiere del cálculo racional para elegir, presente como sugerencia normativa en la Teoría de la Utilidad Esperada. Recordemos que en este último caso se estima una ausencia de incertidumbre epistémica, en tanto el agente racional conoce con detalle la naturaleza de sus propias preferencias y actúa en función de estas, estimando a su vez la propabilidad de sucesos inciertos propios de la incertidumbre externa u ontonlógica. En cambio, en la filosofìa, retomando especialmente la ética propuesta por Aristóteles y algunas interpretaciones contemporáneas de estas ideas, según Aubenque (1999), dos elementos centrales que relacionan la sabiduría con la incertidumbre como contingencia que rodea toda deliberación son: primero, una relación cómplice con el azar y segundo, una conciencia de finitud o sabiduría de los límites. Esta relación cómplice con el azar implica reconocer que toda deliberación en incertidumbre constituye un arte falible, es decir, toda deliberación comporta por defecto un riesgo, “incluso infinitesimal, de fracaso” (131). Quien delibera con incertidumbre capta un conjunto de posibilidades, elige una posibilidad y, sin embargo, no puede garantizar con certeza que tal opción constituya la mejor alternativa posible. Las variaciones impredecibles por azar pueden alterar el curso de la opción elegida; también, baraja continuamente las oportunidades de elección. De acuerdo con Nussbaum (1995a [1990] 130) “la buena deliberación es como la improvisación teatral o musical, donde lo que cuenta es la flexibilidad, la sensibilidad y la apertura a lo externo. Apoyarse aquí en un procedimiento numérico no sólo es insuficiente sino un signo de inmadurez y debilidad”. El grado de azar contenido en el entorno que rodea toda elección en ocasiones se resiste a la predicción. Especialmente, en aquellos acertijos de la vida que demandan un juicio o una decisión moral. En este caso, la improvisación, similar a la ejecución de un músico virtuoso de jazz que sigue una partitura (algo así como la experiencia que da contenido a la sabiduría) e introduce alteraciones singulares en función de las más variadas circunstancias, constituye un recurso que se sirve del azar, de la ignorancia y el azar para deliberar en incertidumbre. Lo que en principio fue una suerte de Jazz Standard (temas con diversos intérpretes que adquieren reconocimiento durante la historia en la comunidad de músicos, por ejemplo: Summertime, Round Midnight, All of Me, Stardust, entre otros), con el tiempo adquiere cambios por decisiones del intérprete que se alimentan de la experiencia. De ahí que existan múltiples versiones de los Jazz Standard que se tejen en los Jam Sessions o sesiones de improvisación de Jazz. Y que dan lugar, en situaciones posteriores, a la creación de nuevos Jazz Standard. De hecho, Schwartz & Sharpe (2010), se refieren a la sabiduría práctica, a propósito de la improvisación para deliberar con sabiduría en incertidumbre, como un jazz moral.

129


Echeverri Álvarez, Jonathan; Lopera Echavarría, Juan Diego & Goenaga Peña, Jesús

En otras palabras, quien ejerce sabiduría para decidir en incertidumbre es similar a un músico que sigue una partitura (experiencia de vida) sobre la cual introduce, de ser necesario gracias a la exigencia de casos singulares, algunas variaciones novedosas de elección. Este no percibe la indeterminación del azar como una fuente problemática de incertidumbre, antes bien, se sirve del azar como un recurso para improvisar en su arte. El músico o aquel que delibera con sabiduría obtiene, en cualquier resultado posible, un feedback valioso que articula a su experiencia. El segundo elemento, la sabiduría de los límites, es consecuencia de un conocimiento de sí mismo. Desde esta perspectiva, “el «conócete a ti mismo» no nos invita a encontrar en nosotros mismos el fundamento de todas las cosas, nos recuerda, por el contrario, la conciencia de nuestra finitud: es la fórmula más elevada de la prudencia griega, es decir, de la sabiduría de los límites” (Aubenque 1999 189). Quien delibera con sabiduría se reconoce finito y en consecuencia decide con prudencia. La ignorancia y el azar representan dos puntos de referencia para tomar decisiones. Y ambos varían en función de la experiencia acumulada y el nivel de indeterminación presente en cada situación. Al respecto, Kitchener y Brenner (1994) plantean que “la sabiduría se ha visto asociada a una consciencia de los límites del propio conocimiento personal, los límites generales del saber humano, y la limitada certeza con la que se pueden resolver los problemas mal definidos” (p. 252). En función de esto, la sabiduría demanda “reconocer la naturaleza dialéctica del saber y a la vez tener disciplina y humildad para estudiar y escoger la mejor opción posible” (p. 252). La sabiduría de los límites propios o consciencia de nuestra finitud es consecuencia de un conocimiento de sí mismo, de “ocuparse de uno mismo, cultivarse, cuidar de sí” (Lopera 2016 225). Una vuelta sobre sí mismo, cuando se delibera con sabiduría en incertidumbre, implica entonces un conocimiento de sí mismo, que deriva en una consciencia de finitud y una relación cómplice con el azar a través de la improvisación, es decir, con la articulación armónica entre experiencia y deliberación según lo requiera cada situación particular. Donde el riesgo, en función del nivel de incertidumbre, de alguna manera es inevitable. En relación con esto, Lopera introduce algunas ideas adicionales importantes a tener en cuenta: (...) el conocimiento obtenido por deliberación –adecuado o no- es siempre aproximado, no acabado, puesto que en el caso de la prudencia (y de las decisiones humanas existenciales) hay siempre un elemento azaroso, contingente, que implica actuar dentro de un margen de “indeterminación” (imposibilidad de conocimiento), de allí que se trate de una apuesta o decisión tomada.

130

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 113-137


El cálculo racional para elegir

Por lo anterior, la deliberación ha de ser contrastada en la experiencia, puesta a prueba, examinada por medio de sus efectos en la práctica existencial. Así puede ser corregida, mejorada, modificada, vigorizada. El sujeto va adquiriendo un hábito, un modo de ser caracterizado por esa actitud ética de llevar a la práctica su teoría, su modo de pensar y deliberar. Se trataría de una contrastación dialéctica entre el discurso y la práctica existencial, en un diálogo que transforme ambos aspectos. (Lopera 2016 235).

La contrastación y el hábito constituyen dos aspectos que guardan relación con un retorno sobre sí mismo. Las decisiones morales o existenciales se resisten a un cálculo numérico por el alto nivel de incertidumbre que contienen las mismas y el carácter singular de cada situación que demanda, por ejemplo, flexibilidad en el juicio y la decisión. Quien delibera con sabiduría, en este tipo de decisiones, cuida de sí mismo; es consciente de su finitud (y por lo tanto, de su ignorancia como un límite y posibilidad); establece una relación cómplice con el azar (en tanto reconoce que la deliberación es un arte falible y además se representa la indeterminación como un escenario de contingencias positivas, negativas o neutras en el arte de la improvisación); contrasta sus deliberaciones con la experiencia y desarrolla hábitos que le permiten incorporar en sus acciones el saber contenido en sus propias experiencias. La sabiduría como un recurso de elección se transforma continuamente, de ahí la corrección, mejora o modificación, a través “de una gama de experiencias vitales” (Haidt 2006 187). Desde esta perspectiva, quien ejerce sabiduría para decidir tiene a su disposición un saber y vive aquello que sabe. Manifiesta en su vida una interconexión entre ambos aspectos. Por ejemplo, proclama el ejercicio de la justicia y al mismo tiempo vive la justicia para con sí mismo y los demás. De ahí la relación dialéctica entre lo que dice y hace. En definitiva, el cálculo racional para elegir, tal como se representa en la Teoría de la Utilidad Esperada, por un lado, constituye una ficción explicativa. Y así lo demuestran los estudios contemporáneos en psicología que resaltan la racionalidad acotada o limitada en las decisiones y, por otro lado, representa una sugerencia normativa débil en decisiones morales o existenciales que comportan un alto nivel de incertidumbre. Lo que no excluye la posibilidad de calcular y medir opciones en algunas circunstancias donde esto sea posible. Por ejemplo, en decisiones económicas donde, de forma habitual, se mide el costo y beneficio de cada alternativa de respuesta para elegir. Sin embargo, suponer un conocimiento pleno de las preferencias personales y estimar la probabilidad de un suceso incierto en una decisión moral, implica una estrategia impertinente que merece una discusión. En este escenario, la deliberación con sabiduría comporta una relación singular con la incertidumbre que no está regida por la medición. Antes bien, se sirve de un juego con la incerti-

131


Echeverri Álvarez, Jonathan; Lopera Echavarría, Juan Diego & Goenaga Peña, Jesús

dumbre, de un retorno sobre sí mismo. En el siguiente apartado desarrollamos con mayor atención este último concepto que tiene dos dimensiones estrechamente vinculadas, la ignorancia y el azar. Esto con el propósito de resaltar la interacción que se teje entre la deliberación con sabiduría y las circunstancias, con sucesos imprevistos, que demandan continuamente una elección.

5. Incertidumbre epistémica e incertidumbre ontológica

Toda decisión implica optar por una alternativa. Una apertura y un cierre. Para que una decisión sea posible es necesario contar con al menos dos opciones de respuesta. En este caso, ambas alternativas, por defecto, están precedidas por un grado de ignorancia y por la indeterminación característica del azar. En el orden de la ignorancia, ¿qué conocimiento albergamos sobre los atributos y consecuencias de cada alternativa de respuesta? La amplitud o estrechez de tal conocimiento configura la primera forma de incertidumbre, esta hace referencia a limitaciones epistémicas presentes en el decisor. En el orden del azar, ¿cuál es el nivel de aletoriedad presente en el contexto que exige tomar una decisión? De acuerdo con Mandelbrot (1996), el azar puede manifestarse de forma benigna, salvaje o lenta. Estas manifestaciones dependen del nivel de indeterminación y posible predicción de los acontecimientos. Y en las tres está presente la irregularidad. Es decir, un suceso es azaroso en cuanto su expresión acontesca de forma irregular, sin un patrón establecido. En el azar benigno la predicción es posible, aunque no exacta, y la indeterminación es aceptable. En el azar salvaje la predicción es imposible y el nivel de indeterminación intolerable. Y el azar lento constituye un azar benigno que se comporta como salvaje. A gran escala, en el tiempo, los sucesos con azar lento son predecibles pero a pequeña escala temporal estos no son predecibles por la lentitud presente en los cambios. De ahí que la evolución por selección natural sea un ejemplo central en este caso (Mandelbrot 1996). Existen incertidumbres que son singulares y otras que son compartidas (Taleb 2011 [2007]). Es decir, el nivel de incertidumbre es distinto para cada persona, en relación con su nivel de ignorancia y el contexto habitual o imprevisto donde cada cual toma decisiones (Taleb 2009 [2004], 2011 [2007]; Kahneman 2012 [2011]; Rivera 2007). Y a su vez esta es compartida, en tanto el nivel de ignorancia es similar y el contexto de elección es indéntico para un conjunto de decisores. El nivel de incertidumbre y riesgo en cada decisión varía en función del nivel de azar e ignorancia presente en la percepción de las alternativas de respuesta. Hay

132

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 113-137


El cálculo racional para elegir

un alto nivel de incertidumbre cuando hay un alto nivel de ignorancia y el azar presente en el contexto de elección es salvaje, por lo tanto, el riesgo para el decisor es igualmente alto. Y existe un bajo nivel de incertidumbre cuando hay un bajo nivel de ignorancia y el azar presente en el contexto de elección es benigno, por lo tanto, el riesgo para el decisor es bajo. Al respecto, Taleb (2011 [2007] 450) afirma que “la distinción entre incertidumbre epistémica y óntica es importante desde el punto de vista filosófico, pero absolutamente irrelevante en el mundo real. Cuesta muchísimo desentrañar la incertidumbre epistémica de la más fundamental”. En otras palabras, en un dominio de incertidumbre, de acuerdo con el autor, la ignorancia y el azar son indisociables. Además de conservar un nivel de ignorancia, es difícil prever el nivel de azar presente en cada contexto que exige tomar una decisión. El agente racional, en estos casos, procura conocer a la perfección sus preferencias y estima con el mayor grado de exactitud posible la problabilidad de sucesos inciertos presentes por la incertidumbre exógena. En cambio, el agente que ejerce la sabiduría para deliberar en incertidumbre reconoce sus limitaciones en ambos sentidos y, en consecuencia, decide con prudencia. Especialmente, en aquellas decisiones morales o existenciales con alto grado de incertidumbre. Esto no implica una ausencia de interés por la predicción en cualquier dominio de elección. Avisorar estados posibles en cada decisión constituye igualmente un recurso imaginativo en la deliberación (Nussbaum 1995a [1990], (1995b [1986]). Además, el heurístico representa un recurso de elección cuando el tiempo es corto para decidir. Incluso, el ser humano hace uso de esta posibilidad tomando como base sus creencias a través del recurso heurístico. De acuerdo con Rivera (2007 17): “El bajo nivel de conocimiento que tiene el lego sobre ciertos estados del mundo, lo obliga a recurrir a estas reglas (…) Desde sus creencias describen “posibles” estados del mundo (…)Tanto el experto como el lego hacen uso de estas probabilidades subjetivas al evaluar eventos con bajos grados de conocimiento”. El experto también hace uso de estas reglas. No sólo es un recurso del lego, ante el bajo nivel de conocimiento, en tanto que estas reglas son sedimentos de experiencias. Ahora bien, deliberar con sabiduría no implica sustraerse de imaginar estados posibles o renunciar al heurístico para decidir en incertidumbre. Recordemos que esta sugerencia, a diferencia del agente racional, tiene como punto de partida la condición de racionalidad limitada presente en las decisiones. El agente que delibera con sabiduría entonces, imagina estados posibles y hace uso de la heurística para decidir. Pero está pendiente que tales recursos, por ejemplo, no materialicen un prejuicio cuando una alternativa se percibe con mayor atracción que otra.

133


Echeverri Álvarez, Jonathan; Lopera Echavarría, Juan Diego & Goenaga Peña, Jesús

6. Conclusión La objeción de Kahneman (2003 [2002]) a Bernoulli (1954 [1738]) expone una característica frecuente en el tratamiento moderno de la toma de decisiones, esto es, una ausencia de tensión en el lenguaje descriptivo y normativo. En la medida que Bernoulli (1954 [1738]) presenta una posible explicación de la decisión en condiciones de incertidumbre, este desarrolla una sugerencia normativa sobre cómo los agentes deben decidir de forma razonable. La tesis principal que presentamos en este artículo sugiere la deliberación con sabiduría como un recurso más adecuado para decidir en incertidumbre. La propuesta explicativa que deriva de la ciencia de la medición propone una reducción de la incertidumbre; contrario a la opción ética de elegir con sabiduría cuyo punto de partida es un retorno sobre sí mismo. En otras palabras, la deliberación con sabiduría centra su atención en principio en un cuidado de sí mismo reconociendo de forma permanente las limitaciones epistémicas e irregulares, propias del azar, para elegir. Y esto especialmente en aquellos casos donde se toman decisiones morales. Es decir, en decisiones que tienen un efecto en el bienestar personal y colectivo, y el nivel de incertidumbre, por la singularidad de las circunstancias, es alto. La sabiduría como un recurso para decidir, adquirida por experiencia, representa en la actualidad un objeto de interés para la filosofìa y la psicología. De una parte como sugerencia ética para deliberar en incertidumbre. Y de otra parte, como objeto de estudio científico en seres humanos que han logrado incorporar un saber que les permite tener la suficiente flexibilidad, en el juicio y la decisión, para evaluar con discernimiento las circunstancias y emitir una repuesta que exhibe una relación armónica entre la deliberación y la experiencia adquirida. Entre la deliberación y la improvisación similar a una ejecución virtuosa de jazz.

Trabajos citados Aristóteles. Ética a Nicómaco. Madrid: Instituto de Estudios Políticos, 1970. Aubenque, P. La prudecia en Aristóteles. Barcelona: Editorial Crítica, 1999. Baltes, P., Smith, J. “Hacia una psicología de la sabiduría y su ontogénesis”. En: Sternberg, J. (Ed.), La sabiduría. Su naturaleza, sus orígenes y desarrollo (pp. 109-148). Bilbao: Editorial Desclée De Brouwer, S.A., 1994. Baltes, P., Freund, A. “The intermarriage of wisdom and selective optimization with compensation: Two metaheuristics guiding the conduct of life”. En: Keyes, C., Haidt, J. (Eds.), Flourishing: Positive Psychology and the Life Well-Lived (pp. 249-273). Washington D.C., 2002. 134

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 113-137


El cálculo racional para elegir

Baron, J. Thinking and Deciding. Cambridge: Cambridge University Press, 2008. Bernoulli, D. “Exposition of a New Theory on the Measurement of Risk”. Econometrica 22.1 (1954 [1738]): 23-36. Bernstein, P. Against the gods. The remarkable story of risk. New York: John Wiley & Sons, Inc., 1998. Buchanan, L., O´Connell, A. “Breve historia de la toma de decisiones”. Harvard Deusto Review Enero (2006): 1-10. Cañas, L. El falso dilema del prisionero. Una visión más amplia de las decisiones racionales. Madrid: Alianza Editorial, S.A., 2008. Camps, V. El gobierno de las emociones. Barcelona: Herder Editorial, S.L., 2011. _____.Breve historia de la ética. Barcelona: RBA Libros S.A., 2013. Dennett, D. Romper el hechizo. La religión como fenómeno natural. Barcelona: Katz Editores, 2007 [2006]. García, A. “Aristóteles: silogismo práctico y akrasía”. A Parte Rei. Revista de Filosofía 50 (2007): 1-17. Glimcher, P. Decisiones, incertidumbre y el cerebro. La ciencia de la neuroeconomía. México D.F. Fondo de Cultura Económica, 2009. Haidt, J. La hipótesis de la felicidad. La búsqueda de verdades modernas en la sabiduría antigua. Barcelona: Editorial Gedisa, 2006. Hall, S. Wisdom From Philosophy to Neuroscience. New York: Alfred A. Knopf, 2010. Kahneman, D. “Mapas de racionalidad limitada. Psicología para una economía conductual”. Revista Asturiana de Economía 28 (2003 [2002]): 181-225. _____.Pensar rápido, pensar despacio. Barcelona: Random House Mondadori, S.A., 2012 [2011]. Kahneman, D., Tversky, A. “Prospect Theory: An Analysis of Decsions Under Risk”. Econometrica 47.2 (1979): 263-291. Kitchener, K., Brenner, H. “Sabiduría y juicio reflexivo: el saber ante la incertidumbre”. En: Sternberg, J. (Ed.), La sabiduría. Su naturaleza, sus orígenes y desarrollo (pp. 249-269). Bilbao: Editorial Desclée De Brouwer, S.A., 1994. León, O. “La toma de decisiones individuales con riesgo desde la psicología”. Infancia y Aprendizaje 30 (1987): 81-94.

135


Echeverri Álvarez, Jonathan; Lopera Echavarría, Juan Diego & Goenaga Peña, Jesús

Lidley, D. Understanding uncertainty. New Jersey: John Wiley & Sons, Inc., 2006. Lopera, J. Sabiduría práctica y salud psíquica. Bogotá: Editorial San Pablo, 2016. Mandelbrot, B. “Del azar benigno al azar salvaje”. Investigación y Ciencia 243 (1996): 14-21. Naishtat, F. “Racionalidad, determinismo y tiempo en la decisión humana”. En: Bleichmar, S. (Compiladora), Temporalidad, determinación, azar. Lo reversible y lo irreversible (pp. 149-182). Buenos Aires: Paidós, 1994. Nussbaum, M. “El discernimiento de la percepción: una concepción aristotélica de la racionalidad privada y pública”. Estudios de Filosofía (Instituto de Filosofía de la Universidad de Antioquia) 11 (1995a [1990]): 107-167. _____.La fragilidad del bien: fortuna y ética en la tragedia y la filosofía griega. España: Visor, 1995b [1986]. _____.“Virtudes no relativas: un enfoque aristótelico”. En: Nussbaum, M., Sen, A. (Eds.), La calidad de vida (pp. 318-360). México: Fondo de Cultura Económica, 1996 [1993]. Pena, J. “El problema de la racionalidad en economía o las inconsistencias del Homo oeconomicus”. Estudios Filosóficos (Valladolid) 155.54 (2005): 33-57. Platón. Diálogos I. Protágoras. Madrid: Editorial Gredos, S.A., 1985. Rivera, J. “La borrosa distinción riesgo-incertidumbre”. Tecnológicas 19 (2007): 13-46. Simon, H. “Rational decision-making in bussiness organizations”. Nobel Memorial Lecture (1978): 333-371. Simon, H. “Bounded rationality in social science”. Mind and society 1 (2000): 25-39. Sternberg, R. La sabiduría. Su naturaleza, orígenes y desarrollo. Bilbao: Editorial Descleé de Brouwer, 1994. _____.Wisdom, Intelligence, and Creativity Synthesized. Cambridge University Press, 2003. _____.“Una teoría balance de la sabiduría”. Persona enero-diciembre 15 (2012): 19-39. Sternberg, R., Jordan, J. A Handbook of Wisdom. Psychological Perspectives. Cambridge: Cambridge University Press, 2005.

136

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 113-137


El cálculo racional para elegir

Schwartz, B., & Sharpe, K. Practical Wisdom. The right way to do the right thing. New York: Riverhead Books, 2010. Taleb, N. ¿Existe la suerte? Las trampas del azar. Barcelona: Ediciones Paidós Ibérica, S.A., 2009 [2004]. _____.El Cisne Negro. El impacto de lo altamente improbable. Barcelona: Paidós Transiciones, 2011 [2007]. Yañez, J., Corredor, J., Pacheco, L. “La sabiduría y la psicología del desarrollo moral”. Diversitas: Perspectivas en Psicología 5.2 (2009): 255-268. Yañez, J., Perdomo, A., Corredor, J., Mojica, A., Fonseca, M., Bustamante, N., Correa, A. Serie: cognición, moral y desarrollo psicológico. Tomo III: Experticia, sabiduría y desarrollo moral. Bogotá: Corporación Universitaria Minuto de Dios, 2012.

137



Los artefactos en cuanto posibilitadores de acción. Problemas en torno a la noción de agencia material en el debate contemporáneo1,2

A rtifacts, agency and affordances. Some issues concerning the concept of material agency in contemporary debate

Diego Parente3,4

R esumen La recuperación de la materialidad como tópico de análisis en el pensamiento contemporáneo ha derivado principalmente de los teóricos de la sociología, la antropología y la arqueología. Este impulso dio lugar al surgimiento de una serie de enfoques habitualmente reunidos bajo la denominación agencia material (material agency). Desde una perspectiva centrada en los problemas de filosofía de la técnica, el propósito de este artículo es proponer una noción de agencia que logre integrar adecuadamente el entorno material donde se despliega las acciones y el conjunto de affordances (o posibilidades de acción) que los artefactos y sistemas técnicos abren al interior de una cultura. Con este objetivo la primera parte de este trabajo se dedica a explorar críticamente la propuesta de tres representantes paradigmáticos del enfoque de la agencia material cuyas teorías tienen implicaciones cruciales para una teoría de los artefactos. A fin de esclarecer estas últimas, la segunda sección propone discutir cuatro sentidos de agencia que se hallan con frecuencia en el debate contemporáneo sobre agencia material. La tercera sección, en último término, señala las aporías de los sentidos de agencia reconstruidos y defiende una noción de agencia andamiada que resulta refractaria a un enfoque completamente simétrico sobre organismos y artefactos. Palabras clave: Artefactos, Agencia material, Materialidad, Latour, Principio de simetría.

A bstract The recovery of materiality as a relevant topic in contemporary thought has derived mainly from theorists of sociology, anthropology and archeology. This impulse gave rise to multiple approaches now commonly grouped under the term material agency. From a perspective situated in philosophy of technology the main purpose of this paper is to propose a notion of agency that properly integrates the material environment and the set

1 Recibido: 2 de abril de 2016. Aceptado: 25 de septiembre de 2016. 2 Este artículo se debe citar así: Parente, Diego. “Los artefactos en cuanto posibilitadores de acción. Problemas en torno a la noción de agencia material en el debate contemporáneo”. Rev. Colomb. Filos. Cienc. 16.33 (2016): 139-168. 3 Consejo Nacional de Investigaciones Científicas y Tecnológicas (CONICET). Universidad Nacional de Mar del Plata. Correo electrónico: diegocparente@yahoo.com 4 Mar del Plata (Argentina).


Parente, Diego

of affordances opened by artifacts and technical systems within a culture. With this aim the first part of this work critically explores three paradigmatic approaches to material agency, three theories that have crucial implications for a theory of artifacts. The second part of this paper discusses four senses of agency that are pervasive in the contemporary debate about material agency. The third section, ultimately, points out the difficulties of the previously reconstructed senses of agency and defends a notion of scaffolded agency not compatible with a fully symmetrical approach to organisms and artifacts. Keywords: Artifacts, Material Agency, Materiality, Latour, simmetry principle.

En ocasiones la justa recuperación de un cierto sector ontológico conlleva la introducción de confusiones y de problemas terminológicos. El rescate de la materialidad en el ámbito de la filosofía de la técnica es uno de esos casos. Confinada a los márgenes y despreciada en el marco de una ontología dualista de la creación técnica, resulta curioso (al menos luego de K. Marx) que la materia no haya sido considerada apropiadamente en la historia reciente de la interrogación sobre la técnica. A excepción de Gilbert Simondon5, la recuperación de la materialidad como tópico de análisis en el pensamiento contemporáneo ha derivado principalmente de investigadores ajenos a la filosofía quienes han propuesto diversos modelos de externalización de la agencia y la cognición, ya sea desde la antropología y la sociología (Latour 2008; Ingold 2007; Gell 1998; D. Miller 2005), la ciencia cognitiva (Hutchins 1995) o la arqueología (Malafouris 2013; Olsen 2003). La cuestión que ha surgido en este contexto es si los entes materiales tienen agencia y en qué sentido esta condición impacta en el dualismo humano/no humano como base para comprender la acción, la intencionalidad y la producción, entre otros tópicos. Como es sabido, la cuestión de qué es exactamente agencia y cómo es posible identificar a un agente genuino es en cierto modo un problema transversal a la filosofía de la acción, la filosofía de la técnica, la ética, la filosofia de la mente y, de una manera más indirecta, también para la antropología filosófica, la Inteligencia Artificial, los estudios de cognición animal y la teoría estética. Desde una perspectiva centrada en los problemas de filosofía de la técnica, el propósito de este artículo es proponer una noción de agencia que logre integrar adecuadamente el entorno material donde se despliega las acciones 5 Una de las excepciones disciplinares a esta afirmación es Simondon (2009), quien sí se ocupó de recuperar la relevancia de la materialidad en el marco de una feroz crítica al dualismo y al esquema hilemórfico de creación técnica. Más recientemente Preston (2013) ha intentado reinvindicar la necesidad de usar la noción antropológica de “cultura material” para el ámbito de indagación filosófica sobre los artefactos.

140

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 139-168


Los artefactos en cuanto posibilitadores de acción

y el conjunto de affordances (o posibilidades de acción) que los artefactos y sistemas técnicos abren al interior de una cultura. Con este objetivo la primera parte de este trabajo se dedica a explorar críticamente la propuesta de tres representantes paradigmáticos del enfoque de la agencia material (Latour, Gell y Malafouris) cuyas teorías tienen implicaciones cruciales para una teoría de los artefactos. En este sentido se procura evaluar los alcances de dicha tesis, determinar su coherencia interna y mostrar algunas dificultades importantes que se desprenden de ella. A fin de esclarecer estas últimas, la segunda sección se ocupa de discutir cuatro sentidos de agencia que se hallan con frecuencia en el debate contemporáneo sobre agencia material. La tercera sección, en último término, señala las aporías de los sentidos de agencia reconstruidos y defiende una noción de agencia extendida/andamiada que resulta refractaria a un enfoque completamente simétrico sobre organismos y artefactos.

1. L a pregunta por la agencia material: una aproximación A grandes rasgos podríamos decir que hay dos grandes perspectivas que marcan el territorio de indagación sobre los artefactos desde su tematización disciplinar hacia inicios de siglo xx. La primera de ellas es la perspectiva instrumentalista que sugiere que los artefactos son meros medios de acción moralmente neutros. La segunda perspectiva sostiene que los artefactos y sistemas técnicos tienen agencia, por lo cual rechaza toda adscripción de neutralidad. Como bien señalan Illies y Meijers (2014) hay en verdad dos debates distintos tras estas dos perspectivas globales sobre la técnica, dos debates cuyo contenido no debería ser mezclado o confundido. El primer debate se relaciona con los modos bajo los cuales los artefactos técnicos afectan a nuestro mundo, es decir, aquello que está en juego es si ellos determinan activamente sus efectos de modo autónomo o, por el contrario, si tienen más bien un rol pasivo en tanto que extensiones del cuerpo humano. Illies y Meijers (2014) lo denominan el “debate sobre la Autonomía” dado que lo que está en juego aquí es si la influencia de los artefactos es completamente explicable en términos de las intenciones del diseñador y usuario, o bien si tal influencia excede su control e implica algún grado de autonomía. El segundo debate se relaciona con la relevancia moral de los artefactos. Allí aparecen conexiones con las dos posiciones del debate sobre la autonomía (la tesis de la neutralidad y la tesis de la responsabilidad moral). En el marco de este trabajo nos restringiremos al primer debate sin que eso signifique que sea posible un completo aislamiento del vocabulario asociado al ámbito moral.

141


Parente, Diego

Ahora bien, ¿de qué hablamos cuando hablamos de agencia material? Como se señaló anteriormente la idea de agencia material reúne a una serie de planteos que intentan recuperar el protagonismo de los mediadores técnicos en varios sentidos. La tesis fundamental de las posiciones que se reúnen bajo tal denominación es que las entidades materiales poseen la cualidad de agencia: los entes artificiales son genuinos agentes en el mundo. De acuerdo con esta tesis, la cualidad de agencia está distribuida entre las distintas clases de entes que pueblan el ambiente, ya sea organismos humanos o no humanos, ya se trate de máquinas o de sistemas técnicos. Ciertamente esta tesis se presenta en el debate contemporáneo bajo una multiplicidad de modalidades, tanto metodológicas como de contenido. Bruno Latour, Lambros Malafouris y Alfred Gell ofrecen tres versiones destacadas de este planteo que procuraremos explorar en las siguientes secciones.

1.1. Los artefactos en cuanto actantes: la idea latouriana de agencia No es casual que esta tesis que atribuye agencia a artefactos haya tenido su origen y, a la vez, su consenso más fuerte en la década del ochenta en el territorio de la sociología de la ciencia y la tecnología, más específicamente dentro de la teoría del Actor-Red. En este contexto Bruno Latour (1994 y 2008) ha insistido en la necesidad de que la investigación sociológica considere seriamente en sus explicaciones a los mediadores materiales, los cuales suelen estar desterrados de la sociología clásica.6 La propuesta de Latour rechaza toda distinción tajante entre agencia primaria en humanos y agencia secundaria en artefactos y, a la vez, sugiere utilizar un análisis simétrico de los nodos humanos, naturales y artificiales. De tal manera esta teoría se enfrenta a la idea de que haya a priori tres tipos de entidades (natural, humano y artificial). Estas categorías no son el punto de partida o el factum inicial sobre el cual opera la actividad del sociólogo, sino que constituyen, más bien, el resultado de extensas negociaciones. El desafío de recuperar el valor de los mediadores materiales implica, en este contexto, resignificar el contenido de lo que entendemos por agencia. Los objetos, sostiene Latour, tienen capacidad de agencia: los cuchillos “cortan”, 6 Este destierro de los mediadores materiales es bien visible en Émile Durkheim, quien escribe: “el impulso que determina las transformaciones sociales no puede venir de lo material ni de lo inmaterial, porque no posee el poder de motivación” (Durkheim 1966 113). En esta reconocida definición de Durkheim los objetos–sostiene Latour- viven en los márgenes de lo social, haciendo la mayor parte del trabajo pero sin que se permita mostrarlo (Latour 2008 109).

142

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 139-168


Los artefactos en cuanto posibilitadores de acción

las pavas “hierven” agua, los canastos “cargan” provisiones. Estos verbos designan acciones y cualquier cosa “que modifica con su incidencia un estado de cosas es un actor o, si no tiene figuración aun, un actante” (Latour 2008: 106). Al respecto afirma Latour: Debemos aprender a atribuir (...) acciones a muchos más agentes de lo que resulta aceptable para el enfoque materialista o sociologista. Los agentes pueden ser humanos o (...) no humanos, y cada uno puede tener metas (o funciones, como prefieren decir los ingenieros). Dado que la palabra agente en el caso de los no humanos es poco común, un mejor término es actante, un préstamo de la semiótica que describe cualquier entidad que actúa en un plot hasta la atribución de un rol figurativo o no figurativo (“ciudadano”, “arma”) (1994 33).

De acuerdo con esta perspectiva un actor (humano o no humano) es simplemente un rol cumplido dentro de un sistema independientemente de su naturaleza (Latour 1992 236). Aquí Latour adopta una perspectiva sociológica que legítimamente se desinteresa por el estatuto ontológico de los actores: ser actor equivale a tener un rol causal dentro de los acontecimientos y procesos que el científico social pretende explicar. De hecho, el sociólogo no se enfrenta jamás con individuos sino con “cadenas que son asociaciones de Humanos y No-Humanos” (Latour 1991 110). El poder, la intencionalidad y la agencia no son propiedades del individuo o la cosa concebidos aisladamente. Son, más bien, propiedades de una cadena de asociaciones. En resumen, los artefactos pueden ser incluidos en la categoría de actantes 7, una entidad que “hace cosas” (Latour 1992 241) o que “desplaza acciones” (Akrich & Latour 1992 259). Según Latour, aquello que hacen estos agentes materiales, además de determinar y servir como telón de fondo de la acción humana, es “autorizar, permitir, dar los recursos, alentar, sugerir, influir, bloquear, hacer posible, prohibir”, es decir, privilegiar ciertos programas de acción y obstaculizar otros. Latour profundiza este sentido de agencia cuando se refiere a su noción de mediación técnica, que puede ser abordada en sus aspectos de composición y de delegación. En su faceta de composición, la mediación involucra siempre varios actantes que realizan conjuntamente una accion. La responsabilidad por esa acción está distribuida a través del ensamble de partes. La acción, insiste Latour, no es solamente una condición de los humanos sino de una asociación de actantes. Es el ensamble [persona+arma] el que produce un asesinato, y no la persona sola (Latour 1994). Así la mediación 7 El término actante fue usado en semiótica para designar al participante (persona, animal o cosa) en un programa narrativo. Para Greimas (1990) el actante es quien realiza el acto, independientemente de cualquier otra determinación.

143


Parente, Diego

no consiste solamente en la traducción de programas de acción sino también en la conexión de los actantes. Paralelamente, en su faceta de delegación Latour estudia el caso del lomo de burro (o “policía acostado” como lo denominan en algunos sitios de Latinoamérica). La función policial de impedir que los conductores infrinjan el límite de velocidad permitido para la zona es delegada sobre esa pieza de cemento. Esto se logra debido a que la presencia material del cemento fuerza a los conductores a reducir su velocidad (por lo menos a aquellos que, razonablemente, no quieren dañar su propio automóvil). El diseñador ha logrado inscribir en el lomo de burro un determinado programa de acción que sigue funcionando allí independientemente de su presencia. En otras palabras, Latour sugiere que para abordar el problema de la agencia debemos utilizar un abordaje simétrico sobre humanos y no humanos. Ninguno de los dos tiene a la agencia como una esencia preestablecida; la agencia sólo surge en el marco de relaciones, de modo que la naturaleza de los actores es siempre “híbrida”. Ahora bien, como se profundizará en la sección 2.4. de este artículo, en el interior de la teoría de Latour aparece la tensión entre intencionalismo y antiintencionalismo propia del debate contemporáneo en filosofía de los artefactos. Uno de las dificultades -que no podremos profundizar por motivos de extensión- consiste en que detrás del análisis deliberadamente simétrico de Latour hay una suerte de asimetría estructural o fundante que es aquella que supone que sólo los agentes humanos prototípicos (diseñadores) disponen de la capacidad para “inscribir” programas de acción en los distintos artefactos o sistemas. El lomo de burro requiere por su propia condición el ser “inscripto” por un diseñador, que lo coloca en esta calle y no en esta otra. La puerta hidráulica no es autónoma en el sentido de que se otorgue a sí misma el programa de acción para cerrar puertas. Si bien se instancia en objetos materiales, el proceso de inscripción está siempre guiado por un tipo de acción humana prototípica: la de los diseñadores que planifican, anticipan e identifican los escenarios posibles de anti-programas y en vistas de lo anterior conciben una suerte de funcionamiento óptimo del artefacto o sistema creado para finalmente dar lugar a la construcción de una entidad material que se ajuste a dicho funcionamiento.8

8 Como un problema lateral que no podremos abordar aquí queda una profunda tensión al interior del vocabulario latouriano: una teoría de la agencia material de vertiente claramente anti-intencionalista (en la medida en que la agencia está distribuida en entidades que carecen de intenciones en sentido estricto) en conjunción con la idea de que sólo los diseñadores son capaces de “inscribir” funciones en los artefactos (una posición que en el debate contemporáneo se identifica con el intencionalismo fuerte sobre el estatuto de las funciones técnicas).

144

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 139-168


Los artefactos en cuanto posibilitadores de acción

1.2. Modalidades de la tesis de la agencia material en antropología y arqueología Dos autores cuyos modelos son legítimamente incluídos dentro del enfoque de agencia material son los de Alfred Gell y Lambros Malafouris. Si bien el contenido de sus teorías involucra claras referencias a modelos filosóficos, el primero lo hace desde la antropología, mientras que el segundo ofrece su perspectiva desde la arqueología. Veamos en qué sentido estas posiciones se solapan o agregan nuevas tesis a las ya trabajadas en la sección anterior.

1.2.1. Agentes primarios y secundarios según Alfred Gell En su obra Art and agency, Alfred Gell (1998) ofrece una versión en cierto modo “débil” de la tesis de la agencia material. Su propósito, por supuesto, no es indagar la agencia en el marco de las discusiones de la filosofía de la acción sino elaborar una crítica de la teoría “estética” del arte que permita pensar cómo una obra se constituye bajo la forma de una agencia distribuida de algunos sujetos sobre otros sujetos. Según Gell, mediante una operación que llama “abducción de la agencia” tendemos naturalmente a imaginar la existencia de algún tipo de agencia social cuando encontramos un efecto en una obra artística. La obra de arte es un índice, afirma Gell, y debe ser interpretada como tal (Gell 1998 13). Precisamente los contextos de tipo artístico permiten una operación cognitiva de abducción de la agencia. Ahora bien las teorías tradicionales sobre la agencia se mueven por otros caminos. Según Gell: Las teorías filosóficas sobre los ‘agentes’ presuponen la autonomía y autosuficiencia del agente humano; pero yo estoy más preocupado por el tipo de agencia de segunda clase que los artefactos adquieren una vez que se mezclan en un entramado de relaciones sociales. De cualquier modo, dentro de este entramado relacional, los artefactos pueden ser tratados como agentes en una variedad de modos (Gell 1998 17).

En la vida social ciertos artefactos, tales como los dólares y los autos, aparecen como “agentes” avalando cierto animismo que opera dentro de la estructura de relaciones sociales. Los artefactos, con sus propiedades físicas, son tan esenciales para el ejercicio de la mente como los estados mentales (Gell 1998 20). En el medio de la guerra, por ejemplo, un soldado tiene su agencia “distribuida” en las armas y las minas antipersonales (Gell 1998 21). De tal modo la agencia social se manifiesta a través de la proliferación de fragmentos de agentes intencionales “primarios” en sus formas artificiales “secundarias” (Gell 1998 21). Otra forma en que ciertos objetos muestran su condición de agentes se revela en cómo son vivenciados por los humanos en su cotidia145


Parente, Diego

neidad, es decir, cómo los interpelamos y experimentamos. En las culturas urbanas, por ejemplo, los automóviles son constantemente antropomorfizados, tratados como individuos que nos “dan” esto o nos “piden” aquello. Por supuesto, aclara Gell, el automóvil puede aparecer como un potencial “agente” con respecto a mí como paciente, pero no con respecto a sí mismo como automóvil (Gell 1998 22). ¿Cómo funciona, entonces, la atribución de agencia a objetos artificiales? Tanto en el caso de los ídolos materiales asentados en diversos monumentos así también como en el caso singular de una muñeca perteneciente a una niña, estos objetos son “otros pasivos”, es decir, son targets o destinos de la agencia, pero nunca constituyen una fuente independiente de agencia (Gell 1998 129). Es evidente que esta caracterización de los artefactos en cuanto agentes secundarios es de un tenor distinto a la ofrecida por Latour. Aquí la agencia secundaria situada en los artefactos depende, no sólo para su construcción sino también para su sentido, de la preexistencia de humanos dotados de agencia primaria. De tal modo Gell representa una forma débil de la tesis de la agencia material dado que distingue entre una agencia secundaria (depositada en los artefactos u obras estéticas) y una agencia primaria rectora que se ubica exclusivamente en la esfera de los diseñadores y usuarios humanos, quienes están dotados de la capacidad para iniciar acciones o eventos mediante actos de voluntad o intenciones. Lo cierto es que los artefactos, en cuanto agentes secundarios, si bien no están dotados de voluntad, resultan esenciales para la formación, la aparición o manifestación de acciones intencionales; es decir, conforman lo que Sterelny (2010) denomina un nicho artificial que permite la emergencia de una agencia “andamiada” (scaffolded).

1.2.2. Malafouris: la agencia como producto emergente del involucramiento material La propuesta de Lambros Malafouris (2013), en cambio, implica una radicalidad distinta, en cierto modo asociable a la posición de Latour ya vista anteriormente. Poniendo su foco en la escena poiética de tipo artesanal (específicamente la labor del alfarero con su arcilla y su rueda de trabajo), Malafouris descubre que dicho escenario no muestra a un agente humano que impone sus deseos arbitrariamente sobre una materia inactiva y neutral. Por el contrario, la escena se interpreta mejor como una danza sinérgica y simétrica (a nivel agencial) entre las habilidades del alfarero, aquello que ofrecen las mediaciones productivas y las condiciones singulares propias del material trabajado (en este caso, la arcilla). Al respecto afirma Malafouris: “la mano toma la arcilla en el modo en que la arcilla solicita ser tomada, entonces la acción

146

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 139-168


Los artefactos en cuanto posibilitadores de acción

deviene destreza, la destreza selecciona y efectúa resultados, y la agencia creativa emerge (...) ”(2013 213). En este marco no resulta extraño que Malafouris retome explícitamente los modelos contemporáneos de externalización de la mente y la cognición (Clark & Chalmers 1998; Hutchins 1995) y afirme que es el compuesto fenomenológico de “cerebro, cuerpo y recursos” lo que articula las fronteras de este ensamble inteligente que soluciona problemas. El compuesto [alfarero--cuerpo----mente-----rueda-----arcilla] es, en rigor, el que tiene agencia, y no sus partes por separado.9 Es decir, en la medida en que la agencia y la intencionalidad no pueden ser propiedades de las cosas, ellas tampoco son propiedades de los humanos; son, más bien, propiedades del involucramiento material (material engagement), es decir, de la “zona gris en la que confluyen cerebro, cuerpo y cultura” (Malafouris 2008 22). La agencia no es una propiedad o posesión de humanos o no-humanos. Es el producto relacional y emergente del involucramiento material (2008 34). De tal modo, la pregunta fundamental para Malafouris no es “qué es agencia” (en cuanto propiedad o sustancia universal) sino, más bien, “cuándo y cómo se constituye y manifiesta la agencia en el mundo” (Malafouris 2013 147). Y es en este sentido que la noción de agencia material debe usarse como un “amuleto conceptual homeopático” que nos protege recordándonos que En el involucramiento humano con el mundo material no hay roles fijos y separaciones ontológicas claras entre entidades-agentes y entidades-pacientes; más bien, hay un entrelazamiento constitutivo entre intencionalidad y accesos prácticos (affordance). El artefacto no es una pieza de materia interte sobre la cual uno actúa, sino algo activo con lo cual uno se involucra e interactúa. No podemos suturar la brecha cartesiana entre personas y cosas sin estar dispuestos a compartir una parte sustancial de nuestra eficacia agentiva humana con los medios que hicieron posible en primer lugar el ejercicio de tal eficacia (Malafouris 2013 149).

Como se habrá notado el peso del argumento de Malafouris reside en trasladar la cuestión de la agencia a la pregunta por sus modos de manifestación. Pero 9 Esta modalidad de argumento externalista que deflaciona las condiciones propias del individuo aparece también en Hutchins (2008) en términos de una externalizacion de la cognición: “no es correcto decir que la capacidad cognitiva para fijar el calendario agrario reside en el cerebro de Dauya. Esa capacidad es una propiedad de la ecología cognitiva compleja que incluye al cerebro de Dauya, su cuerpo, sus ojos, el cielo y las prácticas culturales que ponen en coordinación todas las otras partes en un modo productivo (…) Muchos resultados cognitivos producidos por los sistemas de actividad humana son propiedades de nuestras interacciones con configuraciones materiales y sociales, pero rutinariamente las confundimos y las consideramos como propiedades nuestras” (Hutchins 2008 2013).

147


Parente, Diego

aquello que pretende afirmar no es solamente que la agencia humana no puede comprenderse como una capacidad desnuda, inherente y despegada de los nichos artificiales donde se despliega, sino que en todo proceso productivo hay además una simetría estructural entre los componentes humanos y los no humanos. Ahora bien, ¿en qué sentido exactamente puede defenderse de modo coherente esta simetría? ¿No hay desde el inicio mismo del proceso -que identificamos como “producción”- una instancia asimétrica sin la cual no podríamos siquiera identificar el fenómeno? ¿No está forzosamente implícito en la idea de agencia y en la identificación de una acción singular una asimetría de base que distingue entre el actor y aquello sobre lo cual el actor actúa? (Di Paolo et al. 2009). Precisamente aquello que conforma la dinámica productiva del alfarero, cuya trama Malafouris intenta captar fenomenológicamente, no es un mero acoplamiento físico sino fundamentalmente una relación de regulación. Por supuesto, esta modulación requiere de materiales y aspectos objetivos del entorno pero, como bien indican Di Paolo et al. (2009), es siempre asimétrica, es decir, es algo que el organismo (humano o no humano) hace para sí mismo y no existe en rigor ningún proceso análogo que se origine en el ambiente. Esta relación de regulación, paralelamente, tiene por así decirlo una estructura intencional y se halla sometida a normatividad (puede tener éxito o bien fracasar).10 En cierto modo Malafouris admite esta serie de dificultades cuando sostiene que si bien hay simetría en la relación entre el alfarero y la arcilla eso no significa que no haya diferencias entre ellos: Es el lado humano el que hace las elecciones vitales y toma las decisiones importantes. Ciertamente muchos factores externos (por ejemplo, la textura de la arcilla y sus propiedades físicas e inclusive su consistencia química) pueden determinar algunas partes de la acción pero la responsabilidad final reside en el alfarero. Es a él a quien podemos culpar (...) (Malafouris 2008 25).

A fin de solucionar las tensiones involucradas por esta condición asimétrica, Malafouris introduce una distinción entre capacidad agentiva (agentive capacity) y “sentido de agencia” (sense of agency)11. La primera es algo que compartimos con otros animales, mientras que el segundo, que equivale a agencia consciente, sólo reside en los humanos (2013 214). Un chimpancé que abre nueces golpeándolas con una piedra no posee este sentido de agencia (o de autoría). Los agentes humanos, en cambio, poseen la habilidad de referirse 10 Al respecto agrega Di Paolo: “La cognición requiere un centro natural de actividad sobre el mundo así también como una perspectiva natural sobre él. La actividad, como la perspectiva, es un concepto asimétrico. Está el actor y aquello sobre lo cual se actúa” (Di Paolo 2005 443).

148

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 139-168


Los artefactos en cuanto posibilitadores de acción

a sí mismos como los autores de sus propias acciones. De allí que Malafouris destaca que una cosa es decir que sólo los humanos tienen sentido de agencia, y otra bien distinta es afirmar que sólo los humanos son agentes –en el sentido de ser capaces de iniciar eventos causales con carácter intencional— (Malafouris 2013 214). No es la mera causalidad sino la conciencia lo que caracteriza el sentido de agencia humana. En contraste con la arcilla o la rueda, el alfarero dispone de una “experiencia” de agencia, reconoce que es él quien está manipulando y moldeando el material. Si bien Malafouris procura retroceder unos pasos en algún momento —por ejemplo cuando afirma que la escena productiva constituye una danza entre “socios iguales”, a veces conducida por el alfarero y otras veces por su “situación” (2013 220)—, lo cierto es que la introducción de la distinción entre sentido de agencia y capacidad agentiva termina generando graves dificultades. El puzzle que tal posicionamiento hace explícito es el siguiente: o bien aceptamos que la agencia constituye una suerte de danza sinérgica entre elementos simétricos (humanos y no humanos), o bien reconocemos que hay un sentido de agencia primordial en los humanos que falta en aquellos mediadores con los que interactúa y produce (aun admitiendo que éstos son estrictamente necesarios en alguna medida para el desarrollo del agente, para quien constituirían una suerte de “extensión”). Pero no parece razonable aceptar ambas cosas al mismo tiempo. En resumen, la idea de que sólo los humanos disponen de este “sentido de agencia” establece una condición asimétrica fuerte que ya no puede rebatirse (o, al menos, no resulta fácilmente integrable) con una interpretación simétrica como la ofrecida por el propio Malafouris. Sin dudas, el aspecto más interesante de este último argumento es que abre la posibilidad de distinguir varios sentidos de agencia no equiparables entre sí, una tarea que afrontaremos precisamente en la siguiente sección.

2. Acerca del trasfondo de la acción: cuatro sentidos de agencia

De la sección anterior se desprende que hay, al menos, un punto importante de continuidad entre los estudios sociales de la ciencia y la tecnología de los años ochenta (especialmente la perspectiva latouriana anclada en la noción de actante) y los modelos actuales en arqueología postprocesual vinculados a la tesis de la agencia material: ambos desdibujan la noción tradicional de “agencia” y la extienden al ámbito de los elementos no humanos. Ahora bien, si tuviéramos que establecer una gradación en relación con cada presentación de la tesis de la agencia material sería razonable pensar que Latour representa la posición más radicalizada, mien-

149


Parente, Diego

tras que Malafouris presenta una versión “fuerte” pero menos radical, y en último término Gell ofrece una versión “débil” de agencia material (la figura 1 que se encuentra abajo intenta sistematizar este panorama). Como estrategia de indagación este trabajo focalizará y encuadrará los problemas especialmente a partir de la lectura latouriana, aprovechando su radicalidad y procurando pensar variantes y matices presentes en las otras perspectivas citadas. *Los medios materiales (“nichos artificiales”) hacen una contribución ineliminable a la dimensión agentiva humana.

*La agencia es una cualidad predicable no solamente de individuos humanos.

*Las entidades materiales califican como “agentes plenos” o genuinos.

FENOMENOLOGIA (Heidegger, Merleau-Ponty)

GELL Los artefactos tienen “agencia secundaria”

LATOUR

POST-FENOMENOLOGIA (Ihde, Verbeek)

INGOLD La acción productiva es “danza sinérgica” entre elementos humanos y no humanos

OLSEN

MODELOS EXTERNALISTAS en filosofía de la mente y ciencia cognitiva (Clark, Hutchins, Sterelny)

AGENCIA MATERIAL (versión débil)

AGENCIA MATERIAL (versión fuerte)

Figura 1. Variantes de la relación entre agencia y materialidad en el debate contemporáneo. Las tesis sobre la agencia de los artefactos reconstruidas a lo largo de la sección [1], si bien no son idénticas y conservan cierta heterogeneidad disciplinar, se enfrentan no solamente al destierro de los mediadores materiales en sociología, sino también a una tesis tácita dentro del debate contemporáneo en filosofía de la acción: sólo los humanos son “actores” auténticos, sólo ellos disponen de agencia en sentido estricto y, por tanto, son sus acciones las únicas que deben ser tematizadas. Por el contrario, Latour defiende una aplicación simétrica de la idea de agencia a humanos y no humanos. Ahora bien, ¿de qué hablamos exactamente cuando hablamos de agencia? Una primera aproximación podría ser la siguiente: la agencia refiere a la habilidad o capacidad de una entidad para actuar en el mundo. Pero considerando la ambigüedad y el variado alcance de este “actuar en el mundo” cabe preguntar en qué sentido específico es dable afirmar que los artefactos tienen agencia. ¿Qué

150

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 139-168


Los artefactos en cuanto posibilitadores de acción

significa exactamente tal atribución? Para explorar esta cuestión indagaremos a continuación cuatro sentidos de agencia no asimilables entre sí que podrían ser asignados a artefactos técnicos. El objetivo consiste en argumentar en favor de una noción de agencia que considera a los artefactos en cuanto “posibilitadores de acción”. Con este propósito hemos tomado en parte como punto de partida el esquema de sentidos de agencia propuesto por Johnson y Noorman (2014) pero hemos alterado sensiblemente los contenidos de cada categoría y hemos agregado, además, un cuarto sentido no contemplado por dichos autores.

2.1. La agencia en cuanto mera eficacia causal Los artefactos o sistemas técnicos pueden ser comprendidos como componentes de cadenas causales, es decir, como entes dotados de una determinada eficacia causal en el mundo. El martillo es una entidad dotada de eficacia causal en la actividad de poner clavos, así como una lámpara de luz es eficaz en la tarea de otorgar luz artificial. En este sentido resulta legítimo atribuir agencia a dichos objetos en cuanto participantes en la producción de eventos o de estados de cosas. Pero este sentido admite, al menos, dos lecturas. Una primera lectura consiste en afirmar, como suele ocurrir en ciertas líneas de estudios de cultura material (Olsen 2003), que las entidades materiales poseen agencia como una cualidad intrínseca en virtud de su propia materialidad. Una segunda lectura, un tanto más coherente, plantea que esta eficacia causal de los artefactos sólo emerge en contacto con humanos y sistemas técnicos apropiados. Sin el agente humano que lo pone en acción, sin las conexiones correspondientes, el tendido eléctrico o el pago de la factura del servicio, la lámpara permanecería inactiva. En resumen, este sentido minimalista de agencia es tan amplio que, en rigor, nos permite afirmar que también los organismos no-humanos son agentes al menos en este nivel de contribución causal a un estado de cosas.

2.2. Los artefactos en cuanto agentes representantes o sustitutos de humanos Un segundo sentido está relacionado con el hecho de que algunos artefactos actúan-para-alguien en calidad de sustitutos. Aquí está involucrado el sentido de “agente” en cuanto representante, algo que funciona o cumple ciertas tareas en lugar de nosotros (por ejemplo, en el mercado editorial se habla habitualmente del “agente literario”). Para pensar esta dimensión de la agencia Latour utiliza la noción de delegación (Latour 1992 229). Si pretendemos comprender cabalmente a un ente no humano necesitamos imaginar qué otros sistemas o mecanismos, ya sea humanos o no-humanos, se habría necesitado en su lugar

151


Parente, Diego

para realizar la misma tarea (Latour 1992 229). Por ejemplo, la ausencia de una puerta con cierre automático podría requerir la presencia constante de un mayordomo que realizara el trabajo, o bien de un factor sígnico (un letrero que recordara a las personas la necesidad de cerrar la puerta al ingresar). Estos programas de acción surgen, en verdad, para luchar contra los múltiples “anti-programas” de acción que se encuentran constantemente operando: la indisciplina o la desidia de los individuos, los sistemas técnicos deficientes que no cumplen su cometido, etc. Retomando el caso ya analizado en la sección [1.1.]: el lomo de burro se hallaría en condición de agente que representa o actúa-por el policía real de carne y hueso. Por supuesto esta acción de representar o sustituir propia de algunos artefactos sólo puede cumplirse si suponemos un cierto grado de eficacia causal. Es la condición objetiva de obstáculo material propia del lomo de burro lo que contribuye causalmente a que los conductores disminuyan la velocidad. Esto significa que este segundo sentido de agencia requiere o incluye el cumplimiento del primer sentido. Al mismo tiempo este segundo sentido de agencia está relacionado con cierto grado de autonomía pues refiere a artefactos cuyas operaciones son independientes de la manipulación humana directa, si bien no son completamente libres de ella debido a que requieren obviamente ser diseñados y construidos.

2.3. Los artefactos y sistemas técnicos en cuanto posibilitadores de acción Si el segundo sentido de agencia refería a un aspecto focal de los artefactos en cuanto sustitutos, este tercer sentido alude más bien a un aspecto general de trasfondo. Los artefactos tienen agencia en cuanto conforman un cierto background que abre un determinado conjunto de acciones posibles. Los artefactos o sistemas técnicos “actúan” sobre dicho campo, es decir, abren y constriñen simultáneamente las posibilidades agenciales de los humanos en el mismo sentido en que ciertos rasgos biológicos o ambientales (por ejemplo, el hecho de poseer visión binocular o dos manos) restringen sus posibilidades sensoriomotrices.11

11 Este sentido de la agencia encarnada en un aquí y ahora posibilitantes fue indagado por L. Suchman en su obra Human-Machine Reconfigurations. A través de su concepto de acción situada (situated action), Suchman ha enfatizado que todo curso de acción depende de manera esencial de sus circunstancias materiales y sociales. La accion “inteligente” se logra a partir de cómo los individuos utilizan sus propias circunstancias, no desde la perspectiva abstracta de un mero plan racional aislado de la acción en cuanto tal (Suchman 2007 70).

152

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 139-168


Los artefactos en cuanto posibilitadores de acción

Este tercer sentido de agencia -que remite a los artefactos como “operadores de posibilidad” (Broncano 2009)- puede ser interpretado en su dimensión micrológica o macrológica en tanto se focalice la actividad de un individuo singular o el abanico de posibilidades abiertas para una cultura en términos amplios. El nivel micro ha sido insistentemente abordado por la fenomenología a través de su idea de una ampliación del “yo puedo” corporal. Podemos recurrir aquí al célebre ejemplo merleau-pontyano del hombre ciego guiado por su bastón (Merleau-Ponty 1945). El bastón no es simplemente un instrumento externo neutral para la experiencia, que bien podría eliminarse sin alterar el núcleo de aquella. Por el contrario, es un instrumento que cuando ha sido auténticamente incorporado produce una transformación cualitativa de la experiencia misma. Las cualidades objetivas del bastón, por supuesto, no son suficientes para que surja una práctica eficaz. Se requiere, además, de una cierta naturaleza corporizada del organismo que sea capaz de acoplarse efectivamente a dichas propiedades materiales. Para decirlo en terminología de J.J. Gibson (1986), ni un niño de un año de edad ni una hormiga son capaces de acceder al conjunto de affordances que el bastón abre efectivamente para un humano adulto. Tales affordances o accesos prácticos (por ejemplo la capacidad de un hacha para cortar madera) se manifiestan exclusivamente en el marco de una red relacional que incluye al usuario corporizado y a las propiedades materiales de los útiles.12 En resumen, este también es un modo bajo el cual los objetos técnicos “actúan”: ellos ponen en primer plano y vuelven disponibles ciertas posibilidades prácticas. De tal manera el repertorio de posibilidades de acción de un agente es fuertemente dependiente del conjunto material histórico-cultural en el que se inscribe su actividad. El nivel macro, en cambio, es aquel que estudia habitualmente el sociólogo o el antropólogo. Para explicar ciertos procesos sociales –como bien indica Latour- no alcanza con indagar relaciones e interacciones entre humanos; es indispensable tematizar una serie de complejos ensambles híbridos de humanos y no humanos. Por ejemplo, si pretendemos dar cuenta de la configuración social individualista moderna que progresivamente dejó atrás una perspectiva de vida comunal no hallamos a un “único sujeto heroico” sino a una “brigada de actores materiales”: camas individuales, cubiertos y platos individuales, sillas individuales (Olsen 2003). La distinción entre el espacio público y el privado depende de aquello que estos ensambles lograron efectuar y estabilizar. De tal modo, los artefactos y sistemas técnicos disponen de 12 En rigor, el propio Latour admite en varios de sus textos (especialmente en 2002) esta concepción relacional de la agencia, lo cual no significa que logre evitar una contradicción importante con el trasfondo radical simétrico que se observa en su perspectiva global.

153


Parente, Diego

affordances globales que definen a los actores, los espacios en que se mueven y sus modos de interacción naturalizando los nexos causales que involucran (Akrich 1992 216-222).13

2.4. Los artefactos en cuanto agentes autónomos Este cuarto sentido de agencia es el más complejo y, a su vez, el más polémico dado que postula que los artefactos deberían ser considerados como entes dotados de genuina autonomía. Resulta evidente que la concepción de la agencia como actividad caracterizada por su autonomía supone una serie de grandes discusiones todavía en marcha acerca de las diferencias entre humanos, animales no humanos y máquinas en cuanto a sus capacidades, el estatuto de sus acciones e intenciones (Johnson y Noorman 2014). Más allá de esta serie de cuestiones lo cierto es que en esta dimensión de análisis surgen varias dificultades destacables. Un primer argumento es que, en contraste con los presuntos “agentes” artificiales, aun si reconociéramos cierto aspecto autónomo en el funcionamiento de los artefactos, todavía persistiría una diferencia crucial: los actores humanos son seres corporizados (embodied) definidos por disponer de una perspectiva de primera persona y de una serie de rasgos sensoriomotrices que conforman su mundo. En los humanos (y también en los organismos no humanos) el cuerpo vivido realiza una contribución ineliminable a su dimensión agentiva. Estos aspectos –que en el debate contemporáneo se han caracterizado frecuentemente como acción “situada” o “encarnada” (embodied action)- están claramente ausentes en los artefactos prototípicos que Latour retoma como ejemplos (lomos de burro, puertas automáticas, llaves de hotel, etc) y es todavía un arduo objeto de debate que puedan estar genuinamente instanciados de manera completa en ciertos robots o experimentos tecnológicos sofisticados contemporáneos. Un segundo argumento que podría plantearse como condición mínima de agencia autónoma está relacionado con la fuente de la normatividad de la acción. El tipo de hacer involucrado en la acción implica cierta meta o norma impuesta por el mismo sistema que actúa, esto es, los agentes se caracterizan por disponer de metas o normas de acuerdo con las cuales actúan. Di Paolo et al (2009: 372) expresan con claridad esta condición al afirmar que cuando consideramos la agencia “suponemos que la interacción no es aleatoria o arbitraria sino que tiene sentido para el agente en sí mismo. Los agentes tienen 13 Este sentido macro ha sido reconocido en la obra de los grandes críticos de la sociedad tecnológica de siglo xx tales como Günther Anders, Lewis Mumford, Ivan Illich y Langdon Winner, ya sea en el interior de posiciones deterministas o no deterministas.

154

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 139-168


Los artefactos en cuanto posibilitadores de acción

metas o normas de acuerdo a las cuales actuar, que brindan un tipo de condición de referencia que permite coordinar la modulación interaccional”. Es evidente que esta condición de normatividad conlleva problemas si pretendemos trasladarla sin más a los artefactos pues los sistemas que solo satisfacen normas impuestas desde afuera (por ejemplo, un artefacto que dispone de una función fijada externamente) no encuadran adecuadamente en este modelo. Al respecto Di Paolo et al sostienen que los sistemas que “solamente satisfacen constricciones o normas impuestas desde afuera (por ejemplo, una optimización de acuerdo a una función fijada externamente) no deberían ser tratados como modelos de agencia” (2009 381). Según estos autores la individualidad, la asimetría interaccional y el tipo de normatividad intrínseca antes mencionada son los tres requisitos necesarios que un ente debe satisfacer para asegurarse agencia auténtica. Ciertamente una buena parte de los artefactos podría satisfacer los dos primeros requisitos pero es evidente que su carácter de objetos construidos, de objetos diseñados-por-alguien-para-hacer-algo, los condena a que su fuente normativa les sea irremediablemente externa. Ahora bien, aquello que se desprende de lo reconstruido en esta subsección es que el estar corporizado y ser la fuente normativa de la acción son dos condiciones imprescindibles para un sentido pleno o robusto de agencia autónoma. Ninguno de estos dos requisitos, sin embargo, parece estar cubierto por los artefactos prototípicos invocados por Latour en sus análisis. Un argumento contra esta negativa a reconocer el estatuto de agentes a los artefactos podría ser que también los agentes morales humanos (paradigma de agencia autónoma en este sentido fuerte) pueden en algunas ocasiones estar satisfaciendo normas impuestas desde fuera -por ejemplo, el haber sido educados en esta o aquella religión, con estos modelos de cortesía, etc. Pero la diferencia es que los artefactos –no sólo los sencillos presentados por Latour sino los más complejos que podamos imaginar- muestran aquí que su espacio “vital” y sus posibles trayectorias en el mundo están definidos exhaustivamente por la fijación externa de una norma, es decir, en cada una de sus “acciones” se revela ese plegamiento inevitable a la constricción impuesta externamente por un diseñador humano, ese ajuste a la norma (o su virtual desajuste por “malfunción”, situación que ilumina aun más la naturaleza de su lazo normativo). La naturaleza de los artefactos, a diferencia de la de los organismos, parece estar definida por una heteronomía en la esfera de la fijación de normas.14 14 Incluso si aceptáramos que esta autoimposición de normas es un aspecto que no cubre por completo todos y cada uno de los casos de acción humana, la diferencia cualitativa con los presuntos “agentes” artificiales se mantendría puesto que estos últimos (si seguimos los ejemplos de Latour, Malafouris y Gell) carecen por principio de esa dimensión de autoimposición normativa.

155


Parente, Diego

En este punto resulta fundamental enfatizar lo siguiente: la principal debilidad de la tesis de la agencia material es que pretende, infructuosamente a nuestro modo de ver, defender este sentido [4] de agencia. Un argumento satisfactorio que incluyera a los artefactos o sistemas artificiales en la esfera de los agentes autónomos debería ser capaz de mostrar en qué medida ellos disponen de una normatividad interna y de un esquema sensoriomotor (aunque sea mínimo) que le permitiera entrar en relaciones de auténtica regulación con el entorno. Ninguno de los ejemplos escogidos por Latour, Malafouris y Gell, entre otros teóricos de la agencia material, cubren estrictamente esta tarea. Por otra parte, hay una incompatibilidad de fondo en cualquier posición que procure simultáneamente una defensa de una idea de simetría fuerte entre elementos humanos y no-humanos, y una defensa de la misma idea de agencia autónoma. Identificar aquello que llamamos de manera coherente un “agente” es tambien identificar –o al menos suponer la presencia de- una fuente normativa interna capaz de evaluar las acciones. Es decir, supone que es posible distinguir una autoridad cognitiva capaz de llevar adelante el proceso de evaluación de la acción en el interior de la parafernalia de elementos materiales que se nos presentan, por ejemplo, en el taller completo de alfarería. Esto es lo que debemos suponer cada vez que pensamos en un “agente” de algún tipo. Y eso es lo que va contra el corazón mismo del enfoque simétrico de los teóricos de la agencia material. Los impactos de esta incompatibilidad se revelan claramente en Malafouris, a través de los matices y variantes que busca sobre el sentido de agencia, al igual que es un problema admitido por el propio Gell al diferenciar entre agencia primaria y agencia secundaria. En resumen, la misma idea de agencia supone (y, como veremos, es a la vez el resultado de) un tipo de asimetría constitutiva cuya naturaleza simultáneamente los teóricos de la agencia material intentan derribar.

3. Explorando los límites de la noción de agencia Ahora bien, una vez que se ha brindado una caracterización mínima de estos cuatro sentidos de agencia se abren tres tareas relacionadas entre sí. La primera es decidir cuál de los anteriores modos de agencia invoca el argumento de Latour; la segunda es determinar cuáles son las relaciones entre tales sentidos; la tercera –que se desprende de la anterior- es definir cuál de los mencionados sentidos puede ser legítimamente aplicado a los artefactos y cuáles deberían ser entendidos sólo de manera metafórica, o bien directamente como confusiones. Este recorrido procura mostrar que el sentido de agencia más ajustado a los artefactos o cultura material es el que se describió

156

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 139-168


Los artefactos en cuanto posibilitadores de acción

en tercer lugar, es decir, el que hace alusión al mundo artificial en tanto que background posibilitador de acción. Veamos la primera cuestión. ¿Dónde deberíamos situar la posición latouriana anteriormente reconstruida? La respuesta no es sencilla dado que en su obra es posible identificar una oscilación entre un concepto débil de agencia material y uno un tanto más radicalizado. El primero aparece cuando considera a los artefactos como “actantes” en tanto cumplen un papel dentro de una red más amplia que incluye tanto a humanos como no-humanos. Este sentido débil de agencia debe ser cuidadosamente diferenciado de aquellos pasajes en los cuales Latour realiza un salto desde este punto de vista cuasi-metodológico a un punto de vista ontológico según el cual los objetos tienen agencia en cuanto son actores morales con cierto grado de autonomía, por ejemplo cuando se refiere a un asesinato realizado con un arma de fuego: “Ni las personas ni las armas matan por sí solas. La responsabilidad por la acción debe ser compartida entre los múltiples actantes” (Latour 1994 34). El ejemplo del lomo de burro también sirve para pensar esta última dimensión pues su autonomía reside en el hecho de que -una vez construido- su modo de existencia parece ser independiente de las intenciones de su diseñador, que ya no se encuentra allí; y a la vez tiene implicaciones éticas pues su incidencia efectiva en la conducta de los automovilistas permitiría asignarle injerencia indirecta en ese plano moral. Al mismo tiempo Latour supone, pero parece desdeñar por irrelevante, la noción de mera eficacia causal. Es una verdad trivial que los entes no humanos intervienen causalmente en el mundo. La estrategia latouriana consiste en elevar la apuesta y considerarlos actores genuinos. Pero aquí surgen varios problemas. Sólo si la atribución de agencia a artefactos, tal como la entiende Latour, tiene que ver con el sentido [4], estaríamos en presencia de una noción novedosa. Sin embargo, como se ha visto, los teóricos de la agencia material no pueden sostener tal tesis coherentemente. En cambio, si las sugerencias de Latour aluden solamente a la agencia en sentido [2] su posicionamiento no elimina cierto carácter asimétrico de fondo, pues sería posible aún reconocer una diferencia entre una dimensión agentiva autónoma y otra que sólo es, en el mejor de los casos, cuasi-autónoma. El anterior problema es una de las derivaciones de la pretensión de una simetría completa entre todos los componentes “agenciales” de un determinado proceso. Para volver a lo ya explicitado en sección [2.4.], la idea misma de un agente se constituye a partir del reconocimiento de una posición no simétrica de un ente (paradigmáticamente un organismo) sobre el trasfondo de un ambiente. Hans Jonas (1968) explicita bien esta necesidad conceptual cuando afirma que la diferencia del organismo respecto a todo lo otro, el resto de las

157


Parente, Diego

cosas, no es adventicia e indiferente a ellos, sino un “atributo dinámico de su ser, en el que la tensión de esta diferencia es el mismo medio para mantenerse a sí mismo cada uno en su singularidad apartando a lo otro y al mismo tiempo entrando en comunión con él” (Jonas 1968 233). Esta es la condición que autores como Di Paolo et al (2009) denominan condición de asimetría interaccional: el ambiente tiene que ser en algún modo “paciente” para que un individuo “agente” sea reconocido como tal. Pero veamos ahora si la exploración de las relaciones entre los cuatro sentidos de agencia reconstruidos en la sección anterior permite esclarecer el asunto. En principio el sentido primario de mera eficacia causal debe pensarse como requisito de los otros tres sentidos de agencia. Para que un artefacto o sistema técnico pueda sustituir una actividad humana y para que pueda conformar el background de cualquier repertorio de acciones se requiere asegurar mínimamente su eficacia en la transformación de un estado de cosas. No obstante, la eficacia causal –si bien es necesaria- no resulta suficiente para la emergencia de agencia autónoma plena. Si la presencia de esta eficacia causal fuera suficiente para establecer agencia en este sentido [4], entonces los microbios, los huracanes y los martillos la poseerían pues es indudable que ellos contribuyen causalmente a la transformación del mundo. Si así fuera no habría diferencias cualitativas entre su capacidad agencial y la de los humanos. Sin embargo, la cuestión principal no es si debemos dudar de la realidad de estas contribuciones causales, sino de su relevancia para integrarse a una noción coherente de agencia. La confusión surge cuando se atribuye agencia en sentido 4 a un artefacto o sistema que, en rigor, sólo exhibe agencia en sentido 1 o 2. Como se desprende de la caracterización hecha en la sección anterior, el hecho de que disponga de agencia en sentido 1 o 2 no es argumento suficiente para demostrar que posee agencia en sentido 4. Este último es el que caracteriza de manera exclusiva a la agencia autónoma plena. En segundo lugar, contra los postulados de Latour, cualquier atribución de autonomía en el sentido [2] de agencia debe ser comprendida metafóricamente, es decir, como una traslación de un sentido literal (que se situaría en el agente humano) hacia un mecanismo de algún tipo que sustituye su función, así como el “lomo de burro” reemplaza la tarea del policía de carne y hueso. En este sentido una diferencia relevante, como bien señalan Johnson y Noorman (2014), es que la delegación en el vínculo humano-humano siempre involucra la remisión a una cierta tarea y conjuntamente la asunción de una responsabilidad vinculada a ella (como cuando se encarga a alguien el cuidado de un determinado objeto), mientras que la delegación de humanos-a-artefactos involucra solamente tareas, no responsabilidad. Si involucrara también

158

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 139-168


Los artefactos en cuanto posibilitadores de acción

alguna clase de responsabilidad -que pusiera a los artefactos de alguna manera en plano de igualdad con los agentes humanos prototípicos- entonces sería natural culpar a los trozos de cemento por dañar nuestro auto, y no a las autoridades humanas que decidieron emplazarlos justamente allí. Es importante notar aquí que la atribución de responsabilidad en esta esfera cuasi-moral a la que aludimos no involucra solamente el reconocimiento de una cierta contribución causal a un estado de cosas, sino especialmente la idea de que ha habido una auténtica acción autónoma. Y esto último es lo que se pone en duda precisamente en las atribuciones de responsabilidad que Latour realiza sobre objetos técnicos de diverso tipo, por ejemplo cuando plantea que los múltiples actantes comparten “responsabilidad” por aquello que han producido (es decir, los individuos y las armas comparten responsabilidad por el asesinato consumado). ¿Cómo evaluar exactamente esta modalidad de “responsabilidad” que Latour adscribe, sin diferenciar, a estos objetos y sistemas técnicos? En este punto el argumento de Latour cae en una confusión entre (A) “tener implicaciones morales” o “consecuencias” morales y (B) “calificar como agente moral”. Un ejemplo que puede ayudarnos a diferenciar estos dos alcances es el de los sistemas de imágenes de ultrasonido usados actualmente en biomedicina, específicamente para detectar condiciones y rasgos de los fetos humanos. La introducción de estas tecnologías de observación en los sistemas públicos de salud, su reglamentación e inserción en protocolos de embarazo y en otros regímenes biomédicos, ha alterado sensiblemente lo que podríamos llamar la identidad moral de los individuos o familias que se encuentran en espera de un bebé. De manera concreta ha transformado el grado de conocimiento y de control sobre el feto intramaterno, y consecuentemente el espectro de responsabilidades derivado de este conocimiento. La disponibilidad misma de este sistema técnico (ya sea utilizado o rechazado deliberadamente) constituye a los futuros padres en decisores de la vida de su niño no nacido. Como señala acertadamente Verbeek (2008) el rol del ultrasonido es ambivalente pues por un lado puede alentar el aborto (en casos de detección de anomalías graves o riesgos importantes en la constitución del feto) y, por otro lado, puede inhibirlo debido a que hay una visualización del feto (de sus miembros, de su rostro, etc) que inevitablemente favorece la construcción de lazos emocionales con los padres, lazos cuya intensidad probablemente sería distinta de no mediar este peculiar sistema técnico de observación. Ahora bien, el hecho de que la disponibilidad de estos artefactos tengan implicaciones o consecuencias en la identidad moral de los agentes humanos (introducir procesos decisorios donde antes no los había, mutar o trasladar las fuentes de responsabilidad, en otras palabras, transformar en sentido amplio los alcances de los agentes morales) no equivale a afirmar que los objetos

159


Parente, Diego

técnicos en sí mismos califiquen como genuinos agentes morales. En rigor ejemplos como éste no nos hacen visibilizar a los artefactos en cuanto agentes equiparables a los humanos, sino a los artefactos como operadores de posibilidad, como transformadores del espacio de posibilidades, esto es, patentizan el aspecto agencial de los artefactos que hemos subsumido en el sentido [3].15

3.1. ¿Agencia material o agencia extendida / andamiada? Si consideramos el análisis anterior podemos afirmar que el debate contemporáneo en torno a la agencia material revela que, en efecto, es posible hallar una definición minimalista de agencia, como la esbozada en el sentido [1], que incluya legítimamente a entes que no son organismos. Sin embargo, si no se admite la diferencia entre el sentido [1] y el [4] y, en consecuencia, se considera que todos los ítems materiales (desde un electrón hasta un guardarail o un ingeniero moderno) poseen agencia de manera indistinta la duda que surge es cómo impacta este criterio en la misma noción de agencia. Las tesis radicalizadas que sugiere Latour en algunos pasajes de su obra -y en igual medida las de Malafouris- conducen en cierto modo a una teoría deflacionaria que rebaja tan drásticamente las condiciones de la agencia que ya deja de ser heurísticamente valiosa para comprender fenómenos heterogéneos. Simultáneamente, como se señaló en la sección anterior, al centrar su fuerza explicativa en referencia a las redes o partes sistémicas analizando su función global, la perspectiva latouriana rescata exitosamente la materialidad de los agentes no humanos pero paradójicamente pierde de vista la “materialidad” sobre la que se apoya toda agencia humana, esto es, el propio cuerpo como espacio irreductible de experiencia y acción, esto es, como centro de actividad y de perspectiva, como “base material” de una agencia autónoma robusta. A su vez los teóricos de la agencia material operan una suerte de deflación del cuerpo comprendido como punto de partida cognitivo-agentivo pues su argumento tiende implícitamente a igualar la disponibilidad de su cuerpo por parte del alfarero (como soporte de habilidades y de loops sensoriomotrices abiertos que constituyen su práctica) con el carácter corpóreo (aquí meramente equivalente a “material”) del trozo de cemento que constituye el “lomo de burro” o del metal que constituye a las llaves del hotel. Es decir, se tiende

15 Como se ha advertido al inicio de este trabajo, en esta sección no se ha podido evitar que el vocabulario referente al debate moral se haya filtrado tangencialmente. Esta intromisión, sin embargo, debe resultarnos natural dado que es el sentido [4] de agencia autónoma plena el que caracteriza a la agencia moral humana, y es precisamente ése el que no puede ser aplicado coherentemente al caso de los artefactos.

160

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 139-168


Los artefactos en cuanto posibilitadores de acción

erróneamente a igualar la mera presencia material con la eficacia agentiva de uno y otro caso. Por último, los teóricos de la agencia material fracasan también en la selección de sus casos de análisis pues al refugiarse principalmente en escenas poiéticas preindustriales (Malafouris) o en componentes artificiales aislados (Latour) carentes de “perspectiva” en el sentido antes mencionado, no pueden introducir discusiones relevantes dentro del sentido [4] de agencia autónoma. Sin duda sería valioso (y permanece abierto a análisis aunque fuera del ámbito de estudio de los autores aquí reconstruidos) pensar si un robot industrial -aun con su normatividad fundada externamente- podría ser interpretado como depositario de agencia en sentido 4. Curiosamente -y también, podríamos agregar, lamentablemente- este tipo de ejemplos y de desafìos permanece fuera del espectro de investigaciones de los teóricos de la agencia material. Ahora bien, independientemente de cómo son valorados estos impactos en la noción de agencia, el recorrido trazado por las anteriores secciones ha intentado mostrar que la tensión propia del problema de la agencia material se juega esencialmente en la confrontación entre dos ideas: si el estatuto ontológico de los artefactos incluye la posesión de agencia como una cualidad intrínseca, no relacional, asentada exclusivamemte en su caracter material, o bien si se trata de una cualidad relacional que sólo surge con el involucramiento de agentes humanos (Kirchhoff 2009). La última interpretación es compatible con la preservación de un locus agencial peculiarmente humano; la primera, en cambio, no lo permite.

Tesis de agencia material VERSIÓN DÉBIL

Agencia es una cualidad relacional, no inherente. (Requiere individuos corporizados acoplados eficazmente en sus nichos artificiales)

Asimetría de base

VERSIÓN FUERTE

Agencia es una cualidad intrínseca de los entes materiales (no relacional). (Es suficiente ser un ente material y tener eficacia causal en el mundo).

Enfoque simétrico

Figura 2. Agencia como cualidad intrínseca y como cualidad relacional.

161


Parente, Diego

Considerando la distinción anteriormente planteada este trabajo intenta ubicarse en el marco de lo que denominamos una versión “débil” de agencia material que sea capaz de [a] preservar ciertos aportes de los teóricos de dicho modelo (entre ellos el carácter constitutivamente relacional y encarnado de la agencia) y [b] que evite simultáneamente las aporías derivadas de un enfoque completamente simétrico. Las implicaciones de los sentidos de agencia 1, 2 y 4 no se ajustan adecuadamente a estos desiderata. De los cuatro sentidos de agencia reconstruidos anteriormente el único que cubre ambas condiciones es el sentido 3. Esta comprensión de los artefactos y sistemas técnicos como background nos permite pensar la agencia extendida y andamiada en la cultura material, el repertorio de acciones que los nichos artificiales en los cuales vivimos nos permite desarrollar. Se trata, por supuesto, de una concepción de la agencia tanto corporizada como andamiada. Es corporizada (o “encarnada”) en la medida en que admite que reconocer un agente significa dar cuenta de una alternativa de perspectiva en primera persona que dispone de un cuerpo que le permite entrar en relaciones (de tipo normativo) de intercambio y modulación con el ambiente. Es “andamiada” porque, en el caso de los humanos, este tipo de agencia corporizada opera siempre en el interior de nichos artificiales, de sistemas de artefactos, símbolos, instituciones, etc., que funcionan a su vez como un condicionante evolutivo de las facultades del propio sistema (Sterelny 2005 y 2010; Broncano 2012; Odling-Smee et al. 2003). En definitiva, no se trata de usar como punto de partida un modelo de agencia humana inherentemente desprovista de mediadores, en cierto modo des-materializada, ya autosuficiente, y luego –en un segundo momento- antropomorfizar a los mediadores otorgándoles una agencia “robusta” equivalente a la humana (estrategia implícita en los teóricos de la agencia material reconstruidos). Se trata, más bien, de imaginar una perspectiva que admita que la agencia es –para decirlo heideggerianamente- ya-siempre extendida y andamiada, mediada, a través de una cultura material.16 Aquello que se produce en el marco de este peculiar entramado artificial es una dinámica en la cual los artefactos y sus usuarios conforman una ecología compleja donde las tareas, las prácticas, las colecciones de artefactos y los usuarios se co-adaptan y co-evolucionan (Kirsh 2010 125 ss). Estos elementos interrelacionados se constriñen mutuamente constituyendo un ecosistema artificial de nichos interdependientes que, en conjunto, determinan cómo y cuándo se usan los 16 Es dable pensar este fenómeno de agencia extendida/andamiada como un caso particular de construcción de nichos en el ámbito humano. En relación con esta idea Sterelny (2010) sugiere que el modo en que nuestra competence cognitiva depende de recursos extrasomáticos responde en verdad a un fenómeno más general: el hecho de que los humanos configuran su ambiente para sostener sus actividades.

162

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 139-168


Los artefactos en cuanto posibilitadores de acción

artefactos, para qué y por quién (Kirsh 2010). De este modo, el rol cognitivoagencial que juega la cultura material es relevante en la medida en que media el involucramiento de los humanos con el ambiente a través de una determinada serie de affordances o accesos prácticos. Ahora bien, ¿qué dificultades aparecen una vez que se admite este sentido de agencia andamiada? Una objeción podría ser la usualmente dirigida a las interpretaciones de la mente extendida basadas en el principio de paridad (Adams & Aizawa 2010; Rupert 2009; Vega 2008), a saber, que la externalización de los procesos cognitivos –y, en este caso, de los rasgos agenciales- deflacionan tanto el contenido de la noción de agencia que resulta posible hallarla en todos los procesos naturales, una situación que por sí misma nos impediría localizar un “centro de agencia” en sentido estricto. Sin embargo una comprensión de los artefactos en cuanto posibilitadores de acción no nos compromete con estos aspectos insatisfactorios del sesgo externalista de la tesis de la agencia material pues –como se ha visto anteriormente- en el entramado mismo de tal agencia extendida/andamiada se preserva un locus singular que reviste condiciones (estatuto corporizado, perspectiva de primera persona, normatividad interna) que configuran una dimensión agentiva específicamente humana. Así como contra la interpretación de la mente extendida en base al principio de paridad puede afirmarse que no es posible identificar un sistema cognitivo que esté compuesto exclusivamente de elementos “externos” pues el sujeto preserva una autoridad cognitiva a través de la cual se legitima la distinción con algo externo, algo similar puede argumentarse respecto a lo que consideramos un “agente” genuino. Si bien la agencia es ya-siempre extendida/andamiada en una determinada cultura material, sólo hay auténtica agencia plena donde hay una fuente de autoridad cognitiva que reconoce que es ella misma quien se hace cargo de sus acciones y de las evaluaciones sobre aquello que realiza (Vega 2008). Una segunda objeción consiste en pensar que la clase de agencia andamiada que se defiende en este trabajo no permite dar cuenta del aspecto agencial que comparten, simétricamente, los elementos orgánicos y artificiales en nuestro ambiente. La respuesta a esta objeción, tal como se ha intentado desarrollar más arriba, es que ella misma está basada en un malentendido, más exactamente en una mala comprensión de las condiciones que suponemos cada vez que identificamos un proceso en términos “agenciales”. Así como en la actual discusión sobre cognición extendida suele ponerse límites a la arquitectura de la externalización argumentando, como Rowlands (2009: 15 ss), que no hay procesos cognitivos de-subjetivados (puesto que tales procesos siempre tienen un propietario, que es un individuo), algo similar podría afirmarse en el terreno de la producción, la esfera priorizada en los teóricos de la agencia

163


Parente, Diego

material: no hay producción de-subjetivada. Cada vez que captamos un fenómeno de producción (o acción productiva) suponemos forzosamente una fuente normativa de modulación del ambiente habitualmente corporizada en un organismo-sujeto. Si somos capaces de detectar acciones productivas es porque somos capaces de advertir una asimetría interaccional que nos permite recortar a un agente (que opera como fuente de regulación) sobre el trasfondo de un ambiente. En caso de que tal fuente de regulación no nos fuera visible simplemente habría una suerte de mezcla indistinta de elementos que de ninguna forma podríamos identificar en términos de acción productiva. Este argumento contra el ideal de una simetría completa involucra, entonces, el reconocimiento de que existe una asimetría inmanente entre el agente y el ambiente en el que se inserta, pues el agente es “fuente de actividad, no meramente una víctima pasiva de los efectos de fuerzas exteriores” (Di Paolo et al. 2009). Por tanto, admitir que la agencia humana es siempre “híbrida”, esto es, agencia extendida y andamiada en una determinada cultura material, no nos obliga a eliminar toda asimetría entre lo humano y lo no humano. Por el contrario, esta concepción nos fuerza a preservar una asimetría interaccional como punto de partida, una posición que autores como Latour y Malafouris no parecen dispuestos a asumir. Se debe destacar que preservar este tipo especial de asimetría no implica en ningún sentido el retorno a una posición antropocéntrica dualista ingenua en la que el individuo humano y su mente aparecen como los únicos aspectos activos que pueden originar transformaciones o tener eficacia causal en el ambiente. Conectado con esta última consideración, una tercera objeción al argumento aquí desarrollado podría tener la siguiente forma: el modelo de agencia que hemos utilizado para evaluar la pertinencia de la tesis de la agencia material constituye un punto de partida erróneo pues es decididamente antropomórfico. Pero, en rigor, el modelo de agencia que ha direccionado el recorrido de este trabajo no ha sido estrictamente el humano sino el de los sistemas naturales en sentido amplio —precisamente la teoría enactivista de la cognición y la teoría de las affordances invocadas en este artículo carecen de esa restricción al ámbito humano—. De hecho, la pregunta acerca de cómo entender la vinculación entre ambas explicaciones (qué significa la agencia en los sistemas naturales y qué significa en los sistemas artificiales) estuvo siempre como trasfondo de esta indagación. Esto, por otra parte, debería resultar natural puesto que definir el sentido de agencia implica no solamente echar luz sobre la agencia natural sino también sobre los modelos para la creación, diseño y construcción de agentes artificiales.

164

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 139-168


Los artefactos en cuanto posibilitadores de acción

4. Consideraciones finales Prestando especial atención a los espacios disciplinares en los cuales emerge la tesis de la agencia material el presente trabajo ha procurado defender una particular noción de agencia andamiada en la cultura material. Contra las versiones fuertes de agencia material, se ha argumentado que los artefactos y sistemas técnicos no tienen algo que pudiéramos entender como agencia autónoma no-relacional por el mero hecho de ser entes materiales y disponer de algún tipo de eficacia causal en el mundo. Más bien, ellos constituyen el trasfondo donde se despliega la acción humana, que está inherentemente mediada a través de los posibilitadores ofrecidos por el ambiente artificial. Paralelamente la oposición a una versión fuerte de la tesis de la agencia material implica rechazar la idea de un enfoque totalmente simétrico sobre los agentes prototípicos y los artefactos. Por último cabe destacar que uno de los aspectos que ciertamente queda abierto a futuras indagaciones es si otros ejemplos de ítems artificiales bien distintos a los sugeridos por Latour, Malafouris y Gell en sus argumentos podrían aproximarse al sentido [4] de agencia reconstruido en este trabajo. Hoy en día, como se destacó anteriormente, ese constituye un espacio vacante en el debate específico sobre agencia material. Pero es razonable pensar que incluso si pudiéramos imaginar a tales aparatos o sistemas en los que ese sentido de agencia autónoma se ajustara coherentemente tal situación no debilitaría el argumento aquí esbozado en relación con la agencia andamiada.

Trabajos citados Adams, Fred y Aizawa, Ken (2010), “Defending the Bounds of Cognition”, en: MENARY, R. (ed.), The extended mind, Cambridge: MIT Press. Akrich, M. y Latour, B. (1992), “A summary of a Convenient Vocabulary for the Semiotics of Human and Nonhuman Assemblies”, en: BIJKER, W. Y LAW, J., Eds., Shaping Technology-Building Society. Studies in Sociotechnical Change, Cambridge: MIT Press. Akrich, Madeline (1992), “The De-Scription of Technical Objects”, en: BIJKER, W. y LAW, J., Eds., Shaping technology/Building society: Studies in sociotechnical change, Cambdrige: MIT Press. Broncano, Fernando (2009), La melancolía del ciborg, Barcelona: Herder. _____.(2012), La estrategia del simbionte. Cultura material para nuevas humanidades, Salamanca: Ed.Delirio.

165


Parente, Diego

Clark, Andy y Chalmers, David (1998), “The extended mind”, Analysis, 58: 10-23. Di Paolo, Ezequiel (2005), “Autopoiesis, adaptativity, teleology and agency”, Phenomenology and the cognitive sciences, Vol. 4, (4), 429-452. Di Paolo, Ezequiel, Barandiaran, X. y Rohde, M. (2009), “Defining Agency: Individuality, Normativity, Asymmetry, and Spatio-temporality in Action”, Adaptive Behavior, Vol 17(5): 367–386. Durkheim, E. (1966), The Rules of Sociological Method, New York: Free Press. Gallagher, Shaun (2005), How the body shape the mind, Oxford University Press. Gell, Alfred (1998), Art and agency. An anthropological theory, Oxford: Clarendon Press. Gibson, J.J. (1986), The ecological approach to visual perception, New Jersey: Lawrence Elbaum Associates. Greimas, A. J. y Courtes, J. (1990), “Actante”, en: Semiótica. Diccionario razonado de la teoría del lenguaje. Madrid: Gredos. Hutchins, Edwin (1995), Cognition in the wild, Londres: The MIT Press. _____.(2008), “The role of cultural practices in the emergence of modern human intelligence”, Philosophical transactions of the royal society, vol. 363 (1499). Illies, Christian y Meijers, Anthonie (2014), “Artefacts, Agency, and Action Schemes”, en: Kroes, P. y Verbeek, P. Eds., The moral status of technical artifacts, New York: Springer. Ingold, Tim (2007), “Materials against materiality”, Archaeological Dialogues 14 (1) 1–16. Johnson, Deborah y Noorman, Merel (2014), “Artefactual Agency and Artefactual Moral Agency”, en: Kroes, P. y Verbeek, P. Eds. (2014), The moral status of technical artifacts, New York: Springer. Jonas, Hans (1968), “Biological foundations of individuality”, International Philosophical Quarterly, 8, (2), 231-251. Kirchhoff, Michael (2009), “Material Agency: A Theoretical Framework for Ascribing Agency to Material Culture”, Techné, vol.13, nº 3. Kirsh, David (2010) “Explaining artifact evolution”, en L. Malafouris y C. Refrew (Eds.), The cognitive life of things. Recasting the boundaries of the mind, Cambridge, MacDonald Institute. 166

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 139-168


Los artefactos en cuanto posibilitadores de acción

Latour, Bruno (1991), “Technology is society made durable”, en: LAW, J. (Ed.), A sociology of monsters? Essays on power, technology and domination, Sociological Review Monograph, Londres: Routledge, (38), 103-131. _____.(1992), “Where are the missing masses? Sociology of a few mundane artefacts”, en: BIJKER, W. y LAW, J., Eds., Shaping Technology-Building Society. Studies in Sociotechnical Change, Cambridge: MIT Press. _____.(1994), “On technical mediation. Philosophy, sociology, genealogy”, Common knowledge, (3), 2, 29-64. _____.(2002), “Morality and technology: The End of the Means”, Theory, Culture & Society, 19: 247-260. _____.(2008), Reensamblar lo social.Una introducción a la teoría del actor-red, Buenos Aires: Manantial. Malafouris, Lambros (2008), “At the Potter’s wheel: an argument for material agency”, en: Knappet, Carl y Malafouris, Lambros (Eds), Material Agency. Towards a non-anthropocentric approach, Londres: Springer. _____.(2013), How things shape the mind. A theory of material engagement, Cambridge: MIT Press. Merleau-Ponty, M. (1945), Phenomenologie de la perception, Paris: Gallimard. Miller, Daniel (ed.) (2005), Materiality, Londres: Duke University Press. Odling-Smee, F. John, Laland, K. y Feldman, N. (2003), Niche construction. The neglected process in evolution, Oxford: Princeton University Press. Olsen, Bjornar (2003), “Material Culture after Text: Re-Membering Things”, Norwegian Archaeological Review, Vol. 36, No. 2, 87-104. Preston, Beth (2013), A philosophy of material culture. Action, function and mind, New York: Routledge. Rowlands, Mark (2009), “Extended cognition and the mark of the cognitive”, Philosophical Psychology, 22:1, 1-19. Rupert, R. (2009), Cognitive systems and the extended mind, Oxford University Press. Simondon, Gilbert (2009), La individuación a la luz de las nociones de forma y de información, Buenos Aires: Ediciones La Cebra / Cactus. Sterelny, Kim (2010), “Minds: extended or scaffolded?”, Phenomenology and the Cognitive Sciences, Vol. 9, (4), 465-481. 167


Parente, Diego

_____.(2005), “Made by each other. Organisms and their environments”, Biology and Philosophy, 20, 21–36. Suchman, Lucy (2007). Human-machine reconfigurations. Plans and situated actions, New York: Cambridge University Press. Vega, Jesús (2008), “Mentes híbridas. Cognición, representaciones externas y artefactos epistémicos”, en: Sánchez Criado, Tomás (Ed.)., Tecnogénesis. La construcción técnica de las ecologías humanas, vol. 2, Madrid: AIBR. Verbeek, Peter (2008), “Obstetric ultrasound and the technological mediation of morality: a postphenomenological analysis”, Human Studies, 31 (1), 11-26.

168

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 139-168


Metaheurísticas y resolución de problemas complejos1,2 Metaheuristics and solving complex problems Carlos Eduardo Maldonado3,4

R esumen No todos los problemas son complejos. Las metaheurísticas son herramientas adecuadas para la resolución de problemas complejos, lo cual implica, de entrada, poder identificar la naturaleza de los mismos. Este artículo presenta y discute las metaheurísticas como una de las metodologías específicas en el estudio de los fenómenos de complejidad creciente y defiende la idea de que su función es la de resolver problemas complejos. Para ello se recorren cuatro pasos, así: en primer lugar, se identifica la naturaleza de los problemas, en segundo término, se elabora una presentación sumaria de las metaheurísticas; posteriormente, se introduce una visión de los temas de optimización; finalmente, se discute la teoría de la complejidad computacional con la intención de precisar que son las ciencias de la complejidad. Al final se extraen algunas conclusiones. Palabras clave: Ciencias de la complejidad, método, metodología, heurísticas, optimización, toma de decisiones.

A bstract Not every problem is complex. Metaheuristics stand out as the adequate rods for solving complex problems. This entails, from the outset, the capacity to identify the very nature of such problems. This paper presents and discusses metaheuristics as specific methodologies in the study of increasingly complex phenomena, and claims that the function of metaheuristics consists in solving complex problems. In order to do that, four steps are followed, thus: firstly the very nature of complex problems are identified; secondly, a general view of metaheuristics is set out; thirdly, a view of optimization is introduced; and fourthly, the theory of computational complexity is discussed aiming at clarifying furthermore what the sciences of complexity are all about. At the end some conclusions are drawn. Key Words: Sciences of complexity, method, methodology, heuristics, optimization, decision making.

1 Recibido: 16 de mayo de 2016. Aceptado: 20 de junio de 2016. 2 Este artículo se debe citar así: Maldonado, Carlos E. “Metaheuristicas y resolución de problemas complejos”. Rev. Colomb. Filos. Cienc. 16.33 (2016): 169-185. 3 Profesor Titular de la Facultad de Ciencia Política y Gobierno de la Universidad del Rosario. Correo electrónico: carlos.maldonado@urosario.edu.co 4 Bogotá (Colombia).


Maldonado, Carlos Eduardo

1. Introducción Digamos, a título de discusión, que si bien el pensamiento complejo (esto es, Morin y los morinianos) dispone de El método –a saber, la obra principal de E. Morin compuesta por seis libros con el mismo título pero con diferente subtítulo cada uno–, las ciencias de la complejidad se componen de y articulan, en contraste, a la vez, en un pluralismo metodológico. Más exactamente, en ciencias de la complejidad no existe un único (o principal) método sino, mejor aún, una diversidad de metodologías, acordes todas con los desarrollos, teóricos y prácticos, de la investigación de punta en el mundo. El problema de “el método” en ciencias de la complejidad no puede ser resuelto sin, entre otras cosas (Maldonado 2011), atravesar por, y elucidar, el sentido de las metaheurísticas. Pues bien, las metaheurísticas constituyen uno de los conjuntos de las metodologías en el trabajo y la investigación con fenómenos, sistemas y comportamientos caracterizados por no-linealidad, autoorganización, complejidad creciente, emergencia y otras propiedades semejantes y conocidas. Este artículo se propone presentar y discutir las metaheurísticas tomando como hilo conductor un motivo serio que habitualmente pasa desapercibido por una buena parte de la comunidad de complejólogos y de expertos de temas como la metodología de la investigación científica, a saber: distinguir qué clase de problemas son complejos –en el sentido técnico de la palabray cuáles no. Sobre la base de este hilo conductor, se trata aquí de trabajar sumariamente las relaciones de diferencia entre la heurística en general y las metaheurísticas, para lo cual el estudio de los temas y problemas de optimización se hace indispensable. Las ciencias de la complejidad son ciencia de punta, cuyo método, como gustaba decir a R. García (2006) es la interdisciplinariedad. Solo que, en rigor, se trata de una expresión genérica y bien intencionada pero de escaso valor metodológico y científico. Los temas y problemas de metaheurísticas hacen referencia directamente a los temas y problemas relativos a optimización.

2. L a naturaleza de los problemas complejos La heurística, en el sentido corriente actual de la palabra, fue introducida por I. Lakatos en el contexto de la discusión entre Kuhn y Popper acerca de los criterios de demarcación de la ciencia (Stadler 2010) –discusión en la que el mismo Lakatos participa con argumentos propios y originales logrando

170

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 169-185


Metaheurísticas y resolución de problemas complejos

distanciarse de sus dos amigos y colegas–. Hay que decir que el concepto mismo de “criterios de demarcación” es acuñado genéricamente por la Escuela de Viena, como un esfuerzo de distinción entre el idealismo neokantiano, el idealismo neohegeliano y los neotomismos de la época y la ciencia. Esto es, de manera puntual, se trata de distinguir a la ciencia de la metafísica. Las consecuencias subsiguientes de ese trabajo son conocidas en la historia de la ciencia y la filosofía de la ciencia (Reisch 2009). Específicamente, el concepto de heurística aparece en el contexto de la diferenciación entre los “programas de investigación científicos” y los “programas de investigación metafísicos”. Es a Lakatos a quien debemos, de manera frontal, el reconocimiento de que la ciencia trata con problemas, y que lo propio de la investigación científica consiste en desarrollar eso: unos criterios de identificación y solución de un problema dado. Eso exactamente es la heurística (Michalewicz & Fogel 2000). Así, la noción de “problema” viene a remplazar, de manera radical, a la concepción clásica según la cual la ciencia se caracterizaba por que tenía “objetos”, una expresión que hoy en día resulta arcaica y equivocada. En otras palabras, debe quedar en claro que la ciencia actual ya no se define por “objetos”, sino por los problemas de que se ocupa. Como quiera que sea, dicho en término clásico, puede decirse que lo propio de la filosofía consistió siempre en formular preguntas y problemas. Por ejemplo: “¿Qué es el hombre?”, “¿de dónde venimos?”, “¿hacia dónde vamos?”, “¿qué es la libertad?”, y muchos otros semejantes. Sin embargo, cuando un problema: a) tiene una solución, o bien: b) puede tener una solución, esa solución no es filosófica; es, además y fundamentalmente, científica. De esta suerte, lo propio de la ciencia consiste en resolver problemas. Este esquema tradicional ha sufrido con el tiempo numerosas y profundas transformaciones. Quizás la más importante es el hecho de que, muy recientemente, la filosofía ha aprendido a responder preguntas, y la ciencia, a su vez, ha aprendido a concebir problemas – adicionalmente. De hecho, sin lugar a dudas, los más apasionantes, los más importantes, los más difíciles problemas hoy en día son esencialmente formulados por científicos que tienen un espíritu o una sensibilidad filosófica. En rigor, las metaheurísticas nacen en el marco del desarrollo de las ciencias de la computación, y muy específicamente en el estudio de problemas de optimización (Doerner et al. 2007). Por consiguiente, las matemáticas aplicadas constituyen aquí el basamento de las metaheurísticas y el hilo conductor de las mismas son los algoritmos – justamente en la resolución

171


Maldonado, Carlos Eduardo

de problemas (Maniezzo et al. 2009). Desde un punto de vista un poco más técnico, las metaheurísticas constituyen el ADN de la teoría computacional de la complejidad. Ahora bien, la teoría computacional de la complejidad constituye una de las ramas de la teoría de la computación consistente en estudiar e identificar los problemas computacionales de acuerdo con su dificultad. Históricamente, quizás el primero y más importante de los problemas computacionales –o de optimización- es el famoso problema del vendedor viajero, formulado originariamente hacia los años 1930. El núcleo mitocondrial, si cabe la expresión, de todos los problemas teóricos de la computación pivotan en torno a la capacidad computacional de la máquina de Turing (TM), y en términos lógicos, alrededor de la tesis Church-Turing (ChT-thesis) (Syropoulos 2008). Así, un problema se dice que es complejo en correspondencia con el tiempo necesario de computación del mismo o de su resolución, o bien, igualmente, según la longitud de un lenguaje computacional –esto es, la expresividad del lenguajepara formularlo y resolverlo. En otras palabras, la complejidad de un problema se corresponde con la complejidad computacional del mismo. Así las cosas, en la base de las metaheurísticas se encuentra lo que podemos concebir quizás como la columna vertebral de los trabajos sobre complejidad, a saber: los problemas P versus NP (Maldonado 2013).

3. Una primera visión de las metaheurísticas Mientras que la heurística –un concepto desarrollado originariamente, en tiempos recientes, por I. Lakatos–, hace referencia a la búsqueda de una solución a un problema en términos exactos, las metaheurísticas no trabajan con un problema y la búsqueda de su solución. Por el contrario, trabajan con conjuntos de problemas en la búsqueda de espacios de solución. Pero, adicionalmente, desplazan la búsqueda de soluciones exactas o precisas, para enfocarse en soluciones aproximadas que, paradójicamente, por lo menos a simple punto de vista, son más precisas y exactas que las primeras. Las metaheurísticas tienen la ventaja de ser exploratorias y abiertas, no restrictivas ni axiomáticas (Chen et al. 2015). Esta cualidad representa una alternativa particularmente apropiada para buscar la convergencia entre la abstracción, los modelos construidos de futuro y los planes centrados en la lógica tradicional. Pero con ello, al mismo tiempo y de forma creciente, en el trabajo con lógicas no-clásicas.

172

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 169-185


Metaheurísticas y resolución de problemas complejos

Las metaheurísticas operan mediante algoritmos, salvo que no son algoritmos de orden común, son especiales; básicamente porque no se rigen por un patrón predictivo, ni causal ni tampoco organizado; más bien es aleatorio: el algoritmo adquiere su “forma óptima” a través de itinerancias o pruebas que aproximan la solución, por ejemplo mediante métodos de búsqueda basados en gradientes (Kuo & Zulvia 2015). Los algoritmos más conocidos en metaheurística son, los algoritmos genéticos, la búsqueda tabú, ACO (algoritmo de colonia de hormigas, por sus siglas en ingles), recocido simulado (simulated annealing) PSO (partículas de optimización de enjambre, por sus siglas en ingles), y en forma común sirven para el mismo propósito general, tratar de recorrer el espacio de soluciones sin quedar “atrapados” en una zona. Los algoritmos metaheurísticos, se basan en la combinación de algoritmos heurísticos con otro tipo de técnicas; para entenderlo mejor, es necesario hacer mención de los algoritmos heurísticos. De forma general, “heurística” deriva del griego heuriskein, que significa “encontrar” o “descubrir”, y en un esquema tradicional binario o de árboles de decisión ofrece solo uno o ambos objetivos, que no garantizan la solución óptima pero sí buenas soluciones; al igual que el método de búsqueda local, llega a ser una búsqueda ciega, es predictivo, se mueve hacia la vecindad; ahora bien, en esta búsqueda, se corre el riesgo de quedar atrapados en óptimos locales, razón por la cual se consideran mejores los algoritmos metaheurísticos; siendo estos menos “lógicos”, resultan a la postre más efectivos. A continuación se presentan algunos de los algoritmos más comunes en metaheurísticas. Sin embargo, el objetivo de este texto no es el de ser exhaustivos en esta presentación sino el de mostrar el aire, el carácter o las actitudes generales que implican estas técnicas de cara al estudio de problemas complejos. En otras palabras, se trata de señalar en qué consiste pensar, de cara a los problemas complejos, de manera compleja, justamente.

3.1. Algoritmo búsqueda tabú, con memoria Desarrollado originariamente a partir de 1987 por F. Glover (1987), se basa en la aplicación de estrategias basadas en procedimientos de aprendizaje, mediante el uso de memoria selectiva y la búsqueda inteligente; la primera, se enfoca en recordar únicamente las características importantes del camino, como su evolución y estructura; la segunda, es una exploración inteligente, basada en la información recogida durante la búsqueda. En la práctica esto funciona mediante la inclusión de la lista tabú (por ejemplo evitando repetir las soluciones ya probadas), en un programa de computador que realiza la búsqueda de las soluciones optimas, alejándose de los óptimos locales.

173


Maldonado, Carlos Eduardo

Cada ciclo de búsqueda, es una iteración, que por supuesto, inicia de una probable solución que parece óptima; por ejemplo, reducir el número de errores de puntería de un arma automatizada de precisión, que requiere una calibración especial, o apuntar una antena satelital; incluso, reducir los costos de operación en un proceso industrial, como fabricación de baterías de radio o municiones. Siempre habrá un valor proporcionado por los parámetros estándar, considerado como óptimo. A partir de estos valores, se inician las iteraciones, mediante el algoritmo tabú, que evitará encontrar soluciones del mismo valor o de valores mayores.

3.2. Algoritmo genético Desarrollados originariamente por J. Holland (1995), los algoritmos genéticos son algoritmos con la capacidad de aprender, que constituye el rasgo más determinante en la evolución de cualquier sistema vivo o que exhiba vida. A diferencia del algoritmo tabú, el algoritmo genético no es un método de búsqueda local. Esta técnica de búsqueda usa una población de soluciones que son manipuladas independientemente. Este algoritmo fue construido con base en los principios de la teoría de la evolución de Ch. Darwin. Desde su introducción, esta técnica de búsqueda ha sido usada en una variedad de disciplinas y hay investigaciones sustanciales para identificar su aplicación práctica. “Las poblaciones”, son listas que surgen del principio de la supervivencia del más capaz; cuando el algoritmo se inicia, una población es creada aleatoriamente; usando la población existente, una nueva generación es creada usando operadores genéticos, tales como, cruce, mutación y reproducción. Idealmente, a medida que el algoritmo progresa, las soluciones van mejorando y las soluciones óptimas, pueden alcanzarse a lo largo del tiempo (cf. Connor & Shah 2014). El nombre de algoritmo genético, no quiere decir que incorpore, células o ADN, como podría pensarse, sino, lo que significa es que se basa en el lenguaje biológico, y más específicamente evolutivo, en sus conceptos y lógicas, para emular su comportamiento, salvo que en un entorno distinto: el virtual.

3.3. Algoritmo GRASP. Procedimientos de búsqueda miopes, aleatorizados y adaptativos Creado por Feo, T y M, Resende en 1995 (Feo & Resende 1995), como una heurística probabilística para un grupo de problemas computacionales cubiertos, el algoritmo GRASP se basa en la premisa de que soluciones iniciales diversas y de buena calidad juegan un papel importante en el éxito de métodos locales de búsqueda. Cada iteración consta de dos fases: la cons-

174

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 169-185


Metaheurísticas y resolución de problemas complejos

trucción de una solución factible y la búsqueda local para localización de un mínimo local en el entorno de la solución construida. A este algoritmo corresponde una secuencia, así: primero se obtiene una solución y el algoritmo puede correr entonces a la fase dos, que es aproximada, rastrea un espacio local de configuración, aplica en lógica, diseño de redes, horarios, entre otros y apunta entonces a una solución.

3.4. Algoritmo Scatter Search. Búsqueda dispersa Diseñado por Glover en 1977 (Glover 1977), empezó a usarse en la década de los 90 del siglo xx. Se trata de un método evolutivo, al igual que GRASP, que trabaja con poblaciones de solución mediante la exploración sistemática sobre una serie de buenas soluciones (conjunto de referencia), combinación de dos o más soluciones del conjunto de referencia, elección de pesos apropiados de la combinación; combinaciones convexas y no convexas, distribución “dispersa” de los puntos. Se diferencia de los algoritmos genéticos, básicamente porque se trabaja con un conjunto limitado de soluciones, y se aplica un proceso de mejora a las soluciones obtenidas mediante combinaciones. Pese al lenguaje ciertamente técnico, en realidad las metaheurísticas y sus algoritmos pueden ser utilizados e implementados por personas sin una cualificación matemática de alto nivel, y no implican, en absoluto un reduccionismo de tipo matemático o computacional en el trabajo con complejidad (como una mirada externa o acaso superficial pudiera creerlo). Al respecto, vale recabar sencillamente que el computador y la computación son herramientas culturales. Asimismo, en la mayoría de los casos, las metaheurísticas aplicadas a problemas sociales, políticos y organizativos aportan conceptos, lógicas, analogías y enfoques que permiten ser empleadas a la medida, según la naturaleza y circunstancias propias del problema. Esto quiere decir que, no en todos los casos, será necesario o posible aplicar o emplear un algoritmo a un problema general o específico.

4. Optimización: una visión sumaria Los temas y problemas de optimización son fundamentales en ciencia como en la vida cotidiana, y conciernen por igual a científicos, ingenieros, empresarios, estrategas, tomadores de decisión en cualquier ámbito y momento, por ejemplo. El proceso puede ser sintetizado, grosso modo, de la siguiente manera: 1. Se formula o identifica un problema;

175


Maldonado, Carlos Eduardo

2. Se construye un modelo para el problema. Este modelo puede ser matemático, lógico, o computacional; 3. Se optimiza el problema, de suerte que se busca una “buena” solución; 4. Se implementa la solución Pues bien, un problema de optimización consiste en hallar las soluciones factibles o posibles a un problema y las funciones de las soluciones. Así, el objetivo fundamental consiste en encontrar el óptimo global de las soluciones. De manera general, los modelos de optimización incorporan: modelos de programación matemática, optimización combinatoria, modelos de restricción (o constrictivos), y modelos analíticos. Los primeros se dividen en programación continua, íntegra y mixta, y se articulan como modelos lineales o no-lineales (Talbi 2009). La dificultad radica en que numerosos problemas de optimización son no-tratables. Ello implica la distinción entre problemas decidibles y problemas indecidibles – un tema que se remonta a Hilbert, Turing y Gödel. Un problema se dice que es decidible si puede ser compresible, y por el contrario, se dice que es indecidible cuando no existe ningún algoritmo de solución dados recursos, tiempo y espacio ilimitados. De manera “práctica”, el foco de la atención se ha concentrado tradicionalmente en la complejidad de los problemas decidibles. Digamos, de manera puntual que la complejidad de un problema es equivalente a la complejidad del mejor algoritmo para resolver el problema. Así las cosas, un problema se dice que es tratable –esto es, fácil–, si existe (o se puede crear) un algoritmo en un tiempo polinomial. Por el contrario, un problema se dice que es intratable –o sea, difícil–, si no existe (y no se puede desarrollar) un algoritmo en un tiempo polinomial que pueda resolver el problema. En una palabra: no todos los problemas son complejos (y por derivación, no todos los sistemas y no todas las cosas son complejas). Pues bien, un tiempo polinomial es fácilmente comprnesible a través, por ejemplo, de los cronogramas; es el tiempo que se entiende y gestiona en términos de horas, días, semanas, meses y años, de tal suerte que se busca una solución al problema dividiéndolo en unidades de tiempo “real”.

5. L a complejidad de la resolución de problemas La complejidad de la resolución de un problema ha sufrido un cambio drástico gracias a los desarrollos de la computación, y concomitante con los trabajos en torno a optimización, gracias también a los problemas de complejidad combinatoria y los más recientes desarrollos tanto en matemáticas como en lógica.

176

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 169-185


Metaheurísticas y resolución de problemas complejos

Esquema 1: giro en la complejidad de la resolución de un problema Ciencia e ingeniería

Problema à Modelo aproximado à Solución

Tradicionales Precisa

Ciencias de la complejidad e ingeniería de sistemas

Precisa

Problema à Modelo aproximado à Solución

Complejos

Aproximadas

Fuente: Maldonado y Gómez (2011b) Como se aprecia, la distinción fundamental entre la ciencia clásica y las ciencias de la complejidad estriba en el hecho de que anteriormente se buscaban soluciones precisas a los problemas, con todo y el reconocimiento de que el o los modelos tenían o podrían tener falencias y ser solamente aproximados. Por el contrario, en el marco del trabajo con fenómenos y sistemas de complejidad creciente se desarrollan modelos precisos y se apunta a soluciones aproximadas, las cuales, paradójicamente son mucho más exactas o viables que los que la ciencia y los enfoques normales pretendían o podían. Ahora bien, se impone una observación puntual. Tanto en la expresión “ciencia e ingeniería tradicionales”, como “ciencias de la complejidad e ingeniería de sistemas complejos” es preciso incluir todos los campos de trabajo e investigación, en el sentido más amplio e incluyente que trabajan o se encuadran en los planos correspondientes; esto es, los estudios militares y políticos, todos los trabajos sobre táctica y estrategia, la administración, y la mayoría de las ciencias sociales, pero también los temas relativos a la educación, aspectos económicos, y dimensiones de gestión en cualquier acepción de la palabra. Ahora, con respecto a la ingeniería de sistemas complejos véase (Braha et al. 2006; Maldonado & Gómez 2011a).

177


Maldonado, Carlos Eduardo

Pues bien, existen, genéricamente hablando, dos clases de metaheurísticas: las orientadas a soluciones singulares, y aquellas dirigidas a conjuntos de soluciones. En este segundo caso se habla, en propiedad, de metaheurísticas basadas en poblaciones. Estas dos clases se subdividen en las metaheurísticas paralelas (Alba 2005) y distribuidas, y las metaheurísticas híbridas (Blum et al. 2008). Adicionalmente, se encuentran las hiperheurísticas, y en estrecha relación con ellas las metaheurísticas multinivel y las autodaptativas (Cotta 2008). Asimismo, muy recientemente, se ha desarrollado también metaheurísticas híbridas basadas en descomposición (Raidl 2015), además de la metaheurística basada en gradientes. Digámoslo de manera franca: las metaheurísticas constituyen un campo vívido de investigación cuyo nutriente primero consiste justamente en la comprensión de lo que es propiamente un problema complejo y en los esfuerzos de solución de esta clase de problemas. Este campo vívido es investigación en proceso. Como quiera que sea, la idea de base no es difícil: se trata de múltiples herramientas metodológicas de abordaje y solución de problemas complejos, y cada cual se usa en función del problema o conjunto de problemas que interesen al investigador, al científico, o al tomador de decisiones, por ejemplo. Si bien podría hacerse una elucidación puntual de en qué consiste cada una de la metaheurísticas mencionadas, lo importante aquí es atender al hecho de que existe, manifiestamente, un pluralismo metodológico en cuanto a las metaheurísticas. Y que este pluralismo constituye una de las fortalezas de las ciencias de la complejidad conjuntamente con la teoría de la complejidad computacional. Muy frecuentemente, los problemas de optimización son problemas complejos (Alba et al. 2009). Sin embargo, son posibles otros modos de clasificación de las metaheurísticas. Así, por ejemplo, si se inspiran en la naturaleza o no (Lewis 2009) –y más específicamente, si son bio-inspirados, o no–; según si hacen uso de memoria o no; de acuerdo a si son deterministas o estocásticos, o si son iterativos o ambiciosos. El esquema 2 ilustra el mapa general de la metaheurísticas:

178

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 169-185


Metaheurísticas y resolución de problemas complejos

Esquema 2: mapa de las metaheurísticas Métodos Clásicos Heurísticas Metaehurísticas Metaehurísticas híbridas Metaehurísticas paralelas y distribuidas

Computación no convencional

Configuración

Instandar Módulos

Afinar Párametros

Problema estructural

Problema paramétrico

Personalización de metaheurísticas

Hiper heurísticas

Metaehurísticas multinivel

Metaehurísticas auto-adaptivas Afinamiento de metaehurísticas

Aprendizaje de máquina

Fuente: Maldonado y Gómez (2011b) De manera general, las metaheurísticas implican estrechamente campos de trabajo e investigación tales como la inteligencia computacional, los temas relativos a optimización numérica, algoritmos evolutivos, computación evolutiva, y en su horizonte, los sistemas y problemas no-algorítmicos. Maldonado y Gómez (2014) denominan a esta última clase como hypercomputación, y el modelo de base es el estudio de los sistemas vivos; más exactamente, el estudio de la forma como los sistemas vivos procesan información; esto es, resuelven problemas.

179


Maldonado, Carlos Eduardo

6. L a teoría computacional de la complejidad Ahora bien, debe quedar en claro que en el trabajo con metaheurísticas el tema de base son algoritmos aproximados, no algoritmos exactos. Ello permite no solamente hablar sino incluso trabajar con problemas de optimización en condiciones de incertidumbre; así por ejemplo, en la elaboración de mapas, en problemas de temporalidad, o de rutas. Todos son temas específicos que señalan en una dirección más puntual hacia uno de los sentidos de las ciencias de la complejidad, lo cual, por decirlo menos, permite comprender que la complejidad es más que una epistemología y que una jerga (que se expresa en términos como emergencia, no-linealidad, autoorganización, y otros). Las ciencias de la complejidad son ciencia en sentido estricto (strenge Wissenshaft). Pues bien, la forma de considerar los problemas complejos es mediante la clasificación de las clases de complejidad de los problemas de decisión. La clasificación más general son los problemas P versus NP (Fortnow 2013). El esquema 3 presenta esta clasificación:

Esquema 3: Clases de problemas P y NP

Problemas NP Problemas P

NP - completo

Fuente: http://3.bp.blogspot.com/-jS3ISuY5feA/Th4br02PiuI/AAAAAAAAAJ4/wV_O88Fm8is/s1600/P_NP_y_NP-completo.png

180

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 169-185


Metaheurísticas y resolución de problemas complejos

Pero una presentación más completa es la que corresponde al esquema 4:

Esquema 4: Visión compleja de las clases de problemas complejos

Fuente: http://www.cse.psu.edu/~sxr48/cmpsc464/ Complexity-classesdiagram.jpg La explicación del esquema 4, sin embargo, debe quedar aquí de lado por su carácter técnico y por el tema mismo de este artículo, aunque otras representaciones son posibles y se emplean en la bibliografía sobre los problemas P versus NP. El anterior esquema sencillamente tiene la función de señalar en la dirección de la complejización de lo que es muy específicamente un problema complejo, y que merece un espacio propio aparte (este constituye el objeto de otro trabajo en el que me ocupo actualmente, y el eje de una de las investigaciones que adelanto en la actualidad). Como quiera que sea, las metaheurísticas (SA, GA, PSO, etc.) se emplean generalmente para resolver grandes problemas de manera aproximada, o bien próximos o cercanos a una optimalidad (Alba et al. 2009). Sin embargo, es preciso señalar que la eficiencia de las metaheurísticas ha sido calificada por lo general como impráctica para abordar proyectos del mundo real, incluso algunas reglas heurísticas incorporadas, especialmente para problemas combinatorios de gran escala.

181


Maldonado, Carlos Eduardo

7. Conclusiones Los tratamientos, abordajes y, por así decirlo, los cortes sobre las metaheurísticas son variadas y ricas en la bibliografía sobre el tema. Aquí, sencillamente he querido tomar como hilo conductor el que me parece que es el núcleo central de todos los tratamientos, a saber: la distinción de problemas en complejos y no complejos, y entonces el trabajo con los primeros, que es lo que verdaderamente interesa a la comunidad de complejólogos. Y más sensiblemente, a los más acuciantes retos, problemas y desafíos del mundo actual. Para decirlo de manera franca y directa, a los complejólogos no nos interesan los conjuntos de problemas que no son complejos. Para ello existen numerosas técnicas, métodos y aproximaciones exitosas, muchas de ellas lineales y maximizadoras. Así las cosas, la base primera de trabajo en complejidad consiste en identificar si un problema es o no complejo, pues como queda dicho, no todos los problemas lo son. Es más, y de manera muy exacta, la gran mayoría de los problemas no son complejos. Y sin embargo, los más cruciales o sensibles de todos los problemas son, sin la menor duda, los complejos; esto es aquellos que pueden ser llamados clara y distintamente como problemas complejos. Esta es, sin lugar a dudas, la distinción más radical de todas entre el llamado “pensamiento complejo” y las ciencias de la complejidad; se trata del criterio de demarcación según el cual una teoría que explica todas las cosas no explica nada. En otras palabras, las ciencias de la complejidad no se ocupan ni de problemas simples, ni tampoco complicados. Y cuando se ocupa de problemas complejos dispone de un pluralismo metodológico. Una faceta de este pluralismo estudiado en este artículo son las metaheurísticas. Desde luego que existen aspectos bastante más técnicos –conceptual, matemática, computacionalmente hablando, por ejemplo–, en el estudio de las metaheurísticas. El propósito de este artículo ha consistido en mostrar de qué manera se trabaja con problemas complejos; o, lo que es equivalente, ha sido el de señalar en la dirección propia de la resolución de problemas complejos. Como se sigue de una mirada reflexiva, ya dependería de cada problema el empleo de una metaheurística determinada, o de determinadas técnicas. Así, por ejemplo, en función de las dimensiones del problema, de la identificación de puntos y estados críticos, de los recursos disponibles, del tiempo con que se cuenta, y demás. Quedan abiertos varios problemas que más o menos de manera directa podrían interpelar a los investigadores. Así, por ejemplo, ¿existe alguna metodología o marco que facilite resolver de manera aproximada grandes problemas

182

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 169-185


Metaheurísticas y resolución de problemas complejos

NP-duros? ¿Podemos hallar todos los puntos críticos de un problema y si es así cómo? ¿Cómo medir la distancia mínima y promedio entre óptimos locales en un espacio de búsqueda continuo? Si disponemos de la información necesaria o pertinente, podemos entonces hacer algunas cosas interesantes a fin de explotar ese conocimiento con vistas a mejorar el desempeño de algunas técnicas de investigación o de búsqueda. Los métodos basados en hacer clusters para medir la distancia mínima o promedio entre óptimos locales es altamente inconsistente, y esto tiene un gran efecto sobre el desempeño global de nuestros métodos. Y otra manera consiste en la elaboración de mapas –por ejemplo mapas cuadráticos–, que permiten manifiestamente una resolución de problemas en términos dinámicos y procesos de tomas de decisión en-proceso. En fin, se trata de un conjunto de problemas, retos, desafíos y dimensiones frente a los cuales la capacidad investigativa de los científicos, por ejemplo, resulta determinante. Al fin y al cabo, asistimos a un mundo y época en la que los riesgos están globalmente interrelacionados. Un motivo serio para la complejidad; la complejidad y sus métodos (Helbing 2013). Finalmente, hay que tener en cuenta un hecho elemental en ciencia e investigación: es el problema el que determina el método – que debemos o podemos emplear–. Y no al revés. Pues bien, esto aplica también para el caso de las metaheurísticas. O de los demás métodos y metodologías en ciencias de la complejidad. Al fin y al cabo vivimos en un mundo alta y crecientemente complejo, en tiempos y con dinámicas de altas fluctuaciones y turbulencias, todo lo cual demanda comprender muy bien, identificar adecuadamente los tipos de problemas que emergen. Después de todo, todo el sentido de la ciencia no es otro que el de la formulación de problemas y la búsqueda de solución de los mismos. Pues bien, las ciencias de la complejidad contribuyen a este panorama de forma activa mediante un conjunto de herramientas que les son propias y que ayudan, dicho en passant, a demarcar a la ciencia general o normal de las ciencias de punta que son las ciencias de la complejidad. Digámoslo de manera sucinta: no es suficiente con identificar un problema. Es necesario, además, establecer si se trata de un problema complejo o no. Si el problema es complejo, nos encontramos entonces de frente con temas y problemas de optimización, y con ellos, entonces, con la importancia y el significado de las metaheurísticas. Un área en pleno desarrollo. Y en el horizonte de los problemas de optimización, con el tema mismo de la teoría de la complejidad computacional que puede ser llamada como la columna vertebral de todos los estudios y trabajos sobre complejidad.

183


Maldonado, Carlos Eduardo

Trabajos citados Alba, E., (Ed.). Parallel Metaheuristics. A New Class of Algorithms. New Jersey: Wiley & Sons, 2005. Alba, E., Blum, C., Isasi, P., León, C., Gómez, J. A. Optimization Techniques for Solving Complex Problems. New Jersey: Wiley & Sons, 2009. Blum, C., Blesa, M. J., Blesa A., Sampels, M., (Eds.). Hybrid Metaheuristics: An Emerging Approach to Optimization. Berlin: Springer Verlag, 2008. Braha, D., Minai, A. A., Bar-Yam, Y. Complex Engineered Systems. Science Meets Technology. Springer Verlag. 2006. Chen, X., Kong, Y., Dand, L., Ye, X. “Exact and Metaheuristic Approaches for a Bi-Objective School Bus Scheduling Problem” PlosOne July 15 (2015): 1-20. Connor, A. M., and Shah, A. “Resource allocation using metaheuristic Search” En Wyld, D. C., et al. (Eds.): CCSIT, SIPP, AISC, PDCTA, NLP, (2014): 353–364. Cotta, C., Sevaux, M., Sörensen, K., (Eds.) Adaptive and Multilevel Metaheuristics. Springer Verlag, 2008. Doerner, K., et al., (Eds.). Metaheuristics: Progress in Complex Systems Optimization. Springer Verlag, 2007. Doerner, K. F., Gendreau, M., Greistorfer, P., Gutjahr, W. J., Hartl, R. F., Reinmann, M., (Eds.). Metaheuristics. Progress in Complex Systems Optimization. Springer Verlag, 2007. Feo, T. A., & Resende, M. G. C. “Greedy randomized adaptive search prcedures” Journal of Global Optimization, 6 (1995):109-133. Fortnow, L. The Golden Ticket: P, NP, and the Search for the Impossible. Princeton, NJ: Princeton University Press, 2013. García, R. Sistemas complejos. Conceptos, métodos y fundamentación epistemológica de la investigación interdisciplinaria. Barcelona: Gedisa, 2006. Glover, F. “Tabu Search Methods in Artificial Intelligence and Operations Research” ORSA Artificial Intelligence Vol. 1, No. 2, 6 (1987). Glover, F. “Heuristics for integer programming using surrogate constraints” Decision Sciences Vol. 8, issue 1, January (1977): 156-166. Helbing, D. “Globally networked risks and how to respond” Nature Vol. 497, 2 de mayo (2013): 51-59.

184

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 169-185


Metaheurísticas y resolución de problemas complejos

Holland, J. Hiddel Order. How Adaptation Builds Complexity. Perseus Books, 1995. Kuo, R. J., Zulvia, F. E. “The gradient evolution algorithm: a new metaheuristic” Information Sciences Vol. 316 (20 septiembre) (2015): 246-265. Lewis, A., Mostaghim, S., Randal, M., (Eds.) Biologically-Inspired Optimisation Methods: Parallel Systems and Applications. Springer Verlag, 2009. Maniezzo, V., Stützle, T., VoB, S. Metaheuristics: Hybridizing Metaheuristics and Mathematical Programming. Springer Verlag, 2009. Maldonado, C. E. “Matemática aplicada y herramientas de la complejidad” En Londoño, G., Vera, J., Montealegre, M., (Eds.), Memorias del I Seminario de Matemática Aplicada. Neiva: Ed. Universidad Surcolombiana-Facultad de Ciencias Exactas y Naturales, 2011: 9-26. _____.“Un problema fundamental de la investigación: los problemas P vs. NP” Revista Logos, Ciencia y Tecnología Vol. 4, No. 2, Enero-Junio (2013): 10-20. Maldonado, C E., Gómez-Cruz, N. “The complexification of engineering” Complexity, Vol. 17, No. 4, (2011a): 8-15. _____.El mundo de las ciencias de la complejidad. Bogotá: Ed. Universidad del Rosario, 2011b. _____.“Biological Hypercomputation: A New Research Problem in Complexity Theory” Complexity (2014): DOI 10.1002/cplx.21535 Michalewicz, Z., Fogel, D. B. How to Solve It: Modern Heuristics. Springer Verlag, 2000. Raidl, G. R. “Decomposition based hybrid metaheuristics” European Journal of Operational Research, Vol. 244, Issue 1, (July) (2015): 66-76. Reisch, G. A. Cómo la Guerra fría transformó la filosofía de la ciencia. Hacia las heladas laderas de la lógica. Bernal: Universidad Nacional de Quilmes, 2009. Stadler, F. El círculo de Viena. Empirismo lógico, ciencia, cultura y política. México, D. F.: F. C. E., 2010. Syropoulos, A. Hypercomputation. Computing Beyond the Church-Turing Barrier. Springer Verlag, 2008. Talbi, E.-G. Metaheuristics. From Deign to Implementation. Wily & Sons, 2009.

185



El cuerpo humano como un sistema complejo a la luz del contexto histórico-científico del descubrimiento de la circulación pulmonar: de alejandrinos, árabes, herejes y nobles1,2 The human body as a complex system in light of the historical-scientific contextof the discovery of the pulmonary circulation: about alexandrians, arabs, heretics and nobles Horacio Serna3,4

R esumen La historia remota de las ciencias de la complejidad se suele desconocer al poner de manifiesto que es un conjunto de campos del conocimiento que tuvieron su desarrollo en el siglo xx, sin embargo, las ideas generatrices de las tesis defendidas por las ciencias de la complejidad, en particular la idea de sistema complejo, vienen desde mucho antes. El descubrimiento de la circulación pulmonar revolucionó la manera de entender la medicina en el marco del cambio del paradigma hipocrático-galénico que tuvo influencia hasta muy avanzada la Edad Media, además, el descubrimiento de marras estuvo muy nutrido de elementos que dan sustento para considerarlo como un acontecimiento de suma importancia en el desarrollo histórico de las ideas tempranas en ciencias de la complejidad y en el reconocimiento del cuerpo humano como un sistema complejo. Palabras clave: transdisciplinariedad, cambio de paradigma, pensamiento complejo, circulación pulmonar.

A bstract The remote history of complexity sciences uses to be unknown under the argument that they are a group of fields of knowledge that had their development in XX century, however, the generating ideas of the thesis defended by complexity sciences, in special the idea of complex system, come from long before. The discovery of pulmonary circulation has revolutionized the way of understanding medicine in the context of change of

1 Recibido: 2 de junio de 2016. Aceptado: 22 de septiembre de 2016. 2 Este artículo se debe citar así: Serna, Horacio. “El cuerpo humano como un sistema complejo a la luz del contexto histórico-científico del descubrimiento de la circulación pulmonar: de alejandrinos, árabes, herejes y nobles”. Rev. Colomb. Filos. Cienc. 16.33 (2016): 187-211. 3 Ingeniero Químico, Universidad Nacional de Colombia. Estudiante de Maestría en Ciencias-Química, Universidad Nacional de Colombia. Colaboración con Grupo de Física no Lineal, Universidad de Santiago de Compostela, España. Correo electrónico: hasernas@unal.edu.co 4 Bogotá (Colombia).


Serna, Horacio

the hippocratic-galenic paradigm that had influence until very late in the Middle Age, also, this discovery was very full of elements that sustain the fact of considering it as an event of great importance in the historical development of the early ideas of complexity sciences and the recognition of the human body as a complex system. Keywords: transdisciplinarity, paradigm change, complex thinking, pulmonary circulation.

1. Introducción Las ciencias de la complejidad son, hoy por hoy, un campo del conocimiento de vanguardia que aparece, no solo como un conjunto de disciplinas transversales a todas las ciencias en general, sino como un cambio de paradigma científico en toda regla. Tradicionalmente, el estudio de las ciencias naturales y de las ciencias del hombre se ha hecho de manera separada, lo que genera una estrechez de miras en académicos, científicos e intelectuales, pues las problemáticas más complicadas que sufre la humanidad requieren de un panorama amplio para su solución, panorama que solo provee una visión en la que aparezcan concomitantemente ciencias naturales y humanidades (Sierra & Osorio 186-188). El estudio que proponen las ciencias de la complejidad es integral y sistemático, es decir, que en la medida de lo posible no se desatienda ningún fenómeno a la hora de analizar un sistema, así, pues, los ámbitos químico, biológico, físico, sociológico, psicológico, entre otros, deben estar presentes para realizar una descripción completa del sistema. Por ejemplo, el estudio exhaustivo de una sociedad requiere, en el caso más escueto, modelos de dinámica de poblaciones y modelos sociales que tengan en cuenta aspectos culturales, económicos, políticos, e incluso, religiosos. De entrada, esto sugiere que los sistemas de estudio de las ciencias de la complejidad son grandes y constituidos de un sinnúmero de partes. Un sistema complejo puede definirse como aquel que no es inteligible a partir de la reducción y del entendimiento independiente de cada una de sus partes, esto se debe fundamentalmente a que las interacciones entre las partes del sistema producen características emergentes que no se verifican cuando las partes se aíslan del sistema (Maldonado 7-10). Una de las más llamativas es la auto-organización, que consiste, en lo básico, en una distribución, espacial, temporal o ambas, estructurada y coherente en términos de funcionalidad, los ejemplos teóricos más famosos son las estructuras disipativas(Nicolis y Prigogine) y los patrones morfogenéticos de Turing(1952)

188

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 187-211


El cuerpo humano como un sistema complejo

Estas propiedades emergentes están caracterizadas por la no linealidad y la lejanía del equilibrio termodinámico, razón por la cual se considera que las ciencias de la complejidad tienen una historia reciente que coincide con el periodo de consolidación de ciencias como la termodinámica de no equilibrio, la geometría de fractales, la teoría matemática de la información y la dinámica no lineal, todas ciencias que se consolidaron en el siglo xx (Maldonado & Alfonso 12-26). En su dimensión más humanística, la bioética global, las neurociencias y las lógicas no-clásicas también son consideradas ciencias de la complejidad y enmarcan lo que se conoce como pensamiento complejo (Maldonado 26-28; Sierra & Osorio 1-20) No obstante, prácticamente desde que el ser humano comenzó a formar sociedades y a civilizarse las ideas generatrices de complejidad iniciaron su proceso de gestación. Como botones de muestra se tienen los siguientes temas de interés para construir una historia de las ideas tempranas sobre ciencias de la complejidad: • Biología Aristotélica: La obra biológica del maestro de los sabios es fundamental en muchos aspectos relacionados con la complejidad de los vivientes. Algunas ideas destacables son la interpretación de la homeostasis térmica de los organismos vivos, teleología funcional y los niveles de organización de la materia en función de los cuatro elementos (de la Rosa García 26-30; Bartolomé & Marcos 61; Marcos 1998 1-7) • Medicina Alejandrina: Los médicos Alejandrinos, Erasístrato de Yúlide y Herófilo de Calcedonia, hicieron aportes notables en la anatomía funcional del cerebro y el corazón (de la Fuente Freyre 122-125). • Corpus Galénico: toda la teoría humoral que sustenta el discurso de Galeno sobre la salud y la enfermedad puede interpretarse en clave de complejidad por el uso de los niveles de organización de la materia y el concepto de homeóstasis (Romero et al. 218-225). • Biología islámica: En materia de ciencia el imperio árabe fue notable, incluso se podría decir que sin el esplendor tecno-científico árabe no hubiera existido el Renacimiento Europeo. El descubrimiento de la circulación pulmonar por parte de Ibn-al Nafis en el siglo XIII (Al-Ghazal 1-7; Haddad & Khairallah 1-8) , varias teorías de evolución biológica, como las de Al-Dinawari y Al Jahiz (Shuttleworth 1-5), y el Canon de Avicena (Cameron Gruner 183-195; Serna & Sierra 1-4), son claros ejemplos de ideas relacionadas con la complejidad de los seres vivos.

189


Serna, Horacio

Sin lugar a dudas, la biología ha sido la disciplina que ha nutrido desde tiempos remotos todo ese aparato conceptual de complejidad, esto debido, claro está, a que los seres vivos son el ejemplo de sistema complejo por antonomasia. Así mismo, comenzando por el proceso de auto-reconocimiento que sufrió el homo sapiens y luego la interacción directa que tuvo con otros seres vivos para sustentarse como especie, los primeros sistemas complejos con los que tuvo contacto directo el ser humano fueron, precisamente, los vivientes. La atención se centrará, pues, en una ciencia que exige conocimientos en biología para su ejercicio: la medicina., esto porque, sin ir más lejos, fue la disciplina que permitió, a la postre, comprender de a poco los misterios que escondía el cuerpo humano como sistema complejo, dando luz sobre todo en el problema de la sincronización de órganos para generar una funcionalidad sistémica, que sería imposible de reproducir sin el aporte preciso, fino y localizado de cada uno de los órganos constituyentes, se habla entonces de complejidad en el ámbito espacial y temporal. De esta suerte, conceptos propios de las ciencias de la complejidad como emergencia y auto-organización, si bien solo se acuñaron hasta comenzado el siglo xx, pudieron haber tenido su gestación temprana en el sinnúmero de descubrimientos relacionados con el cuerpo humano debidos a la medicina a lo largo de la historia. En particular, uno de los grandes éxitos en medicina y fisiología fue el descubrimiento de la circulación menor de la sangre, este importante hallazgo tiene una brecha temporal de aproximadamente 19 siglos, desde que los ilustres médicos alejandrinos comenzaron con sus primeras observaciones hasta que William Harvey finiquitó la tarea en el siglo xvii. Así, pues, se realizará un recorrido por los acontecimientos más importantes relacionados con la circulación pulmonar y se estudiará cómo cada uno de ellos aportó ideas tempranas generadoras del nuevo paradigma de las ciencias de la complejidad. Es preciso aclarar que en ningún momento se quiere sostener que las ciencias de la complejidad ya existían desde la Antigüedad, pues es claro que son un campo que consolidó sus pilares fundamentales en el siglo pasado y que aún hoy continúa en un proceso de evolución, sino más bien se quiere mostrar que la circulación pulmonar, su descubrimiento y la teorización en torno a ella, definieron unos hilos argumentales que pueden entenderse como ideas generatrices de conceptos clave en ciencias de la complejidad. A partir de este momento, como el campo de estudio está relacionado con la complejidad de los organismos vivos, más específicamente con el ser humano y su aparato circulatorio, la complejidad inherente a los vivientes se denominará complejidad biológica o biocomplejidad (Marcos 2009 4).

190

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 187-211


El cuerpo humano como un sistema complejo

2. Biología y medicina alejandrina En cuanto a medicina y fisiología, los personajes más importantes de Alejandría son sin duda Herófilo de Calcedonia y Erasístrato de Yúlide, brillantes médicos que utilizaron los principios racionalistas (dogmáticos) de Hipócrates para fundar sus propias escuelas. Herófilo vivió entre el 335 a. C. y el 280 a.C. Desarrolló su vida profesional en Alejandría y hay indicios de varios escritos suyos, la mayoría se perdieron y solo se conservan escasos fragmentos. Las referencias de Galeno son la principal fuente de información sobre Herófilo. Fue uno de los primeros médicos en distinguir arterias y venas (de la Fuente Freyre 123). Estudió ampliamente el cerebro, descubrió sus membranas y sus senos de sangre venosa, uno de los cuales lleva su nombre: la torcular de Herófilo. También, aseveró que el cuarto ventrículo cerebral era la residencia del alma. Estos descubrimientos sobre el cerebro fueron puntos clave para elucubrar su fisiología, así mismo, Herófilo prescindió completamente de las ideas aristotélicas que atribuían al cerebro una mera función refrigerante (Bartolomé & Marcos 26), así, el hecho de considerar el cerebro como el receptáculo del alma hizo que el calcedonio se acercara a un éxito explicativo respecto a la verdadera importancia del objeto más complejo del universo. También hizo análisis muy detallados del ojo y el tubo digestivo, a cuya sección superior bautizó duodeno (de la Fuente Freyre 123). Advirtió las variaciones individuales del hígado, comparó las paredes arteriales y venosas y estudió el pulso a diferentes edades y en distintos estados, tratando de encontrarle un valor diagnóstico como lo hicieron los chinos siglos atrás (de la Fuente Freyre 123). Fue el primero en diferenciar, fisiológicamente, los nervios y los tendones y elaboró la anatomía de los genitales. Erasístrato de Yúlide vivió entre el 304 a.C. y 250 a.C. Estudió en Atenas bajo las enseñanzas de Metrodoro, pensador que lo inició en la filosofía peripatética. Tuvo contacto con Chrysipo el joven en Cnido, un consagrado atomista que le compartió las ideas de Demócrito e influenció la carrera de Erasístrato con un marcado enfoque materialista. Finalmente se establece en Alejandría donde permanece hasta morir (de la Fuente Freyre 123). Solo se poseen noticias de sus escritos a través de citas de otros autores, desafortunadamente todo su legado escrito pereció en el tiempo, pero se sabe que escribió numerosos tratados de anatomía, higiene y patologías abdominales. Desarrolló la anatomía patológica con la cual analizó a profundidad los estadios de una enfermedad, seguramente valiéndose de disecciones de hombres que habían perecido enfermos en diferentes fases de la patología.

191


Serna, Horacio

Una de sus grandes aportaciones fue la anatomía cerebral comparada, con la que pudo notar varias semejanzas entre los cerebros de varios animales y el cerebro humano, lo que le permitió relacionar la inteligencia con la morfología y el tamaño del cerebro, un acierto notable que coincide con varios estudios actuales sobre la línea evolutiva del cerebro (Sagan; Gould). También depuró los descubrimientos de Herófilo, sobre todo en lo que respecta a las cavidades y circunvoluciones en el cerebro de la liebre, el ciervo y el hombre. Sus estudios lo llevaron a concluir que el número de circunvoluciones se relaciona con la inteligencia. Diferenció por primera vez en la historia los nervios motores y sensitivos. Otro gran aporte a las ciencias de la vida fue su trabajo con el sistema circulatorio, Erasístrato identificó y nombró varios órganos de este sistema. Fue pionero en describir la circulación sanguínea adoptando dos posturas ideológicas, la corpuscular y la neumática. Sin bien sus aseveraciones adolecían de imprecisiones, logró argumentar adecuadamente, sin incluir misticismo, varios aspectos de la circulación, por lo que puede considerársele como un fisiólogo importante en la historia de la ciencia. Un gran obstáculo, tanto epistemológico como metodológico, con el que los médicos de la antigüedad debieron enfrentarse sin salir muy bien librados, era el desconocimiento sobre el mecanismo químico de intercambio gaseoso que se lleva a cabo en los alvéolos pulmonares donde se oxigena la sangre y se libera el dióxido de carbono, es precisamente este fenómeno el que relaciona los sistemas respiratorio y circulatorio, y sin su discernimiento era imposible entender la naturaleza de la circulación. Sin embargo, Erasístrato, basado en la creencia de Praxágoras, da su propia opinión de la circulación argumentando que esta solo se produce en las venas, mientras que las arterias contienen el aire. Pensaba que la sangre se fabricaba en el hígado y de allí, por medio de la vena cava, se distribuía por todo el cuerpo. También reconoció en el corazón al motor de la circulación, pues creía que era responsable del bombeo de la sangre venosa y del aire arterial. El ventrículo derecho del corazón contiene sangre mientras que el izquierdo contiene aire puro, posteriormente se mezclan en el ventrículo izquierdo para convertirse en pneuma. Durante la sístole ventricular, la sangre que llenaba el ventrículo derecho pasa por la arteria pulmonar a los pulmones, mientras que el pneuma del ventrículo izquierdo sale por la aorta para distribuirse por la red arterial por todo el cuerpo. En la diástole ventricular, una parte de la sangre que se origina en el hígado se dirige hasta el ventrículo derecho por medio de la vena cava, así mismo el aire que entra a los pulmones se dirige al ventrículo izquierdo por la vena pulmonar. Erasístrato también identificó las válvulas del corazón, es el caso de las sigmoides que, según él, impedían durante la diástole el reflujo de la sangre de la arteria pulmonar y del pneuma de la aorta, y de la válvula

192

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 187-211


El cuerpo humano como un sistema complejo

tricúspide, que hace lo propio en la sístole. En sus observaciones no notó el papel de las aurículas, pues las consideraba parte de los vasos sanguíneos (de la Fuente Freyre 124; Mavrodi & Paraskevas 26). Es notable la lucidez y coherencia de sus argumentos y lo importante que fueron estos en la evolución del pensamiento, pues, en concordancia con sus aseveraciones, se sabe bien que por las arterias circula la sangre oxigenada y por las venas la que es rica en dióxido de carbono, el hecho de considerar que por las arterias circulaba el aire es bastante sugerente, además, la identificación de las válvulas cardiacas también fue un aporte importante, sustentado en las observaciones que realizaba durante la disección de cadáveres. Aunque su argumentación fisiológica sobre la circulación era bastante brillante para la época, había un hecho que Erasístrato no podía explicar con ella, se trataba de las hemorragias arteriales, pues según su fisiología por allí solo circulaba aire (Mavrodi & Paraskevas 26). Sin embargo, el ingenio de Erasístrato no se quedó corto al tratar de explicar tal fenómeno bajo su esquema circulatorio, esta vez acude a un paradigma aristotélico que, entre otras cosas, trajo atascamientos epistemológicos en Occidente: el horror vacui. La definición que el estagirita tenía del vacío era contraproducente, puesto que al considerarlo como falto de contenido, y al argumentar en el libro IV de su Física en contra del mismo, motivó el miedo a utilizar la tecnología del vacío en Occidente, porque, supuestamente, la naturaleza aborrecía el vació, lo que contuvo por varios siglos la revolución tecnológica Occidental (Sierra 53-62 ). En este orden de ideas, Erasístrato supuso que las venas y las arterias estaban unidas por unos vasos muy pequeños e invisibles, así, cuando una arteria se rompía, la súbita salida del aire producía un vacío que con la fuerza del horror vacui hacía que la sangre de las venas viajara a través de aquellos vasos invisibles hasta las arterias y saliera por el lugar de la ruptura (de la Fuente Freyre 125). A fin de resumir la teoría orgánica de Erasístrato en clave de ideas tempranas de biocomplejidad, se puede decir que: • La materia viva se compone de los cuatro elementos. • Los elementos se conforman por agrupaciones de átomos que están separados por pequeños espacios vacíos. • La naturaleza aborrece el vacío y se empeña en llenar tales espacios en los organismos vivos. • La sangre es la responsable de la nutrición de los órganos, mientras que el pneuma sería el alma, la fuerza vital.

193


Serna, Horacio

• La sangre se fabrica en el hígado y llega a todas partes de cuerpo por la vena cava. • El pneuma se fabrica en el ventrículo izquierdo como la interacción de la sangre y el aire, y se impulsa por el cuerpo por las arterias gracias al corazón. En los seis puntos anteriores se evidencia que la organización de la materia se influencia por el atomismo mecanicista y la fisiología se construye a partir de experimentación juiciosa y de teorías intentando justificar las observaciones. Las teorías propuestas por los médicos alejandrinos se centraron en gran medida en la interacción entre las partes constituyentes del organismo, así como del funcionamiento sistémico y sincronizado de los subsistemas que conforman al gran sistema que es el individuo. La dinámica que propusieron entre la sangre, el aire, las venas, las arterias y el corazón, decantaron en un primer modelo de circulación sanguínea y en una primera aproximación a la relación entre el sistema respiratorio y el circulatorio, todo esto reconociendo que cada órgano jugaba un papel importante y que sin su aporte el organismo no podría funcionar correctamente, es decir que la emergencia orgánica depende de las interacciones entre sus partes, además esto daría pie a una teoría de la enfermedad, tema que Galeno desarrolló con más profundidad siglos más tarde. Con esto en mente, es posible decir que una idea temprana de sistema complejo ve la luz con las aseveraciones de los médicos alejandrinos, así no se percatasen de ello en ese momento. Por su parte, la relación del pneuma y el alma de los vivientes puede deberse al reconocimiento de la respiración como acto indispensable para la sustentación de la vida en los animales. Así mismo, por haber logrado tantos éxitos explicativos en materia de fisiología y por el notable entendimiento de los sistemas circulatorio y encefálico que lograron para la época, no cabe duda que los sabios de Alejandría jugaron un papel importante en la generación de ideas tempranas en el campo de las ciencias de la complejidad. Por todo lo anterior, se puede decir que Herófilo y Erasístrato fueron más allá que Aristóteles en materia de fisiología, sin embargo, las concepciones del oriundo de Estagira influyeron mucho más que las de los pensadores alejandrinos hasta muy avanzada la Edad Media.

3. El gran aporte árabe El personaje principal de esa historia es Ala-al-din abu al-Hassan Ali ibn Abi-Hazm al-Qarshi al-Dimashqi, más conocido como Ibn al-Nafis. Este brillantísimo árabe nació en 1213 en Damasco y se educó en el Medical 194

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 187-211


El cuerpo humano como un sistema complejo

College Hospital. Además de medicina, estudió jurisprudencia, literatura y teología. En 1236 se trasladó a Egipto al Hospital Al-Nasari y posteriormente al Hospital Al-Mansuri donde se desempeñó como médico en jefe de los principales galenos de la corte del Sultán (Al-Ghazal 2). Sus principales obras son: • Al Shiami fi al Tibb: Es una enciclopedia de 300 volúmenes cuyo manuscrito se encuentra en Damasco. Al Nafis Murió antes de terminarlo. • Libro de oftalmología: una contribución original y extensa en este campo que aún se conserva. • Mujaz al-Qanon: Sin lugar a dudas es su obra más importante, se conoce en Occidente como Resumen del Canon de Avicena. En este texto Ibn al Nafis no solo hace críticas y anotaciones sobre la fisiología de Avicena, sino también sobre otros médicos árabes y sobre el corpus hipocrático-galénico(Al-Ghazal 1-7; Abdel-Halim 1-12). • Kitab al-Mukhtar fi al Aghdhiyya: Más conocido como El libro de las comidas selectas. Básicamente habla de la importancia de llevar una alimentación balanceada para mantener buena salud. Fue la primera persona en describir correctamente la constitución de los pulmones y dar una descripción de los bronquios y la interacción entre los vasos sanguíneos con el aire y la sangre. El médico damasceno también comprendió la función de las arterias coronarias como alimentadoras del músculo cardiaco. El gran descubrimiento de Ibn al-Nafis fue la circulación pulmonar, el crédito del aporte original se le atribuyó al damasceno en 1924 con el hallazgo del manuscrito de Mujaz al-Qanon (Haddad & Khairallah 1-8). El manuscrito evidencia la claridad explicativa de Ibn al Nafis, quien comienza diciendo que la sangre de la cámara derecha del corazón debe pasar a la cámara izquierda, pero no existe una vía directa entre las dos. Aquí hace una crítica a Galeno quien pensaba que existían unos poros invisibles en el tabique que dividía las cámaras del corazón que permitían el paso de la sangre desde la cámara izquierda hacia la derecha (Yarmohammadi et al. 1; de la Fuente Freyre 198). Continúa diciendo que la sangre de la cámara derecha fluye a través de la arteria pulmonar hacia los pulmones, allí se mezcla con el aire y pasa por la vena pulmonar para alcanzar la cámara izquierda del corazón y formar allí el espíritu vital (Al-Ghazal 4; Haddad & Khairallah 7). 195


Serna, Horacio

En sus disertaciones, el gran fisiólogo árabe mezcla argumentos, que bien pudieron ser constatados mediante disecciones de cadáveres, con una teoría teológica fundamentada en el islam, dando un matiz conciliador entre la ciencia y la fe. Por su parte, aparece un acontecimiento contrastante con su propuesta de conciliación, y es el hecho de que la práctica de la disección era bastante rara en los médicos musulmanes, quizá por razones de índole religioso, y que el mismo Ibn al-Nafis niega utilizar en la introducción de Mujaz al-Qanon (Haddad & Khairallah 8). Sin embargo, la impresionante precisión de sus descripciones no pudo lograrse sin la polémica práctica para la época. No deja de ser llamativo que cuatro siglos más tarde Miguel Servet redescubriera la circulación pulmonar y también publicara sus observaciones en un texto teológico, y esto no es lo único que comparte con el humanista español, pues varios errores explicativos también coinciden en ambos textos (Haddad & Khairallah 3; Bosmia et al. 318-321; Reyes 95-110). Hallazgos recientes indican que antes de Ibn al-Nafis existió un fisiólogo persa que habría sido el primero en describir la circulación pulmonar, se trata de Al-Akhawayani, un académico del siglo X (Yarmohammadi et al. 1819-1821). Al-Akhawayani describió con mucho detalle la estructura de los cartílagos traqueales, las venas y las arterias, además de proponer que la sangre solo podría moverse desde el lado derecho del corazón hacia el izquierdo realizando un circuito con una parada intermedia en los pulmones. No obstante, estuvo fuertemente influenciado por el canon galénico al argumentar a favor de la existencia de poros invisibles en el tabique inter-ventricular, lo que lo llevó a concluir que la mayoría de la sangre que pasaba del lado derecho al lado izquierdo lo hacía a través de un circuito pulmonar, pero que también había una porción de sangre que lo hacía a través de los poros invisibles del tabique inter ventricular (Yarmohammadi et al. 1821). La circulación de la sangre es un proceso altamente complejo, todos los órganos que intervienen en ella son sistemas complejos que trabajan perfectamente acoplados para permitir el flujo de sangre a los lugares indicados en el tiempo indicado. Los primeros aportes dados por los árabes con miras hacia el entendimiento de la relación entre los sistemas circulatorio y respiratorio sentaron una idea generatriz y un cambio de paradigma respecto a la fisiología que se venía haciendo hasta aquel tiempo terciada por las ideas de Galeno, pues al poner como paso obligado a los pulmones en el flujo de la sangre del lado derecho al lado izquierdo del corazón el pneuma iniciaría su formación en los pulmones, lo que reforzaría la idea de que la respiración era portadora del germen del espíritu vivificante, concepto que más adelante desarrollaría más a fondo Miguel Servet. Adicionalmente, con este aporte se definieron

196

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 187-211


El cuerpo humano como un sistema complejo

ubicaciones muy específicas a cada una de las etapas de la circulación menor, comenzando con la llegada de la sangre a la cámara derecha del corazón y terminando con la distribución del pneuma desde la cámara izquierda, esto da pie para hablar de una auto-organización espacial, y si a esto se le suma la idea de sincronización temporal que siguió estando presente en Ibn al-Nafis, se hablaría de una auto-organización espacio-temporal en toda regla. Estos hallazgos permitieron vislumbrar, a la postre, que la biocomplejidad era una realidad que todavía no se dimensionaba en todo su sentido, y que su estudio era menester si se quería lograr el tratamiento a varias enfermedades.

4. L a medicina renacentista Tras la Edad Media, y gracias al esplendor de la cultura árabe y su difusión por Occidente, llegó el Renacimiento en el siglo xvi como un intento por recuperar las costumbres greco-romanas antiguas. El redescubrimiento de la circulación pulmonar se llevó a cabo, casi independientemente, por parte de Miguel Servet y William Harvey, el primero desde un punto de vista más descriptivo y el segundo desde un punto de vista más mecánico. Como abrebocas y aclaración, se puede decir que Miguel Servet fue un humanista Renacentista en toda regla, no solo por la época en la que vivió sino por su pensamiento altamente crítico y revolucionario. Por su parte, William Harvey se ubica temporalmente en la etapa de transición del Renacimiento al Siglo Científico, no obstante, su línea de pensamiento puede catalogarse más dentro de la filosofía Renacentista, especialmente por las ideas pre-científicas que aún rondaban por su cabeza (De Micheli 233).

4.1. La historia del hereje virtuoso Al que a partir de ahora se le deno minará como el hereje virtuoso no es más que Miguel Servet, sin lugar a dudas, uno de los hombres más influyentes del Renacimiento. Nació en 1511, en Villanueva de Sijena, un pueblo de Aragón, siempre llevó una vida holgada ya que su padre era notario real. Su familia era fervientemente católica, y se presume que sus padres lo encaminaron desde chico al sacerdocio. Su sofisticación intelectual no se hizo esperar, y siendo tan solo un adolescente ya sabía latín, griego y hebreo, además ya era versado en matemáticas y filosofía escolástica (Servetus International Society 2). A los 17 años, su padre lo envía a la Universidad de Toulouse a estudiar derecho. Allí comenzó a gestar sus ideas de oposición sobre el concepto de la Trinidad, pues al leer la biblia notó que el concepto no se mencionaba ni

197


Serna, Horacio

se explicaba de manera contundente. Dos años más tarde, a finales de 1519, Servet fue llamado al servicio de Juan Quintana, un monje franciscano con quien ya había tenido contacto a los 14 años. Quintana lo llevaría a Italia a la coronación del emperador Carlos V. El joven Servet quedó escandalizado con la opulencia del Clero (Bosmia et al. 319; Servetus International Society 2). En 1530 abandona el séquito del emperador y se dirige a Basilea. Allí convive con Escolampadio, líder del movimiento protestante. No obstante, Servet no encontró apoyo a sus ideas en el movimiento protestante suizo. Las ideas de oposición del joven Servet tienen su origen en el contexto político-religioso que se vivió en la época. Más o menos dos décadas antes de que Servet naciera, en 1492, el mismo año en el que se descubre el Nuevo Continente, los Reyes Católicos, Isabel y Fernando, quisieron establecer la unidad política, social y cultural a partir del cristianismo. Cómo bien se sabe, y como se ha hecho notar en este trabajo, el apogeo de la cultura árabe en España durante la Edad Media, especialmente en al-Ándalus, convirtió al país en un coctel pluricultural, donde convivían cristianos, musulmanes y judíos. De esta suerte, ad portas del Renacimiento todavía quedaban muchos islámicos y judíos en los predios españoles que literalmente sufrieron la unidad política de los Reyes católicos, pues se les obligó a convertirse al cristianismo, siendo las represalias el exilio o incluso la muerte en caso de negarse a hacerlo. Esta intolerancia severa dejó un sinnúmero de judíos y árabes desterrados y más de 20.000 quemados en la hoguera. El choque de las tres religiones tenía un punto crítico: la Trinidad. Fue precisamente el dogma de la Trinidad el que supuso un obstáculo infranqueable para las culturas islámica y judía que mantenían como primer artículo de su fe la unidad de Dios (Servetus International Society 3). En 1531 publica su primera obra influyente, De Trinitatis Erroribus. Esta obra ya mostraba su intelecto privilegiado y exaltaba ideas brillantes respecto al cristianismo y al dogma de la Trinidad, pero los protestantes de la época terminaron por condenar el grueso del texto (Bosmia et al. 319). Al año siguiente, el erudito español buscó nuevamente la atención de los protestantes con un texto menos punzante y más conciliador desde el punto de vista argumentativo, Dialogorum de Trinitate. Sin embargo, el efecto que tuvo su segundo tratado fue contrario a lo que él esperaba, pues los protestantes de la época consideraban que las críticas al dogma de la Trinidad estaban fuera de tono. Así, se confiscaron los libros de Servet y se advirtió que no visitara las ciudades protestantes. Ese mismo año, 1532, el Tribunal Supremo de la Inquisición Española inició una persecución contra Servet, incluso el mismo teólogo decía: “Se me perseguía por todas partes para ser arrastrado hasta la

198

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 187-211


El cuerpo humano como un sistema complejo

muerte” (Servetus International Society 4). Por la situación tan tensa que vivía en Basilea en ese momento, se exilió a París y se cambió el nombre a Michel de Villenueve. En París, Servet estudió Matemáticas y Medicina. Allí se encuentra con el joven Juan Calvino, el cual tuvo que abandonar la ciudad y esconderse por haber escrito el discurso inaugural, de un marcado talante protestante, que el rector de la Universidad de París, Nicolás Cop, pronunció (Servetus International Society 5). En 1535, Miguel Servet abandonó París y se dirigió a Lyon, allí consiguió un trabajo provisional como corrector de pruebas. En 1536 retomó sus estudios de Medicina en París. Más tarde, por el mismo año, se unió a Vesalio como ayudante de Hans Gunther para realizar disecciones. Gunther admiró el insuperable conocimiento sobre Galeno que tenía Servet. Por esa misma época, el erudito de Aragón comenzó a gestar su descubrimiento de la circulación pulmonar apoyado en las disecciones y en la observación (Servetus International Society 6). En 1538 tuvo problemas con el Parlamento de París y la Inquisición por mezclar astrología y medicina. Abandonó París al poco tiempo y en 1540 se convirtió en el médico de cabecera de Pierre Palmier, Arzobispo de Vienne. Durante su estancia en Vienne, continuó con su pasión de toda la vida, la teología. Allí preparó su obra teológica Magna, Christianismi Restitutio (Servetus International Society 7). En 1546 inició la correspondencia secreta con Calvino que le llevaría a la muerte en la hoguera. Miguel Servet envió a Calvino un manuscrito de su obra Chrsitianismi Restitutio, y Calvino le correspondió enviándole un ejemplar de su Institutio Christianae Religionis. Servet se lo regresó con anotaciones y críticas muy severas, un acto muy osado para la época teniendo en cuenta que se dirigía a uno de los líderes protestantes más importantes con el poder de llevarlo a la hoguera. Entre otras cosas, la osadía de Servet con Calvino y su carácter fuertemente crítico y opositor hicieron que la comunidad percibiera a Servet como un hombre arrogante y polémico (Bosmia et al. 318). Una vez el aragonés publicó el Restitutio 1553, envió un ejemplar de anticipo a Ginebra. El texto incluía 30 de las cartas enviadas a Calvino. Después de un tiempo, Calvino reveló la identidad de Michel de Villenueve a la Inquisición Católica de Vienne. Tras su arresto e interrogatorio, Servet consiguió escaparse de la cárcel y se dirigió al norte de Italia. Fue arrestado y juzgado por herejía en Ginebra, Suiza, ante los protestantes (Servetus International Society 8). Finalmente, el ayuntamiento de Ginebra, azuzado por las declaraciones de Calvino sobre las blasfemias que Servet había escrito en su correspondencia

199


Serna, Horacio

con él. Se le acusó de no aceptar la Trinidad y de no aprobar el bautizo. Muriendo entre las llamas, Servet gritó “Oh, Jesús, Hijo del Dios eterno, apiádate de mí” (Servetus International Society 8). Meses más tarde, Servet fue ejecutado otra vez como un muñeco por la Inquisición de Francia. Aunque fue Calvino el autor intelectual de la acusación contra Servet, el que hizo la acusación formal ante el Tribunal fue Nicolás de la Fontaine, ya que las reglas que regulaban los actos criminales en Ginebra exigían que, en determinados casos de gravedad, también el querellante fuese encarcelado en espera del juicio (Servetus International Society 8). Todo lo relacionado con la ejecución de Servet tiene fuertes implicaciones éticas. Por un lado, un análisis riguroso desde la óptica del Derecho, concluye que Juan Calvino queda como una persona que se saltó varias veces el conducto regular para la presentación de acusaciones ante el Tribunal, esto hace que el proceso por el que atravesó Servet tuviera aspectos irregulares teñidos de ilegalidad. De otro lado, tras la ejecución de Servet, Calvino queda como un intolerante que violó el derecho a la libertad de pensamiento y conciencia, sobre todo porque se empecinó en ver caer al buen aragonés y no le importó ejecutar su deseo traicionero de denunciarlo ante las autoridades de Vienne, solo porque las ideas de Servet sobre el cristianismo diferían de las suyas (Moreno y Gómez Rabal). No bastando con esto, hay una clara evidencia de que mientras Servet estuvo capturado en prisión, esperando su abrasador destino, se le trató indignamente. Como botón de muestra, se tienen los siguientes fragmentos de las cartas que Servet envió a las autoridades de Ginebra desde prisión: “Pueden ver que Calvino se encuentra en un punto muerto sin saber que decir y, para su regocijo, desea verme pudrir aquí en prisión. Los piojos se me comen vivo, mi ropa está raída y no tengo nada para cambiarme, ni una chaqueta ni una camisa” (Servetus International Society 13). Y esta otra, un poco más triste: Ilustres señores: Ya hace tres semanas que solicité una audiencia que todavía no me ha sido concedida. Les suplico, por amor a Jesucristo, que no me nieguen lo que ni negarían a un turco que buscara justicia. Tengo algunos asuntos importantes y necesarios que comunicarles. En cuanto a su orden de que se hiciera algo por mantenerme limpio, no se ha hecho nada y me encuentro en peores condiciones que antes. Además, a causa de un cólico y una hernia, el frío me perjudica enormemente, a la vez que me provoca otras dolencias que no me siento capaz de describir. Es una gran crueldad que no pueda ser escuchado ni para dar alivio a mis necesidades. Por el amor de Dios señores

200

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 187-211


El cuerpo humano como un sistema complejo

míos, dicten su orden, ya sea por clemencia o por obligación(Servetus International Society 13). Claramente Juan Calvino, el Tribunal de la Inquisición y las autoridades de Ginebra pasaron por encima de los derechos del buen aragonés. Esto convierte a la muerte de Miguel Servet en uno de los hechos más lamentables de la historia de la ciencia, siempre se le recordará como un hombre valiente de corazón y espíritu que defendió su derecho a pensar diferente hasta el último segundo de su vida.

4.2. El redescubrimiento de la circulación pulmonar: Servet Cómo ya se dejó bastante claro en la sección anterior, la primera persona en describir con tino el proceso fisiológico del corazón en lo que atañe a la circulación menor fue Ibn al-Nafis en el siglo xiii, no obstante, este gran descubrimiento permaneció ignorado por el mundo Occidental y gran parte del mundo árabe (Marías & Entralgo 151-153). De hecho, existe evidencia que respalda la teoría de que Servet desconocía el trabajo realizado por Ibn al-Nafis al momento de realizar su propia obra (Bosmia et al. 321). En el descubrimiento de Servet se aplica con total coherencia el principio dialéctico del método científico, el cual establece que la experimentación y la teoría deben corresponderse. Todos los argumentos anatómicos que presenta el aragonés se sustentan en las observaciones directas durante las disecciones que tanto realizó en la Universidad de París. No obstante, desde el punto de vista lógico-racional, hay ciertos detalles que deben estudiarse con mucho cuidado. Todas las tesis del descubrimiento pueden resumirse como sigue. En primer lugar, la comunicación de la “vena arteriosa” (arteria pulmonar) y de la “arteria venosa” (vena pulmonar) se da en el seno de la sustancia pulmonar. Adicionalmente, el gran tamaño de la arteria pulmonar no tendría sentido si su única función fuera nutrir el pulmón. Por otro lado, se percató de que los pulmones se nutren de una manera distinta durante la vida fetal, además, de los pulmones pasa al corazón una “mezcla” de aire y sangre, por lo cual debe ser en los pulmones donde se mezclan las dos sustancias (Marías & Entralgo 151-152). Todo su descubrimiento se describe con total lucidez en su obra magna, Chrsitianismi Restitutio. No deja de ser llamativo que un descubrimiento que revolucionó el paradigma de la medicina hubiera visto la luz en un libro de teología avanzada, esto deja ver su mayor virtud como intelectual, la capacidad de apropiarse de ciencias naturales y humanas sin mucho contratiempo. Este hecho motiva la siguiente pregunta: ¿está el descubrimiento de Servet condicionado por la teología, su compañera inseparable de toda la vida?

201


Serna, Horacio

Para responder esta pregunta se analizarán los argumentos del filósofo español Francisco José Reyes. La primera razón por la que se puede atribuir el descubrimiento de la circulación menor a Servet es que el circuito de la sangre desde la parte derecha del corazón hasta la izquierda, supone el trasvase de la sangre desde las arterias hasta las venas. Servet dice que este trasvase es posible porque existe la comunicación entre vasos sanguíneos por anastomosis. Esta conclusión parte más de la especulación que de la observación por dos cosas: • El hecho de que venas y arterias estén comunicadas no es causa suficiente para que exista un circuito de circulación entre el corazón y los pulmones (Reyes 99). • La observación real de los vasos capilares que unen arterias y venas no se logró sino hasta 1660, más de un siglo después de la muerte de Servet (Reyes 99). La segunda razón importante es que la sangre no llega al ventrículo derecho a través de unos poros en la pared ventricular sino por el circuito de circulación menor. Con la tecnología de la época, el médico aragonés no tenía cómo probar que la pared ventricular no era porosa, de hecho, en su Restitutio acepta que tal pared puede “resudar”, tratando de hacer referencia a la transpiración o a la filtración de la sangre (Reyes 100). En el tercer argumento, el que se refiere al tamaño de la arteria pulmonar. Servet argüía que el tamaño considerable de la arteria de marras estaba relacionado con un flujo de sangre constante por el circuito menor, porque si su labor fuera solo transportar nutrientes al pulmón no sería tan grande. Francisco José Reyes (Reyes 101-102) sostiene que desde el punto de vista médico esta afirmación es escandalosa, pues supone algo necesario para el pensamiento, pero no evidente para la materia, pues desde un punto de vista argumentativo no se pueden correlacionar directamente el tamaño de un objeto y las funciones que desempeña. Al parecer, la presencia del descubrimiento de la circulación menor en un texto de teología tiene su explicación, máxime si se le echa un vistazo a la obra completa del hereje virtuoso. La intención de Servet, más que dar a conocer su descubrimiento en medicina, era fortalecer la argumentación teológica sobre la Trinidad, pues el objetivo fundamental de la respiración, según el aragonés, era la asimilación del Espíritu de Dios por parte de los hombres. El hombre inflama el alma, que se identifica en la biblia con la sangre, a través del aliento de Cristo y el aire al respirar. Así las cosas, la circulación pulmonar puede considerarse como fundamental en la visión servetiana del hombre pues la 202

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 187-211


El cuerpo humano como un sistema complejo

sangre se vivifica con la sustancia divina adquirida en la respiración por medio de la circulación menor, es decir, es el mecanismo por el cual el alma permanece limpia (Reyes 106). Las palabras del mismo Servet dejan claro que su intención es humanizar, por decirlo de alguna manera, la concepción metafísica de Dios al poner de manifiesto que su espíritu inunda al hombre durante un proceso material como la respiración. Aquí sus palabras: Sobre este tema debe primero entenderse la importante creación del espíritu vital, compuesto de una sangre ligera alimentada por el aire inspirado. El espíritu vital tiene su propio origen en el ventrículo izquierdo del corazón, y los pulmones tienen un papel importante en su desarrollo. Se trata de un espíritu enrarecido, producido por la fuerza del calor, de color amarillo rojizo (flavo) y de potencia igual a la del fuego. De manera que es una especie de vapor de sangre muy pura que contiene en sí misma las sustancias del agua, aire y fuego. Se genera en los pulmones a partir de una mezcla de aire inspirado con la sangre elaborada y ligera que el ventrículo derecho del corazón comunica con el izquierdo. Sin embargo, esta comunicación no se realiza a través de la pared central del corazón, como comúnmente se cree, sino que, a través de un sistema muy ingenioso, la sangre fluye durante un largo recorrido a través de los pulmones. Elaborada por los pulmones, adquiere el tono amarillo rojizo y se vierte desde la arteria pulmonar hasta la vena pulmonar. Entonces, una vez en la vena pulmonar, se mezcla con aire inspirado y a través de la expiración se libera de sus impurezas. Así, completamente mezclada y preparada correctamente para la producción del espíritu vital, es impulsada desde el ventrículo izquierdo del corazón por medio de la diástole (Servetus International Society 33).

Este pasaje muestra la explicación del circuito menor, y debe aclararse que el término “espíritu vital” hace referencia al espíritu que limpia tanto el cuerpo como el alma, el espíritu de Dios propiamente dicho. El solo hecho de que el descubrimiento de Servet tenga dos propósitos aparentes, la ratificación de su teoría sobre la Trinidad y un avance notable en fisiología, ya da pie para un discernimiento importante en materia de ideas tempranas de complejidad, pues uno de los pilares del pensamiento complejo es la construcción de argumentos con el consorcio de las ciencias naturales y humanas. La inclusión de su descubrimiento en su obra teológica más importante también tiene un trasfondo conciliador, pues trató de establecer una conexión directa entre la ciencia y la religión, no obstante, se sabe bien que esto no es posible a la luz del método científico por el dogmatismo inherente a la segunda. Como comentario final, es preciso defender el genio de Servet con su descubrimiento, pues, aunque existan argumentos que ponen su descubrimiento

203


Serna, Horacio

al nivel de una especulación, debe aclararse que los éxitos explicativos de su teoría, si bien no podían demostrarse por limitaciones tecnológicas, obedecen sin ningún tipo de discusión al ejercicio de la abducción, una forma de razonamiento que esclarece la generalidad a partir de la particularidad, muy común en detectives y médicos. No se debe olvidar que la capacidad de abducción es propia de intelectos geniales.

4.3. La historia del médico Noble Nació en Folkestone, un pequeño pueblo pesquero en el Canal de Inglaterra con mucha historia, suficientemente antiguo como para tener referencias desde los tiempos del Imperio Romano. Su padre, Thomas Harvey, fue un hombre de negocios exitoso. En 1586 Thomas se convierte en Concejal de Folkestone y en 1600 en Alcalde. En 1577 se casa con Joane Hawke, con quien tiene nueve hijos, el primogénito era William Harvey, quien nació en 1578 (Shackelford 12). Toda su vida estuvo acompañada de prosperidad económica e influencia social, por eso el apelativo: El médico Noble. El pequeño William comenzó su educación en Mr Johnson´s School, y más tarde, en 1588, ingresa al King´s Grammar School en Canterbury. Allí aprende latín con propiedad, un paso importante ya que esta era la lengua de la ciencia en el Renacimiento. Por la época, la educación era un privilegio de pocos, solo podían acceder a ella los jóvenes de clase media-alta y los apadrinados por la iglesia. De sus hermanos varones, fue el único que recibió educación de alta calidad, todos ellos entraron al servicio de la Corte del Rey James I como lacayos. William termina la escuela a los 15 años (Shackelford 12-14). En el siglo xvi había dos universidades en Inglaterra, hoy ambas son de las mejores del mundo: Cambridge y Oxford. Ninguna de las dos universidades tenía programas reconocidos de medicina por ese entonces, de hecho, si se les comparaba con las universidades de élite en medicina, la Universidad de Paris o la Universidad de Padua, el programa de medicina en Inglaterra era harto mediocre, no obstante, el Goniville and Caius College de Cambridge era lo mejor que ofrecía para la época. Por su buen perfil de intelectual y la influencia de su padre, fue galardonado con la beca Matthew Parker en medicina, comenzando en el Goniville and Caius College en 1593, allí pasará 6 años de su vida aprendiendo los fundamentos de la medicina (Shackelford 16). Al final del siglo xvi, las mallas curriculares de las carreras profesionales de la Universidad de Cambridge eran, básicamente, medievales. Harvey debió estudiar las artes liberales, moral, política y filosofía natural. Para prepararse para los estudios avanzados en medicina, los pupilos debían dominar astro-

204

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 187-211


El cuerpo humano como un sistema complejo

nomía y astrología, pues por la época se creía que la salud dependía de la configuración de los planetas en el firmamento (Shackelford 23). Después de pasar 4 años estudiando el conocimiento clásico, en 1597 comienza con su formación en medicina, que incluía la medicina medieval, especialmente la árabe, y la medicina clásica con el corpus hipocrático-galénico. A finales de 1599, Harvey deja Cambridge y viaja al norte de Italia a depurar sus conocimientos en medicina. La Universidad de Padua no tenía igual en clínica y anatomía en aquel tiempo, allí se forma en las técnicas de disección y vivisección, los dos procedimientos que posibilitaron los descubrimientos en fisiología del médico inglés años más tarde (Shackelford 27). Durante la estancia en Padua, Harvey no desaprovechó la oportunidad de asistir a los cursos de Galileo Galilei, quien por ese entonces era catedrático de la universidad de marras. Harvey estuvo presente en las disertaciones sobre la esfera y en el curso de geometría euclidiana. Es muy probable que el encuentro con Galileo y su particular forma de comprender el universo fuera influyente en la línea de pensamiento que adoptaría Harvey y que lo ayudaría a la postre a realizar sus descubrimientos en fisiología (De Micheli 234). En 1602 se gradúa como Medicinae Doctor en la Universidad de Padua. Dos años más tarde, en 1604, se casa con Elizabeth Browne, de la cual no se sabe mucho. Ese mismo año recibe la licencia de médico por parte del College of Physician (Shackelford 33). En la primera década del siglo xvii, la carrera de William Harvey ascendió rápidamente, en 1607 se convirtió en un miembro del Royal College of Physicians. Como miembro de esta institución, Harvey gozó de un estatus social elevado, especialmente en Londres donde comenzó a tratar pacientes poderosos y adinerados (Shackelford 34). En 1609 es nombrado como Médico del St. Bartholomew´s en Londres, durante su estancia tiene tiempo para hacer investigaciones más profundas en anatomía. En 1615 entra a formar parte de las Lumley Lectures, da su primera conferencia en 1616. En 1618 es nombrado como Médico Extraordinario por el Rey James I, y tras varios años de arduo trabajo publica su Anatomical Exercise on the motion of the Heart and Blood en 1628, es en este texto donde Harvey muestra todo lo atinente a la circulación de la sangre, incluyendo pormenores de la circulación menor y mayor (Shackelford 44). En 1651 publica su On the generation of Animals, un texto que refresca las ideas de Aristóteles. Finalmente, el gran médico de Folkestone muere en 1657 debido a un accidente cerebro-vascular (Shackelford 44). Como se puede observar, la vida de Harvey no tuvo mayores contratiempos, en general siempre tuvo buen estatus social, nunca le faltó el dinero y durante

205


Serna, Horacio

el ejercicio de la medicina tuvo un ascenso rápido y constante. Esto contrasta con la vida del brillantísimo hereje Miguel Servet, cuya vida, como se dejó claro unas cuantas páginas arriba, estuvo llena de persecuciones y traición.

4.4. Anatomía y fisiología de Harvey Hablar del gran aporte a la ciencia de William Harvey es, en lo básico, hablar de su obra, Anatomical Exercise on the motion of the Heart and Blood, considerada una de las obras más importantes en la historia de la medicina y la carta de presentación de Harvey como pionero en el paradigma moderno de la medicina (Shackelford 45-50). Harvey tuvo que arreglárselas para eludir el gigantesco obstáculo epistemológico que interpuso la doctrina hipocráticogalénica en su camino, un obstáculo que solo algunos de los médicos islámicos rodearon parcialmente (Escobar Gónima 201-202). Cuando una idea nueva surge, si no se concibe en la mente altiva e irreverente de un pensador genial, rápidamente se debilita y cae en el olvido debido al rechazo generalizado que el paradigma científico actual ejerce sobre ella. Así las cosas, la virtud del buen científico está en saber sortear los obstáculos epistemológicos y defender sus ideas a capa y espada. En el corpus galénico el alimento luego de pasar por el estómago y el intestino llega al hígado y se transforma en sangre, la cual se transporta por las venas por el cuerpo para convertirse en sustancia viva. Otra porción de la sangre del hígado se lleva al compartimiento izquierdo del corazón, de allí pasa al compartimiento derecho a través de unos supuestos poros invisibles en el tabique central del corazón, finalmente el calor innato convierte esta sangre en espíritu que se mezcla con el aire, proveniente de los pulmones, y se lleva a todo el cuerpo por medio de la aorta (Escobar Gónima 203-304). Este esquema de circulación considera que la sangre se forma a partir del alimento indefinidamente, y como el circuito no tiene salidas, se tendría que dar lugar a una acumulación de sangre en el organismo. Al respecto, William Harvey concluye lo siguiente a partir de un estudio muy detallado de la anatomía del corazón y de los vasos sanguíneos, además de la medición del pulso del hombre y de cuarenta especies de animales: Si se supone que el ventrículo izquierdo alojara únicamente dos onzas de sangre, y que la frecuencia del pulso fuera de 72 por minuto, en una hora dicho ventrículo habría inyectado en la aorta aproximadamente 540 libras de sangre. Pero los animales tienen, cuando mucho, unas cuantas libras de sangre en el cuerpo; habría que preguntarse, entonces, de dónde provenía esa sangre y adónde iba (De Micheli 235).

206

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 187-211


El cuerpo humano como un sistema complejo

La claridad del pasaje demuestra que el médico inglés realizó una serie de experimentos sistemáticos y además utilizó su capacidad de deducción para formularse una pregunta que direccionaría sus investigaciones. Por otro lado, la conclusión de Harvey es completamente coherente a la luz del principio de conservación de la masa, no obstante, por tratarse de un caso particular, las observaciones de Harvey aún estaban lejos de tal principio (Pasipoularides 3176-3177). De todas formas, no sorprendería que el trabajo experimental de Harvey fuera sugerente para Lavoisier y Lomonósov, ambos elaboradores del principio de conservación de la masa de manera independiente en el siglo xviii. Después de realizar su juiciosa experimentación, Harvey notó en primera instancia que el corazón se endurecía al contraerse y al mismo tiempo las arterias se expandían, este hecho lo llevó a concluir que la sangre era bombeada por el corazón hacia las arterias. En su trabajo, Harvey describe con mucho rigor la circulación de la sangre desde un punto de vista mecánico y dinámico (De Micheli 234-236; Pasipoularides 3173-3182). El proceso fisiológico del corazón, según Harvey, puede describirse de la siguiente manera: primero, la sangre contaminada viene de todas las partes del cuerpo a través de la vena cava inferior y la vena cava superior hasta el ventrículo derecho del corazón. Allí se bombea la sangre por medio de la vena arteriosa (hoy conocida como arteria pulmonar) hacia los pulmones, allí la sangre se limpia por la acción del aire inhalado y regresa al ventrículo izquierdo del corazón a través de las arterias venosas (hoy conocidas como venas pulmonares). Una vez en el ventrículo izquierdo, la sangre limpia se bombea a través de la arteria aorta hacia todas las partes del organismo (Shackelford 45-69; Escobar Gónima 203 ; De Micheli 235; Harvey 40-45). La fisiología del corazón que propuso Harvey prácticamente es la que hoy está científicamente aceptada, salvo por el hecho de que, como bien se sabe hoy, el corazón humano está dividido en 4 compartimientos y no en dos como se creía, debido a la herencia galénica, por aquel entonces. Los 4 compartimientos son dos aurículas, responsables de la recepción de la sangre, y dos ventrículos, responsables del bombeo como tal. También faltó elucidar lo atinente al intercambio gaseoso que sucede en los pulmones. La estocada final la dio Lavoisier, alrededor de un siglo más tarde, con sus estudios sobre la respiración en animales (Wilkinson 253-254). Por otro lado, existe un punto del modelo circulatorio de Harvey que en la actualidad está siendo debatido, se trata de la suposición de que los vasos sanguíneos son pasivos en lo que respecta al bombeo y a la distribución de la sangre, en el modelo de Harvey estas tareas concernían solo al corazón. Recientemente, evidencia teórica y experimental sugiere que el sistema arterial sería activo y colaboraría con la

207


Serna, Horacio

función de conducir, distribuir y amplificar la presión durante una etapa de la contracción ventricular, esta participación arterial justificaría, sobre todo, el hecho de que la sangre llegue a todos los sistemas capilares en el cuerpo; se estaría ante una extensión del modelo circulatorio de Harvey (Schaafsma 589-592). A este punto queda demostrada la vigencia de la fisiología del gran médico inglés y cómo se ha convertido al pasar de los años en un modelo base para investigaciones en medicina que no paran de revelar que los sistemas orgánicos poseen una biocomplejidad fascinante que parece no tener final. Además de su trabajo en la circulación de la sangre, Harvey publicó el tratado On the generation of Animals, donde desarrolla un discurso lleno de contrastes, pues si bien en algunos pasajes argumenta como un científico moderno, en otros deja ver al típico pensador pre-científico del Renacimiento (De Micheli 236). En este tratado, Harvey sostiene que “un huevo es el origen común de todos los animales”, construyendo una embriología epigenética de los animales superiores. Su embriología refrescó las ideas aristotélicas y se opuso al preformacionismo. Lo más llamativo del tratado es la vinculación del contagio de las enfermedades con la generación de algo viviente, lo que puede ser un primer acercamiento a una teoría de las infecciones por microorganismos (De Micheli 236; Imbert 37-44).

5. Conclusiones El descubrimiento de la circulación pulmonar no solo fue un gran acierto científico para la medicina sino un cambio de paradigma que rompe el esquema hipocrático-galénico que se había convertido en un obstáculo epistemológico hasta muy avanzada la Edad Media. Por el hecho de revolucionar el pensamiento en su momento, este descubrimiento puede entenderse como un acontecimiento clave en la evolución de las ciencias naturales, teniendo en cuenta que sentó una base teórica sobre la cual hoy se sigue investigando con hallazgos cada vez más desafiantes para científicos de muchas áreas del conocimiento. Por el aporte claro y contundente que este descubrimiento realizó al reconocimiento del cuerpo humano, y en general de los organismos vivos, como sistemas altamente complejos, además de los indicios de conceptos como emergencia y sincronización entendidos en el marco de la auto-organización espacio-temporal de los sistemas circulatorio y respiratorio, es posible sugerir que la construcción de una historia remota de las ideas generatrices de las

208

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 187-211


El cuerpo humano como un sistema complejo

ciencias de la complejidad tome como punto de partida el descubrimiento de la circulación menor de la sangre en toda su extensión temporal. Por su parte, el tenor conciliador entre ciencia y fe con el que dos de sus actores principales, Servet e Ibn al-Nafis, presentaron el descubrimiento es un claro ejemplo de cómo en el seno de un ambiente transdisciplinar se cuecen ideas sin par. Si bien la ciencia y la religión son inconciliables, entre otras cosas porque la religión tiene un fundamento dogmático que es inaceptable a la luz del método científico, los intentos de Servet e Ibn al-Nafis pueden refrescarse ideológicamente al día de hoy y entenderlos como una invitación a hacer más ciencias naturales con humanidades, tesis totalmente defendida por las ciencias de la complejidad y que constituye la única vía para desarrollar el pensamiento complejo.

Trabajos citados Abdel-Halim, Rabie El-Said. “The Role of Ibn Sina (Avicenna)’s Medical Poem in the Transmission of Medical Knowledge to Medieval Europe.” Urology annals 6.1 (2014): 1–12. Al-Ghazal, Sharif Kaf. “Foundation for Science Technology and Civilisation.” Ibn al-Nafīs and the discovery of the pulmonary circulation Apr. 2007: 1–7. Bartolomé, Rosana, and Alfredo Marcos. Aristóteles: Obra Biológica (Traducción de Los Tratados De Partibus Animalium, De Motu Animalium Y De Incessu Animalium). Madrid: Luarna, 2010. Bosmia, Anand et al. “Michael Servetus (1511-1553): Physician and Heretic Who Described the Pulmonary Circulation.” International Journal of Cardiology 167.2 (2013): 318–321. Cameron Gruner, O. The Canon of Medicine of Avicenna. first. New York: AMS Press, 1973. de la Fuente Freyre, José Antonio. La Biología En La Antigüedad Y La Edad Media. Salamanca: Universidad de Salamanca, 2002. de la Rosa García, Laura Nuño. “Historia Filosófica de La Idea de Forma Orgánica: Del Hilemorfismo Aristotélico a La Microanatomía Celular.” Universidad Complutense de Madrid, 2005. De Micheli, Alfredo. “William Harvey Y Los Inicios de La Ciencia Médica Moderna.” Historia y filosofía de la Medicina 141.3 (2005): 233–237.

209


Serna, Horacio

Escobar Gónima, Carlos. “William Harvey: La Circulación Sanguínea Y Algunos de Sus Obstáculos Epistemológicos.” IATREIA 19.2 (2006): 199–205. Gould, Stephen Jay. La Falsa Medida Del Hombre. Barcelona: Drakontos Bolsillo, 2011. Haddad, S I, and A A Khairallah. “A Forgotten Chapter in the History of the Circulation of the Blood.” Annals of surgery 104.1 (1936): 1–8. Harvey, William. The Works of Willliam Harvey, M.D. London: Sydenham Society, 1847. Imbert, José Luis. “Historia de La Infección Y Del Contagio.” Elementos 3.20 (1994): 37–44. Maldonado, Carlos Eduardo. Ciencias de La Complejidad: Ciencias de Los Cambios Súbitos. Bogotá D. C.: N.p., 2004. Maldonado, Carlos Eduardo, and Gómez. Nelson Alfonso. El Mundo de Las Ciencias de La Complejidad: Un Estado Del Arte. Bogotá D. C: Universidad del Rosario, 2010. Marcos, Alfredo. “Biocomplejidad.” Jornada Sobre Complejidad. Bogotá D. C: Universidad del Rosario, 2009. _____.“Invitación a La Biología de Aristóteles.” Thémata. Revista de Filosofía 20 (1998): 25–48. Marías, Julián, and Laín P. Entralgo. Historia de La Filosofía Y de La Ciencia. Madrid: Ediciones Guadarrama, 1964. Mavrodi, Alexandra, and George Paraskevas. “Morphology of the Heart Associated with Its Function as Conceived by Ancient Greeks.” International Journal of Cardiology 172.1 (2014): 23–28. Moreno, Doris, and Ana Gómez Rabal. “Juicios Inquisitoriales.” Miguel Servet. Los Valores de Un Hereje. Un Aragonés Universal, Que Luchó Y Murió Por La Libertad de Conciencia. Aragpon: Heraldo de Aragón, 2013. 57–68. Nicolis, G., and I. Prigogine. Self-Organization in Non-Equilibrium Systems. New York: John Wiley & Sons, 1977. Pasipoularides, Ares. “Greek Underpinnings to His Methodology in Unraveling de Motu Cordis and What Harvey Has to Teach Us Still Today.” International Journal of Cardiology 168.4 (2013): 3173–3182.

210

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 187-211


El cuerpo humano como un sistema complejo

Reyes, Francisco José. “La Circulación Pulmonar En Servet.” Estudios Sobre Servet. Zaragoza: I.E.S. Miguel Servet, 2004. 95–110. Romero, Andrés et al. “Galeno de Pérgamo: Pionero En La Historia de La Ciencia Que Introduce Los Fundamentos Científicos de La Medicina.” Anales Médicos 56.4 (2011): 218–225. Sagan, Carl. Los Dragones Del Eden: Especulaciones Sobre La Evolución de La Inteligencia Humana. México D. F.: Grijalbo, 1984. Schaafsma, A. “Harvey with a Modern Twist: How and Why Conducting Arteries Amplify the Pressure Wave Originating from the Heart.” Medical Hypotheses 82.5 (2014): 589–594. Serna, Horacio, and Carlos Eduardo Sierra. “Revista de Historia.” El Canon de Avicena como un precursor de la primera ley de la termodinámica Nov. 2015: 1. Servetus International Society. “Servetus.org.” Biografía de Miguel Servet. N.p., 2013. Web. 12 Nov. 2014. Shackelford, Jole. William Harvey and the Mechanics of the Heart. New York: Oxford University Press, 2003. Shuttleworth, Martyn. “Explorable Psychology Experiments.” Islamic Scholars and Biology. 2011. Web. 7 Jan. 2014. Sierra, Carlos Eduardo. Orígenes, Evolución Y Consolidación Del Principio de Conservación de La Energía. Medellín: Universidad Nacional de Colombia. Facultad de Minas, 2012. Sierra, Carlos Eduardo, and Sergio Nestor Osorio. Historia Y Filosofía de La Ciencia: Antecedentes Epistemológicos E Históricos Para Comprender El Surgimiento de La Bioética Global. Bogotá: Universidad Militar Nueva Granada, 2011. Turing, Alan. “The Chemical Basis of Morphogenesis.” Philosophical Transactions of the Royal Society of London. Series B, Biological Sciences 237.641 (1952): 37–72. Wilkinson, David J. “The Contributions of Lavoisier, Scheele and Priestley to the Early Understanding of Respiratory Physiology in the Eighteenth Century.” Resuscitation 61.3 (2004): 249–255. Yarmohammadi, Hassan et al. “Al-Akhawayni’s Description of Pulmonary Circulation.” International Journal of Cardiology 168.3 (2013): 1819–1821.

211



Especulaciones y controversias en la cosmología física contemporánea: el problema de la creación en la hipótesis del multiverso, un análisis histórico1,2 Speculations and controversies in contemporary physical cosmology: the problem of creation in the multiverse hypothesis, a historical analysis David Mayo Sánchez3,4

R esumen La historia ha demostrado que la ciencia, en este caso la cosmología física, al encontrarse con el problema de los orígenes del Universo se ha visto envuelta en una serie de especulaciones y controversias, ingresando en ámbitos no precisamente científicos. Los científicos se han dado a la tarea de elaborar hipótesis y teorías en las que han incluido el concepto no-científico de creación, y debido a esto tales hipótesis han terminado con varios problemas epistemológicos y ontológicos. Este es el caso de la hipótesis cosmológica del multiverso, la cual es considerada por una gran parte de la comunidad de físicos y cosmólogos como una teoría científica que podría describir y explicar la creación del Universo y dar razón de sus leyes y constantes, pero al mismo tiempo otra parte de la comunidad científica considera que el multiverso no es ciencia. El presente estudio se centra en mostrar y analizar críticamente, desde la perspectiva histórica, este contexto científico-filosófico de la cosmología física contemporánea y sus significativas implicaciones. Palabras clave: cosmología especulativa, multiverso inflacionario, multiverso branacíclico, metafísica, demarcación científica.

A bstract History has shown that science, in this case physical cosmology, in its encounter with the problem of the origins of the Universe, has engaged in a series of controversies and speculations, entering in non-scientific areas. Scientists have developed hypotheses and theories including the non-scientific concept of creation and for that reason such

1 Recibido: 23 de julio de 2015. Aceptado: 27 de noviembre de 2015. 2 Este artículo se debe citar así: Mayo, David. “Especulaciones y controversias en la cosmología física contemporánea: el problema de la creación en la hipótesis del multiverso, un análisis histórico”. Rev. Colomb. Filos. Cienc. 16.33 (2016): 213-250. 3 Máster en Filosofía por la Universidad de Salamanca. Máster en Historia de la Ciencia por la Universidad Autónoma de Barcelona. Actualmente estudiante de posgrado en la Universidad de Salamanca. Correo electrónico: damayo1@usal.es 4 Barcelona (España).


Mayo Sánchez, David

hypotheses have remained with several epistemological and ontological problems. Such is the case of the multiverse cosmological hypothesis, which is considered by a large part of the community of physicists and cosmologists as a scientific theory that could describe and explain the creation of the Universe and give an account of its laws and constants, but at the same time another part of the community believes that the multiverse is not science. This study aims to expose and analyze critically, from a historical perspective, this scientific and philosophical context of contemporary physical cosmology and its significant implications. Key words: speculative cosmology, inflationary multiverse, brane-cyclical multiverse, metaphysics, scientific demarcation.

Para el físico de línea dura, el multiverso puede no ser del todo respetable, pero por lo menos es preferible a la invocación de un Creador.

Bernard carr, Universe or multiverse?

1. Introducción Con el nacimiento de la cosmología física en los inicios del siglo xx, se afirma que asistimos a una revolución científica que ha dado lugar a grandes avances cognoscitivos y tecnológicos, proporcionando una imagen amplia del Universo, con conocimientos detallados y muy relevantes para la humanidad. Tales conocimientos se constituyen como fundamentales debido a sus contenidos altamente significativos para la construcción de un mundo humano convenientemente racional. Así, nociones como la de origen, estructura y posible condición futura del Universo se vuelven accesibles y, con ello, toman lugar cambios paradigmáticos en las diferentes cosmovisiones o interpretaciones de la realidad. De ahí el esfuerzo actual de los nuevos cosmólogos por ampliar el alcance de su compresión de la realidad global, proponiendo -desde la ciencia- con sus elaboraciones teórico-hipotéticas una inteligibilidad completa y última del Universo. Según Abrahams y Primack (2001 1769), “La revolución en la cosmología científica actual posiblemente abra la puerta a una imagen creíble de la extensa realidad, en la cual nuestro mundo, nuestras vidas, y nuestras culturas están incrustadas”. Dentro de esos cambios paradigmáticos está principalmente la ruptura con “la tradición científica y filosófica antigua y un paradigma inquebrantable, [los cuales] atribuían al Universo el estatismo y la invariabilidad como sus propiedades inherentes más importantes” (Heller; Chernín 2005 13). Es gracias a nuevas interpretaciones teóricas de fenómenos fundamentales de la naturaleza,

214

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 213-250


Especulaciones y controversias en la cosmología

con sus respectivos constructos físico-cosmológicos y por los nuevos descubrimientos astronómicos, que la concepción de un Universo eterno, increado y estático, es desafiada y, seguidamente, desechada; dando como resultado, el inicio de la configuración del modelo estándar del cosmos. Es así como la ciencia, siendo un saber bien constituido metodológica y estructuralmente, se ve confrontada con una problemática que por siglos había sido un tema propio del pensamiento mitológico y de la creencia religiosa, a saber, la creación u origen del cosmos a partir de la acción de la divinidad. Desde su nacimiento la cosmología física se enfrenta con el problema de la creación, y es cuando inicia el desafío cognoscitivo para el saber científico en tanto delimitado por una estructura específica. Es a partir de la teoría de la relatividad general de Albert Einstein que el cosmos toma un carácter objetual, al mismo tiempo que podía ser comprendido en su conjunto con un lenguaje matemático. Con las formulaciones y las ecuaciones de Einstein el Universo quedó constituido como un todo debido al establecimiento de la gravitación como consecuencia de la estructura geométrica del espacio-tiempo, la cual, a su vez, fue relacionada con el contenido de la materia y energía; esto en condiciones de isotropía y homogeneidad a gran escala. Esta teoría científica llevó a que el Universo como un todo adquiriera un carácter dinámico y evolutivo, lo que abrió la puerta a una posible singularidad inicial y, posteriormente, a la noción de creación. A partir de aquí, la historia de la cosmología del siglo xx ha manifestado contrastes en las actitudes de los científicos ante tal problemática; posturas de rechazo, de indiferencia, pero también de apropiación ante la necesidad de comprender y explicar el evidente problema del origen del Universo. La postura predominante en los primeros años fue de rechazo, esto por motivo de que el problema de la creación era “un concepto que podría parecer extraño a la ciencia y más apropiado para discursos filosóficos y teológicos” (Kragh 2008 385). Pero enseguida, la actitud a nivel general sufrió un cambio importante a causa del establecimiento de la cosmología Big Bang como el modelo estándar, ya consolidado para la década de los años setenta del siglo pasado. Esta situación provocó que los nuevos cosmólogos trataran de explicar cómo el Universo había llegado a ser a partir de la Gran Explosión. Durante buena parte del siglo xx se han ofrecido respuestas desde la ciencia para explicar algo que evidentemente tiene implicaciones no científicas o que están más allá de los alcances de la metodología científica. Estas explicaciones han estado situadas mayormente en un ámbito naturalista o materialista, es decir, sin la invocación a nociones o entidades inmateriales, espirituales o metafísicas, que sería lo propio del proceder científico. Sin embargo, a partir

215


Mayo Sánchez, David

de la década de 1980 se inició una nueva etapa en la cosmología física, que incluso algunos han catalogado de revolucionaria o paradigmática. Nace una nueva teoría cosmológica encaminada a explicar los primeros instantes del Universo, la cual daría lugar a una nueva forma de hacer ciencia y a una nueva perspectiva de abordar el problema de la creación. Desde este contexto se originó la hipótesis cosmológica del multiverso; un modelo cosmológico producido desde la ciencia cuyo alcance ha ido más allá de lo que comúnmente ha hecho la empresa científica moderna. El multiverso ha representado para algunos una nueva forma de hacer ciencia, pero para otros no alcanza los estándares de la ciencia natural. La hipótesis del multiverso ha tenido importantes vínculos con el problema de la creación; incluso algunos han señalado que es por esta razón que realmente ha surgido dicha hipótesis. Este ensayo pretende mostrar y analizar las posibles razones que ratifican la validez y veracidad de esta última postura y, juntamente, las implicaciones filosóficas que esto conlleva.

2. Inicios y desarrollos de la hipótesis del multiverso 2.1. El multiverso inflacionario Propiamente, la cosmología del multiverso5 surge en los inicios de la década de 1980 bajo el contexto de la cosmología del Big Bang y su interacción con la física de partículas, como resultado de los problemas que esta cosmología no lograba solucionar. El modelo cosmológico del Big Bang caliente, ya asumido desde la segunda mitad de la década de 19606 por la mayoría de la comunidad científica como el modelo estándar, ofrecía la explicación de un origen denso y caliente para el universo. “De hecho, solo a partir de esta época emergió la cosmología como una disciplina científica y apareció cosmólogo como un nombre para los profesionales practicantes de una ciencia” (Kragh 2008 323). De esta manera los cosmólogos se dieron a la tarea de buscar una nueva teoría cosmológica que respondiera a los problemas pendientes.

5 Brian Green, clasifica las diferentes versiones del multiverso de la siguiente manera: multiverso mosaico, inflacionario, brana-cíclico, paisaje, cuántico, holográfico, simulado y final. En (Green 2011 407-408). Por su parte, George Gale los clasifica en tres tipos: multiversos espaciales, multiversos temporales y multiversos de otras dimensiones; en (Leslie 1998 195-212). En este estudio analizamos el multiverso inflaccionario y el multiverso brana-cíclico, que son las versiones de multiverso que más claramente manifiestan una propuesta metafísica. 6 Esto principalmente por causa del descubrimiento astronómico de la radiación de fondo cósmico de microondas (o también, radiación cósmica de fondo) en 1965 por Arno Penzias y Robert Wilson.

216

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 213-250


Especulaciones y controversias en la cosmología

Así surge la figura de Alan Guth, un físico de partículas estadounidense que propuso para el año 1981 la formulación oficial de la teoría inflacionaria. En la naciente teoría, Guth planteaba un escenario de los primeros instantes del universo -lo cual suponía, ciertamente, la existencia de una singularidaden el que se podría explicar el ajuste preciso de las condiciones iniciales, para así resolver el problema de los monopolos magnéticos, del horizonte y de la planitud7. Guth sugería que en los primeros instantes de su existencia el universo sufrió una expansión exponencial transitoria que aumentó sus dimensiones en muchos órdenes de magnitud, lo que daría respuesta a las condiciones homogéneas, isótropas y cuasiplanas que presenta actualmente. Esta expansión estaba impulsada por una fuerza negativa, una especie de gravedad repulsiva; en palabras de Guth: “El universo se está expandiendo exponencialmente en un estado de falso vacío (…) la presión negativa es también la fuerza impulsora detrás de la expansión exponencial” (Guth 1981 348-351) 8. Antes de que ocurriera la fase inflacionaria en el Universo primitivo se establecieron las condiciones iniciales de ajuste fino a partir del influjo causal que estableció el equilibrio térmico entre las regiones microscópicas; seguidamente, la expansión exponencial llevó al universo a las dimensiones actuales con su densidad de materia Ω muy cercana al valor crítico y la temperatura uniforme en la mayor parte del espacio cósmico. La inflación explicaba porque 7 El problema cosmológico del horizonte hace referencia a la uniformidad a gran escala o a la comunicación entre las diferentes regiones del universo observable. Concretamente, afirma que diferentes regiones del cielo cósmico (p.e. los bordes del universo conocido) que no han podido tener contacto causal, presentan una temperatura común de 2,725 K; y solamente la materia y la radiación que se encuentren dentro del horizonte de partículas o en contacto causal puede hallarse en equilibrio térmico. Por tanto, surge el problema de cómo explicar el surgimiento de tal nivel de isotropía a partir de magnitudes tan grandes. Por su parte, el problema de la planitud o del ajuste fino de la densidad, corresponde a la densidad de la materia que posee el universo actualmente, la cual se estima en un valor muy cercano al crítico, esto es, Ω=1 o en un rango de 0.5 ≤ ≤ 1.5. Estos parámetros significan que el universo está muy cerca de poseer una geometría euclídea (plana) o una curvatura muy cercana a cero. Esto supone que en épocas primitivas del universo, la diferencia entre Ω y la unidad alcanzaba valores de magnitud exorbitantemente pequeños (). El problema consiste en explicar cómo y por qué se dieron semejantes condiciones iniciales para permitir la evolución del universo y los valores de los parámetros actuales. Y los monopolos mágnéticos son entidades magnéticas hipotéticas predichas como una inevitable consecuencia de los modelos de unificación de las fuerzas fundamentales (GUT), producidos abundantemente y muy pesados (con masas del orden de GeV) en etapas muy tempranas del universo. El problema está en que el universo no está dominado por monopolos magnéticos; por tanto, las teorías que los predicen son incompatibles con el modelo estándar del Big Bang caliente. Véase (Liddle 2003 99-109; Sazhin 2005 98-116; Cepa 2007 299-307). Asimismo, se denomina singularidad espacio-temporal al instante en que el factor de escala del universo fue igual a cero; y en tales condiciones, la densidad, la presión y la temperatura eran infinitamente grandes. La singularidad es también tomada como el origen del tiempo. 8 El cosmólogo ruso M. V. Sazhin señala que el artículo de Guth “sentó las bases de la cosmología moderna del universo temprano y, que al parecer, es uno de los trabajos en física y astronomía más citados del siglo xx”. En (Sazhin 2005 83).

217


Mayo Sánchez, David

las condiciones iniciales tan precisas llegaron a ser tan similares a las actuales condiciones del universo. En un posterior artículo publicado en 1984 junto a su colaborador Paul Steinhardt, así describía Guth la esencia de la nueva cosmología inflacionaria: Este periodo de expansión acelerada se denomina la era inflacionaria, y es el elemento clave del modelo inflacionario del universo. Según el modelo, la era de inflación continuó durante segundos o más largo, y durante este período el diámetro del universo aumentó por un factor de o más. (…) Esta pequeña región homogénea es luego inflada para ser lo suficientemente grande como para abarcar el universo observado. (…) La rápida expansión hace que el espacio llegue a ser más plano tal como la superficie de un globo se hace más plana cuando se infla. El valor de Ω hoy debe ser con una precisión muy cercana al 1 (Guth & Steinhardt 1984 122-123)9.

Asimismo, la presión negativa que impulsaba la expansión era causada por un campo escalar de energía φ -que posteriormente fue llamado inflatón10- el cual estaba sujeto a fluctuaciones cuánticas aleatorias. Guth precisaba, al año siguiente de la publicación de su artículo pionero, que: “el universo se expande exponencialmente a medida que el campo Higgs φ "rueda" lentamente por el potencial y la energía entonces es termalizada rápidamente cuando φ empieza a oscilar alrededor de su mínimo” (Guth & Pi 1982 1110). Aquí, la función de las fluctuaciones cuánticas representa un papel muy importante, debido a que son ellas las que provocan que la energía potencial del campo escalar alcance un valor lo bastante elevado para provocar la inflación cósmica11. Además, las fluctuaciones cuánticas propician la formación de “burbujas”12, estas son, 9 Cabe señalar que la cosmología inflacionaria ha sido criticada por ser altamente especulativa. Véase por ejemplo, (Earman & Mosterín 1999 1-49; Barrow & Liddle 1997 1501-1508). 10 En el primer modelo inflacionario propuesto por Guth el campo que provoca la inflación es el de Higgs. Véase (Cepa 2007 307-320). El campo inflatón es un campo puramente hipotético que proporciona una base teórica para la cosmología inflacionaria; el término fue utilizado por primera vez por D.V. Nanopoulos, K.A. Olive y M. Srednicki en (Nanopoulos, Olive y Srednicki 1983 30-34). Los campos escalares representan campos físicos en los que predominó una ecuación de estado de la materia (nuevo) de tipo falso vacío; este es un objeto físico, que es un mínimo local de energía pero no un estado de energía mínima absoluto del sistema en su totalidad. El valor de la energía que posee es de tipo potencial; el campo se representa por - y la energía por tener un valor dado V (-). 11 Brian Green en su obra La Realidad Oculta advierte que el comportamiento cuántico como base de la presión negativa que impulsa la inflación es crucial para la posterior elaboración de los universos paralelos. En (Green 2011 70). 12 Las burbujas son regiones que han sufrido la inflación, y estas se forman a partir del proceso de nucleación por el decaimiento del falso vacío (estado de energía que no es el mínimo absoluto) al verdadero vacío (estado de energía mínima). Por su parte, hay diferentes maneras de explicar la descomposición del falso vacío, de acuerdo al modelo de campo escalar que se proponga, pero de cualquier manera las fluctuaciones cuánticas son fundamentales para que dicho proceso se realice.

218

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 213-250


Especulaciones y controversias en la cosmología

estados del campo escalar que ocupan rápidamente todo el espacio del falso vacío, y son las que dan lugar a la transición de fase, y con esta, a la finalización de la inflación. “Este modelo tenía una gran desventaja: al llenar el espacio, las paredes de las burbujas chocaban, generando un gran contraste de densidad. Precisamente para evitar las grandes fluctuaciones de densidad es que se creó el nuevo universo inflacionario” (Sazhin 2005 131-132)13. De esta forma surgen los nuevos modelos del universo inflacionario14, a raíz de este y otros problemas que dejaba la versión original inaugurada por Guth, y que el mismo Guth señaló en su artículo de 1981. Este aspecto y otros de la cosmología inflacionaria fueron refinados y desarrollados por los aportes de los cosmólogos de origen ruso Andrei Linde y Alexander Vilenkin y por los norteamericanos Andreas Albrecht y Paul Steinhardt15. Ya para 1982, estos científicos ofrecían versiones mejoradas que tomadas en su conjunto fueron denominadas “la nueva inflación”. En esta nueva inflación se afirmaba que habían otras maneras de concebir y llegar a la inflación, lo que implicaba nuevos marcos teóricos que sugerían otros modelos de campos escalares16. Dentro de esas nuevas versiones aparece una en particular de la cual saldría la primera propuesta cosmológica del multiverso. Esta es la inflación caótica o eterna17, propuesta originalmente por Andrei Linde, quien en julio de 1982 afirmaba en un artículo pre-impreso en la Universidad de Cambridge, que el objetivo de su escrito era el de dar una solución al problema de la singularidad cosmológica -algo que el viejo modelo inflacionario no ofrecía-, esto es, una explicación de por qué ocurrió el origen mismo del Universo, y para ello preguntaba: “la parte más importante de este problema [la singularidad] es solo la cuestión de cómo podría ser que en algún momento nuestro espacio y 13 Las grandes irregularidades y variaciones de densidad y de ritmo de expansión producto del encuentro entre burbujas hubiesen evitado la formación de estructuras a gran escala del universo, como galaxias, estrellas, etc. 14 Utilizo el concepto universo inflacionario (con sus implicaciones) como sinónimo de multiverso; esto para diferenciarlo del concepto Universo (con mayúscula), con el cual hago referencia a nuestro Universo observable. 15 Helge Kragh remarca que “entre 1981 y el verano de 1996 se publicaron unos 3100 artículos que se referían a diversos aspectos de la cosmología inflacionaria. En (Kragh 2008 364). 16 Otras modelos interpretativos de la inflación son, por ejemplo: la inflación extendida, inflación doble, triple, la sobrenatural, la hiperextendida; además algunas versiones de inflación no son eternas, como en los casos de la inflación híbrida, la híbrida mutada o la híbrida inclinada; también hay modelos de inflación con teoría de cuerdas: inflación brana, racetrack, entre otros. Alan Guth señalaba en 1997 que para ese entonces existían cerca de cincuenta diferentes modelos de inflación, y eso indicaba que la inflación era (y continúa siendo) una teoría aún no terminada. Véase (Guth 1997 277-287; Linde 2005; Brandenberger 2001). 17 Los términos caótica y eterna se suelen utilizar como sinónimos (la inflación caótica da como resultado la eterna); sin embargo, Alexander Vilenkin afirma en su libro Muchos mundos en uno que ambos hacen referencia a cosas muy distintas, asegurando que fue él quien introdujo el concepto eterna en relación a la cosmología inflacionaria; en (Vilenkin 2009 122).

219


Mayo Sánchez, David

tiempo no han existido” (Linde 1982 5). Linde se preguntaba por una causa que diera cuenta de la singularidad que, a su vez, hacía posible la inflación misma, y para ello el propio marco teórico de la cosmología inflacionaria le servía de base. En esta primera propuesta Linde planteaba un nuevo modelo de campo escalar en el que este rueda muy despacio por el potencial, propiciando de esta manera que el ritmo de formación de las burbujas fuese lo suficientemente lento -evitando así que las paredes de las burbujas se fusionaran- como para que la transición de fase nunca se completara en todo el Universo; esto daba lugar a una especie de Universo en estado estacionario que se auto-reproduce eternamente (de momento, solo hacia el futuro), creando mini-universos burbuja allá donde el valor de la energía del campo escalar V(φ) es lo suficientemente alto. Así articulaba su preliminar hipótesis: Pero dado que el universo puede vivir siempre en este estado estacionario de auto-reproducción, podemos dejar ahora nuestra suposición habitual de que el universo inicialmente estaba caliente, y asumimos que el universo en su conjunto siempre estuvo en este estado de regeneración. (…) por lo tanto, que en el escenario sugerido anteriormente el universo contiene un número infinito de mini-universos (burbujas) de diferentes tamaños, y en cada uno de estos universos las masas de partículas, las constantes de acoplamiento, etc., pueden ser diferentes debido a la posibilidad de diferentes patrones de ruptura de la simetría dentro de las diferentes burbujas. (…) El escenario de la regeneración no-singular del universo inflacionario en realidad se puede realizar solo en las teorías en las que la formación de burbujas está lo suficientemente reprimida (Linde 1982 5-6).

Una idea similar era desarrollada por el también ruso Alexander Vilenkin, quien en un artículo -igualmente pionero- publicado en 1983 hacía una aclaración similar a la de Linde en cuanto al objetivo de su escrito, pero expresándolo de una manera más perentoria con las siguientes palabras: “El propósito de este artículo es sugerir una nueva versión del escenario inflacionario en el cual el Universo es espontáneamente creado de la nada” (Vilenkin 1983 2848, cursiva del autor). Con ello, Vilenkin buscaba ofrecer una explicación al problema pendiente de la causa que hizo posible las condiciones iniciales, que eran las que permitían la elaboración de la propia cosmología inflacionaria. Su propuesta para la creación del universo inflacionario, que ya había sido sugerida un año antes18, decía que el Universo pudo haber nacido de la nada por un efecto túnel cuántico, debido a que “sabemos que, en la mecánica cuántica, las partículas pueden atravesar barreras de potencial por 18 Vilenkin, 1983, 25-28.

220

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 213-250


Especulaciones y controversias en la cosmología

efecto túnel” (Vilenkin 1983 2851). Así que, una vez con una explicación para el origen del universo inflacionario, el cosmólogo ruso se proponía, de igual forma, plantear el escenario de una inflación eterna, misma que daba lugar a la proliferación de los “universos isla” (como posteriormente les llamará). Para ello, el valor del campo escalar puede, a partir de las fluctuaciones, crecer o decrecer con igualdad de probabilidades, haciendo que al crecer conduzca a las regiones del falso vacío a una inflación que nunca termina, ya que todas esas regiones del Universo estarán permanentemente atrapadas en la fase inflacionaria19. En consecuencia, la hipótesis de Vilenkin había ofrecido un modelo de universo inflacionario creado pero que en seguida evoluciona eternamente produciendo -según los principios inflacionarios- otros universos como el nuestro. Vilenkin escribía: “En este modelo cosmológico el Universo tiene un principio pero no tiene fin. Partes del Universo recolapsan y desarrollan singularidades, mientras que otras partes se encuentran todavía en la fase inflacionaria” (Vilenkin 1983 2854). Tanto Linde como Vilenkin fueron elaborando y precisando más sus hipótesis en cuanto a la generación y reproducción eterna de los universos burbuja. Como resultado, el mecanismo de las fluctuaciones cuánticas de la nueva cosmología inflacionaria se volvería clave para la fundamentación teórica de los desarrollos de la hipótesis del multiverso inflacionario. En un artículo de 1986 Linde concluía que las fluctuaciones cuánticas del campo escalar φ son lo suficientemente fuertes para transferir el potencial efectivo (lo suficientemente elevado) a las regiones de falso vacío, las cuales han sido extendidas como dominios por toda la estructura global del espacio, y de esta manera se generan los mini-universos burbuja (Figura 1). Conjuntamente, esta generación de mini-universos corresponde a una auto-reproducción infinita del universo global, que para ello se deben, insiste Linde, “generar fluctuaciones de onda larga en el campo φ” (Linde 1986 399). Este modelo de universo inflacionario, continúa Linde, contiene un número exponencialmente largo (o infinito) de mini-universos, los cuales no tienen fin y quizás no tengan principio. De la misma manera, Vilenkin asegura que son las fluctuaciones cuánticas las responsables de producir la inflación no como un evento único sino también en un sinnúmero de regiones remotas, y una vez que el mecanismo inicia no tiene fin. Pero al igual que Linde, su postura ante el origen del universo inflacionario no está muy clara ni definida; así se pronuncia: 19 Vilenkin sostiene que en el conjunto del universo inflacionario hay algunas partes que están llenas de falso vacío, el cual se multiplica mucho más rápido de lo que se descompone (debido a que la “colina” de energía del campo escalar es bastante plana); asimismo, en nuestro universo isla también pueden nacer constantemente regiones de falso vacío, lo que implica que “la inflación nunca termina y el volumen de las regiones inflacionarias ¡sigue aumentando sin límite!” Véase (Vilenkin 2009 109-122).

221


Mayo Sánchez, David

Si se tiene en cuenta que las fluctuaciones cuánticas del campo escalar son las responsables de la inflación (…) una vez que la inflación ha comenzado, nunca termina completamente (...) El volumen total de las regiones de inflación crece exponencialmente con el tiempo (…) por lo tanto, el universo no tiene fin. Por otro lado, parece que el universo debe tener un principio (Vilenkin 1988 896).

La cuestión acerca de la generación o creación del multiverso inflacionario ocupó una parte importante en la producción intelectual-especulativa entre los cosmólogos inflacionarios, esto ya para la década de los años noventa del siglo xx. Esta situación se debió, principalmente, a la publicación en el año 1994 de un artículo titulado: Eternal Inflation and the Initial Singularity, co-escrito por Vilenkin y el físico y cosmólogo de origen hindú Arvind Borde. En este artículo los autores se preguntaban si un modelo en el que la fase inflacionaria no tiene fin y en el que se producen continuamente universos isla puede ser extendido hacia un pasado infinito y evitar así la singularidad inicial; esta fue la respuesta: “este hecho no es posible en espacio-tiempos inflacionarios de futuro eterno, en tanto que obedezcan ciertas condiciones físicas razonables [p.e. la incompletitud geodésica]: tales modelos han de poseer necesariamente singularidades iniciales” (Vilenkin & Borde 1994 3305)20. Esto significa que un espacio-tiempo debe tener una singularidad debido a que el volumen de los diferentes puntos del pasado en la trayectoria de una geodésica nula es finito, es decir, no puede extenderse a valores infinitos. Lo que implica que no solamente los universos burbuja tendrían una singularidad inicial, sino también, y fundamentalmente, el multiverso inflacionario como estructura global exigiría un inicio absoluto del espacio-tiempo. Por su parte, Linde, en un artículo publicado en el mismo año y posterior al de Vilenkin y Borde, hace notar -con cierta irresolución- que la opción de una creación para el Universo y todas las regiones inflacionarias es la más probable; esta era su posición: “Existe la posibilidad de que todas las partes del Universo fueron creadas al mismo tiempo en una singularidad inicial Big Bang” (Linde 1994 54).

20 Este aspecto fue confirmado posteriormente por los mismos autores ahora junto a Alan Guth en varios artículos publicados entre los años 2001-2003: (Borde, Guth y Vilenkin 2001; Borde, Guth y Vilenkin 2003).

222

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 213-250


Especulaciones y controversias en la cosmología

Figura 1. En la ilustración se muestra como sería la generación de miniuniversos burbuja desde la estructura global a partir de las fluctuaciones cuánticas. (Fuente:news.nationalgeographic.com/news/2014/03/140318multiverse-inflation-big-bang-science-space/) Ante esto, los proponentes del multiverso hacían las preguntas que naturalmente surgen, planteadas en sus propios escritos: “¿Qué fue antes? Si el espacio-tiempo no existía entonces, ¿cómo podría todo aparecer de la nada?” (Linde 1994 48); “(…) uno tiene que enfrentarse con la cuestión de qué hubo antes, si acaso hubo algo” (Vilenkin & Borde 1994 3307). Más aún, ya para el año 2001, como consecuencia del problema de la singularidad inicial para el que la cosmología del multiverso inflacionario no tenía una explicación, Guth, Vilenkin y Borde sentenciaban que debido a la posibilidad real de la frontera espacio-temporal, “es claro que la inflación por sí sola no es suficiente para proporcionar una descripción completa del Universo, y una nueva física es necesaria para determinar las condiciones adecuadas en el límite” (Borde, Guth y Vilenkin 2001 4). Junto a esto, los tres científicos propusieron en el año 2003 un teorema (BGV) el cual mostraba que las geodésicas nulas y de tipo tiempo son, en general, incompletas hacia el pasado en todos los modelos inflacionarios, tanto si las condiciones de energía se mantienen o no; esto basado en el requisito de que la condición de expansión (el pará-

223


Mayo Sánchez, David

metro H Hubble) se mantenga a lo largo de las geodésicas dirigidas hacia el pasado21. De esta forma la cosmología especulativa del multiverso inflacionario se enfrentaba con límites teóricos a la hora de tratar de explicar el origen de la estructura global del multiverso mismo, es decir, afrontaba las dificultades que conlleva el problema de la creación; problema que los proponentes no habían logrado evadir en sus escritos y que les era necesario superar para completar sus hipótesis. Por lo que a esto respecta, Andrei Linde escribió una serie de artículos entre los años de 1998 y 2004, en los cuales aceptaba un pasado finito para el multiverso inflacionario, y para explicar su origen tomaba como fundamento teórico el modelo de creación por fluctuación de onda cuántica propuesto por Vilenkin a inicios de la década de los ochenta. No obstante, tal posición cambió a partir del año 2005 con un artículo (que fue publicado oficialmente en el 2006) en el que hacía referencia a los 25 años de existencia de la cosmología inflacionaria, la cual -según Linde-, llegó a convertirse en el paradigma22 de la cosmología estándar. Su cambio de postura se sustentaba -y tomando como base el teorema (BGV)- en el principio de que en cada región inflacionaria del multiverso el tiempo transcurrido en la línea geodésica sería finito, pero, según Linde, la inflación eterna implica que todas las geodésicas calculadas en conjunto no tienen un límite máximo para el tiempo transcurrido. De manera que cada parte del multiverso tendría un pasado finito, esto es, un inicio temporal, pero el multiverso como un todo tendría un pasado eterno. Así articulaba su nueva postura: Si este límite máximo [para el multiverso] no existe, entonces la inflación eterna es eterna, no solo en el futuro sino también en el pasado. (…) no tenemos ninguna razón para creer que hubo un principio en la evolución de todo el Universo en un momento t = 0, que ha sido tradicionalmente asociado con el Big Bang (Linde 2006 13).

Esta idea fue también desarrollada pocos años antes por los defensores del multiverso Anthony Aguirre y Steven Gratton, para ese entonces investiga21 El Teorema BGV afirma que en cualquier modelo de cosmología de expansión (incluso los modelos oscilatorios y cíclicos) el espacio-tiempo debe ser incompleto en el pasado. Concretamente, “Considerando espacio-tiempos para los cuales la región del pasado obedece a una condición de expansión promedio, por el cual queremos decir que la tasa de expansión promedio en el pasado es mayor que cero: > 0”. La construcción del parámetro Hubble depende solo del movimiento relativo del observador (las geodésicas nulas o de tipo tiempo), y del test de partículas. Con una definición adecuada del parámetro Hubble como: H .y la región sobre la cual el promedio debe tomarse: la condición de expansión promedio implica un pasado incompleto a lo largo de cualquier geodésica nula o comóvil de tipo tiempo. En (Borde, Guth y Vilenkin 2003). 22 Helge Kragh afirma que “hablar de un paradigma [inflacionario] no es una exageración, y de hecho los físicos utilizaron el término”; en (Kragh 2008 364).

224

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 213-250


Especulaciones y controversias en la cosmología

dores de la Universidad de Princeton, quienes argumentaban que es posible “evitar una singularidad cosmológica, un inicio del tiempo, o una creación -de la nada- ”, esto por cuanto el mecanismo inflacionario puede duplicar regiones y con ello sería posible “constituir una cosmología inflacionaria geodésicamente completa” (Aguirre & Gratton 2003 14). Del mismo modo, el físico teórico Sean Carroll junto a su colaboradora Jennifer Chen, defendían un pasado infinito para el universo inflacionario, apoyando la noción de que las fluctuaciones cuánticas aleatorias en un vacío de energía habían dado origen a este Universo observable, y por ello, “el Big Bang en nuestro pasado no es un momento único en la historia del Universo; es simplemente una de las muchas veces que la inflación de forma espontánea comenzó” (Carroll & Chen 2004 29). Todo esto fue propiciando la concepción de un carácter necesario para el multiverso; este, afirman sus defensores, se constituye como una realidad inevitable una vez aceptada la teoría inflacionaria. Ya en el año 2007, se publicó una obra colectiva titulada Universe or Multiverse? en la que se reunió a renombrados científicos y filósofos -defensores y opositores del multiversopara tratar las implicaciones de la ahora muy popular hipótesis. Vilenkin fue uno de los contribuyentes, que ante las críticas hechas contra el multiverso por ser altamente especulativo y dudosamente científico, afirmaba que ellos como proponentes tenían una teoría del multiverso, la inflación, y, que “por lo tanto, la cosmología inflacionaria da una realización específica al conjunto multiverso y lo hace esencialmente inevitable” (Carr 2007 163). Alan Guth en su popular libro The Inflationary Universe escrito varios años antes, ya sostenía la inevitabilidad del multiverso como resultado de la reproducción necesaria de la inflación eterna (Figura 2). Así lo explicaba: Si las ideas de la inflación eterna son correctas, entonces el Big Bang no fue un acto singular de creación, sino que fue más como el proceso biológico de división celular (…) Dada la plausibilidad de la inflación eterna, yo creo que tan pronto como cualquier teoría no lleve a la eterna reproducción de universos será considerada inimaginable a manera de una especie de bacteria que no se reproduce (Guth 1997 251-252).

Otro científico que apoyó esta idea es el astrónomo y cosmólogo británico Martin Rees, quien, siendo partidario del razonamiento antrópico, cree que la mejor manera de explicar el ajuste fino de las leyes y constantes y la aparición de la vida misma es recurriendo al multiverso. Según Rees, el multiverso se constituye en la única explicación científica para resolver tal problemática cosmológica; así argumenta: “Si así fuera [que la inflación no termina] nuestro Big Bang no fue el único, sino que incluso puede ser parte de un cosmos

225


Mayo Sánchez, David

que se reproduce eternamente. (…) este concepto se sigue de varias teorías diferentes (aunque todas especulativas)” (Rees 2002 149, 155)23. Este ha sido el principal enfoque de los defensores del multiverso en la primera década del siglo xxi: intentar mostrar que la hipótesis del multiverso inflacionario es más que eso, y que como recurso teórico se posiciona como un nuevo paradigma cosmológico. Las discusiones y las producciones en artículos y libros han girado en torno al estatus científico que tiene o no la hipótesis. Al respecto, el historiador de la ciencia Helge Kragh ha señalado que la creciente proliferación y popularidad del multiverso se debe al intenso debate llevado a cabo en la comunidad de los físicos y cosmólogos, y concluye diciendo: “La cuestión general es si la cosmología del multiverso es ciencia o no” (Kragh 2011 275).

Figura 2. La imagen ilustra la auto-reproducción eterna y necesaria del multiverso inflacionario. “Las propiedades del espacio en cada burbuja no dependen del tiempo de formación de la burbuja. En este sentido, el universo en su conjunto puede ser estacionario, a pesar de que el interior de cada burbuja es descrito por la teoría del Big Bang”. (Fuente: Linde, A., “The Self-Reproducing Inflationary”, Scientific America, 271, (1994): 48-55). 23 Versión original: (Rees 2001).

226

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 213-250


Especulaciones y controversias en la cosmología

Muchos de los físicos y cosmólogos defensores del multiverso creen que se puede obtener evidencia empírica a favor de su existencia. Laura MersiniHoughton, física teórica de origen albanés, afirma que es necesario extender las teorías científicas al marco del multiverso “a fin de obtener una comprensión más profunda de la naturaleza” (Mersini-Houghton 2008a 3). En razón de esto, Mersini-Houghton defiende la idea de que una prueba del multiverso puede ser una especie de interacción gravitacional entre universos, lo cual -forzosamente- tendría que provocar un impacto en nuestro Universo. Por tal motivo, ahora en colaboración con el físico Richard Holman de la Universidad Carnegie Mellon, ha propuesto en un artículo publicado en 2008, que el descubrimiento realizado recientemente con respecto a un cúmulo de galaxias que se mueven en una misma dirección conocido como el “flujo oscuro”, puede ser tomado como el efecto gravitacional de otro universo sobre el nuestro. Este fenómeno, escriben, “está determinado por el simple hecho de que nuestro dominio Hubble está incrustado en un entorno mucho más grande, el multiverso” (Mersini-Houghton & Holman 2008b 5)24. Desde entonces, los más recientes desarrollos realizados por los defensores del multiverso inflacionario se han visto reflejados en el intento por demostrar su capacidad explicativa y predictiva. De ahí que proponentes y defensores han tratado de vincular -sumado al problema de la creación- la problemática asociada al ajuste fino de las leyes y constantes de la naturaleza con la opción del multiverso como una posible solución. Esto ha sido un esfuerzo por vindicar a la hipótesis en atención a las críticas realizadas desde la misma comunidad científica; críticas que han surgido, notoriamente, en vista de las importantes divergencias entre los propios defensores y a su carácter puramente especulativo ante la falta de evidencia observacional. Esto lo analizaremos en las secciones 3 y 4.

2.2. Multiverso brana-cíclico Veinte años después de la publicación del artículo que diera inicio a la cosmología inflacionaria de la mano de Alan Guth, se publicaría otro artículo que daría inicio oficialmente a otra hipótesis cosmológica del multiverso conocido como brana-cíclico. Uno de los principales artífices y proponentes del nuevo modelo estuvo muy vinculado al ámbito inflacionario y con el científico que propició el surgi24 Con respecto a esto han surgido las críticas que advierten acerca de errores de estimación en las medidas realizadas para asegurar la efectividad del “flujo oscuro” como un fenómeno físico. Véase (Keisler 2013; AtrioBarandela 2013).

227


Mayo Sánchez, David

miento de la hipótesis del multiverso, ya que fue co-autor junto a Guth del artículo The Inflationary Universe del año 1984, el reconocido físico teórico Paul Steinhardt. Steinhardt junto a Andreas Albrecht contribuyeron en la elaboraron de los primeros modelos de la nueva inflación, e incluso fue uno de los contribuyentes pioneros en el desarrollo de la inflación eterna, pero a pesar de eso se mantuvo distante de la posterior idea del multiverso. Es sabido que Steinhardt ha realizado algunas críticas a la teoría inflacionaria, pero principalmente al multiverso como hipótesis científica, señalando deficiencias en cuanto a su poder explicativo y predictivo (En: Steinhardt & Turok 2007 221-253; Steinhardt 2011 38-43). En compensación, ha ofrecido -junto a otros- una alternativa a la cosmología inflacionaria como una mejor opción para explicar los problemas concernientes a los orígenes y estructura global del cosmos. Y por esa razón llega a decir que “la hipótesis cíclica conduce a una visión mucho más optimista para la ciencia fundamental” (Steinhardt & Turok 2007 221). De ahí que el multiverso brana-cíclico25 hunde sus raíces en la cosmología inflacionaria, al menos como referente temático, por lo que abordará e intentará superar los problemas pendientes del multiverso inflacionario, y al mismo tiempo ofrecerá una visión radicalmente distinta y ahora desde otro marco teórico. La cosmología brana-cíclica tiene sus antecedentes en la segunda mitad de la década de los años noventa del siglo xx, como resultado de algunos cambios y desarrollos producto de los esfuerzos teóricos por alcanzar la gran unificación (GUT) o una teoría del todo (TOE), tal es el caso de la teoría de las supercuerdas (o simplemente cuerdas). El intento por unificar las dos grandes teorías científicas del siglo xx que explican y predicen el macro y el microcosmos como lo son la relatividad general y la mecánica cuántica, ha dado lugar al intento por establecer una teoría cuántica de la gravedad; esta era la teoría de cuerdas, “la candidata más popular del fin del siglo xx para una teoría unificada completa” (Kragh 2007 405). Esto ha significado un gran trabajo teórico-matemático y también especulativo a causa de las limitaciones en la controlabilidad experimental y empírica que sufre la teoría. La gravedad cuántica, al ser considerada en relación a singularidades (Big Bang, agujeros negros), hace que las magnitudes en las que sería posible unificar gravedad con mecánica cuántica sean dominios que no se pueden explorar experimentalmente, propiamente a escala de la longitud de Planck m. Este programa 25 Es importante señalar que los proponentes del multiverso brana-cíclico, no utilizan el término “multiverso” para referirse a su hipótesis, en su lugar utilizan nombres como modelo, universo, hipótesis, principalmente.

228

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 213-250


Especulaciones y controversias en la cosmología

teórico sumamente especulativo ha dado como resultado la inclusión de nuevos campos y partículas, como es el caso de unos minúsculos filamentos vibrantes, las cuerdas. Según la teoría, dichas cuerdas poseen variadas pautas de vibración con las que producen las diferentes propiedades de las partículas elementales. Además, otro aspecto relevante de las cuerdas es que -como indica John Schwarz, uno de los fundadores de la teoría- “tienen una escala de longitud característica, que puede ser estimada por análisis dimensional” (Schwarz 2000 5). Es decir, que las cuerdas requieren de un universo con más de tres dimensiones espaciales, por ejemplo, uno con diez dimensiones espaciales y una temporal, con las que “las ecuaciones de la teoría de cuerdas quedaban libres de problemas” (Green 2011 116). Uno de los avances en la teoría de cuerdas estuvo en la superación de las complicaciones que presentaba el hecho de que había cinco tipos de teoría de cuerdas26. Está superación llegó en 1995 cuando el físico teórico Edward Witten logró unificar los cinco tipos en una teoría global de once dimensiones que recibió el nombre de teoría-M. “Supercuerdas y supergravedad de once dimensiones todas aparentemente se vinculan”, escribía Witten (Witten 1995 52). Esta unificación propició la introducción de otro componente fundamental no solamente para la teoría de cuerdas sino también para el multiverso brana-cíclico. Leonard Susskind -otro de los fundadores de la teoría de cuerdas- lo relata de la siguiente manera: “Pero dicha teoría [la teoría-M] tenía un serio problema: necesitaba nuevos objetos, objetos que la teoría de cuerdas no había predicho con anterioridad. (…) pero la naturaleza de los nuevos objetos y su lugar matemático en la teoría era un completo misterio (…) lo eran hasta que Joe Polchinski descubrió sus branas” (Susskind 2007 314-315). Las branas (o también llamadas membranas) fueron el significativo aporte que Polchinski realizó a la teoría para provocarle un importante avance27. De acuerdo con la teoría, estas branas son objetos físicos fundamentales, dinámicos, como una especie de láminas bidimensionales (dos-brana) que hacen de superficie para las cuerdas, proveyendo -entre otras cosas- el lugar donde los puntos extremos de segmentos de cuerda pueden terminar. Y lo que es más significativo para nuestro estudio, es que algunas de las branas descubiertas por Polchinski resultaron ser tridimensionales (tres-brana), y esto fue clave para la propuesta del multiverso brana-cíclico. 26 Cinco teorías de cuerdas en diez dimensiones: Tipo I, Tipo IIA, Tipo IIB, Heterótica-O y Heterótica-E. 27 Las branas fueron introducidas con el fin de relacionar o interconectar por dualidades a los cinco tipos de teoría de cuerdas, esto es, que las diferentes teorías de cuerdas son equivalentes entre sí a partir, por ejemplo, de la modificación del radio de compactificación de las dimensiones extra; y de esta manera son unificadas en la teoría-M. Polchinsky descubrió que tal dualidad entre las diferentes teorías no era posible sin las branas. Véase (Blumenhagen, Lüst y Theisen 2013 688-722; Susskind 2007 311-324; Smolin 2007 201).

229


Mayo Sánchez, David

En el mencionado artículo de 2001 titulado The Ekpyrotic Universe: Colliding Branes and the Origin of the Hot Big Bang, Paul Steinhardt de la Universidad de Princeton junto al físico teórico de origen sudafricano Neil Turok de la Univeridad de Cambridge, y en colaboración con Burt Ovrut y Justin Khoury, ofrecieron la primera versión del nuevo multiverso nombrado universo Ekpirótico28. Según esta hipótesis, nuestro Universo visible es una brana tridimensional existiendo en un espacio mayor de cinco dimensiones junto a otra brana (y a otros posibles pares de branas) también tridimensional ubicada paralelamente a nuestro Universo brana. Las branas están separadas por una pequeña brecha dimensional, y por esa razón, el otro universo brana no es visible desde nuestro Universo (Figura 3). Estando paralelas en la quinta dimensión (global), una fuerza (gravitacional) atrae a las branas entre sí provocando una colisión, que fue la que dio origen a nuestro Universo tridimensional. Estas son sus palabras: “El momento decisivo es la creación del Universo Big Bang caliente por la colisión de la brana mayor (…) con nuestra brana visible. Aunque el Universo puede existir por un tiempo indefinido antes de la colisión, el tiempo cósmico como normalmente está definido comienza en el impacto” (Khoury, Ovrut, Steinhardt y Turok 2001 3). A raíz de la colisión se libera energía cinética que se convierte en partículas elementales y en radiación caliente iniciando con ello la expansión de nuestro Universo. Esto, afirman los autores, evita una singularidad como la descrita por la cosmología inflacionaria, ya que “el caliente universo en expansión en nuestro escenario comienza su evolución cósmica a una temperatura finita” (Khoury, Ovrut, Steinhardt y Turok 2001 3). Esto significa que el origen cósmico por choque de branas no contiene magnitudes infinitas de temperatura y densidad, puesto que en este modelo cosmológico no existiría gran parte del Universo primordial. Y, justamente, este era uno de los propósitos principales de Steinhardt y sus colaboradores, a saber, solucionar el problema del origen de las condiciones iniciales, problema que en el modelo Ekpirótico no existe dado que el Big Bang no es el principio absoluto del espacio-tiempo. De esta forma, la cosmología brana proponía un escenario pre-big bang29 que intentaba explicar el porqué del origen y la expansión del Universo. Aquí, el choque de branas homogéneas se constituye como la causa de nuestro Big Bang y del inicio de la expansión -produciendo además un Universo homo28 El término ekpirótico proviene del griego ἐκπύρωσις (ekpyrosis) que significa literalmente quemar, incendiar, conflagración. De la creencia estoica que consideraba que el cosmos era destruido periódicamente por una gran conflagración cada Gran Año. 29 El escenario pre-big bang fue inspirado en ciertos aspectos de los trabajos de Gabriele Veneziano como los propios autores señalan en el artículo. (Veneziano 1991 287-294; Gasperini & Veneziano 1993 317-339).

230

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 213-250


Especulaciones y controversias en la cosmología

géneo, plano, sin monopolos magnéticos y con anisotropía en la radiación cósmica de fondo-, y sugiriendo con ello, una estructura cosmológica eterna. Así afirmaban Steinhardt y Turok en un artículo publicado en el año 2002, haciendo referencia a las implicaciones del nuevo mecanismo cosmológico: “(…) puede ser continuado hacia el futuro infinito, así como hacia el pasado infinito. Por lo tanto, el Universo es eterno” (Steinhardt & Turok 2002a 17). Esta es una de las diferencias esenciales con respecto a la inflación, y que los autores destacan como “una filosofía diferente” del origen del Universo.

Figura 3. En la ilustración se muestra a los dos universos brana tridimensionales existiendo paralelamente en un espacio mayor en una quinta dimensión. (Fuente: http://www.astrobio.net/topic/exploration/missions/the-astrobiology-universe/). El modelo Ekpirótico fue evolucionando rápidamente y ya para el año 2002 Steinhardt y Turok presentaban el nuevo modelo llamado universo cíclico. De entre sus ideas fundamentales se encuentra la característica de que el multiverso brana se halla inmerso en una interminable secuencia cósmica que inician con una explosión (big bang) y terminan en un colapso (big crunch). Cada ciclo incluye un periodo de acelerada expansión seguido por una contracción a causa de que cuando las branas colisionan y, seguidamente, rebotan, se genera la expansión que se mantiene hasta alcanzar su valor máximo (Figura 4). Este

231


Mayo Sánchez, David

mecanismo de colisión-rebote, expansión-contracción es causado por lo que Steinhardt y Turok han denominado fuerza o potencia interbrana, que es una especie de fuerza gravitacional que puede variar de valores negativos a positivos, significado esto la repulsión y atracción. La exposición del mecanismo cíclico queda condensada como sigue: La transición de la expansión a la contracción es causada por la introducción de energía potencial negativa [potencia interbrana], en lugar de la curvatura espacial. Por otra parte, el comportamiento cíclico depende de manera esencial en tener un periodo de expansión acelerada después de las fases dominadas por la radiación y la materia. Durante la fase de expansión acelerada, el Universo se acerca a un estado cuasi-vacío, en el que se restauran las condiciones locales a un estado casi idéntico al que existía en el ciclo anterior antes de la fase de contracción (Steinhardt & Turok 2002a 1).

Figura 4. La imagen muestra el mecanismo del multiverso brana-cíclico en sus fases de colisión y rebote con los diferentes procesos en la evolución de los universos tridimensionales.(Fuente: wwwphy.princeton.edu/~steinh/cycliccosmology.html). Pero a pesar de la proclama de infinitud para el universo cíclico con su secuencia eterna de expansiones y contracciones -esto sobre todo en comparación con el multiverso inflacionario-, la idea de un principio absoluto para el multiverso brana- cíclico no está muy clara para sus proponentes. De tal manera que, mientras que para el año 2002 afirmaban lo siguiente: “ahora tenemos dos posibilidades diferentes: un universo con un comienzo definido 232

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 213-250


Especulaciones y controversias en la cosmología

[inflación] y un universo [cíclico] que se hace y re-hace para siempre” (Steinhardt & Turok 2002b 1439); para el año 2005, en un artículo titulado The Cyclic Model Simplified, escriben de la siguiente forma: “¿(…) el [universo] cíclico no tiene principio? Este problema no está resuelto en la actualidad. (…) La historia más probable es que el cíclico fue precedido por algún principio singular” (Steinhardt & Turok 2005 5). De las razones que daban para respaldar lo dicho estaba el hecho de que el modelo cíclico tiene la estructura causal de expansión en un espacio de De Sitter30, y que por lo tanto, “la fase de expansión es geodésicamente incompleta, por lo que la imagen cíclica no puede ser toda la historia” (Steinhardt & Turok 2005 5). Esto mismo es confirmado en su popular obra escrita en 2007 que lleva el nombre de Endless Universe, y siempre en comparación con la cosmología inflacionaria, Steinhardt y Turok afirman lo siguiente: Cada ciclo dura aproximadamente un trillón de años, y no hay límite conocido de cuántos ciclos podrían haber sido en el pasado. Tal vez el número es infinito. O tal vez hubo un -principio- en el pasado lejano, después de lo cual el Universo fue impulsado hacia un comportamiento cíclico regular por sus propiedades estabilizantes naturales. De cualquier manera, incluyendo los ciclos anteriores, el universo cíclico es exponencialmente más viejo que el universo inflacionario convencional (Steinhardt & Turok 2007 248).

El avance en cuanto a este tema es casi nulo, los autores del multiverso branacíclico no han desarrollado ideas claras ni precisas que arrojen luz sobre el pasado eterno del mecanismo brana-cíclico. En uno de sus más recientes artículos en el que hacen una breve referencia al tema, ahora incorporando al físico Jean-Luc Lehners de la Universidad de Princeton, y en el que nombran al modelo cíclico como Phoenix Universe, concluyen diciendo que: “Los intentos de incorporar esta idea [de una cosmología oscilatoria] en modelos en los que el Big Bang es el comienzo fallan (...) [sin embargo] Hay mucho tiempo en un universo cíclico” (Lehners, Steinhardt y Turok 2009 2235). Los artífices de la hipótesis cosmológica brana-cíclico reconocen al final de su obra Endless Universe, que ante la falta de evidencia empírica en apoyo a sus ideas, estas podrían estar equivocadas aunque posean características filosóficamente atractivas.

30 El espacio o Universo de De Sitter es una solución exacta de las ecuaciones de campo de Einstein en ausencia de materia que describen un Universo en expansión.

233


Mayo Sánchez, David

3. El problema de la creación y la solución del multiverso Desde los inicios y subsiguientes desarrollos de las hipótesis del multiverso inflacionario y brana-cíclico, sus artífices han creído que realmente existe un problema de la creación y que este tiene importantes repercusiones para el quehacer científico, en especial, para la cosmología física. Los cosmólogos han señalado en sus escritos, tanto técnicos como divulgativos, que la cuestión del origen del Universo supone una dificultad que lleva a la ciencia hasta sus propios límites metodológicos y alcances cognoscitivos y ontológicos. El proponente del multiverso inflacionario, Andrei Linde, ya mostraba su inquietud por el problema de la creación en un escrito del año 1984 cuando afirmaba: (…) uno de los problemas cosmológicos más importantes e interesantes es el problema de una singularidad cosmológica general. El aspecto más difícil de este problema no es la existencia de la propia singularidad, sino la cuestión de lo que era antes de la singularidad (…) Este problema se encuentra en algún lugar en la frontera entre la física y la metafísica (Linde 1984 976, cursiva del autor).

De igual modo, cuando proponía sus primeras ideas del multiverso inflacionario en el año 1982, ya anunciaba que su propuesta de multiverso podría servir como una opción a la alternativa teológica para la explicación del origen del Universo; esta era su declaración: “Sin embargo, no estaba del todo claro si Dios realmente podría jugar el juego de la creación del Universo muchas veces antes del éxito final, o tal vez uno podría tratar de darle algo de sentido [a la creación] con esta hipótesis de los muchos universos” (Linde 1982 6). Linde consideraba que la hipótesis del multiverso podría ofrecer una respuesta ante la problemática de la creación cósmica, dado que la explicación teológica evidentemente no satisfacía sus exigencias científicas. A esto, el físico y cosmólogo británico Paul Davies, en un artículo en el que analizaba las diferentes implicaciones -incluida la teológica- de la cosmología inflacionaria, afirmaba de manera un tanto vacilante, “si el modelo inflacionario puede funcionar, proporcionará un mecanismo para convertir un universo cuántico virtual en un cosmos en toda regla y permitirá a los cosmólogos contemplar científicamente la creación ex nihilo de la teología” (Davies 1983 153). Por su parte, Alexander Vilenkin ha sido uno de los cosmólogos más insistentes en el tema de la creación del Universo. Posterior a la publicación del artículo de Guth que inició la cosmología inflacionaria, Vilenkin publicaba un artículo titulado Creation of universes from nothing, cuyas ideas de creación por fluctuación de onda cuántica trasferiría al artículo Birth of inflationary universes en el que desarrollaba sus primeras hipótesis del multiverso inflacio234

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 213-250


Especulaciones y controversias en la cosmología

nario. Vilenkin cree firmemente que la ciencia debe y puede dar respuesta a la causa que dio origen al cosmos, a pesar de que eso implique traspasar las fronteras objetivas de la ciencia; así lo confirma en su libro divulgativo, publicado originalmente en 2006, Muchos mundos en uno cuando expresa que: “describir el principio del cosmos en términos puramente científicos, puede ser difícil pero, con frecuencia, algo nos parece imposible solo por las limitaciones de nuestra propia imaginación” (Vilenkin 2009 244). Alan Guth, quien también mostraba sus intereses por el origen cósmico, reconocía que ante los intentos infructuosos del multiverso inflacionario por ofrecer una salida al problema de la creación, no quedaba otra opción que seguir especulando. Así sintetizaba en su principal obra: “¿Cómo empezó todo? (...) la inflación eterna empuja esta pregunta lejos en el pasado (…) la pregunta no desaparece. (…) La teoría del Big Bang en realidad no aborda esta cuestión (…) Mientras no haya una respuesta científica aceptada a la pregunta sobre la creación cósmica, las respuestas especulativas ahora son estudiadas” (Guth 1997 271). En el multiverso brana-cíclico -como heredero de la cosmología inflacionariatambién se perciben unos profundos intereses por la cuestión de la creación, de su significado y sus implicaciones. Nuevamente en el contexto de pugna con la inflación, Steinhardt y Turok afirmaban que el poderío explicativo del multiverso inflacionario en relación al evento primordial de la creación se probaría comprendiendo lo que realmente eso significa, cosa que la inflación no hacía; estas son sus palabras: “Pero la única manera de probar la afirmación [acerca del poderío explicativo de la inflación] sería entender el evento de la creación en sí mismo” (Steinhardt & Turok 2007 112). Ese era, reiteramos, uno de los propósitos centrales de la cosmología brana-cíclica, es decir, comprender y explicar la noción de creación -ya que, según Steinhardt y Turok, nunca ha sido bien comprendida-, y esto, necesariamente, en términos científicos. Así se pronunciaba Steinhardt en una presentación del modelo brana-cíclico ante la American Philosophical Society en el año 2004: “Aunque el proceso de la creación y los primeros instantes no se conocen bien, la secuencia de los siguientes eventos [de la cosmología brana-cíclica] está bien definida y las predicciones del modelo parecen estar en exquisito acuerdo con las observaciones actuales” (Steinhardt 2004 1). Pero la razón de fondo por la cual los proponentes del multiverso brana-cíclico buscaban comprender correctamente la creación era precisamente para suprimirla, postulando un multiverso con branas que colisionan y rebotan, se expanden y contraen en un ciclo eterno. Esta era una de las principales críticas que Steinhardt y Turok le hacían a la inflación, por cuanto “el escenario de la inflación eterna no elimina la necesidad del evento de la creación” (Steinhardt & Turok, 2007 112). E incluso, los cosmólogos del multiverso brana-cíclico llegan a identificarse como los sucesores de Fred

235


Mayo Sánchez, David

Hoyle, el principal oponente de la teoría Big Bang en la década de 1950 y artífice del modelo estado-estacionario, diciendo que el modelo cíclico “puede ser visto como una notable reencarnación del modelo estado-estacionario del universo de Fred Hoyle” (Steinhardt & Turok 2002b,18). En definitiva, los esfuerzos de estos cosmólogos por eliminar el problema de la creación desde su cosmología especulativa, como hemos visto, no han logrado dar con una respuesta como exige la ciencia, respaldada con la evidencia fáctica. Por otro lado, ahora en relación al ajuste fino (fine tuning) de las leyes y constantes del Universo -y que una de sus alternativas es el argumento del diseño divino-, Martin Rees cree que el multiverso puede ser considerado como una solución viable, y como una alternativa para los que no aceptan el argumento teológico del diseño. Pese a esto, el científico de Cambridge reconoce que la opción del multiverso no es exactamente una alternativa científica, sino una preferencia intuitiva. Esta es su postura: Si uno no cree en el designio providencial, pero todavía piensa que el ajuste fino necesita una explicación, hay otra perspectiva (…) muy especulativa (…) No obstante, es la perspectiva que prefiero (…) Puede que existan muchos -universos-, de los que el nuestro es solo uno. En los otros, algunas leyes y constantes físicas serían diferentes. Pero nuestro Universo no sería solo un universo aleatorio. Pertenecería al subconjunto insólito que ofrecía un hábitat propicio a la aparición de la complejidad y de la conciencia. (…) nuestro Universo es seleccionado a partir de un multiverso, sus características aparentemente designadas o finamente ajustadas ya no serían sorprendentes (Rees 2002a 154-155).

Ante todo esto, la crítica por parte de la misma comunidad científica no ha faltado. Algunos de los oponentes a la hipótesis del multiverso han señalado decididamente que las hipótesis cosmológicas del multiverso se han elaborado con el fin de dar una solución o explicación a problemáticas asociadas a la realidad tomada en su totalidad como lo son, por ejemplo, el origen del Universo o el ajuste fino de las leyes y constantes que le rigen. Estas indagaciones son las que históricamente han pertenecido a la argumentación filosófica y teológica, que son las que desde la antigüedad han tratado con la cuestión de la causalidad última y los primeros principios de la totalidad de lo real. Es el caso, por ejemplo, del cosmólogo y matemático George Ellis, el cual afirma que: “La idea de un multiverso provee una posible ruta para la explicación del ajuste fino (fine tuning). Pero este no es definido de forma única, no es científicamente contrastable (…) Es por tanto, una opción metafísica hecha por razones filosóficas” (Ellis 2006 10). Ellis es uno de los más acérrimos oponentes del multiverso, e insiste en decir que detrás de la hipótesis hay 236

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 213-250


Especulaciones y controversias en la cosmología

claros motivos teológicos, y por esa razón asegura que el multiverso es “una propuesta que no puede ser probada correctamente por métodos científicos -la creencia en su existencia es una cuestión de fe” (Ellis 2006 1). Según Ellis, el argumento que subyace en la propuesta del multiverso es la opción por la infinitud, y por ello es necesario para los defensores del multiverso postular una realidad global que ofrezca una pre-existencia que garantice todas las demás existencias. El científico se mostrará concluyente: “Un conjunto infinito de dominios universo con diferentes variables físicas puede permitir casi que todas las posibilidades se produzcan” (Ellis 2013 13); y continúa: Los mecanismos supuestos que subyacen en cualesquiera regularidades que hay en el multiverso deben pre-existir a la existencia de no solo este Universo, sino también todos los demás. Si se supone un universo que está conectado en el grande pero está separado localmente en dominios causalmente desconectados con propiedades físicas diferentes (como en la inflación caótica), uno obtiene una imagen plausible de un mecanismo de creación que puede ser la base de un multiverso efectivo, pero a expensas de suponer la validez de la física no contrastada y quizás incontrastable” (Ellis 2013 3).

Para Ellis, el multiverso buscar responder a cuestiones que están fuera del ámbito de la ciencia, como lo es el caso de una realidad última fundamento de un único Universo contingente y temporal, y esto coloca al multiverso en igual condición que otras opciones de carácter no científico o estrictamente teológico. Ante esto, Bernard Carr considera que tal situación ha representado un desafío para el punto de vista teológico, y, en consecuencia, “no es sorprendente que [el multiverso] haya sido elogiado entre los ateos” (Carr 2007 16). Otro de los fuertes oponentes del multiverso es el reconocido Paul Davies, quien, de la misma forma, considera que el multiverso es una hipótesis pseudo-científica que lo que pretende es competir con la teología postulando una “realidad última” o una especie de sistema teísta a partir de la cosmología física. En la obra colectiva del año 2007, Davies apunta sin reservas que: “los modelos más generales del multiverso son ontológicamente equivalentes a un deísmo ingenuo, y me refiero a la existencia de un Diseñador/Seleccionador Cósmico (…) sospecho que la explicación general del multiverso es un simple deísmo ingenuo vestido de un lenguaje científico” (Carr 2007 495). De hecho, Davies va un poco más allá y asegura que detrás de motivaciones de los proponentes del multiverso hay convicciones religiosas; así escribe: “[el multiverso] es básicamente una convicción religiosa en lugar de un argumento científico” (Carr 2007 495). Davies como cosmólogo está muy interesado en la cuestión de los orígenes cósmicos, de la causa del Big Bang, etc., pero no cree científico ni viable racionalmente apelar a una entidad trascendente para 237


Mayo Sánchez, David

poder explicar el evidente problema de la creación. Por ello considera que lo que hacen las hipótesis del multiverso es elevar el problema a “algo” que está más allá del Universo físico como lo hace la teología o la filosofía, y por eso están en la misma categoría. Pero lo que Davies considera más irónico del caso es que lo que los cosmólogos naturalistas intentaban lograr con la hipótesis del multiverso ha resultado en lo opuesto, esto es, apoyar la idea de un ser o una realidad transcendente conocida como Dios. El siguiente texto muestra en esencia la crítica más punzante hecha por Davies al multiverso: El creador de los mundos virtuales es un diseñador trascendente con el poder de crear o destruir universos simulados a voluntad, alterar las circunstancias dentro de ellas, elaborar leyes, hacer milagros, etc. Llevado a su extremo lógico, la explicación multiverso es un argumento convincente para la existencia de (una forma bastante anticuada de) ¡Dios! Esto es ciertamente irónico, ya que era en parte para acabar con tal Dios por lo que el multiverso se invocó originalmente (Carr 2007 496).

Con estos pronunciamientos los científicos oponentes han denunciado y situado a la hipótesis del multiverso en niveles filosóficos e incluso teológicos, bajo el argumento de que la razón fundamental del surgimiento de semejantes especulaciones está lejos de ser la de ofrecer un producto objetivo y consecuente de la teorización científica, sino que más bien, lo que ha impulsado a sus proponentes ha sido la intención de suplantar o competir con las opciones metafísicas tradicionales. En el lado contrario, las declaraciones de los proponentes y defensores del multiverso dejan ver claro que sus ideas cosmológicas contienen serias implicaciones epistemológicas, ontológicas y teológicas, que por su parte ponen en duda la validez racional o científica de sus propuestas -realizadas, por supuesto, desde un marco científico-, a tal punto de crear la evidente división en la comunidad científica. Con esto se planteaba una de las cuestiones críticas de la reciente cosmología del multiverso, esta es: ¿qué tipo de conocimiento está generando la ciencia cosmológica? Y es de esta manera como se establecen las discusiones filosóficas en torno a la demarcación científica de la vigente cosmología del multiverso.

4. Metafísica, criterios de demarcación y cambios epistemológicos en la ciencia cosmológica

4.1. Multiverso y metafísica Sin duda alguna, para una parte de la misma comunidad científica la hipótesis del multiverso traspasa las fronteras de la ciencia empírica, lo que ha llevado,

238

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 213-250


Especulaciones y controversias en la cosmología

en consecuencia, a que la cosmología del multiverso sea ubicada fuera del modelo estándar. Las declaraciones críticas hacia el multiverso han seguido una línea que señala que tales elaboraciones hipotéticas de la cosmología física han desbordado en el campo de la filosofía, puntualmente, en el de la metafísica especulativa, la cual, por esencia, no es contrastable empíricamente. Así lo reconoce el físico de la Universidad de Stanford y premio Nobel Burton Richter en un artículo publicado en 2006 en la revista Physics Today, cuando señala que: Mucho de lo que pasa actualmente en la teoría más avanzada parece ser más una especulación teológica, el desarrollo de modelos sin consecuencias contrastables (…) No es que el modelo [del multiverso] paisaje que esté necesariamente equivocado, sino más bien que si un gran número de universos con diferentes propiedades son posibles e igualmente probables, el paisaje no puede hacer ninguna contribución real que no sea una filosófica. Eso es metafísica no física (Richter 2006 8-9).

Por otra parte, hay algunos que sostienen que postular entidades inobservables, no controlables por ningún método científico corresponde al terreno de la física; tal es el caso de Martin Rees, así afirma: (…) la ciencia es una empresa experimental u observacional, y es natural estar preocupado por las afirmaciones que invocan algo inherentemente inobservable. Alguno podría considerar a los otros universos como perteneciendo a la esfera de la metafísica en lugar de a de la física. Pero yo pienso que ellos [los otros universos] se encuentran dentro del ámbito apropiado de la ciencia. No es absurdo o sinsentido preguntar “¿Existen universos no observables?”, a pesar de que no es probable que una respuesta rápida esté próxima. La pregunta claramente no puede ser resuelta por observación directa, pero evidencia relevante puede ser buscada, la cual podría llevar a una respuesta (Rees 2002b 68).

Rees cree que las cuestiones últimas que abarca la cosmología del multiverso pertenecen al ámbito de la ciencia, esto a pesar de su alto grado especulativo. Lo que el científico británico no deja en claro es cómo tales entidades inobservables y desconectadas ontológicamente del espacio-tiempo podrían ser evidenciadas; de ahí que no hay en Rees una clara distinción conceptual entre física y metafísica. Lo cierto es que la extrapolación cometida por la cosmología del multiverso es reconocida no solamente por los oponentes, sino también por algunos defensores y proponentes. Fue para el año 1993 que el astrofísico británico Dennis Sciama -adherente al multiverso- afirmaba que “es no científico postular la existencia de otros universos, muchos de los cuales son inobservables, incluso

239


Mayo Sánchez, David

en principio” (Citado por Kragh 2011 276). El propio Andrei Linde reconoce en un artículo publicado en 2008 que, “el multiverso inflacionario y la teoría de cuerdas paisaje nos obligan a pensar en problemas que a veces van más allá de los límites bien establecidos de la física” (Linde 2008 45, cursivas nuestras). Pero aun reconociendo los límites de la física, Linde -así como Sciama- sigue considerando que la hipótesis de los múltiples universos (junto a la teoría de cuerdas) ofrece un marco explicativo único para dar cuenta del origen y de los muy particulares parámetros de las leyes y constantes que constituyen nuestro Universo observable. El físico teórico francés Aurélien Barrau es otro simpatizante que reconoce la imprecisa condición científica del multiverso, lo que representa un riesgo para la propia ciencia -pero al mismo tiempo una necesidad-, afirmando que: “Debido a que se encuentran [los múltiples universos] en la frontera de la ciencia, estos modelos son peligrosos” (Barrau 2007 16); sin embargo, es necesario correr dicho riego, sostiene Barrau, porque esto “abre nuevos campos de posible pensamiento científico” (Barrau 2007 16); todo con el propósito de comprender la naturaleza. Un caso particular es el de Paul Steinhardt, quien no acepta sino solo su tipo de multiverso (brana-cíclico), afirmando, por ejemplo, que el multiverso inflacionario con su propuesta de una infinidad de universos burbuja desconectados entre sí y con infinitas posibilidades de sucesos físicos con diferentes parámetros y valores no es experimentalmente controlable para la ciencia y, por lo tanto, infalsable, resultando científicamente sinsentido; así se manifiesta en un artículo publicado en 2004 junto a Neil Turok: Una buena teoría científica es observacionalmente contrastable. Una explicación antrópica está basada en consideraciones que involucran regiones del espacio que están causalmente desconectados de nosotros y que nunca, en muchos casos, podrán ser observados por nosotros. ¿Qué parámetros y propiedades pueden variar de una región a otra? ¿Cuál es la distribución de probabilidad? (...) Almas valientes han comenzado a dirigirse por este camino, pero parece probable para nosotros el que podamos arrastrar una hermosa ciencia hacia las profundidades más oscuras de la metafísica (Steinhardt & Turok 2005 1).

Steinhardt reconoce que el multiverso inflacionario es metafísica no falsable, pero al mismo tiempo sostiene que su modelo de multiverso -el cual consiste en una serie de branas ubicadas en una dimensión extracósmica y que colisionan y se separan entre sí para producir big bangs- sí es un concepto científico potencialmente contrastable. Steinhardt considera que la (su) ciencia cosmológica brana-cíclica puede ofrecer respuestas a las cuestiones últimas que inciden en la determinación de nuestra realidad física global; así declara en su libro:

240

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 213-250


Especulaciones y controversias en la cosmología

El problema son las preguntas fundamentales sobre el origen, evolución y futuro del Universo y las fuerzas que dieron forma al cosmos. Y las respuestas, como usted descubrirá, tienen implicaciones extraordinarias, no solo para la cosmología y la física, sino también para la naturaleza de la propia ciencia y lo que es en última instancia cognoscible (Steinhardt & Turok 2007 xv, cursivas mías).

4.2. ¿Cambios en la metodología científica? Es notorio que en los proponentes y defensores del multiverso hay una decidida postura en favor de una ciencia omniabarcante; dichos científicos sugieren una ciencia que podría traspasar sus límites ya bien definidos. Meritoriamente, según los cosmólogos del multiverso, la cosmología física puede ofrecer respuestas a cuestionamientos que van más allá de la experiencia empírica. Sus postulados apoyan la idea de que la ciencia podría estar encaminada a ofrecer las respuestas a los interrogantes últimos que por mucho tiempo han pertenecido al ámbito exclusivo de la filosofía, y con ello, la ciencia pasaría, asegura Brian Green, de los detalles a hacer algo más y eso “nos reta a reexaminar nuestra visión de la propia ciencia” (Green 2011 417), lo que implicaría hacer cambios en la propia metodología científica. A este respecto, Leonard Susskind -otro defensor del multiverso-, en un contexto de discusiones en torno a la demarcación científica, asevera que la estructura de la ciencia con su método son autónomos y, por lo tanto, libres de cualquier dictamen que la filosofía pueda realizar; así dice: “La buena metodología científica no es un conjunto abstracto de reglas dictadas por los filósofos. Está condicionada y determinada por la propia ciencia y los científicos que crean la ciencia” (Susskind 2007 226-227). Es así como se ha originado una tendencia y debate a la vez por parte de algunos científicos, quienes han sugerido cambios epistemológicos respecto a la metodología científica a utilizar en las nuevas elaboraciones cosmológicas, ya que son exclusivamente ellos -los científicos- los que podrían proponer tales cambios. Así también lo cree Barrau: La historia nos recuerda que la definición de la ciencia solo puede venir de dentro y de la praxis: no hay área activa de la creación intelectual que pueda delimitarse estrictamente desde el exterior. Si los científicos tienen que cambiar las fronteras de su propio campo de la investigación, sería difícil justificar una prescripción filosófica que les impide hacerlo (Barrau 2007 13).

Sin embargo, la influencia de la filosofía de la ciencia en relación a la demarcación científica de la cosmología del multiverso ha estado muy presente en las discusiones entre los científicos. Es el caso del falsacionismo popperiano,

241


Mayo Sánchez, David

al que consciente o inconscientemente -y en algunos casos con cierta imprecisión conceptual- los cosmólogos han hecho referencia para tratar de justificar o rechazar las especulaciones del multiverso; como el mismo Barrau señala: “el multiverso parece estar fuera de la ciencia, ya que no se puede observar. ¿Cómo, siguiendo la prescripción de Karl Popper, puede una teoría ser falsable si no podemos observar sus predicciones?” (Barrau 2007 13). De un modo similar, Max Tegmark (proponente del multiverso matemático), cree que es importante que las hipótesis científicas satisfagan el criterio popperiano; estas son sus palabras: “¿Es la teoría del multiverso metafísica en lugar de física? Como recalcaba Karl Popper, eso depende de si la teoría es empíricamente contrastable y falsable” (Carr 2007 105); y, seguidamente, añade que las teorías del multiverso podrían ser falsables solamente si “predicen lo que el conjunto de universos paralelos es y especifican una distribución de probabilidad y la medida del mismo” (Carr 2007 105). Burton Richter es otro que también invoca al filósofo austriaco de la ciencia para justificar la no cientificidad de la hipótesis del multiverso, por cuanto “lo que es el desarrollo del conocimiento práctico, el desarrollo de modelos con consecuencias contrastables y falsables [es la] (definición de Karl Popper de la ciencia)” (Richter 2006 8). Un enérgico divulgador de las ideas popperianas en el ámbito cosmológico es el físico teórico Lee Smolin, proponente y, a la vez, crítico de las hipótesis del multiverso y de la teoría de cuerdas. Smolin defiende solamente un tipo de multiverso que pueda satisfacer el criterio de falsabilidad, si no es así, “la teoría está en serios problemas y con gran riesgo de aventurarse fuera de los límites de la ciencia”, escribía Smolin en la significativa obra colectiva Universe or Multiverse? (Carr 2007, 361). Pero junto a los que ven en el falsacionismo popperiano -o en la crítica filosófica- un criterio sólido para determinar la cientificidad de la cosmología física especulativa, están los que rechazan por completo toda incursión de la filosofía de la ciencia, o más exactamente, de los filósofos de la ciencia con sus argumentaciones. Esta tendencia ha sido promocionada por importantes e influyentes físicos del siglo xx, que han sido aquellos que no creen que sea relevante para la ciencia recibir prescripciones de la filosofía. Así lo declaraba ya el físico y premio Nobel Richard Feynman con su famosa frase: “La filosofía de la ciencia es tan útil para los científicos como la ornitología es para las aves” (Citado por Crocker 2012 80). Además, el también físico, premio Nobel y simpatizante del multiverso Steven Weinberg, se ha manifestado por igual contra la pertinencia de la filosofía para con la ciencia afirmando que: “no deberíamos esperar que [la filosofía] proporcione a los científicos de hoy ninguna guía útil sobre cómo proceder en su trabajo o sobre lo que

242

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 213-250


Especulaciones y controversias en la cosmología

pueden llegar a descubrir” (Weinberg 2011 135). Estos renombrados científicos han ejercido influencia -con estas ideas- en algunos de los proponentes del multiverso. Uno de ellos es Leonard Susskind, quien incluso ha inventado un adjetivo para aquellos que promueven el falsacionismo, estos son los “popperazzi”; y asegura que antes que la falsación está lo que él llama la confirmación que es la “evidencia directa positiva a favor de una hipótesis antes que ausencia de evidencia negativa” (Susskind, 2007, 225, 228), (tesis que evoca al ya superado verificacionismo del positivismo lógico). Y continua la invectiva contra las normativas filosóficas diciendo: “En cuanto a las reglas filosóficas rígidas, sería el colmo de la estupidez descartar una posibilidad solo porque rompe el lema de algún filósofo sobre la falsabilidad” (Susskind, 2007, 225, 228). Susskind concluye sugiriendo que es el tiempo el que se encargará de hacer que una buena idea pase a formar parte de la ciencia sea ésta falsable o no, indicando que la empresa científica no está sometida a ninguna regla rígida que condicione su método para ofrecer un conocimiento racional de la realidad natural. En vista de todo esto, son evidentes las consecuencias de las actuales hipótesis del multiverso; en concreto, la discusión alrededor de la demarcación entre ciencia y no-ciencia, junto a la reconsideración y el establecimiento de los elementos que deben constituir el método científico. En definitiva, los científicos se han visto en la obligación de pensar y argumentar sobre la estructura propia de la ciencia, sobre sus límites y posibilidades, derivando en postulaciones que sugieren una nueva definición de lo que sería la empresa científica cosmológica y sus objetivos.

5. Consideraciones finales Desde estos antecedentes podemos notar que la cosmología del multiverso ha dado como resultado modelos especulativos en torno al problema de la creación cósmica, y esto ha generado discusiones filosóficas y divisiones en la comunidad científica. El germen de todo esto creemos que tiene varias causas situadas dentro y, principalmente, fuera de la ciencia. En primer lugar, es innegable que el surgimiento de la hipótesis del multiverso ha obedecido a aspectos científicos. Es claro que el multiverso tiene como base teórica a la inflación -que ya de por sí es muy especulativa- la cual tiene, debidamente, la intención de explicar y predecir aspectos propios de la realidad natural. Pero a pesar de eso, las motivaciones de los proponentes del multiverso ya estaban condicionadas por un interés enfocado en el tema de la creación;

243


Mayo Sánchez, David

y esto, unido a que la teoría inflacionaria estaba relacionada con el problema de las condiciones iniciales del Universo, sirvió para conjugar el teorizar con el especular; y esta confluencia, innegablemente, jugó un papel determinante para impulsar la formulación de la hipótesis de los muchos mundos ubicados en otra realidad dimensional más allá de la nuestra como una posible solución a la problemática de la creación. Adicionalmente, está también el hecho de que la inflación eterna es solamente una de las varias interpretaciones de la inflación, por lo que el multiverso no sería una derivación necesaria de la teoría, sino tan solo una posibilidad. De modo que la razón para ir más allá de los alcances ontológicos y epistemológicos de la ciencia podría estar en los intereses -sobre la creación- de los mismos científicos, impulsados por la naturaleza particular de la indagación cosmológica. Así que, al no haber justificación lógico-metodológica que le permita a la ciencia traspasar sus límites, estos aspectos señalados pasarían, en consecuencia, a fungir como las causas (externas) condicionantes. Estas, pueden identificarse como elementos de carácter filosófico, así como también ideológico, psicológico y sociológico. Haremos referencia a los ideológicos y filosóficos. Se aprecian aspectos ideológicos en las motivaciones de los proponentes del multiverso a causa de sus pretensiones por abarcar ámbitos que sobrepasan los alcances racionales expresamente definidos de la ciencia. La pretensión de explicarlo todo con la ciencia es ideológica. Esta actitud procura posicionar a la ciencia en una cima cognoscitiva suprema, como la única fuente de conocimiento que haría posible la comprensión del Universo en su totalidad, incluyendo lo que estaría más allá de la realidad espacio-temporal. De esta forma, la ciencia quedaría establecida como una empresa omnímoda, sin límites y como la autoridad absoluta en cuanto a la interpretación y descripción de la realidad. Esta es la postura que han hecho palpable sus proponentes y defensores al intentar explicar o evitar el problema de la creación, esto sin recurrir o integrar a otros ámbitos del saber, o sin reconocer la extralimitación epistemológica de sus propuestas hipotéticas. Y esto señala hacia un cientificismo que distorsiona la labor objetiva de la indagación cosmológica en la ciencia. También se puede constatar que en los elementos fundantes de la hipótesis de multiverso hay cuestiones de carácter filosófico, las cuales han inducido en el desbordamiento hacia lo metafísico a partir de la teorización cosmológica de la inflación. La cosmología por miles de años ha sido un ámbito propio de la filosofía, que, exactamente, como una explicación universal y racional del cosmos, nace en Grecia. Esto quiere decir que, en esencia, la cosmología es

244

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 213-250


Especulaciones y controversias en la cosmología

una labor altamente especulativa y ambiciosa a la vez -esto se enlaza con el aspecto ideológico-, lo que necesariamente vincularía esa propensión hacia lo general y primordial de la cosmología filosófica con la ciencia más próxima a su perspectiva y contenidos como lo es la cosmología física. Inevitablemente, la cosmología física tiene, situación que vemos con el multiverso, una tendencia hacia la especulación metafísica, en este caso, hacia aquello que podría darle sentido al enunciado “origen del Universo”; esto es, la necesaria pre-existencia de una realidad fundamental o simplemente antecesora. Sin embargo, este traspaso científico hacia lo fundamental y último daría como resultado, innegablemente, un producto que ya no sería propiamente ciencia sino filosofía. Esto, efectivamente, lo han reconocido en alguna medida los proponentes del multiverso, identificando algunos aspectos filosóficos en sus hipótesis. Pero el punto crítico es que la hipótesis del multiverso ha sido presentada como ciencia, cuando realmente tiene serios obstáculos por superar para que sea establecida como tal. Por otra parte, es cierto que la ciencia a lo largo de la historia ha estado relacionada con el pensamiento mítico, filosófico y religioso, pero precisamente, el desprendimiento de tales representaciones cognoscitivas ha significado el nacimiento de la ciencia moderna. La ciencia moderna nace a partir de la ruptura con los grandes sistemas metafísicos clásicos y, previamente, por los desprendimientos con la mitología y la religión. A esto, podríamos preguntar: ¿por qué la ciencia con todo su poderío teórico-matemático genera y continúa generando metafísicas? ¿Sería esto una consecuencia necesaria de la teorización científica acerca de los aspectos fundamentales y últimos de la realidad? ¿Por qué justamente en este período histórico en el que la ciencia ha alcanzado un alto grado de precisión técnica y cognoscitiva? ¿Reflejaría esto que hay ámbitos de la realidad que son descubiertos por la indagación científica pero que al mismo tiempo se sitúan fuera de sus alcances? Finalmente, vemos que el tema de la creación ha resultado de enorme dificultad para la ciencia cosmológica; lo vemos en la serie de especulaciones, controversias, extrapolaciones, etc. en las que ha estado envuelta a raíz de los intentos explicativos del multiverso, ingresando en ámbitos no precisamente científicos. Lo cierto es que la cosmología física no ha podido evitar la problemática que ocasiona la cuestión del origen del Universo; y a causa de ello, se ha dado a la tarea de elaborar hipótesis que en la mayoría de los casos han quedado incompletas o del todo como constructos lógica y metafísicamente inconsistentes y, fundamentalmente, separados de la realidad natural.

245


Mayo Sánchez, David

Trabajos citados Abrams, N. E., Primack, J., “Cosmology and 21st-Century Culture”. Essays on science and society Science 7 September, (2001): 1769-1770. Aguirre, A., Gratton, S., “Inflation without a beginning: a null boundary proposal”. Physical Review D, vol. 67, Issue 8, 083515, (2003): 1-18. Atrio-Barandela, F., “On the Statistical Significance of the Bulk Flow Measured by the Planck Satellite” arXiv:0910.4233 [astro-ph.CO], (2013): 1-9. Blanco-Pillado, J. J., Burgess, C. P., Cline, J. M., Escoda, C., Gomez-Reino, M., Kallosh, R., Linde, A., Quevedo, F., “Racetrack Inflation” Journal of High Energy Physics Issue 11, id. 063, (2004): 1-28. Barrau, A., “Physics in the multiverse” Cern Courier 20 December, (2007): 13-17. Barrow, J., P. Davies, P; C. Harper, C., (eds.) Science and Ultimate Reality; quantum theory, cosmology, and complexity. Cambridge: Cambridge University Press, 2004. Barrow, J., Liddle, A. R., “Can Inflation be Falsified?” General Relativity and Gravitation vol. 29, Issue 12, (1997): 1503-1510. Blumenhagen, R., Lüst, D., Theisen, S., Basic Concepts of String Theory. Heidelberg: Springer-Verlag, 2013. Borde, A., Guth, A., Vilenkin, A., “Inflation is not past-eternal” arXiv:grqc/0110012, (2001): 1-4. Borde, A., Guth, A., Vilenkin, A., “Inflationary spacetimes are not pastcomplete” Physical Review Letters 90, (2003): 1-4. Brandenberger, R. H., “A Status Review of Inflationary Cosmology” arXiv:hep-ph/0101119, (2001): 1-20. Carr, B., Universe or Multiverse? Cambridge: Cambridge University Press, 2007. Carroll, S., Chen, J., “Spontaneous Inflation and the Origin of the Arrow of Time” arXiv:hep-th/0410270, (2004): 1-36. Cepa, J., Cosmología física. Madrid: Ediciones Akal, 2007. Davies, P., “Universes galore: where will it all end?” en Carr, B., Universe or Multiverse? Cambridge: Cambridge University Press, 2007, 487-505. _____.“The inflationary universe” Culture, Education & Society vol. 38, No. 2, (1984), appeared originally in The Sciences, March/April, (1983): 144-153.

246

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 213-250


Especulaciones y controversias en la cosmología

Earman, J., Mosterín, J., “A Critical Look at Inflationary Cosmology” Philosophy of Science vol. 66, No. 1, (1999): 1-49. Ellis, G. F. R., “On the philosophy of cosmology” Studies in History and Philosophy of Modern Physics 46, (2013): 5-23. _____.“The multiverse proposal and the anthropic principle” Claremont Cosmology Conference: Cosmology and Process Philosophy in Dialogue: Fundamental Philosophical Issues in Recent Cosmology and their Religious Significance (2006): 1-16. Gasperini, M., Veneziano, G., “Pre-big-bang in string cosmology” Astroparticle Physics vol. 1, (1993): 317-339. Green, B., La realidad oculta. Universos paralelos y las profundas leyes del cosmos. Barcelona: Crítica, 2011. Goenner, H., “What kind of science is cosmology?” Annalen der Physik (Leipzig) 522, Nr. 6, (2010): 389-418. Guth, A. H., The Inflationary Universe: the quest for a new theory of cosmic origins. New York: Basic Books, 1997. _____.“Inflationary universe: A possible solution to the horizon and flatness problems” Physical Review D, vol. 23, Issue 2, (1981): 347-356. Guth, A. H., Steinhardt, P. J., “The inflationary universe” Scientific American vol. 250, (1984): 116-128. Guth, A. H., Pi, S. Y., “Fluctuations in the new inflationary universe” Physical Review Letters vol. 49, (1982): 1110-1113. Heller, M., Chernín, A., Los orígenes de la cosmología: Fridman y Lemaître. Moscú: Editorial URSS, 2005. Kachru, S., Kallosh, R., Linde, A., Maldacena, J., McAllister, L., Trivedi, S. P., “Towards Inflation in String Theory” Journal of Cosmology and Astroparticle Physics Issue 10, id. 013 (2003): 1-43. Keisler, R., “The statistical significance of the -dark flow-” arXiv:1303.6614 [astro-ph.CO], (2013): 1-4. Khoury, J., Ovrut, B., Steinhardt, P. Turok, N., “The Ekpyrotic Universe: Colliding Branes and the Origin of the Hot Big Bang” Physical Review D, vol. 64, 123522, (2001): 1-67. Kragh, H., Higher speculations: Grand theories and failed revolutions in physics and cosmology. New York: Oxford University Press, 2011.

247


Mayo Sánchez, David

_____.Historia de la cosmología. De los mitos al universo inflacionario. Barcelona: Crítica, 2008. _____.Generaciones cuánticas: Una historia de la física en el siglo XX. Madrid: Ediciones Akal, 2007. Lehners, J., Steinhardt, P., Turok, N., “The Return of the Phoenix Universe” International Journal of Modern Physics D, vol. 18, (2009): 2231-2235. Leslie, J., (ed.) Modern Cosmology and Philosophy. New York: Prometheous Books, 1998. Liddle, A., An Introduction to Modern Cosmology. Chichester: Wiley, 2003. Linde, A., “Inflationary Cosmology” Lecture Notes in Physics Volume 738, Springer-Verlag Berlin Heidelberg, (2008): 1-54. _____.“Inflation and String Cosmology” Progress of Theoretical Physics Supplement No. 163, (2006): 295-322. _____.“Prospects of Inflation” Physica Scripta vol. T117, (2005): 40-48 _____.“Creation of a Compact Topologically Nontrivial Inflationary Universe” Journal of Cosmology and Astroparticle Physics Issue 10, id. 004, (2004): 1-9. _____.“Inflationary cosmology and creation of matter in the Universe” Classical and Quantum Gravity, 18, (2001): 3275–3285. _____.“Quantum Creation of an Open Inflationary Universe” Physical Review D 58, 083514, (1998): 1-23. _____.“The Self-Reproducing Inflationary” Scientific America 271, (1994): 48-55. _____.“Eternally existing self-reproducing chaotic inflationary universe” Physics Letters B vol. 175, Issue 4, (1986): 395-400. _____.“The inflationary universe” Reports on Progress in Physics vol. 47, 1984, p. 976, (1984): 925-986. _____.“Nonsingular Regenerating Inflationary Universe”, Print-82-0554 (Cambridge), (1982): 1-10. Mersini-Houghton, L., “Thoughts arXiv:0804.4280, (2008a): 1-10.

on

Defining

the

Multiverse”

Mersini-Houghton, L., Holman, R., “‘Tilting’ the Universe with the Landscape Multiverse: The ‘Dark’ Flow” Journal of Cosmology and Astroparticle Physics Issue 02, id. 006, (2008b): 1-8.

248

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 213-250


Especulaciones y controversias en la cosmología

Moore, G. W., “What is a Brane?” Notices of the AMS vol. 52, (2005): 214-215. Nanopoulos, D. V., Olive, K. A., Srednicki, M., “After primordial inflation” Physics Letters B, Volume 127, Issue 1-2, (1983): 30-34. Polchinski, J., “Dirichlet-Branes and Ramond-Ramond Charges” Physical Review Letters 75, (1995): 4724-4727. Rees, M., Nuestro hábitat cósmico. Barcelona: Paidós.2002. _____.“Living in a multiverse” En The far-future universe: eschatology from a cosmic perspective, George F.R. Ellis (ed.), Pennsylvania: Templeton Foundation Press, 2002, 65-85. _____.Our cosmic habitat. Princeton: Princeton University Press, 2001. Richter, B., “Theory in particle physics: Theological speculation versus practical knowledge” Physics Today 59 October, (2006): 8-9. Sazhin, M. V., Cosmología Moderna. Moscú: Editorial URSS, 2005. Schwarz, J., “Introduction to Superstring Theory” arXiv:hep-ex/0008017, (2000): 1-43. Smolin, L., Las dudas de la física en el siglo XXI. ¿Es la teoría de cuerdas un callejón sin salida? Barcelona: Crítica, 2007. Smolin, L., “Scientific alternatives to the anthropic principle” En Carr, B. (ed.), Universe or Multiverse? Cambridge: Cambridge University Press, 2007, 323-366. Steinhardt, P., “The Endless Universe: A Brief Introduction” Proceedings of the American Philosophical Society vol. 148, No. 4, (2004): 464-470. Steinhardt, P., Turok, N., Endless Universe: Beyond the Big Bang. New York: Doubleday, 2007. _____.“The Cyclic Model Simplified” New Astronomy Reviews v. 49, (2005): 43-57. _____.“Cosmic evolution in a cyclic universe” Physical Review D, vol. 65, Issue 12, id. 126003 (2002a): 1-53. _____.“A Cyclic Model of the Universe” Science vol. 296, Issue 5572, (2002b): 1436-1439. Susskind, L., El paisaje cósmico. Teoría de cuerdas y el mito del diseño inteligente. Barcelona: Critica, 2007. Tegmark, M., “The multiverse hierarchy” En Carr, B. (ed.), Universe or Multiverse? Cambridge: Cambridge University Press, 2007.

249


Mayo Sánchez, David

Veneziano, G., “Scale factor duality for classical and quantum strings” Physics Letters B, vol. 265, Issue 3-4, (1991): 287-294. Vilenkin, A., Muchos mundos en uno. La búsqueda de otros universos. Barcelona: Alba Editorial, 2009. _____.“Anthropic predictions: the case of the cosmological constant” En Universe or Multiverse? Carr, B., (ed.), Cambridge: Cambridge University Press, 2007, 163-179. _____.“Quantum cosmology and the initial state of the Universe” Physical Review D, vol. 37, Issue 4, (1988): 888-897. _____.“Birth of inflationary universes” Physical Review D, vol. 27, Issue 12, (1983): 2848-2855. _____.“Creation of universes from nothing” Physics Letters B, vol. 117, Issue 1-2, (1982): 25-28. Vilenkin, A., Borde, A., “Eternal Inflation and the Initial Singularity” Physical Review Letters, vol. 72, Issue 21, (1994): 3305-3308. Weinberg, S., El sueño de una teoría final. Barcelona: Crítica, 2011. Witten, E., “String Theory Dynamics in Various Dimensions” Nuclear Physics Section B, Volume 443, Issue 1, (1995): 85-126.

250

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 213-250


¿Son válidos los argumentos evolutivos desacreditadores en contra de la ciencia

cognitiva creacionista de la religión?1,2

A re valid evolutionary debunking arguments against creacionist cognitive science of religion? Jorge Sierra3,4

R esumen Según Plantinga, la identificación de los mecanismos cognitivos (postulados por la ciencia cognitiva de la religión (CCR) para explicar la creencia en Dios) con el sensus divinitatis, permite construir un argumento a favor de la racionalidad del teísmo e, incluso, otro a favor de su verdad. El objetivo de este texto es mostrar de qué manera se puede socavar tal argumento de la ciencia cognitiva creacionista de la religión (CCCRR) a favor del teísmo, apoyándome en 2 argumentos evolutivos desacreditadores (AED) inspirados en Hume. Los AED contra la racionalidad de la creencia religiosa parten de la afirmación de que tal creencia es causada por procesos que no rastrean la verdad y llegan a la conclusión de que dicha creencia es injustificada o incluso falsa. Hume desarrolla un AED con base en la idea de irracionalidad motivada y de la ilusión de control, y un AED basado en la diversidad religiosa, que intentan mostrar que tales mecanismos no son fiables en la generación de la creencia teísta. Sostendré que estos 2 argumentos permiten poner en serios aprietos a los defensores de la racionalidad externalista del teísmo y que, la apelación de Plantinga a los efectos epistémicos del pecado (para justificar el mal funcionamiento del sensus divinitatis y hacer frente a los AED), fracasa por varias razones y porque es posible desarrollar un argumento lógico cancelador en contra de la CCCRR. Palabras clave: argumentos evolutivos desacreditadores, teísmo, ateísmo, Hume, Plantinga, racionalidad.

A bstract According to Plantinga, identifying the cognitive mechanisms (postulated by the cognitive science of religion (SCR) to explain the belief in God) with the sensus divinitatis

1 Recibido: 29 de agosto de 2015. Aceptado: 14 de octubre de 2015. 2 Este artículo se debe citar así: Sierra, Jorge. “¿Son válidos los argumentos evolutivos desacreditadores en contra de la ciencia cognitiva creacionista de la religión?” Rev. Colomb. Filos. Cienc. 16.33 (2016): 251-274. 3 Universidad Autónoma de Colombia, Facultad de Ciencias Humanas, Carrera de Filosofía. Correo electrónico: jorgemill65@yahoo.com 4 Bogotá (Colombia).


Sierra, Jorge

allows us to build a case for the rationality of theism, and even one for its truth. The aim of this paper is to show how the creacionist cognitive science of religion (CRSCR) argument for theism can be undermined, using two Debunking Evolutionary Arguments (DEA) inspired by Hume. DEA against the rationality of religious belief start from the claim that such belief is caused by processes that do not track the truth, and come to the conclusion that this belief is unwarranted or even false. Hume develops a DEA based on the idea of motivated irrationality and illusion of control, and a DEA based on religious diversity, both of which aim to show that such mechanisms are not reliable in generating theistic belief. I will argue that these two arguments pose serious problems to advocates of the externalist rationality of theism, and that Plantinga’s appeal to the epistemic effects of sin (to justify the malfunction of the sensus divinitatis and deal with the AED), fails for various reasons and because it is possible to develop a logical defeater argument against the CRSCR. Keywords: evolutionary debunking arguments, theism, atheism, Hume, Plantinga, rationality.

1. Introducción En las últimas dos décadas, la CCR ha emergido como una audaz aproximación explicativa, cuyo foco de atención son los procesos cognitivos que se hallan detrás de las creencias y prácticas religiosas. Se trata de explicar, desde un punto de vista cognitivo y evolutivo, el ubicuo y universal fenómeno de la religión, esto es, el origen y la persistencia de las conductas y creencias religiosas. Ahora bien, tal explicación naturalista de la CCR, ha dado lugar, en años recientes, a un interesante debate en torno a las posibles implicaciones que pueden tener sus resultados en la racionalidad de la creencia en la existencia de Dios.5 Una cuestión que ha sido debatida a lo largos de los siglos en la tradición filosófica occidental, pero que hoy cuenta con nuevos recursos científicos y filosóficos para su discusión: una ciencia de las creencias religiosas. Mientras que para algunos teóricos (Leech & Visala 2011a; Leech & Visala 2011b), la CCR es inocua y agnóstica respecto a la racionalidad del teísmo, para otros es un arma más que permite demostrar su irracionalidad (Dawkins; Dennett) y, para un último grupo, es una manera de demostrar su racionalidad e, incluso, su verdad (Plantinga 2011).

5 Por cuestiones de estilo y de brevedad, utilizaré indistintamente las expresiones, creencia en Dios, creencia religiosa y creencia teísta como equivalentes. Por creencia teísta entenderé la creencia en la existencia de un Dios personal, no material, creador del universo, omnisapiente e infinitamente bueno, tal como se lo concibe en las tres religiones monoteístas: el judaísmo, el islam y el cristianismo.

252

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 251-274


Son válidos los argumentos evolutivos desacreditadores

Según Plantinga, Dios pudo haber dotado a los humanos con un sentido especial o sensus divinitatis, esto es, con una arquitectura cognitiva orientada a producir, de manera fiable, la creencia en Dios. Lo que denomino ciencia cognitiva creacionista de la religión (CCCRR) apela al diseño inteligente de las capacidades cognitivas para explicar por qué todos los individuos, que están dotados de tales mecanismos innatos, desarrollarán (en ambientes apropiados) la creencia teísta de forma natural. El objetivo de este texto es mostrar de qué manera se puede socavar tal argumento de la CCCRR a favor del teísmo, apoyándome en dos AED inspirados en Hume y en algunos desarrollos recientes en contra del teísmo, afines con la argumentación del filósofo escocés. (Marsh). Los AED contra la racionalidad de la creencia religiosa parten de la afirmación de que tal creencia es causada por procesos que no rastrean la verdad y llegan a la conclusión de que dicha creencia es injustificada o incluso falsa. Hume desarrolla un AED con base en la idea de irracionalidad motivada y de la ilusión de control, y un AED basado en la diversidad religiosa, que intentan mostrar que tales mecanismos no son fiables en la generación de la creencia teísta. Sostendré que estos 2 argumentos permiten poner en serios aprietos a los defensores de la racionalidad externalista (e incluso internalista) del teísmo y que la apelación de Plantinga a los efectos epistémicos del pecado (para justificar el mal fucionamiento del sensus divinitatis y hacer frente a los AED), fracasa por varias razones y porque es posible desarrollar un argumento lógico cancelador en contra de la CCCRR.

2. El subproductismo y el modelo estándar de la CCR Para la explicación subproductista, los sistemas cognitivos que causan la creencia religiosa no son adaptaciones que evolucionaron específicamente para su producción. Son, más bien, un efecto colateral de varios mecanismos cognitivos (spandrels) que tienen claras funciones adaptivas por fuera del dominio religioso. Tales mecanismos existen porque permitieron a nuestros antepasados resolver problemas importantes de su entorno. Por ejemplo, era decisivo poder detectar la presencia de depredadores (u otros agentes intencionales), ser capaz de predecir el comportamiento de otros seres humanos o no humanos y clasificar rápidamente objetos en categorías biológicas innatas, cuya violación genera representaciones mínimamente contraintuitivas (MCI) que son fáciles de adquirir y trasmitir (por ejemplo, la idea de un agente invisible y omnisciente que viola las características intuitivas de que las personas tienen cuerpo y no lo saben todo).

253


Sierra, Jorge

En consecuencia, el modelo estándar de la CCR postula que hay un dispositivo de detección hipersensible de agencia (DDHA), un dispositivo para la atribución de creencias y deseos a otros seres humanos o no humanos (teoría de la mente o ToM) y un dispositivo para clasificación de objetos en categorías biológicas. Pero además de la tarea para la que están biológicamente diseñados, dichos mecanismos también producen otras creencias. Los seres humanos son propensos a tomar los eventos que disparan o activan el DDHA como oportunidades para formar creencias acerca agentes que poseen mente, a los cuales se les atribuye ser las causas de tales eventos. Puesto que estos eventos naturales (por ejemplo, terremotos e inundaciones) solo pueden ser causados por agentes que poseen grandes poderes, pero que no podemos ver, es natural a partir de esto, formar creencias acerca de la existencia de agentes todopoderosos, invisibles, y con mente, es decir, algo muy similar a los objetos de la devoción religiosa. Y como estos agentes invisibles son contraintuitivos(por ejemplo son personas sin cuerpo), entonces ya se tiene cómo explicar el hecho de que tales creencias sobre agentes sobrenaturales sean memorables y fácilmente trasmisibles. Para los seres humanos la operación conjunta de los mecanismos innatos DDHA+ToM+MCI causa su acto de creer en la existencia de agentes sobrenaturales tales como dioses.6 La evaluación de la fiabilidad de estos mecanismos será la base para desarrollar AED en contra de la creencia teísta.

3. Estructura de los aed y la cuestión del rastreo de la verdad

Antes de entrar a examinar los AED de Hume, es importante mirar su estructura general y ver de qué modo se puede entender que cancelan la justificación epistémica de la creencia religiosa. Los argumentos AED tienen la siguiente estructura (Kahane): Premisa causal: La creencia de S que P se explica por X. Premisa epistémica: X es un proceso que no rastrea la verdad. [en el que se entiende que un proceso que no rastrea la verdad es solo un proceso que no rastrea la verdad de P o de creencias de tipo P]. Por lo tanto, La creencia de S que P es injustificada. Si bien Kahane no especifica la cuestión del rastreo, es posible suponer que lo que tiene en mente es la explicación externalista sobre el conocimiento de 6 Tal como se entiende en el contexto de la CCR, se considera que algo es una creencia religiosa si incorpora el elemento mínimo de que tal creencia versa sobre agentes sobrenaturales.

254

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 251-274


Son válidos los argumentos evolutivos desacreditadores

Nozick: S sabe que P cuando su creencia sigue el rastro de la verdad, es decir, cuando la creencia, además de ser verdadera y creída por S, satisface las dos condiciones siguientes: 1. Si P no fuese verdadera, entonces S no creería que P. 2. Si P fuese verdadera entonces S creería que P (y no creería que no-P). Por lo tanto, un sujeto sabe que P solo si el proceso por medio del cual es formada y sostenida la creencia, implica que posee la capacidad para discriminar el estado de cosas en el que P es verdadera, del estado de cosas en el que P es falsa. Entonces, lo que se implica en la premisa epistémica de los AED es que no se cumple con la condición 1, es decir, se viola el principio de sensibilidad. Por lo tanto, un proceso X no rastrea la verdad si produce más creencias falsas que verdaderas. Pero tambien hay una manera adicional de entender que X es un proceso que no rastrea a la verdad con respecto a P. Es pensar en ella como la tesis de que la verdad de P es irrelevante para la explicación de por qué S cree que P. En otras palabras, si X es un proceso que no rastrea la verdad con respecto a P, y si S cree que P debido a X, entonces S creería que P tanto si es verdadera como si es falsa. Una cosa es que el proceso de formación y sostenimiento de la creencia religiosa produzca más creencias verdaderas que falsas y otra cosa es que tal proceso sea indiferente a la verdad de P. Para el externalismo, la creencia que P está justificada, no porque se tenga evidencia proposicional adecuada a favor de ella, sino porque es producto de mecanismos formadores de creencias que rastrean la verdad. Pero tal requisito solo es válido para el externalismo fiabilista. Pero hay otra teoría, la internalista, en la que la justificación de la creencia se piensa de modo diferente. Las razones internas del sujeto epistémico funcionan como los factores determinantes en la justificación. La creencia que P está justificada si se tienen razones, es decir, evidencia proposicional adecuada, para estar justificado en sostener la creencia que P. El teísmo internalista se basa en argumentos para justificar su creencia en la existencia de Dios, mientras que el teísmo externalista intenta justificar tal creencia apelando a la fiabilidad de los procesos que la producen. En ambos casos, se supone que una creencia es irracional si carece de justificación adecuada.

4. L a creencia teísta como propiamente básica y los dos argumentos de la CCCRR a favor del teísmo Si se asume que los mecanismos cognitivos son fiables en los contextos cotidianos, y la creencia en Dios es producida también por la misma maquinaria cognitiva, debemos considerarla prima facie justificada. Si los mecanismos 255


Sierra, Jorge

formadores de la creencia, postulados por el modelo estándar, fueron diseñados por Dios para generar la creencia teísta, parecería que estos mecanismos serían, después de todo, fiables. No se puede, según esto, mostrar que los procesos formadores y preservadores de la creencia que postula la CCR no son fiables, a menos que se pueda demostrar que Dios no existe. Pero, si esto es así, y dado que con base en la CCR no se puede demostrar que Dios no existe, entonces los resultados de la CCR no solo no plantearían ningún reto a la racionalidad de la creencia religiosa, sino que incluso servirían para justificarla. Dado que la CCCRR se apoya en un enfoque externalista de la justificación epistémica, hay que precisar qué se entiende por garantía epistémica.7 Según Plantinga, una creencia tiene garantía para una persona S solo si esa creencia se produce en S por medio de facultades cognitivas que funcionan correctamente (no sujetas a ninguna disfunción), en una ambiente cognitivo apropiado para la clase de facultades cognitivas de S, de acuerdo con un plan de diseño que está dirigido con éxito a la verdad (Plantinga 2000 156). Quienes identifican el sensus divinitatis con los mecanismos que describe la CCR, tienen dos argumentos a favor del teísmo que operan simultáneamente. El primer argumento es a favor de la racionalidad del teísmo y está basado en la explicación de las creencias básicas dada por la epistemología reformada y de su justificación externalista (o garantía). El argumento de la CCCRR a favor de la racionalidad del teísmo es el siguiente: Premisa Causal: la creencia de S que Dios existe se explica por el sensus divinitatis. Premisa epistémica: el sensus divinitatis es un proceso que rastrea la verdad. Por lo tanto, la creencia de S que Dios existe está justificada. Las razones para postular la existencia de un sensus divinitatis son principalmente teológicas. Pero si se llega a dar el caso que la CCR permite confirmar la existencia de tal mecanismo, entonces la CCR podría proporcionar una razón para considerar que el teísmo es verdadero. De este modo, la CCR se convertiría en la CCCRR, un triunfo nada despreciable para el teísta. Dios causa la creencia en su propia existencia solo si suponemos que la mente fue creada por un Dios que no engaña a sus criaturas. Hay algo circular en este planteamiento, similar a la explicación de que la causa de que el opio haga dormir a la gente es que tiene una virtus dormitiva. Se podría objetar que tales mecanismos existen solo si la creencia teísta es verdadera. No hay garantía sin 7 Según Plantinga (2000), el ingrediente adicional necesario para que la mera creencia verdadera cuente como conocimiento es la garantía, la cual es definida en términos externalistas a partir del concepto de fiabilidad. La garantía es la manera en que la epistemología reformada denomina a la noción de justificación externalista.

256

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 251-274


Son válidos los argumentos evolutivos desacreditadores

Dios y no podemos creer justificadamente en su existencia sin garantía. Pero Plantinga utiliza hábilmente esta objeción a su favor. Si se busca persuadir a los teístas de su irracionalidad, hay que demostrar primero que Dios no existe porque si Dios existiera la creencia teísta estaría justificada (existe un sensus divinitatis) y el teísmo sería verdadero (Plantinga 2000 xii). Pero esta fortaleza argumentativa del teísmo externalista, a su vez, puede ser su gran debilidad. Si se logra demostrar que la creencia teísta carece de garantía, no solo sería irracional creer en Dios, sino que también sería probable que Dios no existiera.

5. Canceladores y garantía epistémica Según Plantinga, una objeción de jure, es aquella que pone en tela de juicio la racionalidad epistémica de la creencia teísta, mientras que una objeción de facto pone directamente en duda la verdad de tal creencia. Si se quiere socavar la estrategia externalista de justificación del teísmo, hay que cancelar la fiabilidad del sensus divinitatis, sin dar por supuesto que Dios no existe. Pero si esto es así, ¿qué condiciones debe cumplir una objeción de jure? Se debe demostrar que la creencia teísta realmente surge del supuesto mecanismo que no rastrea la verdad. Y se debe demostrar que la operación particular de ese mecanismo no está dirigida a la producción de creencias verdaderas.

6. Hume y los aed en contra de la CCCRR Hume fue el primero en desarrollar AED en contra de la racionalidad de la creencia teísta. Estos argumentos son relevantes, tanto para enfrentar el argumento a favor de CCCRR como para cancelar la justificación del teísmo en general. Hume intentó demostrar que el sensus divinatatis del Calvino no era necesario para explicar y justificar la creencia en Dios. Para Hume, el explanandum de su teoría es el contenido básico de cualquier creencia religiosa: la noción de poder inteligente invisible. Dicho contenido es una condición necesaria y suficiente para toda creencia religiosa, tal como lo reconoce la misma CCR.8 Al mostrar los orígenes del contenido básico de la creencia religiosa, se ofrece una razón para suspender las creencias que empleen este contenido, dado que los mecanismos que lo forman no son 8 La creencia que hay que explicar, si se quiere dar cuenta de la creencia religiosa, es la creencia en un agente sobrenatural invisible, algo en lo que concuerda Hume: “El único punto de la teología en el que encontramos un consentimiento casi universal por parte de la humanidad es aquel en el que se afirma que existe un poder invisible e inteligente en el mundo” (Hume 2003 61).

257


Sierra, Jorge

fiables porque no rastrean la verdad. Por lo tanto, tal suspensión se aplicaría a todas las creencias religiosas. Debido a esto, la explicación amenaza la posición del fideísmo racional de Plantinga y Barrett, esto es la tesis de que es racional sostener creencias religiosas en ausencia de argumentos a su favor. Si los fideístas reconocen que la explicación de Hume es la mejor explicación de la creencia religiosa, entonces tienen una razón externalista para suspender la creencia.

6.1. El AED de la irracionalidad motivada y la ilusión de control El primer argumento desacreditador de Hume es el siguiente: 1. La creencia teísta es injustificada si es el producto de un proceso que no sigue el rastro de la verdad. 2. La creencia teísta es generada por procesos de formación y mantenimiento de creencias que no siguen el rastro de la verdad, tales como la irracionalidad motivada y la ilusión de control. 3. Por la tanto, la creencia teísta es injustificada. 4. Por lo tanto, la creencia teísta es irracional. La implicación expresada en la premisa 1 se limita a explicar la aceptada conexión entre la falla de un mecanismo productor de creencias en rastrear la verdad y la carencia de justificación de dicha creencia Por lo tanto, el peso de todo el argumento descansa en la premisa 2. Hume defiende la verdad de la premisa 2 apelando a tres hechos que explicarían el origen y sostenimiento de la creencia religiosa a partir de procesos no fiables. 1. La conjunción de tres elementos: el miedo, la esperanza, y la falta de conocimiento del mundo natural son factores desencadenantes de la creencia religiosa. Según Hume: “Estamos en este mundo como en un gran teatro donde se nos ocultan por completo los verdaderos principios y causas de cualquier acontecimiento y tampoco tenemos sabiduría suficiente para prever, o capacidad para evitar esos males que continuamente nos amenazan” (Hume 2003 53). Y añade luego que: Estamos permanentemente suspendidos entre la vida y la muerte, la salud y la enfermedad, la abundancia y la carencia que se distribuyen entre la especie humana debido a causas secretas y desconocidas, cuya operación es a menudo inesperada y siempre inexplicable. Estas causas desconocidas se convierten, pues, en el objeto constante de nuestra esperanza y el miedo (Hume 2003 53).

258

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 251-274


Son válidos los argumentos evolutivos desacreditadores

Los apremiantes asuntos tocantes a la supervivencia, tales como la obtención de comida frente a la amenaza de perder cultivos por la sequía o debido a inundaciones (eventos que obedecen a causas desconocidas), hizo que la satisfacción de tales necesidades algo prioritario. El éxito dependía de poder predecir y manipular la naturaleza, algo para lo cual no estaban capacitados porque no tenían un conocimiento del orden causal del mundo. Tal ignorancia de las causas de los eventos naturales hizo que los seres humanos volcaran, de manera inexorable y permanente, sus esperanzas y sus miedos sobre dichas causas desconocidas. Esto produjo en ellos una condición psicológicamente intolerable: el estrés debido a la vulnerabilidad frente a la enfermedad, el dolor, la pérdida y el sufrimiento, etc. ¿Cómo aliviaron el estrés nuestros antepasados? 2. Dada la anterior situación de estrés permanente, los seres humanos desarrollaron una fuerte disposición a atribuir mente, incluso a aquellos seres que carecían de ella. En consecuencia, los seres humanos tendieron a tratar a aquellas causas desconocidas como si fueran agentes que tienen que ser apaciguados mediante ceremonias y ritos. Para Hume, hay una propensión universal a creer en un poder inteligente e invisible que si bien no es un instinto original, por lo menos puede ser visto como un acompañante general de la naturaleza humana (Hume 2003 149). A partir de ello, hay “(...) una tendencia universal entre la humanidad a concebir a todos los seres igual que ellos mismos y a transferir a cada objeto aquellas cualidades (...) de las que son íntimamente conscientes” (Hume 2003 53). Es por ello que encontramos caras humanas en la luna y ejércitos en las nubes. 3. Por último, los seres humanos tienen un gusto natural por todo lo extraño, milagroso y maravilloso. La mente tiene un marcado sesgo por las historias acerca de eventos inusuales: “(...) cuando se afirma algo completamente absurdo y milagroso, [la mente tiende] a admitir tal hecho a cuenta de esa misma circunstancia que debiera destruir toda su autoridad” debido a la agradable pasión de sorpresa y asombro que tales historias excitan en nosotros. (Hume 2004 261). Cuando se reúnen estos tres hechos, se llega a la conclusión de que tenemos una clara tendencia natural a creer en agentes sobrenaturales (dioses) que se basa, primero, en el miedo y en la necesidad imperiosa de controlar las fuerzas misteriosas a las que estamos inexorablemente sujetos. Segundo, en una tendencia o prospección natural a interpretar el universo agencialmente, y tercero, en un gusto por lo extraño, mila-

259


Sierra, Jorge

groso y maravilloso.9 De esto se puede inferir que los procesos que dan origen a la creencia religiosa hacen que esta no pueda ser considerada como el producto de un proceso racional de formación de creencias: “(...) si (los hombres) coinciden por casualidad, con los principios de la razón y de la verdadera filosofía, aunque que lleguen a esa idea no razonando, de lo que en gran medida son incapaces, sino por la adulación y los miedos propios de la superstición más vulgar” (Hume 2003 83). En consecuencia, los procesos que dan origen a la creencia religiosa no están motivados por la curiosidad intelectual o por el amor desinteresado a la verdad. El origen irracional de la creencia religiosa afecta, por igual a la justificación internalista como a la externalista, dado que ambas creencias utilizan el contenido básico. Habría que mostrar que el contenido básico que se utiliza en los argumentos teístas no proviene de esos mecanismos. De todo lo anterior, Hume concluye que: Agitados por esperanzas y temores de esta naturaleza, especialmente por los últimos, los hombres escrutan, con una curiosidad temblorosa, el curso de las futuras causas y examinan los sucesos diversos y contrapuestos de la vida humana. Y en este escenario confuso ven, con ojos aún más confusos y atónitos, las primeras y oscuras huellas de la divinidad (Hume 2003 51).

El punto decisivo aquí es que la creencia en agentes sobrenaturales se produce porque induce en las personas una cierta ilusión de control sobre su futuro bienestar. Esta explicación permite entender la necesidad de atribuir agencia a esos poderes desconocidos de los que, por medio de ofrendas y sacrificios, se espera obtener su favor y se teme no obtenerlo. Si el universo estuviera sometido al ciego azar y no hubiese alguien que lo controlara, rezar carecería de sentido. Hume sugiere que estas oraciones habrían sido posteriormente reforzadas y transmitidas por la tendencia natural a creer que se tiene un control sobre los resultados de los sucesos azarosos. Hume observa que los que se enfrentan frecuentemente a situaciones aleatorias, como los jugadores y los marineros, son especialmente propensos a ser presa fácil de estos temores supersticiosos. Esta propensión natural habría prevalecido entre nuestros ancestros que vivían en condiciones de incertidumbre extrema. Pero ¿de qué modo la explicación humeana de la creencia logra el descrédito y la cancelación de la justificación de la creencia en Dios? 9 Nótese que los tres elementos expuestos que son responsables de causar la creencia religiosa son muy similares a DDHA, ToM y MCI.

260

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 251-274


Son válidos los argumentos evolutivos desacreditadores

Según Hume, las pasiones pueden sesgar y distorsionar las capacidades cognitivas y las creencias, como ocurre en el caso de la creencia religiosa. En condiciones de incertidumbre, se debe creer proporcionalmente a la evidencia disponible. No obstante, se falla en respetar y seguir esta norma epistémica, cuando se cree en la existencia de agentes invisibles. Lo que fija y sostiene la disposición a atribuir agencia, expresada en la creencia en un poder invisible inteligente, es una conjunción de ansiedad, ignorancia y pasiones. De manera amplia, la creencia es adquirida porque calma nuestra ansiedad, no porque rastree la verdad acerca de Dios. Estamos, entonces, frente a un caso de irracionalidad motivada. Aquí la fijación de la creencia es irracional en cuanto que los procesos cognitivos que gobiernan la creencia no son apropiadamente sensibles a la verdad o están sesgados en contra de la evidencia. Este error cognitivo es motivado en tanto que depende de los sesgos epistémicos del creyente. El creyente adquiere y sostiene la creencia porque sigue sus deseos e intereses más que porque tenga evidencia a su favor o a pesar de la evidencia en contrario. Recuérdese que la creencia religiosa se produce de manera inconsciente y automática, pero el conocimiento de la falta de fiabilidad del proceso que la genera constituye una razón para saber que tal creencia es injustificada. Nadie puede participar en el autoengaño, a menos que ignore o manipule la evidencia en contra de la creencia en la que desea creer. En consecuencia, la creencia en agentes sobrenaturales se basa en lo que se denomina pensar con el deseo. El creyente es presa de una ilusión cuando el deseo de que el contenido de la creencia que P (Dios existe) o el miedo a que no P, hacen que el individuo crea que P. Muchos casos de optimismo exagerado suelen estar motivados por el deseo de la gente de aliviar el miedo y la ansiedad. Así la creencia sea básica, eso no obsta para que el creyente no esté en la obligación epistémica de asegurar que no es presa del error debido a un fallo del mecanismo productor de la creencia. No es cierto, entonces, como sostiene Plantinga, que el creyente simplemente debe limitarse a creer sin revisar la calidad de los procesos que generan su creencia en Dios, sobre todo si hay buenas razones para hacerlo ante la sospecha de que no son fiables. La sola fiabilidad no es suficiente para la justificación de la creencia teísta: “Las razones sin fiabilidad parecen hueras; la fiabilidad sin razones, ciega” (Nozcik 97). Lo interesante de la explicación desacreditadora de Hume es que la psicología y la ciencia cognitiva actual corroboran su enorme plausibilidad. Hay evidencia empírica de que las personas son vulnerables a

261


Sierra, Jorge

las ilusiones de control en contextos de incertidumbre. Y hay también evidencia de que los seres humanos tienen una propensión natural a atribuir agencia cuando ignoran la compleja y misteriosa naturaleza de los procesos causales (Collier). Primero, hay un gran número de estudios que indican que los seres humanos son vulnerables a las ilusiones cognitivas. Hay una fuerte tendencia a vernos mejor que la media. Curiosamente, las personas también tienen la propensión a creer que son mejores que la media en términos de su capacidad para evitar las ilusiones cognitivas. Por lo tanto, existe evidencia empírica importante a favor de la tesis de Hume de que los seres humanos tienen una tendencia natural a creer que lo que desean sea verdad. Segundo, hay varios experimentos que corroboran la afirmación de Hume de que las personas son susceptibles a las ilusiones de control en condiciones de incertidumbre. Los jugadores de cartas y juegos de azar creen, a menudo, que tienen un control personal sobre los resultados. Igualmente, se ha demostrado que hay una clara propensión a este tipo de sesgos cuando las personas están ansiosas o estresadas. La gente compensa su percepción de falta de control, aliándose con poderosos agentes invisibles. En situaciones de riesgo (guerra, accidentes, etc.) los individuos generan una fuerte creencia en una influencia sobrenatural que controla sus vidas cuando están en situaciones en las que carecen de control. Tercero, hay evidencia de que la gente es propensa a atribuir agencia en situaciones impredecibles. Se ha demostrado que es más probable que se atribuya mente a objetos cuando estos actúan de manera errática. Cuando lo objetos no funciona bien, ellos tienen la culpa. La atribución de estados mentales a animales se da cuando estos se comportan de una manera aleatoria. En consecuencia, la tesis de Hume de que tenemos una propensión a atribuir agencia en condiciones contingentes es respaldada por importante evidencia. Y cuarto, existe evidencia antropológica de que las personas son vulnerables a generar creencias supersticiosas cuando se enfrentan con resultados inciertos. Los atletas son especialmente propensos a la superstición. En conclusión, el argumento de Hume parece ser válido y lograría evidenciar la irracionalidad del teísmo y de la CCCRR.

6.2. ¿Logra el AED de Hume plantear una objeción de jure contra el teísmo y la CCCRR? La premisa clave del AED de Hume es la premisa 2. Las demás premisas corresponden a hechos aceptados y ya explicados. Según Plantinga, el argumento contiene una premisa implícita: el teísmo es falso. Sin esa premisa, la

262

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 251-274


Son válidos los argumentos evolutivos desacreditadores

premisa 2 sería falsa porque si el teísmo es verdadero, entonces la facultad que produce la creencia teísta está dirigida con éxito a la verdad (hay un sensus divinitatis). Queda claro que la objeción de jure de Hume fracasa al convertirse en una objeción de facto y, en consecuencia, la creencia teísta es racional si Dios existe. Sin embargo, como se explicó antes, Plantinga no puede asumir, con base en Hume, que el teísmo es verdadero con el fin de rechazar una amenaza naturalista y neutral a su postura fideísta racional. Si este es el caso y el teísmo puede ser falso, entonces los procesos cognitivos responsables de la creencia teísta, descritos por Hume, producirían la creencia en Dios incluso si Dios no existiese. Por lo tanto, se debe suspender el juicio sobre la fiabilidad de estos procesos hasta que se posea evidencia independiente a su favor. Por lo tanto, la creencia teísta es irracional. Ahora bien, no creo que el AED de Hume necesite presuponer la falsedad del teísmo. Como vimos, hay dos maneras de poner en duda la fiabilidad de un proceso generador de creencias, a saber: se puede afirmar que un proceso no es fiable si es sistemáticamente engañoso y produce más creencias falsas que verdaderas. La otra forma de poner en duda la fiabilidad de un mecanismo es aquella donde el mecanismo que produce una creencia es indiferente a su verdad o falsedad. De ello se desprende que se podría esperar que las personas tengan los tipos de creencias que tienen sean o no verdaderas. Se sigue, entonces que en la explicación de Hume no se asume la falsedad de la creencia teísta, ya que tal explicación únicamente se refiere a su verdad o falsedad como una cuestión de indiferencia o de insensibilidad a la verdad. Es posible que la creencia en Dios que sostienen los creyentes sea verdadera, pero si el mecanismo por el que se produce corresponde al expuesto por Hume, entonces carece de garantía. Con el fin de demostrar que la creencia en Dios es producida por la irracionalidad motivada y la ilusión de control, Hume no necesita asumir que esta creencia es falsa. Simplemente hay que tomar tales mecanismos e imaginar cuál es la creencia que causarían en un mundo donde Dios no existe. En tal mundo, los mecanismos producirían la creencia en Dios. Ahora, hay que imaginar cuál es la creencia que tales mecanismos producirían en un mundo donde Dios existe. Si las creencias son idénticas, entonces el proceso que

263


Sierra, Jorge

produce la creencia en Dios la generaría exista o no exista Dios.10 Pero en tal razonamiento no se hace ninguna suposición sobre en cuál de estos mundos en realidad vivimos. Luego, no se cae en la objeción de facto. Por lo tanto, el teísmo es irracional. Una última, rara e improbable manera en que Plantinga puede salir de este atolladero es aceptando que la creencia teísta se forma como dice Hume y no obstante, se puede insistir en que la creencia teísta tiene garantía. Al respecto, Plantinga afirma que “Tal vez esta es la forma en que Dios ha dispuesto para que lo conozcamos. Si es así, entonces un trocito particular del plan de diseño cognitivo que rige la formación de la creencia teísta persigue efectivamente la creencia verdadera, incluso si la creencia en cuestión surge [de la irracionalidad motivada y la ilusión de control]”11 (Plantinga 2000 197). Mi interpretación de este texto va en dos sentidos. Por un lado es posible asumir que un proceso de formación de creencias no fiable, como el postulado por Hume puede producir, a veces, creencias verdaderas como la creencia de que Dios existe. Tal proceso no excluye esta posibilidad, es decir, no es un mecanismo productor únicamente de creencias falsas, por lo que la extraña sugerencia de Plantinga puede ser cierta. La otra manera de interpretar la salida de Plantinga, es que se puede tratar de un mecanismo cognitivo normalmente fiable (el sensus divinitatis) que tiende con éxito a la verdad, pero que está operando bajo condiciones que hacen que sea disfuncional. Esta falta de fiabilidad se explicaría afirmando que no es el mecanismo mismo dado por Dios para producir la creencia teísta el que está fallando, sino que el sensus divinitatis falla por el hecho de que está operando en un contexto que ha sido corrompido por el pecado humano o que tal mecanismo está dañado debido a esa misma causa. Mostraré en la siguiente sección porque está defensa fracasa. Ahora bien, hay una provocadora afirmación de Hume casi el final de la Historia natural de la religión: La tendencia universal a creer en un poder invisible e inteligente puede considerarse, siendo como es, una tendencia que acompaña generalmente a la

10 Este razonamiento se aplica a otras teorías de la CCR, por ejemplo, a algunas teorías evolutivas adaptacionistas de la religión. Si tales teorías son verdaderas, entonces la eficacia de las creencias religiosas que promueven comportamientos prosociales adaptativos es independiente de la verdad o falsedad de esas creencias: “Como dije en el capítulo 1, la adaptabilidad de un sistema de creencias debe ser juzgado por los comportamientos que motiva, no por su correspondencia con la realidad objetiva (Wilson 233-34). 11 El texto en corchetes es un añadido mío. El texto original hace referencia a la explicación la creencia religiosa de Freud en términos de pensar con el deseo. Dada la similitud con Hume y, en aras de la discusión, he reemplazado el texto sobre Freud por el texto que hace referencia a la explicación del empirista de la creencia teísta.

264

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 251-274


Son válidos los argumentos evolutivos desacreditadores

naturaleza humana, si no un instinto original, al menos una especie de marca o sello que el divino hacedor ha impreso en su obra (Hume 2003 149).

¿Se sigue que de lo anterior que es posible suponer que Dios quiere que tengamos creencias sobre él mediante procesos no fiables como la irracionalidad motivada y la ilusión de control? ¿Es coherente con la bondad de Dios el proveer a los humanos con medios tan precarios para dar cuenta de su existencia y hacer depender su salvación de tan dudosas creencias? Estas consecuencias parecen absurdas, pero dado que es posible que un mecanismo no fiable produzca a veces creencias verdaderas, entonces es posible que produzca la creencia teísta, pero de forma irracional, azarosa y sin ninguna garantía epistémica. Se podría considerar que la propensión a creer en Dios es una huella de lo divino, si no fuera por el hecho de que tal marca es la marca de la irracionalidad y el miedo. La forma que Dios ha elegido para darse a conocer, convierte a sus creyentes en seres irracionales, e incluso a él mismo, al no proporcionar los medios adecuados para tal fin epistémico. Pero ver a Dios como alguien que deja su huella bajo la forma de mecanismos no fiables, es una consecuencia que ningún teísta sensato admitiría porque en vez de un Dios bueno, la causa de la creencia sería propia de un Dios engañador y, por lo tanto de un Dios malo, en la mejor lógica cartesiana.

6.3. Espectros de falsas divinidades: el argumento de la diversidad religiosa en contra de la CCCRR Si, como sostiene Plantinga, hay un sensus divinitatis fiable que produce la creencia teísta, ¿por qué hay tanta diversidad religiosa? ¿Por qué los seres humanos creen y han creído en tantos falsos dioses si se supone que Dios quiere ser conocido por medio de un mecanismo fiable? El AED de Hume basado en la diversidad religiosa es el siguiente: 1. Un mecanismo productor de creencias no sigue el rastro de la verdad si constantemente produce creencias diversas y mutuamente incompatibles. 2. Los mecanismos que producen la creencia teísta, tales como la irracionalidad motivada y la ilusión de control, producen creencias diversas y mutuamente incompatibles (la diversidad religiosa es evidencia de esto). 3. Por lo tanto, los mecanismos que producen la creencia teísta no siguen el rastro de la verdad. 4. Por lo tanto, la creencia teísta carece de justificación. 5. Por lo tanto, la creencia teísta es irracional.

265


Sierra, Jorge

El problema de la diversidad religiosa es presentado por Hume en los siguientes términos: La creencia en un poder invisible inteligente ha estado generalmente muy difundida entre la especie humana en todo tiempo y lugar, pero acaso no ha sido tan universal como para no admitir excepción alguna, ni ha existido uniformidad en un ningún grado respecto a las ideas que ha originado. Se han descubierto algunos pueblos que no tenían sentimientos religiosos, si damos crédito a los viajeros e historiadores; y no existen dos pueblos, ni siquiera dos seres humanos que hayan coincidido en los mismos sentimientos. Parecería, pues que este concepto no surge del instinto original o de una impresión primaria de la naturaleza, como la que origina el amor propio, la inclinación entre los sexos, el amor a la descendencia, la gratitud o el resentimiento, pues cualquier instinto de esta clase se ha encontrado en todas las naciones y épocas de forma universal y tiene siempre un objeto determinado (…) (Hume 2003 39 Énfasis mío).

A favor de la premisa crucial 2, Hume afirma que los mecanismos generadores de la creencia religiosa no producen las mismas creencias religiosas en todos los seres humanos sobre los mismos agentes sobrenaturales. Si bien puede existir una propensión universal a creer en poderes invisibles e inteligentes, no hay, como tal, un único conjunto privilegiado de agentes sobrenaturales en los que los seres humanos tengan una marcada propensión natural y universal a creer. Los dioses son producto del miedo, la esperanza y la imaginación, pero a la vez son el producto de cada miedo, de cada esperanza y de cada fantasía de la imaginación de cada cultura, e incluso, de cada individuo, en momentos y lugares distintos. Incluso hay pueblos sin sentimientos religiosos, es decir, hay incrédulos. Pero ¿cuál de las opciones, la teísta o la naturalista, explica mejor la diversidad religiosa?. Ya que a lo sumo, una y solo una religión puede ser la correcta, según la lógica del monoteísmo, nuestra propensión a la devoción religiosa no es algo fiable. Incluso si nos corresponde, por casualidad, dar con la única religión verdadera, sabemos que la mayoría de los dioses en los que creen los seres humanos, gracias a la misma propensión, son falsos dioses, un punto que es admitido incluso por los creyentes de todas las religiones: los que creen en un solo Dios verdadero (o un conjunto de dioses) denuncian y combaten las engañosas creencias de las demás religiones. La lucha de Dios contra los falsos dioses del paganismo ha sido una lucha sin tregua y sin término a lo largo de la historia. Como muy bien lo resume Pidgen, el problema de la diversidad implica, de entrada, la tesis de que los procesos que dan lugar a la creencia religiosa son, irremediablemente propensos al error:

266

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 251-274


Son válidos los argumentos evolutivos desacreditadores

Pues ha sido obvio, desde antes, que los mecanismos que producen las creencias religiosas producen falsos positivos. No hubiera existido ninguna necesidad de misioneros, jihads o cruzadas si no tuviéramos una tendencia a creer en falsos dioses. Por lo tanto, aquellos que suponen que hay una necesidad de tales cosas, deben creer que, cuando se trata de religión, nuestros mecanismos formadores de la creencia religiosa son propensos al error (Pidgen 148 Énfasis mío).

Incluso, si los mecanismos que generan la creencia religiosa necesariamente producen directamente diversidad e incompatibilidad, los contextos en los que se diversifica la creencia funcionan como un condicionamiento sobre el cual los individuos no tienen ningún control. Por lo cual, sostener una creencia religiosa no es racional, dado que su adquisición depende, en general, de un mero accidente histórico o geográfico. Por lo tanto, si uno es un externalista, tal creencia no está justificada, dado que el proceso que la produce no rastrea la verdad. La contingencia también afectaría a la justificación internalista. Por ejemplo, es una cuestión de suerte si algún creyente cristiano logra tener buenas razones para creer en el Dios cristiano. Si tal creyente hubiera sido enviado al Pekín budista cuando era un bebé, entonces lo que ahora considera que son buenas razones, él las consideraría como malas y lo que ahora considera como malas razones, él las consideraría como buenas. Es decir, la evaluación de lo que es una buena y de lo que es una mala razón, en el ámbito de la religión, parece estar determinado, no tanto por la validez de la razones en sí mismas, sino más bien por hechos irrelevantes sobre el nacimiento, la crianza y el entorno cultural. En consecuencia, un internalista debe abandonar la afirmación de que él sabe que tiene una buena justificación inferencial a favor de su creencia religiosa (en ausencia de evidencia independiente). Parece, entonces, que el siguiente argumento cancelador de la justificación de la creencia religiosa, basado en la diversidad, parece ser verdadero: Si (1) S tiene alguna buena razón para creer que P, pero (2) también sabe que otras personas tienen igualmente buenas razones para creer cosas incompatibles con P, y (3) S no tiene ninguna razón para desechar aquellas razones y favorecer las suyas, entonces S no está justificado en creer que P. Y puesto que no hay una religión que tenga un estatus epistémico privilegiado y sea la verdadera, se sigue que todos los credos religiosos se destruyen mutuamente por el hecho de no adorar al mismo dios o conjunto de dioses. La explicación naturalista de Hume del fenómeno de la diversidad religiosa está respaldada por la CCR. De acuerdo con la CCR, nuestro DDHA y nuestra ToM nos sesgan al antropomorfismo, de manera muy parecida a la que explica Hume. Aun así, las ideas religiosas específicas que emergen y que son culturalmente transmitidas, como por ejemplo las cualidades de un espíritu o de un

267


Sierra, Jorge

dios, son altamente contexto-dependientes. De hecho, esta misma afirmación sobre el contexto es lo que ayuda a explicar por qué existen las impresionantes diferencias religiosas que surgen en todo no existen dos pueblos, ni siquiera dos seres humanos que hayan coincidido en los mismos sentimientos. Parecería, pues que este concepto no surge del instinto original...”(Hume 2003 41 Énfasis míos). Y más adelante añade: “Los primeros principios religiosos tienen que ser secundarios, de modo que pueden ser fácilmente tergiversados por accidentes y causas diversos (...)” (Hume 2003 42 Énfasis míos). Dado el argumento de la diversidad religiosa, se sigue que el sensus divinitatis no brinda garantía a la creencia teísta, y en consecuencia, está en duda su existencia junto con la de Dios. En consecuencia, este argumento epistémico sobre la falta de garantía podría cerrarse exitosamente sin presuponer una respuesta negativa a la cuestión de facto. Por lo tanto, un argumento en contra de la racionalidad del teísmo se convierte en un argumento contra la verdad del teísmo. En conclusión, la identificación del sensus divinitatis con los mecanismos de la CCR que producen la creencia teísta, no permite ni demostrar que el teísmo es racional ni mucho menos que es verdadero: la tesis de la naturalidad de la creencia teísta, que sirve de base para argumentar a favor de su verdad, es falsa.

6.4. Los efectos epistémicos del pecado, la invalidez del argumento de la diversidad religiosa y el argumento lógico cancelador de la CCCRR Según Plantinga, el sensus divinitatis es un mecanismo cognitivo normalmente fiable que tiende con éxito a la verdad, pero puede estar operando bajo condiciones que hacen que sea disfuncional. Por lo tanto, no es el mecanismo mismo diseñado por Dios para producir la creencia teísta el que está fallando, sino que el sensus divinitatis falla por el hecho de que está operando en un contexto que ha sido corrompido por el pecado o que falla porque ha sido dañado por el pecado. Por lo tanto, la premisa crucial 2 es falsa. Según Plantinga, la diversidad religiosa no permite inferir que la creencia religiosa es producida por una facultad no fiable. Las facultades cognitivas solo se dirigen con éxito a la verdad si están funcionando en el tipo correcto de entorno cognitivo. Y se está en un entorno adecuado solo si la religión verdadera está culturalmente disponible, es decir, si se está en una comunidad teísta cristiana. Esto supone que Plantinga debe tener una defensa sólida de su exclusivismo religioso. Los exclusivistas religiosos, como él, sostienen que una creencia específica, como la creencia cristiana, es verdadera y, las que

268

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 251-274


Son válidos los argumentos evolutivos desacreditadores

son incompatibles con ella, son falsas.12 Pero, irónicamente la polarización de creencias a la que conduce el exclusivismo hace que dos personas con puntos de vista conflictivos se vuelvan menos confiados, y no más, sobre sus propios puntos de vista cuando se enfrentan con evidencia mezclada. En tal situación, la gente radicaliza sus desacuerdos en vez de suavizarlos y volverse así más tolerantes. En consecuencia, la polarización socava la garantía de la creencia religiosa, en tanto muestra que la creencia religiosa no es el producto de un proceso que rastrea la verdad. Suponiendo que pueda resolver este problema, Plantinga se enfrenta aún a otro problema. Según el relato bíblico, para él verdadero, los antiguos hebreos se encontraban en un entorno cognitivo supuestamente óptimo. No solo profesaban la religión verdadera, sino que además Dios mismo les dio varias pruebas inequívocas de su verdad por medio de milagros y revelaciones. Aún así, la propensión a creer, increíblemente, seguía siendo no fiable ya que los creyentes caían constantemente en la idolatría, venerando a falsos dioses. Pero, ¿funciona la apelación de la CCCRR al pecado para explicar este caso difícil? Se supone que las facultades cognitivas son fiables si están funcionando en el entorno adecuado y si están funcionando correctamente. Así, Plantinga afirma que las facultades cognitivas de los antiguos israelitas no estaban funcionando correctamente ya que estaban corrompidas por el pecado. Pero el problema con esta solución es que como se supone que todos los seres humanos son pecadores, hay una propensión natural y universal al pecado que no conoce fronteras. De hecho, forma parte de la genética humana y, por lo tanto, tiene que hacer parte del plan de diseño divino que configura la vida humana según la evolución teísta. Si, como consecuencia del pecado, el sensus divinitatis es altamente no fiable y, constantemente lleva a las personas por mal camino de la idolatría, esto no se debe a que las facultades cognitivas sean disfuncionales, sino a que son claramente defectuosas e inducen al engaño. Dios pudo haber configurado el cerebro humano para que no cayera en la tentación de adorar a falsos dioses. Si se tiene en cuenta la explicación de la diversidad religiosa dada por la CCR, se evidencia que Dios, dado el teísmo, no solo permite que surja la enorme cantidad de diversidad religiosa, sino que además la causa. Esto se sigue de la tesis de que si el teísmo es verdad, entonces Dios está detrás de la naturaleza y es el responsable, a través de la evolución teísta, de la creación de los cerebros y los entornos en los que habitan los seres humanos. Pero si esto es verdad, entonces la diversidad religiosa es, en última instancia, el producto 12 Los inclusivistas religiosos sostienen que, mientras sus propias religiones son correctas y privilegiadas, son compatibles, por lo menos, con alguna otra religión. Los pluralistas religiosos sostienen que sus propias religiones son correctas y que, sin embargo, hay otras religiones que son igualmente correctas.

269


Sierra, Jorge

directo e intencionado de un diseño divino. El creacionismo cognitivo mismo anula el sensus divinatatis y genera serias dudas sobre el teísmo. Además, según la CCR las facultades que producen la creencia religiosa son el producto de la selección natural. Los dispositivos que explican la propensión humana a creer en Dios no fueron seleccionados porque tendían a producir la verdad. Son meros subproductos de disposiciones que son útiles para otros fines. Por lo tanto, la creencia religiosa no se produce por facultades cognitivas que operan de acuerdo con un plan de diseño que tiende exitosamente a la verdad. EL DDHA produciría la creencia en Dios, sea o no verdad. Aún si la explicación anterior falla, la explicación adaptacionista de la creencia religiosa mostraría que tal creencia es adaptativa y, pese a eso, puede ser falsa. Incluso si se concede, por el bien del argumento, que la evolución teísta ha dado lugar a herramientas cognitivas fiables que conducen a la creencia en Dios, hay no obstante, un problema significativo para el teísmo cristiano. Incluso si nuestras herramientas cognitivas rastrean la verdad de la creencia religiosa, las creencias que rastrean no parecen ser las verdades propias del cristianismo. Es decir, la creencia en Dios tiene un contenido muy específico para ser un mero producto de los mecanismos descritos por la CCR. El teísta podría necesitar algo más que el solo sensus divinitatis para tener la creencia en Dios como Dios manda. Como se explicó antes, el teísta puede afirmar que el sensus divinitatis no produce un concepto preciso de Dios, sino más bien solo un sentimiento vago de que podría haber alguien ahí afuera, lo cual necesita ser complementado con otras fuentes que aseguren la creencia en ese Dios. Otra posible respuesta es afirmar que un concepto correcto de Dios hace parte de nuestra herencia biológica, pero que cuando se nace y se vive en un mundo lleno de pecado, este impoluto concepto se corrompe cuando crecemos. Nuevamente se insiste en que la diversidad de creencias y conceptos sobre Dios que hay en el mundo, es una consecuencia del error humano fruto del pecado, pero no del diseño divino (Barrett 2009 97). Sin embargo, esto no resuelve el problema. Plantinga argumenta que el sensus divinitatis proporciona una justificación de la creencia teísta, pero ¿cómo puede un mecanismo cognitivo dañado producir creencias fiables? La respuesta de Plantinga es que nuestras herramientas cognitivas dañadas se complementan con “la ayuda interna del Espíritu Santo”, una herramienta divina que sirve para corregir el mal funcionamiento del sensus divinitatis y que permite así garantizar la verdad del teísmo cristiano (Plantinga 2000 206). A estas alturas uno se pregunta si de verdad Dios quiere ser conocido por sus criaturas. Un Dios que necesita de tantos medios para logran un fin tan sencillo no es un Dios todopoderoso, o si lo es, entonces no es un Dios bueno.

270

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 251-274


Son válidos los argumentos evolutivos desacreditadores

Pero esta solución tiene dos fallas. La primera viene de la mano de la misma CCR. Invocar la creencia en el Espíritu Santo para resolver el problema de la justificación, implica que tal creencia puede estar sometida también a una explicación cognitiva y evolutiva. La creencia en el Espíritu Santo es, como cualquier creencia en agentes sobrenaturales, el producto de mecanismos cognitivos que no rastrean la verdad. Por lo tanto, es posible desarrollar un AED en contra de esa creencia. Por ejemplo, nuestra propensión a creer en el Espíritu Santo obedecería a un mecanismo que permite generar la ilusión de control ante el temor a no creer en el Dios correcto y a condenarnos. De hecho, habría muchos más AED en contra de la creencia en el Espíritu Santo, basados en todos los variados mecanismos de formación de creencias que no rastrean la verdad (por ejemplo, su origen cultural y no natural). Esto implica que Plantinga tiene que idear una justificación a favor de la creencia en el Espíritu Santo que, en sí misma, no esté abierta a nuevos AED. Pero es claro que sin la ayuda del Espíritu Santo la CCCRR fracasa. La otra falla del argumento que, apela al Espíritu Santo, es meramente lógica. ¿Cómo puede estar lógicamente justificada la creencia en que la instigación del Espíritu Santo conduce a la verdad? Puesto que la creencia en el Espíritu Santo es producto de los mecanismos cognitivos que, según la misma CCCRR están dañados y, por lo tanto, son poco fiables, no tenemos motivos suficientes para aceptar la verdad de esa creencia. El argumento es, en última instancia circular, y por ello, se autorrefuta. Esta objeción es más corrosiva de lo que parece a primera vista. Porque, incluso, suponiendo que todos los AED no son concluyentes y que las premisas de este argumento son verdaderas, los seres humanos están trabajando bajo el influjo de un sensus divinitatis dañado, y por lo tanto, poco fiable. Se sigue, entonces, que no hay afirmaciones teológicas que puedan justificarse, incluyendo la creencia misma en un sensus divinitatis. Esto permitiría desarrollar un argumento cancelador en contra de la epistemología reformada. Argumento lógico cancelador de la CCCRR: 1. Si el teísmo es verdadero, nuestras capacidades cognitivas no son fiables debido al pecado (el sensus divinitatis está dañado y la creencia en el Espíritu Santo no está justificada). 2. El teísta tiene entonces que reconocer un cancelador de la creencia en la fiabilidad de las capacidades cognitivas humanas. 3. Si se acepta que las capacidades cognitivas humanas no son fiables, entonces este cancelador no puede ser a su vez cancelado por ninguna

271


Sierra, Jorge

otra creencia (ya que cualquiera otra creencia emanaría de capacidades cognitivas no fiables). 4. El teísta tiene que admitir que también su creencia en el teísmo resulta cancelada. 5. Por tanto, la creencia en el teísmo se cancela a sí misma. Pero todavía, hay otra objeción al argumento del pecado. Si (…) Dios creó a los seres humanos para que puedan disfrutar de una relación con él, ¿por qué Dios dejaría tales capacidades cognitivas importantes al azar de la selección natural (…) ¿por qué los sesgos conceptuales documentados solo fomentan la creencia en agentes sobrehumanos en general y no en un concepto verdadero y preciso de Dios? (…) ¿por qué no configuró nuestro cerebro para que formara plenamente una creencia en Dios? (Barrett 2009 97).

Si se afirma que la propensión a creer en muchos dioses se explica por los efectos epistémicos del pecado, entonces el politeísmo es una versión corrupta del monoteísmo. Pero esta afirmación produce una inconsistencia con la CCR debido a que “(…) posiblemente la más antigua y más extendida forma de concepto de Dios es la de espíritus ancestrales o fantasmas, un tipo de creencia en otra vida” (Barrett 2007 775). En esta misma línea Hume afirma que: “(…) es imposible que el teísmo pudiera, partiendo de razonamientos, haber sido la religión primera del género humano y que hubiera dado lugar, al corromperse, al surgimiento del politeísmo y a toda esa variedad de supersticiones de mundo pagano” (Hume 2003 47 Énfasis mío). Se sigue de lo anterior que es imposible que tengamos primero la creencia innata en un único Dios y, después, gracias al sensus divinatatis dañado, los seres humanos engendrasen la creencia en falsos dioses, en espectros de falsas divinidades. La corrupción de dicho mecanismo no permite explicar el paso del politeísmo al monoteísmo. Aquí la abundante evidencia antropológica y de la CCR está a favor de Hume (Boyer; Atran; Barrett 2007). La CCR le da la razón a Hume, al proporcionarle evidencia a favor del siguiente enunciado contrafáctico: incluso si los seres humanos nunca se hubiesen comportado mal por su naturaleza pecadora, aún así habría gran diversidad religiosa. El remedio de recurrir al libre albedrío (esto es, a la decisión de actuar mal) para explicar la diversidad religiosa, no logra dar cuenta de la mayor parte de ella, ya que típicamente no elegimos nuestras culturas, entornos o, para el caso, nuestras creencias religiosas. Por lo tanto, el argumento AED de Hume sobre la diversidad religiosa parece ser válido. En consecuencia, la CCCRR y el teísmo carecen de justificación.

272

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 251-274


Son válidos los argumentos evolutivos desacreditadores

7. Conclusión El AED de la irracionalidad motivada y de la ilusión de control, y el AED de la diversidad religiosa parecen constituir un arma poderosa en contra de la racionalidad externalista del teísmo defendida por Plantinga. También resultan exitosos en retar su verdad. Pero no solo eso. La explicación naturalista de la creencia religiosa de Hume tiene un poder explicativo mayor que el teísmo al dar cuenta de la creencia religiosa, del fenómeno del politeísmo y en general, de la diversidad religiosa. Pero ¿qué sucede con la justificación internalista del teísmo? Como sugerí, los AED de Hume también logran poner en entedicho tal justificación. ¿Significa entonces que la creencia teísta es irracional? No necesariamente. Es posible que existan otras defensas internalistas y externalistas del teísmo. El teísmo podría tener todavía funciones explicativas significativas en otros dominios, por ejemplo, dando cuenta de la existencia de la racionalidad, la moralidad y de las condiciones que permiten la vida en el universo, etc. Aún si se admite que la creencia de S que P es causada por un proceso de formación de creencias que no conduce a la verdad, tal hallazgo es irrelevante si S tiene buenas razones independientes a favor de P. Sin embargo, el hecho de que un proceso no conduzca a la verdad es relevante si la creencia de S que P se basa en una confianza fuera de lugar en dicho proceso. Después de todo, la creencia religiosa se forma de manera natural y los creyentes rara vez dudan de ella. Ahora bien, es importante tener en cuenta que muchos teístas no están en posesión de tal evidencia inferencial independiente. A la luz de esto, se podría argumentar que la obligación epistémica de tales creyentes religiosos es la de suspender el juicio.

Trabajos citados Atran, Scott. In Gods We Trust. New York: Oxford University Press, 2002. Barrett, Justin. Why Would Anyone Believe in God? Walnut Creek: Altamira Press, 2004. _____.“Is the spell really broken? Bio-psychological explanations of religion and theistic belief.” Theology and Science, 5 (2007): 57-72. _____.“Cognitive Science, Religion and Theology.” The Believing Primate: Scientific, Philosophical, and Theological Reflections on the Origin of Religion. Ed. Michael Murray & Jefrey Schloss. New York: Oxford University Press, 2009. 76-99. Boyer, Pascal. Religion Explained. New York: Basic Books, 2001.

273


Sierra, Jorge

Collier, Mark. “The natural foundations of religion.” Philosophical Psychology, 17.5 (2013): 665-680. Darwin, Charles El origen de las especies. Barcelona: Planeta, 1992. Dawkins, Richard. El espejismo de Dios. Madrid: Espasa Calpe, 2007. Dennett, Daniel. Romper el hechizo. La religión como fenómeno natural. Buenos Aires: Katz, 2007. Hume, David. Investigación sobre el entendimiento humano. Madrid: Ediciones Istmo, 2004. _____.Historia natural de la religion. Madrid: Trotta. 2003. Kahane, Guy. “Evolutionary Debunking Arguments.” Nous, 45.1. (2011):103-125. Leech, David & Visala, Aku. “The Cognitive Science of Religion: A Modified Theistic Response.” Religious Studies, 47.3 (2011a): 301-316. _____.“The Cognitive Science of Religion: Implications for Theism?” Zygon, 46.1 (2011b): 47-64. Marsh, Jason. “Darwin and the Problem of Natural Nonbelief.” The Monist, 96.3 (2013): 349-376. Pigden, Charles. “Subversive Explanations.” A new Science of Religion. Ed. Gregory Dawes & James MacLaurin. Abingdon: Routledge, 2013. 147-161. Nozick, Robert. La naturaleza de la racionalidad. Barcelona: Paidós, 1995. Plantinga, Alvin. Warranted Christian Belief. Oxford: Oxford University Press, 2000. _____.Where the Conflict Really Lies: Science, Religion, and Naturalism. London: Oxford University Press, 2011. Wilson, David Sloan. Darwin`s Catedral: Evolution, Religion and the Nature of Society. Chicago: The University Chicago Press, 2002.

274

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 251-274




Reseña



Hacia una Filosofía de la ciencia centrada en las prácticas Martínez, Sergio & Xiang Huang Bonilla Artigas Editores: México, D.F. 2015.

Cuando intentamos caracterizar qué es la ciencia apelamos a dos recursos: la estructura de las teorías científicas y el método científico. El primero de estos recursos, que es relativo a la naturaleza del conocimiento, es del ámbito epistemológico, y el segundo, relativo a la manera cómo se produce el conocimiento, es del ámbito práctico. Según la visión dominante de lo que es la ciencia hoy en día (que se evidencia en el discurso de gran parte de los educadores científicos), las ciencias son un conjunto de teorías cuyas ideas o bien han sido verificadas a través del método experimental o bien se deducen lógicamente a partir de ideas verificadas, lo cual garantiza la objetividad y la racionalidad del conocimiento científico. Estas cualidades de la ciencia permitirían integrar coherentemente las teorías en un sistema absoluto y expresar las verdades científicas en proposiciones de un lenguaje neutral universal (como el de lógica matemática), que trascendería las dificultades de la relatividad cultural. Algunos simpatizantes de esta manera de pensar incluso asegurarían que el método científico es la única fuente legítima del conocimiento en general y que se podría reducir todas la teorías verdaderas a una teoría física absoluta. En filosofía de la ciencia, esta concepción del conocimiento científico se llama positivismo lógico. Para el positivismo lógico, representado por personajes como Rudolph Carnap (1891-1970), la estandarización de las prácticas científicas a través del método experimental evita que los resultados estén sesgados por factores históricos y sociales, resolviendo así las cuestiones del ámbito práctico. Curiosamente, para los positivistas lógicos el método científico, que es un conjunto estandarizado de prácticas, permite conectar directamente la teoría con la evidencia fáctica, lo cual significa que se suele creer que el método no influye sobre la realidad ni sobre la construcción de la teoría, sino que permite que las prácticas no interfieran sobre la realidad que se pretende describir. En pocas palabras, el método científico, desde la perspectiva positivista, invisibiliza las cuestiones prácticas. Las pretensiones de objetividad epistemológica y neutralidad metodológica del positivismo lógico han sido muy criticadas por la filosofía de la ciencia desde el segundo tercio del siglo xx, a través de teorías como el racionalismo crítico -conocido más popularmente como falsacionismo- de Karl Popper


Henao López, Sergio Andrés

(1902-1994). Sin embargo, incluso las críticas han estado concentradas en cuestiones del ámbito epistemológico como “¿cuál es el criterio que nos permite identificar y demarcar las teorías propiamente científicas?”, “¿cómo se han de articular las teorías científicas entre sí?” y “¿cómo se justifican y se deben organizar las proposiciones dentro de una teoría científica?” En el libro Hacia una filosofìa de la ciencia centrada en las prácticas, Sergio Martínez y Xiang Huang, sostienen que las reflexiones sobre la naturaleza de la ciencia se enriquecerían al estudiar problemas relativos al ámbito práctico como “¿existe un único método científico?”, “¿los resultados de una investigación varían conforme a diferentes estilos de los investigadores? y “¿la comprensión de una teoría puede ser independiente de la familiarización con ciertos métodos procedimentales?”. Nuestro objetivo central es argumentar que esta manera de ver la filosofía de la ciencia puede ayudarnos a replantear importantes problemas filosóficos desde perspectivas novedosas y productivas (19).

Sin aceptar un relativismo radical, los autores promueven el pluralismo metodológico como un valor fundamental tanto del pensamiento científico como de la filosofía de la ciencia. En este sentido, expresan con humildad el valor de su propuesta: es útil adoptar una filosofía de la ciencia centrada en las prácticas además de una filosofía de la ciencia tradicional centrada en el ámbito epistemológico. Sin embargo, creo que después de estudiar esta propuesta otros lectores podrán experimentar, como yo lo hice, un convencimiento de que la filosofía de la ciencia necesita concentrarse en cuestiones del ámbito práctico, incluso para resolver cuestiones del ámbito epistemológico. Según el libro, los filósofos de la ciencia tradicionalmente han adoptado el siguiente argumento de irrelevancia de las prácticas [AIP]: a. La filosofía de la ciencia da cuenta, de manera primordial, de la estructura normativa epistémica que permite explicar la ciencia como el avance del conocimiento guiado por criterios racionales. b. Esta estructura normativa epistémica puede reducirse a normas que nos permiten juzgar de manera objetiva y racional la relación que hay entre ciertos datos considerados como evidencia, y una teoría. Carnap pensaba que estas normas eran formulables en términos de la lógica y las matemáticas, pero más en general, la premisa es que toda relación evidencia-teoría es representable formalmente como una relación que puede evaluarse con independencia de contexto.

280

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 277-283


c. Las prácticas involucran una serie de factores y normas que no son modelables como relaciones entre evidencia y teoría, ni son (en los aspectos pertinentes) modelables formalmente.

Conclusión Las prácticas no pueden ser recursos explicativos en la filosofía de la ciencia, esto es, son irrelevantes para una explicación filosófica de la racionalidad y la epistemología científica” (45). Es posible que ningún filósofo de la ciencia adopte explícitamente la conclusión de este argumento, pero si nos fijamos en propuestas como la del positivismo lógico, las cuestiones contextuales en las que se enmarca la formulación de una teoría no son cruciales en términos epistemológicos para determinar su validez científica. El AIP está implícito en la filosofía tradicional de la ciencia. Nótese, por ejemplo, que en la enseñanza de la ciencia las referencias a las cuestiones contextuales suelen ser meramente anecdóticas, lo cual hace prescindible -epistemológicamente hablando- el estudio histórico y sociológico de las ciencias. Al analizar el AIP es posible notar que una de las razones por las cuales los cientificistas (aquellos que confían plenamente en la objetividad y racionalidad de la ciencia) evitarían el estudio de las cuestiones prácticas: la neutralidad que garantizaría la objetividad y racionalidad científicas se ve amenazada en la medida en que descubramos que epistemológicamente las teorías son sensibles al contexto histórico y cultural, a los estilos de los investigadores, a las prácticas compartidas socialmente, a la tecnología disponible del momento y a los intereses económicos o políticos de diferentes agentes e instituciones. En otras palabras: pareciera que la aceptación de la relevancia de las prácticas para la filosofía de la ciencia comprometiera la validez epistemológica de las teorías científicas, lo cual conduciría a un relativismo en el cual se desdibujaría la frontera entre lo que es científico y lo que no lo es. Al famoso historiador y filósofo de la ciencia Thomas Kuhn (1922-1996), uno de los primeros en considerar la relevancia de las prácticas, lo acusaron muchas veces de ser enemigo de la ciencia por afirmar que la validez de las teorías científicas se construye sobre presupuestos metodológicos implícitos en lo que él llamaba paradigmas, que son diversas maneras de ver y actuar en el mundo compartidos por diferentes comunidades. La noción kuhniana de la inconmensurabilidad de los paradigmas conduce -así Kuhn no lo hubiese querido- a poner en tela de juicio nociones como la de progreso científico.

281


Henao López, Sergio Andrés

La propuesta de Martínez y Huang se aferra a la premisa a pero niega las premisas b y c, es decir, ellos afirman que la ciencia es un ejercicio progresivo, racional y objetivo, pese a que las prácticas contextualmente situadas configuren la relación entre la evidencia y las teorías, siendo posible además aproximarse a una modelación de los factores y normas envueltos en las prácticas. La propuesta va incluso más allá, al afirmar que se pueden construir y justificar criterios epistemológicos de la ciencia desde la consideración de las cuestiones relativas al ámbito práctico: Lo distintivo de nuestra propuesta (...) tiene que ver con la importancia que le damos a los patrones historiográficos en el estudio de la normatividad y la exploración de las implicaciones de los avances en las ciencias cognitivas para una filosofía de las prácticas (13).

Esto exige, por supuesto, un replanteamiento de las nociones de progreso, racionalidad y objetividad a la luz de una filosofía de la ciencia centrada en las prácticas. Los autores proponen una reconstrucción de estos conceptos a partir de las heurísticas cognitivas implícitas en las prácticas, y que hacen posible el contraste o fusión de métodos alternativos a lo largo de la historia de las ciencias. Una heurística podría ser caracterizada como un proceso cognitivo falible orientado a fines prácticos a través del cual percibimos, tomamos decisiones o actuamos de acuerdo con las circunstancias. Para los autores, las prácticas científicas configuran heurísticas diversas, pero ello solo es posible dadas las capacidades cognitivas compartidas que constituyen una “geografía normativa de las prácticas”. Los autores resaltan, dentro del panorama de las heurísticas, la capacidad de abstracción, sobre la cual afirman que es en realidad “una pluralidad de procesos cognitivos [que] nos permite poner en perspectiva la diversidad de explicaciones que se dan en la filosofía de la ciencia” (178). A través de esta perspectiva, los autores abren una senda de naturalización de la epistemología a través del análisis de las capacidades cognitivas que permiten el desarrollo y la confluencia de las prácticas. El libro es una exposición detallada de una lección que deben aprender todos los filósofos: la ciencia no es solo un conjunto de teorías que describen la realidad, sino también un conjunto de métodos, estilos, formas de actuar e interactuar que configuran la realidad. Además de esta lección valiosa por sí misma, en el libro también se puede encontrar una propuesta original sobre la posibilidad de una normatividad objetiva, racional y progresiva sensible a las prácticas que merece ser estudiada a profundidad. Un valor adicional, que merece ser mencionado de Hacia una filosofía de la ciencia centrada en las prácticas, es que el libro -sin pretenderlo- es un excelente retrato del panorama de la filosofía

282

Revista Colombiana de Filosofía de la Ciencia 16.33 (2016 julio-diciembre): 277-283


de la ciencia, útil para identificar corrientes, autores, problemas y posturas sobre el conocimiento científico. Más allá del cartel de personalidades influyentes liderado por Carnap, Popper y Kuhn (que incluyen también a Sarton y Latour, entre otros), en el libro son presentadas con claridad propuestas muy interesantes pero menos reconocidas como las de Neurath, Needham y Pickering, que perfectamente podrían hacer parte de la bibliografía fundamental de muchas investigaciones en filosofía de la ciencia. Sergio Andrés Henao López Universidad El Bosque seranhelo@gmail.com

283



Indicaciones para los autores

La Revista Colombiana de Filosofía de la Ciencia es una publicación académica dedicada a la filosofía de la ciencia y a sus campos afines (lógica, epistemología, ciencias cognitivas, filosofía de la tecnología, filosofía del lenguaje) y, en general, a los temas y problemas que ponen en diálogo a las ciencias con la filosofía. En ocasiones se editan números monográficos sobre autores o temas puntuales. La revista recibe contribuciones en forma de artículos originales y reseñas de libros en español, portugués, francés e inglés. Todas las colaboraciones serán evaluadas por un árbitro de manera anónima y el autor recibirá una respuesta en un lapso no mayor a 90 días. Se entiende que los autores autorizan a la revista la publicación de los textos aceptados en formato impreso y digital. Todas las contribuciones han de ser enviadas en formato doc, docx, o rtf por correo electrónico a la dirección revistafilosofiaciencia@unbosque.edu.co, y han de cumplir con las siguientes condiciones:

A rtículos • El texto ha de ser original e inédito y no se ha de encontrar en proceso de evaluación para su publicación por ninguna otra revista académica. • Se ha de enviar el artículo en un archivo, en versión anónima y cuidando que las notas a pie de página, agradecimientos o referencias internas en el texto no revelen la identidad de su autor. En un archivo aparte se ha de enviar el título del artículo, el nombre del autor, su afiliación institucional y sus datos de contacto (dirección de correspondencia, correo electrónico y teléfono). • El artículo debe venir precedido de un resumen en su idioma original que no exceda las 100 palabras, y 5 palabras clave. Se han de incluir también las traducciones al inglés del título del artículo, el resumen y las palabras clave. • La lista de trabajos citados ha de estar al final del artículo y ha de cumplir con el sistema MLA de la citación para el área de filosofía (http://www. mla.org/style).


Indicaciones para los autores

• Las referencias bibliográficas han de incorporarse al texto y no en las notas al pie de página (las notas a pie de página han de restringirse así a aquellas que contengan información sustantiva), de la siguiente manera: (Autor, página). En caso de que haya más de una obra del autor en la bibliografía, se ha de agregar el año de la obra: (Autor, año, página). • Las citas textuales de más de cinco líneas han de ubicarse en párrafo aparte con sangría de 0,5 cms. a margen derecho e izquierdo, y no han de estar entrecomilladas. Las citas de extensión menor no requieren párrafo aparte y han de venir entrecomilladas. • La extensión máxima de los artículos es de 15.000 palabras.

R eseñas bibliográficas • Se recibirán únicamente reseñas sobre libros publicados recientemente (cuya fecha de publicación no exceda los últimos dos años). • Las reseñas han de cumplir con las mismas condiciones para la citación, notas al pie y referencias bibliográficas ya especificadas para los artículos. • La extensión máxima de las reseñas es 2.500 palabras. Los autores de artículos y reseñas que sean publicados en la revista recibirán dos ejemplares de la misma.

Derechos de autor – información para obtener y reproducir documentos publicados

Al postular un artículo para su posible publicación, los autores conceden implícitamente su autorización a la Revista para publicarlo. La publicación del artículo en la Revista supone que los derechos de autor patrimoniales pasan a ser propiedad de la institución editora de la Revista, la Universidad El Bosque. La Revista ha definido un formato de cesión de derechos de autor que deberá firmar todo autor que presente su obra para ser considerada en el Comité Editorial. En este sentido, las solicitudes para reproducir artículos publicados en la Revista podrán enviarse por correo electrónico al editor, indicando la referencia completa del material que se desea emplear (volumen, número, año, autor, título del artículo, número de páginas). Es necesario, además, indicar el uso que se pretende dar al material (uso total o parcial, tipo de publicación, institución del editor, fecha aproximada de publicación). El contenido de los artículos es responsabilidad absoluta de sus autores y no compromete, en ningún caso, a la Revista o a la Universidad. 286


Instructions for authors

The Revista Colombiana de Filosofía de la Ciencia is an academic journal published by the Humanities Department of the Universidad El Bosque, mainly devoted to the Philosophy of Science and their related fields (Epistemology, Logic, Cognitive Science, Philosophy of Technology, Philosophy of Language) and, in general, the topics and problems that generate dialogue between philosophy and science, whether pure sciences, applied, social or human. Sometimes issues are published on specific topics or authors. The journal receives submissions in the form of original articles and book reviews in Spanish, Portuguese, French and English. Submissions received will be considered by the editorial committee for publication, verifying that they fit their own areas of the journal; after receipt they will be evaluated by an anonymous expert referee and the author will receive a response within a period not exceeding 90 days. It is understood that the authors authorize publication of accepted texts in print and digital. All submissions must be sent in Word, docx or rtf format, and emailed to the address revistafilosofiaciencia@unbosque.edu.co, and they must meet the following conditions:

A rticles • The text must be original, unpublished and should not be under evaluation for publication by any other journal. • The author must send the manuscript in a file, in anonymous version and making sure that the footnotes, acknowledgments and internal references in the text does not reveal the identity of its author. In a separate file, the author must include: the article title, author’s name, institutional affiliation and contact information (mailing address, email and phone). • The paper must be preceded by a summary in the original language that does not exceed 100 words and 5 keywords. It should also include the English translations of the article title, abstract and keywords (or the Spanish translation, if the original language of the article is English).


Instructions for authors

• The complete list of works cited must be at the end of the article and must comply with the MLA citation system for the area of p ​ hilosophy (http:// www.mla.org/style). • References must be incorporated into the text and not in footnotes (the footnotes have to be restricted to those that contain substantive information), as follows: (Author page). If there is more than one work by the same author in the bibliography, in the reference must be added the year of the work: (Author year page). • Quotations of more than five lines must be placed in a separate paragraph indented 0.5 cm to left and right margins, and don’t need quotations marks. The quotations of minor extension don’t require a separate paragraph. • The maximum length of articles is 15,000 words.

Book reviews • It will be received only reviews of recently published books (whose publication date must not to exceed two years). • The review must meet the same conditions for the citation, footnotes and list of works cited for articles already specified. • The maximum length of the reviews is 2,500 words. The authors of articles and reviews published in the journal will receive two copies of it.

Copyright - information for documents issued By postulating an article for publication, the authors implicitly granted permission to the Journal for publication. The publication of the article in the Journal supposed author property rights become the property of the institution editor of the Journal, Universidad El Bosque. The Journal has defined a format copyright assignment to be signed by all authors to submit their work for consideration in the Editorial Committee. In this regard, requests to reproduce articles published in the Journal may be sent by email to the editor, indicating the complete reference material to be used (volume, number, year, author, article title, number of pages). It is also necessary to indicate the intended use give the material (total or partial use, type of publication, institution editor, and approximate date of publication). The content of the articles is the sole responsibility of the authors and not compromise under any circumstances, to the Journal or to the University. 288


Contenido Editorial 70 años del Departamento de Filosofía de la Universidad Nacional de Colombia Gustavo Silva Carrero

La filosofía como espacio de las ciencias Rafael Carrillo (Colombia)

Diatribas en torno a la racionalidad científica. Claves para una comprensión especulativa de la deuda y el distanciamiento intelectual de Feyerabend respecto a Popper Teresa Gargiulo (Argentina)

Realismo científico y nominalismo. Respuesta a Stathis Psillos Matías Alejandro Guirado (Argentina)

Kitcher y la organización de la investigación científica: un análisis de la ciencia desde los modelos ideales de la economía Álvaro Gallardo (Colombia)

El cálculo racional para elegir o la deliberación con sabiduría Jonathan Echeverri Álvarez, Juan Diego Lopera Echavarría & Jesús Goenaga Peña (Colombia)

Los artefactos en cuanto posibilitadores de acción. Problemas en torno a la noción de agencia material en el debate contemporáneo Diego Parente (Argentina)

Metaheurísticas y resolución de problemas complejos Carlos Eduardo Maldonado (Colombia)

El cuerpo humano como un sistema complejo a la luz del contexto histórico-científico del descubrimiento de la circulación pulmonar: de alejandrinos, árabes, herejes y nobles Horacio Serna (Colombia)

Especulaciones y controversias en la cosmología física contemporánea: el problema de la creación en la hipótesis del multiverso, un análisis histórico David Mayo Sánchez (España)

¿Son válidos los argumentos evolutivos desacreditadores en contra de la ciencia cognitiva creacionista de la religión? Jorge Sierra (Colombia)

Reseña Martínez, Sergio & Xiang Huang Hacia una Filosofía de la ciencia centrada en las prácticas Sergio Andrés Henao López (Colombia)

Indicaciones para los autores Instructions for authors


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.