Revista Colombiana de Filosofía de la Ciencia - RCFC

Page 1

Vol. XIV - No. 29

2014 julio -diciembre

ISSN 0124 - 4620

Revista Colombiana de Filosofía de la Ciencia

DEPARTAMENTO DE HUMANIDADES Programa de Filosofía



R evista Colombiana de Filosofía de la Ciencia

Indexada en Publindex, Categoría B Philosopher’s Index Red de revistas científicas de América Latina y el Caribe, España y Portugual (RedALyC)

DEPARTAMENTO DE HUMANIDADES Programa de Filosofía


DEPARTAMENTO DE HUMANIDADES Programa de Filosofía

©Revista Colombiana de Filosofía de la Ciencia ISSN: 0124-4620 Volumen XIV No. 29 2014 julio-diciembre Editor Edgar Eslava, Universidad El Bosque Editor Asistente Gustavo Silva, Universidad El Bosque Asistente Editorial Alejandro Cabrera Hernández, Universidad El Bosque Comité Editorial Gustavo Caponi, Universidad Federal de Santa Catarina. José Luis Cárdenas, Universidad El Bosque. Flor Emilce Cely, Universidad El Bosque. William Duica, Universidad Nacional de Colombia. Edgar Eslava, Universidad El Bosque. Olimpia Lombardi, Universidad de Buenos Aires. Comité Científico Rafael Alemañ, Universidad Miguel. Hernández, España. Eugenio Andrade, Universidad Nacional de Colombia. Alfredo Marcos, Universidad de Valladolid, España. Nicholas Rescher, Universidad de Pittsburg, EE.UU. José Luis Villaveces, Universidad Nacional de Colombia. Fundador Carlos Eduardo Maldonado, Universidad El Bosque UNIVERSIDAD EL BOSQUE Rector Rafael Sánchez París, MD, MSc Vicerrector Académico María Clara Rangel Galvis, OD, MSc, PhD Vicerrector Administrativo Francisco José Falla Carrasco Vicerrector de Investigaciones Miguel Ernesto Otero Cadena, MD Directora del Departamento de Humanidades Ana Isabel Mendieta Directora del Programa de Filosofía Flor Emilce Cely Corrección de estilo Grupo GRAT Concepto, diseño, diagramación y cubierta Centro de Diseño y Comunicación; Facultad de Diseño, Imagen y Comunicación; Universidad El Bosque Impresión Editorial Kimpres Solicitud de canje Universidad El Bosque, Biblioteca – Canje, Bogotá - Cundinamarca Colombia, biblioteca@unbosque.edu.co Suscripción anual Colombia: $20.000. Latinoamérica: US$20. Otros países: US$40 Suscripción electrónica Para recibir dos números al año solicitar el formulario de suscripción al correo revistafilosofiaciencia@unbosque.edu.com Correspondencia e información Universidad El Bosque, Departamento de Humanidades, Cra. 7B # 132-11, Tel. (57-1) 258 81 48, revistafilosofiaciencia@unbosque.edu.co Tarifa Postal Reducida Servicios Postales Nacionales S.A. No 2015 - 280 4-72, vence 31 de Dic. 2015




Contenido La noción de poder causal. Consecuencias de diferentes teorías modales y causales José Tomás Alvarado (Chile)

Las bases epistemológicas de la ciencia moderna convencional Luis Fernando Gómez & Leonardo Ríos (Colombia)

La explicación en ciencias sociales: argumento de la complejidad de los fenómenos y el materialismo histórico Alfonso Pizarro (Chile)

¿Qué es un sistema complejo? Carlos Maldonado (Colombia)

Neuronas espejo y simpatía en Adam Smith: comparación de dos perspectivas sobre la empatía, frente al reduccionismo científico Beatriz Shand (Chile)

Racionalidad y elección de teorías: una aproximación a Howard Sankey Pablo Melogno (Uruguay)

Palabra y concepto: acercamiento a un eliminativismo conceptual en ciencia cognitiva Pablo Andrés Contreras (Chile)

Simbiosis y evolución: un análisis de las implicaciones evolutivas de la simbiosis en la obra de Lynn Margulis Nicolás Lavagnino, Alicia Massarini & Guillermo Folguera (Argentina)

7 33

57 71

95

113

139

161

Reseña Teorías contemporáneas de la justificación epistémica. Volumen I: teorías de la justificación en la epistemología analítica García, Claudia Lorena; Eraña, Ángeles; King Dávalos, Patricia (eds.) Vicente Raga Rosaleny (Colombia)

187

Indicaciones para los autores

193

Instructions for authors

195



L a noción de poder causal.

Consecuencias de diferentes teorías

modales y causales1, 2, 3

The notion of causal power consequences of different modal and causal theories

José Tomás Alvarado Marambio4,5

R esumen Este trabajo trata de clarificar la noción de poder causal. Se sostiene que un poder causal debe ser comprendido en relación con cuestiones más amplias de metafísica modal y de causalidad. Se describen cuatro teorías alternativas principales de concebirlo: (i) como proyección subjetiva de nuestra imaginación o de nuestras capacidades cognitivas de concebir algo, (ii) como resultado de la semejanza entre diferentes mundos posibles, (iii) como producto de la recombinación de entidades independientes entre sí, y (iv) como entidad primitiva, no reducible a otros estados de cosas más básicos. Se afirma que la adopción de una u otra de estas alternativas tiene consecuencias importantes en varios debates donde se ha usado la noción de poder causal. Palabras clave: poder causal, causalidad, modalidad, disposición.

A bstract This work tries to clarify the notion of causal power. It is contended that a causal power should be understood in relation with broader issues in modal and causal metaphysics. Four main alternative theories of causal powers are described: (i) causal powers as subjective projections of our imagination or of our cognitive capabilities to conceive something, (ii) causal powers as the result of the resemblance between different possible worlds, (iii) causal powers as the result of the recombination of entities, independent between them, and (iv) causal powers as primitive entities, not reducible to other –more basic– states of affairs. It is contended that the adoption of one or other of these alternatives has important consequences in several debates where the notion of causal power has been used. Key words: causal power, causality, modality, disposition. 1 Recibido: 21 de agosto de 2014. Aceptado: 14 de octubre de 2014. 2 Este artículo se debe citar como: Alvarado, José Tomás. “La noción de poder causal consecuencias de diferentes teorías modales y causales”. Rev. Colomb. Filos. Cienc. 14.29 (2014): 7-32. 3 Este trabajo se escribió en desarrollo del proyecto de investigación Fondecyt 1090002 (Conicyt, Chile). Una versión preliminar fue presentada en el Coloquio Internacional SADAF 2011, 24 al 27 de agosto de 2011, Buenos Aires (Argentina). Agradezco los comentarios y sugerencias de los asistentes al Coloquio, así como las sugerencias de un evaluador anónimo de esta revista. 4 Instituto de Filosofía, Pontificia Universidad Católica de Chile. Correo: jose.tomas.alvarado@gmail.com 5 Santiago de Chile, Chile.


Alvarado Marambio, José Tomás

1. Introducción La noción de poder causal se ha presentado en diversos contextos y se ha esperado que cumpla funciones específicas en diversas argumentaciones filosóficas. No siempre, sin embargo, se ha precisado de modo suficiente. Este trabajo tiene por objetivo contribuir a clarificar qué es un poder causal o, al menos, cuáles son las grandes alternativas sistemáticas existentes para comprenderlo y qué consecuencias trae consigo utilizar una u otra de tales alternativas. Para muchos, una característica de lo real es la capacidad de entrar en interacciones causales o producir una modificación en los poderes causales de algo. Usando esta tesis como principio general –denominado “principio eleático”–, se sostiene que no pueden existir entidades que carezcan de consecuencias causales, esto es, que no produzcan una modificación en los poderes causales. Este principio ha sido esgrimido para rechazar la existencia de universales trascendentes (Armstrong 1997, 41-43), aquellos que no requieren encontrarse instanciados para existir. Podría esgrimirse una argumentación análoga contra toda clase de entidades matemáticas y otras entidades abstractas. Es fundamental, por lo tanto, tener mayor claridad sobre qué debe entenderse por un poder causal para evaluar las alternativas. Tal como se indicará, hay alternativas sistemáticas no triviales que hacen estas líneas de argumentación inofensivas. Esta noción también se ha empleado con frecuencia en la cuestión de si es esencial a una propiedad conferir los poderes causales que, de hecho, confiere a sus instancias (Bird 66-98; Black; Ellis 106-41; Molnar; Mumford 2004, 160-81; Schaffer; Shoemaker 2003, “Causality”, “Causal”). Se mostrará que hay alternativas para comprender la noción de poder causal en que esta cuestión es trivial. Esto es, dependiendo de ciertas opciones metafísicas, todo poder causal no podrá sino ser conferido de manera esencial por una propiedad. Si es así, gran parte de la motivación para este debate se pierde. Un debate muy cercano al anterior tiene que ver con la llamada quidditas o carácter cualitativamente irreductible por el que una propiedad específica sería esta propiedad y no otra diferente (así como se discute si para un objeto individual hay o no una haecceitas que lo haga ser este objeto individual y no otro)6. 6 Se ha impuesto esta terminología, en efecto, por similitud con la haecceitas. En el caso de la haecceitas, esto es, aquello que hace que este (haec) individuo sea este individuo y no otro, la terminología elegida tiene una tradición venerable con la que la discusión contemporánea ha mostrado continuidad. Scoto acuñó la expresión precisamente con la intención de poner de relieve la irreductibilidad del carácter individual de un objeto (Cross). Esto no ha sucedido, desgraciadamente, con la quidditas. En la tradición filosófica, la quidditas designa aquello que hace que una sustancia sea el tipo de sustancia que es. Es lo que responde a la pregunta acerca de qué (quid) es algo. No tiene que ver, como puede apreciarse, con la identidad de las propiedades, sino con el carácter de los objetos por el que son instancias de un tipo general de entidad (por ejemplo, Santo Tomás de Aquino I, 5).

8

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 7-32


La noción de poder causal

Aún suponiendo que los poderes causales sean esenciales a una propiedad, estas podrían diferir entre sí por su quidditas, manteniendo los mismos poderes causales (Hawthorne). Si hay quidditates, diferentes mundos posibles podrían tener exactamente las mismas interacciones causales, pero estas podrían diferir entre sí por la distribución de propiedades en tales mundos. Para evaluar estos escenarios se requiere mayor precisión respecto de qué es exactamente un poder causal. Se indicará más adelante que, asumiendo algunas concepciones acerca de la naturaleza de los poderes causales, el rechazo de la existencia de quidditates conduciría al resultado absurdo de que todas las propiedades deberían identificarse en una única propiedad. En efecto, si las condiciones de identidad de una propiedad vienen dadas por los poderes causales que tal propiedad confiere y si toda propiedad confiere todos los poderes causales, entonces solo hay una propiedad. Evitar este resultado de trivialización obliga a tomar ciertas opciones sistemáticas más o menos drásticas. En este trabajo se considerarán de un modo especial las consecuencias de adoptar alguna de las concepciones alternativas de poder causal para analizar cuáles deberían ser las condiciones de identidad de una propiedad. Hay otras áreas en las que estas diferentes concepciones también tienen un impacto importante, pero no serán discutidas aquí. En lo que sigue se precisarán, primero, ciertos conceptos y tesis fundamentales. Luego, se indicarán las grandes alternativas sistemáticas para comprender qué es un poder causal. Finalmente, se resumirán las principales conclusiones de este examen.

2. Precisiones Una propiedad es la determinación, aspecto o carácter que tiene un objeto individual; por lo tanto, es numéricamente diferente del objeto que está determinando. La relación entre una propiedad y el objeto que la posee se denomina instanciación. Las propiedades pueden ser comprendidas como entidades individuales –tropos– o universales –entidades que por su naturaleza pueden tener múltiples instancias. Aquí se va a suponer que las propiedades son universales. De acuerdo a la distinción que propone David Lewis (1999 11-14), las propiedades de que se trata aquí son “escasas”. Es decir, son aquellas que la ciencia empírica descubre como constitutivas de lo real, han de aparecer en las leyes naturales e integran las conexiones causales, las que resultan determinantes para la semejanza y la desemejanza objetivas. La postulación de estas propiedades es a posteriori. No se puede suponer, por esto, que cada predicado de nuestros lenguajes haga referencia a una propiedad. Tampoco se puede suponer que exista un predicado para cada propiedad existente. Pueden

9


Alvarado Marambio, José Tomás

existir propiedades desconocidas o incluso propiedades de tal carácter que no es posible para nosotros llegar a conocerlas7. En lo que sigue se asumirán propiedades universales escasas y no interesará si se trata de universales inmanentes o trascendentes, esto es, no importará si esos universales solo existen, si tienen instancias o son independientes ontológicamente de estas. Por lo mismo, tampoco interesará si las propiedades universales son entidades necesarias o contingentes8. Una noción muy cercana a la de poder causal es la de disposición. Será importante precisar, por lo tanto, por qué la discusión que se hará aquí es complementaria a las cuestiones tratadas en la amplia literatura sobre esa noción. Una disposición es la propiedad –putativa– por la cual el objeto que la tiene se comportaría de cierta manera si fuera afectado por una interacción causal. Sea esa interacción –o ‘estímulo’– S y sea la manifestación de la disposición M. Típicamente, si un objeto posee una disposición, si fuese efectivo S, entonces sería efectivo M. La manifestación sería también alguna interacción causal. Se dice de un terrón de azúcar –si es que esto puede ser aceptado como “objeto” por los ontólogos– que es soluble, porque si se pusiera en agua, se disolvería. Llegar a estar rodeado de agua es un proceso causal, como lo es el proceso de disolución. Se ha discutido durante buena parte del siglo XX si las disposiciones podrían ser analizadas como condicionales contrafácticos. Este punto de vista está hoy bastante desacreditado (Bird 18-42; Martin; Mumford 1998 36-63). Se ha sustituido el análisis condicional con una concepción funcionalista en donde las disposiciones son ontológicamente reductibles a propiedades categóricas –i. e., no disposicionales– más leyes naturales (Mumford 1998, 192-215; Prior, Pargetter y Jackson). La forma en que se manifieste una propiedad categórica frente a una interacción determinada es una función del carácter intrínseco de tal propiedad junto con las leyes naturales existentes. La propiedad categórica en cuestión es la base causal de la disposición, pero qué relaciones causales se produzcan en virtud de esta base causal dependerá de las leyes naturales. Muchos filósofos de inspiración humeana sostienen que no hay conexiones necesarias entre entidades realmente diferentes entre sí, que no 7 Estas propiedades “escasas” contrastan con concepciones en las que una propiedad es tomada como el significado de un predicado, cualquiera sea este o con concepciones nominalistas en las que las propiedades son clases de objetos actuales o posibles. En el segundo caso, la teoría de conjuntos garantiza la existencia de cualquier cardinalidad transfinita de propiedades. Para una teoría característica de este tipo, véase Armstrong 1978, I, II; 1989; 1997. 8 En efecto, como los universales inmanentes solo existen si tienen instancias y es contingente el que posean instancias, serán entidades contingentes (tal vez con la sola excepción de propiedades esenciales de entidades necesarias). Los universales trascendentes se consideran usualmente entidades necesarias.

10

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 7-32


La noción de poder causal

hay ningún tipo de tendencia entre dos eventos que produzca o influya en la ocurrencia de uno de ellos si es que ha ocurrido el otro. Para estos filósofos las disposiciones deberían ser reducibles a otras entidades ontológicamente más básicas. Propiedades categóricas inertes y leyes naturales parecen ser la base de reducción más razonable. Esto supone, sin embargo, precisar la naturaleza de una ley natural. En la tradición humeana las leyes son simplemente regularidades de eventos que ocurren sin ningún motivo particular. Por ejemplo, se ha propuesto que las leyes naturales sean entendidas como aquellas regularidades que serían capturadas por la axiomatización de las proposiciones que enuncian lo que acaece en un mundo posible, que consigan el mejor balance de poder deductivo y simplicidad (Lewis 1973 72-77; Ramsey). Aquí, qué disposiciones existan en un mundo posible es un hecho que depende solamente de la distribución casual de propiedades categóricas, inertes, en ese mundo. No hay tendencias a ciertas manifestaciones más que a otras. En este caso, nuestra concepción ordinaria de una disposición es básicamente mitología. Hay otras teorías no humeanas de las leyes naturales en donde estas poseen un carácter ontológicamente más robusto. En la teoría defendida por Armstrong (1983), Dretske y Tooley (1977; 1987 37-169) las leyes naturales son relaciones de “necesitación” o “nomológicas” entre universales. Aquí hay una diferencia importante entre una ley natural auténtica y una mera regularidad –aunque se trate de una regularidad importante que pudiese entrar en una axiomatización simple y con poder deductivo– pues la existencia de una ley natural implica la existencia de la regularidad respectiva, pero no a la inversa. Una regularidad no implica la existencia de una ley natural. Este es un punto de vista que se aleja de la perspectiva humeana, pero –para muchos– no lo suficiente, pues las leyes naturales son contingentes. Si los universales U1 y U2 están conectados por una ley natural en un mundo posible w1, hay otros mundos en donde esos mismos universales no están conectados por tal ley natural. La concepción funcionalista de las disposiciones, por lo tanto, va a adquirir un cariz diferente según como diferentes teorías de leyes naturales la complementen. En cualquier caso, las propiedades son, por sí mismas, de acuerdo a su naturaleza intrínseca, inertes. Las disposiciones que esas propiedades categóricas confieran dependerá de qué leyes naturales existan. Si las leyes naturales son meras regularidades, entonces las disposiciones existentes en un mundo posible son supervenientes a la frecuencia con que cierto tipo de eventos sea sucedido por otro tipo de eventos. Los hechos acerca de qué disposiciones posee cada objeto es un hecho acerca de estas frecuencias y no hechos acerca de ciertas potencias para la realización de algo. Si las leyes naturales son relaciones de segundo orden de necesitación entre universales, en cambio, los hechos acerca

11


Alvarado Marambio, José Tomás

de qué disposiciones posee cada objeto serán supervenientes a hechos acerca de qué leyes naturales existen en tal mundo posible (junto con la distribución de propiedades categóricas, por supuesto). En ambos casos, sin embargo, no hay realmente propiedades disposicionales ontológicamente básicas. La alternativa a estas concepciones funcionalistas de las disposiciones son teorías en donde las leyes naturales tienen un carácter necesario9. Aquí no es contingente para dos universales U1 y U2 estar (o no) conectados por una ley natural. Esencialmente, un universal U1 será la disposición a producir la instanciación de U2. Si no puede existir un universal sin la ley natural que él integra, entonces se pierde la motivación para desarrollar una ontología de las leyes naturales diferente de la ontología general de los universales. Las leyes naturales pueden ser simplemente identificadas con las propiedades o, tal vez, pueden ser eliminadas por propiedades. En todo este debate la atención se ha puesto en la pertinencia del análisis condicional de las disposiciones y en la noción de ley natural. Se trata de cuestiones importantes, naturalmente, pero hay otras cercanas sobre la relación causal y de los hechos modales que han pasado desapercibidas. Creo que una adecuada clarificación de qué es un poder causal requiere cruzar la ontología causal con la ontología modal de una forma que no se ha utilizado en la literatura. Esto es especialmente importante porque no parece lo mismo una disposición que un poder causal. Toda disposición es un poder causal, pero no es claro que todo poder causal sea una disposición. Lo que aquí se clarifique respecto de los poderes causales será útil, por lo tanto, para la discusión en la metafísica de disposiciones, ofreciendo una perspectiva más general para el tratamiento de las cuestiones. La diferencia fundamental es que una disposición parece hacer necesaria o, por lo menos, hacer más probable la ocurrencia de cierta manifestación, si es que se produce el estímulo. La asignación de un poder causal, en cambio, parece simplemente requerir la posibilidad de que se produzca una relación causal. Podría uno sostener que toda relación causal torna necesario o más probable la ocurrencia del efecto10, pero esto es una cuestión ulterior y es más conveniente, desde un punto de vista teórico, clarificar qué es un poder causal sin tener que asumir premisas metafísicas controvertidas. También uno podría pensar que toda conexión causal debe darse de conformidad con una ley natural, pero esto es un supuesto controvertido. Hay teorías en donde la

9 Véase en particular Bird 43-98; Mumford 2004; Swoyer; con ciertas prevenciones, Ellis 203-94. 10 Así sucede en las teorías humeanas de la causalidad en donde los hechos causales son reducibles a regularidades. También se ha asumido, sin embargo, la misma tesis en teorías no humeanas. Véase, por ejemplo, Mellor. Debo agradecer, en particular, a Daniel von Wachter por insistir en la importancia de este punto.

12

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 7-32


La noción de poder causal

causalidad no depende de leyes naturales 11. La dilucidación que se pretende hacer aquí es neutral respecto de esta cuestión. El examen de la naturaleza de un poder causal es, por lo tanto, previo a las cuestiones sobre disposiciones y leyes naturales.

3. Poderes causales Un poder de hacer algo implica que algo puede ser realizado. Se trata, por lo tanto, de algo que es posible. Del mismo modo, es algo que posiblemente puede ser causado. Se trata, por lo tanto, de relaciones causales posibles. Se va a suponer que las relaciones causales tienen como relata estados de cosas, especificados por ser la instanciación de una propiedad en un objeto u objetos (de acuerdo a si la propiedad es n-ádica para n > 1) en un instante de tiempo, no necesariamente puntual12 . Los poderes causales están asociados a propiedades universales y se especifican por lo que causarían, esto es, los estados de cosas que harían efectivos. Estos estados de cosas se considerarán solamente en cuanto a qué propiedades estarían instanciadas en ellos, y no en cuanto a qué individuo instanciaría tal propiedad, ni en cuanto a qué instante de tiempo sería aquel en que se produciría la instanciación para mantener la generalidad. Si se integran el objeto u objetos que conforman un estado de cosas o el instante de tiempo en que se produce la instanciación de la propiedad en cuestión en el objeto u objetos, resultarán poderes causales más o menos específicos (de grano grueso o delgado, por decirlo de algún modo). Un poder causal puede entenderse como el poder de causar el estado de cosas de [Pat]13 es decir, el hecho de que la propiedad P está instanciada en el objeto a en el instante t. También puede entenderse como el poder de causar un estado de cosas del tipo [Pxt], esto es, un estado de cosas de ser la instanciación de P en el instante de tiempo t en algo (lo que se representa aquí por la variable x). También puede comprenderse como el poder de causar un estado de cosas del tipo 11 Véase, por ejemplo, Tooley 1987. 12 Como podrá apreciarse, las condiciones de identidad de un estado de cosas son los mismos que los usualmente estipulados para eventos o situaciones (véase Kim). 13 En lo que sigue, el estado de cosas de estar la propiedad P instanciada en los objetos a1, a2 , …, an en el instante de tiempo t se designará por [Pa1a2 … ant], obedeciendo los siguientes principios: (EC1) Xx1x 2 …xn ((X se instancia en x1, x 2 , …, xn en el instante de tiempo )  ([Xx1x 2 … xn] existe)) (EC2)  XX x1x 2…xnx1x2…xn (([Xx1x 2 … xn] = [Xx1x2 … xn])  ((X = X)  (x1 = x1)  (x 2 = x2)  …  (xn = xn)  ( = ))) Aquí y en lo que sigue, las variables ‘X’, ‘X’ tienen como rango propiedades; las variables ‘x1’, ‘x2’, …, ‘xn’ tienen como rango objetos; y las variables ‘’ y ‘’ tienen como rango tiempos, no necesariamente puntuales.

13


Alvarado Marambio, José Tomás

[Pa]; en otras palabras, un estado de cosas de ser la instanciación de P en el objeto a en un instante de tiempo u otro (lo que queda reflejado aquí por la variable ). Por lo mismo, se puede contemplar el poder de causar un estado de cosas [Px], esto es, un estado de cosas de estar P instanciado en algún objeto en algún instante de tiempo. Nada impide, por otro lado, considerar también el poder de causar un tipo de estado de cosas [Xat] o instanciación de alguna propiedad u otra en el objeto a en el instante de tiempo t. Del mismo modo, habrá poderes para causar tipos de estados de cosas [Xxt] y [Xa]14. En todo caso, un poder causal se especifica por el estado de cosas o el tipo de estado de cosas que se podría causar. En lo que sigue no se tomarán en consideración los poderes de causar que un estado de cosas específico sea efectivo o de causar que tipos de estados de cosas de la forma [Pxt], [Pa], [Xxt], [Xa] o [Xx] sean efectivos. Lo que interesarán son poderes de causar que algo instancie una cierta propiedad P en algún instante de tiempo u otro. La forma más sencilla de definir un poder causal es reduciendo el poder a ciertos hechos modales acerca de lo que un estado de cosas causaría de acuerdo a la siguiente formulación: 1. XYxy ((X confiere a x en  el poder causal de hacer [Yy] en )  ([Xx] causaría [Yy])) La expresión “causaría” es un subjuntivo que puede ser concebido de varias maneras diferentes. Una forma fuerte es especificando que es metafísicamente necesario que si [Xx] es efectivo, entonces causará que [Yy] sea efectivo. Una forma débil es especificando que es metafísicamente posible que [Xx] sea efectivo y cause que [Yy] sea efectivo. Esto es: 2. XYxy ((X confiere a x el poder causal de hacer [Yy] en )  (([Xx] es efectivo)  ([Xx] causa [Yy]))) 3. XYxy ((X confiere a x en  el poder causal de hacer [Yy])  (([Xx] es efectivo)  ([Xx] causa [Yy])))15 Debe suponerse que una propiedad confiere un poder causal a un objeto (u objetos, si se trata de una propiedad relacional), al estar instanciada en tal objeto en un instante de tiempo determinado. La formulación (I) es extre14 Una cuestión aparte que requeriría una discusión especial sería el tipo más general de estado de cosas [Xx]. 15 ¿Por qué aquí no se formula un poder causal como (([Xx] es efectivo)  ([Xx] causa [Yy])), de un modo semejante a (II)? Porque la negación de (([Xx] es efectivo)  ([Xx] causa [Yy])) es (([Xx] es efectivo)  ¬([Xx] causa [Yy])) y no (([Xx] es efectivo)  ¬([Xx] causa [Yy])). Por otro lado, (([Xx] es efectivo)  ([Xx] causa [Yy])) sería demasiado débil, pues se satisfacería con un mundo posible en que no exista el estado de cosas [Xx], ya que (([Xx] es efectivo)  ([Xx] causa [Yy])) es equivalente a (¬([Xx] es efectivo)  ([Xx] causa [Yy])).

14

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 7-32


La noción de poder causal

madamente fuerte, pues exige que en todos los mundos posibles en que [Xx] sea efectivo cause que [Yy]. Por ejemplo, si la posesión de una carga eléctrica q1 por parte de un objeto a en t puede tomarse como un poder causal, ello es porque asumimos ordinariamente que, si hubiese otro objeto b a una distancia d respecto de a y con una carga eléctrica opuesta de –q2, entonces a y b se atraerían con una fuerza f = q1q2/d2 . Pero es obvio que no en todos los mundos posibles en los que exista el estado de cosas [poseer una carga eléctrica q1, a, t] se causará el estado de cosas [atraerse con una fuerza f = q1q2/d2, <a, b>, t ], pues no en todos los mundos posibles es también efectivo que b tiene una carga q2 a una distancia d de a. Esto no parece un motivo, sin embargo, para negar que la posesión de la carga q1 por a en t le confiera un poder causal. Resulta, por ello, más razonable optar por (III) como formulación de qué es un poder causal. Una alternativa a las formulaciones (II) y (III) es apelar a formulaciones contrafácticas. Esto es: 4. XYxy ((X confiere a x el poder causal de hacer [Yy] en )  (([Xx] es efectivo)  ([Xx] causa [Yy]))) 5. XYxy ((X confiere a x el poder causal de hacer [Yy] en )  (([Xx] es efectivo)  ([Xx] causa [Yy]))) En (IV), se atribuye un poder causal a un objeto en un mundo posible w, si y solo si en todos los mundos posibles cercanos a w en que es efectivo [Xx], [Xx] causa [Yy] (de acuerdo a la semántica estándar, Lewis 1973, 1-43). En efecto, en términos generales el condicional contrafáctico (could) si  fuese el caso, entonces  sería el caso [  ] es verdadero en el mundo posible w, si y solo si en todos los mundos posibles más cercanos a w en que  es el caso,  también es el caso. Se haría indispensable especificar de un modo independiente qué haya de fijar la métrica de semejanza o desemejanza entre mundos posibles para determinar cuándo un mundo posible cuenta como más cercano o lejano a w. Siguiendo con el ejemplo indicado arriba, para que (IV) sea una formulación adecuada de un poder causal, los mundos en que b no tenga una carga eléctrica –q2 o no esté ubicado a una distancia d de a contarán como mundos posibles más lejanos de w y, por ello, el que en estos mundos no sea el caso que se cause la atracción de a y b no obstaría a la verdad del condicional en los mundos más cercanos. Tampoco podrían contar como cercanos los mundos en los que hubiese un tercer objeto c a una distancia d de a con una carga eléctrica de q3, pues la interacción de esta tercera carga eléctrica modificaría las fuerzas de atracción/repulsión resultantes. Lo mismo sucede con mundos en que hay un cuarto objeto, o un quinto objeto, o hay

15


Alvarado Marambio, José Tomás

fuerzas de cualquier otra naturaleza interfiriendo en el proceso. ¿Cuántos son estos mundos? Infinitos, por supuesto. No existe ninguna formulación finita de todos los infinitos factores que podrían perturbar la atracción de a y b con una fuerza f = q1q2/d2. La ocurrencia de cualquiera de ellos produce un mundo lejano. Lo único que resulta relevante para determinar cuándo un mundo es cercano, por tanto, es simplemente que en esos mundos el que a posea una carga eléctrica de q1 en t causa que a y b de hecho se atraen con una fuerza f = q1q2/d2, pero es trivial que en estos mundos se causa que a y b se atraigan con una fuerza f = q1q2/d2. Si el condicional contrafáctico (IV), por lo tanto, va a ser una formulación razonable de qué es un poder causal, deberá ser interpretado de tal modo que no tendrá un contenido diferente de la simple afirmación de que es metafísicamente posible que se cause el efecto deseado, que es precisamente lo que indica (III). Si la métrica de semejanza/desemejanza entre mundos posibles, por otra parte, se fija de otro modo, de una forma que no esté determinada por el mero hecho de que, por ejemplo, a posea una carga eléctrica de q1 cause que a y b se atraigan con una fuerza f = q1q2/d2, entonces (IV) resultará una formulación errónea de qué es un poder causal. En efecto, supóngase la aplicación de cualquier otra métrica. Es obvio que en mundos muy parecidos a w a y b no se van a atraer con una fuerza f = q1q2/d2 porque, por ejemplo, b está a una distancia d de a (siendo d infinitesimalmente cercano a d). Supóngase que toda la diferencia entre w y ese mundo w es la diferencia infinitesimal en la posición relativa de b respecto de a. El mundo w contará como semejante a w bajo cualquier métrica, pero en w no se da una atracción de exactamente f = q1q2/d2 . Estos motivos también hacen obviamente preferible la formulación (V) a (IV), si es que se va a hacer una formulación contrafáctica. En (V) la existencia de un poder causal está conectada a un condicional contrafáctico del tipo might. En la semántica de Lewis, estos condicionales son duales de los contrafácticos del tipo could16, cuyas condiciones de verdad han sido especificadas. Así, es verdadero en w que si  fuese el caso, entonces  podría ser el caso [  ], si y solo si en al menos un mundo posible más cercano a w,  es verdadero y  es verdadero. Solo se requiere, por lo tanto, un mundo posible más cercano en que se produce la relación causal en cuestión para que se pueda hacer la atribución de poder causal. Las formulaciones (III) y (V), por lo tanto, parecen las más convenientes. Hay una diferencia importante entre ellas. Mientras la formulación (III) no impone ninguna restricción acerca de qué tan lejano o cercano sea el mundo posible en donde se produce la relación causal, (V) requiere que solo 16 Esto es: [(  )  ¬(  ¬)] y [(  )  ¬(  ¬)].

16

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 7-32


La noción de poder causal

se tomen en consideración los mundos más cercanos. Esta diferencia será crucial para resolver varias dificultades. Tal como se ha podido apreciar, es importante considerar en qué consiste el hecho de que sea posible que un estado de cosas cause otro estado de cosas. Para esto se deben tomar en consideración diferentes concepciones tanto de la modalidad como de la causalidad. No se hará una revisión exhaustiva de todas las posiciones acerca de la naturaleza de la modalidad o de la causalidad, centrando la atención solamente en algunas teorías que parecen más relevantes. Tratándose de los hechos modales, se considerarán (a) teorías modales antirrealistas, y (b) teorías modales realistas. En este último caso, se distinguirá entre (b.i) teorías realistas en las que el espacio de lo metafísicamente necesario y lo metafísicamente posible viene dado por la combinatoria de ciertos elementos dados, o (b.ii) teorías realistas en las que el espacio metafísico modal viene dado por restricciones causales. En cuanto a las teorías de la causalidad, se considerarán, (a) teorías reductivistas en las que los hechos modales son supervenientes a hechos ontológicamente más básicos, de un carácter no modal. Son tradicionales aquí las teorías en las que las relaciones causales son supervenientes a regularidades entre tipos de eventos, pero la atención se concentrará en las teorías contrafácticas; se considerarán también (b) teorías realistas de la causalidad en donde las relaciones causales no sean supervenientes a hechos ontológicamente más básicos. La combinación de estas diferentes concepciones tanto de la modalidad como de la causalidad genera cuatro tipos fundamentales de concepción de los poderes causales. No son todas las concepciones posibles, pero parecen ser teorías bien definidas que merecen una discusión más detenida: (i) poderes causales como dependientes de proyecciones subjetivas, si se adopta una teoría antirrealista de la modalidad; (ii) poderes causales como dependientes de semejanzas o desemejanzas entre mundos posibles, si se adopta un análisis contrafáctico de la causalidad unido a una teoría realista combinatoria de los hechos modales; (iii) poderes causales como dependientes de la combinatoria de la distribución de las propiedades intrínsecas y las relaciones externas, si se adopta una teoría realista de la causalidad, pero con una teoría realista combinatoria de los hechos modales; y (iv) poderes causales primitivos, si se adopta una concepción realista causal de la modalidad. Esta concepción exige una teoría realista de la causalidad. Se examinarán estas concepciones a continuación.

3.1. Poderes causales como proyecciones subjetivas Supóngase que se sostuviera que lo metafísicamente necesario y lo metafísicamente posible son dependientes de lo que nosotros podemos concebir. Algo

17


Alvarado Marambio, José Tomás

es aquí metafísicamente posible, si y solo si hay un sujeto racional que puede –de algún modo– representarse la ocurrencia del estado de cosas en cuestión (Blackburn, Chalmers y Jackson). Hay muchas formas en que puede ser desarrollada esta tesis. Por ejemplo, se puede poner énfasis en la capacidad de contemplar positivamente el darse de un estado de cosas o se puede poner énfasis negativamente en el hecho de que no se aprecie ninguna incoherencia al intentar representarse un estado de cosas. La “representación” en cuestión, por otro lado, puede estar más ligada a la generación de una suerte de imagen mental de un carácter más o menos pictórico, o más ligada a lo que puede ser objeto de nuestro pensamiento conceptual. Estas variaciones no tienen aquí demasiada relevancia. De acuerdo a la formulación (III), una propiedad P1 confiere al objeto a un poder causal para producir que algo sea, por ejemplo, P2, si y solo si es metafísicamente posible que la instanciación de P1 en a en un instante de tiempo determinado t cause que algo instancie P2 en algún instante de tiempo u otro. Como lo que sea metafísicamente posible es aquello que puede ser concebido por nosotros, la atribución de tal poder causal es simplemente un hecho acerca de nuestros poderes cognitivos. Entre distintos sujetos racionales con diferentes capacidades cognitivas y de procesamiento de información, con diversos repertorios conceptuales, tal vez, unos podrían concebir que un estado de cosas causa otra cosa y otros podrían no hacerlo. Un mismo sujeto podría pensar que un estado de cosas causa otra cosa en un instante de tiempo y después, debido a una modificación más o menos drástica de sus creencias, podría dejar de pensarlo17. Estas vicisitudes se ven reflejadas en la atribución o no de poderes causales a algo. Un poder causal no es un rasgo o característica objetiva del mundo, sino que se trata aquí, más bien, de un rasgo nuestro. La adopción de una teoría de este estilo en los debates usuales en los que se invoca la noción de poder causal lleva a resultados altamente contraintuitivos. En primer lugar, no parece tener mucho sentido el principio eleático indicado arriba –esto es, que solo existe lo que produce una modificación en los poderes causales de algo– si lo que se atribuye son poderes causales entendidos de este modo. Se supone que los poderes causales son la marca de lo real, pero esos poderes causales son simples proyecciones de nuestras capaci17 En algunas teorías modales antirrealistas (Chalmers 147-49; 171-95) lo relevante son ciertas capacidades de concebir idealizadas. Algo es metafísicamente posible si una reflexión racional idealizada no encontrara en ese escenario contemplado ninguna incoherencia. Es obvio que si las capacidades idealizadas son capacidades de entidades menos que omniscientes, habrá hechos que una comunidad idealizada de pensadores desconocerá y que otra comunidad diferente podría conocer. También sucederá que la comunidad idealizada de pensadores adquirirá sucesivamente más información o modificará y refinará creencias previas. Si es así, entonces no importa qué idealización se adopte, qué poderes causales sean atribuidos variará en el tiempo y entre culturas.

18

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 7-32


La noción de poder causal

dades cognitivas18. Entonces el criterio fundamental de lo existente en cielos y tierra es lo que podemos o no concebir. Esto parece una forma de antirrealismo bastante radical. Fácilmente puede verse también que si estos poderes causales fuesen propuestos como constitutivos de las condiciones de identidad de una propiedad, o como esenciales a ella, la identidad y la diferencia de propiedades vendrían a ser también meramente una proyección nuestra. Dos propiedades han de ser diferentes si es que al menos hay un poder causal que una de ellas confiera y la otra no, asumiendo que los poderes causales son esenciales. Supóngase la propiedad de ser una molécula de agua y la propiedad de estar compuesto por dos átomos de hidrógeno y un átomo de oxígeno enlazados químicamente entre sí. Una cultura entera, con perfecta racionalidad, podría concebir que la primera propiedad atribuye el poder causal C, pero no que la segunda otorgue ese mismo poder causal C. Entonces, la propiedad de ser una molécula de agua y la propiedad de estar compuesto por dos átomos de hidrógeno y un átomo de oxígeno enlazados químicamente entre sí, serían propiedades diferentes. Supóngase que esta misma cultura va adquiriendo sucesivamente cada vez más información acerca de la estructura química del agua y, en un instante de tiempo posterior, llega a pensar que todos y cada uno de los poderes causales conferidos por la propiedad de ser una molécula de agua son también dados por la propiedad de estar compuesto por dos átomos de hidrógeno y un átomo de oxígeno enlazados químicamente entre sí. Entonces, si se asume que esos poderes causales constituyen las condiciones de identidad de una propiedad, resulta que las que eran dos propiedades diferentes pasan a ser una única propiedad. Si se toma una molécula de agua en particular, por ejemplo, sea b, resultará que b estará instanciando dos propiedades en un primer momento y después, sin ningún cambio en sus determinaciones intrínsecas, en un ejemplo perfecto de cambio Cambridge, pasa a instanciar solo una propiedad. Aunque no se puede decir que en una concepción de este estilo el hecho de que exista o no una propiedad sea un hecho extrínseco, pero sí es extrínseco el hecho de que exista una o n propiedades diferentes. La identidad y la diferencia de las propiedades entre sí resultarán de nuestros poderes de imaginación19. Esto nuevamente parece una forma especialmente radical de antirrealismo. 18 Nótese también que una capacidad cognitiva es un poder causal. 19 Si los poderes causales son solamente esenciales a una propiedad, pero no constituyen la esencia de una propiedad, entonces lo que podamos imaginar determina si dos propiedades son diferentes entre sí, aunque no puede determinar que dos propiedades sean idénticas entre sí. Si los poderes causales son constitutivos de la esencia de una propiedad, por otro lado, lo que podamos imaginar determina si dos propiedades son o bien idénticas o bien diferentes. La esencia de una propiedad P es el conjunto de propiedades de orden superior P1, P2 , …, Pn tales que: •X• ((X = P)  (P1(P)  P2(P)  …  Pn(P)). El conferir un poder causal sería una de tales propiedades de orden superior. Una propiedad de orden superior P es esencial a una propiedad P, en cambio, si es que: •(Y(Y = P)  P(P)).

19


Alvarado Marambio, José Tomás

3.2. Poderes causales como semejanzas y desemejanzas entre mundos posibles Imagínese que se adopta una concepción realista de los hechos modales, sea actualista o posibilista, en donde el espacio de lo metafísicamente posible –y lo metafísicamente necesario– viene dado por la combinatoria de entidades independientes entre sí, unida a un análisis contrafáctico de las relaciones causales. Esto es, se supone que los hechos modales acerca de lo metafísicamente necesario o lo metafísicamente posible son hechos acerca de una pluralidad de mundos posibles. Se tomarán ahora, para simplificar la discusión, estos mundos posibles tal como los concibe David Lewis (1986, Plurality, 1-96), esto es, como sumas mereológicas máximas de todos y solo los individuos que se encuentran conectados entre sí por relaciones espacio-temporales. En la teoría lewisiana de la modalidad, el espacio metafísico modal de todos los mundos posibles está conformado por las recombinaciones de un repertorio dado de propiedades intrínsecas y relaciones externas. Lewis postula las propiedades como conjuntos de objetos posibles. Distingue entre las propiedades naturales y las que no lo son (1986 Plurality, 59-69; 1999), por lo que el espacio modal tendrá que venir dado por la combinatoria de distribuciones de propiedades naturales. Su metafísica modal, sin embargo, es compatible con universales o tropos. Un objeto dado en un mundo posible no puede existir más que en un único mundo posible (1983; 1986 Plurality, 198-248), pero sí puede tener réplicas exactas en otros mundos posibles. Una réplica de un objeto a es un objeto que posee exactamente las mismas propiedades intrínsecas que a20. Cualquier objeto cuenta con réplicas en otros mundos posibles en los que está acompañado de otros objetos. Del mismo modo, cualquier objeto que esté acompañado de otros objetos en un mundo posible tiene réplicas en otros mundos posibles en los que no está acompañado. Los objetos a y b en un mundo posible w1 que se encuentren en una relación externa 21 R tienen réplicas en otros mundos posibles que estén en otra relación externa R. Así cualquier cosa puede darse junto o separada de cualquier otra, en la medida de que se trate de existentes diferentes. Al darse cualquier cosa junto a otra, puede ser a cualquier distancia espacio-temporal de ella (esto es, bajo 20 Para estos efectos, una propiedad P es intrínseca, si y solo si el hecho de que un objeto a posea o no posea P en un mundo posible w es independiente del hecho de encontrarse a solo o acompañado en w. Un objeto a está solo en w, si y solo si no existe ningún objeto diferente de a en w. Un objeto a está acompañado en w, si y solo si no está solo en w (Lewis y Langton; hay cualificaciones a esta definición que no interesa precisar aquí). 21 Una relación es externa, si y solo si no es interna. Una relación R es interna, si y solo si el darse de R es superveniente a las naturalezas intrínsecas de sus relata. La naturaleza intrínseca de un objeto es el conjunto de sus propiedades intrínsecas (Lewis 1986 Plurality, 61-63; 1999 25-27;; Lewis distingue en las propiedades no internas, entre externas y no externas, pero estas distinciones no serán aquí relevantes).

20

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 7-32


La noción de poder causal

cualquier relación externa). Lo que realmente limita el espacio modal es la prohibición de contradicciones verdaderas. Esta concepción del espacio modal tiene una inspiración humeana y puede ser denominada, de modo general, una concepción combinatoria del espacio modal. Lo que Lewis constituye por la distribución de propiedades intrínsecas y relaciones externas (ya que no puede darse un objeto en diferentes mundos posibles), otros actualistas lo hacen por la combinatoria de otros repertorios ontológicos. Así, por ejemplo, Armstrong recurre a totalidades de estados de cosas posibles constituidos como n-tuplas de universales y objetos (1989 Combinatorial Theory). Otros han apelado a conjuntos completos y consistentes de oraciones de un lenguaje en que la combinatoria de nombres, predicados y otros conectivos son los que generan el espacio modal. El análisis contrafáctico de la causalidad puede integrarse perfectamente en todas estas concepciones. En el análisis contrafáctico, un evento e1 causa un evento e2, si y solo si (i) e1 y e2 existen; y (ii) si e1 no hubiese ocurrido, entonces e2 no habría sucedido, ((e1 no existe)  (e2 no existe)). Hay múltiples refinamientos de este esquema básico, pero esto no interesará para lo que se discute aquí (Lewis 2004)22 . Lo fundamental del análisis contrafáctico es que los hechos causales son supervenientes a hechos de carácter no causal, ontológicamente más básicos. Uno estaría inclinado a pensar que la existencia de una conexión causal entre dos eventos e1 y e2 determina –ontológicamente– que sea verdadero un condicional contrafáctico del tipo ((e1 no existe)  (e2 no existe)), pero aquí la tesis es exactamente la opuesta. Es porque es verdadero el condicional contrafáctico ((e1 no existe)  (e2 no existe)) que hay una relación causal entre e1 y e2. Tal como se ha indicado, en la semántica de Lewis (1973, 1-43), un condicional contrafáctico es una implicación estricta restringida a una clase de mundos posibles que pueden ser calificados como suficientemente semejantes al mundo en que ese condicional está siendo evaluado. Si, en general,  se analiza como ‘ es verdadero en todos los mundos posibles’, la implicación estricta (  ) se analiza como ‘en todos los mundos posibles, o bien ¬, o bien ’. La diferencia aquí es que para un condicional contrafáctico no se consideran todos los mundos posibles, sino solo una clase restringida de mundos cercanos o semejantes. Pues bien, si se analizan los hechos causales como hechos acerca de dependencias contrafácticas (o covariaciones contrafácticas, según sea el caso), entonces es el hecho de que en ninguno de los mundos cercanos a w1 es el caso de que e2 ocurra, pero e1 no, lo que constituye el hecho de que e1 causa e2. El que un mundo posible cuente como más cercano o más lejano en la 22 Una presentación general se encuentra en Collins, Hall y Paul, 1-57.

21


Alvarado Marambio, José Tomás

métrica depende de que los mundos sean más o menos semejantes, haciendo una ponderación global de todos los aspectos de comparación. Las relaciones causales, por lo tanto, no son conexiones de los eventos considerados por las que unos producen o hacen otros. Es simplemente una cuestión acerca de la distribución de propiedades intrínsecas y relaciones externas en cada uno de los mundos posibles y luego una cuestión acerca de cuáles de esos mundos son más o menos parecidos a otros. Lo que vale para las relaciones causales actuales, vale también para las relaciones causales posibles. De acuerdo al principio (III), una propiedad F1 confiere un poder causal de hacer F2, si y solo si es posible que el estado de cosas de poseer ese objeto F1 cause que haya un F2 (en un instante de tiempo u otro). Sea un objeto a en un mundo posible w1. La propiedad F1 otorga a a en t1 el poder causal de hacer F2, si y solo si hay un mundo posible w2 en que [F1at1] cause que [F2x] para algún x y algún instante de tiempo  (  t1). En w2, tal como se ha indicado, se producirá la relación causal en cuestión, si y solo si en los mundos posibles más cercanos a w2 no es el caso que [F2x] ocurra sin que [F1at1] suceda. Nótese que en (III) no hay ninguna restricción acerca de la cercanía o lejanía de w1 y w2 . Todo lo que se requiere para que exista un poder causal es simplemente que en algún mundo posible exista la relación causal indicada, lo que viene a ser que exista una región del espacio modal de mundos semejantes entre sí con la configuración requerida. En una metafísica modal de este estilo, bajo la formulación (III), todos los poderes causales son esenciales a todas las propiedades. En efecto, la atribución de un poder causal está constituida simplemente por el hecho de que hay un mundo posible en que se causa algo, lo que a su vez es el hecho de que hay mundos semejantes a aquel en que se da la relación causal con cierta configuración semejante. En una metafísica modal combinatoria siempre hay un mundo posible en que se dan las relaciones causales requeridas. Sucede también que todos los poderes causales son esenciales a una propiedad. En efecto, un poder causal no sería esencial a una propiedad si es que hubiese un mundo posible en el que esa propiedad no confiriese tal poder a un objeto, pero para esto se requeriría que no hubiese ningún mundo posible en que el instanciar ese objeto esa propiedad cause el estado de cosas efecto. No importa lo que sea P1, por simple combinatoria de existentes diferentes hay mundos posibles, sea w1, en que un objeto a (o sus réplicas) es seguido por el poseer de otro objeto b (o sus réplicas) de otra propiedad P2 . Habrá mundos posibles suficientemente parecidos a w1 en que siempre que sea efectivo el estado de cosas causa [P1a], sea también efectivo el estado de cosas efecto [P2b] (  ). Esto es, siempre hay mundos que difieren solo infinitesimalmente de un

22

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 7-32


La noción de poder causal

mundo dado, en todos los cuales el evento causa es seguido del evento efecto, lo que fundará el condicional contrafáctico apropiado. Por ejemplo, aunque en principio parece ridículo pensar que la propiedad de proferir en un antiguo sortilegio, sea abracadabra, confiera el poder de hacer aparecer un elefante rosado, es trivial, sin embargo, que haya al menos un mundo posible en que el proferir abracadabra sea seguido de la aparición de un elefante rosado. Sea este mundo posible wi. Hay infinitos mundos posibles con diferencias infinitesimales respecto de wi, en todos los cuales alguien profiere abracadabra y aparece luego un elefante rosado. Así, en todos los mundos posibles más cercanos a wi es el caso que, o bien nadie profiere abracadabra, o bien aparece un elefante rosado. Por lo tanto, en wi es verdadero el condicional contrafáctico ((nadie profiere abracadabra)  (no aparece un elefante rosado)). Entonces, en wi el proferir un antiguo sortilegio causa que aparezca un elefante rosado y, por lo tanto, en el mundo actual, el proferir un antiguo sortilegio tiene el poder causal de hacer aparecer un elefante rosado. Por supuesto, en el mundo actual el proferir abracadabra no causa que aparezca un elefante rosado, pues en los mundos más cercanos al mundo actual no es el caso que o bien nadie profiere abracadabra o bien aparece un elefante rosado, pero todo lo que se requiere para atribuir el poder causal bajo la formulación (III) es que exista algún mundo posible, sea parecido o no al mundo actual, en que el condicional sea verdadero. Sucede, entonces, que, en una teoría modal combinatoria unida a un análisis contrafáctico de la causalidad, cualquier cosa puede causar cualquier otra. Esto es suficiente para asignar a toda propiedad todos los poderes causales23. Trivialmente, esto implica que todos los poderes causales serían esenciales a todas las propiedades pues no existirán mundos posibles en donde una propiedad no confiera algún poder causal24 La suposición de que los poderes causales constituyen las condiciones de identidad de una propiedad conduce al desastre en esta concepción. En este caso se presenta un dilema, pues o bien (a) se asume que todas las propiedades 23 Nótese que esta situación no mejora si uno supone que toda relación causal debe obedecer a una ley natural. Típicamente en este tipo de teorías modales combinatorias de inspiración humeana, las leyes naturales son simplemente regularidades de eventos o lo que resulta de las axiomatizaciones de todo lo que acaece en un mundo posible que consigan el mejor balance de poder deductivo y simplicidad. Cualquier cosa puede causar cualquier otra, pues para toda conexión causal hay mundos posibles en donde regularmente un evento del tipo causa es seguido regularmente por un evento del tipo efecto. 24 Tampoco se trata de propiedades esenciales de segundo orden de mucho interés, pues la utilidad sistemática que posee una determinación esencial es permitir excluir la identidad de una entidad con otras en diferentes mundos posibles. Si F es esencial a x, entonces todo aquello que no posea F es automáticamente diferente de x. El problema aquí es que si todas las propiedades confieren todos los poderes causales, entonces nada queda discriminado. Estas determinaciones esenciales son inservibles por triviales. Del mismo modo que una propiedad esencial trivial como [x (ser x tal que: ¬(  ¬))] no permite discriminar entre diferentes objetos pues todos los objetos posibles poseen tal propiedad.

23


Alvarado Marambio, José Tomás

confieren todos los poderes causales, o bien (b) se asume que hay poderes causales que ciertas propiedades otorgan y que otras propiedades no. En el caso (a) se debe concluir que no existe más que una única propiedad, pues todas las propiedades confieren todos los poderes causales y la identidad de una propiedad está constituida por los poderes causales que otorga. Es difícil concebir una metafísica de propiedades escasas razonable con solo una única propiedad. Si, finalmente, por ejemplo, la propiedad de tener carga eléctrica negativa es la misma de tener carga eléctrica positiva, no se ve qué utilidad tendría afirmar que esas propiedades son rasgos objetivos del mundo que determinan aspectos objetivos de semejanza y desemejanza, o que tales propiedades deben entrar en leyes naturales, o que deben aparecer en los relata de las relaciones causales. Parece obviamente más aceptable el caso (b), en donde hay poderes causales que ciertas propiedades no confieren, por lo que se podrían discriminar propiedades diferentes entre sí. El problema que aparece aquí es cómo motivar semejante restricción en el marco de la concepción general de los poderes causales que aquí se postula. Los hechos causales no son hechos ontológicamente primitivos, sino que son dependientes de otros hechos no causales acerca de lo que sucede en cada mundo posible y acerca de qué mundos posibles son más semejantes a otros mundos posibles. Los hechos modales, por otro lado, son hechos acerca de la combinatoria de un repertorio dado de elementos. Si una propiedad no confiriese un poder causal, existiría toda una región de combinaciones que estaría siendo vedada. ¿Por qué? Por supuesto, uno puede sostener que hay ciertos estados de cosas que una propiedad simplemente no puede causar, pero esto supone que hay algo a lo que tal propiedad está de suyo inclinada y hay algo a lo que no. Pero en la teoría en comento, estos son hechos que derivan de las combinaciones no contradictorias de propiedades intrínsecas y relaciones externas inertes (o de objetos y propiedades inertes, según sea el caso) y de las semejanzas entre las configuraciones resultantes. ¿Por qué habrían de ser restringidas esas combinatorias? ¿Por aquello a lo que una propiedad está inclinada? ¿Por los poderes o potencias asociadas a una propiedad? Admitir tal cosa es renunciar a la concepción modal combinatoria. Resulta, entonces, que si uno adopta una concepción de los poderes causales fundada en una metafísica modal combinatoria y una metafísica causal reductivista, la formulación (III) es desastrosa. Se haría aquí indispensable acudir a la formulación (V) para especificar qué es un poder causal. Esto es, en una concepción de este estilo es teóricamente indispensable introducir restricciones acerca de la cercanía o lejanía entre mundos posibles. Se da un poder causal a un objeto cuando en al menos un mundo posible cercano es verdadero un condicional contrafáctico tal que, si no existiese el evento causa, no

24

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 7-32


La noción de poder causal

existiría el evento efecto. Debe notarse que un poder causal es, por lo tanto, el resultado de un contrafáctico insertado (embedded) en otro contrafáctico. La forma general es la siguiente: (V*)  XYxy ((X confiere a x el poder causal de hacer [Yy] en )  (([Xx] es efectivo)  (([Xx] no existe)  ([Yy] no existe)))) Las dificultades existentes con la formulación (III) se resuelven aquí porque debe suponerse que no toda relación causal puede darse en los mundos posibles más cercanos. Es metafísicamente posible que yo, por ejemplo, cause la aparición de un elefante rosado si profiero el sortilegio abracadabra, pero se trata de mundos posibles muy lejanos al mundo actual y, de acuerdo a la formulación (V*), no cuentan para atribuirme un poder causal. Solo serán relevantes los mundos más cercanos y en ellos no hay dependencia contrafáctica entre el proferir “abracadabra” y la aparición de elefantes. Una propiedad F1, por lo tanto, estará confiriendo un poder causal para hacer que algo sea F2 en el mundo posible w, si y solo si en algún suficientemente cercano a w el estado de cosas de ser algo F1 causa que algo sea F2. Para obtener un resultado de trivialización tal como sucede con la formulación (III), se requeriría que en todos los mundos más cercanos a w F1 cause, para toda propiedad G, que algo sea G. Uno puede suponer que en una teoría modal combinatoria cualquier cosa podría cualquier otra, pero no que los mundos en que hay conexiones causales extravagantes sean cercanos. Esto es suficiente para evitar la explosión de poderes causales. Nótese cómo, si se entienden los poderes causales según (V*), no hay esperanzas para la idea de que las propiedades otorguen poderes causales de manera esencial y mucho menos para la tesis de que los poderes causales constituyen las condiciones de identidad de una propiedad. Los poderes causales que confiera una propiedad en un mundo posible son una función de qué mundos son más cercanos o más lejanos a él. Sin esa restricción, toda propiedad confiere todo poder causal. Con esa restricción, ninguna propiedad parece conceder poderes causales en todos los mundos posibles en los que esa propiedad exista. En algunos mundos posibles dará ciertos poderes, pero no en otros. En una concepción de los poderes causales fundada en el análisis contrafáctico de la causalidad y en una teoría combinatoria de la modalidad, por lo tanto, las condiciones de identidad de las propiedades no pueden estar fundadas en poderes causales. Es necesario introducir quidditates u otro recurso análogo para ello.

3.3. Poderes causales como combinaciones de estados de cosas Una alternativa para concebir los poderes causales, que parece a primera vista más moderada, es la que derivaría de una teoría combinatoria de la modalidad

25


Alvarado Marambio, José Tomás

y una teoría realista de los hechos causales. Aquí lo metafísicamente necesario y lo metafísicamente posible siguen siendo una cuestión de combinatoria de un repertorio dado de entidades, sea la distribución de propiedades intrínsecas y relaciones externas, sean las combinaciones de objetos y propiedades, o de otro modo. La diferencia fundamental con la concepción anterior es que aquí la causalidad no es dependiente ontológicamente de otros hechos más básicos. Ni las regularidades de eventos, ni las dependencias contrafácticas constituyen relaciones causales. La existencia de una conexión causal entre dos estados de cosas es un hecho ontológicamente primitivo. De acuerdo al principio (III), una propiedad F1 confiere al objeto a en t1 el poder causal de hacer F2, si y solo si hay un mundo metafísicamente posible en donde [F1at1] causa [F2x] para algún x y algún instante de tiempo . Para esto no se requiere ningún ejercicio comparativo entre diferentes mundos posibles o ninguna regularidad. Basta que la relación de causalidad entre [Xx] y [Yy] esté ahí instanciada. Como se verá, contra las apariencias, el carácter primitivo de las relaciones causales hace aquí aún más notorios los resultados que aparecieron en la concepción anterior de los poderes causales. Según la formulación (III), debido a la concepción modal combinatoria, cualquier cosa podría causar cualquier otra. Esto hace que todos los poderes causales sean trivialmente esenciales para toda propiedad. Si se asume que tales poderes constituyen las condiciones de identidad de una propiedad resultará, además, que todas las propiedades deben ser identificadas en una única propiedad. En una teoría modal de tipo combinatorio, los hechos modales se generan por la independencia que tienen entre sí las diferentes entidades, sean propiedades u objetos. Un objeto cualquiera a1 puede darse instanciando o no una propiedad cualquiera F1. Del mismo modo, puede darse instanciando o no F1 con independencia de que otro objeto a2 instancie o no otra propiedad F2 . Lewis sustituiría aquí los objetos por réplicas, indiscernibles en cuanto a sus naturalezas intrínsecas, pero la idea fundamental es la misma. Para objetos a1, a2 y propiedades F1 y F2 habrá, entonces, mundos posibles en que a1 es F1 y a2 es F2; otros en que a1 es F1 y a2 no es F2; otros en que a1 no es F1 y a2 es F2; otros, en fin, en que a1 no es F1 y a2 no es F2 . La causalidad es aquí una relación más, solamente que de orden superior, pues sus relata son estados de cosas o eventos. Para estados de cosas cualesquiera [F1at1] y [F2bt 2], suponiendo que (t1  t 2) para evitar relaciones causales retroactivas, habrá mundos posibles en que [causa, <[F1at1], [F2bt 2]>] existe y mundos en que [causa, <[F1at1], [F2 bt2]>] no existe. El darse del estado de cosas [F1at1] es independiente del darse o no darse del estado de cosas [F2bt 2] y viceversa, así como, considerando la estructura interna de esos estados de cosas, el existir del objeto a es independiente de instanciar o no la propiedad F1 en el instante t1. Del mismo

26

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 7-32


La noción de poder causal

modo, el darse de los dos estados de cosas [F1at1] y [F2bt 2] es independiente del estar el primero causando al segundo o no. Resulta, entonces, que para cualesquiera propiedades F1 y F2 hay mundos posibles en que el instanciarse de F1 causa el instanciarse de F2 . De acuerdo al principio (III), eso hace que toda propiedad confiera el poder causal para producir cualquier otra cosa. La imposición de restricciones a los poderes causales sería modificar de una manera sustantiva la concepción modal combinatoria, pues ya no cualquier cosa sería modalmente independiente de cualquier otra. Si hay estados de cosas que no pueden ser causados por la instanciación de una propiedad, entonces no es efectivo que las existencias de los estados de cosas en cuestión son independientes entre sí. Introducir esta restricción sería renunciar a la teoría combinatoria. Tal como en el caso anterior, esto hace que todos los poderes causales sean trivialmente esenciales para todas las propiedades. Si se asume que los poderes causales constituyen las condiciones de identidad de una propiedad, sin embargo, se debería concluir que todas las propiedades son una única propiedad. Es obvio, por lo tanto, que en esta concepción, tal como ha sucedido en la explicada anteriormente, se debe sustituir la formulación (III) por la formulación (V), introduciendo restricciones respecto de la cercanía o lejanía de los mundos posibles. Así, en un mundo posible w, un objeto tendrá un poder causal para realizar F, si y solo si en algún mundo cercano a w se causa F. No interesará lo que suceda en mundos posibles lejanos a w. La adopción de esta perspectiva hace que ningún poder causal sea esencial a una propiedad. Las condiciones de identidad de las propiedades deberán ser buscadas en quidditates o algo semejante.

3.4. Poderes causales primitivos Se pueden concebir los poderes causales, también, como entidades primitivas. Esto es lo que sucede si se adopta una teoría causal de la modalidad metafísica (Alvarado; con matizaciones, Borghini y Williams; Molnar 200-223; Mumford 2004 160-81). En esta teoría, un estado de cosas es metafísicamente posible, si y solo si hay alguna entidad actual en el pasado, el presente o el futuro que puede causarlo25. Esto es, los poderes causales conferidos por la instanciación de las propiedades son los que determinan el espacio de lo metafísicamente posible. Por lo tanto, aquí los poderes causales no son entidades supervenientes a otros hechos más básicos, como la combinatoria de 25 Por dualidad, un estado de cosas  es metafísicamente necesario, si y solo si no hay una entidad actual en el pasado, presente o futuro que pueda prevenir que .

27


Alvarado Marambio, José Tomás

objetos y propiedades o las relaciones de dependencia contrafáctica. La dirección de dependencia ontológica es la inversa. Es obvio que esta teoría no puede funcionar sino con una concepción realista de la causalidad. Dado que el espacio modal resulta determinado por los poderes causales, no puede asumirse que, trivialmente, toda propiedad pueda causar cualquier cosa. Lo más obviamente razonable es pensar que las propiedades poseerán ciertos poderes causales de manera esencial. Como no hay dificultades para esto, tampoco lo hay en suponer que esos poderes causales sean las condiciones de identidad de una propiedad. Es interesante considerar aquí qué sucede si los poderes causales no fuesen esenciales a una propiedad. Dada una propiedad F1 y el poder causal de producir la instanciación de F2, será posible que F1 no confiera tal poder causal. ¿Cómo podría ser esto, sin embargo? Como el poder causal de producir F2 se otorga simplemente si es que es posible que se cause F2, el único modo en que F1 no conceda el poder de producir F2 es si no es posible que F1 cause la instanciación de un F2 . Luego, si no es posible que F1 cause F2, entonces sencillamente en ningún mundo posible, incluido el actual, F1 confiere el poder de producir F2 . Esto es, es parte de la naturaleza de los poderes causales, entendidos de acuerdo a la formulación (III), que solo pueden ser dados de manera esencial por una propiedad. Si se confieren, habrán de hacerse esencialmente. La única diferencia sustantiva es si acaso estas atribuciones serán o no triviales, es decir, si hay poderes causales que alguna propiedad no confiere. Esta conclusión supone que las relaciones de accesibilidad entre los mundos posibles son reflexivas, simétricas y transitivas, por lo que todo mundo posible es accesible desde cualquier otro. Así, el único modo en que una propiedad F1 no otorgue un poder causal de producir F2 es si en ningún mundo posible F1 causa F2, lo que determina automáticamente que en ningún mundo posible F1 conferirá el poder de producir F2 . Este tipo de relaciones de accesibilidad han sido generalmente aceptadas para la modalidad metafísica (Plantinga 51-54), pero, en especial, parecen justificadas para la teoría causal de la modalidad (Alvarado 191-93). Si las relaciones de accesibilidad no fuesen simétricas o transitivas, esto es, si hubiese mundos posibles no accesibles entre sí, una propiedad F1 podría no conferir un poder causal de producir F2 en w1, porque en ninguno de los mundos accesibles a w1 F1 causa F2, aunque exista un mundo posible w2 en que F1 causa F2 . En las teorías modales combinatorias hay diversos motivos que pueden determinar el quiebre de las relaciones de accesibilidad. Por ejemplo, si las modalidades de re son asignadas por contrapartidas (como sucede en Lewis 1983), la relación de ‘ser x una contrapartida de y’ no es ni simétrica ni transitiva. Si se apela a la combinación de objetos

28

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 7-32


La noción de poder causal

y propiedades y solo se admiten como existentes propiedades instanciadas (Armstrong Combinatorial Theory), entonces las relaciones de accesibilidad serán transitivas, pero no simétricas. Supóngase que, asumiendo una teoría causal de la modalidad, se asignan a las propiedades poderes causales esenciales triviales, esto es, se asigna a toda propiedad el poder de producir la instanciación de toda propiedad. Esto haría que la teoría causal venga a ser casi coincidente con las concepciones combinatorias de la modalidad, pues la instanciación de cualquier propiedad resultará modalmente independiente de la instanciación de cualquier otra propiedad. Solo podría haber diferencias entre la concepción causal y las combinatorias si es que hubiese restricciones para el origen de un objeto, esto es, si se postulase que las condiciones de origen fuesen esenciales a un objeto o, por lo menos, si no todas las condiciones de origen fuesen aceptables para un objeto. Estas limitaciones son, al menos, ajenas al espíritu de las teorías combinatorias, pero no a la teoría causal. Con estas limitaciones no cualquier objeto podrá darse en cualquier instante de tiempo y tampoco podrá darse con cualquier antecedente causal. Sea como sea, en lo que respecta a la instanciación de propiedades universales, cualquier distribución de propiedades puede instanciarse con tal de que no sea contradictoria, tal como lo predicen las teorías combinatorias.

4. Conclusiones Se han mostrado cuatro grandes formas en que puede ser comprendido un poder causal: (i) como proyecciones de nuestra imaginación o nuestras capacidades de concebir, (ii) como semejanzas y desemejanzas entre mundos posibles, (iii) como el producto de la combinatoria de entidades independientes entre sí y (iv) como entidades primitivas. Estas diferentes alternativas sistemáticas dependen de opciones previas en la forma de comprender la naturaleza de los hechos modales y de los hechos causales. La alternativa (i) depende de una teoría modal antirrealista y la alternativa (ii) de un análisis contrafáctico de la causalidad y de una teoría combinatoria de los hechos modales. (iii), por su parte, depende de una teoría modal combinatoria, tal como (ii), pero con una concepción no reductivista de la causalidad. La alternativa (iv), por último, adopta una concepción en donde los poderes causales son ontológicamente primitivos, de tal manera que los hechos modales están constituidos por tales poderes causales y no al revés. Se ha discutido si acaso los poderes causales son esenciales a las propiedades que los confieren y si, además, constituyen sus condiciones de identidad. Lo

29


Alvarado Marambio, José Tomás

que ha mostrado el examen de la noción de poder causal, cruzando metafísica modal y metafísica de la causalidad, sin embargo, es que esta discusión no tiene mucho sentido en las alternativas (ii) y (iii). En estas teorías, o bien será trivial que toda propiedad confiera todo poder causal bajo la formulación (III), o bien será trivial que no confiera esencialmente ningún poder causal bajo la formulación (V). La adopción de una concepción combinatoria de la modalidad –el rasgo común de (ii) y (iii)– torna irrelevante la discusión acerca del carácter esencial o no de los poderes causales. La discusión acerca de las condiciones de identidad de las propiedades solo parece tener verdadera relevancia filosófica bajo la alternativa (iv), esto es, si es que los poderes causales son entidades primitivas, no reducibles a otra cosa. Aquí, existe una diferencia sustantiva entre asignar o no quidditates a las propiedades, y ambas opciones parecen no obviamente falsas.

Trabajos citados Alvarado, José Tomás. “Una teoría causal de la modalidad”. Ideas y valores (2009): 140: 173-96. Armstrong, David M. Universals and Scientific Realism. Vol. I Nominalism and Realism. Cambridge: Cambridge University Press, 1978. —.Universals and Scientific Realism. Vol. II. A Theory of Universals. Cambridge: Cambridge University Press, 1978. —. What is a Law of Nature? Cambridge: Cambridge University Press, 1983. —. Universals. An Opinionated Introduction. Boulder: Westview, 1989. —. A Combinatorial Theory of Possibility, Cambridge: Cambridge University Press, 1989. —. A World of States of Affairs. Cambridge: Cambridge University Press, 1997. Bird, Alexander. Nature´s Metaphysics. Laws and Properties. Oxford: Clarendon Press, 2007. Black, Robert. “Against Quidditism”. Australasian Journal of Philosophy 78(2000): 87-104. Blackburn, Simon. “Morals and Modals”. 1987. Metaphysics. An Anthology. Eds. Kim, Jaegwon y Ernest Sosa. Oxford: Blackwell, 1999. 634-48. Borghini, Andrea y Neil Williams. “A Dispositional Theory of Possibility”. Dialectica 62 (2008): 21-41.

30

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 7-32


La noción de poder causal

Chalmers, David. “Does Conceivability Entail Possibility?” Conceivability and Possibility. Eds. Wright, Crispin y Macdonald. Oxford: Clarendon Press, 2002. 145-200. Collins, John, Ned Hall y L. A. Paul (eds.). Causation and Counterfactuals. Cambridge, Mass.: MIT Press, 2004. Cross, Richard. “Medieval Theories of Haecceity” Stanford Encyclopedia of Philosophy, 2010 <http://plato.stanford.edu/entries/medieval-haecceity/>. Dretske, Fred. “Laws of Nature”. Philosophy of Science 44 (1977): 248-68. Ellis, Brian. Scientific Essentialism. Cambridge: Cambridge University Press, 2001. Hawthorne, John. “Causal Structuralism”. 2001. Metaphysical Essays. Oxford: Clarendon Press, 2006. 211-27. Jackson, Frank. From Metaphysics to Ethics. A Defence of Conceptual Analysis. Oxford: Clarendon Press, 1998. Kim, Jaegwon. “Events as Property Exemplifications”. 1976. Supervenience and Mind. Selected Philosophical Essays. Cambridge: Cambridge University Press, 1993. 33-52. Lewis, David. Counterfactuals, Oxford: Blackwell, 1973. —. “Counterpart Theory and Quantified Modal Logic”. 1968. Philosophical Papers. Vol. I. Oxford: Oxford University Press, 1983. 26-46. —. On the Plurality of Worlds, Oxford: Blackwell, 1986. —. “Causation”. 1973. Philosophical Papers. Vol. II. Oxford: Oxford University Press, 1986. 159-172. —. “Counterfactual Dependence and Time’s Arrow”. 1979. Philosophical Papers. Vol. II. Oxford: Oxford University Press, 1986. 32-66. —. “New Work for a Theory of Universals”. 1983. Papers in Metaphysics and Epistemology, Cambridge: Cambridge University Press, 1999. 8-55. —. “Causation as Influence”. 2000. Eds. Collins, Hall y Paul. Causation and Counterfactuals. Cambridge, Mass.: MIT Press, 2004. 75-106. Lewis, David y Rae Langton. “Defining ‘Intrinsic’ ”. 1998. Lewis, D. Papers in Metaphysics and Epistemology. Cambridge: Cambridge University Press, 1999. 116-32. Martin, Charles. “Dispositions and Conditionals”. Philosophical Quarterly 44 (1994): 1-8.

31


Alvarado Marambio, José Tomás

Mellor, D. H. The Facts of Causation. London: Routledge, 1995. Molnar, George. Powers. A Study in Metaphysics. Oxford: Oxford University Press, 2003. Mumford, Stephen. Dispositions. Oxford: Oxford University Press, 1998. —. Laws in Nature. London: Routledge, 2004. Plantinga, Alvin. The Nature of Necessity. Oxford: Clarendon Press, 1974. Prior, Elizabeth, Robert Pargetter & Frank Jackson. “Three Theses about Dispositions”. American Philosophical Quarterly 19 (1982): 251-257. Ramsey, Frank P. “General Propositions and Causality”. The Foundations of Mathematics and Other Logical Essays. Eds. R. B. Braithwaite. London: Routledge & Kegan Paul, 1931. 237-55. Schaffer, Jonathan. “Quiddistic Knowledge”. Philosophical Studies 123 (2005): 1-32. Shoemaker, Sydney. “Causality and Properties”. 1980. Identity, Cause, and Mind. Philosophical Essays, Oxford: Clarendon Press, 2003. 109-35. —. “Causal and Metaphysical Necessity”. 1998. Identity, Cause, and Mind. Philosophical Essays, Oxford: Clarendon Press, 2003. 407-26. Swoyer, Chris. “The Nature of Natural Law”. Australasian Journal of Philosophy 60 (1982): 203-23. Santo Tomás de Aquino. De ente et essentia obtenido de Opera omnia, http:// www.corpusthomisticum.org. Tooley, Michael. “The Nature of Laws”. Canadian Journal of Philosophy 7 (1977): 667-98. —. Causation. A Realist Approach. Oxford: Clarendon Press, 1987.

32

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 7-32


L as bases epistemológicas de la ciencia moderna convencional1, 2

Epistemological bases of conventional modern science Luis Fernando Gómez3 & Leonardo Ríos-Osorio4,5

R esumen Dentro de diferentes campos académicos, como los de corte ecologista o posmoderno, se han hecho fuertes críticas a las bases epistemológicas de la ciencia moderna convencional. Sin embargo, dichas bases se encuentran esparcidas en la literatura con pocos intentos de presentarlas de manera sistemática y relativamente completa. En consecuencia, el presente artículo pretende recoger las diversas bases epistemológicas de la ciencia moderna convencional que se encuentran dispersas y hacer una caracterización general y más amplia de la que se suele encontrar en la literatura. Palabras clave: Ciencia moderna hegemónica, principios de la ciencia moderna convencional, método científico

A bstract There is a strong tradition in ecologism that argues that conventional modern science is unsuitable for explaining the current environmental crisis. Therefore it states it is necessary to develop a new science grounded in epistemological bases different from those of conventional modern science. Although some of the epistemological bases of conventional modern science are mentioned in several publications, attempts to present them in an orderly and complete way have not been found. As a result, the present paper aims at compiling the epistemological bases of conventional modern science scattered in the literature and present them in a systemized way. Key words: Hegemonic modern science, principles of conventional modern science, scientific method

1 Recibido: 16 de septiembre de 2014. Aceptado: 10 de noviembre de 2014. 2 Este artículo se debe citar como: Gómez, Luis & Ríos, Leonardo. “Las bases epistemológicas de la ciencia moderna convencional”. Rev. Colomb. Filos. Cienc. 14.29 (2014): 33-56. 3 Departamento de Ciencias Sociales, Universidad de Ciencias Aplicadas y Ambientales (U.D.C.A.), Bogotá. Correo: luis.fgomez@udca.edu.co 4 Escuela de Microbiología, Universidad de Antioquia, Medellín. 5 Bogotá, Colombia.


Gómez, Luis Fernando & Ríos-Osorio, Leonardo

1. Introducción La búsqueda de soluciones a los actuales problemas ecológicos ha conducido a que personas tanto desde la filosofía como desde la ciencia afirmen que la ciencia hegemónica no es adecuada para enfrentar la actual crisis ecológica. Se argumenta que esta se ha construido bajo unas bases epistemológicas que simplemente no son capaces de abordar las características de las dinámicas ecológicas (Noguera 2004; Gliessman 2007; Naredo 2010; Morin 2011). Sin embargo, no se encuentra en estos textos un intento de dar una descripción sistemática de los elementos que constituyen las bases epistemológicas de la ciencia convencional. Por otra parte, escritos desde la filosofía y la historia de la ciencia que se han ocupado de distinguir la ciencia moderna convencional o hegemónica tampoco hacen una caracterización amplia de sus rasgos fundamentales, describiéndola parcialmente y de maneras diferentes en función de los puntos que están interesados en resaltar (Fragio 2011). Por ejemplo, Hilary Putnam (1966) la equipara con la propuesta del positivismo lógico, centrándose principalmente en los aspectos lógicos y lingüísticos de la imagen. Por su parte, Hector Palma (1998) avanza al señalar que la imagen heredada de la ciencia –nombre que le da Putnam (1966) a la ciencia hegemónica- no se restringe a la del positivismo lógico, así sea uno de sus grandes exponentes y defensores, pero hace una caracterización muy general que pasa por alto importantes aspectos metodológicos, al igual que no hace mención de los posibles principios centrales que la rigen. Como resultado lo que se encuentra en la literatura no es una lista completa o amplia de las bases epistemológicas de la ciencia moderna convencional, sino elementos desperdigados a través de diferentes autores y textos provenientes de diversos campos. La presente reflexión parte de la hipótesis de que no se ha realizado una caracterización amplia de la ciencia moderna convencional, lo que dificulta el análisis de la crítica que desde el pensamiento ecologista se quiere hacer a ésta. Por esto, este artículo tiene como objetivo describir las bases epistemológicas de la ciencia convencional, sin pretender dar una lista completa pero esperando servir como un modelo que permita una mejor crítica a la ciencia moderna convencional o al planteamiento de alternativas a esta.

2. L as bases epistemológicas de la ciencia moderna convencional

La pregunta rectora del presente artículo es cuáles son los rasgos distintivos de la ciencia moderna convencional, i.e., aquella forma de hacer ciencia que se fue

34

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 33-55


Las bases epistemológicas de la ciencia moderna convencional

constituyendo como hegemónica y que se presenta como la forma adecuada de hacer ciencia –guiando los criterios para el diseño de programas académicos, la aceptación de textos en revistas científicas y de proyectos de investigación en instituciones reguladoras y patrocinadoras de la actividad científica, entre otras dinámicas-, y frente a la cual se oponen otras propuestas como la sistémica, la posmodernidad, la decolonialidad e incluso ciertas tendencias dentro del feminismo académico. Así, lo que aquí se busca saber no es, como en el caso de Thomas Kuhn (2004), qué distingue un campo o disciplina científica particular sino, por el contrario, cuáles son los elementos comunes que hacen que una teoría científica pueda distinguirse como moderna convencional. Dichos elementos son aquí llamados bases epistemológicas porque son estos de los que parte cualquier práctica científica para estructurar la manera como conoce su objeto de estudio. Dichos elementos no poseen las mismas funciones o son de un mismo tipo, por lo que han sido agrupados en cinco clases o aspectos generales, los cuales estructuran la presente caracterización.

2.1. Aspectos lógicos Leonardo Boff (2002) señala que dentro de la modernidad hegemónica, existen por lo menos tres tipos de lógica. La primera es la lógica de la identidad, la cual parte del supuesto de que el mundo está constituido por entidades autónomas que se explican a sí mismas. Esta es la lógica que subyace a la imagen hegemónica de la ciencia, en la que esta es autosuficiente y se explica a sí misma. Precisamente esta lógica postula que el entorno no afecta a un objeto y por eso puede estudiarse aislado. Asimismo, es una lógica universalista y ahistórica, pues al considerar únicamente al texto, desconoce su contexto. La segunda es la lógica de la diferencia, la cual define objetos o fenómenos en función de otros. Un ejemplo es la categoría de discapacidad que clasifica una gran variedad de personas con respecto a una idea de persona capaz o «normal», generando un modelo o referencia desde el cual las configuraciones corporales que no se ajusten a ella son vistas como desventajosas y como estructuras incompletas –poseedoras de alguna carencia- del cuerpo humano «verdadero», «normal» o «auténtico». Su definición de objetos y procesos en función de otros se da mediante la oposición, generando dualismos como biológico/cultural, natural/artificial o sexo/género, en los que un término es el opuesto del otro y por lo tanto son entidades separadas e incomunicadas. Así, desde esta lógica, la biología no tiene nada que ver con la cultura, el género no afecta al sexo, y los seres humanos son los únicos que alteran su entorno –i.e. lo artificializan-. La tercera es la lógica dialéctica, que hace una especie de confrontación entre las dos anteriores para obtener una síntesis. Esta lógica no es relevante dentro

35


Gómez, Luis Fernando & Ríos-Osorio, Leonardo

del pensamiento científico ortodoxo contemporáneo. Por ejemplo, Karl Popper (1974 408) la rechazó por reconocer la contradicción, pues “si uno aceptara la contradicción, tendría que renunciar a toda actividad científica”, ya que admitir contradicciones “significaría un total desmembramiento de la ciencia”, y llevaría a que “todo planteamiento tiene que ser aceptado”. No obstante, incluyo la dialéctica porque ha sido la base lógica de las teorías de cuño marxista, que si bien no hacen parte del pensamiento moderno hegemónico, son la contraparte ortodoxa que ha conducido a procesos reformistas en vez de radicales, particularmente en lo que respecta a la ciencia.

2.2. Aspectos delimitantes Ya desde René Descartes (1992) se puede apreciar una lucha de la ciencia por desterrar del mundo que ella dice describir ciertos discursos que han sido tradicionales en el mundo europeo. El primero y más fundamental, es la exclusión de lo sobrenatural. Efectivamente, una de las características más distintivas de la ciencia hegemónica, y que por lo general se pasa por alto, es que se ocupa exclusivamente de fenómenos u objetos no sobrenaturales –mundanos-, al igual que proscribe toda explicación que recurra a causas sobrenaturales. Esto ha venido acompañado de un intento continuo de separarse de la metafísica, que si bien no es lo mismo, parece sospechosamente cercana. La idea de que la metafísica no tiene cabida en el discurso científico es de larga data (Westfall 2007). Por ejemplo, Otto Neurath (1973 307), dentro del positivismo lógico, afirmaba tajantemente que “la concepción científica del mundo rechaza toda filosofía metafísica” (1973 307). Asimismo, Karl Popper (1985) distinguió entre enunciados universales y existenciales, anotando que los primeros son propios de la ciencia, mientras los segundos son metafísicos. La lucha por la expulsión de la metafísica de la empresa científica involucró una reflexión sobre el lenguaje. Para que la ciencia pudiera efectivamente deshacerse de la metafísica y «mantener a raya» otros elementos indeseables de otras esferas de las visiones del mundo humanas, el lenguaje que emplea tenía que ser estrictamente controlado y concebido de una manera particular. Así, la concepción ortodoxa de la ciencia creó una idea del lenguaje como medio pasivo que se limita a describir el mundo. De esta manera, el lenguaje científico no es poético y en consecuencia, la práctica científica no es exegética y el científico ejerce únicamente el papel de observador. Justamente, diversos autores han eliminado la agencia humana de la ciencia planteando que esta última no interpreta sino que describe el mundo objetivo, pues se ocupa de entidades naturales que son ahistóricas y no problemáticas, y que se le presentan de modo espontáneo y determinado (Fragio 2011). Precisamente, Karl Popper

36

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 33-55


Las bases epistemológicas de la ciencia moderna convencional

habló de un “Mundo Tres”, el de la ciencia, constituido por el conocimiento objetivo, el cual “es totalmente independiente de toda pretensión individual de saber; también es independiente de toda creencia, preferencia personal, o de toda aprobación o acto”, es decir, es un “conocimiento sin un sujeto cognoscente” (1974 109). Esta limitación del lenguaje dentro de la ciencia hegemónica no se restringió a la creación de un estilo de escritura en el que el agente desaparece a través del uso de la voz pasiva y otras tecnologías literarias, pues a su vez ha pasado por diversos intentos por restringir el tipo de enunciados que componen el discurso científico. En primera instancia, la visión convencional de la ciencia moderna a través del positivismo lógico, intentó limpiar el discurso científico planteando la reformulación de las teorías científicas en términos de enunciados analíticos únicamente. Esta tecnología literaria fracasó y Karl Popper (1974; 1985) la reemplazó por una reformulación de teorías e hipótesis exclusivamente en términos de enunciados universales, al igual que le dio prominencia a la función descriptiva del lenguaje por encima de la argumentativa, asumiendo que cada una está escindida de la otra. Asimismo, la historia del empirismo ha sido la de la construcción de un discurso impersonal a través de la matematización de hipótesis y leyes, en la que el lenguaje matemático se ha visto históricamente como el lenguaje propio de la ciencia –y del mundo, como se ha dicho desde Galileo-. Estos esfuerzos de depuración literaria parten del supuesto de un acceso no mediado por el lenguaje al mundo material –aspecto metafísico que se tratará más adelante- que implica la creencia de que el lenguaje es un medio pasivo de comunicación de ideas, pensamientos y observaciones y no un sistema generador de dichos procesos. Esta concepción del lenguaje ve a este último como un proceso originalmente literal y secundariamente metafórico, de donde se deduce que la metáfora puede ser evitada o por lo menos confinada al «contexto de descubrimiento» (Quine 1951). La creencia en un lenguaje literal encierra la práctica científica en sí misma, separándola del resto de la Weltanschauung moderna hegemónica. De esta manera, la ciencia se las ve únicamente con el mundo material, siendo un compartimento estanco que no tiene contacto directo con las demás esferas de la agencia humana. Así, la visión hegemónica de la ciencia la presenta como una empresa neutra en la que los conflictos teóricos solo responden a aspectos lógicos y empíricos, por lo que siempre se pueden solucionar recurriendo a la realidad, negando así todo sesgo particular, interés político, creencia religiosa, moral, cultural o ética pues, como señaló Karl Popper (1981), ella es conocimiento sin sujeto cognoscente.

37


Gómez, Luis Fernando & Ríos-Osorio, Leonardo

Asimismo, la lucha contra la metafísica condujo a la imagen de una ciencia que sólo se ocupa de hechos empíricos, afirmando que lo que se percibe por los sentidos o mediante instrumentos es lo que da fundamento a nuestro conocimiento. Esta es la base del empirismo, que prioriza la visión, fundando una visión del mundo ocucéntrica y una epistemología proobservación, restándole importancia a las explicaciones por considerarlas metafísicas (Hacking 1996). La imagen ortodoxa al limitar la ciencia al contexto de justificación, la circunscribe esencialmente a sus aspectos básicos y teóricos, separándola tajantemente de su aplicación. Por ejemplo, Alan Sokal y Jean Bricmont advierten que la ciencia debe entenderse como “un empeño intelectual por entender el mundo”, y no confundirla con “la ciencia aplicada y la tecnología” (1999 220). Igualmente, Bunge (1992) escribe que ciencia y técnica son campos distintos y no deben confundirse. Por su parte, Karl Popper (1997) habla de “ciencia pura”, que distingue de su aplicación, y señala que esta tiene como objetivo general “la búsqueda de la verdad”. La ciencia básica tiende a su vez a restringirse a la ciencia natural. Precisamente, en el mundo anglosajón, en el siglo XIX el término ciencia comenzó a ser restringido a las ciencias experimentales (Hayek 1942). G.H. von Wright (1971), quien ha confinado la ciencia a las ciencias naturales, ha hecho hincapié en que la filosofía de la ciencia ha construido su imagen de la ciencia con base en la metodología de las ciencias naturales y en los fundamentos de las matemáticas. No obstante, y este autor lo reconoce, la imagen convencional de la ciencia ha ido incorporando a las ciencias sociales pero bajo la idea de que deben tomar a la física como paradigma. Esto ha conducido a una idea de las ciencias sociales en que ellas deben regirse por los mismos principios, objetivos y métodos de las ciencias naturales y en las que estas son presentadas como ciencias aún «inmaduras» que necesitan un mayor refinamiento. Precisamente Craig Dilworth (2006 ubic. 135) apunta que si se concibe la ciencia como una empresa en cuyo centro se encuentran unos principios que la definen y rigen su desarrollo, se puede imaginar a la física y la química más cercanas a este centro –pues la aplicación de dichos principios han tenido mayor éxito en estos campos-, “mientras la biología se encuentra más alejada del centro, y las ciencias sociales aún más”. Por último, la ciencia hegemónica opera a través de círculos de inclusión y exclusión, en lo que la validez de una teoría, resultado o hipótesis es función de su entrada y aceptación dentro de los círculos más interiores (De Greiff 2012). La publicación en ciertas revistas, la vinculación con ciertos centros o grupos de investigación o instituciones académicas son requerimientos indispensables para ser aceptado y avalado por la comunidad científica. Si una

38

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 33-55


Las bases epistemológicas de la ciencia moderna convencional

propuesta no se realiza en algunos de estos espacios no hará parte del registro científico. En la actualidad, mecanismos como el factor de impacto, acreditaciones y clasificaciones nacionales e internacionales restringen los espacios en los que se crea y publica la ciencia (Simons 2008). Igualmente la ciencia moderna se constituyó en tres idiomas –inglés, alemán y francés- que hoy día se están reduciendo al inglés, en el caso de textos que circulan a nivel global y no local (Mignolo 2003; Ortiz 2009).

2.3. Aspectos metafísicos Aunque la expulsión de todo elemento metafísico de la ciencia moderna ha sido uno de los objetivos de la posición hegemónica, la ciencia requiere de la metafísica, pues sin un nivel metacientífico no es posible darle sentido y coherencia a esta práctica. En el caso de su concreción moderna convencional, Craig Dilworth (2006) menciona tres principios centrales trascendentales que rigen y guían la práctica científica. Este autor, siguiendo a Kant, señala que la metafísica se puede concebir como constituida por dos aspectos principales, que llama el «trascendente» y el «trascendental». El primero denota aquello que se encuentra más allá de todo dominio accesible como el conocimiento, la experiencia o el lenguaje. Por su parte, el aspecto «trascendental» de la metafísica comprende las convicciones más profundas que una persona tiene sobre la naturaleza de la realidad, y las cuales conforman las precondiciones para la manera en que ella experimenta el mundo. Así, para Dilworth, y en el caso de la ciencia, existen unos principios que deben poseer los científicos acerca de la naturaleza misma de la realidad. Ya que son los presupuestos básicos a partir de las cuales los científicos experimentan el mundo, “no pudieron haber resultado de la empresa científica”, sino que la anteceden, por lo que son “precientíficas o metacientíficas” (2006 ubic. 93), y por lo tanto son trascendentales y se encuentran en la base misma de la ciencia. Además son centrales y no periféricos porque son ellos los “que hacen que la ciencia sea como es y no de otra manera” (2006 ubic. 101), es decir, son principios ontológicos que permiten distinguirla a lo largo de su historia, a pesar de ser una práctica altamente dinámica y heterogénea. El primer principio es el principio de la uniformidad de la naturaleza, el cual postula que “estados similares de la naturaleza son seguidos por estados similares” (2006 ubic. 679), i.e. el cambio en el mundo responde a leyes. Este principio concibe el mundo de forma determinista, aunque su determinismo no es necesariamente estricto, y de él se deriva la búsqueda de leyes y la postulación de la predictibilidad como una de las características fundamentales de la ciencia moderna convencional. Asimismo, el principio de la uniformidad de

39


Gómez, Luis Fernando & Ríos-Osorio, Leonardo

la naturaleza es el principio legal de la ciencia moderna, pues las leyes empíricas de cada disciplina no son más que concreciones de este, es decir, la forma que adopta en casos particulares. En consecuencia, las diversas disciplinas no se diferencian por buscar o enunciar leyes diferentes, sino por ocuparse de sustancias u objetos distintos. El segundo principio es el principio de sustancia, que afirma que “la sustancia existe de forma perpetua y el cambio no es más que una trasformación de la sustancia” (2006 ubic. 695). Este principio refina la idea cartesiana de res extensa al señalar que la materia toma diversas formas, al mismo tiempo que manifiesta la expulsión de lo sobrenatural del mundo material. Igualmente, el principio de sustancia genera una jerarquía ontológica entre disciplinas científicas en la que la sustancia de la física está en la base de todas, seguida de la sustancia de la química, la biología y finalmente la de las ciencias sociales. En consecuencia, las ciencias están diferenciadas, en primer lugar, por la sustancia de la cual se ocupan. De esta suerte, la física se caracteriza por ocuparse de la energía –que involucra el movimiento de los cuerpos-; la química, de la materia; la biología, de la vida, y así sucesivamente. El tercer y último principio central de la ciencia moderna ortodoxa según Dilworth (2006), es el principio de causalidad, que “establece que el cambio es causado” (2006 ubic. 716). Así, para la ciencia moderna, todo pasa por algo, y la identificación de ese algo es lo que constituye una buena parte de las explicaciones científicas. Se debe recordar que en la empresa científica todas las causas son mundanas, i.e. no sobrenaturales, aunque no necesariamente físicas, como sucede con las causas formales. Igualmente las causas para la ciencia moderna son eficientes –i.e. que producen algo-, a diferencia de la concepción aristotélica en la que eran finales –i.e. que se producen o existen para algo-. Además, este principio en su forma ortodoxa implica el principio de contigüidad, el cual estipula que las causas de un fenómeno están siempre adyacentes a sus efectos, excluyendo así toda acción a distancia. Estos tres principios centrales en su concepción ortodoxa involucran otros dos principios o ideas que es necesario mencionar. El primero, que está relacionado con el principio de causalidad y que podríamos llamar principio de unidireccionalidad causal, establece que el efecto producido por una causa no influye apreciablemente en ella (Bunge 2006). El segundo tiene que ver con el principio de la uniformidad de la naturaleza, y establece que todo evento E0 está compuesto de pocos elementos o relaciones simples, por lo que tiene una configuración relativamente homogénea que hace que siempre que ocurra será sucedido de un evento E1. En otras palabras, para afirmar –como se deriva del principio de la uniformidad de la naturaleza- que ocurrirá E1 siempre que suceda

40

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 33-55


Las bases epistemológicas de la ciencia moderna convencional

E0, se debe suponer que estos eventos son lo suficientemente simples –aunque no necesariamente lineales- como para esperar que desencadenen el mismo tipo de efectos. Este presupuesto puede llamarse principio de simplicidad. Según Craig Dilworth (2006), los principios centrales realizan cuatro funciones dentro de la empresa científica. En primer lugar, ellos establecen lo que se debe comprender como necesario o posible, tanto dentro de la práctica en general como para cada una de las disciplinas científicas. En segundo lugar, los principios centrales son los encargados de organizar la racionalidad científica, al delimitar el pensamiento científico mediante el establecimiento de límites que señalan qué puede considerarse posible dentro de esta práctica. En tercer lugar, ellos dictan los presupuestos sobre los que descansa la actividad científica, determinando así su metodología. Por último, los principios centrales también tienen la función de operar como modelo para las definiciones básicas tanto de la práctica científica en general como de sus disciplinas. Fuera de la dimensión trascendental del aspecto metafísico de la ciencia, a la que pertenecen los principios centrales, existe una dimensión trascendente que denota aquello que se encuentra más allá de todo dominio accesible como el conocimiento, la experiencia o el lenguaje (Dilworth 2006). Para la ciencia moderna convencional lo trascendente corresponde al mundo objetivo, entendido como realidad independiente de la agencia humana (Maturana 2002). Esta afirmación trae otro presupuesto implícito, que es la creencia de que los seres humanos tenemos la capacidad de hacer referencia a entidades independientes de nosotros, es decir, que están determinadas, para emplear un concepto de la mecánica cuántica. Este presupuesto metafísico podría llamarse entonces, objetividad trascendente. La objetividad trascendente es el presupuesto metafísico legitimador de la empresa científica. “Si no hay verdades objetivas, la ciencia no tiene nada de particular” (Bunge 1992 39). La ciencia convencional, apoyada en la convicción de la posibilidad de acceso al mundo tal como es, se presenta como práctica que logra liberarse de las creencias y la agencia humana al recurrir a la realidad como árbitro final para validar sus hipótesis. Así, este presupuesto legitima la idea de una ciencia neutra y de enunciados universales. Esto se puede ver en Alan Sokal y Jean Bricmont (1999 215), quienes afirman que en la práctica científica, al confrontarse con la realidad mediante la confirmación experimental, “las cualidades personales de los científicos y sus creencias no tienen la menor pertinencia para la evaluación de sus teorías”, o en Jesús Mosterín, quien se deshace de las esferas humanas al señalar que “en ciencia, el hombre propone y la realidad (a través de la experiencia) dispone”, concluyendo que “en último término, sola (sic) la realidad nos informa acerca de la realidad” (2001 49).

41


Gómez, Luis Fernando & Ríos-Osorio, Leonardo

Ligada a esta objetividad trascendente, al principio de la uniformidad de la naturaleza, y a las dos lógicas preponderantes en la ciencia ortodoxa se encuentra la idea de esencias u entidades ontológicas. Tal es la centralidad de esta concepción no sólo en la ciencia sino en la modernidad en su conjunto, que las lenguas modernas indoeuropeas orbitan alrededor del verbo ser (Levinas 1999). Este esencialismo está a su vez relacionado con la idea de naturaleza, la cual ha jugado un papel central en la ordenación del mundo moderno. Este término que es polisémico, hace parte de varias dicotomías tales como natural/sobrenatural, naturaleza/cultura, natural/artificial, heredado/adquirido, inevitable/modificable, que hacen ambiguo su empleo. Entre estos dualismos se cuenta el res cogitans/res extensa, el cual ha sido crucial en la escisión del ser humano de su entorno, que privilegia la mente sobre el cuerpo y que frecuentemente sostiene que la primera es independiente del segundo, y que también ha creado la idea de un mundo prístino que no interactúa con las poblaciones humanas y que de cierta manera es mejor o más deseable que uno que ha entrado en interacción con estas. Relacionado con los elementos trascendentes anteriores se encuentra el monismo. Aunque este también se da a nivel metodológico, mediante la creencia en la existencia de un único método en la ciencia –como se verá más adelante-, este es un aspecto con una fuerte base metafísica. En el caso de la ciencia, el monismo es epistemológico y generalmente ha tomado dos formas, una racional que sostiene que los seres humanos tenemos capacidades cognitivas y perceptivas semejantes, y otra empírica que recurre a la naturaleza misma de las cosas para afirmar que todas las personas habitamos un mundo común (Echeverría 2008). El monismo epistemológico conduce a la creencia en la unidad del conocimiento, i.e. que hay una sola forma correcta de categorización del mundo, y por lo tanto a la convicción de que el consenso no solo es posible sino indispensable e inevitable dentro de la práctica científica (Niinilouto 1994). El monismo epistemológico exige la búsqueda de teorías únicas totalizantes en la práctica científica. Este descansa actualmente en la idea de falsabilidad, la cual señala que dos hipótesis no pueden dar cuenta del mismo hecho y por eso, el «Tribunal de la realidad» a través de la constante experimentación y puesta a prueba irá eliminando textos rivales para al final dejar uno único. Esta idea es recurrente en la ciencia hegemónica después de Karl Popper y se ha materializado en metáforas que muestran las hipótesis como organismos que compiten entre sí para que al final quede una única sobreviviente, o que pintan la historia de la ciencia como un cementerio lleno de hipótesis y teorías que fracasaron en su intento de representar correctamente la realidad, que

42

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 33-55


Las bases epistemológicas de la ciencia moderna convencional

develan una concepción monista del mundo en la que puede haber solo una representación válida –«verdadera» en el lenguaje convencional- del mundo. Todos estos elementos trascendentes ubican a la verdad en el centro de la imagen convencional de la ciencia. A través de todo el siglo XX, las personas defensoras de esta imagen han ido construyendo una idea de ciencia que se define por una verdad trascendente. Karl Popper llama al conocimiento científico “conocimiento verdadero” (1974) y afirma que la responsabilidad distintiva del “científico puro” es “la búsqueda de la verdad” (1997 123); Mario Bunge (2006 20) señala que la ciencia “busca alcanzar la verdad fáctica”; David Papineau (1994 305) escribe que “la finalidad de las creencias científicas es la de ser verdaderas” y agrega que ellas “tratan de representar el mundo tal como es”; Fernando Broncano (1994 278) asegura que “no podemos entender el objetivo de la investigación, y con ello el mismo fundamento de la institución científica, prescindiendo de la verdad como valor irreductible a otros”; y David Shumway y Ellen Messer-Davidow (1991 217) escriben que desde el siglo XIX, las filosofías de la ciencia en su búsqueda de un criterio de demarcación entre prácticas científicas y no-científicas, “si bien no niegan que otras disciplinas pueden tener algunas de las características de la ciencia, afirman que dichas disciplinas carecen del único requerimiento para el estatus científico, «la verdad»”.

2.4. Aspectos metodológicos En décadas recientes se ha dado una amplia discusión acerca de la existencia del método científico, el cual varios autores han identificado como el aspecto distintivo de la ciencia convencional (Bunge 2006; Westfall 2007). Sin embargo, otros sostienen que no hay un paradigma único, entendido como manera de hacer las cosas, que se ajuste a todas las prácticas científicas ortodoxas (Putnam 1994). Por su parte, autores que defienden la existencia del método difieren en su identificación, algunos señalando al método hipotético-deductivo como el método de la ciencia, otros a la inducción, y otros simplemente hablan de un «método experimental» (Ruiz y Ayala 2000; Westfall 2007). Además, estos autores no hacen una descripción pormenorizada o sistemática de dicho método. Por ejemplo, Carl Hempel (1979) escribe que si bien la inducción puede ser el método de la ciencia ortodoxa, no existe una formulación de éste como procedimiento mecánico -así sea de forma general- y, por lo tanto, no hay unas «reglas de inducción» universalmente aplicables que conduzcan a la generación de teorías o hipótesis a partir de datos o hechos empíricos. Mario Bunge coincide con Hempel al aceptar la imposibilidad de plantear un procedimiento mecánico para toda la práctica científica, señalando que “lo que hoy

43


Gómez, Luis Fernando & Ríos-Osorio, Leonardo

se llama «método científico» no es ya una lista de recetas para dar con las respuestas correctas a las preguntas científicas” (2006 64). A pesar de estas diferencias, varios académicos señalan la ciencia experimental, como práctica general y no como método particular, como el paradigma propio de la ciencia moderna hegemónica (Haraway 1989; Bunge 2006). Así, ésta es presentada bajo un modelo planetario, en el que las prácticas experimentales están en el centro y alrededor se distribuyen aquellas ciencias que no contrastan sus hipótesis y teorías mediante el diseño experimental, estando más alejadas aquellas que tienen el menor control sobre su objeto de observación y su entorno. Omid Nodoushani (1999) distingue como los componentes principales del método experimental la toma de muestras, la cuantificación, el análisis matemático, la prueba de hipótesis derivadas de unas posibles leyes, el uso de herramientas estadísticas y el diseño de experimentos. De manera similar, Mario Bunge (2006 33) anota que la experimentación científica “requiere la manipulación, la observación y el registro de fenómenos; requiere también el control de las variables o factores relevantes; siempre que sea posible debiera incluir la producción artificial deliberada de los fenómenos en cuestión, y en todos los casos exige el análisis de los datos obtenidos en el curso de los procedimientos empíricos”. El establecimiento de la experimentación como base epistemológica de la ciencia por parte de la imagen hegemónica ha sido de una fuerza tal que ha cambiado profundamente la idea de hecho. Como mencionamos en los aspectos metafísicos, el hecho es uno de esos elementos trascedentes que conforman el principio legitimador de la ciencia, pero los hechos que han venido a constituir la base de la ciencia no son aquellos presentes en el mundo objetivo para ser descubiertos mediante la observación, sino los que emergen producto de la experimentación, i.e. los resultados experimentales (Chalmers 2006). No obstante, existe una serie de elementos anteriores que han determinado cómo se observa, cómo se registra y cómo se estudia dentro la ciencia experimental, los cuales generalmente son transparentes a los filósofos de la ciencia, pero que constituyen el componente procedimental de las bases epistemológicas de la ciencia convencional. Hablamos de componentes procedimentales y bases epistemológicas porque estos indican la forma en que debe manipularse el mundo y los sistemas teóricos para hacer inferencias y desempeñarse adecuadamente en la práctica científica. De esta manera, las bases epistemológicas son aquellos elementos del paradigma científico hegemónico -entendido como el conjunto de operaciones aceptadas y comunes entre los practicantes de la ciencia convencional- sobre los que reposa y se alimenta todo su ejercicio (Imershein 1977). Así, las bases epistemológicas no son específicas de ninguna disciplina,

44

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 33-55


Las bases epistemológicas de la ciencia moderna convencional

sino que son aquellas pautas, protocolos y formas de justificar y legitimar las creencias científicas generales de las que se derivan las pautas, protocolos, y demás elementos praxiológicos y conceptuales de las disciplinas particulares. El primer elemento praxiológico sobre el que reposa la ciencia moderna ortodoxa es la analítica. Esta se puede rastrear hasta René Descartes (1992), cuyo método está constituido únicamente de cuatro preceptos, de los cuales uno es el análisis. Este se puede entender como el ejercicio de dividir un fenómeno, proceso u objeto de estudio en sus partes o elementos constitutivos con el fin de estudiar cada uno por separado. Este método parte del supuesto de que el todo es la suma de las partes y por eso el estudio de cada una de ellas conduce a la comprensión total, vía síntesis. Esta herramienta es una base tan fundamental del edificio científico convencional que constituye el enfoque mismo de éste, como sugiere la descripción cotidiana de la actividad científica que frecuentemente recurre a ella en su forma sustantiva o verbal. Precisamente Karl Popper (1981 88) ve el análisis como un procedimiento consustancial a la actividad científica hasta el punto de afirmar que una unidad o fenómeno como totalidad “no puede ser objeto de investigación científica”, y Mario Bunge (2006 24) señala que la ciencia empírica entiende y explica “toda situación total en términos de sus componentes”. El experimento es el procedimiento analítico por antonomasia de la ciencia moderna hegemónica. En él el objeto o fenómeno a estudiar es separado de su entorno regular. Esto se lleva a cabo mediante el diseño de equipos y espacios –el laboratorio- en el que el entorno es controlado y así se impide que se den otros fenómenos u objetos simultáneamente. Un ejemplo clásico es el estudio de los gases que condujo a la formulación de las leyes clásicas de estos. En el caso de la ley de Boyle, lo que se hizo fue estudiar la relación entre volumen y presión para un gas, para lo que se requería el control de las propiedades –difusión, expansión, densidad- de dicho gas, el entorno y otras magnitudes como la temperatura. Por esto, la ley de Boyle estipula explícitamente que ella se da a temperatura constante y que se refiere a gases secos. De esto, se deduce que la ciencia ortodoxa, por su carácter analítico, tiende a formular leyes que son ceteris paribus (Cartwright 2002). El análisis fuera de ser herramienta praxiológica es tecnología teórica. La filosofía de la ciencia convencional –e incluso la planteada por Thomas Kuhn (2004)- ve la empresa científica como constituida por hipótesis que se pueden confirmar o refutar de manera aislada, desconociendo que hacen parte de una red de textos (Quine 1951). Esta concepción ha significado que la ciencia hegemónica conste de investigaciones empíricas que ponen a prueba una hipótesis a la vez que son presentables como autocontenidas, es decir, proyectos de investigación que no

45


Gómez, Luis Fernando & Ríos-Osorio, Leonardo

requieren de un estudio amplio de la disciplina en que se enmarcan y mucho menos de la ciencia como un sistema discursivo más amplio. Como ya se señaló, aquí estamos tratando del reduccionismo metodológico, el cual si bien no ha sido siempre exitoso, ha sido un procedimiento de simplificación inherente a la explicación y el entendimiento de la ciencia ortodoxa (Popper 1983). Éste ha involucrado una reducción metodológica en la que se pretende que todos los campos de la ciencia empleen los métodos propios de la física, los cuales constan de cuatro pasos fundamentales. El primero, es la búsqueda de una unidad básica, a partir de la cual se construye el edificio disciplinar. La física tiene el átomo; la química, los elementos; la biología tuvo la célula y ahora el gen, y las ciencias sociales han intentado hacer lo mismo. El segundo paso es la cuantificación y subsiguiente matematización. Frisch (citado por De Greiff 2012 119) escribió que la física “no trata cosas sino medidas”, y esto lo han asumido a su vez las demás ciencias, a pesar de que sus éxitos hayan divergido a través de sus historias. Efectivamente, la cuantificación habitualmente ha pasado a verse como el aspecto más racional de la ciencia ortodoxa (Shumway y Messer-Davidow 1991). Como señala Craig Dilworth (2006 ubic. 1061), “la medición es lo que se encuentra en el corazón de la ciencia moderna empírica, no la experiencia de datos sensoriales o ni siquiera la observación como inspección mediante el ojo desnudo”. Esta medición debe conducir al establecimiento de relaciones entre diferentes medidas, las cuales deben ser expresadas a través de ecuaciones. El tercer paso es la búsqueda de leyes. La ciencia ortodoxa recoge los eventos singulares y los organiza bajo patrones generales (Bunge 2006). A su vez, selecciona pautas relevantes, es decir, regularidades que concretan una característica fundamental del universo (DeWitt 2010). Este paso, vinculado al anterior, busca ser expresado matemáticamente. Por último, la reducción a la física no solo es metodológica, sino a su vez ontológica. La ciencia ortodoxa prescribe que todo fenómeno debe buscar reducirse no a su nivel inmediatamente anterior sino hasta el nivel básico de la física. Así, la química se ocupa de elementos y compuestos que son reducibles a átomos, la biología ortodoxa se ha encaminado hacia la biología molecular, hasta el punto que su unidad, el material genético, ahora es vista como una sustancia química. De esta forma, se disuelve la diferencia entre fenómenos biológicos y no biológicos. El tercer elemento praxiológico que distingue a la ciencia ortodoxa es su carácter procedimental. La práctica científica moderna busca diseñarse a partir de programas, es decir, a un conjunto de pasos más o menos prede-

46

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 33-55


Las bases epistemológicas de la ciencia moderna convencional

terminados y ordenados, que bajo ciertas condiciones, alcancen siempre los mismos resultados y objetivos (Morin 2011). Efectivamente, la investigación científica se da mediante metodologías y preferiblemente, a través del diseño de experimentos, lo cual permite su replicabilidad y corroborabilidad. El cuarto aspecto praxiológico es la sistematización. La ciencia en la modernidad es un ejercicio logocéntrico que ha buscado organizarse de manera sistemática, y esto le ha permitido generar pautas para guiar tanto la investigación futura como para llevar a cabo procedimientos como la reducción metodológica. Antes de ella, en la llamada ciencia aristotélica no se llevaba cuenta del conocimiento alcanzado en un momento dado acerca de un tema u objeto de estudio dado, hasta el punto de que se podría afirmar –bajo la visión del mundo hegemónica actual- que nada concreto se estableció a pesar de siglos de investigación (Westfall 2007). Por el contrario, la ciencia hegemónica “no es un agregado de informaciones inconexas, sino un sistema de ideas conectadas lógicamente entre sí” (Bunge 2006 33). Esto conduce a una racionalidad que diseña la investigación con base en resultados anteriores y avanza a partir de estos (Cerda 2008; Hernández, Fernández, y Baptista 2010), a su vez que organiza la ciencia en conjuntos de principios, leyes, hipótesis y teorías que respondan a lógicas que a su vez permiten deducir conclusiones a partir de estos (Bunge 2006). El quinto elemento praxiológico en la ciencia moderna hegemónica consiste en restarle importancia a la explicación. Fruto de la confluencia de diferentes tramas de la red textual que constituye la ciencia convencional –e.g. la antimetafísica, la medición, la pretensión de neutralidad, etc.-, la ciencia hegemónica ha defendido insistentemente la idea de que ella se debe limitar a establecer el comportamiento de los fenómenos y las relaciones formales entre ellos, sin ahondar en por qué ocurren (Berman 1995). De esta forma, para la concepción heredada de la ciencia, una explicación es la deducción de un fenómeno a partir de unas leyes universales y unas condiciones iniciales (Hempel 1979; Popper 1985). Aquí es importante anotar que al haber diferentes tipos de leyes científicas, entre las cuales están las leyes causales, no toda explicación científica consiste en señalar la causa de un fenómeno, como habitualmente se piensa (Bunge 2006). La desestimación de la explicación está ligada con una concepción instrumental de la causalidad, en la que esta no remite a razones, poderes o características de entidades, sino que expresa simplemente la existencia de una regularidad. En consecuencia, las leyes científicas no son concebidas como manifestaciones de la manera como opera el mundo, es decir, como representaciones cercanas o confiables de leyes naturales (Dilworth 2006).

47


Gómez, Luis Fernando & Ríos-Osorio, Leonardo

Esto parece contradecir los aspectos metafísicos de la visión del mundo moderna hegemónica, la cual es profundamente realista u objetivista, hasta el punto de que éste es uno de los puntos que hace que exista una visión realista de la ciencia que se opone al positivismo o empirismo, dando la sensación de que el segundo no es realista. Sin embargo, la propuesta del positivismo no es relativista ni maneja una ética de corte pluralista, sino que es una posición que difiere con el realismo en que insiste enfáticamente en que la ciencia se debe limitar a la investigación de fenómenos observables y al establecimiento de relaciones formales entre ellos. Lo que propone el empirismo es que la ciencia no debe «alzar vuelo» e intentar comprender el mundo, planteando teorías acerca de cómo es este en verdad –un paso extra que da el realismo-, sino que se debe restringir al mundo observable, fenoménico, i.e. a lo que efectivamente pasa. En consecuencia, el empirismo es más una propuesta metodológica y no ontológica que señala que es el poder predictivo y la constante corroboración empírica de una teoría lo que le debe dar su validez y utilidad, en vez de atributos, como el poder explicativo, que fácilmente conducen a la ciencia dentro del terreno de la metafísica (Hacking 1996). El sexto aspecto praxiológico es la intersubjetividad. La ciencia es una empresa colectiva cuyos hechos, teorías, metodologías e hipótesis deben ser sometidas al escrutinio público (Palma 1998). La reproducibilidad es un atributo necesario en la experimentación científica, mientras la revisión de investigación por pares, el empleo, la comparación y corroboración de resultados, la estandarización de procedimientos, conceptos y medidas, son exigencias y prácticas rutinarias del quehacer científico. La ciencia opera únicamente de manera colectiva. La autoridad es un rol reflexivo, aunque se sostenga también por diversas estrategias entre las que cuentan las políticas. El séptimo aspecto metodológico o praxiológico, que se desprende del monismo, es la empresa de unificación de la ciencia, central en la propuesta del positivismo. Esta se planteó como uno de sus objetivos centrales la restauración de la unidad en torno a una misma concepción de lo real, que estaba dada por el conocimiento científico (Moya 1997). Un ejemplo de esto fue el proyecto del positivismo lógico de elaborar una Enciclopedia internacional de las ciencias unificadas, el cual veía como una necesidad reducir la pluralidad de lenguajes entre las ciencias y tender puentes entre ellas que posibilitaran la homogeneización de conceptos, teorías e hipótesis, con el fin de eliminar las contradicciones existentes entre distintas disciplinas (Neurath 1973). La unión de la ciencia es metodológicamente una empresa lógica, y no es equivalente al reduccionismo, aunque este es una forma de metodología unificadora.

48

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 33-55


Las bases epistemológicas de la ciencia moderna convencional

El método de organización moderno hegemónico de la ciencia involucra a su vez la disciplinariedad y la especialización. La ciencia ortodoxa se compartimenta en disciplinas, que son sistemas discursivos-praxiológicos que están constituidos alrededor de un conjunto de tecnologías literarias y teóricas que guían y estructuran la experiencia de campo, que a nivel metodológico regulan los métodos y procedimientos que son considerados válidos dentro de ellas, y que a nivel teleológico establecen ideas determinadas sobre los propósitos que se persiguen en la investigación dentro de ellas. Todo esto define, a su vez, los medios para establecer los criterios de verdad y justificación de validez de afirmaciones dentro de ellas (Petrie 1992). Así, y a pesar del reduccionismo tanto metodológico como ontológico y la pretensión de unidad de la ciencia, los diferentes campos científicos desarrollan sus propios bienes internos, fines, patrones de excelencia, etc., de manera relativamente independiente de los demás, generando sistemas parcialmente cerrados. Asimismo las disciplinas se fragmentan a su interior y exhiben prácticas internas que son altamente diferenciables entre sí, conduciendo a quienes las practican a dedicarse a un campo mucho más reducido dentro de su disciplina, el cual tiene sus propias características (Becher 1990). Esta especialización no es un fenómeno reciente sino un rasgo distintivo producto de la alta productividad y complejización de la ciencia moderna desde su consolidación en el siglo XIX (“Specialization in scientific study” 1884).

2.5. Aspectos tradicionales Uno de los aspectos más novedosos de la descripción de Thomas Kuhn (2004) del desarrollo de la ciencia moderna convencional tiene que ver con el reconocimiento de elementos tradicionales en esta. Por tradición se entiende aquí un sistema conductual propio de un grupo social que ofrece un marco para la acción y que tiene como relevantes el ritual y la repetición, y no la persistencia en el tiempo como se suele creer (Giddens 2001). Efectivamente, Kuhn (2004) señala que los aprendices son introducidos en la práctica no a través de conceptos, teorías y leyes en abstracto, sino mediante la ejecución de tareas ejemplares altamente mecánicas –e.g., solución de problemas, realización de experimentos- que muchas veces se encuentran en textos canónicos. Éstos, que generalmente corresponden en la educación formal a los libros de texto, no tienen como única función la estandarización de ejemplos, ya que a su vez regulan los temas, conceptos, teorías y autores que los miembros del colectivo de pensamiento deben manejar y conocer. Por ejemplo, dentro de la formación en ecología convencional, los libros de texto organizan esta práctica alrededor de temas como ciclos biogeoquímicos, niveles de organización y componentes

49


Gómez, Luis Fernando & Ríos-Osorio, Leonardo

ambientales (Margalef 1992; Odum 1994; González y Medina 1995). De igual manera, el posicionamiento de autores como Kuhn y Popper dentro de la filosofía de la ciencia, ha hecho que conceptos como falsación, paradigma y ciencia normal sean canónicos, y que ahora se empleen ampliamente tanto como tecnologías teóricas como literarias. Habitualmente la imagen hegemónica de la ciencia se ha opuesto a la idea contemporánea de que los sistemas discursivos tienen un gran peso e incluso determinan la empresa científica. Como se mencionó anteriormente, esta imagen sostiene que la autoría y la literalidad de un texto científico carecen de importancia pues la contrastación de este con el mundo es el paso que, en definitiva, establece su validez (Bunge 1992; Sokal y Bricmont 1999). Sin embargo, algunos ejemplos de la historia de la ciencia muestran la importancia que las tecnologías teóricas y literarias tienen en la empresa científica, y estas responden a tradiciones, es decir a trayectorias textuales que las configuran y determinan. Un primer caso está dado por el demonio de Maxwell, un ejercicio mental planteado a finales del siglo XIX y del cual se ocuparon importantes figuras de la física como el mismo Maxwell, lord Kelvin y Planck, y cuya primera solución ampliamente aceptada fue presentada por Charles H. Bennett (1982) en los años 1980. El fracaso de los primeros investigadores en proporcionar una solución no se debía a falta de datos o confrontación empírica, sino a la carencia de una tecnología teórica apropiada para formular una explicación de por qué dicho demonio no violaba la segunda ley de la termodinámica. Dicha tecnología teórica apareció después de 1945 bajo el concepto de información y por eso no se dio una explicación satisfactoria sino hasta 1982. Por otro lado, la explicación de Bennett es satisfactoria porque responde a la tradición de la ciencia hegemónica en la que la idea de la información es reconocida como metáfora válida, a diferencia de otras visiones del mundo en que esta es vista como metáfora inapropiada (Maturana y Varela 2006). Así, la validez de la propuesta de Bennett no se explica recurriendo a la experiencia, sino a una tradición, una red de textos, en la que el concepto de información existe y es posible.

3. Consideraciones finales La ciencia moderna hegemónica o convencional ha recibido fuertes críticas desde diferentes corrientes de pensamiento –ambientalista, ecologista, posmoderna, decolonial, feminista, entre otras-. No obstante, los esfuerzos por generar una caracterización o descripción exhaustiva de esta siguen siendo escasas. Es más, los intentos de definir la ciencia moderna convencional aún no son ampliamente discutidos, siendo probablemente el concepto de “concep-

50

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 33-55


Las bases epistemológicas de la ciencia moderna convencional

ción heredada de la ciencia” de Putnam uno de los pocos con una amplia difusión. Las diversas críticas serán más robustas si hacen una distinción clara y profunda de la ciencia moderna hegemónica. Por otro lado, una caracterización amplia de la ciencia moderna probablemente permitirá ahondar en discusiones que a veces se quedan en ciertos sectores especializados dentro de los estudios de la ciencia como la pertinencia de concebir las ciencias sociales y las ciencias naturales como dos clases de un mismo tipo de ciencia, con unos rasgos básicos, o si, efectivamente, estas dos clases responden a características diferentes. La filosofía de la ciencia, por ejemplo, se construyó básicamente sobre el estudio de las ciencias naturales –particularmente la física- y una revisión rápida de los textos que siguen guiando la reflexión dentro de este campo permiten enunciar la hipótesis de que la discusión alrededor de las ciencias sociales y naturales aún no es un aspecto estructural de este campo académico. Asimismo, la presente reflexión evidencia la necesidad de considerar que el conocimiento y lo epistemológico involucran aspectos históricos, sociológicos, ideológicos, entre otros. Si bien esto es muy conocido dentro de la literatura especializada, sigue existiendo una compartimentalización y aislamiento, particularmente entre la filosofía y la sociología de la ciencia. Lo planteado en este texto valida la idea de que la ciencia no es comprensible sin un enfoque complejo e híbrido que involucre tanto la filosofía como la historia y la sociología de la ciencia. Avanzar en este camino, implicaría abogar más por los estudios de la ciencia, un campo complejo e interdisciplinar, en vez de continuar con las disciplinas de filosofía, historia y sociología de la ciencia. Por último, la presente caracterización de la ciencia moderna convencional responde a la necesidad de un conocimiento más profundo de sus bases epistemológicas con el fin abordar la actual crítica que a estas se le hace desde diferentes posiciones académicas. Dichas críticas deben ser de un mayor interés por parte de la filosofía de la ciencia, dentro de la cual la sistémica, la posibilidad de la ciencia convencional de explicar los problemas ambientales, la transdisciplinariedad y el conocimiento tradicional, entre otros, siguen siendo aspectos que no están en el centro de su desarrollo actual. Si bien la trans e intredisciplinariedad, al igual que la sistémica y la complejidad son temáticas algo visibles en el panorama mundial, siguen siendo aspectos marginales en las publicaciones y programas de educación e investigación de este campo de la filosofía, particularmente en Colombia. Aunque gran parte dela filosofía se ha construido alrededor de la constante reflexión de los clásicos, estos temas actuales no pueden tener menos importancia, particularmente dentro de un campo que no se mueve alrededor de dichos clásicos.

51


Gómez, Luis Fernando & Ríos-Osorio, Leonardo

Trabajos citados Becher, Tony. “The counter-culture of specialization.” European Journal of Education 25.3 (1990): 333-346. Bennett, Charles H. “The thermodynamics of computation -a review.” International Journal of Theoretical Physics 21 (1982): 905-940. Berman, Morris. El reencantamiento del mundo. Chile: Cuatro Vientos, 1995. Impreso. Boff, Leonardo. Grito de la tierra, grito de los pobres. Hacia una conciencia planetaria. México, D.F.: Dabar, 2002. Impreso. Broncano, Fernando. “Verdad y sucedáneos de la verdad, en la explicación científica y tecnología.” Perspectivas actuales de lógica y filosofía de la ciencia. Ed. E. Bustos et al. Madrid: Siglo XXI, 1994. 277-303. Impreso. Bunge, Mario. La ciencia, su método y su filosofía. Bogotá D.C.: Panamericana, 2006. Impreso. ―. “Los pecados filosóficos de la nueva sociología de la ciencia.” Visiones de la ciencia. Homenaje a Marcel Roche. Ed. C.A. Di Prisco y E. Wagner. Caracas: Monte Ávila, 1992. 33-42. Impreso. Cartwright, Nancy. “In favor of laws that are not ceteris paribus after all.” Erkenntnis 57 (2002): 425-439. Virtual. Cerda, Hugo. Los elementos de la investigación. Bogotá, D.C.: El Búho, 2008. Impreso. Chalmers, Alan F. ¿Qué es esa cosa llamada ciencia? Madrid: Siglo XXI, 2006. Impreso. Descartes, René. Discurso del método. Santafé de Bogotá: Norma, 1992. Impreso. DeWitt, Richard. Worldviews. An introduction to the history and philosophy of science. West Sussex: Wiley-Blackwell, 2010. Impreso. Dilworth, Craig. The metaphysics of science. Dordrecht: Springer, 2006. Versión Kindle. Echeverría, Javier. “Pluralidad del pluralismo.” III Congreso Iberoamericano de Filosofía. Memorias. Pluralismo. Medellín: Universidad de Antioquia, 2008. 189-201. Impreso. Fragio, Alberto. “La concepción no heredada en historia y filosofía de la ciencia.” Cuaderno de Materiales 23 (2011): 337-356.

52

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 33-55


Las bases epistemológicas de la ciencia moderna convencional

Giddens, Anthony. Un mundo desbocado. Los efectos de la globalización en nuestras vidas. Madrid: Taurus, 2001. Impreso. Gliessman, Stephen R. Agroecology. The ecology of sustainable food systems. Boca Raton: CRS Press, 2007. Impreso. González, y Medina. Ecología. Naucalpan de Juaréz: McGraww-Hill, 1995. Impreso. Greiff, Alexis De. A las puertas del universo derrotado. Bogotá, D.C.: Universidad Nacional de Colombia, 2012. Impreso. Hacking, Ian. Representar e intervenir. México, D.F.: Paidós, 1996. Impreso. Haraway, Donna J. Primate visions. Gender, race, and nature in the world of modern science. Nueva York: Routledge, 1989. Impreso. Hayek, F.A.v. “Scientism and the study of society.” Economica 9.35 (1942): 267-291. Impreso. Hempel, Carl G. Filosofía de la ciencia natural. Madrid: Alianza, 1979. Impreso. Hernández, Fernández, y Baptista. Metodología de la investigación. Perú: McGraw-Hill, 2010. Impreso. Imershein, Allen W. “The epistemological bases of social order: toward ethnoparadigm analysis.” Social Methodology 8 (1977): 1-51. Virtual. Kuhn, Thomas S. La estructura de las revoluciones científicas. México, D.F.: Fondo de Cultura Económica, 2004. Impreso. Levinas, Emmanuel. De otro modo que ser, o más allá de la esencia. Salamanca: Sígueme, 1999. Impreso. Margalef, Ramón. Ecología. Barcelona: Planeta, 1992. Impreso. Maturana, Humberto. La objetividad: un argumento para obligar. Santiago de Chile: Dolmen, 2002. Impreso. Maturana, y Varela. De máquinas y seres vivos. Autopoiesis: la organización de lo vivo. Santiago de Chile: Universitaria, 2006. Impreso. Mignolo, Walter D. Historias locales/diseños globales. Colonialidad, conocimientos subalternos y pensamiento fronterizo. Madrid: Akal, 2003. Impreso. Morin, Edgar. Introducción al pensamiento complejo. Barcelona: Gedisa, 2011. Impreso. Mosterín, Jesús. “Ciencia y racionalidad.” El valor de la ciencia. Ed. Salvador López et al. España: El Viejo Topo, 2001. 39-58. Impreso.

53


Gómez, Luis Fernando & Ríos-Osorio, Leonardo

Moya, Eugenio. La disputa del positivismo en la filosofía contemporánea. Murcia: Universidad de Murcia, 1997. Impreso. Naredo, José Manuel. Raíces económicas del deterioro ecológico y social. Madrid: Siglo XXI, 2010. Impreso. Neurath, Otto. “The scientific conception of the world: The Vienna Circle.” Otto Neurath. Empiricism and sociology. Ed. Mary Rahman y Robert S. Cohen. Dordrecht: D. Reidel, 1973. 299-318. Impreso. Niiniluoto, Ilkka. “¿Qué hay de incorrecto en el relativismo?” Perspectivas actuales de lógica y filosofía de la ciencia. Ed. E. de Bustos et al. Madrid: Siglo XXI, 1994. 261-275. Impreso. Nodoushani, Omid. “Systems thinking and management epistemology.” Systemic Practice and Action Research 12 (1999): 557-571. Virtual. Noguera, Ana Patricia. El reencantamiento del mundo. Manizales: Universidad Nacional de Colombia, 2004. Impreso. Odum, Eugene P. Ecología. México, D.F.: Continental, 1994. Impreso. Ortiz, Renato. La supremacía del inglés en las ciencias sociales. Buenos Aires: Siglo XXI, 2009. Impreso. Palma, Hector A. “De la concepción heredada a la epistemología evolucionista. Un largo camino en busca de un sujeto no histórico.” Redes 5 (1998): 53-79. Impreso. Papineau, David. “La racionalidad, esclava de la verdad.” Perspectivas actuales de lógica y filosofía de la ciencia. Ed. E. Bustos et al. Madrid: Siglo XXI, 1994. 305-316. Petrie, Hugh G. “Interdisciplinary education: Are we faced with insurmountable opportunities?” Review of Research in Education 18 (1992): 299-333. Virtual. Popper, Karl R. La lógica de la investigación científica. Madrid: Tecnos, 1985. Impreso. ―. La miseria del historicismo. Madrid: Alianza Taurus, 1981. Impreso. ―. “La reducción científica y la incompletud esencial de toda ciencia.” Estudios sobre la filosofía de la biología. Ed. F.J. Ayala y T. Dobzhansky. Barcelona: Ariel, 1983. 333-364. Impreso. Putnam, Hilary. Las mil caras del realismo. Barcelona: Paidós, 1994. Impreso.

54

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 33-55


Las bases epistemológicas de la ciencia moderna convencional

―. “What theories are not.” Studies in logic and the foundations of mathematics. Ed. Patrick Suppes, Alfred Tarski y Ernest Nagel. Volumen 44. Elsevier, 1966. 240-251. Virtual. Quine, W V. Two Dogmas of Empiricism. New York: Longmans, Green & Co, 1951. Impreso. Ruiz, y Ayala. El método en las ciencias. Epistemología y darwinismo. México, D.F.: Fondo de Cultura Económica, 2000. Impreso. Shumway, y Messer-Davidow. “Disciplinary: An introduction.” Poetics Today 12.2 (1991): 201-225. Virtual. Simons, Kai. “The misused impact factor.” Science 322 (2008): 165. Impreso. Sokal, y Bricmont. Imposturas intelectuales. Barcelona: Paidós, 1999. Impreso. “Specialization in scientific study.” Science 4.75 (1884): 35-36. Virtual. Thorpe, W.H. “El reduccionismo en la biología.” Estudios sobre la filosofía de la biología. Ed. F.J. Ayala y T. Dobzhansky. Barcelona: Ariel, 1983. 152-187. Impreso. Westfall, Richard S. The construction of modern science. Mechanisms and mechanics. Nueva York: Cambridge University Press, 2007. Impreso. Wright, G.H.v. Explanation and understanding. Ithaca: Cornell University Press, 1971. Impreso.

55



L a explicación en ciencias sociales: argumento de la complejidad de los fenómenos y el materialismo histórico1, 2

The explanation in social sciences: the argument from the complexity of phenomena and historical materialism

Alfonso José Pizarro Ramírez3,4

R esumen Elaboraré una revisión al argumento de la complejidad de los fenómenos representado por Hayek (1967) que afirma que los fenómenos humanos son, de alguna manera, inherentemente complejos y, por lo tanto, que las leyes en las ciencias sociales no están disponibles en principio; y por Scriven (1956), quien sostiene una versión más elaborada del argumento de la complejidad, dando cabida a la posibilidad de que la complejidad no es intrínseca a los fenómenos sociales sino, que más bien, sería constitutiva del nivel de descripción que nos interesa. Contra ambos, siguiendo a McIntyre (1993), sostendré que estarían, por una parte, idealizando la práctica científica y, además, que no son capaces de explicar el fenómeno social al nivel que nos interesa dado que terminan por eliminarlo. Así, en una segunda parte, expondré el rol de la explicación en el materialismo histórico (desde una perspectiva insertada en la tradición del marxismo analítico), intentando conciliar el funcionalismo expuesto por Cohen (2001) y el pluralismo metodológico de Little (1991). El materialismo histórico, al modificar la concepción de constitución de la sociedad (sustituyendo el individualismo metodológico por un análisis estructural con primacía de las relaciones sociales socioeconómicas) permite incluso sentar las bases necesarias para identificar, de manera no abstracta ni idealizada, la agencia racional de individuos que constituyen las clases sociales. Esto último posee la ventaja, sobre el individualismo metodológico, de que no elimina el fenómeno que busca ser explicado. Palabras clave: individualismo, complejidad, materialismo, marxismo

A bstract I will review the argument from complexity of the phenomena represented by Hayek (1967) that asserts that the human phenomena are, in some way, inherently complex, thus, that the laws in social sciences are not available in principle; and by Scriven (1956), who asserts a more elaborate version of the argument from complexity, given space for the possibility that the complexity is not intrinsic to the social phenomena, but that they are constitutive to the level of description that we are interested in. Against both, following 1 Recibido: 17 de septiembre de 2014. Aceptado: 26 de noviembre de 2014. 2 Este artículo se debe citar como: Pizarro, Alfonso. “La explicación en ciencias sociales: argumento de la complejidad de los fenómenos y el materialismo histórico”. Rev. Colomb. Filos. Cienc. 14.29 (2014): 57-70. 3 Facultad de filosofía y humanidades, Universidad de Chile. Correo: alfonso.pizarro.r@gmail.com. 4 Santiago de Chile, Chile.


Pizarro Ramírez, Alfonso José

McIntyre (1993) I will hold that they would be, by one hand, idealizing the scientific practice and, by the other hand, not being able to explain the social phenomena to the level that we are interested in because they end up by eliminating it. Then, in a second part, I will expose the role of explanation in historical materialism (from an analytical marxist perspective) trying to conciliate the functionalism exposed by Cohen (2001) and the methodological pluralism of Little (1991). Historical materialism, by modifying the conception of the constitution of society (substituting the methodological individualism for a structural analysis with a primacy of the socio-economical social relations) allows us even to lay the necessary foundations for identifying, in a non-abstract nor idealized way, the rational agency of individuals that constitute the social classes. This proves an advantage over methodological individualism in that it does not eliminates the phenomena that are being explained. Key words: individualism, complexity, materialism, marxism. “Cae, pues, en el error de los economistas burgueses que consideran a estas categorías económicas como eternas y no como leyes históricas que solo son leyes para un desarrollo histórico particular….” Karl Marx (1846)

1. Introducción Hay argumentos en la filosofía que pretenden mostrar que las leyes en las ciencias sociales o bien son imposibles, o bien imprácticas. Usualmente apelan a la dificultad de la materia de estudio con la cual los cientificos sociales han de enfrentarse. Es sostenido ampliamente por muchos críticos que hay una diferencia de “tipo” entre la materia de estudio de la ciencia social y la ciencia natural, lo cual excluye la posibilidad de utilización de leyes en la explicación del comportamiento humano. Ya Carl Hempel decía en The Function of General Laws in History (1942) que lo relevante a demostrar por las ciencias sociales es que los fenómenos explicados no ocurran por mero accidente sino, más bien, por algún tipo de patrón o regularidad subyacente. Bajo este espíritu es que se ve que la materia de estudio de la ciencia social ha de ser la misma que la de la ciencia natural. Precisamente, a partir de este punto surgen las preguntas respecto a ¿en qué difieren las materias de lo natural y de lo social?, ¿qué es lo que queremos explicar, y si es, de hecho, posible la explicación? En el presente ensayo expondré brevemente la discusión respecto a un argumento en contra de la posibilidad de la ciencia social como ciencia, este es el argumento de la complejidad de los fenómenos como lo acuñó McIntyre (1993). En una primera parte, expondré cómo se comprende la complejidad de los fenómenos, tomando como caso ejemplar The Theory of Complex Phenomena de F.A. Hayek (1967), el cual argumenta contra la posibilidad de generar

58

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 57-70


La explicación en ciencias sociales

patrones predictibles. Como afirma McIntyre (1993), Hayek sostendría un descriptivismo respecto al objeto de estudio de la teoría científica. Seguido a esto, expondré lo que sería una postura más elaborada del descriptivismo de Hayek. Michael Scriven en A Possible Distinction between Traditional Scientific Disciplines and the Study of Human Behavior (1956) profundiza las distinciones respecto a la sensibilidad que tendría una teoría científica a la hora de considerar la complejidad de los fenómenos en relación con los niveles de descripción, así se alejaría de la visión ingenua del descriptivista para pasar a un argumento más acabado sobre la complejidad: si bien no es como están dados los fenómenos (como arguye Hayek), es constitutivo al nivel que nos interesa. Finalmente, elaboraré el argumento de McIntyre en contra el descriptivismo y, así, concluiré exponiendo cómo estas dificultades son superadas a la hora de tener una concepción pluralista en la metodología de la ciencia social: por una parte, es necesario dar pie a la macroexplicación para dar cuenta de procesos más complejos de los sistemas sociales y, por otra, es necesario mantener la vinculación de la explicación con los mecanismos causales que hacen posible que esto se lleve a cabo. Para esto último me he basado principalmente en la exposición de Daniel Little en Varieties of Social Explanation (1991) y G.A. Cohen Karl Marx’s Theory of History (2001) desde una perspectiva marxista empleando el materialismo histórico como posible solución. Buscaré exponer de forma sintética las ideas centrales que comprenden el materialismo histórico: contrastaré el método de Marx con el de Hegel, que es de donde se entiende lo 'materialista' como opuesto a lo 'ideal', luego expondré cada una de las partes que componen el análisis del materialismo histórico y su relación entre ellos. Finalmente, daré cuentas, siguiendo a Little, de cómo los dos niveles de la organización social interactúan entre sí, siendo determinados en lo esencial según la descripción funcional (como la de G. A. Cohen) pero no obstante no siendo suficiente requiere de microfundamentación para el análisis de casos históricos concretos.

2. L a complejidad de los fenómenos según F.A. Hayek. Hayek argumenta que hay una diferencia fundamental entre la materia de estudio de la ciencia social y aquella de la ciencia natural en tanto tal; que los fenómenos humanos son, de alguna manera, inherentemente complejos y, por lo tanto, que las leyes en las ciencias sociales no están disponibles en principio. Para él se requiere que haya un patrón recurrente o un orden en los eventos observados para poder preguntarse por el porqué de ellos, y debe haber un mismo agente que se manifieste en este patrón recurrente. Los tipos de patrones que podemos reconocer son, a grandes rasgos, dos: i) intuitivos, ii)

59


Pizarro Ramírez, Alfonso José

construidos por nuestra mente. En el caso de (ii) es trabajo de las matemáticas llevarlo a cabo. Como criterio inicial han de proveerse condiciones iniciales y marginales. Además, se requieren especificaciones falseables que han de ser posibles según ejemplificaciones matemáticas. Así, los fenómenos van escalando desde lo más básico (individuales en las ciencias físicas) y, a medida que se van construyendo matrices de relaciones cada vez más complejas, van emergiendo fenómenos de creciente complegidad. Así, “los fenómenos no físicos son más complejos porque nombramos físico a aquello que puede ser descrito con fórmulas relativamente simples”. (Hayek 57) El problema surge cuando consideramos que en ciencias sociales no estamos interesados en fenómenos individuales, sino que, por el contrario, nos interesan los fenómenos altamente complejos de propiedades emergentes fundadas en este individualismo postulado por Hayek: las relaciones se complejizan hasta el nivel de las personas y luego, entre las relaciones de sus deseos, creencias y acciones, surgen los fenómenos sociales de órdenes más altos. En esta instancia comienzan a insertarse un número de factores indeterminados a una posible ecuación que respete la forma algebraica deseable para una formulación propiamente científica, según Hayek (58). La estadística, elemento central en los métodos cuantitativos (el estudio de grandes agrupaciones), queda descartada puesto que justamente se basa en la simplificación de los elementos complejos y no concibe las relaciones entre los individuos, más bien únicamente tendría en consideración frecuencias relacionadas a estos fenómenos que emergen. Posteriormente, partiendo del tipo de principios vistos en la reflexión de Hayek es que Scriven (1956) elabora de manera más acabada el argumento de la complejidad de los fenómenos. Scriven parte por diferenciar lo que sería la discusión entre las teorías ligadas a la física (ciencia natural) y lo social (ciencia conductual). Además, es importante, para Scriven, notar que hay muchos aspectos en toda ciencia que son descriptivos y no explicativos, como es el caso de la descripción de las propiedades en la astronomía o la antropología primitiva (Scriven 71). Esto, puesto que la mera descripción de hechos sociales (que bien puede ser reducido a una visión de historia de la ciencia social), no es suficiente para ser explicativo (pero a su vez no es excluyente de los aspectos científicos explicativos). Siguiendo una visión similar a la de Hayek, Scriven no niega que en las ciencias conductuales pueda realizarse predicciones, por ejemplo, en la psicología pueden según teoría de la elección. El problema radica en el nivel de complejidad del objeto teórico más simple en el cual podamos llegar a tener interés (Scriven 72), que en la ciencia social más abstracta, la que postula análisis

60

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 57-70


La explicación en ciencias sociales

basados en clases y estructuras sociales, vendría a ser el individuo humano. Al igual que Hayek, la gran cantidad de variables y parámetros de cada individuo, al relacionarse con otros desde donde emergen estructuras complejas (las sociales) aumenta demasiado el nivel de complejidad de manera agregativa. Así el problema central queda identificado en tres puntos: 1. Las generalizaciones básicas son más complejas puesto que hay más variables en juego. 2. Los conceptos básicos que se necesitan en la ciencia social incluyen conceptos de la física y de la matemática (incluidos sus derivados). 3. El procedimiento explicativo en la ciencia conductual emplea lenguaje ordinario del día a día, el cual ya ha acabado por producir explicaciones fuera de la ciencia social. 4. Por lo tanto, la teorización científica en las ciencias sociales por medio de leyes es impráctica o imposible. Esto tendría dos consecuencias, por una parte, los investigadores sociales deberían aprender “a correr antes que caminar”, puesto que cada nivel emergente contiene los requisitos disciplinares del anterior (mismo caso que el de Hayek) y, por otra, se presentarían problemas prácticos a la hora de realizar predicciones (Scriven 72); justamente por la gran cantidad de parámetros y variables que implica el comportamiento humano. Al igual que Hayek, Scriven concibe la ciencia al modo de Popper (Cfr. Scriven 73), y, por otro lado, las proposiciones básicas a ser puestas en relación interna con otras dentro del sistema ya tienen un número demasiado alto de complejidad en su forma de caso más simple (Scriven 74). Así, el argumento de la complejidad parte de los siguientes puntos esenciales:

3. Niveles de descripción Frente a la propuesta anterior, McIntyre responde tanto a la postura estándar de Hayek como a la más elaborada de Scriven. Como vimos anteriormente, el argumento desde la complejidad de los fenómenos concluye que los fenómenos sociales son prohibitivamente complejos; mientras que los fenómenos de la ciencia natural son aislados, estacionarios, recurrentes, y simples; por el contrario, los fenómenos humanos serían interactivos, variables, singulares y complejos. (McIntyre 131). Ante esto McIntyre enfatiza la necesidad de distinguir los distintos niveles de descripción que se realizan a la hora de la teorización científica. La materia de estudio de la ciencia social (en realidad,

61


Pizarro Ramírez, Alfonso José

de cualquier ciencia o sistema teórico), no es algo que intrínsecamente sea complejo y, por lo tanto, se descartaría que en principio, como postula Hayek, pudiera denegarse la posibilidad de leyes en las ciencias sociales. La versión de Hayek del argumento de la complejidad la denominaremos con McIntyre como la “interpretación ingenua”, puesto que no posee ningún nivel de sensibilidad ante la idea de que la complejidad del fenómeno no está dada sino, más bien, en tanto el fenómeno es descrito y definido. Así, como en los fenómenos de otras disciplinas, depende crucialmente del nivel de descripción e investigación que estemos empleado y, por lo tanto, a la materia de estudio se le da forma según la naturaleza de nuestro involucramiento con esta. Asumir premisas individualistas y minimalistas, como en el caso de Hayek, en donde la concepción de la explicación científica radica en criterios como la posibilidad de estructurar matemáticamente modelos y explicaciones, teniendo como objeto de interés mínimo al individuo y asumiendo la agregatividad de las estructuras complejas, claramente daría como resultado una mezcla confusa de parámetros y variables a incluir. Sería un error, entonces, defender que la diferencia fundamental entre las ciencias naturales y sociales estaría basada en diferencias de complejidad, puesto que en este caso nos enfrentamos a al problema respecto a qué sería propiamente una materia de estudio; por una parte se concibe como algo determinado en un sentido importante por nuestro involucramiento con el objeto de estudio y, por otra, como algo dado cuyas características y grados de complejidad vienen de re. Entonces, siendo los fenómenos humanos no inherentemente complejos sino, más bien, complejos en un sentido derivativo en tanto depende de la naturaleza de nuestros intereses; “la posibilidad de encontrar leyes sociales científicas, entonces, es una función del nivel de nuestra indagación” (McIntyre 132). La posibilidad de indagación y su carácter científico está dada por la adecuación de nuestros intereses según la metodología empelada. Sin embargo, ante esto surge la postura más elaborada de Scriven, la “visión sofisticada” del argumento de la complejidad: ante el nivel que nos interesa simplemente no tenemos una elección respecto al nivel de complejidad, precisamente al nivel que nos interesa la formulación de leyes para poder explicar aquellos fenómenos. Para ejemplificar lo anterior McIntyre utiliza una analogía muy ilustradora: la física mecánica es capaz de explicar y predecir con gran éxito el movimiento de cuerpos grandes. Esto lo realiza por medio de la idealización y abstracción de dichos movimientos y sus condiciones (por ejemplo, la caída de un cuerpo es al vacío o, bien, con condiciones determinadas de fricción). Supongamos

62

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 57-70


La explicación en ciencias sociales

que nuestro interés fuese el de la caída de las hojas de los árboles, el lugar y momento preciso y su trayectoria. Las variables son tantas que su nivel de complejidad es tan elevado que no podemos formular leyes a ese nivel, o bien, simplemente es impráctico. Esta formulación del argumento asume la naturaleza derivada de la complejidad, la cual es una función del nivel de descripción e indagación en el que nos involucramos. Lo que niega es la capacidad explicativa de las leyes, o de formulación misma, del nivel que nos interesa al que la complejidad le sería inherente. Además, como antes se mencionó, gran parte de la reflexión ya ha sido llevada a cabo por reflexiones basadas en el lenguaje ordinario, es decir, reflexiones del sentido común. Por lo tanto, según Scriven, debiésemos de “escoger entre regularidades no explicativas buscadas a niveles triviales de descripción y la ausencia de leyes de frente a la complejidad” (McIntyre 133). La materia de estudio de la ciencia social es, básicamente, la conducta humana, no la conducta como es capturada por una teoría particular o descripción de esta. La cuestión entonces es la posibilidad de modificación de los fenómenos como están siendo descritos para permitir la explicación nomológica. Apelar a una imposibilidad de la modificación de las descripciones de los tipos naturales sobre los cuales buscamos relaciones, sería, siguiendo a McIntyre, un conservadurismo y, como él lo cataloga, descriptivismo. Si bien es cierto que hay que cuidarse de la redescripción al punto de caer en trivialidad, esto no quiere decir que toda redescripción lleve a esto. Suposición que de ser tal de manera adelantada “prevendría a la mayoría de la ciencia natural, así como a la ciencia social, de practicarse” (McIntyre 136), puesto que la ciencia a través de la historia ha requerido de estas redescripciones de los tipos naturales empleados: por ejemplo el flogisto respecto al oxígeno en la combustión, o el éter respecto a la luz. Así, posturas como la de Scriven y Hayek estarían idealizando la práctica científica.

4. Metodología Pareciera ser que la concepción individualista que Hayek y Scriven toman como punto de partida tiene como consecuencia que las estructuras sociales más complejas no son consideradas como objetos apropiados de investigación nomológica, dejando de lado así la posibilidad de darle prioridad a la macroexplicación que concibe como objetos en sí mismos a las instituciones, clases, y procesos más generales. Cabe preguntarse cuál es la razón para tal punto de partida. Por una parte, bien podría considerarse como mera ingenuidad (tal como indica el nombre adjudicado por McIntyre al argumento de la comple-

63


Pizarro Ramírez, Alfonso José

jidad de los fenómenos en primera instancia) o, por otra parte, quizá menos ingenua, motivaciones que se insertan y están delimitadas según un programa y proyecto político, por ejemplo el neoliberalismo del cual Hayek es uno de los ideólogos más prominentes. No obstante esta problemática supera los alcances del presente ensayo. Se abre, entonces, la siguiente reflexión respecto a cuál debería ser el objeto de estudio apropiado para las ciencias sociales y cuál la metodología de explicación. El individualismo metodológico, como lo sugiere el nombre, parte de la premisa de que los constituyentes básicos en los fenómenos sociales son los individuos humanos y que básicamente desde sus acciones basadas en creencias y deseos es que se desenvuelve la historia. No obstante, existe otro tipo de metodología explicativa a nivel macro, por ejemplo, la funcional, la cual concibe sistemas sociales como estructurados en partes que interactúan entre sí. Una explicación funcional de un fenómeno es aquella que sitúa el explanandum dentro de un sistema en un proceso controlado o bien de equilibrio dinámico5. Por ejemplo, el análisis empleado por Marx respecto a la relación entre la estructura y la superestructura daría cuenta funcionalmente del fenómeno de las instituciones legales (que emergen sobre la base real, que es la estructura económica), promoviendo la conservación de las relaciones de producción y, a su vez, las fuerzas productivas. Estas últimas alcanzan un nivel de desarrollo que supera las relaciones de producción actuales (y por lo tanto, a la institucionalidad legal). Así, se produce una “adecuación” en el sistema en donde las relaciones de producción y la institucionalidad legal son modificadas (este proceso de “acoplamiento” o “adecuación”, el cual es violento, es la lucha de clases) (Cfr. Cohen 2001). La macro-explicación permitiría, por ejemplo, concebir una lógica institucional y de clases como objeto de análisis; ante la oposición del individualismo metodológico del tipo que sostiene Hayek, el cual argumentaría que no obstante sea cual sea la institución que queramos explicar esta está siempre movida por individualidades, se puede poner el caso ejemplar de totalidades con efectos causales concretos. Así las clases, totalidades, e instituciones varias, si bien son una totalidad más que la sumatoria de sus partes, no son algo “por encima” de sus constituyentes: todos estos procesos causales y de nivel más alto son encarnados por individuos. Continuando con la concepción marxista de la historia y la sociedad, y utilizando la distinción de Little, la forma en la cual se “filtran” las distintas 5 Esto no es lo mismo que el funcionalismo, teoría sociológica caracterizada por la tendencia interna de los sistemas sociales a la armonización de las partes en conflicto.

64

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 57-70


La explicación en ciencias sociales

formas de organización desde la base estructural hasta los niveles más superficiales del sistema social serían principalmente dos. Una adrede y la otra no. En el primer caso, hasta cierto punto las necesidades de la estructura económica son reflejadas en la necesidad de la clase correspondiente como el que la clase capitalista requiere de acumular capital y por ello necesita libertad para lucrarse con la propiedad privada. En el segundo caso, los elementos que se filtran hasta la superestructura no resultan de acciones deliberadas tomadas por los individuos pertenecientes a las clases para proteger su posición. Así, los fenómenos sociales pueden ser explicados bajo una concepción de un sistema social con partes que interactúan entre sí, dando cabida tanto a lógicas institucionales como realizaciones más abstractas que la mera agregación individual. Todo esto sin dejar de lado la necesidad de dar cuenta, causalmente, del surgimiento de los fenómenos. Daniel Little (1991) da luces de lo que podría ser la concepción más adecuada con la cual abordar el problema de la teorización en la ciencia social. Frente a la discusión de cuál es la naturaleza de la explicación en la ciencia social y su relación con la ciencia natural, es que en la discusión naturalista versus antinaturalista propone un pluralismo metodológico, que contempla la metodología más propiamente empirista del naturalismo como la cualitativa e interpretativa del antinaturalismo; estos aspectos tienen lugar a la hora de realizar explicaciones de los fenómenos sociales. Central para Little es que la explicación recurra a mecanismos causales para explicar el rol de las instituciones y grupos sociales más grandes. Estando de acuerdo con él, creo que es importante enfatizar la posibilidad de individuación de estructuras sociales e instituciones según su rol funcional tanto como su rol causal. Esto por dos razones: en primera instancia, nos permitiría dar cuentas de aspectos más elaborados de sistemas sociales específicos (como clase, mercado, instituciones, etc.) y, en segunda instancia, evita la trivialidad al ir ligado necesariamente de explicación causal de cómo esto surge.

5. M aterialismo histórico Marx contrasta su método de investigación 'racional' con la versión 'mistificadora' de Hegel. Al igual que Hegel, Marx cree que cada etapa de la sociedad humana y los cambios históricos de una etapa a la siguiente son explicados por ciertas fuerzas. Ambos creen que estas fuierzas conducen a superar ciertas limitaciones o contradicciones, y es en este caso en donde los individuos están atrapados y contribuyen a estos cambios muchas veces sin tener conciencia de qué es lo que están haciendo. No obstante, para Marx estas fuerzas son

65


Pizarro Ramírez, Alfonso José

materiales y no ideales. Desde el punto de vista de Marx, Hegel erróneamente proyectó los procesos del pensamiento humano hacia el mundo, imaginando que el mundo de alguna forma estaba gobernado por estos procesos de pensamiento (la 'Idea' o 'Razón'). Por el contrario, para Marx, el mundo está gobernado por fuerzas materiales. Efectivamente, el pensamiento humano es explicado por fuerzas materiales y no al revés. Más específicamente, por una parte, para Hegel la historia está dirigida por 'fuerzas intelectuales': i.e., el Espíritu luchando por volverse consciente de sí mismo como libre, reflejado en la producción cultural de una sociedad en un momento dado, donde cada etapa histórica de la sociedad refleja y ha de ser entendida en referencia a su nivel de auto-conciencia frente a libertad que ha logrado. Cuando una etapa específica de la sociedad impide mayor emergencia de autoconciencia, es transformada por acciones de figuras mundiales-históricas para que así puedan permitir un grado más alto de auto-conciencia (como sería el caso de Napoleón y la revolución francesa). Por otra parte, para Marx la historia está dirigida por el desarrollo de las fuerzas materiales: i.e., 'fuerzas productivas'. Cada etapa histórica de la sociedad ha de ser entendida en eferencia al nivel de desarrollo de sus fuerzas productivas. Estas fuerzas productivas, entonces, explican sus 'relaciones de producción' que, a su vez, explican su 'estructura política y legal' y, finalmente, su 'ideología'. Cuando las relaciones de producción de una etapa dada de la sociedad impiden un mayor desarrollo de sus fuerzas productivas, dichas relaciones son transformadas para facilitar un mayor desarrollo de tales fuerzas productivas. Similarmente, cuando la superestructura o conciencia impida los cambios necesarios en las relaciones de producción, a su vez son transformadas para permitir ese cambio. En síntesis, el materialismo histórico plantea que los hechos sociales y técnicos sobre los procesos de producción, las fuerzas de producción y las relaciones de producción 'determinan' las propiedades no económicas de las instituciones, esto es, el Estado, la ideología, la religión, etc. La fuerza de producción se refiere a la combinación de los medios de trabajo (herramientas, maquinas, infraestructura, tierras, etc.) con la fuerza de trabajo humana. La estructura económica está definida en términos de relaciones sociales de la producción y, a su vez, su actividad productiva está organizada, por ejemplo, en la forma de la propiedad. Diferentes modos de producción están caracterizados profundamente por diferentes relaciones de producción, y estas diferencias imponen variadas leyes de desarrollo y de organización en la formación social. A las relaciones de producción dadas la formación social imponen una forma de desarrollo en las instituciones más básicas y en algunos modos de producción dirigidos por sus propias dinámicas internas de desarrollo de

66

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 57-70


La explicación en ciencias sociales

un nuevo modo de producción. Como Little (1986 47) afirma, la finalidad de la política económica de Marx, es por tanto, descubrir y desarrollar las relaciones de producción específicas que identifican y distinguen un modo de producción de los otros modos, y determinar las leyes de organización y desarrollo impuestos por este modo. La estructura económica es el patrón abstracto de relaciones de producción en una sociedad. Por desarrollo de las fuerzas productivas se entiende el crecimiento de estas. Así, la estructura económica de la sociedad está definida por las relaciones sociales a través de las cuales el proceso productivo es controlado y dirigido, y a través del cual los frutos de la producción son distribuidos. Es una estructura objetiva que consiste de relaciones que son independientes de las voluntades de los participantes. De acuerdo al materialismo histórico, esta es la 'base real' sobre la cual descansa la superestructura de la sociedad. De acuerdo a Little (1986 46), el propósito de Marx antes que dogmático y defensor de enunciados que tienen que ser verificados y valorados según su capacidad predictiva, busca proveer una teoría de la sociedad moderna que pudiera servir como base para las explicaciones de los fenómenos no económicos. A través del análisis detallado de la estructura económica del capitalismo, Marx creía que podría definir los fundamentos para una explicación de las características estructurales y de desarrollo más importantes de la sociedad capitalista. Así, se puede entender el 'capitalismo' como algo distinto de las formaciones sociales que hayan surgido en lugares específicos. Esto en contraste con las teorías ortodoxas del reflejo que afirman que la superestructura no sería más que el reflejo de la estructura real, siendo totalmente epifenomenal. Así, el 'capitalismo' pasa a ser “la estructura abstracta que informa las variadas formaciones sociales en un mayor o menor grado, el modo de producción subyacente en diferentes formaciones sociales.” (Little 1986 48). Como vimos antes, el materialismo histórico sostiene que la estructura económica tiene poder explicativo sobre la superestructura. No obstante, la relación no es totalmente unilateral, podemos encontrar varios modos de organización política en sistemas de economía capitalista. La interacción entre los distintos niveles es de forma indirecta, en donde la estructura económica no determina directamente lo no económico, más bien constriñe las posibilidades de organización y se establece una fuerte tendencia a una forma particular. Estas formas serían explicables desde un punto de vista macroexplicativo por el funcionalismo: la tendencia, desde “arriba hacia abajo” será siempre de conservación de las relaciones de producción, y estas a su vez de potenciar las fuerzas productivas. No obstante, en contra de las lecturas deterministas que se han hecho de Marx, esto no implica la determi-

67


Pizarro Ramírez, Alfonso José

nación futura y predictible de las formas que sucederán al momento actual, más que en términos generales y abstractos. El modelo de explicación de determinación funcional de G. A. Cohen explica la relación entre los componentes de la sociedad como permitiendo que surjan aquellos órdenes que satisfacen las necesidades de la base real. Ahora bien, como dice Little, a pesar de las críticas que Jon Elster hace al funcionalismo de Cohen, como la acusación de que permite una reflexión menos acabada de la sociedad, la determinación por constreñimiento y la explicación a nivel macro del funcionalismo no son incompatibles. La forma de concebir esto sería distinguiendo los alcances de cada forma explicativa. El análisis marxista requiere un análisis que conciba, en primera instancia, la sociedad como grupos de totalidades orgánicas, puesto que la identificación de las relaciones capitalistas es comprendida (como Marx mismo en el primer capítulo del Capital hace ver) como los roles y relación con los medios de producción y las mercancías que se tiene en tanto clase y no individuo. Para dar cuenta de ello la explicación no comienza de la agregación de actividades individuales que se hayan observado al modo de la ciencia natural, sino que surge la abstracción de la estructura económica, con sus relaciones de producción que subyace a los países que ejecutan un modelo económico de mercado capitalista. No obstante, para poder tener realmente un poder explicativo y no quedar en la irrelevancia explicativa se requiere dar cuenta de cada 'instanciación' del modo de producción capitalista en su particularidad histórica. La definición de Lenin refleja esta necesidad: Se denominan clases a grandes grupos de hombres que se diferencian por su lugar en el sistema históricamente determinado de la producción social, por su relación (en la mayoría de los casos confirmada por las leyes) hacia los medios de producción, por su papel en la organización social del trabajo y, por consiguiente, por los medios de obtención y por el volumen de la parte de riqueza social de que disponen. Las clases son grupos de hombres en los que unos pueden atribuirse el trabajo de otros gracias a la diferencia del lugar que ocupan en un determinado sistema de la economía social. (Lenin 612-613)

Por lo tanto, lo necesario sería un análisis funcional, no obstante no sería suficiente y requeriría del otro método, uno que reconozca que la sociedad está en principio determinada por los factores materiales, es siempre, a cada momento, resultado de la acción de agentes situados históricamente. La procedencia lógica del concepto de modos de producción se mantiene: tiene sentido hablar de individuos dentro del concepto de clases, que están a su vez en el contexto de modos de producción que están históricamente determinados.

68

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 57-70


La explicación en ciencias sociales

6. Conclusión En la primera parte se analizó el argumento de la complejidad de los fenómenos y se identificó dos variantes, una ingenua y otra más elaborada. La primera, representada por Hayek, reduce todo fenómeno social a la agregación de sus individuos e identifica a ese nivel la capacidad explicativa; los fenómenos que pudiesen identificarse como colectivos no son más que la agregación de las voluntades individuales y, por tanto, no poseen agencia causal. Además, producto de la indeterminada cantidad de variables, estos fenómenos, que emergen en un nivel superior, poseen un nivel intrínseco de complejidad que haría imposible un programa de estudio científico. La segunda, representada por Scriven, que admite que la complejidad es derivada y no inherente, no obstante arguye que al nivel que nos interesa el fenómeno social le es constitutiva la complejidad. Este último argumento falla a la luz de la historia de la ciencia, en donde la redescripción de los tipos naturales que se utilizan como estudio no solo ha ocurrido, sino que además es deseable. En una segunda parte, se expuso el rol de la explicación en el materialismo histórico (siguiendo a la tradición del marxismo analítico en específico) y de cómo es coherente y sostenible una concepción colectiva de la unidad de análisis habiendo modificado el análisis de las bases de la sociedad. En el caso del materialismo histórico, teniendo las relaciones sociales (sobre la base de la estructura económica) la primacía explicativa del resto de los elementos de la sociedad, es posible individuar el rol funcional que cumplen determinados individuos. Esto último es representado por la versión del funcionalismo de Cohen, no obstante, asumiendo la necesidad de reconocer que la sociedad y la historia es efectivamente el resultado de la agencia de individuos. La manera más adecuada de la explicación para comprender el elemento funcional es contextualizándolo como la individuación de los agentes racionales dentro de formas económico-sociales concretas que determinan la posibilidad de acción y que, a su vez, posibilita la explicación de fenómenos objeto de estudio de las ciencias sociales con mayor claridad, sin eliminar el objeto que busca por estudiar. Por ejemplo, la acción monopólica de una empresa dentro de un mercado tiene efectos concretos dentro de la localidad en donde está siendo ejecutada dicha acción en la vida de los individuo. Es posible atribuir agencia causal a entidades colectivas y no tiene sentido reducirla únicamente a la agregación de sus constituyentes (¿dónde comenzaría o terminaría la demarcación de individuos que constituyen tal empresa?, ¿en sus accionistas?, ¿en su directorio? Si bien, es identificable la responsabilidad de la dirección con alguna acción determinada, esto último no es lo mismo que la identificación con la causa del efecto que surge).

69


Pizarro Ramírez, Alfonso José

Finalmente, el análisis individualista termina por idealizar la práctica científica y la alternativa explicativa del materialismo histórico posee la ventaja de que, admitiendo la posibilidad de individuar agencias colectivas, es capaz de dar cuentas más detalladamente (sin eliminar el fenómeno que busca explicarse) de la ontología social. Esto último es logrado no solo con la admisión de entidades colectivas, sino que además estas juegan un rol central en la explicación. Ya sea en tanto determinan por medio de constricción la agencia en sentido más general de los individuos, o bien en un sentido más fuerte, como determinaciones colectivas (de relaciones sociales identificadas en un primer lugar funcionalmente) en donde tiene sentido hablar de individuos (de otro modo la agencia racional es una mera abstracción sin realización concreta).

Trabajos citados Cohen, G. A. Karl Marx’s Theory of History: A Defence. Expanded Edition. New Jersey: Princeton University, 2001. Hayek, F. A. “Theory of Complex Phenomena”. Readings in the Philosophy of Social Science, Michael Martin & Lee C. McIntyre (ed). MIT Press, [1967] 1994. Hempel, C. “The Function of General Laws in History”. Readings in the Philosophy of Social Science, Michael Martin & Lee C. McIntyre (ed). MIT Press, [1942] 1994. Lenin, V.I. “Una gran iniciativa”, Obras Escogidas, Moscú: Ediciones en Lenguas Extranjeras, 1948. Little, D. Varieties of Social Explanation, Westview Press, Inc., 1991. Libro en formato Kindle e-book. ―. The Scientific Marx. Minneapolis: The University of Minesota Press, 1986. Marx, Karl. Carta a Pavel Vasilyevich Annenkov, 1846. Fuente de la versión castellana de la presente carta: C. Marx & F. Engels, Correspondencia, Ediciones Política, La Habana, s.f. ―. Prólogo de la Contribución a la Crítica de la Economía Política. Madrid: Siglo XXI, [1859]. McIntyre, L. “Complexity and Social Scientific Laws”. Readings in the Philosophy of Social Science, Michael Martin & Lee C. McIntyre (ed). MIT Press, [1993] 1994. Scriven, M. A “Possible Distinction between Traditional Scientific Disciplines and the Study of Human Behavior”. Readings in the Philosophy of Social Science, Michael Martin & Lee C. McIntyre (ed). MIT Press, [1956] 1994.

70

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 57-70


¿Qué es un sistema complejo?1, 2 What is a complex system? Carlos Eduardo Maldonado3,4

R esumen Este artículo se propone, de manera puntual, comprender qué es un sistema complejo, para lo cual reflexiona alrededor de cuatro argumentos, así: 1) un sistema complejo se entiende en relación con una determinada filosofía del movimiento; 2) consiguientemente, esta filosofía del movimiento implica una cierta filosofía del tiempo; 3) sobre esta base, los sistemas complejos comportan una filosofía social, cultural, histórica o política y 4) los sistemas complejos definen, consiguientemente, una auténtica revolución científica en curso. Al final, se extraen algunas conclusiones puntuales. Palabras clave: Complejidad, ciencias de la complejidad, revolución científica, cambio.

A bstract This paper is aimed at understanding accurately what a complex system is. In order to do so, four arguments are provided, thus: 1) a complex system is to be understood in relation to a determined philosophy of movement; 2) such a philosophy of movement entails a certain time philosophy; 3) on such a ground, complex systems, it is argued, point to a social, cultural, historic or political philosophy and 4) as a result, complex systems define an authentic scientific revolution. At the end some conclusions are drawn. Key words: Complexity, sciences of complexity, scientific revolution, change

1 Recibido: 29 de agosto de 2014. Aceptado: 30 de octubre de 2014. 2 Este artículo se debe citar como: Maldonado, Carlos. “¿Qué es un sistema complejo?”. Rev. Colomb. Filos. Cienc. 14.29 (2014): 71-93. 3 Facultad de Ciencia Política y Gobierno, Centro de Estudios Políticos e Internacionales (CEPI), Universidad del Rosario. Correo: carlos.maldonado@urosario.edu.co. 4 Bogotá, Colombia.


Maldonado, Carlos Eduardo

1. Introducción Las ciencias de la complejidad estudian fenómenos, sistemas o comportamientos de complejidad creciente; esto es, fenómenos y sistemas que aprenden y se adaptan, y que, en el filo del caos o bien, lo que es equivalente, lejos del equilibrio, responden a la flecha del tiempo de la termodinámica del no-equilibrio (Nicholis & Prigogine 1994). Por consiguiente, à la lettre, no se ocupan de todos y cada uno de los fenómenos y sistemas del mundo, puesto que no todas las cosas son complejas y en numerosas ocasiones es incluso deseable que no lo sean o que no se vuelvan o hagan complejas. Vale decir, en el más riguroso de los sentidos de lo mejor de la filosofía de la ciencia que una teoría que lo explica todo no explica nada, y así, afirmar que “todo es complejo” equivale a una idea trivial, análoga acaso a la numerología o la astrología. Asimismo, de otra parte, las ciencias de la complejidad no se interesan por los fenómenos, sistemas y comportamientos que son sencillamente complejos, pues existen sistemas de complejidad decreciente tanto como dinámicas de complejidad estable. Un sistema puede decirse que es “sencillamente complejo” en un corte sincrónico, al margen del tiempo y de la historia. Con toda seguridad, la distinción entre sistemas “sencillamente complejos” y fenómenos de complejidad reciente constituye el criterio de demarcación más claro entre las ciencias de la complejidad y otras áreas afines, próximas y vecinas. Ahora bien, los sistemas de complejidad creciente han sido caracterizados en la bibliografía especializada sobre el tema de varias maneras. Así por ejemplo, como sistemas adaptativos –notablemente los CAS– (Gell-Mann 2003), como sistemas no-lineales, como sistemas emergentes, y varios más. De acuerdo con algún autor, existirían más de cuarenta y cinco definiciones de complejidad, solo hasta el año 1995 (Horgan 1995). A la fecha, sin dificultad, esta cifra puede aumentar a más de sesenta. Esta observación es fundamental. La buena ciencia de punta no parte ya de definiciones ni trabaja tampoco con definiciones. Por el contrario, los buenos científicos parten de y trabajan con problemas. Ahora bien, uno de los problemas más apasionantes en ciencia como en la vida es: ¿por qué las cosas son o se vuelven complejas? Las ciencias de la complejidad se ocupan, de manera frontal, en responder esta pregunta y para ello han creado una variedad de ciencias, metodologías, lenguajes, enfoques, teorías y disciplinas; en una vitalidad fabulosa que es la expresión de un gusto y encanto por los temas y problemas de complejidad y, algo muy importante, incluso por su utilidad creciente en el mundo alrededor nuestro.

72

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 71-93


¿Qué es un sistema complejo?

En otros espacios y momentos me he ocupado de ilustrar, tanto como de argumentar, en el sentido que se acaba de mencionar. En esta oportunidad quisiera, de manera puntual, abocarme a un problema, a saber: dilucidar de un modo puntual y novedoso qué es, en qué consiste y qué caracteriza a un fenómeno, sistema o comportamiento complejo. Para ello presentaré cuatro argumentos, así: en primer lugar, afirmo que un sistema complejo se entiende en relación con una determinada filosofía del movimiento; consiguientemente, en segunda instancia, esta filosofía del movimiento implica una cierta filosofía del tiempo. Sobre esta base, el tercer argumento afirma que los sistemas complejos comportan una filosofía social, cultural histórica o política. Finalmente, el cuarto argumento defiende que los sistemas complejos definen, consiguientemente, una auténtica revolución científica en curso. Al final se extraen algunas conclusiones puntuales.

2. L a complejidad implica y afirma una filosofía del movimiento

Los sistemas de complejidad creciente se caracterizan, de manera principal, por que presentan dinámicas irreversibles, súbitas, imprevisibles, aperiódicas; además, desde luego, de varios otros rasgos característicos. Pues bien, quiero sugerirlo, estos son exactamente los rasgos definitorios de la filosofía del movimiento de la complejidad. La ciencia clásica sabe de movimiento, desde luego. De hecho, el mérito de la mecánica clásica y de Newton, en particular, consistió en haber estudiado el movimiento –al que originariamente denominó como “revoluciones celestes” –, y lograr explicarlo mediante cinco instrumentos: las tres leyes de Newton, y el cálculo integral y diferencial, históricamente concedido a Leibniz, a partir del famoso debate Newton-Leibniz (Rada 1980). Sin embargo, los tipos de movimiento que le interesa y en el que se concentra la ciencia moderna son movimientos cíclicos, periódicos, regulares, predecibles, pendulares, en fin, controlables. Exactamente para eso fue inventado el cálculo, y toda la ciencia normal solo sabe de ciclos. Todo lo demás es lo de menos; esto es, se habla de ciclos más largo, o más breves, pero la lógica de la ciencia normal no sale de estos parámetros. Entre las herramientas –matemáticas, conceptuales y otras– de la ciencia normal para estudiar el movimiento periódico se encuentra la ley de grandes números, la Campana de Gauss o la Curva de Bell, los estándares, las matrices, los análisis vectoriales, los promedios y la estadística en general (descriptiva e inferencial).

73


Maldonado, Carlos Eduardo

Hay que decirlo abiertamente. En esos casos no hay, para nada, complejidad (Odifredi 2006). Si bien la ciencia moderna constituyó, como ha sido claramente reconocido en la bibliografía acerca de la historia y la filosofía de la ciencia, una revolución, dicha revolución, hay que decirlo, se conservatizó y perdió la fuerza y la vitalidad, la radicalidad y la novedad que alguna vez tuvo. Exactamente en eso consiste, por ejemplo, a la luz de la idea de “revoluciones científicas” el concepto mismo de ciencia normal: se elaboran numerosos y magníficos diagnósticos, pero es incapaz de resolver satisfactoriamente los retos, problemas y desafíos mismos al interior del marco general del paradigma tradicional y vigente. Kuhn denomina a esto una “anomalía”. Las bifurcaciones (Serres 1991) emergen en ciencia debido a la pérdida de vitalidad de las teorías, modelos y aproximaciones. Pues bien, precisamente en este sentido asistimos hoy en día a una nueva, auténtica y novedosa revolución científica. Son numerosas sus características y expresiones. Por razones de espacio5 me concentraré aquí en la forma en que las ciencias de la complejidad al mismo tiempo participan y animan dicha revolución. Con una salvedad sobre la cual volveré más adelante. En este caso, se trata no ya única y principalmente de una revolución científica –en el sentido, por ejemplo de Kuhn–, sino, además y fundamentalmente, de una revolución social o cultural. Los fenómenos, sistemas y comportamientos se caracterizan por una forma particular de movimiento. En contraste con el tipo de movimiento característico de la ciencia moderna y normal contemporánea, se trata de aquel movimiento que es súbito, imprevisto, irreversible y no-periódico. En verdad, varias de las ciencias de la complejidad destacan, ya desde sus orígenes, el interés y la importancia por los fenómenos y comportamientos que exhiben esta clase de propiedades. Así, por ejemplo, la ciencia del caos identifica a los atractores extraños como el pivote de sus trabajos, y logra por primera vez en la historia el reconocimiento de que pequeños cambios imperceptibles iniciales tienen o pueden tener consecuencias imprevisibles cuya correspondencia es estricta (con respecto a las condiciones iniciales) (Scott 2007). En consecuencia, los fenómenos caóticos –una de las formas de comprender a los sistemas complejos– son clara y distintivamente aperiódicos. De hecho, la caoticidad consiste exactamente en la aperiodicidad en las dinámicas de un fenómeno, lo cual es identificado en la bibliografía en 5 Me he ocupado del tema más ampliamente en: Maldonado (2012a).

74

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 71-93


¿Qué es un sistema complejo?

general como la presencia de distintos atractores: Atractor de Lorenz, Atractor de Hénin, y otros semejantes. No afirmaré aquí que en la base de toda dimensión fractal existe un atractor extraño, pero sí cabe recabar en el hecho de que otra de las ciencias de la complejidad, a saber la teoría de catástrofes, pone justamente de manifiesto que las catástrofes consisten en eso: cambios súbitos, imprevistos e irreversibles, los cuales son identificados y estudiados con siete modelos originariamente desarrollados por R. Thom (1996). “Catástrofe” no tiene aquí ninguna acepción negativa, pues también existen catástrofes positivas y maravillosas, algo que se encuentra claramente indicado en la bibliografía sobre el tema. Asimismo, es importante mencionar cómo la termodinámica del no-equilibrio, otra de las ciencias de la complejidad, pone de manifiesto que es justamente el hecho de que los fenómenos y sistemas se encuentran lejos del equilibrio por lo que son posibles estructuras y dinámicas de autoorganización y, no en última instancia, la vida misma en el planeta (Ben-Naim 2011). El concepto técnico que se emplea en termodinámica del no-equilibrio para esos fenómenos cuya dinámica es alejarse del equilibrio es el de estructuras disipativas, y los ejemplos y casos estudiados son numerosos. Ahora bien, que un fenómeno determinado se encuentre alejado del equilibrio es igualmente concebido como que está en el filo del caos, y en cualquier caso de lo que se trata es del reconocimiento explícito de que los fenómenos complejos ni apuntan al equilibrio –en cualquier acepción de la palabra–, ni tampoco se concentran en él. Todo lo contrario, es porque o bien están alejados del equilibrio o bien se alejan del mismo por lo que adquieren precisamente el carácter de complejos. La termodinámica del no-equilibrio es la primera de las ciencias contemporáneas que permite razonable, pero sólidamente, la identificación entre sistemas vivos y sistemas con equilibrios dinámicos; otro nombre para designar esa clase de estructuras y dinámicas que, en sentido estricto, coinciden con y se fundan en la evolución. Ahora bien, cuando se habla de evolución es fundamental no identificar evolución con cambio, progreso, dinámica y demás, como es habitualmente el caso. Por el contrario, la estructura de la evolución descansa en equilibrios puntuados, que son justamente inflexiones que se producen en los fenómenos y en la historia de los fenómenos, gracias a los cuales existe aprendizaje y adaptación. Así las cosas, un fenómeno complejo es aquel que exhibe propiedades de adaptación y aprendizaje como consecuencia de inflexiones –por definición imprevistas y dramáticas–. Vale decir que no todos los sistemas o fenómenos aprenden o se adaptan.

75


Maldonado, Carlos Eduardo

Como se observa sin dificultad, la complejidad misma de un fenómeno radica, por tanto, en el hecho de que sus dinámicas y estructuras no pueden ser reducidas a explicaciones ni gestiones de tipo cíclico, periódico, regular o previsible. Al contrario, allí donde estas características son posibles y están presentes podemos afirmar con seguridad que o bien la complejidad ha sido suprimida, o bien no existe (aún) ninguna complejidad. En este sentido, las herramientas habituales de la ciencia, tales como la planeación –en cualquiera de sus acepciones, y muy sintomáticamente la planeación estratégica–, la prospectiva, los estudios de futuro, y otras semejantes y próximas no saben absolutamente nada de complejidad y son, al cabo, ineficientes e ineficaces cuando se trata de comprender, explicar y vivir en medio de fenómenos de complejidad creciente. Pues bien, existe una forma adicional relacionada con los movimientos y dinámicas súbitas, imprevistas e irreversibles que son estudiadas en las ciencias de la complejidad. Se trata de la ciencia de redes que permiten, específicamente, estudiar redes libres de escala, fenómenos de percolación, irrupciones (bursting) y cascadas de errores, por ejemplo, todos los cuales no son sino conceptos, modelos y aproximaciones que explican magníficamente que es el entramado de redes el que convierte a un fenómeno, sistema o dinámica en complejo. No en última instancia, la teoría de mundo pequeño (small world theory), esto es, los grados de espacio, libertad o diferencia, las dinámicas de sincronicidad y otros próximos y semejantes, dan lugar a estructuras no-periódicas ni cíclicas. Así las cosas, la complejidad de un fenómeno o sistema radica exactamente en los contenidos y modos tanto de aleatoriedad como de la incertidumbre que tiene o exhibe, todo lo cual tiene un espacio perfectamente diferente a los estudios clásicos y estándar sobre probabilidad y estadística. Como se observa sin dificultad, es la pasión, la dificultad, el carácter extraordinario, la atracción o el gusto por, dicho genéricamente, los movimientos y dinámicas irregulares, no pendulares y aperiódicas las que definen el tipo de trabajo de los complejólogos. Y es precisamente por ello por lo que, de manera explícita y directa, las ciencias de la complejidad implica una auténtica revolución en el conocimiento.

3. Acerca del tiempo o tiempos de la complejidad Vivimos un universo no-ergódico, esto es, irrepetible. Mientras que la física newtoniana no sabe de la flecha del tiempo y, en consecuencia, o bien descuenta el tiempo, o bien el pasado y el futuro son indistinguibles, los fenómenos

76

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 71-93


¿Qué es un sistema complejo?

complejos, si puede decirse así, consisten en una cosa: el tiempo mismo es la complejidad, es el tiempo el que complejiza los fenómenos, las dinámicas y las estructuras, y el tiempo significa claramente la flecha de la irreversibilidad. En otras palabras, el pasado es cualititativamente diferente del futuro. Esta idea puede ser entendida en más de un sentido. De un lado, se trata del hecho de que los sistemas complejos no son deterministas. El determinismo es aquella concepción que sostiene que el pasado determina el presente, que conocido el origen de un fenómeno y la línea de tiempo que del pasado conduce al presente, entonces es posible anticipar o predecir el futuro. En otras palabras, el determinismo sostiene que el futuro está contenido y anticipado –prefijado, si e prefiere– en el pasado y en la línea de tiempo que del pasado conduce al presente. De otro modo, cabe decir que el pasado contiene al futuro específicamente como potencialidad o virtualidad y que de los muchos futuros posibles solo se realizan algunos; de ahí la indeterminación originada en la contingencia histórica (Cfr. Andrade 2014). Lo anterior quiere decir que en aquellas situaciones en las que el tiempo no puede ser descontado –el tiempo se descuenta cuando sencillamente es considerado como una variable–, manifiesta y distintivamente aparece la complejidad. Si se quiere, desde otra perspectiva, es en tiempos de turbulencia y complejidad y en condiciones o momentos de inestabilidad cuando las herramientas, conceptos, métodos, enfoques, teorías y ciencias de la complejidad resultan útiles y provechosas (Maldonado 2012b). Puede decirse que el tiempo es inventado o descubierto, prácticamente en paralelo, por dos ciencias radicalmente distintas, en el curso del siglo XIX. De un lado, la termodinámica y muy específicamente los desarrollos de L. Boltzmann permiten identificar una flecha del tiempo de carácter irreversible, con una observación puntual: a raíz de la crítica de Poincaré a Boltzmann este terminó por aceptar un tiempo ergódico después de haber postulado la flecha del tiempo. La flecha del tiempo de Boltzmann, así las cosas, no sería tan universal, sino, válida tan solo para los casos especiales de sistemas alejados del equilibrio (Cfr. Lombardi & Labarca 2005); que es justamente lo que interesa a la complejidad en sentido preciso. Es la flecha del tiempo que coincide con y se funda en la segunda ley de la termodinámica, la ley de la entropía. De acuerdo con la misma, todos los fenómenos del mundo y la naturaleza están sujetos, absolutamente, esto es, en última instancia, por la tendencia que conduce a la pérdida, el agotamiento, el olvido, en fin al equilibrio. Así, la entropía consiste en la flecha del tiempo que apunta a la muerte informacional, térmica, gravitacional, y otras de todos los fenómenos y sistemas.

77


Maldonado, Carlos Eduardo

De manera casi paradójica, lo cierto es que casi al mismo tiempo, la teoría de la evolución de Darwin pone de manifiesto que, por el contrario, existe otra flecha del tiempos con una dirección radicalmente diferente, a saber, la flecha hacia la complejización creciente, la proliferación de formas y estructuras, la creación y la innovación, en fin, el aprendizaje y la adaptación. En sentido estricto, sin embargo, vale decir que la flecha del tiempo como complejización creciente es más bien lamarkiana, antes que darwiniana, y que esta última sería la flecha de la especiación, diversificación, ramificación permanente. Se trata justamente de la flecha del tiempo de la evolución; en otras palabras, de la vida. Pues bien, podemos decir, sin ambages, que la complejidad del mundo de la naturaleza, de la sociedad y del universo consiste exactamente en las relaciones entre ambas flechas del tiempo, una que apunta al equilibrio y la muerte y la otra que se dirige hacia la vida y la exploración y creación de posibilidades de posibilidades. Quisiera decirlo de manera puntual. En aquellas condiciones y momentos en los que un fenómeno determinado puede ser explicado atendiendo a su pasado e historia, prima el determinismo, y en esos casos, o bien existe muy baja complejidad, o ninguna. Por el contrario, los fenómenos, sistemas y estructuras caracterizados por complejidad son aquellos que no se explican sin el pasado, pero que son posibles a pesar del pasado. Así, la complejidad de los fenómenos radica en el futuro o futuros posibles que tienen o que pueden tener, y es justamente la evolución de ese o esos futuros lo que convierte a dichos fenómenos en complejos. La complejidad de un sistema radica en el futuro o futuros posibles que tiene o puede tener y es, genéricamente, este futuro el que complejiza a los fenómenos en un momento determinado. Es el futuro o futuros lo que, por lo demás, permite comprender capacidades de los sistemas complejos tales como el aprendizaje y la adaptación, en fin, el hecho o la posibilidad misma de que un sistema determinado: a) esté vivo; o bien, b) se comporte como si estuviera vivo, o como un sistema vivo. Si ello es así, entonces emergen nuevas metodologías y enfoques en complejidad que se hacen perfectamente necesarias. El título genérico en el que se sintetizan esas diversas metodologías es la simulación (Mitchell 2009). Así, los sistemas complejos pueden y deben ser simulados y la simulación apunta a la importancia del computador, de las ciencias computacionales y las herramientas y enfoques propios de la computación. Digamos, solo de pasada, que entran aquí temas específicos como las metaheurísticas, los problemas P versus NP, las matemáticas de los sistemas

78

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 71-93


¿Qué es un sistema complejo?

computacionales –las cuales son matemáticas de sistemas discretos–, y todo el trabajo en general sobre computación (Zwirn 2006). De manera particular, cabe decirlo explícitamente: no existen dos clases de ciencias, o dos clases de métodos o de metodologías en ciencia (las ciencias empíricas y las ciencias deductivas, y los métodos cuantitativos y los métodos cualitativos). Y acaso, por derivación los métodos mixtos o híbridos entre ambos. Por el contrario, más radical e innovadoramente existen, gracias a las ciencias de la complejidad, tres clases de ciencias y consiguientemente tres clases de métodos científicos. Estos son: las ciencia empíricas y deductivas, y las ciencias de la complejidad de una parte y de otra; los métodos propios de las ciencias de la complejidad incluyen al modelamiento y la simulación. En otro lugar me he ocupado de la distinción entre modelamiento y simulación (Maldonado & Gómez 2010). Ahora bien, avanzando un paso adicional es preciso decir que, en realidad, los fenómenos y sistemas complejos no se caracterizan por tener un solo tiempo sino, mejor aún, una densidad temporal. Más exactamente, a mayor densidad temporal mayor complejidad; alguien más podría decir no sin acierto, “profundidad temporal”. Esta idea quiere significar que los fenómenos y sistemas complejos poseen varios tiempos o temporalidades y que es esto lo que define su complejidad. Tabla 1: tiempos y escalas de la complejidad Universo macroscópico

Universo microscópico

Ejemplo

Segundo = 1/60m

Mili = 10 -3

Unidad de tiempo en la clínica médica

Minuto = 1/60h

Micro = 10 -6

Unidad de tiempo en numerosos deportes

Día = 24 hs

Nano = 10 -9

Ritmo circadiano (en la Tierra)

Año = 365 ds

Pico = 10 -12

Unidad de tiempo básico de una vida humana

Siglo = 100 años

Femto = 10 -15

Unidad de tiempo básica en historia

Millón de años = 10 6 años

Atto = 10 -18

Unidad de tiempo básica en geología

Billón de años = 1012 años

Yocto = 10-24

Unidad actual máxima de la edad del universo

Fuente: elaboración propia

Al respecto se impone una observación importante, a saber, cuando hablamos de universo macroscópico o microscópico no hay que pensar en absoluto,

79


Maldonado, Carlos Eduardo

únicamente, en tamaños, volúmenes o masas sino, por el contrario, justamente en tiempos. Así, los tiempos macroscópicos son bastante más lentos que los tiempos microscópicos. Los tiempos indicados en la tabla 1 correspondientes al universo macroscópico son los tiempos común y corrientes conocidos por todos, dado un mínimo de información y de sentido común. Cabe señalar que el tránsito de la edad de la tierra o del universo de millones a billones de años sucede muy tardíamente (en el siglo XX), y que en la actualidad este constituye el límite dado que se calcula que el universo, en el que vivimos, tiene una edad aproximada de 1013 +/-200 años. Por su parte, el universo microscópico se compone hasta el momento de las escalas milimétrica hasta yocto escalar, y es gracias a los más destacados desarrollos de la investigación científica reciente que es posible hablar de y trabajar con, por ejemplo, femtoquímica o femtobiología, y que, en cualquier caso, se trata de tiempos vertiginosos. El límite inferior del universo microscópico es la Escala de Planck que consiste en 10-43 segundos, que es el momento que coincide con el Big Bang. Pues bien, quiero sostener la idea según la cual los fenómenos complejos consisten en una articulación (sincronizada, por definición) de diferentes escalas temporales. Esta idea ha sido desarrollada con detalle en (Maldonado & Gómez 2014). Hay que decirlo francamente. Hasta la fecha, las ciencias sociales y humanas permanecen ajenas o indiferentes a las escalas microscópicas de la realidad y la casi totalidad de sus temas, campos, objetos y problemas son del orden exclusivamente macroscópico: territorio, Estado, sociedad, economía, medioambiente y muchas otras. Al respecto, bien vale la pena atender a que los fenómenos más importantes en la vida de los seres humanos proceden siempre de la escala microscópica, pero se plasman, al cabo, en la escala macroscópica. Y en algunas ocasiones “al cabo” puede acaso ser ya muy tarde. Así por ejemplo, el sueño, la atención, la salud, la concentración, el placer, el dolor, la memoria y otros aspectos semejantes proceden todos de la escala microscópica; esto es, de tiempos que suceden entre pico y femto segundos muchos de ellos, a otros en micro segundos. Solo que de manera habitual, específicamente por razones de índole atávica, los seres humanos están acostumbrados a pensar y vivir –y por consiguiente a definir la realidad y lo que sea real– en términos macroscópicos: segundos, minutos, días y demás. Pues bien, más exactamente la complejidad del mundo, la sociedad, la naturaleza y la vida consiste en los cruces, correspondencias, complementariedades,

80

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 71-93


¿Qué es un sistema complejo?

simetrías y asimetrías, en la conmensurabilidad tanto como en la inconmensurabilidad entre tiempos, escalas y densidades temporales diferentes. Esta idea es fundamental a fin de comprender lo que significa “real” y “realidad”. Así, desde este punto de vista, la complejidad de un fenómeno estriba en las correspondencias –o no– entre escalas temporales, ritmos y velocidades diferentes, de cuyos entrelazamientos resulta tanto, de un lado, la comprensión acerca del carácter mismo de un fenómeno dado, como la estructura, la dinámica y las características ontológicas mismas del fenómeno considerado. Es exactamente esta imbricación de tiempos diversos, plurales los que definen la complejidad de un fenómeno (Maldonado & Gómez 2014). En verdad, la concepción clásica de la realidad ha sido monista y simple, expresada en el artículo definido “la” (particularmente en los idiomas romances). La traducción política o ideológica de una concepción semejante de lo real consiste en el hecho de que existe entonces una visión única o predominante del mundo y la naturaleza en desmedro de otras (acaso alternativas o complementarias), y en la aceptación (acrítica) del poder. Quien define lo que es real impone una forma de poder sobre los demás. Y en este sentido las expresiones semánticas no dejan lugar a duda: “la ética”, “el estado”, “el ejército”, “el arte”, “la ciencia”, “la educación”, “la iglesia”, “la realidad”, “la verdad” y muchas otras. Cabe advertir el peligro de expresiones semejantes. Como ha sido puesto de manifiesto hace ya un tiempo gracias a la tradición analítica en filosofía, hacemos cosas con palabras y, habitualmente, las palabras terminan definiendo y superponiéndose al mundo y a la vida. Nada más contrario y reacio al espíritu mismo de la complejidad creciente del universo y nuestras vidas. Si hay un rasgo amplio o transversal que caracterice a los sistemas complejos es el énfasis en diversidad, pluralidad, alteridad o multiplicidad (Page 2006). Los afanes reduccionistas son en verdad sueño ya soñado; o caracterizan, por lo demás, a la ciencia y la cultura normal: normal y normalizadas; normal y normalizantes. Entre paréntesis, digamos que lo peor que se le puede hacer un ser humano no es callarlo, eliminarlo, expulsarlo o cosas semejantes. Por el contrario, lo peor que se le puede hacer a un ser humano es normalizarlo. Y existe numerosos mecanismos de normalización. Uno de ellos es hacerles creer que existe un único tipo de realidad, de estado, de verdad y demás. Extrapolando lo que decía Napoléon, un ser humano es un idiota útil; esto es, sabe lo que hace, es incluso feliz con lo que hace, pero no sabe por qué hace lo que hace o para qué o hacia dónde va con lo que hace. La religión, la educación, la ética y el derecho son altamente eficientes y eficaces, aunque no son los únicos, en los procesos de normalización de los seres humanos.

81


Maldonado, Carlos Eduardo

Como se aprecia, fácilmente, un tipo particular de movimiento, una comprensión específica del tiempo y la temporalidad y la idea precisa de que se trata de fenómenos, sistemas y comportamientos de complejidad creciente son los que definen y caracterizan a las ciencias de la complejidad. Este es, por lo demás, uno de los rasgos que permiten comprender por qué razón en la sociedad y las instituciones se ha asimilado mucho mejor y más fácil, y cómodamente al pensamiento complejo y no a las ciencias de la complejidad. La expresión “pensamiento complejo” hace referencia a las ideas de E. Morin y sus seguidores, los cuales, en su mayoría, son reacios o recelosos a cualquier atisbo de “ciencias de la complejidad”, y a) confunden el concepto de ciencia clásica con el propio de las ciencias de la complejidad, y b) tienden a creer, erróneamente, que las ciencias de la complejidad son específicamente computacionales. La verdad es que epistemológica, filosófica y científicamente el pensamiento complejo se deriva o se fundamenta en las ciencias de la complejidad. Ahora bien, con respecto a la distinción entre pensamiento y ciencias de la complejidad, cabe decir, de manera puntual, tres cosas, así: en primer lugar, los conocimientos de ciencia en general por parte del pensamiento complejo son altamente cuestionables y muy frágiles. Reynoso ha llamado fuertemente la atención sobre este aspecto (Reynoso 2009); en segunda instancia, el pensamiento complejo es eminentemente antropocéntrico, antropológico y antropomórfico. Morin sitúa al hombre en la cima de la creación o de la evolución. En contraste, las ciencias de la complejidad son manifiestamente más ecocéntricas o biocéntricas; finalmente, el tercer rasgo distintivo radica en que el pensamiento complejo sostiene que todas las cosas son complejas. Por el contrario, en sana filosofía de la ciencia cabe decir que una teoría que lo explica todo no explica nada y que, así las cosas, no todas las cosas son complejas e incluso en determinados momentos y para determinados efectos es inclusive necesario y preferible que algunas cosas no sean complejas. En este sentido, justamente, distinguimos entre sistemas simples, sistemas complicados y sistemas complejos. Las ciencias de la complejidad solo se ocupan de los terceros. Pues bien, la idea misma de la temporalidad señalada anteriormente permite sostener que los sistemas complejos se definen directa y proporcionalmente por los grados de libertad que tienen o que exhiben. Más exactamente, la complejidad de un fenómeno o sistema es directamente proporcional a los grados de libertad del sistema, de tal suerte que a mayores grados de libertad mayor complejidad e inversamente a menores grados de libertad, menor complejidad (Baadi & Politi 1997). Como es sabido, el concepto de “grados de libertad” tiene su origen y significación en matemáticas y física. Pero cuando es traslapado a las ciencias sociales y

82

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 71-93


¿Qué es un sistema complejo?

humanas se torna magníficamente sugestivo. Un fenómeno o sistema se define por los grados de libertad en el sentido preciso de que se trata del número de parámetros de un sistema que pueden variar independientemente entre sí. Esta idea es fundamental, pues permite entender que la parametrización no es en el estudio de los fenómenos complejos no-lineales un asunto simple o mecánico. Puede decirse que ciertamente un sistema complejo tiene un número alto o elevado de parámetros, lo cual, sin embargo, no permite afirmar sin más que mayor número de parámetros implica necesariamente mayor complejidad. Los aspectos técnicos de esta consideración deben permanecer aquí al margen por razones de delimitación del tema. Por lo pronto, es suficiente con la idea general y ella nos permite una mejor comprensión o asimilación de en qué consiste un fenómeno complejo, que es aquí el foco de nuestro interés.

4. Ruptura, crisis y oportunidad Hay que decirlo francamente, la masa crítica en torno a la complejidad está creciendo de manera significativa alrededor del mundo. Asimismo, el interés en torno a las ciencias de la complejidad es pujante, con numerosos frentes. Ambas circunstancias demandan y permiten a la vez una atención acerca de la educación en complejidad y lo que podemos denominar las pedagogías de la complejidad. Ello no obstante, es evidente que las ciencias de la complejidad dan lugar a una auténtica ruptura epistemológica, científica y cultural. Digámoslo de manera puntual. No es cierto que existan dos clases de ciencia, ciencia empírica o por inducción y ciencia deductiva. Correspondientemente tampoco es cierto, en absoluto, que existan dos clases de métodos científicos: los métodos cualitativos y los métodos cuantitativos. Y claro, como muchos abogan recientemente, los métodos híbridos o mixtos –entre ambos–. Por el contrario, existen, hoy por hoy, tres clases de ciencia: la ciencia empírica, la ciencia deductiva y la ciencia por modelamiento y simulación. Y correspondientemente existen tres clases de métodos científicos: aquellos propios del pasado, los métodos cualitativos y los cuantitativos, y los métodos de punta actuales y hacia el futuro, a saber: el modelamiento y la simulación. No es, sin embargo, este el lugar para caracterizarlos de manera puntual. Por el contrario, quisiera dirigir la atención hacia otro aspecto, a saber, la consideración de la ruptura, la crisis y las oportunidades que constituyen las ciencias de la complejidad, un tema sobre el cual poco o nada se ha dicho alguna palabra en la bibliografía especializada.

83


Maldonado, Carlos Eduardo

Las adaptaciones de un organismo vivo no se pueden establecer de antemano (cannot be prestated). En términos más directos, la planeación en sus diversos tipos –notablemente la planeación estratégica, la prospectiva y demás–, no son pertinentes para los sistemas complejos; o lo que es equivalente, allí en donde esas herramientas –entre varias otras– son válidas y verdaderas no tienen lugar los sistemas complejos. Esto significa que las ciencias de la complejidad no son ciencias de lo real sino, mejor aún, son ciencias de lo posible. Es precisamente por ello por lo que el modelamiento y la simulación adquieren toda su significación en el sentido más fuerte, pero amplio de la palabra. El rasgo distintivo de los sistemas complejos consiste en una impronta de aleatoriedad, incertidumbre, impredecibilidad y no-algoritmicidad que son tanto inescapables como irreducibles. En contraste con estas características del mundo o de los acontecimientos en cualquier plano que se desee –social o natural–, la ciencia normal trabaja con predicciones retrospectivas. En otras palabras, en términos más elementales, la ciencia normal reconstruye parcialmente el pasado, pero no predice ni puede anticipar el futuro. Es decir, el mundo va siempre por delante y la ciencia va a la zaga. Las predicciones retrospectivas son, en verdad, bastante poco inteligentes, pues bien puede suceder, como es efectivamente el caso en la gran mayoría de las veces, que “al cabo” la predicción retrospectiva llegue tarde, y un gran costo de energía, de tiempo o humano puede haber estado en juego entre tanto. Justamente por ello las ciencias de la complejidad implican una auténtica y radical revolución. Su acervo más fuerte consiste en la incorporación de otras lógicas perfectamente distintas a la lógica formal clásica, que son, en general, las lógicas no-clásicas. Asimismo, al tiempo que trabajan con modelamiento y simulación, toman por consiguiente como hilo conductor, si cabe la expresión, no ya la heurística de un problema sino, mucho mejor, el trabajo con metaheurísticas. Y sin la menor duda, la columna vertebral de la complejidad consiste en el trabajo con los problemas P versus NP, esto es, la identificación de la clase de problemas con que trabaja la ciencia en general y que en el mundo, la sociedad y el universo enfrentan los seres humanos. Es evidente que estos son temas, abordajes, desarrollos nuevos frente a los cuales la educación en general, la cultura básica de la sociedad y la ciencia normal misma poco y nada saben. De aquí que se impone, por razones al mismo tiempo éticas o morales e intelectuales, la tarea de una educación amplia –esto es democrática–, y de la máxima calidad que logre situar a la sociedad en la medida de lo posible en

84

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 71-93


¿Qué es un sistema complejo?

la punta del conocimiento. Sin la menor duda, el destino de amplios grupos humanos dependerá del tipo de conocimiento al que tienen alcance. Esta idea puede ser expresada de manera puntual en los siguientes términos. La economía política del conocimiento se ocupa, dicho en general, del tipo de bienes –esto es, información, conocimiento, cultura, ciencia y tecnología– que una sociedad o un pueblo: consumen, distribuyen, circulan, acumulan, y producen en un momento determinado, de cara, al mismo tiempo, a la historia y la tradición, y a los desarrollos de punta en el conocimiento. Pues bien, quiero sostener la tesis según la cual la calidad de vida de los individuos y las sociedades es directamente proporcional al tipo de conocimiento al que tienen alcance en los términos mencionados. Y con toda seguridad, las ciencias de la complejidad representan una excelente muestra con mucha vitalidad y desarrollo, que se corresponde perfectamente con lo mejor del conocimiento en el mundo que hoy por hoy se produce y circula. Así las cosas, la formación, la socialización y el desarrollo en y desde, por y hacia las ciencias de la complejidad constituye, manifiestamente, una magnífica oportunidad para los individuos, las comunidades, las naciones y los pueblos en los marcos de turbulencia, inestabilidad, impredecibilidad definitiva o relativa y fluctuaciones del mundo que vivimos. Mil y una veces se ha dicho que vivimos un cuello de botella a nivel civilizatorio o, lo que es equivalente, tiempos de transición. Soy optimista acerca del presente y del futuro que verosímilmente podemos entrever, soñar o imaginar. Nunca antes como hoy han existido tantos científicos y tecnólogos, jamás habíamos literalmente vivido una era de la información y, ciertamente, que las tecnologías convergentes –llamadas de manera puntual tecnologías NBIC+S6 – permiten pensar, razonablemente, una sociedad y un mundo con más y mejores oportunidades, fundado en más y mejor información y conocimiento. En fin, un espíritu más crítico, reflexivo, deliberante y proactivo gracias precisamente a los fenómenos, dinámicas y transformaciones en curso en el orden de la educación en ciencia y tecnología, en el sentido al mismo tiempo más amplio, sólido e incluyente de la palabra. Como ha quedado ya claro en la historia y la filosofía de la ciencia, las crisis en la ciencia –esto es, los quiebres de los paradigmas vigentes y la irrupción de anomalías en los mismos y, por tanto, entonces la emergencia de nuevos paradigmas o revoluciones científicas–, radica esencialmente en la incapacidad 6 Me refiero, como es sabido, a las nanotecnologías, las tecnologías de la vida (biotecnologías), las tecnologías de la información y las del conocimiento, y a la dimensión social de todas las anteriores.

85


Maldonado, Carlos Eduardo

–digámoslo aún con más fuerza– en la inutilidad de la ciencia normal vigente, en la inutilidad de la “corriente principal” (mainstream) de pensamiento para comprender y resolver los problemas, teóricos y prácticos con que se enfrenta el ser humano (Holland 2014). Tenemos numerosos ejemplos y la lista podría hacerse prácticamente innumerable. Se trata, por ejemplo, de la crisis de la ciencia actual para resolver el calentamiento global, la generación de productos de ciclo corto de vida, el hiperconsumismo, la inequidad y la pobreza, las injusticias y la luchas con la violencia –abierta, o de baja intensidad–, los conflictos militares, la crisis financiera global con sus dramáticas consecuencias sociales, el salvamento absurdo de los bancos en desmedro del cuidado y la atención a la gente, la burocracia del Estado contemporáneo, la integración de la teoría de la relatividad y la física cuántica, y muchos más. Así, por ejemplo, las mejores mentes del planeta no vieron llegar la crisis económica y financiera actual, y tampoco saben cómo salir de ella, a pesar de los encuentros periódicos en diversos escenarios (Davos, bancos centrales regionales o nacionales, los grandes entes rectores de la economía mundial, el FMI, el BM, o la OMC). La casuística podría ser prolija en este plano y en varios más. Como quiera que sea, la crisis del mundo actual es en buena parte la crisis misma de los modos y modelos estándar de la educación, la ciencia y la tecnología. Esos modelos que podemos apropiadamente caracterizar como de ciencia normal, ya dieron todo lo que podían dar, y ya no pueden decir más de lo que ya dijeron. Pues bien, es precisamente en medio de estas circunstancias que cobra todo el sentido preguntarse acerca de la complejidad del mundo, de la realidad y de los tiempos que vivimos. Dicha complejidad descansa justamente en rasgos como impredecibilidad, esto es, específicamente, impredecibilidad a largo plazo, turbulencias y fluctuaciones, cambios súbitos, entrelazamientos de cascadas de errores, irrupción de acontecimientos que no cabía anticipar antes que emergieran, incertidumbre y aleatoriedad, y definitivamente la ausencia de parámetros y criterios claros acerca de la búsqueda de soluciones. Esto se denomina técnicamente en complejidad como el carácter no-algorítmico de los más importantes, acuciantes, sensibles y riesgosos problemas que afrontamos hoy en día en la sociedad tanto como en la comunidad académica, en las organizaciones tanto como en la comunidad científica. Pues bien, la mejor manera de resolver un problema consiste en (re)crearlo. El modelamiento y la simulación permiten justamente la (re)creación del

86

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 71-93


¿Qué es un sistema complejo?

problema de que se trata. Mejor aún, cabe recordar una idea que en un contexto diferente al de complejidad formulara Einstein. De acuerdo con Einstein, un problema (cualquiera) no se puede resolver al interior del marco en el que surge el problema. Esto quiere decir que si se intenta abordar e incluso si se “soluciona” el problema sin transformar el marco en el que surgió en realidad no se ha resuelto nada. El marco hace referencia al conjunto amplio de circunstancias, teorías, cultura, epistemología, relaciones sociales y de poder, lenguaje e historia, por ejemplo, que son los que, en un primer momento, dan origen a un problema. Y muy radicalmente, en otro momento, deben ser cambiados o transformados, incluso, por qué no, eliminados algunos, a fin de resolver el problema de que se trata. En este sentido, podemos decir que la ciencia normal no resuelve problemas, aun cuando permita hacer cosas. Esto es, la ciencia normal se define entonces simplemente por criterios de eficacia y eficiencia, pero en absoluto en términos de innovación. Esta idea comporta un alcance aún más significativo: la mejor manera de resolver un problema consiste en innovar, e innovar es una de las maneras de resolución de problemas. La dificultad enorme estriba en que en prácticamente todas las escalas de la sociedad y el sector privado, el sector público y la ciencia y la educación casi todo el mundo habla de innovación, pero la verdad es que le tienen pánico a los cambios, las transformaciones. La ciencia y la cultura, así, son mecanismos esencialmente conservadores. Exactamente como lo es el derecho, la ética o la educación. En otras palabras, la innovación, en toda la línea de la palabra, es un fenómeno que cuando acaece tiene lugar como ruptura, crisis y revolución. La bibliografía sobre la historia y filosofía de la ciencia, por ejemplo, está llena de ejemplos y casos al respecto. Esto quiere decir que la innovación no es, en manera alguna, un fenómeno normal sino, por el contrario, consiste en la generación de bifurcaciones, transiciones de fase, en fin, inflexiones en el conocimiento y en las organizaciones del conocimiento, tanto como en las relaciones entre el conocimiento las instancias, organizaciones e instituciones de toda índole y orden. Las instituciones ya se han enterado o se están enterando acerca de las ciencias de la complejidad. Pero no han llegado a cooptarlas; lo intentan, pero aún no es posible. Y una razón para esta imposibilidad es el hecho de que la complejidad implica cambio, transformación, innovación, ruptura y quiebres, por definición, no controlables. En una palabra, mientras que la ciencia normal es ciencia de control y manipulación, las ciencias de la complejidad se definen como la antípoda de la manipulación y el control.

87


Maldonado, Carlos Eduardo

5. ¿Qué clase de revolución científica son las ciencias de la complejidad? Queda dicho: las ciencias de la complejidad no son ciencias del control o de la manipulación. Por el contrario, son ciencias que se definen directamente en función de grados crecientes de libertad. En complejidad, como sostuve al comienzo, los grados de libertad de un fenómeno o sistema consisten en el número de parámetros necesarios o posibles, según el caso, para comprender o explicar un fenómeno. Sin embargo, la dificultad estriba en el hecho de que mayor número de variable no significa, en modo alguno, mayor complejidad; en numerosas ocasiones lo contrario es incluso el caso. Un ejemplo particular puede ser el manejo de un aeropuerto o del sistema de semáforos de una ciudad. Extrapolando el argumento, digamos que los fenómenos complejos exhiben miles, incluso millones de variables. Y la mejor manera de trabajar con un número tan alto de variables es mediante el modelamiento y la simulación. La complejidad de un fenómeno es, por tato, directamente proporcional a los grados de libertad que tiene o que exhibe un sistema, de tal suerte que a mayores grados de libertad mayor complejidad, e inversamente, a menores grados de libertad menos complejidad. Como es sabido, el concepto de grados de libertad procede originariamente de la física y las matemáticas, pero cuando es traslapado al ámbito de las ciencias sociales y humanas se vuelve magníficamente sugestivo. En eso consiste, por lo demás, la innovación, a saber: en generar o crear o en trabajar y ampliar con mayores grados de libertad que los previamente disponibles. Con una salvedad, quien innova no obedece normas o principio, y por el contrario, rompe tradiciones y usanzas. Fue el caso de Galileo o Descartes con el medioevo; fue el caso de Hook con respecto a la tradición alquimista; fue el caso de Pasteur con respecto al concepto centenario o casi milenario de generación espontánea; fue el caso de Einstein con respecto a la física newtoniana. El progreso humano consiste, así, en una apropiación de la historia, para transformarla de manera decidida y sorpresiva. Las ciencias de la complejidad implican de cara a la tradición o al pensamiento normal predominante una novedad, en primer lugar en el lenguaje. Nuevos conceptos y metáforas se crean o acuñan para designar los nuevos fenómenos de que se rata, a saber, los fenómenos y sistemas no-lineales, autoorganizados, emergentes de complejidad creciente. Organizacionalmente, el origen de las ciencias de la complejidad se remonta, a la fecha, a alrededor de treinta años cuando se crean los primeros Centros

88

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 71-93


¿Qué es un sistema complejo?

e Institutos dedicados al estudio e investigación de la complejidad: el Center for Studies of Nonlinear Dynamics en el Instituto La Jolla (1978), el Santa Cruz Institute for Noninear Science en los años 1980s, el Center for Nonlinear Studies en el Laboratorio Nacional de los Álamos (1980), y el Santa Fe Institute fundado en 1984. Esto es, demográficamente, llevamos una generación y media educando e investigando, divulgando y produciendo en el ámbito de este conjunto o grupo de ciencias, disciplinas, teorías, lenguajes, métodos, metodologías, aproximaciones y lenguajes cuyo rasgo distintivo es la no-disciplinariedad. Atávicamente diríamos interdisciplinariedad. Exactamente en este sentido, las ciencias de la complejidad implican una revolución consistente en indisciplinar el conocimiento, las instituciones el Estado y la sociedad. Esta indisciplinarización significa exactamente dejar de pensar en términos de disciplinas, ámbitos, campos o áreas, todos los cuales son rezagos de corte eminentemente feudal. Pues bien, la primera enseñanza al respecto consiste en el reconocimiento explícito de que la ciencia y las disciplinas no tienen ya, en absoluto, ningún objeto. Contra la tradición clásica que sostenía que la ciencia se caracteriza(ba) por tener un método propio, un lenguaje, una tradición, un ámbito y un modo propio de organización, las ciencias de la complejidad ponen abiertamente sobre la mesa, a plena luz del día, que la buena ciencia de punta hoy no se define por tener objetos sino, mejor y más radicalmente, por tener problemas. Se es científico o científica no por tener objetos de trabajo o ámbitos de estudio. Por el contrario, se es científico o científica por que se tienen problemas. Pues bien, los más importantes, apasionantes, difíciles y sensibles de los problemas a los que la humanidad, la sociedad, la ciencia y la cultura se enfrentan hoy en día son problemas de frontera. Un problema se dice que es de frontera cuando interpela o bien convoca a diferentes métodos, tradiciones, lenguajes y disciplinas. Aquellas ciencias, disciplinas y teorías que se fundan en y trabajan con problemas de frontera son ciencias (o disciplinas) como síntesis. De esta suerte, contra la tradición que sostenía que el progreso en el conocimiento tiene lugar como acumulación de elementos –en educación la inmensa mayoría de currículos y programas son eminentemente lineales y acumulativos– 7 las ciencias de la complejidad pueden ser entendidas como esa clase de ciencias que son bifurcaciones y rupturas, al mismo tiempo que se fundan en y dan lugar a síntesis. Basta con echar una mirada desprevenida 7 Esto se expresa de manera puntual en el reconocimiento explícito de que en numerosos lugares los programas y las mayas curriculares se articulan en términos de: tal materia o seminario es pre-requisito para tal otro, o tal otro es la continuación y profundización de uno anterior.

89


Maldonado, Carlos Eduardo

al estado del arte en la materia alrededor de los mejores centros e institutos de enseñanza e investigación alrededor del mundo en complejidad; esto es, en ciencias de la complejidad. Las ciencias de la complejidad indisciplinan el conocimiento y la sociedad, el Estado y las instituciones en el sentido mencionado. Pero incluso, atendiendo por ejemplo, a la obra de Foucault, las ciencias de la complejidad indisciplinan8 el conocimiento, el poder, las instituciones y la sociedad en el sentido preciso que este filósofo señala en su obra. Se trata, pues, de evitar la domesticación, el amaestramiento, la docilidad y todos los mecanismos cognitivo-conductuales ampliamente vigentes y triunfantes para afirmar justamente grados de libertad y autoorganización. No escapa a una mirada sensible lo molesto que pueden resultar estos planteamientos para las buenas conciencias. Si las ciencias de la complejidad son ciencia revolucionaria, ¿se enseña y se aprende en complejidad de la misma manera que se enseña y se aprende en la ciencia normal?, o ¿se aprende y se enseña de forma diferente? Si las ciencias de la complejidad son ciencia de nuevo tipo, si cabe la expresión –Vico (2012) decía: nuova scienza, en su época–, ¿se investiga en complejidad de la misma manera como se investiga normalmente en la ciencia en la corriente principal de pensamiento?, o bien ¿se investiga de otra forma? Más aún, si las ciencias de la complejidad implican o son un nuevo paradigma que apunta hacia un contexto diferente como condición de resolución de problemas, de acuerdo con la tesis de Einstein antes mencionada, ¿los puentes entre la ciencia y la sociedad pueden y deben ser los mismos que en el caso de la ciencia normal, o bien es preciso pensar en nuevos y diferentes canales y puentes? Como se observa sin dificultad, se trata así de problemas y retos que comportan una dimensión de profundidad y radicalidad sin iguales. Debo, por razones de espacio y motivo, dejar las respuestas a estos interrogantes para otro lugar. Se trata, de hecho, del objeto de otro texto sobre el cual mi investigación avanza en este momento.

6. Conclusiones La sociedad y el establecimiento, las instituciones y las organizaciones ya cooptaron al pensamiento complejo, a los enfoques sistémicos, a la cibernética. Políticamente estos se han vuelto inocuos. Han sido instrumentalizados y parametrizados. La fuerza de innovación y de radicalidad ya se perdió en ellos. 8 Esto es, sacan de las disciplinas existentes, hibridan unas con otras, se subdividen internamente y se integran también con otras, tanto en el plano metodológico comoe en el conceptual.

90

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 71-93


¿Qué es un sistema complejo?

Precisamente, un problema teórico fundamental en la familia de los estudios sobre pensamiento sistémico y complejidad en general consiste en el estudio o el trabajo de elaboración en torno a criterios de demarcación. Hemos ganado mucho terreno ya en la demarcación entre ciencia normal y ciencia revolucionaria, para decirlo en el lenguaje de Kuhn. Sin embargo, aún falta mucho por ahondar en criterios de demarcación en torno a la familia del pensamiento sistémico y del pensamiento complejo relativamente a las ciencias de la complejidad. Hemos comenzado a trabajar en esta dirección en otro lugar. Pero aquí, solo debe quedar como una indicación general. Nuestro interés ha sido aquí el de discutir qué es un sistema complejo, un asunto que no parece obvio ni trivial como se aprecia a partir de las reflexiones anteriores. Huelga decir que no todos los sistemas fenómenos y comportamientos son complejos. Mientras el mundo, la sociedad o la vida no sea compleja, para numerosos efectos, tanto mejor. Pero cuando las cosas: son, o bien se vuelven o se hacen complejas, tenemos a la mano una serie de ciencias –que se componen a su vez de disciplinas, teorías y demás–, que hacen de esto su interés central. Lo maravilloso es que si bien no existe ninguna tendencia y, ciertamente no a priori, de complejización creciente de las cosas, sí cabe pensar, anticiparse, investigar y prepararse, en la medida de lo posible, a vivir en tiempos de turbulencia y en contextos de inestabilidad. Literalmente, como enseñara Heráclito, el Oscuro de Éfeso: “Si no se espera lo inesperado no se lo hallará, dado lo inhallable y difícil de acceder a lo que es” (Frag. 729, 22 B 18). La cultura y la historia tradicionalmente desconocieron, despreciaron o dejaron de lado, con diversos argumentos, las cosas que se hacían complejas, o bien que eran complejas. En nuestro tiempo, por primera vez en la historia de la humanidad disponemos de una batería de herramientas, por así decirlo –herramientas conceptuales, computacionales, matemáticas, lógicas, epistemológicas y otras– que nos permite aprovechar (harnessing) la complejidad (Axelrod & Cohen 2001) y vivir con ella, en lugar de simplemente descartarla. Al fin y al cabo, el más apasionante, el más complejo de todos los fenómenos y sistemas, el más sensible y determinante desde cualquier punto de vista es la vida, los sistemas vivos; de los que nosotros somos solamente un componente, y acaso no el más determinante. Si ello es así, se hace imperativo el buen conocimiento, el sólido estudio, la reflexión, la crítica también, la formación, la educación y la investigación en torno a los sistemas complejos. Para ello tenemos a la mano ese conjunto sugestivo: las ciencias de la complejidad. Un medio idóneo, reciente y algo difícil

91


Maldonado, Carlos Eduardo

gracias al cual nos proponemos afirmar, exaltar, gratificar y hacer posible, cada vez más, la vida en el planeta; la vida conocida, tanto como la vida por conocer, la vida tal y como es, tanto como la vida tal-y-como-podría-ser.

Trabajos citados Andrade, E. “La vigencia de la metafísica evolucionista de Pierce”. Revista Colombiana de Filosofía de la Ciencia, Vol. 14, No. 28 (2014): 83-121. Axelrod, R. & Cohen, M. C. Harnessing Complexity. Organizational Implications of a Scientific Frontier. Basic Books, 2001. Baadi, R. & Politi, A. Complexity. Hierchical structures and scaling in physics. Cambridge: Cambridge University Press, 1997. Ben-Naim, A. La entropía desvelada. El mito de la segunda ley de la termodinámica y el sentido común. Barcelona: Tusquets, 2011. Gell-Mann, M. El quark y el jaguar. Aventuras en lo simple y lo complejo. Barcelona: Tusquets, 2003. Holland, J. Complexity. A very short introduction. Oxford: Oxford University Press, 2014. Horgan J. “From Complexity to Perplexity”. Scientific American, June, 1995, disponible en: http://www2.econ.iastate.edu/tesfatsi/hogan.complexperplex.htm Lombardi, O. & Labarca M. “Los enfoques de Boltzmann y Gibbs frente al problema de la irreversibilidad”. Crítica. Revista Hispanoamericana de Filosofía, Vol. 37, No. 111 (2005): 39-81. Maldonado, C. E. “Las Revoluciones Científicas y los Estudios CTS como Unidad de Ciencia: Sus alcances para América”, No. 7, UTEM, 2012, en: http://thelos.utem.cl/2012/12/las-revoluciones-cientificas-y-los-estudioscts-como-unidad-de-ciencia-sus-alcances-para-america/ ―. Termodinámica y complejidad. Una introducción para las ciencias sociales y humanas. Bogotá: Ed. Desde Abajo. 2012 (2ª ed.). Maldonado, C. E. & Gómez-Cruz, N. “Synchronicity Among Biological and Computational Levels of an Organism: Quantum Biology and Complexity”. Procedia Computer Science, 36, (2014): 177-184. DOI: 10.1016/j.procs.2014.09.076,

92

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 71-93


¿Qué es un sistema complejo?

―. “Modelamiento y simulación de sistemas complejos”. Bogotá, Facultad de Administración, Universidad del Rosario No. 66, ISSN 0124-8219, Febrero, (2010): 1-32. Mitchell, M. Complexity. A guided tour. Oxford: Oxford University Press, 2009. Nicholis, G. & Prigogine, I. La estructura de lo complejo. En el camino hacia una nueva comprensión de las ciencias. Madrid: Alianza, 1994. Odifredi, P. La matemática del siglo XX. De los conjuntos a la complejidad. Buenos Aires: Katz, 2006. Page, S. E. Diversity and Complexity. Princeton and Oxford: Princeton University Press, 2006. Rada, E., (Edición de). La polémica Leibniz Clarke. Madrid: Taurus, 1980. Reynoso, C. Modelos o metáforas: Crítica del paradigm de la complejidad de Edgar Morin. Buenos Aires: sb, 2009. Scott, A. C. The Nonlinear Universe. Chaos, Emergence, Life. Springer Verlag, 2007. Serres, M., (ed.). Historia de las ciencias. Madrid: Cátedra, 1991. Thom, R. Estabilidad estructural y morfogénesis. Ensayo de una teoría general de los modelos. Barcelona: Gedisa, 1996. Vico, G. Principios de una nueva ciencia. México, D. F.: F. C. E, 2012. Zwirn, H. P. Les systèmes complexes. Mathématiques et biologie. Paris: Odile Jacob, 2006.

93



Neuronas espejo y simpatía en A dam Smith: comparación de dos perspectivas sobre la empatía, frente al reduccionismo científico1, 2, 3

Mirror neurons and sympathy in adam smith: comparison between two perspectives of empathy, in front of scientific reductionism

Beatriz Shand Klagges4, 5

R esumen Se presenta una comparación entre la descripción de la simpatía por Adam Smith en el libro La Teoría de los Sentimientos Morales (TSM) y la empatía comprendida como fenómeno psicológico en la perspectiva neurocientífica. Esta comparación se realiza en tres momentos: en la génesis de la empatía, en la conformación de la capacidad empática durante el desarrollo humano y en las implicancias sociales y morales de la empatía. A pesar de la distancia temporal y epistémica de ambas perspectivas, se aprecian como aspectos comunes: el reconocimiento de la empatía como fenómeno connatural a lo humano y la modulación o desarrollo de la empatía en la interacción social. Las perspectivas se distancian en las implicancias sociales y morales de la empatía. En la TSM se propone la empatía como la trama psicológica básica desde dónde surge la moralidad. La interpretación neurocientífica apunta hacia una reducción funcionalista de la moral. Palabras clave: Neurociencia, sentimentalismo, Teoría de los sentimientos morales.

A bstract This work presents a comparison between the Adam Smith’s description of sympathy in the book The Theory of Moral Sentiments (TSM) and the empathy understood as a psychological phenomenon in Neuroscience. This comparison is developed in three moments: in that of the genesis of empathy, in the configuration of empathic capacity during human development and in the social and moral implications of empathy. Despite the temporary and epistemic distance of both perspectives, they have common views: the recognition of empathy as a connatural phenomenon to the human being and the modulation or development of empathy in social interaction. These perspectives have differences related to the social and moral implications of empathy. The TSM identifies empathy as a source of morality. Neuroscience understands empathy as part of a functionalistic moral system. Key words: Neuroscience, Sentimentalism, Theory of Moral Sentiments. 1 Recibido: 30 de julio de 2014. Aceptado: 23 de septiembre de 2014. 2 Este artículo se debe citar como: Shand, Beatriz. “Neuronas espejo y simpatía en Adam Smith: comparación de dos perspectivas sobre la empatía, frente al reduccionismo científico”. Rev. Colomb. Filos. Cienc. 14.29 (2014): 95-112. 3 Agradecimientos a la profesora María Alejandra Carrasco de la Facultad de Filosofía de la Pontificia Universidad Católica. 4 Facultad de Medicina, Pontificia Universidad Católica de Chile. Correo: bshand@uc.cl. 5 Santiago de Chile, Chile.


Shand Klagges, Beatriz

1. Introducción En el presente trabajo se propone una comparación entre la empatía como fenómeno analizado desde una perspectiva neurocientífica y la empatía descrita en The Theory of Moral Sentiments (TSM) de Adam Smith. La comparación entre ambas perspectivas se realiza en tres momentos: en la comprensión de la génesis de la empatía, en la conformación de la capacidad empática en el desarrollo humano y en las implicaciones sociales y morales de la empatía como fenómeno interpersonal. A pesar de la distancia temporal y epistémica de ambas perspectivas se reconocen aspectos comunes para ambas, tales como: el reconocimiento de la empatía como fenómeno connatural a lo humano y la modulación o desarrollo de la empatía en la interacción social. Estas dos perspectivas se distancian al reconocer las implicancias sociales y morales de la empatía. Para enfrentar adecuadamente la tarea es necesario revisar brevemente algunos antecedentes de ambas perspectivas. Tal como se describe en el prefacio del primer número de la revista Annual Review of Neuroscience, publicado en 1978, la Neurociencia es el saber interdisciplinario en el que convergen la neuroanatomía, neuroquímica. neurofisiología y psicología experimental. En este contexto, aun cuando la tradición neurocientífica reconoce la incorporación del concepto de empatía (Einfühlung) por el filósofo y psicólogo Theodor Lipps, a principios del siglo XX, el mayor desarrollo en investigación en esta área se ha evidenciado en las últimas décadas. A partir de la década del 90 del siglo pasado, el estudio de la empatía se ha focalizado en gran parte en problema neurobiológico, es decir, en la búsqueda de la correlación neurofisiológica entre el acto de empatizar y la actividad cerebral. Es en esta búsqueda donde se realiza el descubrimiento de las neuronas espejo. Adam Smith, filósofo y economista escocés, ha sido reconocido principalmente por su aporte en economía clásica. La Teoría de los Sentimientos Morales corresponde a su primer libro escrito en el contexto de su cátedra de Filosofía Moral en la Universidad de Glasgow. A pesar de que fuera reconocido en su época, este trabajo no ha sido profundizado suficientemente; sino hasta las últimas décadas, en las que su aporte ha sido nuevamente fuente de estudio y reflexión. La propuesta de Smith respecto de los sentimientos morales se ha comprendido como una explicación genética de la moral a partir de experiencias psicológicas; una construcción de la moralidad humana a partir de tendencias innatas y amorales. De este modo, Smith enfrenta el desafío de describir desde una perspectiva psicológica las tendencias que reconoce en la base de la experiencia moral. En esta empresa, el autor utiliza el término simpatía para referirse a un

96

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 95-112


Neuronas espejo y simpatía en Adam Smith

conjunto de experiencias, algunas de las cuales tienen un claro sentido psicológico y otras un sentido moral. Siguiendo a autores como Carola von Villiez, Maria A. Carrasco propone que la simpatía es una parte del puente que une la experiencia psicológica con la moralidad humana en Adam Smith. Para llevar a cabo la propuesta de este trabajo, es necesario, en primer lugar, enfrentar las objeciones obvias a la metodología propuesta. Una primera objeción resulta de la distinción epistémica desde donde se realiza el análisis de la empatía. El método filosófico –propio de la obra de Smith- podría no tener ninguna forma de diálogo con el método científico que predomina como paradigma de evidencia en la Neurociencia. La respuesta a esta objeción se puede expresar desde ambas perspectivas. En primer lugar, es necesario reconocer que la Neurociencia incluye disciplinas originaria o estructuralmente ligadas a la Filosofía (tales como la Psicología) y, por lo tanto, es de esperar que existan puentes originarios entre Neurociencia y Filosofía. Por otra parte, también la Filosofía puede tener un abordaje empírico, reconociendo como materia primaria de estudio la experiencia humana. Este último abordaje, característico de las corrientes filosóficas contemporáneas tales como la fenomenología, es también propio de la perspectiva empirista de Smith en cuanto intenta dar cuenta de la vivencia humana intersubjetiva a través de la observación de la experiencia humana (en sí mismo y en los demás). Finalmente, otra respuesta a la objeción referente a la dificultad de comparar ambas perspectivas (neurocientífica y filosófica), es el reconocimiento de que aun en el experimento neurobiológico más estricto existe un momento interpretativo, en el cual el científico debe explicar el significado de sus resultados para la comprensión de la realidad en general, reconociendo sus alcances y límites. Este momento interpretativo es de la mayor relevancia cuando los resultados se refieren a la comprensión de la conducta humana6. Resulta relevante comentar aquí también, que existen esfuerzos recientes por articular distintas perspectivas epistémicas sobre la empatía, tal como el que realiza Christel Fricke al comparar la simpatía de Adam Smith con la empatía descrita en el ámbito de la psicología del desarrollo por Martin Hoffman.

6 Tal como se observa en el clásico ejemplo del estudio de Benjamin Libet para el estudio de la libertad humana, la perspectiva filosófica del autor impacta significativamente en la interpretación de los datos: Benjamin Libet intentó en 1981 demostrar la inexistencia de la libertad mediante un estudio en el cual sometió a voluntarios a la decisión de mover un dedo, mientras evaluaba en forma simultánea sus respuestas neurofisiológicas. Al detectar activación del cerebro previo a la evidencia de la decisión, asumió que la actividad cerebral era la causa de la decisión libre. Sus conclusiones fueron ampliamente debatidas por la comunidad científica quien identificó en el análisis del experimento un claro sesgo en la interpretación (Libet 1981).

97


Shand Klagges, Beatriz

2. Origen y desarrollo de la empatía 2.1. Perspectiva neurocientífica: En una revisión neurocientífica reciente, la empatía se reconoce como aquella capacidad de “formar una representación corporeizada del estado emocional del otro, siendo al mismo tiempo conciente de los mecanismos causales que indujeron el estado emocional en el otro”7 (Gonzalez-Liencres1538). En la misma revisión se distingue entre empatía emocional (sentir lo que otros sienten) y empatía cognitiva (conocer lo que otros conocen, buscan o desean). La primera sería evolutivamente más primitiva, mientras que la segunda, propia de los homínidos (incluyendo algunas especies de monos y humanos). El reconocimiento de las neuronas espejo por Giacomo Rizzolatti, Leonardo Fogassi y Vittorio Gallese en 1996 ha sido uno de los hitos centrales en la comprensión de la empatía desde la Neurociencia. El descubrimiento de estas neuronas, realizado principalmente en monos, rompe el paradigma previo de la especificidad de las neuronas respecto de su actividad motora o sensitiva, dado que son neuronas que podrían describirse como “sensitivo-motoras”. Su descubrimiento significa además un inmenso avance en la comprensión de los mecanismos neurobiológicos de la percepción en el ser humano y han propuesto nuevas hipótesis respecto de la toma de decisiones en seres humanos. Sus descubridores proponen que este tipo de neuronas participan en el reconocimiento de las intenciones y el valor subjetivo de los actos motores realizados por otros, es decir, corresponderían a la base neurobiológica de la empatía. Una explicación más detalla de los procedimientos que llevaron a descubrir las neuronas espejo y de la interpretación de sus resultados por parte de la comunidad neurocientífica se puede encontrar, entre otros libros de difusión neurocientífica, en el libro de Marco Iacoboni: Las neuronas espejo: empatía, neuropolítica, autismo, imitación o de cómo entendemos a otros. Para Iacoboni, las neuronas espejo nos brindan por primera vez en la historia “una explicación neurofisiológica plausible de las formas complejas de cognición e interacción sociales” (Iacoboni 15). Para comprender mejor la teoría neurocientífica sobre la empatía, vale la pena recordar el descubrimiento original de las neuronas espejo. Se trata de un estudio que intentaba descifrar la zona cerebral que se activa durante el 7 “We propose a narrow definition of empathy as the ability to form an embodied representation of another´s emotional state, while at the same time being aware of the causal mechanism that induced the emotional state in the other” (Gonzalez-Liencres, 1538)

98

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 95-112


Neuronas espejo y simpatía en Adam Smith

movimiento de la mano en monos (zona cerebral F5). Para reconocer la activación de esta zona –en animales que tenían monitoreo permanente de la actividad bioeléctrica de la corteza cerebral a través de electrodos implantados en la misma– los neurocientíficos codifican en sonidos la actividad bioeléctrica neuronal. Por casualidad un investigador (Gallese) tomó en su mano un objeto delante del mono en estudio e inmediatamente percibió el ruido característicamente asociado a la actividad de la corteza cerebral motora, es decir la que se activa durante el movimiento de la mano. Estudios posteriores confirmaron el hallazgo: un 20% de las neuronas presentes en la zona definida previamente como motora se activa al contemplar el movimiento de la mano de otro sujeto. El hallazgo, descrito por Iacoboni como de “fenomenología neurofisiológica” rompió paradigmas y abrió nuevas e insospechadas líneas de investigación. Experimentos posteriores, tales como el de Ferrari publicado en 2003, demostraron que la intención del agente que actúa produce una respuesta distinta en el observador: la activación de las neuronas espejos en monos es mucho mayor cuando observan tomar algo para comer que cuando ven tomar un objeto simplemente para cambiarlo de lugar. La interpretación de estos estudios fue unívoca para sus autores; en palabras de Iacoboni: La propiedad más elemental de las neuronas espejo –es decir, activarse tanto ante el acto de tomar una taza y ante el mismo acto observado– sugiere que sirven para reconocer los movimientos que realizan otras personas. Así mismo indican que el “reconocimiento de movimiento” que de este modo se instrumenta es una suerte de simulación o de imitación interna de los actos observados (Iacoboni 37).

De esta manera, utilizaríamos una simulación interna de nuestros propios movimientos para comprender las intenciones de los movimientos que observamos en otros. Proponen entonces que los mecanismos de imitación, mediados por las neuronas espejos, son clave para el reconocimiento de intenciones en terceros. En palabras de Iacoboni: Uno de los objetivos principales de la imitación puede ser, precisamente, la posibilidad de tener una “intimidad” corporeizada entre el yo y los otros en las relaciones sociales. La tendencia de la imitación y de las neuronas espejos a volver a capturar tal intimidad puede representar una forma más primaria y originaria de intersubjetividad a partir de la cual el yo y el otro cobran forma. (Iacoboni 73).

Los descubridores de las neuronas espejo apoyan de esta manera una Teoría de la simulación para la comprensión de la mente de los demás: “entendemos la

99


Shand Klagges, Beatriz

situación de los otros, simulando literalmente, estar en la situación del otro” (Iacoboni 77) de una manera, a juicio de Iacoboni, radical e inconsciente. Para alcanzar esta comprensión del otro las claves fundamentales son la observación del movimiento, el contexto en que se realiza, así como la captación de gestos emotivos cuya réplica inconsciente en nosotros nos permitiría entender emociones e intenciones de los demás. Desde la Neurociencia se propone además –basándose en las notables similitudes morfológicas interespecies– una interpretación evolucionista de las neuronas espejo y demás mecanismos neurobiológicos de la empatía, reconociendo que su presencia y funcionalidad podría representar el hito diferenciador de los distintos niveles de complejidad en la conducta de los seres vivientes8. Los descubridores de las neuronas espejo proponen para ellas un rol clave en el desarrollo humano en lo referente a la adquisición del lenguaje, la interacción social y el aprendizaje ampliamente comprendido, dando origen así a nuevas líneas de investigación y reinterpretaciones de trabajos neurocientíficos previos. El hallazgo cuestionó la propuesta de Piaget de que el aprendizaje por imitación comenzaba a en el segundo año de vida y volvió la mirada sobre estudios que sostenían que los seres humanos mostraban indicios de imitación a partir de los 41 minutos de vida extrauterina. La imitación aparece en el hombre como un fenómeno básico, previo a desarrollos cognitivos complejos. La investigación sobre las neuronas espejos vuelve la mirada sobre trabajos como el de Carol Eckerman, que reconoció la importancia de las capacidades imitativas en la adquisición del lenguaje en niños: los niños con mayor capacidad de imitar tienen un mejor desarrollo lingüístico. Por otra parte, desde la psicología del desarrollo humano, se ha descrito cómo la capacidad imitativa en niños tiene evoluciona desde el predominio del reconocimiento de la “meta” de la acción al reconocimiento de formas más complejas de imitación (Iacoboni 72). Aun cuando existen interpretaciones neurobiológicas diferentes o complementarias a la propuesta por quienes descubrieron las neuronas espejo, incluyendo el reconocimiento de determinantes genéticos o epigenéticos y el rol de distintos neurotransmisores en la capacidad empática, el descubrimiento de las neuronas espejos sigue siendo un hito central en la comprensión neurocientífica de los actos humanos, gozando además de gran difusión en circulos ajenos a la disciplina. 8 Así, un desarrollo mayor de estas podría explicar las diferencias de comportamiento social interespecies, incluyendo las conductas más básicas (tales como el cuidado de las crías) hasta las más complejas (tales como el comportamiento altruista).

100

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 95-112


Neuronas espejo y simpatía en Adam Smith

Finalmente, Iacoboni sugiere que el mal funcionamiento de las neuronas espejo podría estar a la base de conductas psicológica y socialmente anómalas, tales como el autismo o los comportamientos psicopáticos. Autores tales como Gonzalez-Liencres proponen una clasificación neurobiológica de las distintas anormalidades en el desarrollo de la empatía: distinguiendo entre patologías con compromiso de empatía emocional de aquellas con compromiso de empatía cognitiva; y otras que incluyen ambas.

2.2. Simpatía en Adam Smith El abordaje de la simpatía en Adam Smith es frecuentemente reconocido como uno de los primeros trabajos filosóficos sobre la empatía9. Christel Fricke plantea que el término simpatía es, para Smith, un término técnico, que describe una disposición emocional natural a compartir los sentimientos de los otros y preocuparse respecto de su fortuna y felicidad (Fricke 1)10. De esta manera, la autora reconoce que la disposición emocional innata que Smith llama “simpatía” se asemeja notablemente a lo que los psicólogos del desarrollo llaman “empatía”11. Tom Campbell, en cambio, distingue entre la simpatía de Smith y el concepto de empatía, que sería más cercano a lo que en Hume y Hutcheson –hablando de simpatía– entienden como el simple contagio o “infección” de las emociones. Campbell destaca las diferencias entre ambos conceptos, enfatizando que en Smith la simpatía no es un sentimiento, sino una correspondencia entre los sentimientos de dos personas. Reconociendo que Smith parte desde esa experiencia de contagio básico, Campbell explica que la simpatía en este autor se extiende mucho más allá de esa experiencia, por lo que discrepa de la asimilación de los términos empatía y simpatía. Siendo un tema debatido –y que escapa al objetivo central de este trabajo– el que la simpatía de Adam Smith pueda o no utilizarse como sinónimo de empatía, en lo sucesivo se usará el término simpatía para describir la perspectiva 9 En la entrada Empathy de la Enciclopedia Stanford de Filosofía, puede leerse: “Empathy is ultimately based on an innate disposition for motor mimicry, a fact that is well established in the psychological literature and was already noticed by Adam Smith (1853)” (Stueber). 10 “Sympathy is, for Smith, a technical term; he uses it first and foremost for describing a natural emotional disposition of people that is inborn and as basic as their self- love; in virtue of their natural symphaty, people are interested “in the fortune of others” (TSM I, 1.1,9); they can share other´s people feelings (TSM I, I, 1.5, 10) and care about their happiness; furthermore, they have a natural desire to be in a state of mutual sympathy with other people (TSM I,ii,title 13)” (Fricke 1). 11 “The inborn emotional disposition Smith calls “sympathy” resembles to a remarkable extent what developmental psychologists call “empathy”” (Fricke 2).

101


Shand Klagges, Beatriz

de este autor y solo, al momento de destacar las coincidencias entre las dos perspectivas incluidas este trabajo, se usará de manera general el término empatía. En la parte I de la TSM, Adam Smith realiza una descripción psicológica detallada de lo que podría denominarse “proceso simpatético”. Para describirlo, se utilizarán los cuatro tipos explicativos de la propuesta de Smith, sistematizados por Carrasco en 2011. La autora reconoce dos tipos de simpatía que se viven de manera unidireccional (one-way sympathy) y dos que corresponden a una experiencia interpersonal, denominadas “simpatía mutua”: una todavía a nivel psicológico y la última –desde donde se desarrolla la moralidad– la simpatía mutua moral. Respecto de la simpatía unidireccional, Adam Smith reconoce dos niveles. En primer lugar, se reconoce un nivel básico en el que se experimenta una respuesta instantánea a los sentimientos de los demás: “las pasiones (…) parecen ser transfundida de un hombre a otro, instantáneamente y antecediendo a cualquier conocimiento de qué las excitó en las persona principalmente afectada” (TMS 11). Este nivel es descrito como transfusión mecánica de emociones. La simpatía que surge al “sintonizar” nuestras pasiones de manera instantánea, sería para este autor un sentimiento “extremadamente imperfecto” (TSM 11) que, sin embargo, está intrínsecamente orientado hacia una forma secundaria y superior de simpatía, que surge al conocer las causas de la pasión que afecta al otro. En este punto se reconoce el surgimiento del segundo nivel de simpatía unidireccional, que corresponde al posicionamiento imaginativo en la situación del otro. Este segundo tipo de simpatía, exige el reconocimiento de las causas que producen el sentimiento en el otro, tal como propone Smith, se refleja en la pregunta espontánea: ¿qué te pasó? Recoge la necesidad de conocer los motivos de los sentimientos del otro –lo cual implica en esta perspectiva un reconocimiento de sus circunstancias e incluso de su carácter– para poder simpatizar totalmente con él. En palabras de Smith, referidas a este tipo de simpatía: “la simpatía, entonces, no surge tanto de la visión de una pasión cuanto de la situación que la provoca” (TSM 12). Hasta aquí, la simpatía se refiere a la experiencia vivida por un ser humano que observa al otro. Este ser humano en un primer nivel puede verse contagiado por emociones (el primer tipo de simpatía) o puede buscar compartir los sentimientos del otro, entendiendo su situación para lograr posicionarse en la causa de sus sentimientos, incluyendo en esta comprensión los condicionantes de la historia personal, del carácter y, en general, de todos los condicionantes de la vivencia emocional del otro.

102

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 95-112


Neuronas espejo y simpatía en Adam Smith

Estas formas de simpatía unidireccional están dirigidas al paso siguiente, que corresponde a la experiencia de la simpatía mutua. A un nivel psicológico, la simpatía mutua se realiza a través de un esfuerzo imaginativo de ambas partes de situarse en la posición del otro y de ajustar su respuesta emocional de manera que exista una sintonía real de ambos. Todo este proceso es motivado por el placer propio de la simpatía mutua: “cualquiera que sea la causa de la simpatía, o como quiera que esta sea excitada, nada nos place más que observar en otros un sentimiento de camaradería (fellowfeeling) con todas las emociones de nuestro propio pecho; y nada nos choca más que la aparición de lo contrario” (TSM 13). Smith reconoce así un sentimiento de placer connatural al ser humano, que surge de la experiencia de acercar la vivencia emocional de la persona primariamente afectada por un sentimiento, con la persona que lo observa. Este acercamiento es fruto de un esfuerzo de ambas partes, que se observan al mismo tiempo que intentan comprender la situación en que se encuentra el otro. En el sentido inverso, la incapacidad de acercar ambas vivencias es descrita por Smith como naturalmente opuesta a nuestras tendencias naturales en relación a la vida en sociedad y fuente de conflicto en comunidad. Este sentimiento no surge simplemente del contagio de la pasión desde la persona principalmente afectada con quien lo observa, sino de la satisfacción de alcanzar una plena coincidencia entre ambas partes, resultando placentera aún en el caso en que el sentimiento compartido corresponda a tristeza. Para Smith esta coincidencia produce una emoción de segundo orden, que describe como siempre agradable y deliciosa. En esta misma línea, utilizando el experimento mental de una persona que se desarrolla en el aislamiento y que ha vivido de manera individual cada una de sus pasiones, el autor describe cómo la incorporación a la sociedad de esa persona dará origen a un segundo orden de sentimientos, que tienen relación con el efecto de su conducta sobre los demás y los sentimientos que genera en ellos: “Ponlo en sociedad, y todas sus propias pasiones inmediatamente llegarán a ser causa de nuevas pasiones. El observará que la humanidad aprueba alguna de ellas y se disgusta con otras” (TSM 110). De esta manera el juicio sobre las propias acciones se establece –en un individuo en sociedad– por la existencia real o potencial de un espectador de tales acciones. Esto exige que nos pongamos en la posición de un tercero. Para describir este proceso, y siguiendo la influencia de otros autores que podrían denominarse como sentimentalistas-espectoriales, Adam Smith utiliza el recurso de un “espectador imparcial”. Este espectador, dada la distancia que asume respecto de una u otra persona, reconoce con mayor claridad el punto de equilibrio –en términos de Smith el sentido de propiedad de los sentimientos– en el cual se hace efectivo el sentimiento de aprobación

103


Shand Klagges, Beatriz

que inspira y hacia el cual se dirige el proceso simpatético. Tal como lo plantea Carrasco, a diferencia de Hume y Hutcheson, Smith propone que el espectador imparcial no es un tercero ajeno a la experiencia, sino que surge “en el pecho” de quienes participan del proceso, en la medida en que se esfuerzan por encontrar la respuesta sentimental más apropiada a las circunstancias vividas. Para que este proceso se lleve a cabo, Smith plantea que resulta imprescindible una cierta racionalización de los sentimientos, de manera que el sujeto primariamente afectado pueda salir de sí mismo y contemplar la posición de quien lo observa modulando sus pasiones –a través del ejercicio del autodominio (selfcommand)– a un punto que permita al observador acercarse a ellas. Exige además al observador una sensibilidad, descrita por Smith en términos de humanidad o benevolencia, que le permita ponerse en el lugar del otro, no simplemente como sí mismo bajo el motivo que gatilla esa pasión, sino tratando de identificar lo más cuidadosamente todos los elementos que configuran la experiencia del otro. Como ya se ha adelantado, en la experiencia de la simpatía mutua descrita en una perspectiva psicológica, se reconocen los elementos que configuran la simpatía mutua moral. En la simpatía mutua como fenómeno psicológico se identifica el origen de la experiencia moral, el surgimiento del puente que une la vivencia psicológica con la moralidad. Los límites no tienen la nitidez de un constructo externamente impuesto al ser humano, sino que existe una virtuosa difuminación entre la simpatía mutua como experiencia psicológica y la simpatía mutua en el ámbito moral; difuminación que resulta clave para la comprensión de Adam Smith del surgimiento de los sentimientos morales. Los sentimientos morales surgen de la búsqueda de aprobación o desaprobación, a lo que Smith reconoce un origen natural, directamente relacionado a la dimensión social de lo humano: “La Naturaleza, cuando formó al hombre para la sociedad, le entregó un deseo original de agradar, y una aversión original a ofender a sus hermanos” (TSM 116). La exposición al encuentro con el otro, la vivencia de la simpatía mutua psicológica desarrolla en el ser humano un espectador imparcial que es finalmente su más auténtico educador, y que surge incluso como examinador de la propia conciencia que es capaz de juzgar la propiedad o impropiedad de los afectos que vivimos en relación a nuestra propia vivencia. Tal como expresa Fricke, la simpatía en Smith juega un rol clave en los juicios morales, a través de los cuales los sentimientos asociados a la simpatía proveen una guía moral para el sujeto. Tanto en el momento en que soy observador de los sentimientos del otro como en el momento de mirar la propia experiencia, experimento a través de la aprobación o el reproche la vivencia más básica de la moralidad.

104

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 95-112


Neuronas espejo y simpatía en Adam Smith

De esta manera, el proceso simpatético es una herramienta de crecimiento moral que puede desarrollarse en torno a sí mismo y al análisis de la propia experiencia12. El ser humano pasa así de buscar la aprobación de los demás, a la búsqueda de ser “digno de ser aprobado” como finalidad última de la propia existencia.

2.3. Aspectos comunes Descritas en líneas generales ambas perspectivas sobre la empatía, salta a la vista una cierta sintonía en la comprensión del acto de empatizar, en tanto posicionamiento imaginativo en el lugar del otro y compartir los sentimientos del otro. Lo que en Neurociencia se denomina “empatía emocional” podría entenderse como una lectura distinta sobre el mismo fenómeno que Adam Smith propone como la primera parte del proceso simpatético (descrita anteriormente como empatía unidireccional, en sus dos tipos). La Neurociencia, interpretando las evidencias neurobiológicas que aportaron especialmente los descubridores de las neuronas espejo, entiende la empatía como un recomponer en sí la experiencia del otro, reproduciendo en sí mismo la vivencia observada, (el mono que observa al otro mover un objeto activa en su cerebro las mismas áreas que si estuviera moviendo el objeto el mismo). Para Smith la simpatía en su versión primordial es el ejercicio imaginario de ponerse en el lugar del otro, lo cual en su forma más básica (unidireccional) implica el esfuerzo por ponerse en la situación del otro para entender la causa de sus sentimientos. Ambas perspectivas tienen un mismo punto de partida: la imitación. En la Neurociencia se trata de la imitación de un acto, en Adam Smith la imitación de un sentimiento que se consigue por la comprensión de los elementos que constituyen globalmente la experiencia del otro. Los ejemplos que usa Adam Smith en la primera parte de la TSM para explicar esta identificación espontánea con la situación del otro, tales como el movimiento espontáneo de la mano al observar a alguien que cae súbitamente por la lesión en una extremidad, son perfectamente compatibles con la interpretación neurocientífica actual de la empatía13. Podría decirse incluso que la evidencia neurocientífica puede utilizarse perfectamente como soporte de la reflexión de Adam Smith en este punto. La propuesta de Smith respecto de una simpatía que se despliega –en una perspectiva psicológica– en el esfuerzo por comprender al otro en sus circuns12 En el capítulo III de TSM Adam Smith explica: “aprobamos o desaprobamos nuestra propia conducta, de acuerdo a si sentimos que, cuando nos ponemos en la situación de otro hombre y la vemos (...) con sus ojos y desde su lugar, nosotros podemos o no entra enteramente en ella y simpatizar con los sentimientos y motivos que la influenciaron (TSM 109). 13 “Cuando vemos un golpe a punto de caer sobre el brazo o pierna de otra persona, naturalmente encogemos nuestro propio brazo o nuestra propia pierna” (TSM 10).

105


Shand Klagges, Beatriz

tancias y su situación, podría interpretarse, desde la Neurociencia, como la empatía cognitiva: en la cual se interpretan las intenciones y deseos del otro, lo cual en cierto sentido exige un conocimiento de sus circunstancias y características personales. No obstante, es necesario marcar aquí una diferencia: la empatía cognitiva no es necesariamente reflexiva para la Neurociencia. Refiriéndose a la función de las neuronas espejos en la interacción social, Iacoboni dirá que: “A través de las neuronas espejos, podemos entender la intenciones de los demás y así predecir, aún de un modo prerreflexivo, su comportamiento futuro” (Iacoboni 254). Iacoboni parece enfatizar la dimensión inconsciente de esta comprensión, a diferencia de Smith, cuyo esfuerzo parece centrarse en la explicitación de este proceso. Desde la Neurociencia, aunque se tiene en cuenta una empatía llamada racional, el énfasis se pone en el carácter inmediato y prerreflexivo que, en general, se asume para esta capacidad, a diferencia del esfuerzo desplegado en la TSM. Aun cuando –tal como se propone en la revisión de Gonzalez-Liencres (2013)– existen autores que, desde la perspectiva de la Neurociencia, reconocen una modulación de las capacidades empáticas de acuerdo a procesos cognitivamente superiores, lo cual se puede interpretar, al menos en parte, como la base neurobiológica del proceso de racionalización que propone Smith. La interpretación más amplia y común de la empatía en el ámbito de las Neurociencias, parece no incorporar estos procesos de racionalización de manera explícita. Adam Smith propone que el proceso simpatético se completa en un segundo momento, donde los sentimientos se racionalizan y se abre la simpatía mutua a nivel psicológico y moral. En este momento puede reconocerse la figura explicativa del espectador imparcial y entran en juego las virtudes de benevolencia y autodominio. Así, se despliega, para cada ser humano, la capacidad de lograr un cierto crecimiento moral. Toda la descripción psicológica previa va dirigida a este punto de la relación interpersonal, donde la simpatía mutua se construye como base de la moralidad. Ninguno de estos aspectos parece encontrar un correlato en la perspectiva neurocientífica. Finalmente, es preciso destacar otro aspecto común a ambas perspectivas. A saber, ambas proponen que esta capacidad es connatural al ser humano, pero que requiere para su desarrollo de la interacción social. Las dos visiones reconocen la necesidad de enfrentarse a otro para desplegar esta capacidad.

3. Empatía, moralidad y conducta social Iacoboni termina su libro exponiendo la evidencia de la participación de los mecanismos neurobiológicos de la imitación en fenómenos sociales tales como la violencia de masas o incluso la organización política.

106

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 95-112


Neuronas espejo y simpatía en Adam Smith

A partir de estas evidencias, extiende sus conclusiones: “La imitación es por completo fundamental para nuestra capacidad exponencialmente mayor de aprender y para construir la cultura” (Iacoboni 249). Propone una nueva comprensión de la intersubjetividad y la conducta social del ser humano. Esta mirada exigiría la aceptación de una nueva noción del libre albedrío y una comprensión de los códigos sociales como extensión de nuestros mecanismos neurobiológicos centrados en la imitación. Reconociendo los resultados de los estudios referentes a las neuronas espejo como favorables para una comprensión biológicamente determinista de las decisiones humanas y adelantándose a las resistencias, Iacoboni propone que uno de los puntos más críticos del dato neurocientífico es “la amenaza percibida hacia nuestra noción de libre albedrío” (Iacoboni 258). Esta amenaza surge del hecho de que: La investigación sobre las neuronas espejo implica que nuestro carácter gregario –quizá el mayor logro de los seres humanos– es también un factor que limita nuestra autonomía en tanto individuos” y que “la investigación de las neuronas espejos sugiere que los códigos sociales están dictados en gran medida, por nuestra biología. (Iacoboni 258).

Esta interpretación de los resultados neurobiológicos se encuentra frecuentemente en el ámbito neurocientífico, que, en general, se inclina por la negación del libre albedrío en su concepción clásica occidental. El psiquiatra forense Alan Felthous, haciendo eco de la nueva comprensión de la libertad en la neurociencia, propone lo que denomina “funcionalismo normativo” como herramienta regulatoria social. Así, sostiene que lo que finalmente es relevante para el caso/sujeto particular, es el reconocimiento de la capacidad de evitar actuar. Es decir, si un sujeto puede negarse a cometer un crimen, entonces puede ser considerado capaz y responsable de sus actos. Si, en cambio, un sujeto no tiene capacidad de controlar sus impulsos criminales (o de cualquier otro ámbito) no es responsable de ellos. Esta comprensión de la estructura moral del ser humano, hace eco de una reducción de la libertad a la posibilidad de frenar las tendencias biológicas propias innatas o adquiridas por la experiencia, pero de todos modos moduladas en gran parte por mecanismos biológicos, que determinan nuestras decisiones y que, incluso, pueden ser responsables de nuestra ilusión de libertad14. 14 Según Felthous, las capacidades que deberían evaluarse para determinar si una persona puede ser responsabilizada por sus actos son: la conciencia, autocontrol, racionalidad e intencionalidad. Todas las cuales, en condiciones normales, son "funcionalmente naturales" (sin importar realmente si estas funciones son productos de redes neuronales o puede reconocerse algo más en la experiencia humana).

107


Shand Klagges, Beatriz

Iacoboni asume como más compatibles con los hallazgos neurocientíficos, formas de comprensión de lo humano que podrían encontrarse en filosofías orientales o que reconozcan el carácter normativo de consensos sociales, sin aspirar hacia una estructura objetiva de la moralidad. Esta supuesta incompatibilidad de la comprensión neurocientífica de la empatía con la filosofía occidental no parece cumplirse al observar la propuesta de Adam Smith respecto del surgimiento de la moralidad. En la parte III de la TSM, Adam Smith muestra cómo, en el deseo natural del hombre de ser digno de aprobación y el temor natural a ser digno de reproche, el ser humano se descubre así mismo como juez de la humanidad, en sí mismo y en el otro. La búsqueda, finalmente, se refiere a la aprobación del “tribunal de su propia conciencia” que no es más que el espectador bien informado e imparcial, que arbitra la conducta del ser humano desde su propio pecho. Guiado por el espectador imparcial el hombre, a través del hábito y la experiencia, orienta su conducta hacia lo más honorable y noble. A través de la práctica constante, la formación de sí mismo no aplica simplemente a conductas y comportamientos externos, sino que llega a modelar los sentimientos más íntimos. En esta concepción, el ser humano se reconoce como responsable de la forma en que vive los sentimientos, porque existe la posibilidad real de vivirlos de una manera distinta, es decir, virtuosa. De esta manera, Smith no establece la moralidad como un conjunto de normas o principios que se imponen externamente al sujeto, sino como una experiencia que surge del contacto mismo con el otro, es decir que se experimenta de manera natural e inmediata: “Nuestra continua observación de la conducta de los otros, insensiblemente nos lleva a formarnos en ciertas reglas generales concernientes a qué es justo y propio de ser hecho o evitado” (TSM 159). Las reglas no son construidas ni impuestas, se descubren en la experiencia con el otro. La decisión de cada ser humano tiene relación con el momento en que ponemos nuestra conducta bajo la mirada de sus reglas generales “Nosotros resolvemos nunca ser culpables, ni de ninguna forma, ponernos como objetos de desaprobación general. De esta manera nos ponemos naturalmente bajo la regla general” (TSM 159). Aun cuando la ética propuesta por Smith –tal como plantea Carrasco– puede ser reconocida como una ética de la intersubjetividad, con normas morales que se descubren en el encuentro con el otro, su permanente referencia a la orientación natural del hombre hacia lo más noble y lo más digno, junto con el reconocimiento de la capacidad del ser humano de desplegar un crecimiento moral (a través del desarrollo de las virtudes), aleja a Smith de una ética relativista o del consenso. La propuesta de Smith parte del reconocimiento del

108

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 95-112


Neuronas espejo y simpatía en Adam Smith

momento imitativo irracional en la simpatía unidireccional y llega a la experiencia de la simpatía mutua moral como base y fundamento de la moralidad. No obstante lo anterior, Smith propone una descripción de la experiencia moral que, aun fundada en la experiencia psicológica, apunta hacia una perfección objetiva de la humanidad (tanto de manera personal como comunitaria) hacia la cual el ser humano estaría teleológicamente orientado. Tal como se demostró anteriormente, puestas en diálogo ambas perspectivas tienen notables similitudes en la comprensión del origen y desarrollo de la empatía. A diferencia de la perspectiva neurocientífica, Adam Smith propone que en el proceso simpatético encontramos el espacio para el desarrollo de la virtud. El proceso simpatético está traspasado por el deseo de aprobación mutua. En un desarrollo posterior, el ser humano desea ser digno de aprobación ante los demás, pero sobre todo ante sí mismo, incluso logrando una independencia de la aprobación o rechazo real de su medio inmediato. La posibilidad de la virtud, la responsabilidad de nuestros actos y la justicia como base de la moralidad, son todos elementos de la TSM que apuntan hacia una visión del ser humano como un ser capaz de decisiones libres, en el sentido más amplio y profundo del término. El ser humano, en Smith, puede ser incluso capaz de liberarse de la dependencia natural de la búsqueda la aprobación real y directa de su comunidad más cercana, para buscar el desarrollo de la virtud en un acto que podría interpretarse como una de las más altas muestras de libertad15. ¿Cómo dos perspectivas con tantos puntos de encuentro en la descripción de la empatía –como capacidad o como experiencia– llegan a conclusiones tan dispares al interpretar sus hallazgos y construir con ellos una lectura de la libertad, moralidad y la conducta social humana? Una primera aclaración, que ya describe Christel Fricke en su trabajo comparativo entre la simpatía de Adam Smith y la psicología del desarrollo de Hoffman, tiene que ver con la divergente intencionalidad de ambas perspectivas. El trabajo de Adam Smith va orientado a la comprensión de la moralidad: en la búsqueda de los orígenes más genuinos de la experiencia moral el autor se encuentra con la experiencia humana de la empatía. El enfoque neurocientífico, en cambio, tiene un sentido inverso: tiene como objetivo primordial la comprensión de la empatía y solo secundariamente saca conclusiones aplicables a la conducta social y la moralidad. No obstante lo anterior, sigue siendo llamativa la inmensa dispersión que alcanza la interpretación de los resultados, llegando incluso a obtener conse15 Esto se produce, por ejemplo, cuando la realización del acto virtuoso va en dirección opuesta a la opinión más común de la sociedad en que se vive.

109


Shand Klagges, Beatriz

cuencias contradictorias. Escapa a los objetivos de este trabajo el análisis de las razones más profundas de este hallazgo, pero al menos pueden enunciarse algunas razones que podrían explicarlo. En primer lugar, es necesario volver a recordar que la empatía, desde las Neurociencias, se agota en el proceso de comprender las emociones, sentimientos, intenciones o pensamientos del otro. No se reconoce, al menos en la evidencia aquí revisada, un momento evaluativo de la conducta del otro o de sí mismo. La investigación neurocientífica no parece haber llegado a reflexionar sobre la reciprocidad que caracteriza la simpatía mutua en Adam Smith. Es clara la ausencia de una conciencia –voz interior o espectador imparcial en palabras de Smith– capaz de juzgar sobre lo observado en el otro o en sí mismo. Habiendo estudiado con profundidad la simpatía unidireccional y, en cambio, careciendo de contenidos respecto de la simpatía mutua, el eslabón clave para la conexión entre experiencia psicológica y experiencia moral, bajo la perspectiva de Smith, se encuentra ausente en la visión neurocientífica. Es perfectamente comprensible entonces, que tomando en consideración únicamente la empatía en su dimensión unidireccional (análoga a la simpatía unidireccional), se pueda desarrollar una perspectiva de la moral, totalmente opuesta a la perspectiva de Adam Smith que usa como punto de partida la simpatía mutua psicológica y solo de manera indirecta la empatía unidireccional, como insumo para el desarrollo de la simpatía mutua. Posiblemente en el contexto general del posicionamiento del método científico como primer método de reconocimiento del mundo y de lo real, la Neurociencia en gran parte ha perdido la raíz filosófica que tuvieron disciplinas que hoy la conforman, tales como la Psicología y la Psiquiatría, centrando su conocimiento en la dimensión neurobiológica. Una respuesta para la falta de desarrollo de la investigación neurocientífica sobre la simpatía mutua, podría encontrarse en las limitaciones propias del método científico. En este sentido, puede reconocerse que experiencias tales como el juicio sobre la propia conducta o la formación de las virtudes, son simplemente inalcanzables para una metodología que debe minimizar y controlar las variables a observar. El presente trabajo muestra cómo una misma experiencia: la experiencia de empatizar, se ha observado desde la Filosofía, en Adam Smith, y desde la Neurociencia con notables puntos de encuentro, pero también una gran dispersión al momento de extender las conclusiones al ámbito de la moralidad. La necesidad de un trabajo verdaderamente interdisciplinario surge como una conclusión obvia en este ejercicio.

110

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 95-112


Neuronas espejo y simpatía en Adam Smith

Trabajos citados Caggiano, V., Fogassi, L., Rizzolatti, G., Casile, A., Giese, M. A., & Thier, P. “Mirror neurons encode the subjective value of an observed action”. Proceedings of the National Academy of Sciences of the United States of America, Vol.109 (2012): 11848-11853. doi:10.1073/pnas.1205553109. Campbell, T. Adam Smith´s Science of Morals. Great Britain: Routledge Library Edition, 2010. Carrasco, M.“Reinterpretación del espectador imparcial: impersonalidad utilitarista o respeto a la dignidad”. Crítica, Revista Hispanoamericana de Filosofía. 46, No. 137 (2014): 61–84. Cowan W. M. “Preface”. Annual Review of Neuroscience, Vol. 1 (1978):1.DOI: 10.1146/annurev.ne.1.072606.100001. Eckerman C. O. & Didow S. M. “Nonverbal imitation and toddler´s mastery of verbal means of achieving coordinated actions”. Developmental Psychology 32 (1996): 141-152. Felthous, A. “The will: from metaphysical freedom to normative functionalism”. Journal American Academy of Psychiatry Law, 36 (2008): 16-24. Ferrari P.F., Gallese G., Rizzolatti G., et al. “Mirror neurons responding to the observation of the ingestive and comunicative mouth action in the monkey ventral premotor cortex”. European Journal of Neuroscience, 17 (2003):1703-1714. Forman B. F. (Ed). The Adam Smith Review 6. Londres: Routledge, 2011. Fricke, Ch. Empathy and Sympathy. An Inquiry into the Psychological Foundations of Moral Competence. European University Institute, 8th MWP Classics Revisited Conference Empathy and Competition: A 21st Century View on Adam Smith. Villa La Fonte (Via delle Fontanelle 10) Firenze, 07-05- 2014. Conferencia. Gonzalez- Liencres C., Shamay-Tsoory S., & Brüne M. “Towards a neuroscience of empathy: ontogeny, phylogeny, brain mechanism, context and psychopathology”. Neuroscience and Biobehavioral Reviews, 37 (2013):1537-1548. Iacoboni, M. Las neuronas espejo: empatía, neuropolítica, autismo, imitación o de cómo entendemos a los otros. Buenos Aires: Katz Editores, 2012.

111


Shand Klagges, Beatriz

Labos E., Slachevsky A., Fuentes P. & Manes F. Tratado de neuropsicología clínica. Buenos Aires: Akadia, 2012. Libet B. “The experimental evidence for subjective referral of sensory experience backwards in time”. Philosophy of Science, 48 (1981):182–197. Meltzoff A. N. & Moore M.K. “Imitation of facial and manual gestures by human neonates”. Science, 198 (1977):74-78. Moya-Albiol L., Herrero N. & Bernal M. “Bases Neuronales de la empatía”. Rev Neurol 50, No. 2 (2010): 89-100. Rizzolatti G., Fadiga L., Gallese V. & Fogassi L. “Premotor cortex and the recognition of motor action”. Cognitive Brain Research, 3(1996): 131-141. Smith, A. The theory of moral sentiments. Indianapolis: Indianapolis Liberty Classics, 1982. Stueber, K. "Empathy". The Stanford Encyclopedia of Philosophy. Spring 2014 Edition. Metaphysics Research Lab Center for the Study of Language and Information Stanford University.Acceso el 29 de Agosto de 2014. URL http:// plato.stanford.edu/archives/spr2014/entries/empathy Zack P. & Barraza J. “The neurobiology of collective action". Frontiers of Neuroscience, 7 (2013): 211- XXX.

112

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 95-112


R acionalidad y elección de teorías: una aproximación a Howard Sankey1, 2 R ationality and choice of theories: an approach to Howard Sankey Pablo Melogno3, 4

R esumen El presente trabajo explora algunas posibilidades de aplicación del modelo pluralista para elección de teorías propuesto por Howard Sankey. Se argumenta que este resulta eficaz para explicar algunos problemas asociados a la elección racional de teorías, como la variabilidad histórica de los mecanismos de elección, los componentes epistémicos de los criterios y el riesgo del relativismo. Se señala que el modelo constituye una estrategia interesante para defender la racionalidad preservando una versión de la tesis de la inconmensurabilidad. En la primera sección se discute el problema de la traducibilidad de teorías inconmensurables y la variación de significado, haciendo énfasis en el concepto de background natural language. En la segunda, se presenta el modelo de Sankey, se rastrean antecedentes en Kuhn, Feyerabend y Wittgenstein y se analiza la tesis de que ningún criterio de evaluación de teorías es inviolable. Se discute también el concepto de desacuerdo racional, tomando como referencia episodios de la revolución copernicana. En la tercera sección, se continúa con el copernicanismo y se centra la atención en las condiciones de ruptura del consenso en las comunidades científicas. En la conclusión se defiende la funcionalidad del modelo de Sankey para abordar los problemas asociados a la racionalidad. Palabras clave: Howard Sankey, Thomas Kuhn, inconmensurabilidad.

A bstract This paper aims to explore some possibilities of application of the pluralist model for the choice of theories proposed by Howard Sankey. It claims that this model is effective to explain some problems associated with the rational theory-choice, such as the historical variability of the choice mechanisms, the epistemic components of the criteria and the risk of relativism. The paper states that the model is an interesting strategy to defend rationality preserving a version of the incommensurability thesis. The second section addresses the problem of the translatability of incommensurable theories and the variation in meaning, with an emphasis on the concept of background natural language.

1 Recibido: 15 de septiembre de 2014. Aceptado: 30 de octubre de 2014. 2 Este artículo se debe citar como: Melogno, Pablo. “Racionalidad y elección de teorías: una aproximación a Howard Sankey”. Rev. Colomb. Filos. Cienc. 14.29 (2014): 113-138. 3 Profesor adjunto de Epistemología e Historia de la Ciencia. Facultad de Información y Comunicación, Universidad de la República, Uruguay. Correo: pablo.melogno@fic.edu.uy 4 Montevideo, Uruguay.


Melogno, Pablo

The third section presents Sankey’s model, tracing antecedents in Kuhn, Feyerabend and Wittgenstein, and analyzing the thesis that states that no criterion of evaluation of theories is inviolable. The concept of rational disagreement is also discussed, using events of the Copernican revolution as reference. The section four continues with the issue of Copernicanism, focusing on the conditions for the breakdown of consensus in the scientific communities. Finally, the paper concludes by defending the functionality of Sankey’s model for dealing with problems associated with rationality. Key words: Howard Sankey, Thomas Kuhn, incommensurability.

1. Introducción5 Desde el giro historicista en filosofía de la ciencia, generado principalmente por las obras de Thomas Kuhn y Paul Feyerabend, los problemas asociados a la racionalidad científica y la elección entre teorías rivales han sido centro de diversos debates. En principio, la caracterización del conocimiento científico defendida especialmente por Kuhn (2004) implicaba que los criterios de racionalidad son constructos históricos asociados a paradigmas específicos y permeables a las variaciones de contexto en la misma medida que cualquier otro componente paradigmático. El punto de vista de Kuhn derivaba en la imposibilidad de ofrecer criterios extraparadigmáticos de tipo lógico o empírico para justificar la elección entre paradigmas rivales, por lo que la comparación y evaluación de teorías en pugna quedaba librada a los cambios gestálticos, la circularidad argumentativa y la ruptura en la comunicación. Tomando nota de esto, no pocos críticos de Kuhn entendieron que su propuesta precipitaba la supresión de la racionalidad científica y la imposibilidad de elecciones racionalmente justificadas entre teorías rivales, lo cual habilitaba variedades recalcitrantes de irracionalismo y relativismo epistémico6. Esto se vio exacerbado aún más por las derivaciones de la tesis de la inconmensurabilidad que, tanto en las versiones de Kuhn (1989, 2004) como 5 El autor desea agradecer a los profesores Marina Camejo y Ricardo Navia (Universidad de la República, Uruguay) y a Godfrey Guillaumin (Universidad Autónoma Metropolitana, México), por la atenta lectura de las versiones preliminares de este escrito. También a los colegas y estudiantes de la Universidad Autónoma Metropolitana-Iztapalapa, México, donde se presentaron y discutieron algunas ideas que nutrieron el artículo, con motivo de la conferencia “Sobre la noción de racionalidad informal: aspectos conceptuales, históricos y metodológicos”, dictada en la UNAM-Iztapalapa el 5 de marzo de 2014. Finalmente extiende su agradecimiento a la evaluación anónima de la Revista Colombiana de Filosofía de la Ciencia, por los comentarios y sugerencias que contribuyeron sustantivamente a la versión final. 6 Estas consecuencias son señaladas con diferentes énfasis y matices por Davidson (1990), Devitt (1979), Putnam (1988) y Kitcher (1993). Para una revisión amplia de las diferentes versiones de la inconmensurabilidad en la obra de Kuhn y de los debates sobre el tema, puede consultarse Pérez Ransanz (1999) y Bird (2002).

114

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 113-138


Racionalidad y elección de teorías

de Feyerabend (1989, 1994), conducían a que el enfrentamiento entre teorías rivales esté atravesado por severos procesos de ininteligibilidad mutua, reorganización de la experiencia y variaciones de significado, que se comprimían en la célebre formulación kuhniana según la cual científicos que trabajan en paradigmas diferentes viven en mundos diferentes (Kuhn 2004, 233). Buena parte del debate desarrollado en las últimas décadas del siglo XX se definió bajo la premisa más o menos tácita de que era imposible aceptar la propuesta historicista de la ciencia y al mismo tiempo ofrecer una imagen interesante de la racionalidad científica. En términos más restringidos, esto implicaría que si se suscribe la tesis de la inconmensurabilidad, no hay campos semánticos ni criterios comunes a dos teorías rivales, por lo que la comparación y la evaluación racional resultan imposibles. Sin embargo, ya a partir de la década de 1980 comienzan a surgir propuestas tendientes a ofrecer una imagen más ajustada de la racionalidad en términos historicistas, bajo la presunción de que es posible defender una noción relevante de la racionalidad científica admitiendo la variación histórica de los criterios de evaluación de teorías. Laudan (1977), Putnam (1988), Hintikka (1988), Sankey (1991, 1995, 1996, 2006), Pérez Ransanz (1999) y Friedman (2001, 2002), entre otros, han mostrado que puede argumentarse una visión alternativa de los problemas asociados a la inconmensurabilidad, incorporando elementos de la obra de Kuhn en pro de una caracterización consistente de la racionalidad científica. A partir de esta moderación de las consecuencias más repulsivas de la inconmensurabilidad, agudizada a partir de la obra de Howard Sankey, se sientan las bases para elucidar que una elección entre teorías puede ser racional, aunque no cuente con una noción de aceptabilidad racional inmune al cambio conceptual y a las variaciones del contexto histórico. Específicamente Sankey desarrolla un modelo pluralista y no algorítmico de la racionalidad científica con base en el concepto de inconmensurabilidad acuñado por Kuhn. Desde esta perspectiva, la tesis de la inconmensurabilidad no solo evita la mayoría de las derivaciones nocivas que sus críticos han querido ver, sino que provee una base sólida para dar cuenta de los procesos de elección racional de teorías. Este trabajo tiene como objetivo realizar una discusión crítico-reconstructiva del modelo no algorítmico de racionalidad propuesto por Sankey a fin de evaluar sus aspectos conceptuales y sus posibilidades de aplicación histórica. Para esto, se realizará una reconstrucción de las principales formulaciones del autor y se revisarán algunas de las dificultades que estas presentan, buscando defender que no constituyen obstáculos de fondo para desarrollar el modelo. Los principales planos de la discusión se refieren a las relaciones entre lenguajes

115


Melogno, Pablo

naturales y lenguajes científicos, la determinación de los límites de la racionalidad científica, y las relaciones entre la racionalidad y el consenso comunitario. Para esto, se indagarán las posibilidades de aplicación histórica de la noción de racionalidad propuesta por Sankey, mediante la comparación con episodios y procesos de la historia de la ciencia, especialmente con algunos episodios puntuales de la revolución copernicana. A partir de la discusión de los problemas precedentes, se buscará defender que tomado globalmente el modelo propuesto por Sankey constituye una herramienta sumamente fértil para la caracterización de la racionalidad científica y la reconstrucción histórica de los procesos de cambio conceptual. Esto por cuanto logra proporcionar una imagen consistente de la variabilidad histórica de los criterios de elección entre teorías rivales y evita el relativismo epistémico en favor de una perspectiva histórica de la racionalidad científica.

2. Inconmensurabilidad y niveles lingüísticos En “Incommensurability, Translation and Understanding”, Sankey (1991) aborda el problema de la inconmensurabilidad entre teorías científicas rivales, enfocando la discusión en la tesis de que el cambio de teorías conlleva un cambio de significado total o parcial en los términos que las componen (Kuhn 2004, Feyerabend 1989), de modo tal que la comparación entre las teorías involucradas resulta imposible. Un elemento novedoso en su consideración del problema consiste en señalar que, desde el momento en que se constata el cambio de significado en un lenguaje dado, surge la cuestión de determinar qué lenguaje se utiliza para establecer que dos teorías no son intertraducibles. Según Sankey, el problema está en distinguir los sublenguajes especializados en que se expresa cada una de las teorías respecto del lenguaje natural de base (background natural lenguaje) empleado para su formulación. Dada esta distinción, puede afirmarse que los fallos de traducción relevantes para la discusión acerca de la inconmensurabilidad involucran la imposibilidad de traducción entre sublenguajes teóricos de un mismo lenguaje compartido (1991, 415). La formulación de Sankey conduce a que dos teorías enunciadas en el mismo lenguaje natural pueden compartir un término, pero otorgándole diferente significado, e incluso puede darse el caso de que una de las teorías incluya un término perteneciente al lenguaje natural de base que no esté contemplado en la teoría rival. Sin embargo, es necesario insistir en que todos estos fenómenos asociados a fallos de traducción no dan cuenta de un enfrentamiento entre totalidades lingüísticas independientes, sino entre sublenguajes que comparten una base común de significación e inteligibilidad.

116

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 113-138


Racionalidad y elección de teorías

Así, constatar que en el siglo XVI el término equantis comenzó a ser excluido en el paso del modelo geocéntrico al copernicanismo, o que el término planeta cambió su significado, lleva a evaluar el significado de ambos términos en los sublenguajes de las teorías geocéntrica y heliocéntrica, lo que a su vez no puede hacerse sin recurrir al latín, que es el lenguaje natural de base en el que ambas teorías estaban formuladas en el momento en el que se produce la transición y el cambio de significado. Esto lleva a Sankey a establecer que el lenguaje natural de base oficia como un metalenguaje respecto de los sublenguajes teóricos, por lo que el análisis de las características semánticas de los términos que componen cada uno de los sublenguajes involucrados debe llevarse a cabo en el lenguaje base (Sankey 1991, 415). Frente a esto cabe señalar una dificultad de orden histórico, que remite a una relativa inestabilidad de los lenguajes base en los que se desarrollan los cambios de teoría, y que vuelve problemática la propuesta de Sankey de tomar los lenguajes naturales como metalenguajes de análisis. Esto por cuanto en un proceso de cambio de teorías puede haber más de un lenguaje natural involucrado. Siendo A y B dos teorías científicas rivales, y X y Z dos lenguajes naturales diferentes, puede darse el caso de que A esté originalmente formulada en X y B en Z, sin que haya en principio forma de determinar si el análisis de las variaciones de significado experimentadas en el tránsito de A a B deben ser efectuado utilizando el vocabulario de X o el de Z. Retomando en estos términos el ejemplo de la revolución copernicana, puede señalarse que el tránsito del modelo heliocéntrico al geocéntrico no se realizó de modo exclusivo en latín, porque algunos de los trabajos de Galileo fueron escritos en italiano y algunos de los de Ptolomeo en griego. Del mismo modo, el tránsito de la teoría del flogisto a la química moderna involucra al menos el latín en que escribía Stahl, el inglés de Priestley y el francés de Lavoisier. Este tipo de casos presentan dos clases de dificultades: por un lado, duplican el problema de la intraducibilidad, trasladando la posibilidad de fallos de traducción entre los sublenguajes teóricos a los lenguajes naturales de base y, por otro, imponen la difícil decisión de resolver cuál de los lenguajes naturales de base se va a tomar como metalenguaje para el análisis semántico. Hay, no obstante, un aspecto del planteamiento de Sankey que puede salvar hasta cierto punto la cuestión: el metalenguaje base no tiene por qué ser necesariamente un lenguaje natural, sino que puede tratarse de un lenguaje matemático o incluso el lenguaje de alguna otra teoría acerca del funcionamiento del mundo, siempre y cuando sea compartido por los sublenguajes en pugna al punto de hacer inteligible el cambio de significado (1991 416). Para el caso de la revolución copernicana, las tablas astronómicas y demás herra-

117


Melogno, Pablo

mientas matemáticas utilizadas tanto por Copérnico como por los defensores de la teoría geocéntrica pueden oficiar a modo de un metalenguaje que proporciona una base de términos compartidos por las teorías enfrentadas. De esta manera, el lenguaje natural de base funciona como un marco que asegura la comprensión mutua y la inteligibilidad semántica de las teorías más allá de los fallos de traducción, de forma tal que es posible que existan teorías inconmensurables –no intertraducibles– y al mismo tiempo mutuamente inteligibles, de modo tal que el fracaso de traducción no excluye la comprensión y la inteligibilidad mutua. Una parte sustantiva de la propuesta de Sankey se basa en restringir la inconmensurabilidad al dominio del lenguaje científico, contrariamente al intento kuhniano de ampliarla al lenguaje natural (Kuhn 2004, 310; 1989, 101-04). En defensa de la distinción entre traducción y comprensión sostenida por Kuhn (1989), y en contra de las objeciones de Putnam (1988) o Davidson (1990), Sankey (1991 417) señala que la traducción implica una relación semántica entre dos lenguajes, mientras que la comprensión una relación entre un intérprete y un lenguaje, por lo que se trata de dos procesos cognitivos estructuralmente diferentes. Desde este punto de vista, la traducción supone expresar en un lenguaje lo que originalmente está expresado en otro, mientras que la comprensión supone obtener conocimiento respecto de cómo se usa un término en un lenguaje, independientemente de si pueda expresarse o no en un lenguaje alterno. De este modo, llega Sankey a que “The semantic limits of a language need impose no limitation on a speaker’s capacity to understand another language, so translation might fail while understanding succeeds” (ídem). La argumentación busca así ofrecer una versión de la inconmensurabilidad que evite extraer consecuencias asociadas al irracionalismo o a la ininteligibilidad entre teorías, de modo que el fallo de traducción no implique la imposibilidad de elección racional.

3. Un modelo pluralista no algorítmico para la elección de teorías

Sankey propone inicialmente el modelo de elección de teorías en un trabajo de 1995 titulado “The Problem of Rational Theory-Choice”. Parte de señalar que el problema de la elección racional remite a establecer hasta qué punto la elección de una teoría por parte de un científico puede justificarse si se niega la tesis de un método científico invariante, ya que si no existe una serie de criterios universales de evaluación, cada científico justificará su decisión de forma recursiva apelando a los criterios de la teoría que previamente asume como

118

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 113-138


Racionalidad y elección de teorías

válida (302). Su propósito es evitar que la racionalidad de las elecciones quede enteramente supeditada a los criterios que cada científico decida elegir de modo arbitrario, sin garantías epistémicas genuinas. Para ello propone un modelo no algorítmico de racionalidad7, tendiente a evitar las consecuencias relativistas o irracionalistas que se han visto en la obras de Kuhn y Feyerabend. Sankey considera que el enfoque historicista no implica un abandono de la idea de que la ciencia es racional, sino que más bien conduce a una nueva concepción de la racionalidad científica, que puede sintetizarse en cuatro tesis básicas: 1. No existe un algoritmo que garantice la elección racional de teorías. 2. Los científicos eligen en función de criterios que guían, pero no determinan, sus elecciones. 3. Diferentes criterios de elección pueden entrar en conflicto al aplicarse a diversas teorías. 4. Ningún criterio de evaluación es inviolable en toda circunstancia. La tesis (1) fue formulada por Kuhn8 y Sankey propone que las razones de más peso para aceptarla son de orden histórico, más que de tipo lógico o metodológico. Lo que muestra la investigación en historia de la ciencia es que los cambios de teoría producidos en el pasado no han estado regulados por ningún algoritmo, y que probablemente nunca se descubra un algoritmo tal. Ahora bien, la negación de una elección algorítmica no implica la negación de una elección criterial, en cuanto puede concebirse una elección entre teorías sujeta a criterios sin que estos sean de tipo algorítmico (Sankey 1995 302). La idea de que la negación de la racionalidad algorítmica conducía a la negación de toda racionalidad parece deberse a la presunción errónea de que una elección de teorías o bien es algorítmica, universal y concluyente, o bien es arbitraria o epistémicamente infundada. Sin embargo, aceptando estos términos se puede afirmar que los criterios de elección son teórico-dependientes, y en esa medida desembocan en la circularidad. Por tanto, para la defensa de una 7 Existen diferencias terminológicas no menores entre las variadas versiones de la racionalidad en un marco pluralista. Putnam (1988) distingue entre concepciones criteriales y no criteriales de la racionalidad e identifica las concepciones criteriales con las que Sankey denomina algorítmicas. Sankey, a su vez, contrapone concepciones algorítmicas y no algorítmicas de la racionalidad, pero defiende que estas últimas son criteriales en la medida en que permiten respaldar la idea de una elección racional sujeta a criterios. Sin embargo, da la impresión de que a pesar de las diferencias de nomenclatura, lo que Putnam denomina racionalidad no criterial o racionalidad informal es sumamente próximo a lo que Sankey llama racionalidad no algorítmica. 8 En el célebre pasaje de la Posdata a la Estructura de las revoluciones científicas afirma Kuhn: “No hay un algoritmo neutral para la elección de teorías, no hay ningún procedimiento sistemático de decisión que, aplicado adecuadamente, deba conducir a cada individuo del grupo a la misma decisión. En este sentido es la comunidad de los especialistas, que no sus miembros individuales, la que hace efectiva la decisión” (2004 304-05).

119


Melogno, Pablo

racionalidad como la que pretende Sankey, el problema pasa por establecer de qué modo es posible una elección de teorías no algorítmica, sujeta a criterios y al mismo tiempo no circular. Por otra parte, (1) no implica que en ciencia no existan reglas algorítmicas en absoluto, sino que puede haber reglas algorítmicas propias de una teoría, que funcionan como algoritmos una vez que se han aceptado los presupuestos de los que la teoría parte (Sankey 1995 303). Pero no se trataría de algoritmos que puedan en sentido estricto fundar una elección racional, sino que son consecuencias de elecciones realizadas previamente. En consonancia con esto, la tesis (2) implica que, en ausencia de un método único, existe una gama más o menos variada de criterios a los que el científico puede recurrir a la hora de realizar una elección; algunos pueden ser la simplicidad, la capacidad predictiva, la coherencia o la capacidad –ya señalada por Kuhn– para resolver enigmas. De este modo, (2) afirma la existencia de una pluralidad de criterios y complementa a (1), que niega la existencia de un criterio universal. En cuanto a la tesis (3), Sankey (1995 303) señala que se deriva en buena medida de la investigación histórica, e implica que, siendo T1 y T2 dos teorías rivales, y siendo A y B dos criterios de evaluación, T1 puede satisfacer A mejor que T2 y a su vez T2 puede satisfacer B mejor que T1. En un conflicto entre teorías planteado de esta manera, la apelación a los criterios no puede determinar la elección de teorías, por lo que (3) aparece como una consecuencia de (2). También en Kuhn puede leerse al respecto: Sin embargo, un aspecto de los valores compartidos requiere en este punto una mención particular. En un grado más considerable que otras clases de componentes de la matriz disciplinaria, los valores deben ser compartidos por personas que difieren en su aplicación. Los juicios de precisión y exactitud son relativamente estables, aunque no enteramente, de una vez a otra y de un miembro a otro en un grupo particular. Pero los juicios de sencillez, coherencia, probabilidad y similares a menudo varían grandemente de individuo a individuo (2004, 284)

Finalmente, (4) conforma una muy particular interpretación del “todo vale” de Feyerabend (1994), entendido no en el sentido de que no existan normas que regulen la práctica científica en cualquier momento dado de la historia, sino en el sentido de que no existe en la historia de la ciencia ninguna norma que sea absolutamente inviolable. Cabría pensar que la ciencia es una actividad intrínsecamente sujeta a normas, y que el dictum feyerabendiano no indica que es legítimo romper las normas en cualquier momento y por cualquier razón, sino que más bien muestra que para toda norma pueden darse circunstancias en las que resulte legítima su violación (Sankey 1995 304). De este modo, (4) aparece íntimamente relacionado con (2) y (3) en cuanto la violación de una

120

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 113-138


Racionalidad y elección de teorías

norma (4) generalmente es resultado de una elección fundada en una norma incompatible (3), que orienta la elección del científico (2). Supóngase que T1 y T2 son teorías rivales, teniendo T1 más capacidad explicativa que T2 y siendo T2 más simple que T1. Sea A una norma que indica que frente a dos teorías rivales se debe elegir la que posee mayor capacidad explicativa, y B una norma que indica que frente a dos teorías rivales se debe elegir la más simple. Si un científico 1 elige T1 siguiendo A, su elección implica necesariamente contravenir B. Del mismo modo, un científico 2 que elige T2 siguiendo B realiza una elección que implicaría violar A. Este escenario resulta característico de los casos de enfrentamiento entre teorías rivales, no obstante, procesos de este tipo puede igualmente tener lugar –aunque con mucho menor entidad– dentro de las comunidades científicas, dando cuenta de desacuerdos mantenidos entre los miembros de una misma comunidad respecto de cómo interpretar una norma o de qué norma privilegiar en cada caso. Este tipo de reconstrucción histórica resulta útil para explicitar un elemento relevante del planteamiento de Sankey: ningún criterio de evaluación es inviolable en toda circunstancia, pero difícilmente se da una circunstancia en que todos los criterios de evaluación se violen al mismo tiempo. Las razones que llevan a Sankey a sostener esto son sobre todo de orden histórico, en tanto violar todas las normas al mismo tiempo supondría o bien colocarse fuera de la racionalidad científica, o bien adoptar un punto de vista en el que fuera posible considerar cada una de las normas que valen para la ciencia y romperlas todas sin acatar ninguna, lo que no solo no encuentra respaldo histórico, sino que parece difícil de sostener conceptualmente (Sankey 1995, 307). Por el contrario, el transgredir una norma determinada supone inevitablemente situarse en un marco de referencia dentro del cual operan como base otras normas que se respetan y no se ponen en duda, ya que de otro modo la impugnación de una norma concreta no sería posible. Los antecedentes de esta posición pueden rastrearse hasta Wittgenstein, cuando en Sobre la certidumbre afirma: “ ‘Podríamos dudar de cada uno de estos hechos, pero no podríamos dudar de todos ellos’. Acaso sería más correcto decir: ‘no dudamos de todos ellos’. No dudar de todos ellos es simplemente nuestra manera de juzgar, y, por lo tanto, de actuar” (§ 232). Esto en cuanto sin la aceptación previa y exenta de duda de un marco desde el cual formular la duda o el cuestionamiento de una norma determinada, la misma operación de dudar y cuestionar resulta imposible. Prosigue Wittgenstein: “las preguntas que planteamos y nuestras dudas dependen del hecho de que algunas proposiciones están exentas de duda, son como goznes sobre los cuales aquellas giran” (§ 341).

121


Melogno, Pablo

Prolongando esta línea desde Wittgenstein hasta Sankey, cabe pensar que la imposibilidad de una elección que viole todas las normas y no acate ninguna parece ser una consecuencia del carácter intrínsecamente regulado de la actividad científica, al mismo tiempo que una de las claves para entender la concepción pluralista de la racionalidad: las elecciones científicas no son algorítmicas ni unívocas, pero son necesariamente reguladas. No obstante, al plantear la cuestión en estos términos se corre el riesgo de desembocar en la afirmación de que el estar sujeta a criterios es condición no solo necesaria sino también suficiente para considerar racional una decisión. Sin embargo, Sankey (1995) insiste en que postular la violabilidad de todo criterio no implica afirmar indiscriminadamente la racionalidad de cualquier criterio, ni afirmar que basta que una decisión esté sujeta a criterios para que sea considerada racional. Una vez que todas las normas son violables, quien infringe una norma debe tener buenas razones para hacerlo, y la racionalidad de la decisión está dada en principio por la relación existente entre las circunstancias en que se transgrede la norma y las razones de su violación, de forma que analizando las circunstancias que llevaron a quebrantarla se puede determinar si el apartamiento de la norma fue racional o no (309) Asimismo, la licitud de violar determinada norma bajo ciertas circunstancias parece suponer una mínima adherencia al conjunto de normas al que pertenece aquella que se rompe (307-08). Por contrapartida, si una de la partes no suscribe ninguna de las normas aceptada por la otra –situación nada frecuente en la historia– la ruptura de una norma se vuelve trivial. Pude decirse que Newton rompió todas las normas que prescribía Aristóteles para hacer ciencia, pero ello no es de importancia en cuanto en la época de consolidación de la ciencia newtoniana las reglas de la ciencia aristotélica habían caducado casi completamente. Resulta mucho más significativo afirmar que la astronomía de Kepler rompió con algunas de las premisas de la tradición platónico-pitagórica, pero mantuvo fielmente otras que le dieron fondo y sentido a la ruptura. Asimismo, puede existir acuerdo sobre la validez de una norma, pero no respecto a los tipos de casos que se consideran violatorios. Tanto el sistema copernicano como el ptolemaico estaban construidos siguiendo la regla de que un sistema astronómico debía “salvar los fenómenos” ofreciendo una explicación económica desde el punto de vista matemático. Ambos compartían igualmente –y de forma muy arraigada– el principio platónico de la uniformidad y circularidad de los movimientos planetarios. Para Copérnico, a su vez, el sistema ptolemaico constituía un caso violatorio de estas reglas (Coffa 1969; Kuhn 1996), y lo que parece estar en juego en este tramo de la revolución copernicana no es tanto la validez de una regla determinada –consensuada por ambas partes–, sino las condiciones en las que se considera que la regla ha sido cumplida o

122

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 113-138


Racionalidad y elección de teorías

violentada. A este respecto N. R. Hanson (1978) señaló que el significado de la expresión “salvar los fenómenos” presentó un alto grado de variabilidad tanto en las etapas previas como en el decurso mismo de la revolución copernicana, de tal modo que durante un extenso periodo los astrónomos coincidieron en que la función de la astronomía era salvar los fenómenos, aunque dando a la expresión sentidos diferentes e incluso antagónicos. El modelo de Sankey acepta que al momento de elegir entre teorías rivales dos científicos opten por teorías opuestas al basar sus decisiones en criterios diferentes, por lo que ambos estarán en condiciones de ofrecer argumentos que fundamenten su elección. De aquí que “opposing scientists may have rational grounds for choice of theory, in spite of adopting rival theories” (1995, 309). Así se configura el concepto de desacuerdo racional, entendiendo por tal el tipo de desacuerdo dado cuando el conflicto entre teorías es resultado de la elección de criterios epistémicos diferentes. Dado el amplio margen de tolerancia epistémica involucrado en estas aserciones, podría pensarse que el modelo es pasible de la acusación de relativismo epistémico: si un científico elige una teoría con base en un determinado criterio de evaluación, y otro científico elige una teoría opuesta en función de otro criterio, el resultado remite en último término a una elección anterior entre criterios. Pero para esta primera elección no hay un metacriterio superior que permita estipular si uno de los criterios iniciales es preferible al otro. Esto implica que la elección de teorías es relativa al criterio utilizado por cada científico, solo en el sentido de que no hay modo de justificar las elecciones de criterios. Sin embargo, Sankey considera que esta clase de divergencia metodológica no deriva en el relativismo epistémico. Para combatir esta idea enfatiza que la concepción de que la divergencia racional es posible no se origina en la intención teórica de forjar una nueva concepción de la racionalidad, sino en la necesidad de ofrecer una caracterización de la racionalidad acorde a la historia de la ciencia. En este sentido, el material histórico muestra numerosos casos de enfrentamientos entre teorías rivales, que difícilmente pueden ser comprendidos bajo la premisa de que si una es racional la restante no puede serlo (1995 309). Cabe aquí detenerse en una consecuencia relevante de la propuesta de Sankey: cuestionar el carácter relativo y variable de los criterios de elección en nombre de que criterios opuestos dan lugar a elecciones opuestas supone asumir que del mismo modo que en el nivel de las elecciones debe haber una forma unívoca de determinar si una elección es más racional que su contraria, también en el nivel de los criterios debe ser posible determinar de modo unívoco qué criterio es más racional aplicar en cada caso. Pero esto implica postular una suerte de

123


Melogno, Pablo

metacriterio que permitiera elucidar previamente, por ejemplo, en qué casos hay que optar por la teoría más simple y en cuáles por la más explicativa, o en qué casos hay que privilegiar la base matemática y en cuáles el respaldo empírico. Pero esta posibilidad enfrenta dos obstáculos: desde el punto de vista conceptual, no es fácil entrever qué tipo de operación permitiría a los científicos semejante evaluación racional, ya no de teorías sino de criterios. Asimismo, y desde el punto de vista histórico, no parecen registrarse operaciones de esta clase entre las elecciones más características de los científicos, o al menos entre las que habitualmente nos vemos inclinados a tildar como racionales. Por lo que en estos términos la demanda de una justificación de los criterios históricamente utilizados por los científicos recae de modo inevitable en la pretensión de ofrecer una especie de fundamento algorítmico de la racionalidad. Como se verá más adelante, la alternativa de introducir metacriterios para la elección racional, o de jerarquizar algún criterio por sobre el resto, no ha estado del todo ausente en la literatura. Putnam (1988) consideró que las necesidades pragmáticas de adaptación al entorno regulan los criterios de justificación racional, mientras que Kuhn (2004 312-13) otorgó una cierta primacía a la capacidad de resolver problemas por sobre otros criterios. No obstante, puede decirse que ni las necesidades adaptativas en Putnam ni la resolución de problemas en Kuhn resultan buenos candidatos para oficiar como metacriterios de racionalidad, más allá de que ni uno ni otro tuvieron la intención de que así fuera. Además de las razones conceptuales e históricas ya expuestas, para que un metacriterio oficie como tal, deben cumplirse al menos dos condiciones: su formulación debe ser lo suficientemente unívoca como para garantizar su aplicación y sus condiciones de aplicación deben resultar exhaustivas respecto de los casos a evaluar. Si el contenido de un criterio es variable al punto de que su aplicación queda librada a determinaciones contextuales o estipulaciones individuales, difícilmente puede servir como metacriterio de racionalidad. A su vez, si sus condiciones de aplicación no permiten considerar casos relevantes o se enfrentan a casos en los que el criterio se transgrede razonablemente, tampoco hay buenas razones para atribuirle una jerarquía mayor a la de los criterios restantes. Las propuestas mencionadas de Putnam y Kuhn no cumplen estas condiciones, por lo tanto no pueden oficiar como metacriterios de racionalidad. En el caso de Kuhn, la capacidad de resolver enigmas es un criterio cuyo contenido está asociado a los principios de cada paradigma, por lo que aquello que cuenta como una buena solución o como un problema relevante dentro de un paradigma, no resultará considerado de la misma forma bajo la óptica del paradigma rival. Señala Kuhn:

124

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 113-138


Racionalidad y elección de teorías

Muchos de los enigmas de la ciencia normal contemporánea no existieron hasta después de la revolución científica más reciente. Son pocos los que, pudiendo remontarse en el tiempo hasta los comienzos históricos de la ciencia, se presentan en la actualidad. Las generaciones anteriores se ocuparon de sus propios problemas, con sus propios instrumentos y sus propios cánones de resolución. Tampoco son solo los problemas los que han cambiado; más bien, todo el conjunto de hechos y teorías, que el paradigma de los libros de texto ajusta a la naturaleza, ha cambiado (2004 218).

Esto, a su vez, implica que las condiciones de aplicación del criterio –en tanto interior a un paradigma– no resultan exhaustivas, sino que quedan condicionadas circularmente (151) a la aceptación de los principios del paradigma al que pertenecen. Igual es la situación frente a la posibilidad de tomar las necesidades de adaptación del entorno como metacriterio de racionalidad. En la propuesta de Putnam, estas necesidades son específicas de los contextos comunitarios y de los esquemas conceptuales con los que están asociados, por lo que tanto su contenido como sus condiciones de aplicación sufren variaciones de fondo en función de las características de cada esquema conceptual. Al respecto Putnam señala: Es porque hay necesidades humanas reales, y no simplemente deseos, por lo que tiene sentido distinguir entre valores mejores y peores, y, por lo mismo, entre cuchillos mejores y peores. ¿Qué son estas necesidades humanas preexistentes, y cómo se distinguen de los meros deseos?... las necesidades humanas tampoco pre-existen, que la humanidad está constantemente rediseñándose a sí misma, y que nosotros creamos las necesidades (1994 150-151).

Si se acepta esto, la posibilidad de introducir un metacriterio de racionalidad o bien queda cancelada, o bien se enfrenta a obstáculos sumamente difíciles de manejar en una concepción historicista de la racionalidad. Volviendo a la variabilidad histórica de los criterios de racionalidad, un ejemplo puede resultar útil para ilustrar la cuestión. Puede pensarse que la defensa del sistema heliocéntrico por parte de Copérnico en el siglo XVI era racional, en cuanto apelaba a criterios como la simplicidad, la economía o la regularidad matemática9. Pero igualmente racional puede considerarse la defensa del sistema geocéntrico por Tycho Brahe a fines del mismo siglo, sustentada en la equivalencia matemática de su sistema respecto al copernicano y en la ausencia de paralaje estelar, prueba crucial a favor del heliocentrismo (Kuhn 9 A este respecto puede revisarse la obra clásica de Toulmin y Goodfield (1963).

125


Melogno, Pablo

1996). En un modelo algorítmico, la racionalidad de la defensa del heliocentrismo copernicano implicaría la irracionalidad de la hipótesis geocéntrica de Brahe, pero solo en términos muy forzados esta puede considerarse irracional, en cuanto responde a criterios epistémicos similares a los que permiten declarar como racional la elección de Copérnico, como ser el apoyo empírico y la consistencia matemática. Al mismo tiempo, puede pensarse que los argumentos que Brahe esgrimía a favor del sistema geocéntrico no son del mismo tipo, ni tienen la misma consistencia epistémica, de los que ofrecerán luego Niccolò Ricardi y Gaspar Schopp, cuando en polémica con Galileo sostienen que el movimiento planetario debía explicarse por el impulso que generaban los ángeles al empujar los planetas (Shea y Artigas 2003 125). En una concepción algorítmica de la racionalidad, si la elección de Copérnico es racional y la de Brahe es lógicamente incompatible con ella, entonces la segunda no es racional. Pero en estos términos, la defensa del geocentrismo efectuada por Brahe queda confinada al mismo estatus de irracionalidad que los ángeles planetarios de Ricardi y Schopp, de forma tal que bajo una concepción algorítmica no pueden reconstruirse las claras diferencias epistémicas que separan ambas posturas. Bajo una concepción pluralista, por el contrario, tanto la elección de Copérnico como la de Brahe cuentan como racionales a pesar de efectuarse en defensa de teorías opuestas, y la hipótesis de Ricardi y Schopp queda fuera de la racionalidad aún siendo compatible con la de Brahe10. Sin embargo, esto no implica que cualquier elección resulte aceptable, ya que a partir del modelo de Sankey tres clases de decisiones quedarían excluidas de la racionalidad (1995 310). Primero, decisiones basadas en criterios epistémicos no genuinos, como maniobras evasivas de objeciones, hipótesis ad hoc o apelaciones a la autoridad. Un caso de esta clase lo constituye la réplica de Christopher Clavius al descubrimiento que hizo Galileo de las irregularidades de la Luna, al afirmar que lo que causa la apariencia de irregularidad es la densidad desigual de la sustancia lunar, que está cubierta por una sustancia 10 No es cuestión obvia establecer por qué la hipótesis de que los planetas eran empujados por ángeles no queda incluida en la reconstrucción racional de la defensa del geocentrismo durante la revolución copernicana. Sí es claro que no hay ningún criterio absoluto –como podría ser “la hipótesis no cuenta con respaldo empírico adecuado” – que permita una exclusión concluyente de la racionalidad. Sin embargo, puede sí decirse que la hipótesis no cumple con los criterios epistémicos en los que los mismos seguidores de Ptolomeo usualmente se basaban para defender su sistema. Para cualquier astrónomo ptolemaico, una buena hipótesis astronómica debía ser precisa, predictiva, matemáticamente consistente, etc. Y por más que los ptolemaicos pudieran entender y aplicar cada uno de estos criterios de modo muy diferente a los copernicanos, se trata de requerimientos epistémicos específicos del sistema ptolemaico, que no son cumplidos por la hipótesis de Ricardi-Schopp. De aquí que podría afirmarse que la hipótesis resulta irracional por cuanto no cumple con los propios criterios del marco conceptual en defensa del cual fue formulada, en este caso el sistema geocéntrico.

126

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 113-138


Racionalidad y elección de teorías

transparente que asegura su esfericidad (Drake 1983). También caben en esta categoría la distinción entre ciencia burguesa y ciencia proletaria introducida en el contexto del caso Lysenko (Pollock 2006) o la consideración de la teoría de la relatividad como “fraude judío” por parte de Philipp Lenard (Hentschel 1996). En segundo término, puede haber decisiones no racionales basadas en criterios epistémicos genuinos pero que son aplicados de un modo espurio o arbitrario. La decisión de Giovanni Cassini de no aceptar el sistema heliocéntrico y las órbitas elípticas de los planetas a fines del siglo XVII en nombre de la insuficiencia de pruebas (Boschiero 2007) resulta históricamente tan irracional como racional había sido el rechazo de Brahe un siglo antes. Por último, puede haber decisiones basadas en criterios metodológicos que estuvieron vigentes pero que han caído en descrédito (Sankey 1995). En medicina, desde el siglo II d. C. hasta el siglo XVI, pudo ser racional seguir el criterio de Galeno estableciendo analogías entre la anatomía humana y la de los monos. Pero una vez que Vesalio puso en marcha la revolución que podría fin a la tradición galénica (French 2003), el criterio perdió vigencia histórica. Bajo estas coordenadas, la exclusión de estos casos del ámbito de la racionalidad comporta una primera barrera de contención frente a la amenaza del relativismo epistémico, al tiempo que contribuye a trazar con más claridad el límite entre las decisiones que desde el punto de vista histórico pueden ser consideradas racionales y las que no. Así las cosas, el planteamiento de Sankey queda expuesto a otra dificultad: del mismo modo que un modelo no algorítmico corre el riesgo de ampliar indefinidamente los límites de la racionalidad, también resulta riesgoso pretender trazar una línea de delimitación clara entre lo racional y lo que no lo es. Lo más consecuente dentro de un marco pluralista es afirmar que, en último término, y excluyendo los casos recalcitrantes, no hay un procedimiento metodológico unívoco que permita distinguir de modo concluyente cuando una elección es racional y cuando no lo es. En términos de Wittgenstein, “Hay casos en los que la duda es irrazonable, pero otros en los que, en apariencia, es lógicamente imposible. Y no parece haber un límite claro entre ellos” (§ 454). El límite solo podría especificarse mediante un algoritmo que diera cuenta de las condiciones necesarias y suficientes de la racionalidad, lo que es incompatible con los presupuestos básicos del pluralismo. En estos términos, cabe pensar que las declaraciones de irracionalidad en la reconstrucción histórica siempre deben postularse con un estatus abierto y provisional, que amerite reformulaciones en función de elementos no contemplados originalmente. Asimismo, hay una posibilidad que no parece estar contemplada por completo en la postura de Sankey. Su modelo asume que el desacuerdo

127


Melogno, Pablo

racional se configura cuando científicos diferentes eligen teorías opuestas en función de criterios de evaluación diversos. Pero puede darse el caso de que dos científicos elijan teorías opuestas con base en el mismo criterio de evaluación, en cuanto cada uno estipula que la teoría que defiende cumple con el criterio de mejor modo que la rival. Así, si A y B son teorías rivales, el científico 1 puede considerar que A tiene más capacidad explicativa que B, y el científico 2 que B tiene más capacidad explicativa que A. En estos términos, ya no solo habría un margen discrecional para la elección del criterio, sino también para su aplicación; en función de esto cabe preguntarse si un modelo no algorítmico debe ampliar hasta este punto el grado de tolerancia epistémica11. Una alternativa es tratar este tipo de casos de modo hipotético, y rastrear si en la historia de la ciencia efectivamente se han producido episodios de enfrentamientos de teorías que puedan ser reconstruidos como interpretaciones divergentes y genuinas de un mismo criterio. Sin embargo, el problema que aparece aquí es que cuanto más se amplían los márgenes de tolerancia, más abarcativo resulta el concepto de racionalidad derivado del modelo, con lo que se corre el riesgo de obtener un concepto tan amplio que al ser compulsado con la historia de la ciencia solo excluya los casos manifiestamente aberrantes como los de Ricardi-Schopp, Lenard o Lysenko. Frente a dificultades de este tipo, Sankey (1995) insiste en que la idea de que el desacuerdo metodológico conduce al relativismo responde a un supuesto erróneo sobre las relaciones entre los criterios de evaluación y la justificación racional, consistente en pensar que la conformidad con un criterio es condición suficiente para la racionalidad de una elección. Este supuesto –señala– no es aceptable en la medida en que no todos los criterios a los que se puede apelar en la elección de teorías proporcionan soporte epistémico genuino. Desde el punto de vista descriptivo, es claro que los científicos trabajan con una amplia gama de criterios que guían sus elecciones con un alto nivel de discrecionalidad; pero desde el punto de vista normativo, en la reconstrucción de la práctica científica real, puede establecerse que muy a menudo los científicos realizan elecciones basadas en criterios deficientes o erróneos, carentes de soporte epistémico. Así, para Sankey, la creencia de un científico puede estar sujeta a un criterio sin estar racionalmente justificada, de modo que la elección racional no se agota en la mera sujeción a un criterio.

11 Una dificultad de este estilo fue detectada tempranamente por Newton Smith (1987, 129).

128

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 113-138


Racionalidad y elección de teorías

4. L a ruptura del consenso: algo más sobre la revolución copernicana

Cabría pensar que para Sankey la variabilidad histórica de los criterios de elección racional es lo suficientemente amplia como para habilitar su revisión indefinida a lo largo de la historia. Ahora bien, si el carácter histórico de los criterios es tan sustantivo que no permite privilegiar alguno por sobre los demás12, resulta apremiante especificar qué sería un criterio genuino porque para evitar el relativismo epistémico parece necesario dar con algún procedimiento metodológico que permita distinguir los criterios que –en circunstancias históricas concretas– sostienen decisiones racionales de los que no lo hacen. De lo contrario, Sankey correría el riesgo de considerar racionales todas las decisiones que son tomadas conforme a criterios consensuados por una comunidad científica en un momento histórico dado, siendo el acuerdo comunitario la base última de la racionalidad13. Una clave para resolver este punto radica en dos afirmaciones introducidas por Sankey (1995), a saber: los científicos nunca revisan o violan todos los criterios a la vez y la trasgresión de un criterio requiere no solo el cumplimiento de otro, sino la introducción de razones que justifiquen la decisión. En función de esto, puede pensarse que cuando una comunidad logra consenso en torno a una serie de criterios, se debe a que estos respondieron adecuadamente a sus expectativas y necesidades de conocimiento, y es en esta medida –solo en ella– que el consenso puede considerarse no arbitrario. Por otra parte, si racionalidad y consenso quedan tan estrechamente ligados, surge el problema de determinar qué elecciones cuentan como racionales en circunstancias en las que el consenso comunitario se ha deteriorado o fragmentado. Esto en cuanto cabe pensar que los episodios más problemáticos para cualquier teoría de la racionalidad con pretensiones de reconstrucción histórica son aquellos en que se produce la ruptura del consenso comunitario. La elucidación de las condiciones históricas de ruptura del consenso está estrechamente vinculada con la caracterización kuhniana de las revoluciones científicas. Como es sabido, en la Estructura… Kuhn (2004) postuló una ruptura abrupta de los consensos señalando que después de una revolución 12 Cabe recordar que hasta el mismo Kuhn terminó concediendo a la capacidad de resolver problemas una preponderancia mayor que la de otros criterios a la hora de evaluar los méritos de teorías rivales (Kuhn 2004, 260 y ss.). 13 Más allá de las críticas que pueden efectuarse a esta forma de consensualismo, el problema amenaza la consistencia del modelo en la medida en que, como ya se señaló, Sankey se propone mantener la distinción entre criterios epistémicamente genuinos y criterios espurios.

129


Melogno, Pablo

los científicos se enfrentan a un nuevo mundo (233 y ss.). Sin embargo, su posterior consideración de la inconmensurabilidad en términos lingüísticos lo condujo a moderar algunas de sus tesis y a destacar el carácter local de los fallos de traducción asociados al cambio conceptual (Kuhn 1989). Si bien Sankey (1993 1994) realiza un arduo periplo de exégesis de las distintas versiones de la inconmensurabilidad kuhniana, en los trabajos en que desarrolla su propia concepción se inclina a tomar la inconmensurabilidad como un fenómeno más bien de orden lingüístico y asociado estrechamente a fallos parciales de traducción (Sankey 1995 2009). En estos términos, la ruptura del consenso comunitario puede ser abrupta y repentina pero no total, en cuanto la conciliación de la tesis de la inconmensurabilidad con la evaluación racional de teorías requiere acotar la inconmensurabilidad a la imposibilidad de traducción, limitando asimismo los problemas de traducción a los casos de fallos parciales. Siguiendo la caracterización de Kuhn, en las etapas de crisis el consenso comunitario puede debilitarse hasta generar que algunos científicos rompan con criterios previamente exentos de crítica. En este momento se hace necesario evaluar cuáles son las razones que llevaron a la violación de los criterios establecidos, a efectos de establecer la racionalidad o no de las rupturas. En un contexto de enfrentamiento entre paradigmas, la ausencia de códigos compartidos sobre los cuales construir el consenso abre una amplia gama de posibilidades de evaluación racional. Volviendo a la revolución copernicana, puede considerarse racional que Kepler se apartara del principio de la circularidad de los movimientos celestes, en cuanto la hipótesis elíptica le permitía predecir las órbitas planetarias con mayor precisión. Pero también resulta racional que Clavius se mantuviera en el sistema geocéntrico alegando que la ausencia de paralaje era una prueba en contra del copernicanismo (Fischer 1986). El caso del paralaje es sumamente representativo del carácter parcial y localizado de la ruptura de los consensos y los circuitos de debate entre defensores de paradigmas rivales, ya que a lo largo de los siglos XVI y XVII existió consenso entre los defensores del copernicanismo y los defensores del sistema geocéntrico respecto de que el paralaje estelar –de detectarse– resultaba probatorio del movimiento de la Tierra14.

14 Es claro que no se registraba el mismo nivel de consenso en cuestiones específicas como la manera de medir el paralaje, el carácter concluyente o no de las mediciones disponibles en cada periodo, la distancia de las estrellas respecto de la Tierra, y demás variables en las que se desplegó el desacuerdo entre los dos paradigmas (para un tratamiento histórico y accesible sobre el tema, puede consultarse Hirshfeld 2001). Pero en todo caso, la existencia de estas divergencias resultantes del conflicto entre paradigmas rivales no es obstáculo para identificar los acuerdos respecto del valor del experimento.

130

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 113-138


Racionalidad y elección de teorías

En términos similares, puede considerarse no racional la ya mencionada afirmación de Clavius de que las irregularidades de la Luna descubiertas por Galileo no son tales por cuanto permanecen recubiertas de una sustancia de muy baja densidad que preserva la forma esférica15. En la tradición aristotélica que precedía a Clavius, la consistencia deductiva resultaba un criterio central para evaluar la aceptabilidad de una hipótesis; y la afirmación de una sustancia lunar invisible no puede deducirse de los principios de la cosmología física de Aristóteles, ni de las tesis físicas aceptadas hasta ese momento en el sistema geocéntrico, y justamente en esa medida no constituye una defensa racional frente a los ataques de Galileo. Así, la postura de Clavius puede evaluarse como no racional en cuanto no cumple con los propios criterios aceptados dentro del paradigma que pretende defender16, y esto permite considerarla una defensa ineficaz no en los términos del paradigma rival, sino en los términos del paradigma mismo al que la hipótesis pertenece. Cabe señalar de todos modos que esta conclusión admite escenarios alternativos. Si Clavius hubiera formulado la hipótesis de la sustancia invisible de espaldas a los principios de la física de Aristóteles, pero una vez formulada la hubiera desarrollado y sistematizado, construyendo a su alrededor un conjunto de hipótesis fértiles y explicativas acerca de la composición de los astros, podríamos hoy validar su postura como racional. Pero la hipótesis de la sustancia invisible no prosperó más allá de su valor circunstancial en la polémica con Galileo, y por esa razón su defensa no aparece como racional a ojos de la reconstrucción histórica. En estos términos, lo que hace a la racionalidad de las elecciones científicas no es la existencia de algún principio estable de racionalidad, sino la consideración del valor histórico-contextual de las razones que se esgrimen para romper o mantener el consenso. Estas razones, a su vez, remiten siempre a criterios revisables y variables históricamente, y en este marco parece claro que si un científico no puede fundamentar una hipótesis en los términos del marco conceptual que pretende defender, su postura no puede ser considerada racional. Podrían sintetizarse estas consideraciones históricas en los siguientes términos: • Sea T1 una teoría defendida por el científico C1 y T2 una teoría defendida por el científico C2. • Sea T1 incompatible con T2. 15 El informe del Colegio Romano de 1611, con la mención a la postura de Clavius se reproduce en castellano en Cuadrado (2005, 90-4). 16 En el informe incluso se señala que no todos los astrónomos del Colegio Romano compartían la hipótesis de Clavius (Cuadrado 2005, 92).

131


Melogno, Pablo

• Sea Cr1 la serie de criterios que han llevado a C1 a sostener T1. • Sea Cr2 la serie de criterios que han llevado a C2 a sostener T2. • Sea Cr1 incompatible con Cr2. • Puede considerarse irracional cualquier defensa de T1 por parte de C1 que no cumpla con Cr1, y cualquier defensa de T2 por parte de T2 que no cumpla con Cr2. Lo anterior supone que ni C1 ni C2 han asumido Cr1 y Cr2 arbitrariamente, sino que lo han hecho porque los criterios han satisfecho ciertas necesidades epistémicas de sus respectivas comunidades. Ahora bien, ya que estas necesidades son históricamente variables en la misma medida en que lo son los criterios asociados a ellas, cabe clarificar el estatus y el alcance que puede atribuírseles; algunas aserciones de Putnam resultan pertinentes para clarificar el punto17. Señala Putnam que las variaciones en los criterios de racionalidad no están libradas a la voluntad de los sujetos, sino que están constreñidas por necesidades de adaptación al entorno: […] esperamos que los descriptores racionales sean capaces de adquirir ciertos tipos de conceptos con respecto a ciertos tipos de descripción, y que comprendan que su uso es necesario en esos casos; el hecho de que el descriptor no emplee cierto concepto puede ser motivo para que tanto él como su descripción sean criticados (1988 141).

Cabe pensar que en caso de que un sujeto no emplee el instrumental conceptual necesario para una descripción, no podrá interactuar funcionalmente con el medio, por lo que no solo será pasible de crítica, sino que la posibilidad de comunicación y desacuerdo con los demás estará puesta en riesgo. De aquí que las necesidades epistémicas de las comunidades determinan el uso de criterios de racionalidad, por cuanto lo que justifica la apelación a un criterio es la funcionalidad que este reporta en la adaptación de la comunidad al entorno. Putnam (1994) especifica esto con un conocido ejemplo. Supóngase un mundo compuesto por los individuos X1, X2 y X3, y pregúntese cuántos objetos componen ese mundo. Una primera respuesta es que habiendo solo tres individuos, hay solo tres objetos; es una respuesta aceptable, pero no la única legítima. Una segunda posibilidad podría ser partir de la premisa mereo17 Sankey (2000) presenta una serie de discrepancias con la teoría causal de la referencias defendida por Putnam, en relación con la tesis de la inconmensurabilidad. Entendemos que las hondas divergencias expresadas por Sankey en cuestiones de realismo y referencia no afectan la conciliación con los conceptos putnamianos que introducimos en lo que sigue.

132

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 113-138


Racionalidad y elección de teorías

lógica de que una suma constituye un objeto diferente de los términos que la componen, de modo que el mundo contiene siete y no tres objetos, dados por los iniciales X1, X2 y X3, más las cuatro sumas posibles entre ellos. Podemos adoptar tanto el sistema simple como el sistema mereológico, y la cantidad de objetos que identifiquemos en el mundo va a ser relativa al esquema conceptual que hayamos elegido. Los conceptos de ambos sistemas tienen un valor relativo en cuanto son dependientes de la estructura del sistema elegido, pero no en cuanto sean resultado nada más que de una convención o una decisión. “Nuestros conceptos pueden ser relativos a una cultura, pero de aquí no se sigue que la verdad o la falsedad de cualquier cosa que digamos usando esos conceptos sea simplemente decidida por la cultura” (64). Esta consideración pragmática de las elecciones dadas dentro de un esquema conceptual implica que hay más de una elección posible –en el ejemplo tres objetos, siete objetos, etc.–, pero no que todas las elecciones sean posibles ni que todo sea solo cuestión de elección. A su vez, si una comunidad opta por el sistema simple y otra por el sistema mereológico, puede establecerse que ambas elecciones responden a que, en su contexto, cada una de las comunidades ha encontrado buenas razones para aceptar el sistema respectivo, en cuanto su adopción resulta eficaz para las necesidades de contar y distinguir objetos que cada comunidad busca satisfacer. A partir de aquí puede colegirse que el respaldo de los criterios de racionalidad que cada comunidad adopta remite a su eficacia pragmática para satisfacer necesidades de adaptación e interrelación con el entorno. Esto implica que los criterios de racionalidad son contextualmente dependientes, pero que no por ello pueden ser variados de forma arbitraria. En el ejemplo anterior, el sujeto que adopta el criterio mereológico no podría decir que conforme a su esquema hay 9,5³ objetos, porque este resultado no cumple con el sistema de conteo que él mismo ha decidido adoptar. Si lo hiciera, no estaría simplemente cambiando una convención por otra, en cuanto la adopción del sistema inicial –en que había siete objetos, siete sumas mereológicas no vacías– satisfacía intereses y necesidades epistémicas que la justificaban. Estas consideraciones permiten evadir el carácter arbitrario de los consensos comunitarios, por cuanto la exigencia de racionalidad no se agota en que nuestras creencias sean coherentes con los criterios que nosotros mismos hemos impuesto, sino que remite a una cuestión más de fondo, y es que debemos ser coherentes con esos criterios porque tuvimos buenas razones para aceptarlos, razones que van más allá de la coherencia. Así, la defensa de Clavius frente a Galileo no solo no es racional porque no es consistente con los principios aristotélicos que el mismo Clavius defiende, sino además porque Clavius tiene

133


Melogno, Pablo

muy buenas razones para mantener los principios que está transgrediendo. No puede abandonarlos porque cree que la física de Aristóteles es la mejor explicación de la estructura del cosmos, y porque ha logrado explicar una vasta porción del funcionamiento de la naturaleza con base en sus principios. A su vez, encuentra en la hipótesis de la sustancia invisible una buena estrategia para contrarrestar a Galileo, pero su formulación no logra ensamblar la hipótesis con el marco general de la cosmología aristotélica, y en esa medida su defensa no es eficaz a efectos de la racionalidad. En función de esto, puede pensarse que el planteamiento de Sankey concede la revisabilidad ilimitada de los criterios de racionalidad en el decurso de la historia, pero que esto no es incompatible con la delimitación de contextos históricos en los que es posible especificar las condiciones del desacuerdo racional y la intromisión de elementos no racionales.

5. A modo de conclusión Cualquier caracterización de la racionalidad científica efectuada en clave pluralista parece estar obligada a establecer cómo es posible que hayan elecciones racionales si los criterios en nombre de los cuales los científicos operan están arraigados en un marco conceptual, al que en buena medida son relativos. Si los criterios de racionalidad presentan tan alto grado de permeabilidad al contexto histórico, ¿por qué no reducir la racionalidad misma a una construcción histórica? Buena parte de los desarrollos pluralistas de la segunda mitad del siglo XX dan lugar a la idea de que la caída de concepciones clásicas como el neopositivismo y el racionalismo crítico no implica la inviabilidad del concepto de racionalidad científica, sino solo la inviabilidad de una determinada concepción de la racionalidad de la ciencia predominante hasta mediados del siglo XX. En esta línea, puede decirse que el modelo no algorítmico de la racionalidad propuesto por Howard Sankey conduce a una rehabilitación moderada y racionalista de la tesis de la inconmensurabilidad, tendiente a distanciarse de reconstrucciones históricas centradas en los fallos totales de traducción y las divergencias ontológicas insalvables. Resulta central a estos efectos, la distinción entre traducción y comprensión que ya había permitido a Kuhn moderar algunas de las consecuencias relativistas e irracionalistas de su pensamiento, abriendo la posibilidad de que teorías intraducibles pueden resultar mutuamente inteligibles. A partir del modelo de Sankey, esta estrategia se potencia en la medida en que la distinción entre comprensión y traducción habilita no solo la inteligibilidad y la intercomunicación, sino también la elección racional

134

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 113-138


Racionalidad y elección de teorías

entre teorías inconmensurables. En estos términos, el modelo resulta sumamente fértil en cuanto no solo brinda una imagen de la racionalidad científica resistente a derivaciones relativistas, sino que lo hace incorporando el concepto de inconmensurabilidad, tradicionalmente visto como un conducto irreversible hacia la negación de la racionalidad científica. Este desplazamiento hacia una lectura racionalista de la inconmensurabilidad hace posible identificar episodios históricos de desacuerdo racional, no obstante presenta aspectos problemáticos para discriminar de modo exhaustivo las decisiones racionales de aquellas que no lo son. Permite asimismo dar cuenta de procesos históricos ciertamente típicos e intuitivos, como los cambios de significado en los términos de teorías rivales, la imposibilidad de decidir sobre la base empírica o la determinación de la observación por la teoría, pero confiriéndole valor epistémico a las elecciones de los científicos. A efectos de realizar un balance de estos aspectos del modelo de Sankey, cabe situar sus consecuencias más inestables en las relaciones entre lenguaje natural y lenguaje científico en la determinación de los límites de la racionalidad científica, y en las relaciones entre la racionalidad y la construcción del consenso comunitario. Sobre el primer aspecto, Sankey abre una orientación sumamente eficaz al restringir la inconmensurabilidad a los lenguajes científicos, aunque –cómo se señaló– ello no resulta suficiente para lidiar con la variabilidad que los lenguajes naturales introducen en los procesos de reconstrucción histórica. En cuanto a los límites de la racionalidad científica, su planteamiento no ofrece distinciones de fondo para identificar elecciones teóricas que resultan no racionales, lo cual sumado a cierta tolerancia respecto a la variabilidad histórica de los criterios de elección de teorías, deja abierto el campo para una consideración acaso demasiado hospitalaria de la racionalidad científica. No obstante, intentamos hasta aquí defender que esto no constituye un problema de fondo para esta propuesta, en la medida en que la reconstrucción de las decisiones de los científicos en función de los criterios de racionalidad previamente aceptados por cada comunidad proporciona en principio una base tangible para especificar los límites de la racionalidad científica. Finalmente, en los problemas ligados a las relaciones entre la racionalidad y el consenso comunitario, una vía prometedora para su análisis –acaso no demasiado explorada por el mismo Sankey– parece ser la elucidación de las necesidades que sostienen la construcción del consenso en las comunidades científicas, lo cual lo lleva más allá de su dimensión convencional o sociológica. Entendemos que en estos tres niveles se dirimen los principales desafíos que enfrentan los modelos pluralistas de la racionalidad científica como el propuesto por Sankey. Sostenemos asimismo que para el caso particular del

135


Melogno, Pablo

modelo, las dificultades señaladas no constituyen obstáculos de fondo para su desarrollo, por cuanto pueden ser adecuadamente atacadas mediante ajustes y profundizaciones de los principios iniciales introducidos por Sankey. Por estas razones, la propuesta de Sankey constituye una herramienta sumamente fértil para la caracterización de la racionalidad científica y la reconstrucción histórica de los procesos de cambio conceptual, en la medida en que proporciona una imagen consistente de la variabilidad histórica de los criterios de elección entre teorías rivales, evita el relativismo epistémico y ofrece una imagen integrada de la racionalidad científica en cuanto producto histórico.

Trabajos citados Bird, A. Thomas Kuhn. 2000. Madrid: Tecnos, 2002. Boschiero, L. Experiment and Natural Philosophy in Seventeenth-Century Tuscany. Dodrecht: Springer, 2007. Coffa, J. A. Copérnico. Buenos Aires: CEAL, 1969. Cuadrado, S. Galileo Galilei. Madrid: Edimat, 2005. Davidson, D. “De la idea misma de un esquema conceptual”. De la verdad y de la interpretación. 1974. Barcelona: Gedisa, 1990. 189-203. Devitt, M. “Against Incommensurability”. Australasian Journal of Philosophy 57.1 (1979): 29-50. Drake, S. Galileo. 1980. Madrid: Alianza, 1983. Feyerabend, P. Límites de la ciencia. Explicación, reducción y empirismo. 1962. Barcelona: Paidós/ ICE- UAB, 1989. —.Contra el método. 1975. Barcelona: Planeta-Agostini, 1994. Fischer, K. Galileo Galilei. 1983. Barcelona: Herder, 1986. French, R. Medicine before Science. The Business of Medicine from the Middle Ages to the Enlightenment. Cambridge: Cambridge University Press, 2003. Friedman, M. Dynamics of Reason: The 1999 Kant Lectures at Stanford University. Stanford: CSLI Publications, 2001. —. “Kant, Kuhn, and the Rationality of Science”. Philosophy of Science 69.2 (2002): 171-90. Hanson, N. R. Constelaciones y conjeturas. 1973. Madrid: Alianza, 1978.

136

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 113-138


Racionalidad y elección de teorías

Hentschel, K. (ed.). Physics and National Socialism: An anthology of primary sources. Basel: Birkhäuser, 1996. Hintikka, J. “On the Incommensurability of Theories”. Philosophy of Science 55.1 (1988): 25-38. Hirshfeld, A. Parallax: The Race to Measure the Cosmos. New York: Henry Holt & Co., 2001. Kitcher, P. “Implications of Incommensurability”. PSA: Proceedings of the Biennial Meeting of the Philosophy of Science Association, v. 2: Symposia and Invited Papers. Chicago: University of Chicago Press, 1993. 689-703. Kuhn, T. “Conmensurabilidad, comparabilidad, y comunicabilidad” Qué son las revoluciones científicas. 1983. Barcelona: Paidós, 1989. 95-135. —. La revolución copernicana. 1957. Barcelona: Ariel, 1996. —. La estructura de las revoluciones científicas. 1962. México: FCE, 2004. Newton-Smith, W. H. La racionalidad de la ciencia. 1981. Barcelona: Paidós, 1987. Laudan, L. Progress and Its Problems: Towards a Theory of Scientific Growth. Berkeley, Los Angeles: University of California Press, 1977. Pérez Ransanz, A. R. Kuhn y el cambio científico. FCE: México, 1999. Pollock, E. Stalin and the Soviet Science Wars. Princeton: Princeton University Press, 2006. Putnam, H. Razón, verdad e historia. 1981. Madrid: Tecnos, 1988. —. Las mil caras del realismo. 1987. Barcelona: Paidós/ICE-UAB, 1994. Sankey, H. “Incommensurability, Translation and Understanding”. The Philosophical Quarterly 41.165 (1991): 414-26. —. “Kuhn's Changing Concept of Incommensurability”. The British Journal for the Philosophy of Science 44.4 (1993): 759-74. —.The Incommensurability Thesis. Aldershot: Avebury, 1994. —. “The Problem of Rational Theory-Choice”. Epistemologia 18.2 (1995): 299-312. —. “Rationality, Relativism and Methodological Pluralism”. Explorations in Knowledge XIII.1 (1996): 18-36. —. “The Language of Science: Meaning Variance and Theory Comparison”. Language Sciences 22.2 (2000): 117-36.

137


Melogno, Pablo

—. “Why is it Rational to Believe Scientific Theories are True?”. Cheyne, C., Worrall, J. (eds.). Rationality and Reality: Conversations with Alan Musgrave. Dordrecht: Springer, 2006. 109-132. —. “Scientific Realism and the Semantic Incommensurability Thesis”. Studies in History and Philosophy of Science 40A.2 (2009): 196-202. Shea, W.R. y M. Artigas. Galileo en Roma. Crónica de 500 días. Madrid: Encuentro, 2003. Toulmin, S. y J. Goodfield. La trama de los cielos. 1961. Buenos Aires: EUDEBA, 1963. Wittgenstein, L. Sobre la certidumbre. 1969. Caracas: Tiempo Nuevo, 1972.

138

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 113-138


Palabra y concepto: acercamiento a un eliminativismo conceptual en ciencia cognitiva1, 2

Word and concept: an approach to concept eliminativism in cognitive science

Pablo Andrés Contreras Kallens3, 4

R esumen En este artículo, me concentro en una pregunta de carácter metateórico respecto de la teoría de conceptos en ciencia cognitiva: ¿es necesaria la postulación de conceptos? Para responderla, inicio mi argumentación desde el punto de partida de que los conceptos son entidades teóricas inobservables postuladas con fines explicativos y de coherencia con una teoría. Me baso en esto para dividir los desiderata de una teoría ideal presentados por Fodor (1998) y Prinz (2002) en desiderata explicativos y desiderata teóricos. Los desiderata teóricos son sólo compromisos con la estructura de la Teoría Representacional de la Mente, por lo que no es menester aceptarlos. Así, identificaré los explananda de la postulación de conceptos mediante el análisis de los desiderata explicativos. Una vez definido este punto, presentaré tanto descripciones alternativas de los fenómenos como explicaciones plausibles de ellos en esos términos. Con esto, pretendo minar los cimientos de lo que ha sido considerado como el mayor argumento a favor de la existencia de conceptos: su exclusividad como explicación de sus explananda. Concluyo con algunas observaciones acerca de las consecuencias teóricas y metateóricas de los argumentos desarrollados. Palabras clave: coordinación sensoriomotora, constitución lingüística de la cognición; teoría representacional de la mente.

A bstract In this paper, I focus on a metatheoretical question about the theory of concepts in cognitive science: Is the positing of concepts necessary? To answer this question, I take as my starting point the assumption that concepts are unobservable theoretical entities posited to serve of both explanatory and coherence purposes. Based on this, I make a distinction between the desiderata of an ideal theory of concepts put forward by Fodor (1998) and Prinz (2002) in explanatory desiderata and theoretical desiderata. As theoretical desiderata are compromises imposed by the Representational Theory of Mind, their acceptance is not a requirement. I will then identify the explananda that concepts

1 Recibido: 29 de septiembre de 2014. Aceptado: 27 de noviembre de 2014. 2 Este artículo se debe citar como: Contreras, Pablo. “Palabra y concepto: acercamiento a un eliminativismo conceptual en ciencia cognitiva”. Rev. Colomb. Filos. Cienc. 14.29 (2014): 139-160. 3 Universidad de Chile / Grupo de Estudios de Filosofía Analítica de la Universidad de Chile. Correo: contreraskallens@gmail.com 4 Santiago de Chile, Chile.


Contreras Kallens, Pablo Andrés

are posited to explain by analizing only the explanatory desiderata. Once they have been identified, I will put forward both alternative descriptions of the phenomena and plausible explanations of them in those terms. Thus, I expect to overturn the foundation of what has been considered as the main argument for the existence of concepts: their exclusivity as explanations of their explananda. I conclude with some remarks on the theoretical and metatheoretical consequences of the proposed arguments. Key words: sensorimotor coordination; linguistic constitution of cognition; representational theory of mind. Es exactamente de la misma naturaleza que la opinión hindú de que el mundo descansaba sobre un elefante, y el elefante sobre una tortuga; y, cuando le dijeron: «¿Y la tortuga?», el indio dijo: «¿Y si cambiásemos de tema?» El argumento no es realmente mejor que ese. Bertrand Russell (1979, 10)

1. Introducción5 Los conceptos6 tienen un rol explicativo de gran relevancia en la teoría representacional de la mente (desde ahora, TRM). Según Prinz (1), por ejemplo, son los componentes básicos de los pensamientos. Las operaciones mentales que la teoría atribuye a los organismos se realizan sobre entidades con propiedades semánticas. Sin estas últimas, la teoría simplemente no funcionaría: si los objetos sobre los cuales los motores sintácticos operan no tienen propiedades semánticas, no hay forma de explicar la conexión entre la vida cognitiva de los sujetos y el mundo. Una teoría de conceptos tiene como objetivo dar cuenta de las distintas propiedades que estos deben tener para cumplir el rol señalado en el párrafo anterior, guardando el balance entre consistencia con la teoría de la cognición que los requiere y su papel en la explicación de su explanandum. De esta manera intentan resolver, entre otros, el problema del contenido, su relación con otros conceptos y su estructura. Cada uno de estos rasgos generales cumple una tarea específica con miras a cumplir el objetivo explicativo general de las teorías de conceptos. 5 Agradezco las sugerencias hechas por el árbitro par que revisó mi trabajo. Fueron muy valiosas al momento de identificar posibles ambigüedades en algunos de mis planteamientos. 6 Como muestra Machery (10; 33), la noción teórica de concepto tiene múltiples significados, y las afirmaciones hechas acerca de una no tienen necesariamente un correlato directo con afirma¬ciones acerca de las otras. En ese sentido, es necesario advertir que mi tratamiento de los conceptos no pretende considerar la noción neofregeana de, por ejemplo, McDowell (4), sino la que refiere a los conceptos como particulares mentales con propiedades semánticas utilizado principalmente por Fodor (1998) y Prinz.

140

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 139-160


Palabra y concepto

En el presente artículo, me sustraeré de los debates entre teorías de conceptos para concentrarme en un problema anterior a estos. El presupuesto que se encuentra a la base del desarrollo argumentativo del artículo es que los conceptos son entidades postuladas con fines explicativos. Los conceptos son atribuidos a los organismos por diversas razones. La forma general del argumento que fundamenta las teorías de conceptos es la afirmación de la necesidad de postularlos ante la ausencia de explicaciones alternativas a los mismos fenómenos. Esta forma general es compartida con el argumento de pobreza del estímulo de Chomsky (Chomsky, 1959; Fodor, 2006 541). Sería imposible explicar ciertos fenómenos sin postular la existencia de entidades intermedias inobservables con ciertas características. De existir, los fenómenos quedarían explicados. Gran parte de la fuerza de este argumento abductivo (fuerza que, en el desarrollo del artículo, se transformará en su punto débil) proviene de la ausencia de explicaciones alternativas. Si no hay otra teoría que se acerque a una explicación satisfactoria del fenómeno aparte de la que postula ciertas entidades inobservables, entonces es razonable creer que la explicación es aproximadamente verdadera, y, por lo tanto, las entidades que postula existen. Este tipo específico de razonamiento abductivo que recurre a la ausencia de explicaciones alternativas para fortalecer la hipótesis de que las entidades postuladas existen fue popularizado por Fodor (1975)7 y se conoce como “the only game in town” (por ejemplo: Gomila 2011 146). La vulnerabilidad de una explicación fundamentada en este argumento es evidente: la aparición de una explicación alternativa al fenómeno le arrebata la ventaja a priori que previamente tenía. Por otra parte, las explicaciones basadas en argumentos de pobreza del estímulo suelen ser teóricamente costosas: al apelar a entidades, procesos o mecanismos que fueron postulados principalmente con fines explicativos (que, por la naturaleza del argumento, al menos inicialmente cuentan con muy poca evidencia independiente a favor de su existencia), estas suelen tener problemas satisfaciendo criterios de evaluación de teorías como parsimonia o la minimización de principios ad-hoc. El punto relevante de la exposición anterior acerca de la naturaleza de las explicaciones fundamentadas en argumentos de pobreza del estímulo es ilustrar el presupuesto anteriormente enunciado: las entidades postuladas por las teorías de conceptos obedecen a este tipo de argumentos. Gran parte de 7 Según el mismo Fodor, “El único modelo psicológico de los procesos cognitivos que parece remotamente plausible representa estos procesos como computacionales”, y “las teorías remotamente plausibles son mejores que la ausencia de teorías”, lo que “nos comprometería provisionalmente a atribuir un sistema representacional a los organismos” (1975 27).

141


Contreras Kallens, Pablo Andrés

la justificación para afirmar su existencia es la ausencia de una alternativa viable para explicar el fenómeno del que pretenden dar cuenta. Por lo tanto, la elaboración de una explicación alternativa es una razón para dudar de la necesidad de su postulación. Los conceptos necesitarían de evidencia a favor de su existencia que se encontrara en dominios independientes de consideraciones metateóricas, esto es, principalmente, evidencia empírica. Si esto último es o no posible es un cuestionamiento que escapa al alcance del presente artículo. Con este presupuesto de la argumentación aclarado, delinearé de manera más completa el objetivo del artículo. Construiré de manera tentativa (y altamente especulativa) explicaciones alternativas a la de la postulación de conceptos para los fenómenos que estos pretenden explicar. En primer lugar, identificaré los explananda de la postulación de conceptos. Me basaré en los desiderata para teorías de conceptos presente en Prinz (3) y, en menor medida, en las condiciones no negociables propuestas por Fodor (1998 23). En segundo lugar, procederé a distinguir entre desiderata teóricos y desiderata explicativos. Los primeros tienen que ver con exigencias impuestas por la TRM o por la coherencia interna de esta teoría; los segundos, con fenómenos específicos que los conceptos pretenden explicar. En tercer lugar, delinearé estrategias de explicación de los fenómenos identificados que prescindan de la apelación a conceptos utilizando, en cambio, formas de externalización de la carga explicativa de esas habilidades. Finalmente, concluiré que argumentar a favor de la existencia de conceptos basado en el poder explicativo de los mismos es un ejercicio vacío una vez consideradas distintas estrategias plausibles para la explicación de esos mismos fenómenos.

2. Desiderata explicativos; desiderata teóricos Tanto Fodor como Prinz consideran parte relevante de su metodología la definición de ciertos criterios básicos que sirven de estándar con el cual evaluar el éxito o fracaso (en el caso de Fodor) o la idoneidad (en el caso de Prinz) de las teorías de conceptos. Fodor los denomina "condiciones no negociables" (1998 23), y Prinz los llama desiderata (3). Mi análisis se basará principalmente en la lista de este último, por lo que adoptaré su terminología. Analizaré estos criterios a partir de las razones para su adopción como desiderata para una teoría de conceptos Las listas de requerimientos planteadas por Fodor y Prinz son una guía útil para considerar el núcleo de las teorías de conceptos. Ambas presentan lo que sería una teoría de conceptos ideal. Una teoría que no cumpla con ellos en algún grado está, en ese mismo grado, dejando de desempeñar el papel que

142

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 139-160


Palabra y concepto

debería. Afirmo que esto se debe a que los desiderata delinean efectivamente las dos funciones de las teorías de conceptos esquematizadas anteriormente: la consistencia con la TRM y la explicación de ciertos fenómenos particulares. Por una parte, la lista cuenta con desiderata teóricos que definen el lugar de las teorías de conceptos en el esquema general de la TRM. Estos desiderata son, entonces, compromisos teóricos a los que una teoría de conceptos debe responder. Por otra parte, hay desiderata explicativos que procuran que la teoría de conceptos pueda efectivamente explicar los fenómenos para los cuales fue diseñada. Las teorías de conceptos no son solo una forma de llenar un vacío teórico en la TRM, deben también dar cuenta de ciertos fenómenos cognitivos específicos (Laurence & Margolis 71). El objetivo de este artículo es construir una explicación alternativa de los fenómenos de los que dan cuenta las teorías de conceptos. Esta explicación no tiene necesidad de formar parte de la TRM; podría considerarse, de hecho, una forma propositiva de escapar de ella8. En consecuencia, concentraré mi análisis de los desiderata exclusivamente en los explicativos. Me basaré en los fenómenos cuya explicación estos pretenden salvaguardar en el desarrollo de lo que resta del artículo. Así, el paso siguiente en la argumentación es distinguir los desiderata teóricos de los explicativos, para de ese modo identificar los fenómenos que estos últimos quieren explicar. Consideraré relativamente evidente por qué los desiderata de alcance (scope), adquisición y composicionalidad (Prinz 3–13) pertenecen al conjunto de desiderata teóricos. El primero y el segundo son exigencias mínimas que presuponen la existencia de conceptos: si hay conceptos, una teoría debe dar cuenta de todos ellos; igualmente, si los organismos tienen conceptos, una teoría debe explicar cómo los adquieren. Por otra parte, el requisito de composicionalidad tiene que ver directamente con la tesis del lenguaje del pensamiento que sustenta gran parte de la investigación en el marco de la TRM. Dentro de este conjunto incluyo también las condiciones no negociables (Fodor 1998 24) que afirman que los conceptos deben ser particulares mentales en su mayoría aprendidos, distinguiéndose entre primitivos y complejos. Estas condiciones son también compromisos con la estructura teórica de la TRM. Un caso más complejo es el desideratum de publicidad, defendido tanto por Prinz (14) como por Fodor (1998 28). En primer lugar, parece haber una intuición básica según la cual los conceptos son tipos que se instancian en 8 Chemero (3-16) expresa este principio: la discusión entre teorías debe intentar sustraerse de los argumentos a priori, y enfocarse en la construcción propositiva de explicaciones a fenómenos que puedan, luego, ser contrastadas con la evidencia.

143


Contreras Kallens, Pablo Andrés

cada sujeto, y, por lo tanto, son compartidos intersubjetivamente. Así, los conceptos de ‘PERRO’ de dos personas diferentes serían en realidad el mismo concepto, instanciado en dos sujetos diferentes. Sin embargo, Fodor y Prinz reconocen que esta intuición está comprometida principalmente con la explicación intencional de sentido común. Dar cuenta de la explicación de sentido común, sin embargo, es un requisito teórico, y no constituye un explanandum de las teorías de conceptos9. Por otro lado, Prinz menciona otro argumento para justificar la inclusión en su lista del desideratum de publicidad: que los conceptos sean compartidos cumple un papel en la posibilidad de la comunicación lingüística. Afirma que “de acuerdo a la imagen estándar, la gente entiende las palabras de cada uno en virtud de que asocian el mismo (o más o menos el mismo) concepto con esas palabras” (Prinz 14). Sin embargo, que los conceptos sean los responsables de la comunicación lingüística es una consecuencia de la TRM: la asociación de palabras con representaciones de contenido público es justamente la explicación que la TRM ofrece acerca de la comprensión lingüística. Por lo tanto, el desideratum de la publicidad como sustrato de la comunicación lingüística se deriva de un compromiso teórico previo con el funcionamiento representacional de la cognición10. Por otro lado, hay tres desiderata que considero pertenecientes al conjunto de desiderata explicativos: el de contenido intencional, el de contenido cognitivo y el de categorización. Las teorías de conceptos deben cumplir con estos criterios porque apuntan a fenómenos específicos de los que las teorías deben dar cuenta directamente. Sin embargo, en el estado presentado por Prinz, el explanandum que busca subsanar cada uno de ellos está expuesto siguiendo una conceptualización debida, al igual que en los desiderata anteriores, a un compromiso con la TRM. Por lo tanto, la metodología que guiará las siguientes secciones puede ser esquematizada de la siguiente manera. Trataré los desiderata explicativos uno a la vez. Identificaré el explanandum de cada uno de ellos, proponiendo una redescripción del fenómeno sin apelar a su conceptualización bajo la TRM. Una vez realizada esta descripción, propondré una posible estrategia para la explicación alternativa de estos fenómenos que prescinda de la postulación de conceptos como particulares mentales con propiedades semánticas. 9 Más bien, al igual que con la TRM, las teorías de conceptos parecen ser una forma de hacerla funcionar. Por ejemplo, "la explicación psicológica es típicamente nómica e intencional y totalmente intencionales. Las leyes que invoca típicamente expresan relaciones causales entre estados mentales especificados bajo una descripción intencional [...]" (Fodor 1998 7). 10 Si bien en el transcurso del presente artículo apelaré reiteradamente al lenguaje público como explicación alternativa, presupongo que la comunicación lingüística puede ser explicada por otros mecanismos que no apelen a una conceptualización del uso de las palabras.

144

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 139-160


Palabra y concepto

3. Primer desideratum: Contenido intencional El desideratum del contenido intencional, en la versión de Prinz, afirma que los conceptos tienen propiedades semánticas, o, en otras palabras, “representan, sustituyen o refieren a cosas diferentes a sí mismos” (3). Estas cosas son objetos o propiedades del mundo, y son el contenido de los conceptos. Así expresado, el desideratum parece ser un compromiso directo con la TRM: esta teoría requiere que las unidades que maneja sean particulares con propiedades sintácticas y semánticas. Los conceptos explicarían las segundas. Sin embargo, propongo que el desideratum tiene también un sustrato explicativo. El fenómeno que pretende aislar es el de la “direccionalidad hacia los objetos [que es] un rasgo de las cosas vivientes” (Turvey et al., 241. Énfasis en el original). Esto implica, a grandes rasgos, que la vida cognitiva de los organismos tiene relación con el mundo, y sus acciones se encuentran sincronizadas con este. La estrategia conceptualista para explicar este fenómeno propone postular entidades con propiedades semánticas, que son manipuladas luego por procesos y mecanismos cognitivos. Esto no quiere decir que el explanandum sea la existencia de esas entidades: las teorías de conceptos presuponen dicha existencia como parte de la explicación adecuada. Sin embargo, el fenómeno base es justamente el que intentaba explicar ese presupuesto. Así, al desideratum del contenido intencional subyace la identificación del fenómeno de coordinación entre el organismo y su entorno. Propongo entender el contenido intencional, así descrito, como dos fenómenos diferentes aunque relacionados: la intencionalidad de la conducta y la intencionalidad del lenguaje. Es decir, los organismos demuestran una direccionalidad de su vida cognitiva hacia el mundo mediante la coordinación de sus acciones con el ambiente, y su habilidad de hablar acerca de él. Trataré los explananda en ese orden. En primer lugar, la intencionalidad de la conducta puede dividirse metodológicamente en dos fenómenos distintos, siguiendo la diferencia de explicación que puede construirse de ambas según el marco de adscripción de conceptos. Así, puede distinguirse entre la conducta de bajo nivel y la conducta de alto nivel. La conducta de bajo nivel es la coordinación sensoriomotora basada en la percepción: la cognición online. La conducta de alto nivel, por otra parte, es descrita por Clark como aquella que resuelve problemas supuestamente “hambrientos de representación” (1997 143-175): analogías, contrafácticos o categorización, entre otros. La distinción entre ambos tipos de conducta está relacionada con la necesidad y viabilidad de su explicación mediante manipulación de signos con propie-

145


Contreras Kallens, Pablo Andrés

dades semánticas. Explicar la habilidad de coordinación sensoriomotora haciendo uso de conceptos implica una explosión computacional inmanejable. Considérese el simple acto de dar exitosamente un paso en una dirección determinada. Una explicación que haga referencia al uso de conceptos debería postular, por ejemplo, que el organismo instanció el concepto de ‘PASO’, el de ‘DISTANCIA’ (y postular con esto, en una caricatura, que ‘DISTANCIA VERTICAL’ y ‘DISTANCIA HORIZONTAL’ son dos conceptos complejos, formados por los conceptos básicos ‘DISTANCIA’, ‘VERTICAL’ y ‘HORIZONTAL’) y el de ‘VELOCIDAD’ que definirá la fuerza que se le dará al movimiento, entre otros. Ahora considérese que el paso se da intentando evitar una piedra, pasando por encima de ella. En este caso, además debería hacerse uso de los conceptos de ‘PIEDRA’ y ‘TAMAÑO’ para inferir la distancia vertical del paso, y ‘PROFUNDIDAD’ para definir la horizontal. Este ejemplo, aun exento de las precisiones que podría hacer alguna teoría acerca de los conceptos, muestra que su postulación para explicar habilidades de coordinación sensoriomotora a este nivel es intratable. La intencionalidad de la conducta de bajo nivel, entonces, es difícilmente explicable a partir conceptos, y, consecuentemente, no representa un problema para el objetivo de este artículo11. El ámbito en el cual la explicación de la intencionalidad de la conducta mediante adscripción conceptual con fines explicativos se encuentra mejor representada es en la conducta de alto nivel. Se argumenta frecuentemente, frente a propuestas anti-representacionalistas, que la conducta de este nivel es imposible de explicar sin apelar a representaciones con propiedades semánticas (Clark & Toribio 428; Edelman 3). Los fenómenos a los que estos autores hacen referencia son, entre otros, el razonamiento contrafáctico, analógico, la imaginación y el seguimiento de situaciones ausentes (Clark & Toribio, 419). Si acaso es posible explicar estos fenómenos sin usar representaciones en general escapa del alcance de este artículo12 . El enfoque, en cambio, debe situarse sobre la cuestión de por qué es necesario postular representaciones mentales con las características de conceptos para explicar estas conductas. Postular el uso de conceptos en estos casos es una forma de explicar su intencionalidad. Esta sería derivada del presupuesto de que conductas de alto nivel como razonamiento analógico o contrafáctico se apoyan en un acto previo de categorización13. Los organismos harían continuamente categorizaciones, subsu11 Milner & Goodale (515) proponen que el aparato visual está conectado de dos maneras al cerebro: una de ellas sirve para guiar la conducta en un loop sensoriomotor, la otra para procesamiento lento de alto nivel. 12 Aunque Chemero (127) ofrece razones para pensar que tal explicación sí es posible. 13 Por ejemplo, Prinz afirma que tenemos habilidades que requieren la “mediación de estados mentales

146

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 139-160


Palabra y concepto

miendo objetos bajo conceptos como su contenido. Esto, luego, fundamentaría la intencionalidad de conductas que actúan sobre estos conceptos. La intencionalidad básica de la conducta de alto nivel dependería, entonces, del acto previo de categorización. Si la categorización no puede ser explicada sin apelar a conceptos, entonces la intencionalidad de la conducta cognitiva de alto nivel es en principio inexplicable también sin ellos. El tercer desideratum que trataré es el de categorización, por lo que, de ser plausible la reducción anterior de la intencionalidad de las conductas de alto nivel, la explicación de estas sin apelar a conceptos depende del desarrollo que se lleve a cabo en la última sección. Paso, por último, a la intencionalidad del lenguaje público. Que seamos capaces de hablar acerca de nuestro entorno podría explicarse remitiendo a las propiedades semánticas de los conceptos que relacionamos psicológicamente a esas palabras. Sin embargo, esta estrategia de solución al problema del significado del lenguaje no hace más que “barrerlo desde debajo de la alfombra del vestíbulo y dejarlo debajo de la alfombra de la sala de estar” (Fodor 1998 26). Ante la pregunta “¿cómo refiere el lenguaje al mundo?”, la explicación mediante la postulación de conceptos psicológicos respondería que lo hace mediante la asociación de palabras a conceptos determinados, con propiedades semánticas (por ejemplo, Prinz 14). Así, las teorías de conceptos se concentrarían, posteriormente, en la pregunta “¿cómo refieren los conceptos al mundo?” para dar respuestas al problema14. Sin embargo, internalizar las propiedades semánticas del lenguaje, considerándolas derivadas de las de los conceptos, no es la única explicación posible del fenómeno. La significación del lenguaje público puede deberse, como propuso Wittgenstein (1988) y más recientemente Travis (1997, 2008) y Recanati (2007), a las reglas que guían el uso que le damos a los términos en un contexto de interacción y comunicación social. Al apegarnos a las reglas de uso, seríamos capaces de dirigir nuestras prácticas lingüísticas al mundo. Aunque la exposición de esta propuesta de solución al problema es muy preliminar, resalta un punto principal de la discusión: no es necesario internalizar la intencionalidad del lenguaje. Transformar el problema del significado en un intencionales” y parecen “demandar representaciones que reemplacen [stand in] objetos extramentales” (4). Pero la aplicación en tareas de conceptos está mediada por la “contraparte epistémica” (9) de la intencionalidad: la categorización es la “formación de creencias acerca de qué cosas caen bajo nuestros conceptos” (9) y, por lo tanto, cualquier sujeto que haga uso exitoso de conceptos en una tarea hambrienta de representaciones debe antes haber subsumido correctamente esa situación, objeto o evento bajo su respectivo concepto. 14 Evidencia (circunstancial) a favor de mi posición es el enfoque constante de las teorías de conceptos en explicar los conceptos léxicos: es decir, los conceptos que pueden ser "expresados mediante una sola palabra (por ejemplo, PÁJARO, AUTO, JUSTICIA)" (Prinz 22).

147


Contreras Kallens, Pablo Andrés

problema acerca de la semántica de los conceptos es solo una de las estrategias posibles al problema. Más aún, no es ella misma una explicación del fenómeno. El cambio de nivel del problema del significado desde el significado del lenguaje al significado de los conceptos requiere todavía la construcción de una teoría convincente del significado. Presuponiendo que la TRM no es la única explicación de la adquisición lingüística, la externalización (esto es, en oposición a la internalización a la que apela la estrategia conceptual) de la intencionalidad del lenguaje se mantiene como una explicación al menos en principio viable al explanandum de la postulación de conceptos. Esta conclusión débil —que es en principio posible ofrecer una explicación alternativa a los mismos fenómenos— es lo máximo a lo que puede aspirar una especulación como la presente. Sin embargo, como afirmé en la introducción, esto es suficiente para dudar de la necesidad de postular conceptos. A su vez, esta duda hace que la estructura argumentativa que fundamenta su explicación se tambalee, debilitando su eficacia como mecanismo explicativo. El análisis de los dos desiderata siguientes se mantendrá en esta misma línea, llegando a conclusiones similares.

4. Segundo desideratum: Contenido cognitivo El desideratum del contenido cognitivo es presentado por Prinz (6) como una manera de salvar la intuición de que el contenido intencional de un concepto no es suficiente para individuarlo. Su referencia no agota su contenido total. Hay un elemento adicional, paralelo al sentido fregeano, que tiene que ver con la forma en la cual los organismos entienden los conceptos. El ejemplo clásico a favor del requerimiento del equivalente al contenido cognitivo es que una proposición de identidad (por ejemplo, "Bruno Díaz es Batman") puede ser informativa y no vacía. El explanandum detrás de este criterio depende del anterior análisis del contenido intencional. Parece radicar en que la direccionalidad puede tomar distintas formas ante el mismo objeto. La capacidad de relacionarse de distinta manera ante el mismo objeto o propiedad revela que tenemos variados modos de captar distintos objetos. Al describir los explananda del primer desideratum, hice referencia a dos ámbitos en los cuales se evidencia el contenido de los conceptos: la conducta y el lenguaje. El contenido cognitivo de los conceptos revelaría dos fenómenos diferentes: nos comportamos de distinta manera ante el mismo objeto o propiedad del mundo, y tenemos diferentes términos para referirnos al mismo objeto o propiedad del mundo. Esto revelaría que el modo en que los captamos representa una dimensión relevante en la explicación. Una de las formas de

148

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 139-160


Palabra y concepto

explicar esto es apelando a que representamos de distinta manera el mismo contenido. Este es el sentido original del desideratum, en línea con la estrategia de postulación de conceptos y la TRM. Las diferencias en el modo de representación darían cuenta de las anteriores diferencias. Sin embargo, al igual que en el análisis anterior, afirmar que se debe explicar nuestra capacidad de representar de distintas maneras un concepto del mismo objeto presupone la explicación mediante conceptos. Por lo tanto, me enfocaré nuevamente en esquematizar el fenómeno que inspira la definición de este criterio, más allá de la forma que toma una vez adquirido el compromiso con la TRM. En primer lugar, el contenido cognitivo de la conducta, al igual que el intencional, podría mostrarse solamente en la conducta de alto nivel, que sí requeriría de una explicación mediante conceptos, a diferencia de la de bajo nivel. Argumenté anteriormente que la conducta de alto nivel involucra conceptos mediante actos de categorización. Así, la respuesta a este problema es también postergada al análisis del desideratum de la categorización. Centraré lo que queda del análisis, entonces, en el contenido cognitivo en el lenguaje. El explanandum del contenido cognitivo en el lenguaje exhibe dos dimensiones. En primer lugar, existen relaciones de aparente sinonimia o equivalencia de significado entre términos. En segundo lugar, existen relaciones inferenciales entre términos que se basan en hechos independientes de su significado. Ambos fenómenos son explicados por la teoría de conceptos remitiendo a relaciones entre los conceptos, que se refleja luego en relaciones entre las palabras a las que esos conceptos heredan luego su contenido. Existirían redes inferenciales15 de relaciones entre conceptos. Algunas de estas relaciones serían muy cercanas, como la relación entre el concepto de ‘PERRO’ y el de ‘ANIMAL’, y otras estarían sujetas a la posesión de determinado conocimiento, como la relación entre el concepto de ‘AGUA’ y el de ‘H2O’. Las redes inferenciales se reflejarían en el uso del lenguaje, y explicarían las intuiciones de analiticidad al afirmar “un perro es un animal”. También explicarían que la proposición “agua es H2O” le sea informativa a alguien sin conocimiento alguno de química. La explicación que la estrategia de apelación a conceptos ofrece del contenido cognitivo en el comportamiento lingüístico es una internalización de la carga que debería soportar una teoría del lenguaje16. Al igual que en el caso del contenido intencional, postular conceptos en este caso solo respondería a exigencias 15 Enfatizadas por la teoría que Fodor (1998 35) denomina semántica del rol inferencial. 16 Esto se hace especialmente notorio en el énfasis que hace Prinz (2002) en que el contenido cognitivo se deriva de argumentos ofrecidos por “Frege a favor de los límites de la referencia al desarrollar un artículo del significado lingüístico”, pero que “pueden construirse ejemplos paralelos sin mencionar el lenguaje” (6, énfasis propio).

149


Contreras Kallens, Pablo Andrés

teóricas de la TRM. Una explicación alternativa al fenómeno puede residir en el mismo principio anteriormente aplicado al lenguaje público. Las prácticas lingüísticas relacionan términos de distintas maneras. Algunos términos están muy cercanos en la red inferencial construida socio-culturalmente, como ‘perro’ y ‘animal’. Esta relación da lugar, igualmente, a las intuiciones de analiticidad. La relación entre otros términos está constituida por su rol en teorías, dependiendo del conocimiento particular de los hablantes. Ejemplo de esta relación sería la existente entre ‘agua’ y ‘H2O’. Apelar a una relación entre conceptos idéntica y anterior a la relación entre términos es, de no ser por el compromiso con la TRM, completamente vacío. Las redes inferenciales del lenguaje pueden explicarse apelando a reglas de uso de los términos en las prácticas lingüísticas, o simplemente a contingencias socioculturales en la formación de las prácticas lingüísticas que son inculcadas posteriormente durante el aprendizaje del lenguaje y la vida del sujeto. El que una proposición de identidad pueda ser informativa radicaría en la formación de una relación novedosa entre términos, provocada, entre otros factores posibles, por un descubrimiento científico. Apelar a prácticas lingüísticas, reglas de uso e historial sociocultural tiene también un costo, y su alcance explicativo debe ser sujeto a mayor escrutinio. La explicación esbozada al explanandum del desideratum del contenido cognitivo es especialmente tentativa, y depende de la adopción de ciertos principios explicativos de la formación, funcionamiento y adquisición del lenguaje. Sin embargo, el principio anterior sigue en pie: basta con que la alternativa presente una explicación en principio viable de los mismos fenómenos para que gran parte del fundamento de la hegemonía explicativa de la postulación de conceptos se vea en problemas. Antes de pasar al último desideratum, quiero enfatizar uno de los rasgos del análisis hasta aquí realizado. La apelación a conceptos para explicar fenómenos en el nivel lingüístico, mediante el contenido intencional y el cognitivo, internaliza problemas que previamente concernían al lenguaje. La semántica del lenguaje pasa a explicarse por la semántica de los conceptos, y la relación entre términos por la relación entre conceptos. Esta estrategia de internalización es fruto un compromiso con la TRM: el papel que desempeñan las teorías de conceptos dentro de este marco investigativo sugiere que son los responsables de los fenómenos identificados. Sin embargo, la estrategia es solo un traspaso del problema a otro ámbito. Dejados de lado los compromisos con la TRM, e identificados de otra manera los explananda de los conceptos, es posible construir explicaciones que se remitan al nivel original, haciendo prescindible (o al menos dudosa su postulación) el segundo nivel de explicación. Así, ante la pregunta

150

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 139-160


Palabra y concepto

acerca de la necesidad de postular conceptos para dar cuenta de los fenómenos relacionados con el contenido, tanto intencional como cognitivo, la respuesta parece ser negativa una vez abandonado el compromiso con la TRM.

5. Tercer desideratum: Categorización El desideratum de categorización (Prinz 9) intenta salvaguardar el papel que desempeñan los conceptos en la explicación de ciertas habilidades de reconocimiento y discriminación de objetos que exhiben los organismos. Desde la estrategia conceptualista, la categorización es la subsunción de un objeto bajo un concepto. Así, identificar a un perro sería juzgar que cierto objeto cae bajo el concepto ‘PERRO’. Una categorización exitosa es la que subsume al objeto bajo el concepto indicado, mientras que una fallida se produce cuando el organismo lo subsume bajo un concepto equivocado. Identificar que un perro cae bajo el concepto ‘PERRO’ es una categorización exitosa; juzgar que cae bajo el de ‘GATO’ es una categorización fallida. Así descrita, la actividad de categorización está teóricamente determinada. Es evidentemente imposible construir una explicación de la habilidad de identificar bajo un concepto a un objeto sin apelar a la existencia de conceptos. Así, el primer paso del análisis es describir de otra manera las actividades que el desideratum de categorización pretende explicar. Basado en los experimentos con niños preverbales descritos por Carey (67), con primates no humanos (Vauclair 2002) y con humanos adultos con habilidades lingüísticas (Gomila 2012), propongo conceptualizar las habilidades básicas demostradas en los ejercicios de categorización como discriminación entre objetos y propiedades. La discriminación incluye habilidades como diferenciación (esto es, juzgar si dos o más objetos son diferentes o similares) e identificación de objetos. Estas capacidades se dan de manera básica en los niños preverbales y primates no humanos, y luego con mayor complejidad en adultos. Así, una explicación alternativa del fenómeno debe hacerse cargo de las habilidades básicas y de su progresión. La estrategia de postulación de conceptos explica lo primero mediante la codificación (de algún tipo) de rasgos en el concepto perteneciente a cada categoría, y lo segundo con el enriquecimiento conceptual de cada individuo. En lo que sigue, intentaré dar cuenta de estos explananda sin apelar al uso de conceptos. Por razones puramente metodológicas, en el análisis distinguiré entre dos tipos de tareas de categorización: categorización como diferenciación y categorización como identificación. La categorización como diferenciación hace referencia a la habilidad exhibida por los organismos de distinguir entre dos objetos diferentes, o de juzgar que

151


Contreras Kallens, Pablo Andrés

son similares. La explicación mediante conceptos es simple: si son diferentes, el sujeto los puede distinguir porque los subsume bajo diferentes conceptos. Si son similares, puede reconocerlo porque los identifica bajo el mismo concepto. No obstante, hay organismos con la habilidad de diferenciar entre objetos o propiedades, pero que se resisten a la adscripción de conceptos. Este es el caso de la denominada cognición de plantas (Calvo & Keijzer 2009). Chamovitz (2012) describe el comportamiento de plantas que exhiben fototropismo que parece entrar en la descripción de categorización como diferenciación. Uno de sus ejemplos (14) recurre a la relación entre exposición a la luz y crecimiento en los crisantemos. Los crisantemos florecen durante el otoño, al acortarse los días y alargarse las noches. Si durante la noche se ilumina a las plantas por algunos minutos, simulando las noches cortas del verano, el florecimiento se retrasa hasta detener la rutina. Las plantas son capaces de percibir patrones de luz y oscuridad correlacionados con las estaciones del año idóneas para florecer. Durante la investigación de este fenómeno, otra habilidad de las plantas fue descubierta: el retraso ocurre solo si se les ilumina con luz roja. Así, la planta exhibe una forma básica de diferenciación entre objetos: coordina su comportamiento de manera diferente según el color de la luz que capte. La atribución de conceptos a una planta es tremendamente problemática. Es difícil pensar que las plantas tienen mecanismos de representación del mundo que hacen uso de particulares mentales con propiedades semánticas. Es más plausible, en cambio, la tesis de que la planta exhibe habilidades de discriminación perceptualmente basadas, y coordina sus acciones con el ambiente gracias a estas. El ejemplo de los crisantemos sirve como antecedente para afirmar que la explicación de la diferenciación básica entre dos objetos no requiere postular conceptos, sino solo mecanismos de detección de información y coordinación sensoriomotora. Presupongo con esto que la habilidad exhibida por la planta es la versión básica de las habilidades de diferenciación de los organismos más avanzados. La complejización de los sistemas de percepción y coordinación sensoriomotora, combinada con la posibilidad de realizar actividad exploratoria que clarifique la percepción y mecanismos de memoria podrían explicar el progreso gradual desde las habilidades de diferenciación básicas en plantas y las presentadas por los primates no humanos y los niños preverbales. (Por ejemplo, Gibson & Pick (26) presentan las bases para una teoría del desarrollo de habilidades perceptuales en los niños). Queda por explicar, sin embargo, la enorme diferencia existente entre las capacidades de diferenciación de adultos humanos y el resto de los organismos. Los adultos humanos son capaces de diferenciar, por ejemplo, entre distintos objetos, categorizándolos, sin embargo, en una escala de tipicalidad según su

152

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 139-160


Palabra y concepto

idoneidad como representante de la categoría. Esta habilidad habla de mecanismos de diferenciación de una complejidad que supera con creces lo que exhiben el resto de los organismos. Gomila (2012) afirma que esta diferencia se debe a su habilidad más característica: el manejo del lenguaje público. Gomila presenta evidencia a favor de que el lenguaje ayuda a fijar límites categoriales. Diferencias o similitudes que no son fácilmente explicables exclusivamente con habilidades perceptuales pueden ser marcadas por la presencia de términos del lenguaje público que refieran a ellas. Así, “aprendiendo un lenguaje, se aprenden los rasgos perceptuales relevantes que permiten la comunicación exitosa y la identificación precisa” (Gomila 36). Uno de los experimentos que apoyan esta postura es el realizado en un estudio comparativo entre hablantes de tarahumara e inglés (Gomila 40). En el idioma tarahumara, solo un término refiere al espectro cromático que comprende el azul y el verde. Por otra parte, el inglés tiene términos para ambos. En el ejercicio del experimento, a cada individuo se le muestran tres ejemplos de colores que se encuentran en el espectro del verde y el azul. Se les pide que digan cuál es el más diferente del conjunto. En la tarea, el rendimiento de los hablantes de inglés es considerablemente superior al de los hablantes de tarahumara. En un ejercicio posterior diseñado para bloquear el uso de etiquetas lingüísticas por parte de los sujetos, la diferencia de rendimiento desapareció. Sobre la base de este resultado, se plantea la hipótesis de que la distinción entre verde y azul presente en el idioma inglés permite que sus hablantes diferencien entre dos colores cuya identificación puramente perceptual es compleja. Es más: siguiendo las ideas propuestas por Prinz (165) como solución al problema de la base perceptual de conceptos abstractos, es razonable pensar que una explicación del rendimiento superior de los hablantes de inglés sea que, a diferencia de los hablantes de tarahumara, ellos podían rastrear los términos que usan para referirse a los colores. Mientras que los hablantes de tarahumara tendrían que rastrear las diferencias y similitudes estrictamente perceptuales en los ejemplares, los hablantes de inglés, al verlos, podían hacer uso de sus habilidades lingüísticas y etiquetarlos. Una vez realizado este proceso, basta con apoyarse en las etiquetas para categorizarlos. La explicación de la diferencia de rendimiento, entonces, podría residir en que los hablantes de inglés razonaron del siguiente modo: “aquel ejemplar es 'verde' y estos dos son 'azules'. Estos dos son más similares entre ellos que con aquél, en primer lugar, porque a ambos se les llama 'azul'”. Esta similitud, luego, podría haber apoyado la discriminación perceptualmente basada, resaltando los rasgos que los diferencian. El lenguaje “introduce mayor precisión en los bordes” (Gomila 43) de las diferencias perceptuales difusas.

153


Contreras Kallens, Pablo Andrés

Así, en resumen, el explanandum de la categorización por diferenciación podría esquematizarse a partir de la habilidad de diferenciar entre distintos objetos y propiedades. En un nivel básico, las plantas demuestran la capacidad de distinguir entre distintos colores de luz. Dar cuenta de esta habilidad mediante adscripción conceptual corre el riesgo de sobreintelectualizar la explicación. Consecuentemente, es plausible atribuirla a habilidades de diferenciación perceptual, y contingencias relacionadas con la conducta. Estas mismas habilidades se complejizan junto con los organismos: sistemas perceptuales más avanzados, la flexibilidad de un sistema nervioso, la capacidad motriz de llevar a cabo actividades exploratorias que hagan menos ambiguo el estímulo y la capacidad de memoria podrían ser, entre otros, los factores que expliquen el progreso. El enorme contraste con las habilidades de categorización de los adultos humanos se podría explicar apelando al uso del lenguaje público: este amplifica las habilidades más básicas ya presentes en los organismos. El lenguaje público, por su parte, no necesita de la postulación de conceptos para ser explicado, tal como se argumentó en las secciones anteriores del presente artículo. De esta manera, es posible construir una explicación cruda de la categorización como discriminación sin apelar a conceptos. Es posible dar el mismo tratamiento a la categorización como identificación. Esta es una forma de describir las tareas que la postulación de conceptos explica como el juicio de que un objeto cae bajo un concepto determinado. Que una persona determine que aquello que lo está mordiendo cae bajo el concepto ‘PERRO’ es una categorización como identificación. Esta habilidad se puede describir de al menos dos maneras. En primer lugar, como la coordinación selectiva de la conducta con un determinado objeto o propiedad detectada. Así, se podría considerar que un simio que detecta la presencia de un banano y lo busca para comérselo realizó un acto de categorización: vio un objeto con determinadas características y lo identificó bajo el concepto de ‘BANANO’. Sin embargo, la misma estrategia argumentativa anteriormente utilizada es válida para este tipo de categorización. El fenómeno conocido como quimiotaxis es la coordinación de organismos menores, como bacterias, con la presencia de químicos específicos. Por ejemplo, la escherichia coli es capaz de rastrear la presencia de concentraciones de metil-aspartato en el ambiente, y moverse hacia ellas para consumirlas. Al igual que con los crisantemos, adscribirle el concepto ‘METIL-ASPARTATO’, o similares, a la bacteria es tremendamente problemático. De esta manera, es posible explicar en un nivel básico la conducta asociada a la categorización como identificación sin hacer uso de conceptos. Nuevamente, la complejización de los sistemas perceptuales, memoria, etc. de los organismos podría dar cuenta de la progresión de la habilidad básica.

154

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 139-160


Palabra y concepto

La segunda forma en la que puede demostrarse la categorización como identificación es mediante tareas lingüísticas. Esta conducta es, evidentemente, exclusiva de los humanos con manejo del lenguaje público. Así, al ver un perro, el sujeto diría “perro”. La explicación con conceptos plantea la hipótesis según la cual el sujeto identificó al perro bajo el concepto ‘PERRO’, y luego usó el término lingüístico relacionado con su concepto. La explicación alternativa al paso final —lo que la explicación por conceptos determina que es la relación entre un término lingüístico y un concepto— fue abordada en las secciones anteriores. El desafío restante para una explicación que no haga uso de conceptos es la identificación de propiedades abstractas, que se hace problemática al intentar acudir tan solo a mecanismos perceptuales de detección. La estrategia para superar este problema es también la amplificación de las habilidades perceptuales al adquirir un lenguaje a favor de las cuales Gomila (112) presenta evidencia. La presencia en el lenguaje público de términos que refieren a objetos y propiedades cuya identificación perceptual preverbal es problemática facilita su detección. De esta manera, “la experiencia lingüística puede tornarse más notoria que algunos rasgos ambientales, influyendo así en la categorización temprana […] tal etiquetado también facilita el control” (Gomila 112). La identificación de propiedades relacionales es un ejemplo de ello. En un experimento descrito por Gomila (78) se hacen tres grupos de niños de edades de tres, cuatro y cinco años, respectivamente. Se le pide a cada uno de los grupos que realice una tarea en la cual deben ser capaces de identificar la relación “más grande que” y ordenar una serie de barriles de diferentes tamaños. En un primer intento, el rendimiento de los niños de cinco años fue considerablemente mayor al de los niños de tres años. Sin embargo, los experimentadores introdujeron, en un segundo intento, etiquetas lingüísticas que nombraban cada uno de los barriles (por ejemplo, los barriles “papá”, “mamá”, “bebé”). En este escenario, el rendimiento de los niños de tres años fue idéntico al de los niños de cinco, presumiblemente porque la presencia de etiquetas lingüísticas que los niños mayores ya manejaban posibilitaron la detección de los rasgos de la relación. Así, “la práctica lingüística es una guía para los niños acerca de cuáles son las relaciones relevantes. Señala a qué relaciones se le debe poner atención […] esto también hace que las relaciones relevantes sean cognitivamente prominentes” (Gomila 78). El contraste entre las habilidades de identificación de los humanos con manejo del lenguaje público y el resto de los organismos podría al menos en principio residir justamente en que el lenguaje proporciona herramientas que amplifican las habilidades perceptuales básicas.

155


Contreras Kallens, Pablo Andrés

En resumen, la categorización, una vez que se quita la carga teórica derivada del marco de atribución conceptual, podría tentativamente reducirse a habilidades perceptuales ayudadas por la memoria, la exploración y, sobre todo, el lenguaje público. Este último daría cuenta de la capacidad de diferenciación e identificación de objetos y propiedades cuyos rasgos perceptuales físicos la dificultan. El lenguaje público sería constitutivo de las conductas de discriminación que conforman el explanandum del desideratum de categorización. La carga explicativa que soporta la postulación de conceptos en la explicación es reemplazada por una carga al funcionamiento de sistemas perceptuales y el manejo del lenguaje público. Este último a su vez podría ser explicado sin apelar a conceptos. Por su parte, esto abriría una línea tentativa de explicación de la conducta de alto nivel: el lenguaje público podría considerarse como un constituyente de la cognición, que complejiza las capacidades de resolución de problemas de los organismos sin presuponer su replicación interna en cada individuo. Las habilidades perceptuales encontradas en organismos más básicos son complejizadas hasta la explosión cognitiva provocada por la adquisición de habilidades lingüísticas17. La combinación de estos elementos sería constitutiva de la cognición en esta propuesta. En este cuadro, entonces, se puede prescindir de la postulación de conceptos.

6. Conclusión: teoría y metateoría de conceptos En el desarrollo del presente artículo intenté delinear estrategias alternativas de explicación a las que ofrece el marco de investigación relacionado con la TRM que postula la existencia de conceptos. Parte importante de la metodología fue la identificación de los fenómenos que la postulación de conceptos busca explicar. El análisis de los desiderata para las teorías de conceptos planteados por Fodor y Prinz reveló dos cosas. En primer lugar, los explananda de las teorías de conceptos están relativamente escondidos por el lenguaje propio del marco teórico que asumen, que presupone la existencia de conceptos. El ejercicio crítico del artículo se resume, en cambio, en un intento por poner en duda la justificación de su postulación. El mayor argumento a favor de esta es su supuesta exclusividad como explicación a ciertos fenómenos. No obstante, una vez descubiertos estos fenómenos, no resulta difícil encontrar principios explicativos que, si bien son reconocidamente especulativos y tentativos, podrían servir como un marco de investigación alternativo. La presencia de

17 Una hipótesis de este tipo puede encontrarse, por ejemplo, en Menary (2007).

156

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 139-160


Palabra y concepto

una explicación alternativa obliga a justificar la postulación de conceptos sobre fundamentos más sólidos que un argumento what-else (Fodor 1998 133). En segundo lugar, el análisis de los desiderata revela que gran parte de la necesidad de postular la existencia de conceptos se deriva de compromisos teóricos con la TRM. De hecho, de ser plausibles las explicaciones ensayadas en el artículo, los compromisos con la TRM serían el único fundamento para afirmar que son necesarios para la explicación. Sostener la TRM implica un compromiso con la existencia de conceptos, al cumplir estos un papel fundamental en la articulación de la teoría. A su vez, la TRM exige que los conceptos tengan ciertas características para desempeñar esta función de manera satisfactoria. De no encontrarse mayor evidencia independiente a favor de la existencia de conceptos, su ventaja explicativa radicaría en que forman parte de un marco unificado de explicación de la cognición. (Esto presuponiendo que las explicaciones alternativas no forman parte de un marco unificado de explicación). Así, en el caso hipotético de que ni las alternativas ni las teorías de conceptos encontraran evidencia empírica adicional que modifique el escenario, la decisión está entre explicaciones más parsimoniosas pero dispersas y un marco unitario funcional pero innecesariamente complejo. La elección es, en el mejor de los casos, compleja. Parte importante de la estrategia del marco de explicación por conceptos para dar cuenta de sus explananda es la internalización de la carga explicativa. El problema del significado del lenguaje es transformado en el problema acerca del contenido de los estados mentales que corresponden a los términos del lenguaje público. Las redes de relaciones entre términos se explican mediante la postulación de redes inferenciales entre conceptos, que se corresponderían, por medio de una relación semántica, con las primeras. La habilidad de diferenciar distintas propiedades y objetos del mundo es referida a la habilidad de discriminar entre representaciones internas de las categorías a las que estos pertenecen. Por el contrario, la metodología que guía este artículo sigue un principio de externalización de la carga explicativa. La intencionalidad que explica la postulación del contenido intencional podría explicarse con habilidades sensoriomotoras y lingüísticas. Las relaciones inferenciales entre conceptos se manifiestan principalmente en las prácticas lingüísticas de los organismos; así, parece razonable pensar que podrían ser un fenómeno del lenguaje, más que un fenómeno mental. Lo mismo sucede con las tareas de categorización. Se intenta, dentro de lo posible, plantear y solucionar los problemas manteniéndolos fuera de la cabeza. El desarrollo de esta estrategia revela un último aspecto relevante desde el punto de vista metateórico. La construcción de explicaciones de la cogni-

157


Contreras Kallens, Pablo Andrés

ción alternativas con respecto al marco de la TRM implican la necesidad de un ejercicio de redefinición de conceptos básicos y redescripción de los explananda. A través del prisma de esta oposición entre los acercamientos que recurren a la postulación de conceptos y los que prescinden de ellos queda abierto el problema acerca de la naturaleza del enfrentamiento entre ambas explicaciones, considerando que "la violación o distorsión del lenguaje científico que no parecía problemático previamente es la marca de un cambio revolucionario" (Kuhn 2000 32). La oposición última entre las estrategias conceptualistas y las que prescinden de conceptos parece transitar por dimensiones más profundas que el mero desacuerdo en la idoneidad de las explicaciones que hacen uso de conceptos. Así, en resumen, la presente argumentación deja por lo menos dos campos posibles de profundización. El primero de ellos es el desarrollo teórico de las explicaciones que no requerirían la postulación de conceptos. El segundo es el carácter y profundidad de la oposición entre ambos acercamientos al tema de la cognición. Durante este artículo, sin embargo, aunque de manera tentativa, se presenta un intento de dar el paso inicial: revertir la transformación de los conceptos en fetiches, y devolverlos al ámbito de las entidades postuladas con fines teóricos y explicativos.

Trabajos citados Calvo, P. & Keijzer, F. “Cognition in plants”. En Baluška, F. (ed.). Plant-Environment Interactions. Berlín: Springer, 2009. Carey, S. The origin of concepts. Oxford: Oxford University Press, 2009. Chemero, A. Radical embodied cognitive science. Cambridge, MA.: The MIT Press, 2009. Chomsky, N. "A review of BF Skinner's Verbal Behavior". Language 35. 1 (1959): 26–58. Clark, A. & Toribio, J. “Doing without representing?” Synthese 101 (1994): 401-431. Clark, A. Being there: Putting brain, body and world together again. Cambridge, MA.: The MIT Press, 1997. Cowley, S.J. “Languaging: How humans and bonobos lock on to human modes of life.” International Journal of Computational Cognition 3. 1 (2005): 44-55.

158

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 139-160


Palabra y concepto

Edelman, S. “But will it scale up? Not without representations. A commentary on The dynamics of active categorical perception in an evolved model agent by R. Beer”. Adaptive Behavior 11. (2003): 237-275. Fodor, J. The Language of Thought. Nueva York: Thomas Y. Crowell Company, 1975. ―. Concepts: where cognitive science went wrong. Oxford: Clarendon Press, 1998. ―. "Précis of The Modularity of Mind”, en Bermúdez, J. (ed.) Philosophy of Psychology: Contemporary Readings. Washington: Taylor & Francis, 2006. Gomila, A. “The Language of Thought: Still a game in town?” Teorema XXX. 1 (2011): 145-155. ―. Verbal Minds. Londres: Elsevier, 2012. Kuhn, T. "What are scientific revolutions?". En Conant, Haugeland (eds.), The Road Since Structure. Chicago: The University of Chicago Press, 2000. Laurence, S. & Margolis, E. “Concepts and Cognitive Science.” En Margolis, Laurence (eds.). Concepts: core readings. Cambridge, MA.: MIT Press, 1999. Machery, E. Doing without concepts. Nueva York: Oxford University Press, 2009. McDowell, J. Mind and World. Cambridge, MA.: Harvard University Press, 1996. Menary, R. Cognitive Integration. Palgrave Macmillan, 2007. Milner, D. & Goodale, M. “The visual brain in action”. En Noë, Thompson (eds). Vision and Mind. Cambridge, MA: The MIT Press, 2002. Prinz, J. Furnishing the mind: Concepts and their perceptual basis. Cambridge, MA.: The MIT Press, 2002. Recanati, F. Perspectival Thought. Nueva York: Oxford University Press, 2007. Russell, B. Por qué no soy cristiano. Barcelona: Hispano Americana, 1979. Travis, C. "Pragmatics". En Hale, Wright (eds). A Companion to the Philosophy of Language. Oxford: Basil Blackwell, 1997. ―. Occasion-Sensitivity: Selected Essays. Nueva York: Oxford University Press, 2008. Turvey, Shaw, Reed, Mace. “Ecological laws of perceiving and acting: In reply to Fodor and Pylyshyn (1981).” Cognition 9. (1981): 237-304.

159


Contreras Kallens, Pablo Andrés

Vauclair, J. “Categorization and conceptual behavior in nonhuman primates.” En Bekoff, Allen, Burghardt (eds.).The cognitive animal: Empirical and theoretical perspectives on animal cognition. Cambidge, MA.: The MIT Press, 2002. Wittgenstein, L. Investigaciones filosóficas. Traducción de García Suárez, A. y U. Moulines. Barcelona: Editorial Crítica, 1988.

160

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 139-160


Simbiosis y evolución: un análisis de las implicaciones evolutivas de la simbiosis en la obra de Lynn M argulis1, 2 Symbiosis and evolution: an analysis of the evolutionary implications of symbiosis in the work of Lynn M argulis Nicolás José Lavagnino3, Alicia Massarini4 & Guillermo Folguera5, 6

R esumen La noción de simbiogénesis propuesta por Lynn Margulis se refiere al establecimiento de simbiosis persistentes que dan origen a nuevas entidades biológicas. La propuesta de la relevancia evolutiva de la simbiogénesis se ha enmarcado en una discusión más general acerca de la necesidad de revisar y extender la Teoría Sintética de la Evolución. En este contexto, varios autores han presentado a la simbiogénesis como un mecanismo relevante en la evolución. Sin embargo, el estatus epistemológico de la simbiogénesis es aún terreno de debates. Así, la pregunta central del presente trabajo es si la simbiogénesis es exclusivamente un mecanismo generador de novedades evolutivas o también constituye un mecanismo del cambio evolutivo y, en caso de que esto último se responda afirmativamente, indagar en qué ámbito evolutivo estaría operando este mecanismo. Nuestra hipótesis principal es que la simbiogénesis presenta la potencialidad de cumplir un doble rol de mecanismo originador de novedades evolutivas y mecanismo evolutivo, aunque este doble papel se expresaría con diferentes niveles de claridad en los ámbitos microevolutivos y macroevolutivos. Así, el análisis de la simbiogénesis como mecanismo aparece como una vía fértil para ampliar y profundizar el análisis epistemológico al seno de la filosofía de la biología evolutiva. Palabras clave: Mecanismos Biológicos, Microevolución, Macroevolución, Simbiogénesis.

A bstract The notion of symbiogenesis proposed by Lynn Margulis refers to the establishment of persistent symbiosis that originates new biological entities. The proposal of an evolutionary relevance of symbiogenesis has been framed in a more general discussion about the need to revise and extend the Synthetic Theory of Evolution. In this context, several authors have presented symbiogenesis as an important mechanism in evolution. 1 Recibido: 26 de septiembre de 2014. Aceptado: 24 de noviembre de 2014. 2 Este artículo se debe citar como: Lavagnino, Nicolas; Massarini, Alicia & Folguera, Guillermo. “Simbiosis y evolución: un análisis de las implicaciones evolutivas de la simbiosis en la obra de Lynn Margulis”. Rev. Colomb. Filos. Cienc. 14.29 (2014): 161-181. 3 Grupo de Filosofía de la Biología, FFyL – FCEN, Universidad de Buenos Aires - CONICET, Argentina. Correo: nlavagnino@ege.fcen.uba.ar. 4 Laboratorio de Evolución, FCEN, Universidad de Buenos Aires - IEGEBA (CONICET-UBA), Argentina. 5 Laboratorio de Evolución, FCEN, Universidad de Buenos Aires - IEGEBA (CONICET-UBA), Argentina. 6 Buenos Aires, Argentina.


Lavagnino, Nicolás José, Massarini, Alicia & Folguera, Guillermo

However, the epistemological status of symbiogenesis is still a subject of debate. Thus, the central question of this paper is whether symbiogenesis is only a mechanism to generate evolutionary novelty or is also a mechanism of evolutionary change, and, if the latter is answered affirmatively, which evolutionary level would be the one where this mechanism operates. Our main hypothesis is that symbiogenesis has the potential to play a dual role of mechanism that originates evolutionary novelties and evolutionary mechanism, although this dual role would be expressed with different levels of clarity in microevolution and macroevolution. Then, the analysis of symbiogenesis as a mechanism appears as a fertile path for broadening and deepening epistemological analysis within philosophy of evolutionary biology. Key words: Biological mechanisms, microevolution, macroevolution, symbiogenesis.

1. Introducción: Lynn M argulis, simbiogénesis, y la extensión de la teoría sintética de la evolución

La teoría sintética de la evolución (TSE) comenzó a desarrollarse y consolidarse desde la década de 1930 a partir de “una síntesis del pensamiento de tres de las más importantes disciplinas biológicas: genética, sistemática y paleontología” (Mayr 1993 31). Más allá de esta síntesis entre grandes áreas del conocimiento, en términos conceptuales y teóricos diversos autores han enfatizado el lugar central que ocuparon algunas de las teorías que Charles Darwin y la genética mendeliana en la TSE (ver por ejemplo, Lewontin et al. 1981; Templeton 2006; Lynch 2007). En este sentido, la aplicación de la genética mendeliana a la modelización de la estructura y el cambio genético en el nivel poblacional resultó en el desarrollo de las bases de la genética de poblaciones a partir de los trabajos de Ronald Fisher, J. B. S. Haldane y Sewall Wright; y convirtió a esta área del conocimiento en el eje central de la TSE (Pigliucci 2007 2744). A estos se sumaron, quizás con menor incidencia, aportes de bases teóricas y fenómenos de las otras áreas del conocimiento que conformaron la síntesis. Por ejemplo, los trabajos de Theodosius Dobzhansky sumaron elementos teóricos dentro del marco de la genética de poblaciones y proveyeron un correlato empírico a los modelos matemáticos realizados hasta entonces. Ernst Mayr integró estas ideas de la TSE con la sistemática, proponiendo una salida del esencialismo para centrarse en el pensamiento poblacional. Por último, desde la paleontología, George Gaylord Simpson propuso que la evolución en los niveles macroevolutivos, es decir por encima del nivel especie, no se diferencia en cuanto a mecanismos y procesos de aquellos propios del ámbito microevolutivo (Pigliucci 2007 2744); siendo así aceptados como mecanismos y procesos biológicos para la evolución de los taxa de rango superior aquellos mismos que fueron propuestos por la TSE

162

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 161-181


Simbiosis y evolución

para las poblaciones. En el contexto del presente trabajo este último punto es especialmente significativo, ya que plantea un escenario en que la genética de poblaciones ha sido desde el origen y consolidación de la TSE el área de conocimiento que aborda los mecanismos de la evolución, relegando a las áreas del conocimiento que indagan en los niveles macroevolutivos solamente el aporte de fenómenos episódicos o singulares. Por otro lado, una de las distinciones significativas propuestas desde el seno de la TSE, es la dada entre aquellos mecanismos que generan variabilidad biológica de novo (Mg en adelante), y, por otro lado, la búsqueda de aquellos mecanismos que modifican o cambian los patrones de distribución a través del tiempo y del espacio de la variabilidad preexistente, la cual ha surgido por causas ajenas al mecanismo en cuestión (Mm, en adelante). Desde la TSE, para los primeros (Mg) se indicaron mecanismos que originan la variabilidad genética tales como la mutación, recombinación, macro-deleciones, duplicaciones, inversiones, translocaciones, mientras que los segundos (Mm) pasaron a ser los propiamente llamados “mecanismos evolutivos”, entre los que se cuentan la selección natural, la deriva génica, la mutación recurrente y la migración. A partir de 1970 se sucedieron un conjunto de críticas y extensiones a los ejes centrales de la TSE desarrolladas por autores como Stephen Jay Gould, Richard Lewontin, Motoo Kimura, Ian Tattersall, Niles Eldredge, entre otros; cuando, por mencionar solamente algunos ejemplos, se consideró de manera crítica el denominado “panseleccionismo” (cf., e.g., Gould & Lewontin 1979), la exclusividad de la población como unidad de evolución7 y al ámbito microevolutivo como el único relevante en la evolución (cf., e.g., Eldredge 1985; Gould 2002; Folguera & Lombardi 2012). Teniendo en cuenta que, por sus características, el fenómeno biológico de simbiosis es considerado propio del ámbito macroevolutivo, el abordaje acerca de la importancia y las implicaciones evolutivas de la simbiosis llevada a cabo por Lynn Margulis a lo largo de toda su obra representa uno de los principales intentos de extensión y revisión de la TSE, que en algunos aspectos se encuentra emparentado con las propuestas de los autores antes mencionados, ya que interpela e intenta dar respuesta a problemas comunes. Cabe aclarar que dentro de lo que se denomina “simbiosis” se incluye una variedad de fenómenos considerables que comparten aspectos centrales tales como “la 7 Con cierta frecuencia, se observa en la bibliografía especializada cierta confusión entre los términos 'unidad de evolución' y 'unidad de selección'. Sin embargo, en una primera aproximación puede reconocerse una distinción significativa entre ambos. Mientras la unidad de evolución es la entidad que propiamente evoluciona en el tiempo (por ejemplo la población en el ámbito microevolutivo), la unidad de selección es aquella blanco de los propios mecanismos evolutivos (el organismo biológico, en el mismo ejemplo).

163


Lavagnino, Nicolás José, Massarini, Alicia & Folguera, Guillermo

vida en común y en contacto físico de organismos de especies diferentes” (Margulis 2002, 10). Como puede apreciarse en los numerosos ejemplos de simbiosis que Margulis aporta y describe en su obra, la simbiosis involucra muchas dimensiones o tipos de contacto entre organismos de diferentes especies: comportamental, fisiológica, de productos génicos y genética (cf., e.g., Margulis 2002; Margulis & Sagan 1995; 2003). Del universo de dimensiones de la simbiosis, y teniendo en cuenta que el análisis que pretendemos llevar a cabo se centra en los mecanismos involucrados en la evolución biológica, el mismo se acotará a lo que Margulis llama “simbiogénesis”. Brevemente, la noción de simbiogénesis usada por esta autora “se refiere al origen de nuevos tejidos, órganos, organismos e incluso especies mediante el establecimiento de simbiosis permanentes de larga duración”8 (Margulis 2002 16). Es justamente a partir de este énfasis con el que Margulis propone a la simbiogénesis como fenómeno significativo para dar cuenta de la evolución biológica que surge la pregunta central del presente trabajo: ¿la simbiosis es susceptible de ser considerada únicamente un mecanismo generador de novedades evolutivas (Mg) o también constituye propiamente un mecanismo evolutivo (Mm) y, en tal caso, a qué ámbito evolutivo corresponden los fenómenos de los que logra dar cuenta? Nuestra hipótesis principal es que la simbiogénesis es susceptible de ser considerada tanto un Mg como un Mm, aunque la capacidad explicativa parece diferir significativamente entre los fenómenos correspondientes a los ámbitos microevolutivos y macroevolutivos. Particularmente, la acción de la simbiogénesis como Mm se da principalmente en el ámbito macroevolutivo, aunque considerando ciertos ejemplos y criterios que expondremos más adelante, es asimismo posible considerar a la simbiogénesis como Mm en el nivel microevolutivo. Con el propósito de abordar estos interrogantes, la organización del presente trabajo es la siguiente: en la sección 2 trataremos de reconocer las principales características o atributos que definen a los mecanismos biológicos, para lo que proponemos una serie de criterios que permitan reconocer cuándo un mecanismo biológico actúa como Mg o Mm. Posteriormente, utilizando las categorías mencionadas, analizaremos el caso particular de la simbiogénesis en la versión de Lynn Margulis. Por último, realizaremos algunas reflexiones de orden general, en particular aquellas dirigidas a contextualizar, en términos evolutivos la importancia de este tipo de abordajes así como al análisis de las conclusiones obtenidas sobre este tema en el contexto general de la filosofía de la biología evolutiva. 8 Cabe aclarar que el término evolutivo “simbiogénesis” -en el sentido en que lo usamos en este trabajo- fue acuñado por Lynn Margulis, aunque lo cierto es que la autora ha aclarado que esta noción evolutiva de la simbiosis fue propuesta previamente por otros naturalistas (Margulis 2002 16).

164

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 161-181


Simbiosis y evolución

2. En busca de los criterios para el reconocimiento de mecanismos generadores de novedades evolutivas

En primer lugar, cabe señalar que el término "mecanismo" suele estar asociado a cierta polisemia e incluso a importantes disensos de la bibliografía especializada. Sin embargo, por motivos de extensión y dado los objetivos de este trabajo, nos limitaremos a explicitar una de las acepciones más aceptadas que presenta a los “mecanismos” como “colecciones de entidades y actividades que se organizan en la producción de cambios regulares desde las condiciones de comienzo o inicio hasta las condiciones de terminación o acabado” (Craver 2001 58). Bajo esta acepción, los mecanismos están compuestos tanto de entidades como de actividades; donde las actividades son las productoras del cambio y las entidades son aquello que participa de estas actividades (Machamer et al. 2000 3). Tal como veremos en las siguientes secciones, en nuestro análisis el cambio involucrado es el propio hecho evolutivo, a la vez que dos entidades biológicas diferentes estarán asociadas: las denominadas unidad de evolución y unidad de selección. Como mencionamos en el apartado anterior, cabe señalar que desde la TSE fueron distinguidos los mecanismos biológicos generadores de variabilidad biológica y aquellos evolutivos, estos son, aquellos que cambian o moldean los patrones de distribución de la variabilidad biológica. Dada la conformación de la TSE los mecanismos evolutivos planteados y sostenidos correspondían al ámbito microevolutivo. En este sentido, cabe señalar que hay un aspecto que debe ser evaluado y que generalmente es dejado de lado en las consideraciones y en la estructura de la TSE: la noción de jerarquía en la biología evolutiva y la estructura de múltiples niveles del fenómeno de la evolución biológica (cf., e.g., Gould 2002; Vrba & Gould 1986). Estos aspectos constituyen una de las principales características que aporta la propuesta de extensión y revisión de la TSE y no pueden ser soslayados en la búsqueda de criterios generales para identificar mecanismos biológicos en un contexto evolutivo. (ver por ejemplo Eldredge 1985; Brandon 1996; Rose 2001). De este modo, salvo en casos de escenarios reductivos que no lograron sostenerse a partir de la década de 1970, es claro que desde una perspectiva jerárquica, los criterios para analizar si los mecanismos son Mg o Mm no se pueden restringir al nivel poblacional. Debido a ello, en lo sucesivo intentaremos clarificar los criterios adoptados para reconocer cuándo un mecanismo biológico genera variabilidad biológica y/o modifica los patrones de distribución de variabilidad asumiendo una perspectiva jerárquica de la biología evolutiva.

165


Lavagnino, Nicolás José, Massarini, Alicia & Folguera, Guillermo

2.1. Mecanismos que modifican la variabilidad biológica Desde la tradición de la TSE, los mecanismos que modifican los patrones de distribución de la variabilidad son aquellos que como consecuencia de su acción cambian las frecuencias de las variantes genéticas (variabilidad genética) entre dos generaciones de una población particular. Los mecanismos que actúan de esta manera pasaron a ser los propiamente llamados “mecanismos evolutivos”. Es importante notar que existen escenarios en los que no se dan cambios netos en los patrones de distribución de la variabilidad, pero que aun así son resultado de la acción de mecanismos evolutivos, en este caso actuando de tal manera que sus efectos se compensan. Ahora bien, resulta necesario en el análisis propuesto para la simbiosis la inclusión de ámbitos evolutivos diversos, más allá del propiamente microevolutivo. Sin embargo, frente a esta búsqueda se presentan al menos tres problemas que son fácilmente identificables. Primero, la noción de “generación” quizás sea suficientemente clara cuando se trata de poblaciones (al menos para una gran variedad de organismos vertebrados), pero es de difícil identificación cuando se intenta aplicarla al resto de los niveles jerárquicos. Por ejemplo, cuando se analiza el nivel “especie”, ¿qué significa “una generación”? Este es un problema que no encuentra una respuesta única, ya que debería definirse caso a caso, en términos de la biología y la distribución espacial de la especie en cuestión, entre otros aspectos. En cualquier caso, se trata de cambio en o de entidades biológicas a lo largo del tiempo, más allá de cómo las entidades biológicas se perpetúan a través del tiempo en los diferentes niveles. Segundo, en el caso del nivel microevolutivo, en el marco de la TSE el rol de la población es el de unidad de evolución (ver por ejemplo Eldredge 1985; Gould 2002), por lo que en una propuesta jerárquica se hace necesario identificar en cada uno de los niveles de la jerarquía una entidad acotada espacial y temporalmente que cumpla dicho rol. Sin embargo, si bien la unidad de evolución fue determinada con cierta claridad en el caso del ámbito microevolutivo, no es tan claro su reconocimiento en otros ámbitos evolutivos, tal como en la macroevolución. Por ello, acudiremos a la terminología de “dominio” para el caso de una entidad, en cualquiera de los niveles, que esté acotada espacial y temporalmente y en el que ocurra el cambio evolutivo propiamente dicho. En este sentido, la población es un caso particular de “dominio” para el caso específico del ambiente microevolutivo. El tercer y último problema que surge tiene que ver con la necesidad de establecer un criterio claro acerca de qué es propiamente una variante biológica y cómo la reconoceremos. En el caso de un abordaje jerárquico tal como el aquí propuesto, en principio se espera cierta asociación entre una noción particular de variante biológica y los niveles correspondientes. A su vez, desde una perspectiva jerárquica, los mecanismos

166

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 161-181


Simbiosis y evolución

que modifican la variabilidad son aquellos que como consecuencia de su acción cambian las frecuencias de los tipos de entidades biológicas (algún tipo de variabilidad biológica) en el dominio del nivel analizado. A partir de las dificultades señaladas, la estrategia que utilizaremos en nuestro análisis será la siguiente: indagaremos las características que tiene que tener un mecanismo para generar propiamente un hecho evolutivo. Ahora bien, ¿de qué se trata un hecho evolutivo? En principio, desde una primera aproximación puede ser entendida como una modificación biológica significativa y que permanezca a través de las generaciones biológicas. Sin embargo, para los fines de nuestro análisis debemos reconocer propiamente los requerimientos que conforman un hecho evolutivo. Al respecto, hemos reconocido al menos tres requisitos: 1. Número mínimo Este requisito ha sido inspirado en la propuesta de Caponi (2008, 11) y se refiere a que el resultado de la acción de un mecanismo que produce un hecho evolutivo debe incluir más de una variante biológica en el dominio del nivel donde dicho mecanismo actúa. Esto significa que como resultado de la acción de este mecanismo deben coexistir más de un tipo biológico diferentes con un número de representantes de cada uno extensivamente mayor a uno. La relevancia de este requerimiento es que se trata de una instancia básica para diferenciar un Mm de un Mg, ya que el producto de la acción de un mecanismo que solamente genera variabilidad es un evento biológico espacial y temporalmente único. Tal evento no debería ser considerado un hecho evolutivo y este requisito evita dicho escenario (Figura 1). El requisito de número mínimo es necesario pero no suficiente para que la acción de un mecanismo produzca efectivamente un hecho evolutivo. 2. Repetibilidad En el contexto de la TSE el requisito de una repetición consistente de las variantes biológicas a través del tiempo es garantizado exclusivamente por medio de la herencia genética. Sin embargo, en las últimas décadas la diversidad de los fenómenos biológicos que aseguran que un atributo de una entidad o grupo de entidades aparezca o se mantenga a través del tiempo han aumentado (cf., e.g., Jablonka et ál. 1998; Jablonka & Lamb 2010). En particular reconocemos tres formas de lograr repetibilidad: a. herencia genética: repetibilidad de una variante biológica en el tiempo por medio de transmisión de información a través de la secuencia nucleotídica.

167


Lavagnino, Nicolás José, Massarini, Alicia & Folguera, Guillermo

b. herencia en sentido amplio: repetibilidad de una variante en el tiempo que se transmite a través de otra unidad de información diferente de la genética, por ejemplo epigenética. Este caso particular se refiere a “la herencia de variaciones fenotípicas, en células y organismos, que no dependen de la variación en la secuencia de ADN” (Jablonka & Lamb 2010, 143). La herencia epigenética incluye, entre otros aspectos, la transferencia de información “cuerpo a cuerpo” (soma a soma) y los cambios heredables generados por las interacciones entre organismos y el ambiente, considerando al ambiente en un sentido amplio que incluye a los efectos de factores abióticos y de otros organismos (Jablonka & Lamb 2010 144-145). c. recurrencia: una variante aparece consistentemente en el tiempo pero no debido a la transmisión de información interna –ya sea genética o epigenética- sino como consecuencia de la repetición estable de otro factor, por ejemplo un mismo efecto ambiental en un fenotipo de cualquier entidad biológica que se repite a través del tiempo. El requisito de repetibilidad garantiza uno de los aspectos necesarios, y bastante obvios, de un hecho evolutivo: su permanencia en el tiempo en el dominio particular del nivel particular que se esté analizando (Figura 2). 3. Sesgo El requisito de sesgo está inspirado en los análisis de Yampolsky y Stoltzfus (2001 73-78), en los que usando modelos de genética de poblaciones establecen las condiciones que se deben dar para que la mutación se desempeñe como un Mm. En términos generales se basa en la probabilidad diferencial de pasar de un estado biológico al inverso. Es decir, como consecuencia de la acción del mecanismo existe una probabilidad diferencial de pasar de un estado biológico a otro y esto se debe a características propias del fenómeno biológico en cuestión. Este requerimiento garantiza que se evite un escenario de estabilidad dinámica en que, como consecuencia de que existan probabilidades similares de pasar de un estado al inverso, se da un alto número de cambios locales que no produce un cambio global de los patrones de distribución de la variabilidad. La descripción de los requisitos que un mecanismo debe cumplir para que se considere que produce propiamente un hecho evolutivo, y que por ende pueda ser considerado como un Mm, deja en claro que éstos tienen diferentes funciones en nuestro análisis. El sesgo solo puede tener lugar si el mecanismo en cuestión cumple previamente los requisitos de número mínimo y repetibilidad. Por lo tanto, el sesgo es un requisito subsidiario de los requisitos principales referidos al número mínimo y la repetibilidad.

168

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 161-181


Simbiosis y evolución

2.2. Mecanismos que generan variabilidad biológica Del mismo modo que en el caso de los mecanismos evolutivos, cuando se intenta establecer los criterios para reconocer mecanismos que actúan como generadores de variabilidad biológica de novo, es decir variantes que previamente no existían, no resulta una tarea sencilla establecer criterios generales que sean adecuados para los diferentes niveles de una jerarquía evolutiva. En el marco de la TSE, la genética clásica ha propuesto un número importante de mecanismos generadores de variabilidad biológica de novo, en este caso estrictamente de tipo genética. En el contexto de la TSE los mecanismos que generan variabilidad de novo son aquellos que como consecuencia de su acción producen efectos que se mantienen de una generación a la siguiente. Para una población particular, ello se refiere a la incorporación de alguna variante genética que previamente no existía (es decir, variabilidad genética de novo). Sin embargo, es claro que desde una concepción jerárquica de la evolución los requisitos que un mecanismo debe cumplir para ser considerado un generador de variabilidad no se pueden limitar a las propuestas de la TSE, ya que esto implicaría restringirse sólo a aquellos mecanismos involucrados en el origen de variantes genéticas que se manifiestan a niveles microevolutivos. En este sentido, además de considerar la generación de variabilidad de novo en el sentido estricto de la TSE también debemos tener en cuenta el concepto de innovación, es decir el caso particular de generación de novedades evolutivas en niveles macroevolutivos. La innovación refiere al origen de variantes biológicas –no necesariamente genéticas- que previamente no existían en niveles superiores de la jerarquía evolutiva. En general se refiere al surgimiento de nuevos elementos constitutivos de planes corporales (Müller 2010 312). Es muy pertinente recordar los diferentes tipos de innovaciones propuestas por Müller (2010): a) las innovaciones de tipo I, que corresponden al origen de las principales estructuras de los diferentes planes corporales de los metazoos, la mayor parte de los cuales se generaron en la explosión del Cámbrico; b) las novedades de tipo II, que corresponden a los nuevos elementos estructurales que se agregan a un plan corporal ya establecido (como por ejemplo, caparazones o plumas) y, finalmente, c) las novedades de tipo III, las cuales corresponden a grandes cambios en caracteres ya existentes en los planes corporales. Mientras que estas últimas constituirían cambios cuantitativos, que podrían explicarse a través de los mecanismos generales de variación y selección, esto no ocurriría con los otros dos tipos de novedades. Entonces, desde una perspectiva jerárquica, los mecanismos generadores de variabilidad biológica de novo son aquellos que como consecuencia de su acción producen una variante biológica particular que previamente no existía en el dominio del nivel analizado. Esta noción extendida a los niveles macroevolutivos presenta, dada su pretensión de incluir una estructura jerárquica de la evolución, los

169


Lavagnino, Nicolás José, Massarini, Alicia & Folguera, Guillermo

mismos inconvenientes que los destacados en al apartado anterior para los Mm. Estos problemas operativos y conceptuales que se presentan al asumir la noción de Mg en un marco jerárquico, nos llevaron a buscar una forma alternativa de reconocerlos. Dicha alternativa se relaciona directamente con los criterios asumidos respecto a los requisitos que un mecanismo debe cumplir para que se considere que produce un hecho evolutivo, que desarrollamos anteriormente. En este caso proponemos que un mecanismo actúa como un Mg jerárquico si como consecuencia de su acción se generan variantes biológicas que previamente no existían y además no se cumplen simultáneamente los requisitos de número mínimo, repetibilidad y sesgo. Cabe aclarar que este escenario es el que tiene que darse para que un mecanismo actúe exclusivamente como un Mg. De este enfoque se deduce directamente que un mecanismo biológico cualquiera puede, dada sus características, contener la posibilidad de actuar tanto como Mm o como Mg. En la Tabla 1 se resumen los escenarios posibles, que hemos planteado en la presente sección del trabajo, respecto a la acción de los mecanismos biológicos. En la siguiente sección utilizaremos estos desarrollos para analizar si la simbiogénesis como mecanismo presenta la posibilidad de actuar como Mm, como Mg o bien como ambos.

3. Simbiogénesis como mecanismo 3.1. Un rol extendido: simbiogénesis como Mm El esquema de análisis que planteamos hasta aquí requiere, para dilucidar si la simbiogénesis actúa efectivamente como Mm, evaluar si ésta cumple con los tres requisitos señalados. Con este fin, analizaremos si cumple o no cada uno de los requisitos previamente expuestos: Número mínimo: Teniendo en cuenta que puede suceder más de un evento de simbiogénesis en un mismo dominio particular, el requisito de número mínimo está garantizado. Esto puede ser así en el caso de que sucedan dos o más eventos de simbiogénesis entre dos entidades biológicas diferentes (Figura 4a), o si se trata de eventos de simbiogénesis de una entidad biológica que entra en convivencia física permanente con más de una entidad equivalente pero en dos asociaciones diferentes entre sí (Figura 4b). Por ejemplo, situándonos dentro de un dominio en un nivel macroevolutivo de la jerarquía evolutiva pueden darse dos o mas eventos de simbiogénesis independientes entre la especie A y la especie B (Figura 4a); también puede suceder el caso de

170

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 161-181


Simbiosis y evolución

simbiogénesis entre una especie A y una especie B y con otra especie C, cada uno de los cuales debe haber experimentado dos o más eventos de simbiogénesis (Figura 4b). En la Figura 4c se muestra el caso, también posible, donde suceden dos eventos de simbiogénesis múltiples entre pares diferentes de especies. Todos estos escenarios son susceptibles de ser considerados y en cada uno de ellos se cumpliría el requisito de número mínimo, ya que como resultado de la acción de la simbiogénesis se produce más de un tipo biológico diferente con un número de representantes de cada uno mayor a uno. Repetibilidad: La repetibilidad de las nuevas variantes biológicas producidas por un evento de simbiogénesis puede darse por dos instancias diferentes: herencia en sentido amplio y herencia genética. Cuando como consecuencia de un evento de simbiogénesis se producen cambios a nivel epigenético, y estos son transmitidos en el paso de la entidad biológica de que se trate a través del tiempo, estamos ante un caso de repetibilidad por herencia epigenética; es decir un tipo de herencia en sentido amplio. Por ejemplo, un escenario factible para este caso es que, como consecuencia de un evento de simbiogénesis, se den cambios en el citoplasma celular de un organismo y que estos se transmitan y se mantengan a través del tiempo mediante diversos procesos epigenéticos, que resultan admisibles en estas situaciones, tales como la transferencia de información “cuerpo a cuerpo” (soma a soma) y los cambios heredables generados por las interacciones entre los organismos y el ambiente (Jablonka & Lamb 2010 144-145). En particular, este escenario podría darse en las primeras etapas de un caso de endosimbiosis en que no ha sucedido una unión de genomas. Si bien Margulis no utiliza los mismos conceptos y categorías que Jablonka y Lamb, se puede rastrear en su obra la importancia que daba a la herencia epigenética en los eventos de simbiosis en general y sobre todo para su teoría de la endosimbiosis serial, sobre el origen y diversificación de los reinos de la vida (Margulis 2002 41-44). Dicha postura de considerar tipos de herencia no nucleares es explicitada en la siguiente reflexión, que incluye una crítica y una ampliación de los postulados de la genética clásica: Desde el punto de vista de la herencia, el citoplasma de una célula puede ser tranquilamente ignorado.’ Incluso cuando leí esta afirmación por primera vez, expresada con confianza por T. H. Morgan, catedrático de Columbia y persona clave en la fundación de la genética en 1945, la consideré una arrogante simplificación. La herencia celular, tanto nuclear como citoplásmica, siempre se debe tener en cuenta en lo que respecta a la célula completa, al organismo completo (Margulis 2002 33-34).

Respecto a la herencia genética, es bastante directo asumir que este tipo de proceso puede también ocurrir como resultado de la simbiogénesis, en tanto

171


Lavagnino, Nicolás José, Massarini, Alicia & Folguera, Guillermo

que en su forma más intensa esta implica que los simbiontes se integren a nivel del genoma. Sesgo: sesgo en la simbiogénesis se puede producir de dos maneras diferentes. En principio en un escenario análogo al caso de la probabilidad diferencial de pasar de un estado al inverso en la mutación puntual del ADN en el marco de la genética de poblaciones, por ejemplo al pasar de una base de adenina a una de guanina en un determinado punto del genoma. El caso análogo en la simbiogénesis sería que el evento simbiogenético se produzca pero presente la potencialidad real de revertirse. Es decir, que suceda el evento de relación física e íntima entre dos entidades presenta cierta probabilidad (pa) y la disociación de esta unión presenta una probabilidad independiente (pb). Como mostramos en la Figura 3, cuando pa > pb se estaría en un caso de simbiogénesis con sesgo. El problema que surge aquí es que dada la naturaleza del fenómeno de simbiogénesis a establecer “simbiosis permanentes de larga duración”, la reversibilidad del evento simbiogenético tiende a cero, y por ende pb tiende a cero; con lo cual estaríamos ante un caso trivial de sesgo debido a que pa > pb. Sin embargo, en aquellos casos en que exista la posibilidad de reversiones de la simbiogénesis, donde la tasa de reversión del evento sea muy pequeña pero diferente a cero, se está en un escenario de sesgo análogo al del sesgo mutacional que inspira este requisito. Por otro lado, se puede pensar que el sesgo en la simbiogénesis se puede producir si existe una probabilidad diferencial de que una entidad biológica entre en convivencia física estable con una determinada entidad respecto de otra entidad equivalente, pero diferente. Estaríamos ante una situación de pa > pb pero en la cual las probabilidades se refieren a fenómenos diferentes al del caso anterior (Figura 5). A diferencia del escenario anterior, este se basa en la asociación simbiogenética preferencial entre ciertas entidades, algo que es parte del fenómeno de simbiogénesis tal cual ha sido propuesto y documentado por Margulis en su obra. Cabe aclarar que aquí el sesgo no presenta una forma análoga al caso de la mutación ya que no se trata de dos estados de una misma entidad (un sitio en el genoma o un alelo) sino que están involucradas al menos tres entidades. En todo caso, la asociación preferencial entre ciertas entidades en detrimento de otra asociación remite a la idea de mutación recurrente. Como conclusión parcial se puede afirmar que la simbiogénesis presenta la potencialidad de actuar como un Mm, ya que existen escenarios posibles donde como consecuencia de su acción se cumplen simultáneamente los requisitos de número mínimo, repetibilidad y sesgo. Esta conclusión parcial plantea dos nuevos interrogantes: i) ¿en qué ámbito evolutivo (micro o macro) la simbiogénesis actúa como Mm? y ii) ¿con qué

172

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 161-181


Simbiosis y evolución

frecuencia pueden suceder las condiciones para que se cumplan los tres requisitos planteados y la simbiogénesis actúe como Mm? Respecto a la primera pregunta, podemos decir que debido a las entidades que participan del mecanismo es razonable asumir que este tipo de situaciones se presentan en cambios que suceden a niveles altos de la jerarquía evolutiva. Sin embargo, en palabras de Margulis, la acción de la simbiogénesis como Mm sería de un tipo particular: “la simbiogénesis es el cambio evolutivo mediante la herencia del conjunto de genes adquiridos” (Margulis 2002 19). Esta concepción de la simbiogénesis que expone Margulis está emparentada con aquellas propuestas que dan especial importancia a la epigénesis y a la herencia epigenética, tal como en el caso de la postura de Jablonka y colaboradoras antes mencionada, así como lo expresado en la propuesta de West-Eberhard acerca de lo que denomina “coquetear con el fantasma de Lamarck” (West-Eberhard 2007, 439). En el contexto de la obra de Margulis, la idea de caracteres incorporados durante la vida de un organismo capaces de otorgar determinadas ventajas o capacidades y que, a su vez, sean heredables, puede ser considerado cercano a algunos aspectos propios de la propuesta de Lamarck y, de este modo, contrario a los pilares de la TSE. Pasando al segundo interrogante, en una primera evaluación y atendiendo a la concepción general que se suele tener sobre la simbiogénesis, que frecuentemente se asume que ocurre a partir de eventos esporádicos, se podría decir que la frecuencia con la que la simbiogénesis actúa como Mm sería potencialmente baja; sin embargo hay escenarios en los que esto no sería necesariamente así. Por ejemplo, en casos en que por la similitud de hábitats que entidades de diferentes especies ocupan, sumado a características ecológicas y fisiológicas que los hacen propensos a encontrarse y entrar en contacto físico de algún tipo, pueden darse casos de simbiogénesis recurrentes y estables durante periodos importantes de las existencias de las entidades en cuestión. De este modo, respecto a la frecuencia de acción de la simbiogénesis como Mm, ya sea en niveles micro o macroevolutivos, los dos factores que están influyendo son la recurrencia y la estabilidad; por lo que entendemos que en las condiciones de contexto antes señaladas no se encuentran argumentos para suponer que la simbiogénesis es poco frecuente en el nivel microevolutivo, o al menos, menos frecuente que en el macroevolutivo.

3.2. El rol habitual: simbiogénesis como Mg Abordar esta cuestión es una tarea bastante directa: cuando actúa la simbiogénesis por medio de la convivencia permanente en relación física próxima de dos organismos de especies diferentes se originan nuevos tejidos, órganos,

173


Lavagnino, Nicolás José, Massarini, Alicia & Folguera, Guillermo

organismos e incluso especies, es decir, variantes biológicas que previamente no existían. En los términos de nuestro tipo de análisis, es claro que existen múltiples situaciones donde la simbiogénesis no cumple simultáneamente los tres requisitos planteados, y por ende, actúa como Mg. El ejemplo directo de esto es cuando sucede un evento único de simbiogénesis entre dos entidades biológicas diferentes, donde se puede dar repetibilidad (Figura 6a) o no (Figura 6b). Cabe aclarar que la situación en la que un mecanismo tiene tanto la potencialidad de cumplir los tres requisitos como de no hacerlo, no es la regla. El ejemplo paradigmático es la selección natural, un mecanismo que por su naturaleza siempre cumple los tres requisitos y por lo tanto siempre actúa como Mm. Pensar a la simbiogénesis como un Mg, sin dudas constituye la concepción más extendida; Margulis así lo plantea a lo largo de su obra y lo sintetiza en la siguiente frase: “la simbiosis (...) es crucial para el entendimiento de la novedad evolutiva y el origen de nuevas especies” (Margulis 2002 16). Es más, enfatiza que este rol es altamente relevante en la historia de la vida en la Tierra: “la simbiogénesis es mucho más espléndida que el sexo como generadora de novedad evolutiva.” (Margulis 2002 108). Al igual que en el apartado anterior, cabe preguntarse: ¿con qué frecuencia y en qué ámbito evolutivo (micro o macro) la simbiogénesis actúa como Mg? Teniendo en cuenta la amplia cantidad de reportes de casos de simbiogénesis actuando como Mg que se encuentran recopilados en los libros de Margulis, se puede especular que no es baja la frecuencia con la que la simbiogénesis actúa como Mg (cf., e.g., Margulis 2002; Margulis & Sagan 1995; 2003). Respecto al ámbito de acción, se reconoce que al ser una unión de organismos de diferentes especies, la acción de la simbiogénesis como Mg se podría adjudicar al ámbito macroevolutivo. Es decir, presentar a la simbiogénesis como un mecanismo de innovación. Sin embargo, queda planteado cierto problema asociado, ya que lo que entra en contacto físico como entidades, no son especies sino organismos. De todas maneras, existe una importante evidencia empírica sobre la simbiogénesis como generadora de nuevas entidades de rango específico e incluso de taxa de nivel superior al específico. El ejemplo más claro de ello es el origen de las células eucariotas, conforme a la interpretación que proporciona la teoría de la endosimbiosis serial, que propone que como consecuencia de eventos consecutivos y anidados de simbiogénesis se generaron innovaciones evolutivas de tal nivel de profundidad que emergieron entidades biológicas de tipo celular con formas de organización básica novedosas, que dieron origen a los diferentes linajes eucariotas representados en los reinos de protistas, plantas, hongos y animales (Margulis 2002, 41-44). Además de una consideración clara del rol de la simbiogénesis

174

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 161-181


Simbiosis y evolución

en la innovación, Margulis ha intentado presentar también a la simbiogénesis como fuente importante en la generación de variación biológica a nivel poblacional (microevolutivo), equiparándola o incluso dándole mayor relevancia que a la mutación, el mecanismo tradicional propuesto por la TSE para tal rol: “demostraremos aquí que la fuente principal de variación hereditaria no es la mutación aleatoria, sino que la variación importante transmitida que conduce a la novedad evolutiva, procede de la adquisición de genomas.” (Margulis & Sagan 2003, 36). Haciendo referencia a un ejemplo concreto menciona que: “…las plantas que tienen micorrizas en sus raíces son seleccionadas naturalmente: en suelos deficientes en nutrientes producen semillas más pesadas, con mayores reservas de nitrógeno y fósforo que sus homólogas no vinculadas a los hongos.” (Margulis 2002 131). Es decir, la simbiogénesis fisiológica entre una planta y un hongo genera variabilidad fenotípica intrapoblacional sobre la que luego actúa la selección natural. En el ejemplo expuesto, el origen de la variabilidad es simbiótico; y en relación con ello, pensamos que en diversos casos existe la potencialidad de que la simbiogénesis opere como un mecanismo generador de variación de novo en un ámbito microevolutivo, aunque esta idea no es uniformemente aceptada por la comunidad de biólogos evolutivos.

4. R eflexiones finales A partir del análisis que hemos realizado podemos afirmar que la noción de simbiogénesis propuesta por Lynn Margulis posee especial relevancia en el marco de la biología evolutiva contemporánea, mostrando ciertas particularidades que la sitúan como un caso de análisis sumamente interesante, en la medida en que permite apartarse en más de un sentido de la ortodoxia representada por la TSE, y alimentar diversas controversias. En una primera aproximación a la hipótesis planteada concluimos que la simbiogénesis presenta la potencialidad de cumplir un doble rol: actuar como Mm, siendo en este caso un Mm que está involucrado en causas últimas; y actuar también como Mg, tratándose aquí de causas próximas. En cuanto al ámbito evolutivo en el que la simbiogénesis actúa, podemos decir que la acción de la simbiogenésis operando como Mg en niveles macroevolutivos presenta un alto grado de probabilidad, siendo el rol más habitual que tradicionalmente se le suele asignar en la biología evolutiva. Por lo que aquí hemos analizado, este rol se podría hacer extensivo a los ámbitos microevolutivos, sostenido entonces la acción de la simbiogénesis como Mg en varios niveles de la jerarquía evolutiva.

175


Lavagnino, Nicolás José, Massarini, Alicia & Folguera, Guillermo

Respecto a su papel como Mm, en principio, el hecho de que la simbiogénesis pueda actuar como mecanismo macroevolutivo y también microevolutivo, ya que cumple los requisitos que hemos planteado como necesarios para que cualquier mecanismo sea considerado como evolutivo y no solo como generador de variantes o innovaciones, plantea la necesidad de prestar mayor atención a este fenómeno. Tal situación se relaciona asimismo con la “recuperación” del ámbito macroevolutivo ya que, como hemos mencionado, estamos frente a un mecanismo que en su consideración habitual es frecuentemente relegado a su acción como Mg en los ámbitos macroevolutivos; y proponemos aquí que presenta la potencialidad de extender su rol primero como Mg a los ámbitos microevolutivos y además sumar un nuevo rol como Mm. Posiblemente este doble papel de Mg y Mm se manifieste con diferentes niveles de claridad en los ámbitos microevolutivos y macroevolutivos, siendo más evidente en los altos niveles de jerarquía. De todas maneras las condiciones de posibilidad de que también actúe con cierta relevancia en ámbitos microevolutivos están planteadas, quedando explicitada la necesidad de profundizar sobre este punto particular en un futuro. Por último, el recorrido que hemos hecho en este trabajo muestra que el análisis, la conceptualización y la recopilación de reportes sobre la simbiogénesis aparece como una vía fértil para apartarse de la ortodoxia microevolutiva, y realizar aportes valiosos al seno de la biología evolutiva actual, por lo pronto, en tanto mecanismo significativo en niveles macroevolutivos, aunque no de manera exclusiva.

Requerimiento

El mecanismo actúa como… Mg

Mg

Mg

Mg

Mm

Número mínimo

no

si

no

si

si

Repetibilidad

no

no

si

si

si

Sesgo

si

si o no

si o no

no

si

Escenario biológico posible

Alto número de variantes biológicas nuevas, “instantáneas” y únicas

Aparición de variantes biológicas nuevas, “instantáneas” pero no únicas

Bajo número de variantes biológicas nuevas y persistentes en el tiempo

Equilibrio dinámico

Hecho evolutivo

Tabla 1: Se muestran, a modo de resumen, las combinaciones posibles para la acción de un mecanismo biológico cualquiera en términos de requisitos para producir un hecho evolutivo y los escenarios biológicos que se darían en cada caso.

176

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 161-181


Simbiosis y evolución

Mg: mecanismos que generan variabilidad biológica de novo o nueva. Mm: mecanismos que modifican o cambian los patrones de distribución a través del tiempo y del espacio de la variabilidad preexistente, la cual ha surgido por causas ajenas al mecanismo en cuestión.

Leyendas de figuras:

Tiempo

Frecuencia relativa de variantes

Figura 1: Cambio de la variabilidad biológica en el tiempo debido a la acción de mecanismos jerárquicos que no cumplen el requisito de número mínimo. Los círculos de diferentes colores representan entidades biológicas de diferente tipo. Puede tratarse de entidades presentes en cualquiera de los niveles de la jerarquía evolutiva. La acción del mecanismo produce solamente una variante biológica en el dominio del nivel donde dicho mecanismo actúa. No se da una modificación importante y consistente de la variabilidad en el tiempo. 1

0,5

0

Tiempo

Figura 2: Ejemplos de cambio de la variabilidad biológica en el tiempo debido a la acción de mecanismos que cumplen (izquierda) o no cumplen (derecha) el requisito de repetibilidad. Los círculos de diferentes colores representan entidades biológicas de diferente tipo. En el caso que se da repetibilidad se muestra ejemplos de repetibilidad por herencia genética o en sentido amplio (circulo negros) o por recurrencia (círculos grises, el “rayo” representa un efecto ambiental). No Repetibilidad

Repetibilidad

Tiempo

Tiempo

177


Lavagnino, Nicolás José, Massarini, Alicia & Folguera, Guillermo

Figura 3: Cambio de la variabilidad biológica en el tiempo debido a la acción de mecanismos jerárquicos que no cumplen (izquierda) o que cumplen (derecha) el requisito de sesgo. Los círculos de diferentes colores representan entidades biológicas de diferente tipo. Notar que en el caso en que el mecanismo no produzca sesgo no se genera una modificación importante y consistente de la variabilidad en el tiempo (izquierda) y en el caso que sí produzca sesgo, el efecto sucede (derecha). No Sesgo

No Sesgo

pa

pa

pb pa = pb = 0,5

pb pa > pb

Frecuencia relativa de variantes

Frecuencia relativa de variantes

Tiempo

Tiempo

1 0,5

0

Tiempo

1 0,5

0

Tiempo

Figura 4: Posibles escenarios en los que la acción de la simbiogénesis como mecanismo produzca como resultado el cumplimiento del requisito de número mínimo. En este caso particular los diferentes tipos de círculos representan a especies distintas. Los casos que dos especies se unen por líneas punteadas representan eventos de simbiogénesis. Todos estos escenarios son posibles y en todos se cumpliría el requisito de número mínimo, ya que como resultado de la acción de la simbiogénesis se produce más de un tipo biológico diferente (especies en este ejemplo) con un número de representantes de cada uno mayor a uno. En estos escenarios hipotéticos no actúa otro mecanismo que no sea la simbiogénesis. a

b

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 161-181

Tiempo

Tiempo

178


Simbiosis y evolución

c Tiempo

Figura 5: Escenario donde la simbiogénesis actuaría como un mecanismo que produce sesgo. Los círculos de diferentes colores representan entidades biológicas de diferente tipo. pa y pb son las probabilidades de que una entidad biológica entre en convivencia física permanente con una determinada entidad que con otra equivalente pero diferente. En este escenario hipotético no actúa otro mecanismo que no sea la simbiogénesis. pa

Tiempo

pb pa pb

pa < pb

Figura 6: a) Evento único de simbiogénesis entre dos de entidades biológicas diferentes donde se da repetibilidad. b) Evento único de simbiogénesis entre dos de entidades biológicas diferentes donde no se da repetibilidad. Los círculos de diferentes colores representan entidades biológicas de diferente tipo. El evento de simbiogénesis está representado por la unión de dos ítems por líneas punteadas. Estos dos escenarios representan situaciones hipotéticas donde la simbiogénesis actúa como Mg. En este escenario hipotético no actúa otro mecanismo que no sea la simbiogénesis. a

b Tiempo

Tiempo

179


Lavagnino, Nicolás José, Massarini, Alicia & Folguera, Guillermo

Trabajos citados Brandon, Robert N. Concepts and Methods in Evolutionary Biology. Cambridge: Cambridge University Press, 1996. Caponi, Gustavo. “El segundo pilar. La biología evolucionaria desenvolvimiental y el surgimiento de una teoría complementaria a la teoría de la selección natural”. Ludus Vitalis XVI (2008): 3-32. Craver, Carl F. “Role functions, mechanisms, and hierarchy”. Philosophy of Science 68 (2001): 53-74. Eldredge, Niles. Unfinished Synthesis: Biological Hierarchies and Modern Evolutionary Thought. Nueva York: Oxford University Press, 1985. Folguera, Guillermo & Lombardi, Olimpia. “The relationship between microevolution and macroevolution, and the structure of the extended synthesis”. History and Philosophy of the Life Sciences 34 (2012): 539-559. Gould, Stephen J. The Structure of the Evolutionary Theory. Cambridge: Harvard University Press, 2002. Gould, Stephen J. & Lewontin, Richard C. “The spandrels of San Marco and the panglossian paradigm: a critique of the adaptationist programme”. Proceedings of the Royal Society of London 20 (1979): 581-98. Jablonka, Eva & Lamb, Marion. “Transgenerational epigenetic inheritance”. Evolution. The extended synthesis. Eds.: Pigliucci, M. & Müller G. B. Cambridge: The MIT Press, 2010. 137–174. Jablonka, Eva; Lamb, Marion & Avital, Eytan. “'Lamarckian' mechanisms in darwinian evolution”. Trends in Ecology and Evolution 13 (1998): 206-10. Lewontin, Richard C., Moore, John A., Provine, William B. y Wallace, Bruce. Dobzhansky’s Genetics of Natural Populations. Nueva York: Columbia University Press, 1981. Lynch, Michael. The Origins of Genome Architecture. Sunderland: Sinauer Associates, 2007. Machamer, Peter K.; Darden, Lindley & Craver, Carl F. “Thinking about mechanisms”. Philosophy of Science 67 (2000): 1-25. Margulis, Lynn. Planeta Simbiótico. Un Nuevo punto de vista sobre la evolución. Madrid: Editorial Debate, 2002.

180

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 161-181


Simbiosis y evolución

Margulis, Lynn & Sagan, Dorion. Microcosmos. Cuatro mil millones de años de evolución desde nuestros ancestros microbianos. Barcelona: Tusquets Editores, 1995. ―. Captando Genomas: Una Teoría Sobre el Origen de las Especies. Barcelona: Editorial Kairós, 2003. Mayr, Ernst. “Cause and effect in biology”. Science 134 (1961):1501-1506. ―. “What Was the Evolutionary Synthesis?”. Trends in Ecology and Evolution 8.1 (1993): 31-34. Müller, Gerd B. (2010). “Epigenetic innovation”. Evolution. The extended synthesis. Eds.: Pigliucci, M. & Müller G. B. Cambridge: The MIT Press, 2010. 307-332. Pigliucci, Massimo. “Do we need an extended evolutionary synthesis?” Evolution 61.12 (2007): 2743–2749. Rose, Steven. Trayectorias de vida. Granica, Barcelona, 2001. Templeton, Alan R. Population Genetics and Microevolutionary Theory. Hoboken: John Wiley & Sons, 2006. Vrba, Elisabeth S. & Gould Stephen J. “The hierarchical expansion of sorting and selection; sorting and selection cannot be equated”. Paleobiology 12 (1986): 217-228. West-Eberhard, Mary J. “Dancing with DNA and flirting with the ghost of Lamarck”. Biology and Philosophy 22 (2007):439–451. Yampolsky, Lev & Stoltzfus, Arlin. “Bias in the introduction of variation as an orienting factor in evolution”. Evolution & Development 3.2 (2001): 73-83.

181



Diciembre de 2014 ArtĂ­culos



Rese単a



Teorías contemporáneas de la justificación epistémica. Volumen I: teorías de la justificación en la epistemología analítica García, Claudia Lorena; Eraña, Ángeles; King Dávalos, Patricia (eds.) México: UNAM-Instituto de Investigaciones Filosóficas, 2013.

La teoría del conocimiento como disciplina académica es relativamente joven. Su inicio suele fecharse hacia la segunda mitad del siglo XIX, como una reacción neokantiana frente al idealismo especulativo de raigambre hegeliana. Kropp nos señala en las primeras páginas de su obra dedicada a la teoría del conocimiento (Kropp 1961, 1ss) que términos como “Theorie des Erkenntnis” fueron empleados por primera vez en 1832 por Reinhold. Aunque Rorty, en su obra La filosofía y el espejo de la naturaleza, donde realiza un repaso de la historia de esta disciplina y de su denominación (Rorty 2001, 130), alude a un texto de Vaihinger (Vaihinger 1876, 84ss), en donde se indica que ya hacia 1808 se utilizaban expresiones como “Erkenntnislehre” en círculos kantianos. Sea como fuere, en este corto período de tiempo, diversas han sido las propuestas a la hora de analizar el fenómeno del conocimiento en términos de otros elementos o condiciones más básicas, siendo uno de los más exitosos intentos de reducción analítica el que se conoce como definición tripartita del conocimiento. Esta definición del conocer, que ya Platón propusiera en el Teeteto y en el Menón (aunque de manera interesante, en el primero de estos diálogos, para rechazarla como propuesta viable), habría sido la de mayor predicamento durante al menos la primera mitad del siglo XX. Y para esta propuesta, por reducirlo a sus elementos esenciales, las condiciones necesarias y suficientes del conocimiento serían tres, a saber: conocer consistiría en tener creencias verdaderas y justificadas. Precisamente, en torno a la pregunta por el modo de entender la justificación epistémica, como concepto normativo central del análisis tripartito del conocimiento, girarían los ensayos compilados en el libro que reseñamos, Teorías contemporáneas de la justificación epistémica. Primer volumen éste de un ambicioso proyecto editorial y académico del Instituto de Investigaciones Filosóficas de la UNAM de México, que busca, mediante una cuidada selección de artículos clave hasta ahora inéditos en nuestra lengua, presentar las diversas teorías de la justificación propuestas durante los últimos cuarenta o cincuenta años en el seno de la tradición analítica.


García, Claudia Lorena; Eraña, Ángeles; King Dávalos, Patricia (eds.)

El proyecto, que en su primer volumen cuenta con una introducción general a cargo de una de las compiladoras, y de introducciones específicas para cada una de las corrientes epistemológicas presentadas que han tratado de dar cuenta de la justificación, se completará con un segundo volumen, pendiente de publicación, dedicado a la epistemología naturalizada. Se pretende con ello, como explicitan las editoras del primer volumen, dar cuenta de las propuestas de dos de las grandes tradiciones epistemológicas surgidas durante el siglo XX a partir, especialmente, de las críticas al positivismo lógico: las mencionadas epistemologías analítica y naturalizada. Se busca así presentar y hacer accesible, en particular a los estudiantes de filosofía, y en general a cualquier lector interesado, las fuentes imprescindibles para entender el debate actual en torno a la justificación y el conocimiento. Adicionalmente, y de ahí el valor de esta compilación, se cubre con estos dos volúmenes un notorio vacío, dado que no parece existir ningún texto colectivo semejante en nuestra lengua y los artículos traducidos ya en el primer volumen son centrales para entender cada una de las respuestas a la pregunta por la cuestión de la justificación epistémica. Por lo que respecta a las distintas partes que componen este primer volumen colectivo, atendiendo a las diversas corrientes en la epistemología de corte analítico y siguiendo un cierto orden cronológico, se divide este en una sección dedicada al fundacionismo, otra consagrada al coherentismo, una atenta al fiabilismo, otra centrada en la discusión entre internismo y externismo, y una última ligada a la epistemología de las virtudes, con dos o tres artículos por sección que exponen los pros y los contras de cada propuesta. En cuanto al fundacionismo, si bien este tiene una larga historia, y probablemente podría retrotraerse al menos hasta Aristóteles la formulación de una propuesta proto-fundacionista (Aristóteles 2004, Segundos Analíticos, I, 3) y habitualmente, en los manuales e historias de la filosofía, se señala al pensador francés René Descartes como uno de sus representantes más destacados e indiscutibles, no habría sido sino hasta finales de los años 70 del siglo XX cuando se formularon con claridad sus tesis esenciales. De acuerdo con esto, para cualquier versión del fundacionismo, fuerte o débil, aunque algunas de nuestras creencias derivan su justificación de otras, sería necesario que ciertas creencias, las llamadas básicas, derivasen su justificación de la relación con cosas que no son creencias (como, por ejemplo, experiencias sensoriales). Sin embargo, y dejando de lado las versiones más exigentes del fundacionismo, descartadas actualmente como implausibles, incluso las propuestas mínimas de esta teoría se enfrentan a un grave problema a la hora de responder a la pregunta por la justificación de las denominadas creencias básicas. Por ello, y

188

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 187-191


Teorías contemporáneas de la justificación epistémica. Volumen I: teorías de la justificación en la epistemología analítica

en medio de un panorama de predominio de fundacionismo fuerte primero, y mínimo después, hacia 1976 empezaría a perfilarse un segundo polo o alternativa de respuesta a la pregunta por la justificación de nuestras creencias, lo que se ha venido denominando como coherentismo. Ciertamente, también el coherentismo tendría una larga historia, pudiendo encontrarse un precedente importante de la idea coherentista general en la obra de Hegel, y ya de manera explícita en los textos de algunos de sus seguidores, en concreto de idealistas británicos como Bradley (Bradley 1914) o Bosanquet (Bosanquet 1920). E igualmente pueden señalarse filósofos de la ciencia, relevantes, como Neurath, Hempel o Quine, que más recientemente habrían aportado metáforas, imágenes y propuestas que alimentarían su acervo. Sin embargo, es a mediados de la década de los 70 del siglo XX cuando autores como BonJour habrían formulado las tesis básicas del coherentismo de un modo más nítido. De acuerdo con este, nuestras creencias tan solo podrían justificarse a través de sus relaciones de inferencia con otras creencias y, en última instancia, dependiendo de la coherencia de tales relaciones en el seno de nuestro sistema total de creencias. Pero diversos problemas, como especialmente la amenaza del relativismo o la cuestión de la conexión conceptual entre justificación y verdad, habrían cuestionado la solución coherentista. Por ello, otras propuestas habrían surgido, como la del fiabilismo, que no tendría antecedentes previos a su formulación en 1979 por Alvin Goldman, salvo la teoría causal del conocimiento, que el propio Goldman habría enunciado una década antes, abandonándola por los diversos problemas que planteaba. Y así, siguiendo a Goldman, el fiabilismo sostendría que una creencia está justificada cuando es el resultado causal de un proceso de producción de creencias fiables, esto es, de un proceso que estadísticamente tiende a producir más creencias verdaderas que falsas. No obstante, una consecuencia de esta manera de abordar el problema de la justificación epistémica sería la de que el sujeto conocedor podría tener creencias justificadas aunque no supiera que las tiene. La justificación no dependería pues de que tuviésemos o no razones para esa creencia, sino tan solo de la fiabilidad del proceso, y precisamente este sería uno de los principales obstáculos u objeciones (junto con el problema más técnico de la “generalidad”) a esta teoría, que parecería alejarse mucho de lo que tradicional e intuitivamente denominamos justificación y conocimiento. Por este motivo, y aun cuando las posiciones fundacionista, coherentista, fiabilista y las que apuestan por una síntesis, como en el caso del fundherentismo de Susan Haack (Haack 1997 39), parecerían agotar la cuestión de la justi-

189


García, Claudia Lorena; Eraña, Ángeles; King Dávalos, Patricia (eds.)

ficación en el ámbito epistemológico, lo cierto es que hay un debate surgido desde los años 80 del siglo XX que se superpone a estos planteamientos, como vemos plagados de problemas, debido a que se formula a partir de criterios distintos. La disputa entre las posiciones del internismo y el externismo por lo que respecta a la cuestión de la justificación y el conocimiento desbordaría así los moldes del conflicto esbozado. De este modo, una teoría de la justificación sería internista si y solo si exigiera que todos los elementos necesarios para la justificación epistémica de una creencia fuesen cognitivamente accesibles al sujeto; y externista si al menos algunos de los elementos necesarios para la justificación no fuesen accesibles de ese modo, de forma que pudieran ser externos a la perspectiva cognitiva del sujeto conocedor. Así, el fiabilismo y algunos fundacionismos serían externistas, mientras que el coherentismo y otros fundacionismos serían internistas. De cualquier manera tampoco estas posiciones se encontrarían libres de cuestionamientos y ya en la década de los 90, de acuerdo con las compiladoras del volumen que reseñamos a partir de un conocido artículo de Sosa, “La balsa y la pirámide: coherencia versus fundamentos en la teoría del conocimiento”, se habría propuesto una teoría de la justificación de las creencias basada en la idea de virtudes intelectuales. Dos serían las principales versiones de tal teoría, la más reciente y última contemplada por las editoras, una de corte fiabilista y otra de tipo responsabilista. De acuerdo con la primera, liderada por Sosa, las facultades epistémicamente virtuosas serían aquellas capacidades cognitivas del sujeto que podemos considerar fiables, al modo en que nos indicaba Goldman en relación con los procesos. En lo que respecta a la segunda, que se reclama más decididamente aristotélica, y encabeza Code, cabe decir que las virtudes intelectuales serían ciertos rasgos del carácter de una persona, como de manera destacada la responsabilidad epistémica. En suma, la cuestión de la justificación sería uno de los ejes centrales de la actual teoría del conocimiento, especialmente desde que la tradicional definición tripartita del mismo fuera retada de manera aparentemente insalvable mediante lo que se conoce como el problema Gettier en 1963 (Gettier 1974). Ocuparse, pues, del estudio de la justificación y sus problemas en la tradición analítica resultaría ser uno de los asuntos principales de la epistemología contemporánea. Ya se lo advertía Sócrates a Menón, las creencias verdaderas que no se atan mediante razonamientos escapan como las míticas estatuas de Dédalo, que de tan reales finalmente se ponían a caminar. Hace falta, pues, una atadura que las obligue a quedarse en su sitio, y ésta, en el caso de

190

Revista Colombiana de Filosofía de la Ciencia 14.29 (2014 julio-diciembre): 187-191


Teorías contemporáneas de la justificación epistémica. Volumen I: teorías de la justificación en la epistemología analítica

la epistemología, sería la justificación, que convierte las creencias verdaderas en conocimiento. En ese sentido, el libro editado por García, Eraña y King Dávalos, que recoge y traduce algunos de los estudios clave sobre la justificación de la segunda mitad del siglo XX debe figurar como lectura obligatoria para cualquier interesado en el tema del conocimiento en una de las tradiciones filosóficas más importantes del siglo XX, la analítica.

Trabajos citados Aristóteles. Tratados de lógica. México: Porrua, 2004. Bosanquet, B. Implication and Linear Inference. London: MacMillan, 1920. Bradley, F. Essays on Truth and Reality. Oxford: Clarendon Press, 1914. Gettier, E. ¿Es conocimiento la creencia verdadera justificada? En A. Phillips Griffiths (ed.). Conocimiento y Creencia. México: FCE, 1974, 221-224. Haack, S. Evidencia e investigación. Hacia la reconstrucción en epistemología. Madrid: Tecnos, 1997. Kropp, G. Teoría del conocimiento. México: Uteha, 1961. Rorty, R. La filosofía y el espejo de la naturaleza. Madrid: Cátedra, 2001. Vaihinger, H. Über den Ürsprung der Wortes “Erkenntnistheorie”. Philosophische Monatshefte, 12 (1876), 84-90. Vicente Raga Rosaleny Instituto de Filosofía Universidad de Antioquia Medellín, Colombia Correo electrónico: vicente.raga@udea.edu.co

191



Indicaciones para los autores

La Revista Colombiana de Filosofía de la Ciencia es una publicación académica dedicada a la filosofía de la ciencia y a sus campos afines (lógica, epistemología, ciencias cognitivas, filosofía de la tecnología, filosofía del lenguaje) y, en general, a los temas y problemas que ponen en diálogo a las ciencias con la filosofía. En ocasiones se editan números monográficos sobre autores o temas puntuales. La revista recibe contribuciones en forma de artículos originales y reseñas de libros en español, portugués, francés e inglés. Todas las colaboraciones serán evaluadas por un árbitro de manera anónima y el autor recibirá una respuesta en un lapso no mayor a 90 días. Se entiende que los autores autorizan a la revista la publicación de los textos aceptados en formato impreso y digital. Todas las contribuciones han de ser enviadas en formato doc, docx, o rtf por correo electrónico a la dirección revistafilosofiaciencia@unbosque.edu.co, y han de cumplir con las siguientes condiciones:

A rtículos • El texto ha de ser original e inédito y no se ha de encontrar en proceso de evaluación para su publicación por ninguna otra revista académica. • Se ha de enviar el artículo en un archivo, en versión anónima y cuidando que las notas a pie de página, agradecimientos o referencias internas en el texto no revelen la identidad de su autor. En un archivo aparte se ha de enviar el título del artículo, el nombre del autor, su afiliación institucional y sus datos de contacto (dirección de correspondencia, correo electrónico y teléfono). • El artículo debe venir precedido de un resumen en su idioma original que no exceda las 100 palabras, y 5 palabras clave. Se han de incluir también las traducciones al inglés del título del artículo, el resumen y las palabras clave.


Indicaciones para los autores

• La lista de trabajos citados ha de estar al final del artículo y ha de cumplir con el sistema MLA de la citación para el área de filosofía (http://www. mla.org/style). • Las referencias bibliográficas han de incorporarse al texto y no en las notas al pie de página (las notas a pie de página han de restringirse así a aquellas que contengan información sustantiva), de la siguiente manera: (Autor, página). En caso de que haya más de una obra del autor en la bibliografía, se ha de agregar el año de la obra: (Autor, año, página). • Las citas textuales de más de cinco líneas han de ubicarse en párrafo aparte con sangría de 0,5 cms. a margen derecho e izquierdo, y no han de estar entrecomilladas. Las citas de extensión menor no requieren párrafo aparte y han de venir entrecomilladas. • La extensión máxima de los artículos es de 15.000 palabras.

R eseñas bibliográficas • Se recibirán únicamente reseñas sobre libros publicados recientemente (cuya fecha de publicación no exceda los últimos dos años). • Las reseñas han de cumplir con las mismas condiciones para la citación, notas al pie y referencias bibliográficas ya especificadas para los artículos. • La extensión máxima de las reseñas es 2.500 palabras. Los autores de artículos y reseñas que sean publicados en la revista recibirán dos ejemplares de la misma.

194


Instructions for authors

The Revista Colombiana de Filosofía de la Ciencia is an academic journal published by the Humanities Department of the Universidad El Bosque, mainly devoted to the Philosophy of Science and their related fields (Epistemology, Logic, Cognitive Science, Philosophy of Technology, Philosophy of Language) and, in general, the topics and problems that generate dialogue between philosophy and science, whether pure sciences, applied, social or human. Sometimes issues are published on specific topics or authors. The journal receives submissions in the form of original articles and book reviews in Spanish, Portuguese, French and English. Submissions received will be considered by the editorial committee for publication, verifying that they fit their own areas of the journal; after receipt they will be evaluated by an anonymous expert referee and the author will receive a response within a period not exceeding 90 days. It is understood that the authors authorize publication of accepted texts in print and digital. All submissions must be sent in Word, docx or rtf format, and emailed to the address revistafilosofiaciencia@unbosque.edu.co, and they must meet the following conditions:

A rticles • The text must be original, unpublished and should not be under evaluation for publication by any other journal. • The author must send the manuscript in a file, in anonymous version and making sure that the footnotes, acknowledgments and internal references in the text does not reveal the identity of its author. In a separate file, the author must include: the article title, author’s name, institutional affiliation and contact information (mailing address, email and phone). • The paper must be preceded by a summary in the original language that does not exceed 100 words and 5 keywords. It should also include the English translations of the article title, abstract and keywords (or the Spanish translation, if the original language of the article is English).


Instructions for authors

• The complete list of works cited must be at the end of the article and must comply with the MLA citation system for the area of philosophy ​​ (http:// www.mla.org/style). • References must be incorporated into the text and not in footnotes (the footnotes have to be restricted to those that contain substantive information), as follows: (Author page). If there is more than one work by the same author in the bibliography, in the reference must be added the year of the work: (Author year page). • Quotations of more than five lines must be placed in a separate paragraph indented 0.5 cm to left and right margins, and don’t need quotations marks. The quotations of minor extension don’t require a separate paragraph. • The maximum length of articles is 15,000 words.

Book reviews • It will be received only reviews of recently published books (whose publication date must not to exceed two years). • The review must meet the same conditions for the citation, footnotes and list of works cited for articles already specified. • The maximum length of the reviews is 2,500 words. The authors of articles and reviews published in the journal will receive two copies of it.

196



Artículos La noción de poder causal. Consecuencias de diferentes teorías modales y causales José Tomás Alvarado (Chile)

Las bases epistemológicas de la ciencia moderna convencional Luis Fernando Gómez & Leonardo Ríos (Colombia)

La explicación en ciencias sociales: argumento de la complejidad de los fenómenos y el materialismo histórico Alfonso Pizarro (Chile)

¿Qué es un sistema complejo? Carlos Maldonado (Colombia)

Neuronas espejo y simpatía en Adam Smith: comparación de dos perspectivas sobre la empatía, frente al reduccionismo científico Beatriz Shand (Chile)

Racionalidad y elección de teorías: una aproximación a Howard Sankey Pablo Melogno (Uruguay)

Palabra y concepto: acercamiento a un eliminativismo conceptual en ciencia cognitiva Pablo Andrés Contreras (Chile)

Simbiosis y evolución: un análisis de las implicaciones evolutivas de la simbiosis en la obra de Lynn Margulis Nicolás Lavagnino, Alicia Massarini & Guillermo Folguera (Argentina)

Reseña Teorías contemporáneas de la justificación epistémica. Volumen I: teorías de la justificación en la epistemología analítica García, Claudia Lorena; Eraña, Ángeles; King Dávalos, Patricia (eds.) Vicente Raga Rosaleny (Colombia)

Indicaciones para los autores Instructions for authors


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.