Vol. XII No. 25 • 2012 julio-diciembre ISSN 0124 - 4620
Revista Colombiana de
FILOSOFÍA DE LA CIENCIA
PROGRAMA DE FILOSOFÍA
Revista Colombiana de
FILOSOFÍA DE LA CIENCIA PROGRAMA DE FILOSOFÍA
Indexada en Philosopher’s Index Red de revistas científicas de América Latina y el Caribe, España y Portugual (RedALyC)
PROGRAMA DE FILOSOFÍA
©Revista Colombiana de Filosofía de la Ciencia ISSN: 0124-4620 Volumen XII No. 25 2012 julio-diciembre Editor Edgar Eslava, Universidad El Bosque Editor asistente Alejandro Farieta, Universidad El Bosque Comité editorial William Duica, Universidad Nacional de Colombia. Laura Gómez, Universidad del Valle. Camilo Ordóñez, Flor Emilce Cely, Universidad El Bosque Comité científico José Luis Villaveces, Universidad Nacional de Colombia. Eugenio Andrade, Universidad Nacional de Colombia. Rafael Alemañ, Universidad Miguel Hernández, España. Nicolas Rescher, Universidad de Pittsburg, EU. Eduardo Flichmann, Universidad de Buenos Aires, Argentina. Alfredo Marcos, Universidad de Valladolid, España Fundador Carlos Eduardo Maldonado, Universidad El Bosque Solicitud de canje Universidad El Bosque, Biblioteca – Canje, Bogotá - Cundinamarca Colombia, biblioteca@unbosque.edu.co Suscripción anual Colombia: $20.000. Latinoamérica: US$20. Otros países: US$40 Correspondencia e información Universidad El Bosque, Departamento de Humanidades, Cra. 7B # 132-11, Tel. (57-1) 258 81 48, revistafilosofiaciencia@unbosque.edu.co Tarifa postal reducida No. 2012-280, 4-72 la Red Postal de Colombia. Vence 31 de diciembre de 2012 UNIVERSIDAD EL BOSQUE Rector Carlos Felipe Escobar Roa, MS, MD Vicerrector Académico Miguel Ruíz Rubiano, MEd.,MD Vicerrector Administrativo Rafael Sánchez París, MBA, MD Directora del Departamento de Humanidades Ana Isabel Mendieta Directora del Programa de Filosofía Flor Emilce Cely Corrección de estilo Martha Moreno Concepto, diseño, diagramación y cubierta Centro de Diseño y Comunicación; Facultad de Diseño, Imagen y Comunicación; Universidad El Bosque. Impresión Editorial Kimpres Ltda.
Contenido Algunas reflexiones de Paul Karl Feyerabend en torno a los supuestos metafísicos del principio de complementariedad de Bohr: un aporte a la cuestión ciencia-metafísica Teresa Gargiulo
7
Sobre el discurso tecnológico de la modernidad Germán Carvajal
37
Realismo pitagórico y realismo cantoriano en la física cuántica no relativista Rafael Andrés Alemañ Berenguer
61
Los problemas de la filosofía kripkeana: la crítica a la autoidentificación de los objetos Juan José Colomina Almiñana Vicente Raga Rosaleny
83
La experimentación y su rol epistémico en la ecología: el caso de la ecología del paisaje Federico di Pasquo Guillermo Folguera
99
Indicaciones para los autores
121
Instructions for authors
123
A lgunas reflexiones de Paul K arl Feyerabend en torno a los supuestos metafísicos del principio
Bohr: un aporte a la cuestión ciencia-metafísica 1
de complementariedad de
Some reflections of Paul K arl Feyerabend on the metaphysical presupositions of Bohr’s complementariety rrinciple: a contribution to the question science-metaphysics Teresa Gargiulo2
R esumen Paul Feyerabend revela los supuestos metafísicos implícitos en el principio de complementariedad de Niels Bohr. Advierte la necesidad de examinar racionalmente estos supuestos para evitar que estos degeneren en dogmas que imposibiliten el progreso de la teoría cuántica. El artículo tiene como objeto mostrar cómo, a partir de la crítica y análisis de estos supuestos ontológicos, este filósofo comienza a bosquejar su pluralismo teórico, el cual, en última instancia, constituye un modelo de ciencia donde la reflexión metafísica no solo tiene un importante papel precientífico, sino que es en ella misma donde se resuelve el curso de la actividad científica. Creemos que el pluralismo epistemológico, lejos de destruir la ciencia y promover el irracionalismo que habitualmente se le atribuye, nos señala una posible y auténtica solución al problema de la relación ciencia-metafísica. Palabras clave: Feyerabend, metafísica, relación ciencia-metafísica, principio de complementariedad, Niels Bohr
A bstract Paul Feyerabend reveals the metaphysical assumptions implicit in the principle of complementarity of Niels Bohr. He notes the need to examine rationally these assumptions in order to prevent them from degenerating into dogmas that obstruct the progress of quantum theory. The objective of the article is showing how from the criticism of the ontological assumptions of the principle of complementarity our philosopher begins to draft his theoretical pluralism and, in definitively, a model of science where metaphysical reflection not only plays an important pre-scientific role, but is in itself where resolves the course of scientific activity. We think that epistemologist pluralism, far from destroy the science and promote the irrationalism which habitually adjudge itself, indicate us a possible and authentic solution to the science-metaphysics relationship problem. Keywords: Feyerabend, metaphysics, science-metaphysics relationship, principle of complementarity, Niels Bohr 1 Recibido: 12 de marzo de 2012. Aceptado: 8 de agosto de 2012. 2 Universidad Nacional de Cuyo; Mendoza – Argentina; CONICET. Correo electrónico: gargiulomteresa@ yahoo.com.ar.
Gargiulo, Teresa
1. Introducción No es fácil enunciar de un modo claro y sintético el principio de complementariedad. Ni el mismo Bohr parece haber ofrecido tal definición. Feyerabend advierte que una de las razonas de “la persistencia de la fe en la complementariedad, a despecho de todas las objeciones decisivas, es debida a la vaguedad de las afirmaciones fundamentales de este principio” (1962, 193)3. El principio en cuestión se refiere esencialmente a la descripción de los fenómenos cuánticos. A la hora de explicar el comportamiento del mundo subatómico bajo determinadas circunstancias experimentales parece ser necesario recurrir tanto al modelo corpuscular como al modelo ondulatorio. En el ámbito de la física clásica, uno y otro modelo son descripciones que se presentan como mutuamente excluyentes. Se trata de dos imágenes clásicamente incompatibles que no pueden utilizarse de manera simultánea pues mientras un corpúsculo es una partícula pequeña en extensión con una localización exacta en el espacio y una velocidad bien definida, una onda se encuentra extendida en el espacio a una velocidad incierta. La imagen corpuscular y la imagen ondulatoria presentan determinados atributos que aparecen como contrapuestos dentro de un esquema interpretativo clásico. Para superar esta dificultad, Bohr sostiene que estas imágenes no son más que “idealizaciones” o “abstracciones” limitadas y parciales del dominio microfísico. De ahí que para ser aplicadas correctamente en el nuevo dominio experimental sea necesario restringir su campo de aplicación mediante ciertas condiciones suplementarias. En primer lugar, toda experiencia física, las condiciones experimentales o los resultados de las observaciones deben ser descritos en términos clásicos puesto que son las únicas nociones que disponemos. Además, los aparatos de medición de los que nos valemos son macroscópicos. En segundo lugar, las imágenes de onda y corpúsculo solo pueden ser aplicadas a los fenómenos microfísicos de un modo meramente instrumental. No son más que herramientas cuya función es proporcionar predicciones del comportamiento corpuscular. Ellas no intentan describir la naturaleza de los fenómenos sino explicar y predecir única y exclusivamente el comportamiento de los mismos bajo determinadas circunstancias experimentales ([1962] 1981 n. 61, 321-2; [1958] 1981, 23; 1958, 90-2 y 96). 3 Intentaremos exponer brevemente el principio de complementariedad, no en la formulación original de Bohr, sino tal como Paul Feyerabend accedió a su comprensión. Dejaremos para posteriores estudios la cuestión de si su concepción es fiel o no al pensamiento del físico. Incluso las citas explícitas de N. Bohr serán interpretadas a la luz de los artículos de Feyerabend.
[8]
Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 7-36
Algunas reflexiones de Paul Karl Feyerabend . . .
Finalmente, los conceptos o imágenes de onda y corpúsculo no se aplican al fenómeno subatómico en sí sino a la entera disposición experimental, la cual incluye el fenómeno, el instrumento de medición y las circunstancias particulares en las que se realiza la experimentación ([1968] 1981, 290). O, siendo aún más exactos, deberíamos decir que Bohr entiende por fenómeno las observaciones obtenidas por el aparato de medición en circunstancias específicas, incluida una explicación completa de todo el experimento (1958, 93-4). De aquí, entonces, la necesidad de destacar el carácter relacional de los estados de descripción, es decir, de restringir la aplicación de todo resultado, observación o conjunto de conceptos a un dominio experimental determinado ([1962] 1981, 317). Tal es la unidad de este “bloque indivisible” que un mismo fenómeno, sometido a distintas condiciones experimentales, arrojará resultados distintos. Bohr considera que aún cuando los conceptos clásicos de corpúsculo y de onda sean opuestos, corresponden a dos posibles comportamientos del mismo sistema cuántico, lo cual da origen a su principio de complementariedad. Este postula que los modelos corpuscular y ondulatorio son complementarios, necesarios para elaborar un esquema que explique el comportamiento de los fenómenos subatómicos. Estos no solo permiten sintetizar y unificar los fenómenos subatómicos de un modo económico sino, y sobre todo, establecer estos fenómenos experimentalmente (1958, 82; [1962] 1981, 316 y 323). El modelo corpuscular permite explicar ciertos hechos del fenómeno subatómico, mientras que el ondulatorio se refiere a los hechos faltantes. Ambos modelos proporcionan una descripción completa del dominio cuántico. Los datos obtenidos en estas nuevas situaciones experimentales no pueden recogerse en una única imagen o modelo. En su obra El cuanto y la vida (1965), el físico escribe: Debemos estar preparados, afirma, frente al hecho de que datos obtenidos mediante dispositivos experimentales mutuamente excluyentes (como aquellos que se emplean para determinar posición e impulso) pueden mostrar contrastes hasta ahora no observados, e incluso aparecer contradictorios a primera vista. Es precisamente en esta situación en la que se recurre a la noción de complementariedad, para elaborar un esquema suficientemente amplio que proporcione la explicación de las regularidades fundamentales que no pueden ser incluidas en una descripción única (Bohr ctd. en Agazzi, 1978, 311-2).
El principio de complementariedad de Bohr es un dispositivo que intenta ofrecer una imagen consistente y exhaustiva del comportamiento de los sistemas microfísicos (Feyerabend, 1958, 75). Sostiene la mutua conciliabilidad de los conceptos clásicos en el universo de los microobjetos. Describe el
[9]
Gargiulo, Teresa
modo en el cual los conceptos clásicos aparecen dentro del esquema predictivo de la mecánica cuántica (1958, 94). En el ámbito cuántico pasan a ser dos imágenes, complementarias la una con la otra; dos imágenes características de la mecánica cuántica elemental y de toda teoría futura del nivel microscópico. Pues bien, el filósofo vienés demuestra que Bohr para dar fuerza y credibilidad a sus ideas físicas las incorpora dentro de un sistema filosófico (ontológico). En esta misma dirección se ha encaminado también —según él— lo que conocemos como la “interpretación de Copenhague”, la cual no es más que una gran variedad de interpretaciones, incluso antagónicas, que intentan imponer su credo filosófico a los descubrimientos físicos. Heisenberg y von Weizsaecker, por ejemplo, presentan sus hallazgos dentro de una metafísica kantiana y Rosenfeld lo hace en el marco de un materialismo dialéctico. Bohr, por su parte, critica estas perspectivas por no adecuarse a su propio punto de vista ([1962] 1981, 313). Feyerabend asegura que el principio de complementariedad de Niels Bohr se basa efectivamente en premisas empíricas, a saber: en las leyes de conservación, en la existencia de la acción del cuanto, en su carácter corpuscular y ondulatorio; pero ante todo se funda en premisas que no son empíricas ni matemáticas y que propiamente deben ser designadas como metafísicas (1958, 75; [1962] 1981, 314-5). Así, por ejemplo, la elección de una metodología inductivista por parte de Bohr, el carácter instrumental que concede a las imágenes de onda y corpúsculo como modelos que permiten explicar de manera alternativa el comportamiento corpuscular, su insistencia en la imposibilidad de acceder a formas perceptivas e instrumentos distintos a los de la física clásica, revelan a nuestro epistemólogo la presencia de supuestos metafísicos en el interior del quehacer científico del físico. Todo esto lo lleva a afirmar que la validez del principio de complementariedad depende completamente de la validez de dichas premisas filosóficas: In his analysis of physical conceptions, Bohr is guided by two philosophical ideas which are so simple and at the same time so general that physicists either tend to regard them as obvious, or overlook them altogether. Yet the validity of Bohr’s approach completely depends upon the validity of these two ideas (1958, 81).
Feyerabend explica que, desde una concepción positivista, muchos físicos ignoran o rechazan explícitamente el carácter especulativo o metafísico del principio de complementariedad y postulan, en consecuencia, su validez absoluta y definitiva (1957, 356). Un caso ilustrativo es Rosenfeld, quien asegura que apelar a preconcepciones metafísicas para fundar la validez de este prin-
[10] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 7-36
Algunas reflexiones de Paul Karl Feyerabend . . .
cipio físico sería un procedimiento no científico ([1962] 1981, 316). Frente a ello, el filósofo devela los supuestos metafísicos implícitos en el principio de complementariedad, mostrando así la incoherencia del positivismo postulado por Rosenfeld y otros seguidores de Bohr. Tal principio, argumenta, no se sostendría sin un bagaje filosófico específico: For as is well known it has been attempted, both by Bohr, and by some other members of the Copenhagen circle, to give greater credibility to these ideas by incorporating them into a whole philosophical (ontological) system that comprises physics, biology, psychology, sociology and perhaps even ethics. Now the attempt to relate physical ideas to a more general background and the correlated attempt to make them intuitively plausible is by no means to be underestimated. Quite the contrary, it is to be welcomed that these physicists undertook the arduous task to adapt also more general philosophical notions to two physical ideas which have some very radical implications. However, the philosophical backing of physical ideas that emerged from these more general investigations has led to a situation that is by no means desirable. It has led to the belief in the uniqueness and the absolute validity of both of Bohr’s assumptions. . . . Today this dogmatic philosophical attitude with respect to fundamentals seems to be fairly widespread ([1962] 1981, 312-3; 1966, 416-7; 1958, 80).
En su artículo “Complementarity II”, Mackay sostiene una tesis diametralmente opuesta a la de Feyerabend; afirma que la asociación del principio de complementariedad, por ejemplo, a una metafísica positivista, aunque históricamente entendible, es lógicamente accidental y secundaria (Mackay 1958, 105). Para sustentar lo anterior, muestra que es contradictorio asignar una frecuencia exacta a una onda. La frecuencia es definida como el número de frecuencias por segundo de una simple función de onda, la cual se extiende de modo uniforme hacia el infinito. Ahora bien, cuanto más corta es la duración de la interrupción de oscilaciones (más precisamente está localizada en el tiempo), más amplio es el rango de frecuencias. Por el contrario, cuanto más estrecho es el rango de frecuencias de una interrupción de oscilaciones, más larga va a ser su duración. Luego, no podemos definir a la vez la duración o la frecuencia exacta de una onda. Se trata de dos imágenes complementarias. Esto es una realidad lógica, no física (1958, 107-8): un mismo fenómeno, en este caso una frecuencia de onda, puede ser objeto de dos descripciones exhaustivas, que hacen diferentes aserciones, en términos de conceptos diferentes cuyas precondiciones de uso son mutuamente excluyentes (1958, 118). La complementariedad microfísica —concluye Mackay— constituye solo un caso particular de complementariedad lógica entre las descripciones de una función en cuanto a tiempo y frecuencia espacial (1958, 121).
[11]
Gargiulo, Teresa
Esta posición de Mackay no es sino una renovada presentación del dogmatismo que pretende combatir Feyerabend. Postular una complementariedad lógica entre dos imágenes opuestas con el fin de superar una contradicción lógica (y ontológica) equivale a comprometerse con supuestos metafísicos que evidentemente son desconocidos para Mackay. Para superar la contradicción lógica de atribuir a un mismo fenómeno una naturaleza corpuscular y ondulatoria, nos vemos obligados a adjudicarles a estas imágenes un valor meramente instrumental. Mackay adhiere, aunque de un modo implícito e inconsciente y por ende dogmático, a una filosofía empirista e instrumentalista, para las cuales explicar un fenómeno equivale a incorporarlo dentro de un esquema predictivo exitoso. Este requisito parece cumplirlo, según él, satisfactoriamente el principio de complementariedad. Al desconocer los supuestos que validan el principio de complementariedad, Mackay incurre en importantes confusiones. Por ejemplo, cuando ignora el carácter meramente instrumental que Bohr concede a su principio de complementariedad, no alcanza a entender la necesidad del pluralismo teórico que plantea Feyerabend. Mackay afirma que este niega el rostro de la realidad cuando se propone presentar teorías alternativas al principio de complementariedad: hacerlo significaría para él evadir lo que la misma realidad nos muestra (1958, 113-4). Ahora bien, lo que le podríamos responderle es que justamente el problema radica en comprender qué es lo que nos está mostrando la realidad. Mackay es un claro ejemplo de la miopía y el deslumbramiento de los físicos ante las correctas predicciones inferidas del principio de complementariedad, que ciertamente no encontramos en Bohr, ni mucho menos en Feyerabend. Feyerabend rechaza con insistencia el modo acrítico e ingenuo que tienen los físicos de aceptar una determinada ontología, con la consideración explícita o implícita de que otras alternativas son simplemente contranaturales (1958, 21; 1966, 416-7). Con el propósito de superar estas filosofías parásitas, Feyerabend se ocupa, en gran número y variedad de artículos entre los años de 1950 y 1960, de criticar y examinar de manera detallada los supuestos metafísicos del principio físico y de considerar teorías ontológicas alternativas. Tal reflexión, según él, facilitaría una potencial liberación de la actitud dogmática en la que quedo encerrada, por ejemplo, la interpretación de Copenhague ([1958] 1981, 22; 1958, 86). El epistemólogo insiste una y otra vez, con respecto al problema de la interpretación de la teoría cuántica, en que no habrá progreso hasta que no exista una verdadera discusión filosófica en torno a sus supuestos metafísicos. No se avanzará hasta tanto sus argumentos dogmáticos sean remplazados por argumentos realmente dialécticos, hasta que la atención en la sofisticada
[12] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 7-36
Algunas reflexiones de Paul Karl Feyerabend . . .
formulación matemática se dirija hacia los problemas filosóficos fundamentales (1968, 309). El pensamiento de nuestro filósofo vienés ha sido objeto de abundantes incomprensiones. De hecho, se conoce, sobre todo, o en el peor de los casos exclusivamente, por sus virulentas e irreverentes denuncias contra la ciencia. Esto lo ha llevado a ser acusado de irracionalista (Watkins en ctd en Preston, Munévar y Lamb, 2000, 49) o de ser “el peor enemigo de la ciencia” (Theocharis y Mihalis, 1987, 598). Pero se desconoce, en cambio, su verdadero propósito: Feyerabend no lucha contra la ciencia misma, sino contra un modelo restrictivo de ciencia. En su lugar propone una ciencia más humana, es decir, una ciencia donde la especulación metafísica y la actividad científica constituyan un único cuerpo de conocimiento, integrado en la entera vida del hombre. Nuestra intención en este artículo es mostrar cómo, a partir de la crítica a los supuestos ontológicos del principio de complementariedad, Feyerabend comienza a bosquejar su pluralismo epistemológico. Aunque en un comienzo lo presenta como un método, termina concibiéndolo, después de 1975, como un modelo de ciencia donde la reflexión metafísica no solo tiene un importante papel precientífico, sino que ella es el gozne alrededor del cual gira la entera actividad científica. Él destaca que si la reflexión metafísica determina el método, los instrumentos, la selección de evidencia, el significado de los términos, etc. de una teoría, ella no queda limitada a una instancia previa a la actividad científica, sino que se constituye en una de las actividades medulares del quehacer científico. Contra las creencias de muchos de sus físicos coetáneos, Feyerabend prueba que las teorías físicas no son solo determinadas por los hechos sino que la especulación metafísica desempeña en ellas un rol realmente importante. Refuta así la falsa distinción entre ciencia y metafísica, y muestra que esta última es imprescindible para que la ciencia recupere su auténtico valor descriptivo. Para explicar esto estudiaremos, en primer lugar, cómo a partir del análisis y la crítica del primer supuesto del principio de complementariedad, Feyerabend entrevé la necesidad de su pluralismo teórico donde la metafísica se presenta como fuente y posibilidad de superar las formas perceptivas clásicas. En segundo, expondremos que concibe la metafísica como una vía superadora del carácter estrictamente instrumental que posee la teoría cuántica. Este punto exige considerar su discusión con Popper y el caso del movimiento browniano, de tal modo que pueda entreverse la naturaleza de su pluralismo y su estrecho vínculo con el análisis metafísico del principio de complementariedad. Finalmente, y ya a modo de conclusión, ofreceremos algunas razones
[13]
Gargiulo, Teresa
por las cuales creemos que Feyerabend en sus últimas obras señala una posible y auténtica solución al problema de la relación ciencia-metafísica.
2. L a metafísica como fuente y posibilidad de superar las formas perceptivas clásicas
Uno de los supuestos sobre los que se funda el principio de complementariedad —según Feyerabend— indica que todo resultado experimental o conocimiento no puede ser sino expresado en los términos de la física clásica ([1958] 1981, 22-3; 1958, 81-2). Las categorías propias de la física clásica, según Bohr, influyen de tal modo en nuestros procedimientos experimentales y aún en nuestras “formas de percepción” que nos resulta cada vez más difícil imaginar una alternativa diferente para explicar los fenómenos físicos. El hombre parecería estar, según él, determinado a aprehender la evidencia tal como lo postula la física clásica. Esta imposibilidad de encontrar un nuevo esquema conceptual, señala Feyerabend en “Complementarity” (1958), no ha sido demostrada por la misma física, sino que se apoya en el hecho de que tal esquema no clásico estaría en conflicto con la conciencia positivista de Bohr (1958, 80). Los límites de la capacidad humana no se deben ni a la falta de imaginación, ni a las precarias habilidades que les impedirían a los físicos ir más allá de las ideas clásicas, sino a una decisión metafísica, más o menos consciente, de no ir más allá de lo que es dado en la experiencia (1958, 87). Feyerabend ubica la filosofía de Bohr dentro un tipo específico de positivismo. Al respecto, advierte que el físico se aleja de la concepción positivista habitual según la cual las experiencias sensibles por sí mismas no poseen ninguna propiedad formal; estas consistirían en simples elementos desorganizados, tales como las sensaciones de color, de tacto, etc. Bohr, en cambio, insiste en que nuestras experiencias están organizadas por las “categorías” o “formas de percepción” de la física clásica y que no pueden existir sin estas formas. Este carácter insustituible que concede a las nociones clásicas hace que, según Feyerabend, Bohr permanezca dentro de un positivismo, aunque de un orden más elevado (1958, 81-2). El positivismo postula que solo podemos inventar aquellas teorías que son sugeridas por nuestras observaciones. Ahora bien, nuestras formas de percepción, nuestros modos de aprehender la experiencia, según el Bohr, son clásicos. No disponemos de otro modelo intuitivo, de otro modo de visualizar la experiencia sino es en los términos propios de la física clásica. Luego una imagen no clásica de los fenómenos subatómicos sería
[14] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 7-36
Algunas reflexiones de Paul Karl Feyerabend . . .
—desde esta concepción metafísica— psicológicamente imposible ([1962] 1981, 320). Según la teoría pragmática, la significación de un término o una expresión está determinada por su uso ([1958] 1981, 21). El esquema conceptual que se emplea con frecuencia para la explicación y predicción de los hechos corresponde al esquema de la física clásica. Esta determina nuestro lenguaje, nuestras experimentaciones e incluso nuestras formas de percepción. Es un esquema conceptual universal donde ningún hecho puede quedar fuera de su dominio de aplicación. En consecuencia, la invención de un nuevo aparato conceptual es imposible ([1962] 1981, 324). Una imagen no clásica sería, además de psicológicamente imposible, lógicamente absurda ([1958] 1981, 23). En “Hidden Variables and the Argument of Einstein, Podoslky and Rosen”, Feyerabend insiste en que la imposibilidad que ve Bohr en crear imágenes no clásicas es de carácter lógico y no sociológico; aunque esta vez en oposición a la opinión de Heisenberg y von Weizsaecker, quienes afirman que introducir conceptos no clásicos sería prácticamente imposible debido a la costumbre de la mayoría de los físicos contemporáneos de utilizar el lenguaje de la física clásica como lenguaje observacional ([1962] 1981, p.322. nota nº 62). Bohr niega que alguna vez sea posible inventar una teoría universal que trascienda el ámbito clásico. Señala que existen límites en la capacidad humana para crear conceptos distintos a los propios de la física clásica y que sería erróneo creer que las dificultades de la teoría atómica podrían ser superadas remplazando eventualmente los conceptos de la física clásica por nuevas formas conceptuales (Feyerabend, 1958, 85; [1960] 1981, 222). Es en estas afirmaciones de Bohr donde Feyerabend entrevé el peligro de que las teorías o principios se constituyan en dogmatismos irrefutables. Pero en “Complementarity” (1958) constata una apreciable diferencia entre Bohr y la “interpretación de Copenhague”. En esta última, la transición al positivismo es un hecho simplemente dado por supuesto, y se es por completo inconsciente del cambio que supone este contexto filosófico. Bohr, en cambio, a pesar de la vaguedad de sus escritos que pueden llevarnos con facilidad a interpretar una aceptación acrítica del positivismo, ofrece algunos argumentos a favor del mismo. Tres años más tarde, en su artículo “Professor Bhom´s philosophy of nature” (1960) Feyerabend advierte, gracias a la lectura de Causality and Chance in Modern Physics de Bhom (1957), que tales argumentos y justificaciones son insuficientes para fundamentar la validez de su principio. Son circulares. Dentro del principio de complementariedad no hay hecho o evidencia (que al
[15]
Gargiulo, Teresa
menos desde él pueda concebirse) fuera del dominio de su aplicación. Todo fenómeno será explicado conforme a este, por lo cual, lógicamente, no encontraremos evidencia capaz de cuestionarlo o de sugerir una nueva teoría, pues desde el principio se moldea y organiza de tal modo la evidencia que no existen hechos que sean capaces de refutarlo. Ni la experiencia, ni el formalismo matemático nos ayudan a elegir entre este y otra teoría empíricamente exitosa. El principio de complementariedad no es más que una posición metafísica que solo puede ser defendida por argumentos plausibles ([1960] 1981, 223). Feyerabend contempla la posibilidad de que el principio de complementariedad sea interpretado como una imagen intuitiva y un principio heurístico que admite la existencia de otras teorías alternativas satisfactorias. No obstante, atendiendo a las afirmaciones explícitas —arriba citadas— de Bohr, se ve forzado a acusar al físico de caer en un dogmatismo, pues el principio de complementariedad parece ser entendido por su autor como un principio filosófico básico cuya absoluta validez lo torna inmune a toda refutación e incapaz de ser remplazado por una teoría superior ([1960] 1981, 221-2). Más tarde, en 1968, en su artículo “Niels Bohr´s World View”, Feyerabend corrige tal acusación. Aquí afirma que Bohr era consciente del carácter meramente instrumental del principio de complementariedad. Estaba muy dispuesto a admitir la necesidad de nuevas teorías alternativas del nivel microfísico que permitieran un entendimiento más profundo del comportamiento microfísico ([1968] 1981, 278-9). Aquí Feyerabend presenta el principio de complementariedad no como un dogmatismo filosófico sino más bien como una hipótesis física. Es evidente que Bohr tenía algunas razones filosóficas —provistas por una metafísica materialista— para esperar que esta hipótesis fuera verdadera. Pero esta filosofía no le impidió explorar otras alternativas. Fue justamente la consideración y refutación de estas alternativas —tal como Feyerabend lo muestra en la sección 5 de este artículo— lo que lo condujo a sus ideas originales y lo convenció de la corrección y validez de su perspectiva filosófica ([1968] 1981, 281 y p. 273, nota nº 59). La consideración de otras alternativas libera a Bohr del peligro de convertir el principio de complementariedad en una “inarticulada fe filosófica” ([1968] 1981, 281). Sin embargo, aquella primera acusación a Bohr de mantener una actitud dogmática le permitió a Feyerabend entender la necesidad de su proliferación teórica en cuanto que esta permitiría evitar que el quehacer científico se viera obstaculizado por la aceptación acrítica de ciertos dogmas metafísicos. En “Complementarity” (1958), Feyerabend utiliza la noción de inconmensurabilidad —aunque no el término mismo— para criticar el “conservadurismo
[16] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 7-36
Algunas reflexiones de Paul Karl Feyerabend . . .
conceptual” del físico. Allí sostiene que Bohr, en cuanto postula que la conducta de los fenómenos cuánticos debe ser expresada necesariamente en los términos propios de la física clásica, impide el desarrollo de nuevos términos incompatibles (o inconmensurables) en lo conceptual con los imperantes (1958, 81). Al respecto, el epistemólogo demuestra que podrían ser inventados conceptos no clásicos completamente nuevos siempre que existan imágenes abstractas del mundo (metafísicas o de otro tipo) que pueden convertirse en teorías físicas. Ilustrar esto con una lectura particular de la historia de la ciencia: asegura que una mitología universal fue remplazada por la física aristotélica y a esta última le sucedieron la física de Galileo, la de Newton y la de Einstein. En la transición entre estas teorías surgieron términos o nociones que no son meras derivaciones o modificaciones de las nociones que lo preceden. Se trata de categorías del todo nuevas que no guardan ninguna relación lógica con las categorías que las anteceden. Pues bien, los conceptos propios de la física clásica también podrían ser remplazados un día por un nuevo esquema conceptual. Después de todo, la distancia que existe entre un esquema conceptual clásico y uno no clásico no es mayor que la distancia que existió entre la concepción física de Aristóteles y la de Galileo ([1958] 1981, 24; [1962] 1981, 323-5). Ahora bien, el filósofo vienés advierte que estas nuevas interpretaciones o teorías alternativas no pueden emerger de la cerrada atención a los “hechos”, pues en una teoría siempre existe el peligro de que se seleccionen solo aquellos datos o resultados que la confirman y que a la vez se rechacen todos aquellos que no puedan acomodarse a ella. Una teoría científica puede disponer la evidencia empírica de tal modo que su punto de vista quede reforzado y constituirse así en una verdad absoluta con un pobre contenido empírico que modela a su antojo. La teoría se torna un círculo vicioso, herméticamente cerrado, donde la realidad no puede mostrar otra cosa que lo que ella quiera hacerle decir ([1965] 1981, 107-8). Se sigue entonces que necesitamos una fuente no observacional para las interpretaciones. Tal fuente es provista por la especulación (metafísica) —asegura Feyerabend— ([1958] 1981, 31). La metafísica nos provee de la libertad necesaria para crear nuevos conceptos inconmensurables, los cuales develarían, en este caso, que el carácter absoluto y definitivo concedido al principio de complementariedad no ha sido más que un dogmatismo que ha entorpecido el progreso de las teorías microscópicas. En “Linguistic Arguments and Scientific Method”, explica que solo mediante la invención y consideración de teorías alternativas que contradicen al menos alguno de los principios del punto de vista aceptado será posible obtener nuevos hechos, y así aumentar el contenido empírico de la ciencia. Mientras que la proliferación teórica satis-
[17]
Gargiulo, Teresa
face esta exigencia del empirismo, un conservadurismo conceptual conduce a un estancamiento del progreso de la ciencia y a una consecuente crisis de los ideales del positivismo ([1969] 1981, 157). Por medio de una reducción al absurdo, el epistemólogo ataca el conservadurismo conceptual supuesto en el principio de complementariedad y muestra que este es incompatible con la doctrina positivista adoptada por el físico. La mecánica cuántica no es una teoría en el sentido clásico. Se trata más bien, tal como reconoce Bohr, de una herramienta que permite predecir el comportamiento de los fenómenos cuánticos pero es incapaz de describir aspectos esenciales de dichos fenómenos y, por ende, de incrementar el contenido de la física, requisito esencial del empirismo (1958, 91-2). Ronald Laymon en su artículo “Brownian Motion, and the Hiddenness of Refuting Facts” acusa paradójicamente a Feyerabend de positivista en cuanto que el único criterio que ofrece para elegir entre teorías alternativas es el aumento de contenido empírico, ideal propio del positivismo. If this is Feyerabend’s position then it is not incompatible with the positivism that he attacks since his position (on this interpretation) reduces to the trivial advice to pick the theory that explains the most (1977, 229).
Nélida Gentile formula un razonamiento análogo en su artículo “El camino de Feyerabend: crítica, proliferación y realismo” donde propone que los ideales del positivismo parecen animar tanto el realismo conjetural como el pluralismo metodológico de Feyerabend (2007, 101). Probablemente la confusión de Laymon y Gentile se debe a desconocer uno de los recursos habituales que emplea Feyerabend para mostrar la inconsistencia de la tesis que ataca, es decir, el uso de los razonamientos por reducción al absurdo. Eric Oberheim y Paul Hoyningen subrayan la dificultad que existe para poder determinar en un argumento los elementos con los cuales Feyerabend se compromete justamente por el uso de tal recurso (2000, 369). Nuestro filósofo asume el ideal del positivismo, a saber, el aumento de contenido de la ciencia, pero no porque esté comprometido con él, sino para realizar una crítica inmanente al positivismo de Bohr que podríamos sintetizar del siguiente modo: no se puede sostener un positivismo y, al mismo tiempo, el principio de aumento de contenido. Si queremos que la ciencia progrese, en lugar del positivismo, debemos asumir un pluralismo metodológico. Si queremos alcanzar los objetivos propios del positivismo (aumento de contenido), entonces Bohr debería estar dispuesto a abandonar su conservadurismo
[18] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 7-36
Algunas reflexiones de Paul Karl Feyerabend . . .
conceptual y a revalorizar la metafísica como fuente y posibilidad de concretar un pluralismo teórico.
3. L a metafísica como vía superadora del carácter instrumental de la teoría cuántica
Otro de los supuestos metafísico que anima al principio de complementariedad es aquel que indica que los conceptos de la física clásica cuando se aplican al ámbito subatómico poseen un valor estrictamente instrumental. Bohr enfatiza en que su principio de complementariedad carece de todo valor descriptivo y no configura un nuevo proyecto conceptual (Feyerabend, 1968, 277-8). Por el contrario, este constituye solo un sistema axiomático, una formalización matemática que aún no ha sido interpretada. Las imágenes antagónicas de “onda” y “partícula” pierden en la teoría cuántica algunas de sus propiedades intuitivas esenciales, como son su velocidad bien determinada o su exacta localización en el espacio. Pierden, en definitiva, su contenido descriptivo, su significación física para convertirse en meros símbolos o herramientas que nos permiten predecir el comportamiento de los microobjetos. En su artículo “Niels Bohr´s World View”, Feyerabend analiza in extenso este aspecto. Muestra que en efecto la teoría cuántica tal como es postulada por el principio de complementariedad no ofrece una descripción de los fenómenos cuánticos, simplemente predice con relativa exactitud su comportamiento. El método usado, por ejemplo, para la determinación de un estado estacionario es de una naturaleza formal; nos da números pero no nos permite decir qué proceso particular objetivo es responsable de la aparición de estos números (1968, 278). En “Hidden Variables and the Argument of Einstein, Podolsky and Rosen”, presenta la paradoja que implica este supuesto. A saber, quizás ninguna otra teoría en la historia de la física haya dispuesto a su favor el inmenso caudal de material observacional y operaciones matemáticas, como lo ha hecho la física cuántica. No obstante, aún permanece confusa la verdadera entidad y naturaleza de su objeto ([1962] 1981, 341). Aún cuando el principio de complementariedad se apoye en observaciones, experimentaciones y un formalismo matemático, no podemos estar seguros de si estamos tratando con situaciones imaginarias o con fenómenos reales. Lo único que podemos llegar a determinar es en qué medida los fenómenos cuánticos no son una onda y en qué medida no son un corpúsculo. En pocas palabras, no sabemos de qué estamos hablando o con qué objetos estamos tratando. Estamos obligados, por ende, a
[19]
Gargiulo, Teresa
mantener siempre en mente la aplicación restringida de la física cuántica y por ende a abstenernos en ella de toda inferencia ontológica ([1968] 1981, 278), o de toda pretensión realista (1958, 92; [1960] 1981, 220-1). La “generalización racional de la mecánica clásica” no admite una interpretación realista de ninguno de sus términos: ni de aquellos propios de la física clásica ni de aquellos que han sido introducidos con el propósito explícito de aplicar los primeros. Esto no deber ser entendido, según Bohr, como una maniobra filosófica que ha sido intencionadamente superpuesta sobre la teoría cuántica. Más bien, es una exigencia que se presenta desde el origen de dicha teoría ([1962] 1981, 322, nota nº 61)4. En oposición a Schrödinger, Bohr sostiene que las leyes de la física cuántica no pueden ser consideradas reglas o nociones que describen las características universales de un mundo diferente al de la física clásica. La física cuántica no es más que una formalización matemática con gran éxito predictivo y capaz de establecer cierto orden en la constante acumulación de material empírico. No ofrece una comprensión teórica de los fenómenos cuánticos y en cuanto tal no constituye propiamente una teoría ([1968] 1981, 277). El principio de complementariedad es incapaz de proveer a la física cuántica una referencia ontológica pues su objetivo no es la construcción de una nueva teoría física acerca del mundo que existe independientemente de las mediciones y observaciones. Por el contrario, este se limita a ofrecer una maquinaria lógica o un conjunto de relaciones formales que, utilizando partes de la física clásica, permite inferir predicciones correctas ([1960] 1981, 220-1). La formalidad matemática por sí misma no siempre refleja de manera adecuada la naturaleza de los fenómenos físicos. Bohr destaca las abstracciones extremas que deben ser hechas en la electrodinámica cuántica para describir los observables, enfatizando así la distancia que existe entre el formalismo y los hechos que se intentan representar ([1968] 1981, 275-276). Bohr entiende su principio como un esquema predictivo. Pero, para Feyerabend, de esto no se sigue que abandone o rechace de una vez para siempre el ideal de una explicación realista, es decir, la posibilidad de que la teoría cuántica sea subsumida en una teoría general cuyos conceptos sean aplicables de forma universal (1958, 88). El físico teme que la formalización matemática pueda oscurecer el núcleo de los problemas físicos de la teoría cuántica, y está 4 Aquí Feyerabend objeta que la teoría cuántica fue creada por Schrödinger, quien la interpretaba desde una óptica realista. Es decir, históricamente, esta teoría nació en el marco de una metafísica del todo opuesta a la perspectiva de Niels Bohr y de sus discípulos. La escuela de Copenhague nunca produjo una teoría, solo interpretó la mecánica de Schrödinger desde una perspectiva positivista.
[20] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 7-36
Algunas reflexiones de Paul Karl Feyerabend . . .
absolutamente convencido de que esta formalización matemática debería estar precedida por una completa explicación física (1968, 321). Don Howard sostiene que Bohr no deja de conceder un sustrato real a los fenómenos cuánticos, aunque destaca que no puede describirlos como una “realidad independiente”. El objeto observado y el aparato de medición constituyen un par indisoluble tal que no pueden ser distinguidos como realidades separadas. El énfasis lo pone en la palara “independiente” y no en la palabra “realidad”. Luego Bohr no sostiene el antirealismo que a menudo se le atribuye (Howard 2004, 671). Evidentemente Howard, aunque acierta al destacar la inevitable interacción y unidad entre los objetos y los instrumentos de medición señalada por Bohr, desconoce la oposición del físico a otorgar un contenido real a los resultados de estas agencias de observación. Estas nos permiten, según él, predecir el comportamiento de los fenómenos pero nada nos dicen acerca de la naturaleza de sus resultados; no sabemos con qué estamos tratando. En definitiva, no podemos adjudicar un realismo efectivo al principio de complementariedad sino más bien tendencial o hipotético en cuanto que, según Bohr, podría algún día ser objeto de una interpretación realista. Este escepticismo respecto al contenido ontológico de su principio de complementariedad revela la preocupación metafísica de Bohr. La conciencia de las limitaciones de su propio modelo atómico pone de manifiesto la naturaleza metafísica de su lectura. Según Feyerabend, la crítica de Bohr es epistemológica, no física en el sentido tradicional de la palabra. Bohr supera la actitud propia de un físico-matemático que se contenta con lo formalmente satisfactorio y ecuaciones fácticamente adecuadas. Posee la actitud propia de un filósofo que mira más allá del éxito y descubre la necesidad de un sentido de la perspectiva, aun en vista de las confirmaciones más sorprendentes. El mismo estilo de los artículos de Bohr manifiesta, según el epistemólogo, este sentido de la perspectiva. En ellos aborda los problemas físicos dentro de un marco histórico: presenta los estudios precedentes sobre el tema, el estado actual del conocimiento y sugiere el posible curso de las investigaciones futuras. Convierte en objeto de sus críticas filosóficas el éxito predictivo de las teorías sorprendiendo así a los físicos entusiasmados ([1968] 1981, 272-4). Para el físico, todas las teorías científicas, junto con sus problemas técnicos, están siempre relacionadas con perspectivas filosóficas. Sin ellas, asegura, no se podría resolver sus problemas ni podríamos tener una mínima idea de lo que estos significan o hacia donde nos conducen ([1968] 1981, 271).
[21]
Gargiulo, Teresa
Este método de investigación de Bohr es evidentemente imitado por Feyerabend en su posterior crítica a los supuestos metafísicos del principio de complementariedad. Si a la hora de comprender o resolver el más mínimo problema empírico o técnico es necesario recurrir a la perspectiva filosófica que funda su significado y existencia, luego el sentido e incluso validez del principio de complementariedad dependerán también de los supuestos metafísicos que lo sustentan. A esta última tarea se abocó nuestro epistemólogo por estos años. En resumen, Bohr reconoce que su principio de complementariedad no ofrece ningún modelo descriptivo de la realidad sino un puro sistema axiomático que nos permite predecir el comportamiento de los fenómenos cuánticos. Por ende, es consciente de la necesidad de elaborar teorías que precedan absolutamente la formulación matemática y que sean capaces de facilitarnos un entendimiento más profundo de la naturaleza de los microprocesos (1968, 321). No obstante, subraya también —animado por un conservadurismo conceptual— que tales teorías serán formuladas necesariamente en los términos propios de la física clásica ([1968] 1981, 278-9). Feyerabend adhiere a la interpretación de Bohr, pero su novedad radica en que presenta la metafísica como la vía por la cual la física cuántica podría adquirir un verdadero fundamento teórico. La metafísica, según él, es la única fuente de nuevas teorías o descripciones hipotéticas acerca de la estructura y naturaleza del mundo físico. Y por tanto solo ella es capaz de conceder a la estructura formal de la teoría cuántica una interpretación que le confiera una referencia física. No es la experimentación empírica la que ofrecerá teorías alternativas a la física clásica. Estas podrían ser suministradas exclusivamente por la metafísica. Solo en la medida en que dispongamos de “imágenes abstractas del mundo (metafísicas o de otro tipo)” (1958, 86), podremos obtener un esquema conceptual distinto al que nos sugiere la experiencia y así superar los dogmatismos a los que nos puede conducir la sola lectura y consideración de la experiencia facilitada por la física clásica. En este sentido, el epistemólogo se opone y supera la exigencia del físico según la cual las nuevas teorías del dominio atómico deberían corresponder con las formas de percepción propias de la física clásica. En su artículo “Complementarity”, muestra que este conservadurismo conceptual conduce a un estancamiento del progreso científico. Si respetamos la exigencia de Bohr, la física clásica incidiría de tal modo en nuestras percepciones, en nuestras ideas, en nuestro lenguaje, en nuestros métodos, en nuestros modos de seleccionar y disponer la evidencia que naturalmente llegaría un punto en que la experiencia se tornaría incapaz de sugerir nuevas teorías (1958, 85-6). La física
[22] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 7-36
Algunas reflexiones de Paul Karl Feyerabend . . .
clásica se constituiría en dogma y esto implicaría el fin de la ciencia como una empresa racional. La aplicación del ideal positivista conduce a un estancamiento de la ciencia. Para evitarlo, Feyerabend propone un pluralismo teórico, un procedimiento realista que alienta el progreso científico en todas las direcciones racionales posibles. Solamente la invención de un nuevo conjunto de ideas las cuales audazmente se opongan a las apariencias y creencias comunes y las cuales intenten explicar a ambas de un modo profundo, podría luego conducirnos a un progreso adicional y permitir una argumentación racional. Esto muestra la conexión cercana que existe entre lo que ha sido llamado el ideal clásico o realismo por un lado, y el progreso científico por el otro (1958, 103-4).
Para Feyerabend, la eliminación de la misma doctrina inductivista y el regreso al modo clásico de explicación permitiría nuevos progresos en la ciencia (1958, 92), y en este caso, facilitaría una interpretación ontológica de la teoría cuántica. Por modelo clásico de explicación, Feyerabend entiende un ideal de conocimiento estrechamente conectado al realismo. Este exige la verificación de dos condiciones. En primer lugar, la teoría debe ser empíricamente adecuada; en este caso, debe explicar de modo completo y exhaustivo todos los comportamientos cuánticos que se abordan mediante la imagen corpuscular y la ondulatoria. En segundo lugar, la teoría debe ser universal, es decir, debe ser de tal forma que nos permita decir qué es la luz y no describir simplemente cómo la luz aparece bajo diversas condiciones (1958, 78, 80). Quizás sea necesario reiterar que Bohr no se opone al ideal clásico de explicación; es más, está en verdad preocupado por el desarrollo de un nuevo modelo de explicación por el cual podamos entender la naturaleza de los fenómenos microscópicos (1958, 80). No es este el blanco de la crítica de Feyerabend sino el hecho de haber impuesto las categorías propias de la física clásica como límite infranqueable a la hora de crear nuevas teorías. En este punto, tal como se manifiesta en el artículo “Professor Bhom´s Philosophy of Nature”, la postura de Feyerabend encuentra una mayor afinidad con Bhom, que sugiere elaborar un aparato conceptual nuevo por completo, el cual ya no haría uso de las ideas clásicas. Este esquema en su origen sería “extrafísico” en cuanto no sería susceptible de ser comprobado por los métodos disponibles hasta ese momento. La misma historia de la investigación científica, según Bhom, está llena de ejemplos que muestran lo fructífero que es aceptar que ciertos objetos y elementos podrían ser reales, mucho antes que
[23]
Gargiulo, Teresa
cualquier procedimiento conocido pueda observarlos directamente ([1960] 1981, 225; 1961, 365)5. Feyerabend, en su artículo “Realism and Instrumentalism: Comments on the Logic of Factual Support”, muestra ser consciente de las dificultades e inconsistencias que crecen alrededor del intento de acceder a una interpretación realista de la mecánica cuántica. Expone, por ejemplo, las inconsistencias que se derivan de Broglie y Schrödinger quienes intentaron desarrollar una teoría completamente nueva para describir la naturaleza y el comportamiento de los sistemas cuánticos. Ellos rechazaron la hipótesis de los estados indefinidos de descripción señalando que esta simplemente es consecuencia del carácter incompleto de la teoría cuántica postulada por Bohr, sobre todo del carácter estadístico de su teoría. En su lugar, propusieron que las entidades microfísicas tienen un estado bien definido. Feyerabend muestra que tal interpretación realista, aparte de no tener ningún hecho experimental que la sostenga, hasta aquel entonces era inconsistente con observaciones y leyes físicas bien confirmadas. El epistemólogo vienés nos advierte que no se trata solo de estar a favor de una interpretación realista de la mecánica cuántica. El instrumentalismo o el realismo de la teoría cuántica no es una posición filosófica que pueda ser discutida mediante argumentos generales. Nos previene de la ingenuidad de llevar a cabo el siguiente razonamiento: el instrumentalismo de la teoría cuántica es un resultado del positivismo; el positivismo es falso; luego debemos interpretar la teoría cuántica de un modo realista. El razonamiento es confuso: por interpretar las ecuaciones matemáticas o los resultados estadísticos de un modo realista no por ello estos adquieren inmediatamente una implicancia ontológica. Tal interpretación solo sería un prejuicio filosófico, un dogmatismo. El razonamiento, además, no solo sería confuso sino también irrelevante porque con él no se avanzaría un solo paso hacia la resolución del problema de la interpretación de la física cuántica ([1964] 1981, 193). Estos argumentos epistemológicos no refutan, ni tocan en absoluto los argumentos desarrollados por los físicos. Crean o contribuyen a “una muy indeseable escisión entre la física y la filosofía” ([1964] 1981, 185). Mientras los físicos apelan a su favor innumerables y fructíferos experimentos, los filósofos realistas desarrollan argumentos abstractos que en absoluto refutan el mérito de aquellos (1981, 4). 5 También el método de Einstein, según Feyerabend, está mucho más preparado que la interpretación de Copenhague para inventar visiones extremas y hacer de hechos aislados el punto de partida de una nueva visión del mundo (1966, 416).
[24] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 7-36
Algunas reflexiones de Paul Karl Feyerabend . . .
Ni uno ni otro invalidan el punto de vista que cuestionan. Se trata de dos cosmovisiones inconmensurables sin ningún puente de diálogo o comunicación. La discusión entre los físicos y los filósofos retrocede sin llegar a ningún lado. Frente a esto, Feyerabend afirma que es imperativo evitar los círculos viciosos de este tipo y atacar el instrumentalismo donde este parece ser más fuerte, es decir, refutar los resultados fácticos específicos que lo confirman ([1964] 1981, 186). Es necesario desarrollar una teoría con tal grado de detalle que pueda a la vez ofrecer una explicación alternativa de todos los experimentos cuánticos desarrollados hasta ahora y mostrar que los resultados experimentales obtenidos no son estrictamente válidos. No solo es necesario elaborar una nueva teoría de los fenómenos cuánticos con implicancias ontológicas, sino también demostrar que la misma es experimentalmente tan valiosa como la teoría que ha sido usada hasta el presente. En este sentido, Feyerabend señala a Einstein como un verdadero ejemplo del realismo científico que produce descubrimientos y contribuye con el desarrollo de la ciencia. Einstein inició interesantes desarrollos teóricos y además supo proporcionar delicados experimentos que clarificaban conceptos básicos de la teoría cuántica (1981, 4). Diseñó experimentos cruciales que reforzaban una interpretación realista de la física cuántica y refutaban el núcleo de la visión instrumentalista. Esta es una formidable tarea que, según el vienés, no ha sido aún reconocía por los campeones puramente filosóficos del realismo en microfísica ([1964] 1981, 193-4). Hasta que esta nueva teoría pueda ser construida acabadamente, según él, estaríamos obligados a adoptar frente a la mecánica cuántica un instrumentalismo, es decir, estaríamos obligados a reconocer que solo disponemos de un esquema predictivo de los fenómenos cuánticos. Los estados indefinidos de descripción, la naturaleza dual (ondulatoria y corpuscular) de los fenómenos cuánticos, las leyes de interferencia, y la validez individual de las leyes de conservación son, hasta el momento, la única explicación satisfactoria que aboga a favor del carácter instrumental de la teoría cuántica. El problema radica en lo que la teoría cuántica realmente es; y atendiendo a esto, Feyerabend asiente a la conciencia realista de Bohr por la cual advierte que lo único que poseemos hasta el momento es una mera formalización matemática ([1964] 1981, 195-6). Con lo explicado hasta aquí, podemos entender la crítica que Feyerabend dirige a Popper en su artículo “Niels Bohr´s World View” (1968). Popper, en la primera página de su ensayo “Tres visiones del conocimiento”, observa que en el estado presente de la ciencia no parece posible evitar el carácter formal
[25]
Gargiulo, Teresa
de la teoría cuántica; y en esto coincide con la opinión de Bohr. No obstante, advierte Feyerabend, su maestro parece no tener en cuenta tal observación cuando elabora y propone su interpretación metafísica de la propensión y continúa creyendo en la corrección de esta microfilosofía ([1968] 1981, 279-280). Popper da por sentada, sin ningún debate adicional, la posibilidad de hacer inferencias ontológicas a partir de los resultados estadísticos en los que se expresan los comportamientos cuánticos. Ante la constatación de que la física clásica no nos ofrece un cuadro de la realidad sino un mero aparato de predicción de los microobjetos y al quedar rechazado el programa de Faraday-Einstein-Schrödinger, Popper se propone elaborar una interpretación realista de la probabilidad. Su intención es solventar la falta de una interpretación física de la teoría cuántica con la proposición de otro programa, el que designa programa metafísico de la interpretación de la propensión. Lo concibe como un “programa de investigación” en cuanto incorpora una idea general de lo que habría de ser una solución satisfactoria de los problemas. Y “metafísico” porque ofrece una visión general de la estructura del mundo y de la situación de la cosmología física. Según esta imagen, todas las propiedades físicas del mundo no son más que propensiones, posibilidades o potencialidades. El cambio no es más que la actualización o realización de estas potencialidades. Una vez que estas se han actualizados se crea una nueva situación que da lugar a un nuevo conjunto de potencialidades. Obtenemos así un cuadro del mundo que es a la vez dualístico y monístico. Es dualístico en cuanto las potencialidades son potencialidades solo relativas a sus posibles realizaciones o actualizaciones; es monístico porque las realizaciones o actualizaciones no solo determinan las potencialidades, sino que debe decirse que son potencialidades ellas mismas. (Pero quizá lo podríamos evitar diciendo que son “nada más” que potencialidades). De este modo, Popper describe el comportamiento de los cuantos como propensiones hacia el cambio. Aunque estas propensiones no establecen en general los cambios futuros, sí pueden determinar, al menos, las distribuciones de probabilidad (Popper, 1982, 159-160). Popper establece que la teoría cuántica es en esencia estadística o probabilística y a partir de allí elabora su programa de interpretación del mundo con la pretensión de que sea universalmente válido. Pero Feyerabend señala que este es uno de los puntos en discusión, a saber, si la teoría cuántica es puramente estadística o las probabilidades que arrojan las estadísticas obedecen a leyes en sí mismas no estadísticas. Popper no contempla esta segunda alternativa ([1968] 1981, 261-2).
[26] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 7-36
Algunas reflexiones de Paul Karl Feyerabend . . .
El blanco de la crítica de Feyerabend estriba en mostrar que, aún dando por supuesto que se trata de una teoría estadística, podemos inferir que esta funciona pero no podemos esbozar ninguna inferencia acerca de las propiedades individuales de los fenómenos, eventos o proceso cuánticos. Lo único que nos muestra son los valores esperados que estos elementos tienen bajo ciertas condiciones bien definidas. Respecto a los experimentos subatómicos, existen al menos dos alternativas: (1) los elementos poseen sus valores bien definidos antes que descubramos las condiciones experimentales; (2) los elementos no poseen sus valores antes de descubrir las condiciones relevantes, sino que son transformadas por las condiciones (por la medición) en un estado que contiene estos valores de una manera bien definida. A pesar del gran éxito empírico de la interpretación estadística, esta no nos provee de ningún elemento —afirma Feyerabend— para decidir entre (1) y (2). Las estadísticas de muertes no nos permiten esbozar ninguna conclusión respecto al modo en que estas han ocurrido, ni nos permiten inferir si los seres humanos son o no entidades cuyos rasgos son independientes de la observación ([1968] 1981, 286-7). No obstante, Popper en un acto de “ingenuidad infantil” ([1968] 1981, 294, n. 100) —escribe Feyerabend— establece de modo a priori, sin justificación alguna, que una partícula elemental posee un valor bien definido en oposición a todas las pruebas existentes a favor del carácter relacional de las magnitudes dinámicas, pues los elementos que son objeto de las predicciones estadísticas deben tener prácticamente todas las propiedades de una partícula clásica. Para Popper, las propiedades dinámicas deben ser definidas con una precisión mucho mayor a las incertidumbres de Heisenberg. Ahora, esto solo es posible si suponemos que las mediciones no introducen nuevas condiciones. Popper también da por aceptada tal suposición. Todo esto lleva a Feyerabend a juzgar como inválido y definitivamente falso el programa de interpretación de Popper ([1968] 1981, 287-8). Este constituye un claro ejemplo de las ingenuas pretensiones realistas que describimos más arriba. Feyerabend hace notar, además, en una nota que introduce en 1980 en el artículo “Niels Bohr´s World View” que la teoría de la propensión fue introducida por Bohr mucho antes que Popper empezara a pensar en ella ([1968] 1981, 294, nota nº 100). Aún más, afirma que es mucho más rico el principio de complementariedad que la teoría de la propensión de Popper pues esta última simplemente dice que las probabilidades cambian una vez que modifican las condiciones. La complementariedad nos permite ver cómo las propensiones pueden ser incorporadas dentro de la teoría cuántica, y nos informa qué propiedades están relacionadas con determinadas disposiciones experimen-
[27]
Gargiulo, Teresa
tales y cómo estas se modifican en resencia de fuerzas o de otros procesos compatibles con las condiciones de su aplicación ([1968] 1981, 290). Feyerabend está lejos de simplificar ingenuamente la tarea de lograr una interpretación realista de la mecánica cuántica, tal como ya hemos explicado. Atendiendo a las dificultades y obstáculos que aquella presenta, parece haber ido gestando su pluralismo teórico como un modo que permite remover y superar tales problemas. Este permite obtener nueva evidencia que de otro modo sería imposible disponer, así como mostrar las dificultades y anomalías de las teorías imperantes. El caso de las predicciones del comportamiento estadístico del movimiento browniano parece ser un ejemplo paradigmático al que se refiere insistentemente Feyerabend para mostrar la necesidad y eficacia de su pluralismo teórico. En su artículo “Problems of Empiricism” (1965), asegura que hubiera sido imposible descubrir de una manera directa la inconsistencia entre el comportamiento de la partícula browniana y la segunda ley de la termodinámica clásica. Afirma que para ello sería necesario, en primer lugar, medir el movimiento exacto de la partícula para determinar el cambio de energía cinética más la energía gastada en superar la resistencia del fluido; y, en segundo lugar, medir con precisión la temperatura y el calor transferido al entorno para determinar que cualquier pérdida ocurrida aquí está compensada por el aumento de energía de la partícula en movimiento y el trabajo hecho contra el fluido. Tales mediciones están más allá de las posibilidades experimentales de la teoría termodinámica clásica. No es posible hacer mediciones precisas del calor transferido, ni trazar el camino transcurrido por la partícula con la precisión deseada. De aquí que sea imposible una refutación “directa” de la segunda ley considerando solamente la teoría fenomenológica y el “hecho” del movimiento browniano. Se requiere disponer de una nueva explicación alternativa del calor que sea capaz de facilitar las técnicas de medición necesarias y así poner en evidencia los hechos que cuestionan la teoría termodinámica clásica (1965, 175-6; 1962/1989, 39). Esta necesidad es confirmada por los mismos hechos históricos. En la segunda mitad del siglo XIX Rudolf Clausius, James Clerk Maxwell y Ludwig Boltzmann elaboraron la teoría cinética de los gases aplicando las leyes de la mecánica y del cálculo probabilístico al comportamiento de las moléculas individuales. Cincuenta años más tarde, Einstein hizo uso de ella para calcular las propiedades estadísticas del movimiento de la partícula browniana. Jean Perrin confirmó experimentalmente las predicciones de Einstein mostrando que las partículas son bombardeadas de manera continua por el movimiento
[28] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 7-36
Algunas reflexiones de Paul Karl Feyerabend . . .
de las moléculas en el fluido. Las moléculas de un gas son influidas por la fuerza de atracción de las otras moléculas. Este experimento constituyó un verdadero contraejemplo para la segunda ley de la termodinámica, según la cual, en un estado de equilibrio térmico el calor no puede transformarse completamente en trabajo; si no se realiza trabajo, es imposible transferir calor desde una región de temperatura más baja a una región de temperatura más alta. La experimentación de Perrin solo fue posible una vez se desarrolló la teoría cinética de los gases. Esto confirma que solo es posible obtener nueva evidencia empírica, capaz de refutar una teoría firmemente arraigada, si se proponen y desarrollan nuevas teorías alternativas. Una teoría alternativa no solo provee nuevas observaciones, o nuevos métodos o técnicas de medición, sino que incluso puede informar de significado y sentido a observaciones ya disponibles, tornándolas así capaces de cuestionar la validez de una teoría vigente. Daniel Sirtres y Eric Oberheim en su artículo “Einstein, Entropy and Anomalies” (2006) advierten que las observaciones de las partículas brownianas estaban disponibles mucho antes que Maxwell y Boltzmann desarrollaran la teoría cinética en 1866. Sin embargo, sin las predicciones cuantitativas que luego hizo Einstein basándose en la teoría cinética de los gases, estas observaciones simplemente carecerían de significado y no implicarían refutación alguna a la termodinámica clásica (2006, 1150). La lectura que hace Feyerabend de este caso paradigmático de la historia de la ciencia ha sido objeto de abundante crítica y discusión. Nos detenemos en esta discusión para mostrar con un poco más de detalle la eficacia del pluralismo teórico que Feyerabend elaboro justamente atendiendo a los problemas que presentaba la física cuántica. Ronald Laymon en su artículo “Brownian Motion, and the Hiddenness of Refuting Facts” (1977) argumenta contra Feyerabend que fue posible reconocer el movimiento browniano como algo anómalo, como una contrainstancia de la segunda ley de la termodinámica clásica, incluso sin la ayuda de una teoría alternativa. Laymon basa su tesis en los experimentos de variación concomitante de Gouy y en las afirmaciones de Poincaré. Según Laymon, Gouy concluyó en 1988 con base en los experimentos realizados que la partícula B viola la segunda ley de la termodinámica. La misma conclusión fue compartida por Poincaré, antes que se publicara el artículo de Einstein y se realizaran los experimentos de Perrin (1977, 236-8). Fue el método de las variaciones concomitantes de Gouy en cuanto que muestra que los factores externos no son causantes de las fluctuaciones de temperatura en el fluido, y no una nueva teoría sobre el calor, lo que mostró las dificultades que representaba el movi-
[29]
Gargiulo, Teresa
miento browniano para la segunda ley de la termodinámica. En consecuencia, la defensa de la proliferación teórica que consiste en mostrar que los hechos anómalos no están disponibles en la ausencia de teorías alternativas no se sostiene (1977, 240). Ninguna teoría alternativa es o ha sido históricamente necesaria para justificar las descripciones del movimiento browniano que “directamente” refutan la termodinámica clásica (1977, 255). George Couvalis, en su artículo “Feyerabend and Laymon on Brownian Motion” (1988), refuta esta crítica que Laymon dirige contra Feyerabend. Couvalis corrige a Laymon, quien asegura que Poincaré en 1904 concluyó que la segunda ley de la termodinámica ha sido definitivamente violada. Luego de citar el texto en el que Laymon pretende apoyar dicha afirmación, Couvalis destaca que en tal pasaje Poincaré sostiene que los experimentos llevados a cabo mediante el uso de las variaciones concomitantes suministraron algunos motivos para sospechar de la segunda ley de la termodinámica. Estos motivos se limitan a señalar lo siguiente: si el movimiento browniano no toma prestado nada de las fuentes externas de energía, luego el principio de Carnot (la segunda ley) es violado. Pero en ningún momento Poincaré se compromete o da por resuelto que la ley ha sido efectivamente violada. Por el contrario, Couvalis destaca que cuando consideramos la situación de la física en el tiempo que Poincaré escribió su artículo, advertimos su poco interés por comprometerse con la visión de que la segunda ley de la termodinámica había sido refutada. En pocas palabras, Poincaré en dicho artículo se limita a presentar la necesidad de realizar experimentos adicionales para determinar si el principio de Carnot había sido violado o no (1988, 416-7). Couvalis asegura que las meras dificultades o anomalías —por ejemplo, las que ponen de manifiesto las variaciones concomitantes de Gouy— no pueden invalidar un principio o teoría. Afirma que si aplicáramos este criterio de manera amplia, rechazaríamos automáticamente muchas hipótesis que al ser comprobadas después han significado importantes progresos científicos (1988, 418). Además, los resultados de las variaciones concomitantes de Gouy no necesariamente implicaban la refutación de la segunda ley de la termodinámica. Estos podrían haber sido objeto de una explicación coherente dentro de la misma termodinámica clásica. Couvalis explica que “El método de las variaciones concomitantes podría no haber sido utilizado por sí mismo para refutar la Segunda Ley porque la fuente del movimiento browniano podría haber sido resultado de la acción de una fuente de energía desconocida” (1988, 418). La evidencia que aportan los resultados de las variaciones concomitantes solo podía tener un sentido y valor refutador en el marco de una nueva teoría. Luego la segunda ley de la termodinámica solo podía ser refutada por las
[30] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 7-36
Algunas reflexiones de Paul Karl Feyerabend . . .
predicciones de una teoría rival, tal como la versión de la teoría cinética de Einstein (1988, 418-420). Daniel Sirtres y Eric Oberheim, en el ensayo arriba citado, despejan aún más la discusión al advertir que Gouy era un atomista ferviente; hecho que parece ser desconocido tanto para Laymon como para Couvalis. Gouy compartió las creencias del paradigma atomista y solo por esto le fue posible llegar a la conclusión de que el movimiento browniano refuta la concepción clásica de la segunda ley de la termodinámica. Su confianza en las creencias atomistas le permitió excluir todas las otras posibles explicaciones de las que podían ser objeto los resultados de sus experimentos y reconocer en ellos el potencial refutador de la segunda ley que contenían. Luego, es imposible juzgar los méritos de nuestras teorías sin contrastarlas con teorías alternativas (2006, 1153). Hasta aquí, queda expuesto cómo la gestación del pluralismo teórico responde a la atenta observación que hizo Feyerabend de la práctica científica real, sobre todo en estos años, de las investigaciones en torno a la física cuántica (Feyerabend, 1995, 135).
4. Conclusión Feyerabend descubre en la discusión sobre el principio de complementariedad la presencia e incidencia de los supuestos metafísicos en la práctica científica. En este caso hemos visto cómo el principio de complementariedad exige reconocer la imposibilidad de acceder a formas perceptivas distintas a las de la física clásica, y adjudica un valor instrumental a las imágenes complementarias. Ahora bien, una vez develada la continuidad existente entre filosofía y ciencia, entre estos supuestos filosóficos y la práctica científica del físico, entonces la cuestión que se presenta por resolver es otra: ¿cómo debe participar la metafísica en la ciencia de tal modo que no impida el progreso de la ciencia sino que, por el contrario, lo fecunde? A este interrogante, tal como hemos visto, Feyerabend responde con su pluralismo teórico. El pluralismo teórico que originalmente Feyerabend presenta como un método deviene luego de 1965 en un nuevo modelo de ciencia y racionalidad. En sus primeros artículos, el filósofo vienés presenta su pluralismo como una metodología que debe regir todos los desarrollos científicos. Pero a partir de este año —tal como él mismo confiesa— descubre la pobreza y la ingenuidad de toda filosofía normativa de la ciencia en cuanto que mutila o diluye en un par
[31]
Gargiulo, Teresa
de normas o requisitos metodológicos las vastas posibilidades del movimiento científico ([1978] 1982, 136-7; 1995, 135). A partir de entonces, desiste de su intento por elaborar una epistemología normativa de la ciencia. Feyerabend trasciende la discusión acerca de la relación que cada teoría establece con su método tal como es planteada en el marco de una epistemología normativa y en el de una epistemología descriptiva de la ciencia. Sus críticas y denuncias no tienen como objeto el método en cuanto tal sino la misma noción de ciencia. La cuestión que se le presenta por resolver no es cuál es el método más eficaz o el que emplea habitualmente el científico sino qué es ciencia. Denuncia la filosofía de la ciencia —tal como se desarrolló a lo largo del siglo XX— en cuanto que ha sido incapaz de ofrecernos una clara noción de ciencia. Pues si el método es lo que define a la ciencia en cuanto tal, y vemos que existe una pluralidad de métodos, estamos obligados a admitir que existe una infinidad de modos de entender la ciencia. Nos acercamos así al verdadero sentido de su pluralismo, el cual fue madurando en las sucesivas publicaciones de su Tratado contra el método. A la hora de definir qué es ciencia, Feyerabend muestra histórica y metodológicamente la invalidez del criterio de demarcación. En su pluralismo teórico no presenta la revisión metafísica como una supraciencia, ni una infraciencia. La reflexión filosófica no ocupa en su propuesta un período precientífico, ni consiste en un análisis lógico posterior al conocimiento científico. La Metafísica, entendida como especulación racional, atraviesa la entera actividad científica. Es ella, en todo su rigor, lo que imprime en una teoría el carácter de ciencia. En el mismo momento en que la ciencia pretende conocer y explicar lo real, es metafísica. Para este filósofo no puede haber ciencia sin metafísica. La ciencia por sus mismas exigencias cognoscitivas es metafísica. Ciencia y metafísica se identifican; ambas se embarcan en un único proyecto conceptual. Ambas se funden en un rico repertorio de acciones, percepciones y pensamientos. La reflexión racional y las habilidades observacionales conforman un único arte u oficio (1999, 146). De este modo, Feyerabend supera toda dicotomía ciencia-filosofía para integrarlas, en un sentido estricto, en un único cuerpo de conocimiento. Feyerabend no presenta la metafísica como una disciplina autónoma respecto a la ciencia, cuyos límites puedan ser perfectamente delimitados. La entiende como la cosmovisión que atraviesa el quehacer científico y que conforma una unidad con él. Dicha cosmovisión se concretiza en principios no de una naturaleza concreta y metodológica sino conceptual y ontológica. Se trata de principios intrínsecos a toda teoría científica. Aún más, son el elemento específico que las constituye como tales ([1960] 1981, 42). Feyerabend hablará
[32] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 7-36
Algunas reflexiones de Paul Karl Feyerabend . . .
de teorías científicas en la medida en que estas se constituyan en auténticas “forma de mirar el mundo” o la naturaleza (1962/1989, 40 y 17). En cambio, cuando los modelos científicos no ofrezcan una comprensión teórica de la realidad o del objeto que estudian —como en el caso de del principio de complementariedad de Bohr—, dirá que no pueden ser considerados propiamente como teorías ([1968] 1981, p 277). Atendiendo a una distinción que hace Dilworth, podemos decir que, para Feyerabend, estos principios no constituyen la base o el fundamento de la ciencia sino el núcleo o gozne alrededor del cual gira la entera actividad científica (2006, 4, 54 y 61). Es decir, los principios ontológicos no son verdades generales, evidentes por sí mismas, que se comportan en el cuerpo científico como la base a partir de la cual puedan ser formalmente deducidas las demás verdades empíricas particulares. Estos principios no son meras tesis o sentencias generales acerca de la naturaleza de la realidad, sino que conforman un paradigma conceptual que determina el modo particular de llevar adelante una actividad epistemológica, y de este modo, constituyen el núcleo de la ciencia. En “Límites de la ciencia: explicación, reducción y empirismo” ([1962] 1989), artículo medular de su obra de la década de 1960 por su gran valor sintético, Feyerabend prueba que la ontología informa y organiza la teoría científica no solo evidenciando en ella una visión de la realidad sino también determinando la explicación de los hechos observacionales, definiendo la manera de seleccionar y disponer la evidencia, estableciendo un método, delimitando la significación de los términos teóricos y observacionales, de los principios, leyes e instrumentos de medición ([1962] 1989, 77-8). De este modo, la ontología define en cuanto tal el quehacer científico. Feyerabend revaloriza la reflexión metafísica desde el interior de la misma ciencia. En Provocaciones filosóficas escribe que “una ciencia sin metafísica no podría dar fruto” (1991 [2003], 60). Si concebimos la investigación científica como una disciplina independiente de la metafísica, aquella devendrá en una empresa estéril. Con su habitual uso de los razonamientos por reducción al absurdo, el vienés demuestra que el saber positivo —tal como lo concibe el positivismo lógico— debe asumir la reflexión filosófica si quiere que la ciencia recupere su auténtico valor descriptivo y no degenere en dogmas que entorpezcan el progreso científico. La metafísica permite que los modelos predictivos se traduzcan en verdaderas vías de acceso a la comprensión y entendimiento de lo real. La discusión metafísica en torno a los supuestos de las teorías científicas tiene una central importancia para que aquellos no devengan en dogmas que pueden estar paralizando nuestra posibilidad de comprender la realidad. Mediante el problema de la inconmensurabilidad,
[33]
Gargiulo, Teresa
Feyerabend demuestra que el progreso científico no depende de los datos observacionales, ni de las relaciones lógicas entre las teorías, sino, y sobre todo, de la especulación metafísica. Además, la metafísica contribuye a aumentar el caudal de conocimiento. Feyerabend señala la paradójica situación en la cual el ideal de aumento de contenido propio del positivismo lógico es asequible únicamente mediante la metafísica que pretenden expulsar. El pluralismo teórico hace de la metafísica una auténtico espacio —intrínseco a la misma ciencia— donde se lleva a cabo una reflexión crítica acerca de cada uno de los supuestos y alcances de las teorías científicas, o en este caso, del principio de complementariedad. Feyerabend ha mostrado que todo problema científico es en definitiva un problema metafísico. Ha mostrado que la misma discusión en torno a la interpretación de la física cuántica, entre positivismo y realismo, entre instrumentalismo y realismo, no es “un asunto fáctico que podemos decidir señalando determinadas cosas actualmente existentes, procedimientos, formas de lenguaje, etc., este es un asunto entre diferentes ideales de conocimiento” ([1958] 1981, 33-4). Se trata de dos hipótesis metafísicas que deben ser sometidas a una discusión.
Trabajos citados Agazzi, Evandro. Temas y problemas de filosofía de la física. Barcelona: Herder, 1978. Bohm, David. Causality and Chance in Modern Physics. Pennsylvania: University of Pennsylvania Press, 1957. Couvalis, George. “Feyerabend and Laymon on Brownian Motion”. Philosophy of Science 55.3 (1988): 415-421. Dilworth, Craig. The Metaphysics of Science. An Account of Modern Science in Terms of Principles, Laws and Theories. 2ª ed. Dordrecht: Springer, 2006. Boston Studies in the Philosophy of Science 173. Feyerabend, Paul K. “Reseña de «Foundations of Quantum- Mechanics: A study in Continuity and Symmetry», por A. Landé”. British Journal for the Philosophy of Science 7.28 (1957): 354-7. —. “Complementarity”. Aristotelian Society suplementary volumes 32 (1958): 75-122. —. “An attempt at a realistic interpretation of experience”. 1958. Realism, Rationalism and Scientific Method. Philosophical Papers vol. I. 1981. 17-36.
[34] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 7-36
Algunas reflexiones de Paul Karl Feyerabend . . .
—. “Professor Bhom´s philosophy of nature”. 1960. Realism, Rationalism and Scientific Method. Philosophical Papers vol. I. 1981. 219-35. —. “On the Interpretation of scientific theories”. 1960. Realism, Rationalism and Scientific Method. Philosophical Papers vol. I. 1981. 37-43. —. “Two Letters of Paul Feyerabend to Thomas S. Kuhn on a Draft of the Structure of Scientific Revolutions” 1961. Studies in History and Philosophy of Science Part A 26.3 (1995): 353-87. —. “Problems of Microphysics”. Frontiers of Science and Philosophy. Ed. R. G. Colodny. Pittsburgh: University of Pittsburgh Press, 1962. University of Pittsburgh Series in the Philosophy of Science Volume 1. —. “Hidden variables and the argument of Einstein, Podolsky and Rosen”. 1962. Realism, Rationalism and Scientific Method. Philosophical Papers vol. I. 1981. 298-342. —. Límites de la ciencia. Explicación, reducción y empirismo. Trad. Ana Carmen Pérez Salvador & María del Mar Seguí. Barcelona: Paidós, 1989. Trad. de “Explanation, Reduction, and Empiricism”. Scientific Explanation, Space & Time. Ed. Herbert Feigl & Grover Maxwell. Minnesota Studies in the Philosophy of Science 3 (1962): 28-97. —. “Realism and Instrumentalism: Comments on the Logic of Factual Support”. 1964. Realism, Rationalism and Scientific Method. Philosophical Papers vol. I. 1981. 176-202. —. “Reply to criticism. Comments on Smart, Sellars and Putnam”. 1965. Realism, Rationalism and Scientific Method. Philosophical Papers vol. I. 1981. 104-131. —. “Dialectical Materialism and the Quantum Theory”. Slavic Review 25.3 (1966): 414-17. —. Problems of Empiricism. In Beyond the Edge of Certainty. Ed. R. Colodny. Pittsburg: University of Pittsburg, 1965. —. “On a Recent Critique of Complementarity: Part I”. Philosophy of Science 35.4 (1968): 309-31. —. “Niels Bohr´s world view”. 1968. Realism, rationalism and scientific method. Philosophical Papers vol. I. 1981. 247-97. —. “Linguistic arguments and scientific method”. 1969. Realism, rationalism and scientific method. Philosophical Papers vol. I. 1981. 146-60.
[35]
Gargiulo, Teresa
—. La ciencia en una sociedad libre. Trad. Alberto Elena. Madrid: Siglo XXI, [1978] 1982. —. Realism, Rationalism and Scientific Method. Philosophical Papers vol. I. Cambridge: Cambridge University Press, 1981. —. Matando el tiempo. Autobiografía. Trad. Fabián Chueca. Madrid: Debate, 1995. —. Ambigüedad y armonía. Trad. Antoni Beltrán y José Romo. Barcelona: Paidós, 1999. —. Provocaciones filosóficas. Introd., trad., Ed. Ana P. Estevez Fernanadex. Madrid: Editorial Biblioteca Nueva, [1991] 2003. Gentile, Nélida. “El camino de Feyerabend: crítica, proliferación y realismo”. Filosofía Unisinos 8.2 (2007): 109-127. Howard, Don. “Who Invented the «Copenhagen Interpretation»? A Study in Mythology”. Philosophy of Science 71.5 (2004): 669-82. Laymon, Ronald. “Feyerabend, Brownian Motion, and the Hiddenness of Refuting Facts”. Philosophy of Science 44.2 (1977): 225-47. Mackay, Donald M. “Complementarity II”. Proceedings of the Aristotelian Society. Supplementary Volumes 32 (1958): 105-22. Oberheim, Eric & Hoyningen-Huene, Paul. “Feyerabend´s Early Philosophy”. Essay Review. Studies in History and Philosophy of Science 31.2 (2000): 363-75. Popper, Karl R. Quantum Theory and the Schismo in Physics. Londres: Hutchinson, 1982. Preston, John, Gonzalo Munévar y Lamb, David. Eds. The Worst Enemy of Science? Essays in memory of Paul Feyerabend. New York-Oxford: Oxford University Press, 2000. Sirtres D. & E. Oberheim. “Einstein, Entropy and Anomalies”. Albert Einstein Century International Conference. Aip Conference Proceedings. Ed. J. M. Alimi & A. Füzfa. American Institute of Physics. 861 (2006): 1147-1154. Theocharis, Theo & Psimopoulis, Mihalis. “Where Science Has Gone Wrong”. Nature 329.6140 (1987): 595-598.
[36] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 7-36
Sobre el discurso tecnológico de la modernidad On the modernity ’s technological speech1 Germán Carvajal2
R esumen Este escrito es un ensayo para comprender el concepto de tecnología no en el sentido tradicional relativo al instrumento, sino en el sentido de un tipo de discurso a partir del cual se organiza y legitima un determinado campo técnico. El ensayo comienza examinando brevemente las tendencias en los discursos sobre la tecnología para evidenciar su proclividad a identificarla con el campo instrumental. Esta tendencia se denominará “tecnología imaginaria”. Posteriormente, el texto se remite a los orígenes griegos antiguos del término para obtener allí unas notas objetivas del concepto que permitirán interpretarlo como discurso sobre la técnica. En la siguiente sección se muestra que estas notas siguen vigentes en los discursos modernos sobre la técnica, en relación tanto con la ciencia como con las técnicas industriales. Esta significación nueva del término se denominará “tecnología real”. Finalmente, el texto concluye con una explicación de cómo pasó el término tecnología original antiguo a nombrar el campo instrumental, vía del hiato técnico de la Revolución industrial. Palabras clave: tecnología, técnica, Grecia antigua, imaginario, real, Revolución industrial, filosofía de la tecnología.
A bstract This essay aims to interpret the concept of technology in a way different from the traditional one in which the term is related to the instrumental field. In this case I want to interpret the term as making reference to a kind of discourse upon which a given technical field is both organized and legitimized. This paper starts by analyzing briefly some speech on technology to point out their tendency to identify it with the instrumental camp; this tendency shall be nominated as “imaginary technology”. Next, the paper shall go back to the ancient Greek origins to get some criteria that allow to interpret the concept as a discourse. This interpretation shall prove, in the third section, to be possible for our contemporary times, in the modern speech on technique, either related to science or industrial processes. This new meaning of the term shall be nominated as “real technology”. Finally the text is closed by constructing an explanation concerning the shift of the original Greek meaning from discourse to the modern meaning related to the instrumental field. Keywords: technology, technique, Ancient Greek, imaginary, real, industrial revolution, Philosophy of Technology
1 Recibido: 6 de noviembre de 2011. Aceptado: 18 de agosto de 2012. 2 Universidad Pedagógica Nacional. Correo electrónico: gecarvajal@pedagogica.edu.co.
Carvajal, Germán
1. Introducción El concepto contemporáneo de tecnología está hoy consensualmente cooptado por la definición extensiva, implícita o explícita, según la cual el término tecnología remite al campo compuesto por la serie ciencia, técnica, instrumento, industria. Las discrepancias, en medio del consenso, son mínimas; se dan, por ejemplo, en torno a la pertinencia del elemento ciencia. Así, hace un poco más de dos décadas, Karl Mitcham (1989) afirmó que la tecnología es una modificación de la técnica, vía de la ciencia y, además, ligada fundamentalmente a la industria. Quince años más tarde, Quintanilla (2005) sostuvo la misma definición, pero esta ha sido cuestionada, al menos, por Acevedo (1998), quien se pronunció para determinar por lo menos un criterio que hace de la ciencia algo inconmensurable con la tecnología. Este criterio de Acevedo enraíza, eso sí, el concepto de tecnología en la industria, y consiste en que mientras la ciencia refrenda sus resultados vía el documento escrito (el artículo especializado), la tecnología lo hace vía las patentes. Para Acevedo, la serie es entonces: instrumento, técnica, investigación industrial. Se ha introducido otro tipo de elementos en la serie, por ejemplo, el componente sociológico de la organización (Orlikowski, 1992), en cuanto que la organización es afectada por el desarrollo instrumental, pero estos elementos nuevos no inciden sustancialmente en la definición dominante. Por otro lado, la reflexión filosófica en torno a la tecnología presupone como punto de partida esta misma concepción de tecnología. Hronszky (1998) hizo una síntesis retrospectiva de la filosofía de la tecnología en Alemania, desde el siglo XIX, y en este recorrido puede advertirse que el concepto de tecnología implícito en las preocupaciones filosóficas no es muy distinto de la serie enunciada más arriba: instrumento, técnica, industria, ciencia. Más recientemente, un estado de arte sobre filosofía de la tecnología de Vega (2009) trasluce el consenso según el cual la tecnología es un ámbito ligado esencialmente a los artefactos, entendidos como objetos funcionales, tangibles, producto del artificio humano; es decir, instrumentos. El rótulo “filosofía de la tecnología” manifiesta una serie de cuestiones sobre el instrumento: su ontología, el conocimiento desarrollado en función de su creación, así como el análisis de enunciados normativos alrededor de su uso. Podemos decir entonces que la citada definición extensiva, referida al comienzo, expresa la concepción dominante hoy de lo que es tecnología. Esta definición tiene su correlato en los enunciados del habla ordinaria donde tecnología es principalmente un sustantivo que remite a algo que se transfiere (la transferencia de tecnología), que tiene niveles (alta tecnología o tecnología
[38] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 37-60
Sobre el discurso tecnológico de la modernidad
de punta), que se usa (el uso de tecnología), que se desarrolla (el desarrollo de la tecnología). Aquello sustantivo de lo cual se pueden predicar la transferencia, el nivel, el uso o el desarrollo, es o bien el instrumento, o bien el saber que permite diseñar, construir y usar el instrumento. Ahora bien, el instrumento es primordialmente un cuerpo, una entidad física, con complejidad diversa, que ejecuta funciones en el desarrollo de determinados procesos. Esta entidad física es producto de la habilidad humana, de sus capacidades de diseño y construcción, es decir, el instrumento es un tipo de artefacto y, por tanto, resultado de la técnica; destrezas humanas y funciones instrumentales constituyen el vasto campo de la técnica, el instrumento es inversión de conocimiento técnico; el instrumento no es —como el cuerpo humano— un cuerpo diestro, es un cuerpo funcional yuxtapuesto al cuerpo humano. La yuxtaposición es tan constante y abrumadora que, por lo menos en la sociedad contemporánea, los individuos tienden a volverse de manera permanente operadores de instrumentos, sobre todo de máquinas, lo cual parece haber dado origen a la urgencia de una “educación tecnológica” del individuo. Dado lo anterior, este escrito pretende desarrollar la siguiente proposición: la concepción dominante de tecnología es imaginaria, y se encuentra apegada fundamentalmente al cuerpo del instrumento. Esta concepción reposa en una identificación subrepticia entre tecnología y técnica, en la cual la tecnología se concibe como una especie de técnica. Esta equivalencia (tecnología = técnica) implica la forclusión, es decir, la negación de la idea real de tecnología (ligada al discurso) a favor del exacerbado desarrollo instrumental como pretendido pivote central del desarrollo social.
2. El concepto griego de tekhnología Para empezar, es justo recordar que el concepto de tecnología es de origen griego antiguo y que, en ese contexto histórico, solo tangencialmente estaba ligado al instrumento. La concepción actual nos lleva a incurrir en anacronismos como el de referirnos a la “tecnología griega antigua” (por ejemplo, en los artículos de la compilación de Olesson, 2008), al denominar los instrumentos que se diseñaron y fabricaron en la Grecia antigua. Este anacronismo implica la inadvertencia de que, para los griegos antiguos, el concepto que permitía pensar el diseño y fabricación de sus instrumentos no era tekhnología, sino tekhnè. El vocablo tekhnè era traducido al latín por ars, palabra cuya declinación ablativa, arte, compone nuestro sustantivo castellano (arte), que puede ser equivalente a técnica. Esto indica que con ese anacronismo queremos
[39]
Carvajal, Germán
identificar la técnica griega, en tanto tenga que ver con instrumentos, o sea, con nuestra “tecnología”. La Grecia antigua no hizo tecnología porque fabricara instrumentos (que por supuesto los fabricó), sino porque pensó la técnica. Pensar la técnica, tanto entonces como hoy, se puede hacer de dos maneras: primera, haciendo que el poder ordenador del pensamiento permee el ámbito de los procedimientos para organizar un determinado campo técnico. Esto es lo que los griegos, después de Platón, denominaron como tekhnología. El concepto antiguo de tecnología es un concepto posplatónico, no aparece en el corpus platónico, pero sí aparece en el corpus de Aristóteles (por ejemplo, en las primeras líneas de la Retórica 1.1; 9, 10, 12) y en autores posteriores al Estagirita, por lo menos hasta el siglo I d. de C., por ejemplo, en Plutarco (De Garrulitate, 514a), Longino (De Sublimitate, 1.1; 2.1), Epicteto (Dissertationes 2,9; 17, 18,19) y Cicerón (Epistulae ad Atticum.4.16.3). La segunda forma de pensar la técnica consiste en objetivar el ejercicio mismo de la técnica en general para obtener las notas fundamentales de su idea. Este segundo ejercicio, iniciado con Platón, los griegos lo circunscribieron a la filosofía. Llamaré “real” al concepto griego antiguo de tecnología porque, a diferencia del contemporáneo, no se liga a la unidad imaginaria del instrumento, sino que enuncia un principio o idea que, bajo diversas condiciones, retorna en las sociedades. Este principio consiste en que toda técnica se organiza como campo de procedimiento en función de unos principios no técnicos sino discursivos. Nuestro concepto imaginario de tecnología, asociado al instrumento, brota en una coyuntura histórica más o menos ubicable en la primera mitad del siglo XIX, en el apogeo de la llamada Revolución industrial. Por su parte, el concepto griego antiguo se puede ubicar aproximadamente a partir del siglo II a. de C. en Atenas. La idea griega de tecnología se compone en esencia de tres coordenadas: de un lado, las prácticas y saberes (tekhnè) de una ocupación cualquiera (v.gr escultura, arquitectura, etc., pasando por el teatro y la composición de discursos, hasta la propia política.); de otro lado, el ejercicio intelectual que organiza esas prácticas en un tratado (logos) consistente; y, finalmente, el documento escrito en el que el tratado se divulga a un público interesado. Entre estas tres coordenadas, la segunda funge como término medio entre las otras dos; las vincula en una unidad por la cual un saber no ligado inicialmente a la theoría sino a la poiesis o la praxis adquiere consistencia como campo técnico vía el ejercicio del discurso (logos), el cual determina y distribuye los principios que organizan los componentes del campo técnico.
[40] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 37-60
Sobre el discurso tecnológico de la modernidad
3. L a tecnología como discurso La idea griega antigua de tecnología, lejos de ser hoy día el vago recuerdo de un pasado es, por el contrario, el lecho sustantivo, aunque innominado donde se desarrolla la técnica contemporánea y, en realidad, toda técnica. Retomemos las coordenadas constitutivas de la idea griega del concepto tecnología: tenemos las habilidades y saberes, el pensamiento que organiza esas prácticas como un campo consistente y la escritura. De estos tres elementos, nos interesa, sobre todo, el segundo por ser el vínculo de los otros dos: tecnología como un ejercicio intelectual de organización de un campo técnico. ¿Qué puede significar, y sobre todo contemporáneamente, el ejercicio intelectual de organización de un campo técnico? Este principio rige todavía el desarrollo de la técnica pese a que ya no se lo mencione con su nombre original, tecnología. El nombre fue usurpado literalmente, como lo mostraré luego, por la intelectualidad dieciochesca y decimonónica germánica y francesa, entusiasmada con el ascenso de la industria manufacturera e industrial, para mencionar con él un rubro técnico particular, el desarrollo instrumental. Pero el hecho de que el principio antiguo, innominado hoy, continúe vigente manifiesta su carácter real; y su continuación indica que toda técnica implica una tecnología, es decir, una trama discursiva que la organiza como campo de actividad. Una técnica cualquiera es un procedimiento para controlar la realidad, pero el control de la sustancia de la realidad, cualquiera que sea, siempre se inscribe en un propósito. En otras palabras, solo porque hay propósitos se desarrollan técnicas y hay necesidad de intervenir de modo controlado en la sustancia de la realidad. Por tanto, toda técnica presupone un propósito más allá de ella misma. Una técnica sin propósito es solo un gasto de energía idiota, “idiosin-crático”. Efectivamente, el ensimismamiento autista prueba que con él decaen las técnicas, pues este implica no tener propósitos en el mundo. Un propósito cualquiera, que demande un ejercicio técnico de intervención en la sustancia de la realidad, implica además un reconocimiento intersubjetivo que ha permitido tener esa noción de realidad. Entonces, toda técnica supone una red de relaciones tanto con la sustancia del mundo como con los otros sujetos; y esta red de relaciones es tan poderosa que suprimirla voluntariamente implica incluso el desarrollo de una técnica de ensimismamiento, como la del yogui que intenta alcanzar la perfección en el nirvana para eliminar todo vínculo con el mundo, llegando por vía técnica a lo que el autista llega por simple condición subjetiva. Matar, por ejemplo, un animal, despellejarlo y cortar su carne son propósitos en el mundo, pero no son propósitos técnicos; técnicas son las maneras
[41]
Carvajal, Germán
(estrategias, habilidades físicas e intelectuales, así como instrumentos) que los hombres desarrollan para realizar esos propósitos. Lo mismo puede ocurrir en las relaciones con la divinidad: el Levítico, por ejemplo, describe el animal que ha de ser sacrificado, las partes de su cuerpo que han de ser incineradas en el altar, cuyo olor agrada al dios. Esto último (agradar al dios) es el propósito, lo otro son las maneras de realizarlo. La tecnología, en cuanto real, se inscribe no en la técnica sino en esa relación de los propósitos no técnicos con la técnica, relación en la cual los primeros ponen las condiciones de posibilidad de la segunda, sus coordenadas de orden y organización. En la medida en que el propósito no es técnico, no es una manera de realizar algo, sino que es lo que ha de ser realizado, el propósito se vincula a las decisiones de los sujetos: el propósito, antes de ser realizado por una técnica, es objeto de decisión. Como lo señala A. Badiou (2004), en la medida en que esa decisión pone un punto de sutura y jalonamiento para unas maneras de realización, el propósito tiene una naturaleza ética. La tecnología real, en cuanto pensamiento que organiza el campo técnico, tiene una naturaleza que vincula la ética con la técnica: es el punto de sutura entre una decisión y los procedimientos que concurren a realizarla. Contemporáneamente, los campos técnicos pueden agruparse en dos grandes categorías: de un lado, aquellas técnicas ligadas de manera directa al conocimiento de los fenómenos, a las cuales se les suele dar el nombre genérico de ciencia. Con frecuencia yuxtaponemos ciencia y técnica; esta yuxtaposición, muy acreditada, es el remanente poderoso e influyente del prejuicio aristotélico (de la Ética nicomáquea) de la distinción entre episteme y tekhne, donde la primera es contemplativa (theorika), mientras que la segunda operativa (mekhanica). Mas, para comprender el estatuto real de la tecnología, es preciso reconocer que el trabajo científico demanda destrezas e instrumental ligados a procedimientos, lo cual da a la ciencia un carácter eminentemente técnico. La segunda categoría de técnicas agrupa a aquellas ligadas a la creación y construcción de instrumentos y sistemas de instrumentos, que solemos denominar con nombres diversos como ingenierías, arquitecturas, diseño, arte, administraciones, etc. Estos diversos campos técnicos contemporáneos (científicos, ingenieriles, etc.), en cuanto tales, involucran ese punto de sutura entre un propósito decidido y la técnica de su realización, punto al cual doy el nombre de “tecnología real”, y que consiste en un ejercicio intelectual de organización del campo técnico en función de unos principios amparados en el propósito decidido. La tecnología real implica dos tipos de principios: unos que llamaré principios de la técnica y otros que denominaré principios técnicos. Entiendo la relación
[42] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 37-60
Sobre el discurso tecnológico de la modernidad
entre estos dos tipos de principios como una relación de determinación de los segundos por los primeros, que establece el pensamiento tecnológico, es decir, el ejercicio real de la tecnología. Ahora bien, ¿cuál es la diferencia entre esos dos tipos de principios? Los primeros son máximas, los segundos son patrones de procedimiento que cobran existencia en función de aquellas. Voy a explicitar esta diferencia tomando un ejemplo concreto. La vinculación que lleva a cabo la tecnología entre técnica y propósitos orientadores es, en últimas, una relación entre principios, o sea, entre entidades discursivas. El ejemplo en que me voy a apoyar es la descripción del surgimiento a comienzos del siglo XX de una empresa del Estado colombiano (hoy desgraciadamente desaparecida), llamada Ferrocarriles Nacionales (Arias de Greiff, 1989). El grupo de ingenieros que organizó todo el campo técnico que implicaba la institución ferroviaria tuvo las siguientes premisas: [A] La institución ha de ofrecer un excelente servicio con base en una economía del gasto del dinero público. Excelencia en el servicio y corrección en el gasto de dinero público son dos premisas de orden ético que, en principio, rigen para toda institución estatal. La naturaleza de este régimen no es ontológica, es deontológica, lo cual significa que su cumplimiento depende de la voluntad de los individuos. Entre el régimen general del Estado y una institución particular se articula un silogismo, donde la premisa mayor es la máxima general, la menor es esa institución en particular, la conclusión es que esta institución ha de cumplir ese régimen general. Pero ¿por qué el Estado tiene una institución tal? Es una decisión. No hay nada que relacione necesariamente la institución ferroviaria al Estado, nada que no sea la decisión política de un determinado gobierno por asumir desde el Estado la tutela del sistema ferroviario. Pero una vez tomada la decisión, la institución queda sometida al régimen del Estado. Ahora bien, la naturaleza de esa institución radica en el uso y administración de un tipo de máquina para prestar el servicio: el ferrocarril. De aquí se sigue la otra premisa. [B] La locomotora ha de ser manejada y administrada con eficacia y economía del gasto del dinero público. Esta segunda premisa es la conclusión de la silogística mencionada atrás. La locomotora, máquina principal del sistema, queda subordinada al régimen. Pero volvemos a insistir: es un régimen deontológico, o sea, está articulado a la voluntad de ser cumplido. En tanto la máquina cobra importancia para efectos de cumplir la máxima del régimen (excelencia y economización), su cuidado se vuelve un aspecto sustancial de su manejo y administración, pues
[43]
Carvajal, Germán
es con ella que se presta el servicio. La locomotora es un cuerpo, y como tal, sufre desgaste y deterioro. Reparar el deterioro implica gasto del dinero, y salida del servicio, mientras se repara. Por tanto: [C] La locomotora, máquina nuclear del sistema, debe tener un deterioro mínimo posible. Para cumplir esta premisa hay al menos dos posibilidades: uno, comprar la máquina buscando en el catálogo ciertos parámetros de calidad. Dos, diseñarla. La experiencia de los empresarios privados (Molina, 1998) había dejado claro que el desgaste del equipo era oneroso debido a la topografía del terreno. Para cumplir la determinación [C], la decisión consistió no en comprar locomotoras por catálogo, sino en inscribir un diseño propio en el catálogo. Se procedió entonces al diseño de las locomotoras, y, por supuesto, el ejercicio de este diseño estuvo encaminado al cumplimiento de las tres premisas anteriores. Para que el deterioro fuese mínimo, el equipo de ingenieros acuñó una máxima de diseño: [D] La locomotora ha de ser diseñada para la vía. Para el grupo de ingenieros, la relación de la locomotora con la vía determina el nivel de su deterioro, por tanto, la máquina ha de tener un diseño tal que le permita sortear las condiciones diversas involucradas en el trazado de las vías férreas: las curvas y pendientes, así como las condiciones del clima. Este conjunto de cuatro premisas son principios de la técnica, de esta técnica: la del diseño y los servicios ferroviarios en manos del Estado. Estos principios no son técnicos ellos mismos, pero son el conjunto de coordenadas orientadoras del ejercicio técnico como tal, o sea, del ejercicio de diseño de la máquina. Este se realiza mediante otros principios, principios técnicos, por ejemplo: 1. Eliminar de las ruedas motrices las pestañas que no contribuyeran a que la máquina se inscribiera con facilidad en las curvas. 2. Forzar la relación de adherencia (relación entre la capacidad de tracción y el peso de la máquina) a 375 libras por tonelada de peso total en máquinas de tanque. 3. Forzar la relación de adherencia a 450 por tonelada de peso de la sola locomotora en las máquinas de ténder. 4. La relación entre peso adherente y tracción ejercida será de 3,85 para máquinas de dos cilindros, y 3,40 para máquinas de tres cilindros.
[44] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 37-60
Sobre el discurso tecnológico de la modernidad
5. El inyector debe ser capaz de mantener el nivel de agua en la caldera, mientras esta suministra todo el vapor requerido para la máxima exigencia, etc. Los seis principios técnicos están determinados a partir de los cuatro principios de la técnica. La diferencia entre ambos tipos de principios puede abordarse al menos de dos maneras. Primera: los principios técnicos buscan la realización de los principios de la técnica, por tanto estos son el horizonte de aquellos; son el marco de referencia en función del cual emergen los principios técnicos ligados directamente al objeto; en este caso, el objeto es la máquina en su diseño preciso. Segunda: en la acepción de Heller (1990; 15,16), los principios técnicos son reglas, en tanto que los principios de la técnica son normas. La norma es un principio que se puede ejecutar de varios modos, mientras la regla es un principio que solo se ejecuta de uno; al no dar alternativas, la regla se inscribe en una cadena unidireccional hacia el cumplimiento del objetivo. Por otra parte, la norma es la posibilidad de varias reglas, pues el principio de la técnica determina unos elementos básicos y generales para que el sujeto construya con ellos los principios técnicos que realizan la prescripción tecnológica. Por eso, los principios de la técnica organizan el campo técnico, es decir, crean las coordenadas para la emergencia de los principios técnicos. El principio normativo: “la locomotora ha de diseñarse para la vía” determina la regla: “eliminar de algunas ruedas las pestañas”. Queda entonces la prescripción técnica de que una locomotora para las vías andinas colombianas debe tener ciertas ruedas sin pestañas. Las reglas técnicas para construir objetos (en este caso locomotoras de vapor para los Andes colombianos) implican un diseño, un modelo de locomotora compuesto por determinados elementos; una forma. Así, la lógica del procedimiento de construcción es guiada por esa forma, todos los pasos se ordenan para su realización, porque todas las reglas la implican en el mismo sentido. La lógica se liga a la técnica porque la técnica, al basarse en principios regulativos de sentido unívoco, implica una misma forma que, por decirlo así, jalona su sentido como un hilo conductor. En tanto las reglas se despliegan apuntando a realizar la forma, el proceso técnico solo es la secuencia necesaria, en el orden necesario. Una vez establecida la forma, el ejecutor técnico de la secuencia, persona o máquina, no decide, solo desarrolla la secuencia en su orden. El momento de la decisión está en el establecimiento de las premisas de la forma (las normas tecnológicas), no en la ejecución de la secuencia de reglas. Para el ejemplo en consideración, la organización de un sistema de ferrocarriles bajo la tutela del Estado fue una decisión: el concepto de Estado no implica el de ferrocarriles, ni viceversa; por tanto, la conjunción entre ambos depende de un acto decisorio; igual-
[45]
Carvajal, Germán
mente, ni asumir un diseño ya establecido en un catálogo ni realizar el propio se deducen necesariamente de la premisa de régimen de economía de gasto. Tomar uno de los dos caminos es una decisión. La maximización del ahorro del dinero del Estado es un principio que ordena y orienta los actos y, al mismo tiempo, abre un abanico de posibilidades sobre cómo llevarla a cabo. En el ejemplo, esa maximización podría haberse pensado respecto a la compra de las máquinas por catálogo, buscando bajos precios y racionalizando el gasto de mantenimiento. Incluso podrían haberse comprado máquinas de segunda mano (como ha ocurrido muchas veces, por ejemplo en equipo militar). Pero la decisión fue intervenir directamente en el diseño: diseñarlas de acuerdo con la vía y mandarlas a fabricar a un licitante. Es preciso decir que ninguna de las dos opciones era necesaria, pero sí era necesario llevar a cabo alguna. Las opciones son variables en relación con una constante: cualquiera de las dos que se llevara a cabo implicaba necesariamente la máxima, pero la máxima no necesariamente a ninguna de ellas. La máxima general lo que implica necesariamente es la obligación de tomar un curso posible, por tanto, las formas en que la máxima general se puede cumplir son exógenas a la máxima, emergen de otro lado: son aportadas por la voluntad del sujeto, es un asunto de decisión. La relación entre la máxima y sus formas de cumplimiento no es lógica sino ética, no hay una lógica, pero sí una ética, de la tecnología. Frente al precepto normativo “S debe hacer P”, no cabe la implicación, entonces S debe hacer q, puesto que q no es necesaria, solo es una posibilidad. Frente a tal precepto normativo cabe la pregunta: ¿cómo S puede hacer P? Esto implica que la respuesta a ese cómo no va implícita en el enunciado normativo, ha de ser aportada por el sujeto. Los enunciados normativos y regulativos no se deducen necesariamente de enunciados descriptivos. John Searle (1970; 175-177) afirmó la posibilidad de deducir un enunciado normativo (o sea, un deber, ougth) de un enunciado descriptivo (o sea del ser, is) siempre y cuando ese enunciado descriptivo de partida pertenezca al orden institucional. Por ejemplo: S juega fútbol, entonces S debe saber cobrar tiros libres. Pero, en realidad, el “debe” en este segundo enunciado es superfluo, pues el enunciado puede reducirse a descripciones: si S juega fútbol, entonces es capaz de cobrar un tiro libre. Realmente todo el tiempo en este contexto se está en el orden del es; el debe es aparente. La misma situación ocurre si yo digo: “Está lloviendo en el sur de Bogotá, luego deben estar mojadas las calles del sur de Bogotá”. El debe no compone, en este caso tampoco, ningún enunciado auténticamente deontológico. El enunciado auténticamente deontológico, el deber, no es reductible a sus componentes básicos por separado, el querer y el ser: hay algo irreductible en el deber. S
[46] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 37-60
Sobre el discurso tecnológico de la modernidad
debe poder cobrar tiros libres, no si juega fútbol; sino, si quiere jugarlo. De un enunciado descriptivo, por sí mismo, solo puede seguirse otro enunciado descriptivo; de un enunciado desiderativo solo se sigue otro enunciado desiderativo; y de uno normativo otro normativo. Solo se deduce lo que de alguna manera está contenido en las premisas. De un enunciado del tipo es, solo se deduce de modo directo otro del mismo tipo es. De un enunciado del tipo es, se deduce uno normativo (del tipo debe) a condición de que medie un enunciado desiderativo. P es q; y S desea r respecto de p, entonces S debe hacer n respecto de p. Así, tomando el ejemplo del ferrocarril, tenemos: La vía tiene exceso de curvas y S desea diseñar la locomotora para la vía, entonces S debe… modificar las ruedas... o…diseñar un sistema de dirección… o etc. Puede ser cualquiera, no necesariamente este o aquel, pero sí necesariamente uno de ellos. Por esto no hay lógica de la tecnología, porque no se puede construir el deber sin el concurso del deseo, o sea, de la intervención decisoria del sujeto, por tanto, la tecnología se inscribe, por principio, en la ética. El anterior ejemplo, tomado de una fuente historiográfica de la técnica en Colombia, nos muestra al Estado territorial contemporáneo en su papel de tecnólogo, es decir, de inteligencia que organiza el campo de una técnica por medio de la organización racional de prácticas disponibles. Se trata de un Estado en particular en un momento de su historia, y no precisamente de un Estado poderoso. Pero, ¿esto mismo se puede mostrar en otros rubros técnicos? Seguramente, y no solo en otros, sino en todos. Rápidamente, por mor de brevedad, esbozaré algunos argumentos muy generales para la ciencia y la industria.
4. L a tecnología y los principios de la técnica He afirmado que la tecnología es un tipo de discurso, aquel que organiza un campo técnico; que esta organización se da por la elaboración de unos principios de la técnica, de los cuales emergen los principios técnicos; que aquellos son máximas normativas y estos reglas de procedimiento en relación con unos objetos. Ahora bien, la ciencia y la industria no son ajenas a estas condiciones. Comenzando con la ciencia, me remito, en primer lugar, al concepto de revolución científica de T. Kuhn (1962). Una revolución es un cambio radical en las maneras de hacer algo, en las maneras de vivir y de pensar. La ciencia es un hacer, se trata de una técnica de descripción y explicación detallada de un fenómeno o sector de fenómenos que se organiza en torno a un paradigma o matriz disciplinaria. Esto —como es sabido— hace mención a un conjunto de principios teóricos y operativos que determinan la organización de la disci-
[47]
Carvajal, Germán
plina como un campo consistente. Kuhn llama a esta ciencia, desarrollada a partir del paradigma, “ciencia normal”; pero, también se refiere Kuhn a una ciencia no normal, es decir, una ciencia extraordinaria, que se da por fuera de las determinaciones paradigmáticas, es decir, se trata de una actividad que presupone la suspensión de la técnica, porque, en virtud de alguna anomalía, sus principios técnicos se han vuelto inoperantes. Ese pensamiento extraordinario busca restablecer el orden del campo; por tanto, determinar de nuevo los principios de la técnica. Ahora bien, el propio Kuhn, en el epílogo de la segunda edición (1969), afirmó que este modelo de comprender la historia de la ciencia había sido tomado de otras disciplinas, o sea que toda disciplina, todo campo técnico, tiene un pensamiento no técnico que determina sus principios, es decir, tiene su tecnología. Al ser un pensamiento que se ejerce para establecer los principios de la técnica, se trata de un pensamiento esencialmente creativo, ligado al invento de nuevas formas de comportamiento técnico. La teoría de Kuhn muestra la historia de la ciencia como una serie de interrupciones del ejercicio técnico debido a las crisis del paradigma, siendo este el fundamento de la operación técnica como tal, pero la constitución del paradigma no es un asunto científico él mismo, es un asunto que escapa al ejercicio de una ciencia normal. La tecnología no es, pues, una disciplina; es sí un momento del pensamiento en una disciplina, el momento de la constitución de los principios de la técnica. La ciencia tiene su propia tecnología real, que no son sus instrumentos. Esa tecnología real es el discurso que organiza el campo técnico de una ciencia. De otro lado, la industria es un campo técnico esencialmente distinto de la ciencia. Cierto es que a lo largo del siglo XX a la ciencia se le ha pedido que se pliegue a los intereses de la industria, que contribuya a la producción de plusvalía, pero esto no cambia para nada el hecho de que intrínsecamente su objetivo de orientación es otro: la contemplación, es decir, la theoría. El objetivo directo de la técnica en la industria no es, como en la ciencia, producir un conocimiento descriptivo de un universo de fenómenos; su propósito directo es producir objetos de consumo, siendo el conocimiento un residuo indirecto resultante de este objetivo directo. La llamada Revolución industrial, ocurrida entre los siglos XVIII y XIX, fue fundamentalmente una revolución en el campo técnico que sostiene la producción de bienes de consumo. Se trató de una revolución técnica, lo cual implica que hubo un cambio en el discurso orientador de la técnica, cambio que desarrolló, a su vez, los campos de la minería, la agricultura y la ingeniería (Berg, 1987, 34). El discurso de los principios de esa técnica, es decir, la tecnología de esos campos, se organizó en función de al menos cuatro objetivos: ahorrar materia
[48] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 37-60
Sobre el discurso tecnológico de la modernidad
prima, abaratar los costos, ahorrar trabajo, disciplinar al obrero, maximizar los beneficios (Berg, 1987; 44, 50, 52, 59, 62). En su análisis de la manufactura y el posterior sistema de maquinaria (El capital, respectivamente, capítulos XI y XIII), Marx explicita más los principios que organizaron ese campo técnico: llevar a cabo una cantidad de trabajo en un tiempo dado, reducir el tiempo de trabajo necesario para la producción de una mercancía y, en general, producir plusvalía. Afirma Marx que esto no es un principio a posteriori o una ley involuntaria que arrastrara ciegamente la nueva formación social, sino que era un principio enarbolado de manera consciente, una decisión política. Remite Marx a la lectura de los ideólogos de la Revolución industrial, por ejemplo W. Petty, quien en efecto en “Verbum Sapienti” (1665) y en “Another Essay on Political Aritmethic” (1683) ya daba recomendaciones acerca de la organización del trabajo para el ahorro del tiempo en beneficio de las exportaciones del reino. De igual forma, Bellers (1696) en su “Proposals for Raising a Collegde of Industry of All Useful Trades and Husbandry, eith Profit for the Rich, a Plentiful Living for the Poor, and a Good Education for Youth”, así como Vanderlint en “Money Answers All Things” (1734), recomiendan ese control sobre el tiempo y el trabajo. Además, los esfuerzos de organización del trabajo por parte de Boulton y Watt (Berg; 1987, 51) implican la conciencia de que era necesario organizar el campo técnico de la industria bajo un principio orientador nuevo que permitiera un ritmo controlado de organización y ahorro de tiempo. La acumulación o ganancia orienta la ingeniería y la administración, es decir, el diseño instrumental y la planificación de la organización de los procesos de trabajo. Este es un principio a priori, consciente, que se sutura a la técnica misma, poniéndola sobre un lecho de desarrollo determinado; principios y discursos que no han dejado de tener vigencia en el capitalismo contemporáneo; que continúan modelando el diseño de sus máquinas y su planificación organizacional. Ese principio de la técnica, conscientemente enarbolado, se ha silenciado con el tiempo, pero silenciado no quiere decir desaparecido, continúa allí tácito, determinando el desarrollo técnico de la economía industrial contemporánea; pero su carácter tácito lo hace aparecer natural, tan natural que en un texto muy conocido en el que Habermas (2005; 60-63) hace una crítica a la concepción de técnica de H. Marcuse, según la cual la técnica habrá de ser cualitativamente distinta, al cambiar las relaciones entre los hombres. En este texto Habermas responde a Marcuse apoyándose en A. Gehlen, para quien el desarrollo instrumental obedece a una proyección de las funciones del organismo humano. Es clara la influencia hegeliana en Gehlen de Erns Kapp (1877), así como que esta posición de Habermas, vía Gehlen (vía, en últimas, Kapp) tiende a poner el desarrollo técnico instrumental en
[49]
Carvajal, Germán
una ley inmanente a sí mismo, lo cual implica que las máquinas de la Revolución industrial no obedecieron a un principio extratécnico, sino al propio desarrollo intrínseco de la técnica, sin referencia entonces a un propósito político o económico. En otras palabras, en últimas, la producción de plusvalía sería inmanente a la técnica instrumental y, por tanto, el capitalismo industrial un efecto necesario de la técnica instrumental; pero esto no es todo, en tanto la técnica instrumental es proyección de las funciones humanas, el capitalismo es efecto de la naturaleza humana. Habermas, finalmente, da la razón al liberalismo clásico que ve en el capitalismo una condición natural del ser humano.
5. L a tecnología como ciencia La tecnología no es una especie de técnica, no es expresión de la técnica; no es tampoco el instrumento, ni el saber que lo diseña, construye y opera. La tecnología es un tipo de discurso. Un tipo, no un discurso en particular. Tecnológico es todo aquel discurso de orden político, jurídico, pedagógico, científico, ingenieril, religioso, etc., que pretenda dar orientación y organización a un campo técnico determinado. Pero, ¿por qué se olvida esto? ¿Por qué la palabra tecnología se desliza hacia el saber sobre la instrumentación? Barruntemos una respuesta. La idea originada en Grecia antigua, pese a seguir rigiendo la técnica de las sociedades modernas industriales, quedó innominada, y su nombre pasó a partir del comienzo del siglo XIX, primero, a denominar las técnicas de manufactura; luego, en la segunda mitad del mismo siglo ya señalaba el saber sobre el instrumento. Pero este giro semántico no vino de una determinación ciega; hubo por supuesto la complicidad intencional del hombre. El promotor inicial de este desliz semántico fue Johan Beckmann en “AnleitungzurTechnologie” (1802); y, posteriormente, en “Entwurf der algemeinenTechnologie” (1806). En el primer texto, define su concepto de tecnología: La historia de la técnica gusta de la narración minuciosa del invento, lo que significa el inicio y posterior destino de un arte o un oficio; pero mejor es la tecnología que claramente explica todo trabajar, su secuencia y completo orden de razones. Existen, al menos, estas viejas palabras: Tekhnologia, tekhnologeoo, tekhno-logos; aunque, claramente, los griegos no pensaron solo una manufactura . . . (1802, 20; traducción propia).
El autor tiene en mente un distanciamiento de la historia de la técnica; distingue, por supuesto, entre técnica y tecnología, como lo harían los griegos.
[50] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 37-60
Sobre el discurso tecnológico de la modernidad
La técnica tiene una historia, pero también una tecnología. Esta no da cuenta del inicio y destino de un oficio, sino que explica la secuencia y el orden completo de las razones. Explicación, secuencia, orden, razones, la tecnología de Beckmann sigue, en esto, siendo griega. Ahora bien, ¿cuál es la diferencia entre esta tecnología y la tecnología griega? ¿Dónde y cómo comienza la separación? La tecnología de Beckmann se refiere a una conjunción que no era pensable para los griegos, la conjunción ciencia-técnica. Beckmann define con mayor detalle su concepto de tecnología: La tecnología es la ciencia que enseña el procesamiento de lo natural o el conocimiento de la manufactura. En vez de que en los talleres se sigan las indicaciones, según los hábitos y reglamentos de los maestros, para la fabricación de las mercancías, la tecnología da, en orden sistemático, instrucciones minuciosas para, desde principios y experiencias confiables, encontrar los medios de este objetivo final, y sacar provecho del proceso y explicar los fenómenos concomitantes (1802, 19; traducción propia).
El autor circunscribe el término a una disciplina académica, a una ciencia. Su objeto: el procesamiento de materia prima, la manufactura. He aquí ya el comienzo de la escisión, pues la tecnología griega no tenía un único objeto, la manufactura, sino que su objeto era variado, como el propio Beckmann lo reconoce en el primer párrafo citado. Su tecnología pretende abarcar todo el campo de la manufactura, por la cual —dice— se procesa lo natural. Pero, hay algo más: esta ciencia brota de una pretensión totalizante porque se trata de trascender los reglamentos técnicos de los maestros en los talleres, de trascender la especificidad de cada técnica, cosa que no pretendieron los griegos. La tecnología de Beckman es una ciencia general sobre todo el campo de la técnica manufacturera. Esto significa que él pretendía unificar todas las técnicas manufactureras en una mathesis universalis. En “Entwurf der algemeinenTechnologie”, hace una descripción más detallada y nueva de su ciencia: “La tecnología enseña tanto sobre la materia cruda como sobre la procesada, y todas las diferentes formas de uso a partir de las cuales los hombres hacen, desechan y preparan” (Beckmann 1809, 463; traducción propia). Con esto, unifica todo el campo de la manufactura a partir de dos tipos de material: crudo y procesado. Además reduce los procedimientos a tres tipos: hacer, desechar y preparar. La tecnología es, en este caso, una técnica de técnicas; no es una especie de técnica, sino que es algo que rige técnicamente a las técnicas específicas, pues no se trata, como reza la explicación de la primera definición, de aprender cada técnica con un maestro respectivo, sino de una disciplina general que permita abarcarlas todas desde principios confiables y experiencias seguras.
[51]
Carvajal, Germán
En la medida en que la concepción de Beckmann se resume en una ciencia unificadora de los procedimientos de manufactura y la materia prima, se plantea el problema de cómo puede haber una técnica de técnicas manufactureras. Como lo destaca Vérin (2007; 137), el segundo libro, al que pertenece la segunda definición, implica un hilo conductor para lograr una ciencia semejante; se trata de un método comparativo para considerar el trabajo productivo desde la relación entre intenciones y operaciones. El modo de operar de esta ciencia, según el proyecto de Beckmann, consistía básicamente en que los sabios tecnólogos, una vez hechas las comparaciones y clasificaciones entre los oficios, procederían a trabajar con los artesanos para traspasar los medios y útiles de un oficio al otro, así —según Beckmann— se desarrollaría la fecundidad de la tecnología: por la transferencia de los métodos y medios de operar entre los oficios. Esto implica el supuesto de una comunidad de principios entre los diversos oficios, comunidad obtenida por el método de comparación y clasificación entre ellos. Lo que Beckmann toma de los griegos es la intención sistematizadora del campo técnico en unos primeros principios, la trascendencia de los principios técnicos particulares en unos principios generales de la técnica. Pero hay una diferencia con los griegos: a Beckmann solo le interesa la manufactura; quiere que las técnicas industriales se resuman y recojan en una sola, se fundan en una sola axiomática. Esta unidad implica, por supuesto, un control político y administrativo de la técnica, el poder de un Estado; y esta unidad operativa, esta coordinación en una axiomática universal, solo puede estar ligada a la necesidad de desarrollo económico en cuanto alto nivel de producción. Hubo al menos un griego que llegó a pensar la política como una organización de las técnicas, Platón (político), pero no por razones económicas, sino por razones éticas. A Platón lo movía su preocupación por lo justo; a estos hombres del naciente capitalismo los mueve la mejora de la producción. Ahora bien, Beckmann no está lejos de los teóricos ingleses que pretendían organizar el proceso de trabajo para disciplinar a los obreros; pero él —a diferencia de aquellos— piensa que este disciplinamiento ha de llegar desde la ciencia, desde el saber total sobre la técnica; pensaba que la unidad en el control técnico habría de traer, por su propia dinámica, el control y coordinación que difícilmente lograba el disciplinamiento forzado de la fábrica. Los políticos franceses de Francia de finales del siglo XVIII —cuenta Verín (2007)—, también se preocuparon por introducir en su país esa ciencia de las artes que se enseñaba en la Alemania de Beckmann. Pero en esta transferencia, el concepto de Beckmann no pasó a Francia sin sufrir transformaciones; de hecho, señala Verín que el término era entendido al menos de ocho maneras
[52] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 37-60
Sobre el discurso tecnológico de la modernidad
distintas para finales del XVIII en Francia. Para Beckmann, la tecnología habría de ser una ciencia autónoma, con su propio objeto, ya descrito atrás, pero en Francia (Verín, 2007; 139) quedó constituida como una ciencia intermediaria entre la teoría y la práctica, más precisamente, entre las ciencias físicas y el ejercicio de las artes, como se muestra en el Reglement sur l’organisation generale de l’ instrucción Publique, de Condorcet (citado por Verin, loc. cit) Esto, más tarde, se hubo de conocer como aplicación de la ciencia. Ya Marx, en El capital, se había referido al estado de esta aplicación tecnológica de la ciencia como uno de los factores de producción para determinar la media de tiempo de producción socialmente necesario. El proyecto beckmanniano fracasó, entre otras cosas, también porque, con el desarrollo de la mecanización, desapareció la manufactura. Pero, en realidad, sus presupuestos eran excesivamente problemáticos, pues requería encontrar puntos comunes entre las diversas técnicas de manufacturas para lograr la unificación operativa. En su análisis de la manufactura, en El Capital (casi sesenta años después de la publicación de los dos textos de Beckmann referidos), Marx mostró la imposibilidad de semejante empresa por el hecho de que la gran especialización a la que conducía el sistema manufacturero hacía inasimilables entre sí, para reducirlos a los mismos principios operativos, los diversos oficios. El propio Marx en El capital entendió el término tecnología en el sentido contemporáneo: como diseño y construcción de instrumentos. En una nota marginal del capítulo XIII, se lamentaba de que aún no existiera una “historia crítica de la tecnología” (1977; 303), la cual, de existir, demostraría —según él— que “. . . ningún invento del siglo XVIII fue obra personal de un individuo . . .” (ibid); y añadía: . . . Hasta hoy, esta historia no existe. Darwin ha orientado el interés hacia la historia de la tecnología natural, es decir, hacia la formación de los órganos vegetales y animales como instrumentos de producción para la vida de los animales y las plantas. ¿Es que la historia de la creación de los órganos productivos del hombre social, que son la base material de toda organización específica de la sociedad, no merece ningún interés? . . . La tecnología nos descubre la actitud del hombre ante la naturaleza, el proceso directo de producción de su vida y, por tanto, de las condiciones de su vida social y de las ideas y representaciones espirituales que de ellas se derivan (Marx, 1977; 303 n. 4).
Para Marx, tecnología era el proceso de inventar instrumentos. Lo tecnológico estaba, como hoy, en la instrumentación misma en cuanto es algo que se desarrolla, se forma: en la naturaleza es un proceso orgánico, en la sociedad es resultado de una actitud del hombre ante la naturaleza. Lo tecnológico está en este proceso de formación o invención, y dado que en el hombre es el resultado
[53]
Carvajal, Germán
de una actitud, lo que está en juego es la inteligencia, el pensamiento implícito en el proceso, la racionalidad del instrumento. Para Marx, la tecnología era la razón en tanto se hace instrumento. Redujo así la tecnología a la instrumentación en la medida en que toda técnica que implique la transformación de la naturaleza demanda el instrumento. Lo implícito en esta concepción son dos cosas. Primera, como en Gehlen, la clara influencia de Kapp (1877) en cuanto considera la relación cuerpo-órgano como fundamento de la tecnología; y en efecto, en su análisis del sistema manufacturero consideró a este como un gigantesco obrero, cuyos miembros eran los obreros particulares armados de sus herramientas especializadas; la manufactura mostró ser la base técnica de la industria mecanizada cuando el cuerpo complejo del gran obrero manufacturero fue reemplazado por el sistema de maquinaria. Segunda, una sutil contradicción entre su concepción de la tecnología y sus propósitos políticos: Marx tenía claro que la máquina industrial iba en contra de los intereses del obrero; sin embargo, concebía la instrumentación como expresión orgánica del hombre (sus órganos productivos) y consideraba que la revolución tiene como meta fundamental la apropiación, por parte del proletariado de los medios de producción; es decir, la revolución no alteraría la técnica (que va en contra de los intereses del proletariado) sino que pondría la técnica en otras manos, las del proletariado. Así, pues, de los griegos antiguos a Marx, pasando por el hito de Beckmann, hay un giro ideológico. ¿Cómo fue el proceso de este giro ideológico de la noción de tecnología? En primer lugar, lo que Beckmann pretendía, una ciencia autónoma que organizara y unificara el campo de las artes industriales, implicaba obviamente la conjunción de dos conceptos disyuntos hasta el momento en la tradición occidental: ciencia y arte industrial. Esa disyunción —desde la Grecia antigua— no solo fue teórica, fue práctica, y de clase. P. Rossi (1966) nos cuenta que se prolongó hasta bien entrado el siglo XVIII; pero es claro que esa disyunción inveterada comenzó a ceder ante el ascenso social de las artes industriales, en cuanto mostraron su poder de contribuir a la riqueza de las naciones. Así, el poder sistematizador de la ciencia y el poder productivo de la industria habrían de entrar en conjunción. No se trataba ya de rechazar al artesano como un miembro de una clase inferior, sino de controlarlo poniéndolo al servicio de la emergente producción industrial. En su calidad de político y administrador preocupado por la marcha de los asuntos del Estado, Beckmann pretendió unificar el campo productivo de la industria por medio de una ciencia (a la que llamó tecnología) con el fin de tornarlo un campo más prolífico. En realidad esa primera conciliación entre ciencia y arte industrial no fue posible por dos razones: por un lado, la industria no es un campo técnico; es el punto de confluencia de diversas técnicas que tienen en
[54] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 37-60
Sobre el discurso tecnológico de la modernidad
común la producción de bienes para el consumo, en el mercado, y el aumento de plusvalía. Por otro, la técnica industrial basada en la manufactura desapareció por virtud de la mecanización. Sin embargo, el proyecto de Beckmann puso en marcha la aspiración de la sociedad burguesa industrial de juntar la ciencia con el arte, para que aquella insuflara en este una racionalidad que lo haría más productivo. Este binomio ciencia-arte adquirió un decurso particular cuando, efectivamente, los logros técnicos de orden químico y mecánico influyeron en la producción. Así, aunque no se sostuvo la mathesis universalis de Beckmann, la palabra tecnología continuó denominando la unidad del binomio arte-ciencia teniendo ahora al instrumento maquinal como el punto donde encalla esa unidad, porque la máquina, producto de la inversión metódica del conocimiento, permite realizar la aspiración del incremento de la producción y los beneficios.
6. Conclusión El concepto contemporáneo de tecnología, reducido a la técnica instrumental, involucra un entusiasmo por el instrumento en general y por la máquina industrial en particular. Centrada toda la semántica del término en la técnica instrumental, se borra el hecho de que la técnica está asociada por un vínculo discursivo a unos propósitos no técnicos sino éticos y políticos; estos propósitos organizan la técnica, siendo la tecnología, realmente, este discurso sobre la técnica. En la tecnología como una especie de técnica, una especie muy elevada, se sigue, sin embargo, sosteniendo de forma tácita el principio clasista griego, que sobrevivió explícito hasta entrado el siglo XVII, de que las artes mecánicas son inferiores por sí mismas y son ejercidas por gentes viles. Se trata de un inveterado conflicto de clase, conflicto que adquiere, con el desarrollo de la industria mecanizada, una sutileza particular pues mediante la ciencia, la tecnología se transforma en el capitalismo en la redención de la técnica: la desvalorización de las habilidades a favor de las funciones de la máquina, máximo logro de la conjunción de la ciencia con la técnica así depurada. Por esta vía, el artesano se vuelve un obrero sin especialidades directas que no sean las de operación y cuidado de la máquina. Despojar al obrero de su habilidad, se traduce finalmente en la tendencia a despojar en general a los individuos de su capacidad para ejecutar procesos, incluso procesos de cálculo y razonamiento, que no es otra cosa en lo que consiste aquello que se llama inteligencia artificial. Marx, en su tiempo, advirtió en su análisis de la máquina el principio de esta trans-
[55]
Carvajal, Germán
formación del artesano en un obrero sin saber técnico específico; y hoy, la filosofía contemporánea sigue reconociéndola bajo el concepto de “multitud”. Considerar la tecnología —como de hecho se hace desde hace más de cien años— una especie de técnica es el efecto de la tergiversación ideológica de una idea originaria: el discurso que constituye y legitima, en un marco éticopolítico, el campo técnico de los saberes. Este discurso se silencia y oculta tras la cortina del saber que impulsa y produce el desarrollo instrumental. Al menos tres cosas resultan de esta tergiversación: en primer lugar, el olvido de que la tecnología es un tipo de discurso sobre la técnica (un discurso ligado a la decisión que sutura el propósito a la técnica) antes que un discurso técnico en sí mismo. En segundo lugar, dado este olvido, el desarrollo de la técnica instrumental aparece como autónomo, como movido por unas leyes endógenas, tan poderoso que puede guiar a la sociedad entera, ir en la vanguardia de un progreso constante, mientras que las demás formaciones institucionales han de plegarse a él, es decir, modernizarse. En tercer lugar, y esta pureza del desarrollo instrumental, por el olvido de que un campo técnico depende de decisiones no técnicas, sino políticas y éticas, oculta las relaciones de poder y conflictos de clase que le son inherentes al desarrollo instrumental. El desarrollo instrumental, despojado de su componente tecnológico real, adquiere una bondad intrínseca, en la cual se espera que el poder del instrumento solucione los males de la humanidad, e incluso, solucione el problema endémico de la tozudez humana reticente a comportarse dentro de los estrictos canales institucionales jurídicos y morales. Y si el desarrollo instrumental no muestra su bondad intrínseca es porque la tozudez y maldad humanas estorban la marcha de sus leyes endógenas. Por eso ha de educarse a las distintas generaciones en una convivencia moralmente correcta con el instrumento, es decir, se les ha de dar una “educación tecnológica”. En realidad, la tecnología no es un discurso sino un tipo de discurso sobre la técnica. Es una categoría del discurso en la que se pueden clasificar todos aquellos discursos cuyo objeto es producir la organización de un campo técnico. De aquí se desprende que la tecnología no es una habilidad, no es tampoco un campo disciplinar en sí mismo, por tanto no es algo enseñable y, entonces, no es susceptible de una pedagogía ni de una didáctica, pues no es un conocimiento que pudiera ser pedagógicamente administrado. La tecnología solo es la forma general de un tipo de discurso (el discurso que organiza un campo técnico) y, en cuanto forma, puede ser objeto, ella misma, de otro discurso. Este discurso es la filosofía.
[56] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 37-60
Sobre el discurso tecnológico de la modernidad
Trabajos citados Acevedo Díaz, José A. Tres Criterios para diferenciar entre Ciencia y Tecnología. Organización de Estados Iberoamericanos. 1998. En línea. 10 de octubre de 2011. <http://www.oei.es/salactsi/acevedo12.htm>. Arias de Greiff, Jorge. “Un Momento Estelar en la Ingeniería Mecánica en Colombia: Los Diseños de Locomotoras de P. C. Dewhurst. (Primera Parte)”. Boletín Cultural y Bibliográfico BLAA. 26.21 (1989). En línea. 28 de octubre de 2011. <http://www.lablaa.org/blaavirtual/publicacionesbanrep/ boletin/boleti5/bol21/momento.htm>. Aristóteles. Ars Rhetorica. Ed. W. D. Ross. Oxford: Clarendon Press, 1959. Badiou, Alain. La Ética. Ensayo Sobre la Conciencia del Mal. Trad. Raúl J. Cerdeiras. Madrid: Herder, 2004 Beckmann, Johan. Anleitung Sur Technologie Oder zur Kentnis der Handwerke, Fabrisen und Manufacturen. Göttingen: Bandenhoet und Ruprecht, 1802. —. “Entwurf der Allgemeinen Technologie”. Vorrath kleiner Anmerkungen über mancherley gelehrte Gegenstände. Göttingen, 1806. 463-533. Bellers, John. Proposals for raising a colledge of industry of all useful trades an husbandry, with profit for the rich, a plentiful living for the poor, and a good education for youth : Which will be advantage to the government, by the increase of the people, and their riches. Londres: T. Sowle, 1696. En línea. 25 de agosto de 2011. <http://onlinebooks.library.upenn.edu/webbin/book/ lookupname?key=Bellers%2C%20John%2C%201654-1725>. Berg, Maxine, La Era de las Manufacturas 1700-1820. Una nueva historia de la revolución industrial británica. Trad. Monserrat Iniesta. Madrid: Crítica, 1987. Cicerón, Marco T. Epistolae ad Atticum, ad Familiares, ad QuintumFratrem, Q. Tulli Ciceronis Commentariorum Petitionis Consulatus ad M Fratrem. Ed. L Purser. Oxford: Clarendon Press, 1901. Epicteto. Dissertationes ab Arriano Digestae. Ed. Heinrich Schenkl. Leipzig: Teubner, 1916. Habermas, Jürgen. Ciencia y Técnica Como Ideología. Trad. Manuel Jiménez Redondo y Manuel Garrido. Madrid: Tecnos, 2005. Heller, Agnes. Más Allá de la Justicia. Trad. Jorge Vigil. Barcelona: Crítica, 1990.
[57]
Carvajal, Germán
Hronszki, Imre. Algunas Observaciones Sobre la Reciente Filosofía de la Tecnología en Europa. El Caso de Alemania. Sala de Lectura CTS+I de la OEI. En línea. 10 de octubre de 2011. <http://www.oei.es/salactsi/teorema00.pdf>. Kapp, Ernst. Grundlinieneiner Philosophie der Technik. Braunschweig: Druck und Verlag von George Westermann, 1877. En línea. 8 de febrero de 2010. The Virtual Laboratory. Max Planck Institute for the History of Science. Berlin <http://vlp.mpiwg-berlin.mpg.de/references?id=lit39532>. Kuhn, Thomas S. The structure of scientific revolutions. Chicago: The University of Chicago Press., 1962. 2ª ed., aumentada y corregida. 1969. Longino. On the Sublime. Trad. William Rhys Roberts. Cambridge (UK): Cambridge University Press, 1907. Marx, Karl. El Capital. Crítica de la Economía Política. Vol 1. Trad. Wenceslao Roces, México: Fondo de Cultura Económica, 1977. Mitcham, Karl ¿Qué es la Filosofía de la Tecnología? Trad. César Cuello Nieto & Roberto Méndez Stingl. Barcelona: Anthropos, 1989. Molina Londoño, Luis F. “El Ferrocarril de Amagá”. Credencial Historia 102 (1998 junio). En línea. 28 de octubre de 2011. <http://www.banrepcultural. org/blaavirtual/revistas/credencial/junio1998/102porta.htm>. Olesson, John. P. Ed. The Oxford Handbook of Engineering and Technology in the Classical World. Oxford: Oxford University Press, 2008. Orlikowski, Wanda J. “The Duality of Technology: Rethinking the Concept of Technology in Organizations”. Organization Science 3.3 (1992): 398-247. Petty, William. “Another Essay on Political Arithmetic, concerning the Growth of the City of London: with the measures, periods, causes and consequences thereof”. 1682. The Economic Writings of Sir William Petty, together with the Observations Upon Bills of Mortality, More Probably by Captain John Graunt. Vol II. Ed. Charles Henry Hull, Cambridge: Cambridge University Press, 1899. En línea. 25 de agosto de 2011. <http:// oll.libertyfund.org/title/1677>. —. “Verbum Sapienti”. 1664. The Economic Writings of Sir William Petty, together with the Observations Upon Bills of Mortality, More Probably by Captain John Graunt. Ed. Charles Henry Hull. Cambridge: Cambridge University Press, 1899. En línea. 25 de agosto de 2011. <http://oll.libertyfund.org/title/1677>.
[58] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 37-60
Sobre el discurso tecnológico de la modernidad
Plutarco. “De Garrulitate”. Moralia. Ed. Gregorius N. Bernardakis. Leipzig: Teubner, 1891. Quintanilla, Miguel A. Tecnología: Un Enfoque Filosófico y Otros Ensayos de Filosofía de la Tecnología. México: Fondo de Cultura Económica, 2005. Rossi, Paolo. Los Filósofos y las Máquinas. 1400-1700. Trad. José Manuel García de la Mora. Barcelona: Labor, 1966. Searle, John. R. Speech Acts. An essay in the Philosophy of Language. Cambridge: Cambridge University Press, 1970. Vanderlint, Jacob. Money Answers All Things. 1734. A Reprint of Economic Tracts. Vol 3. Ed. Jacob Hollander. Baltimore: The Johns Hopkins Press, 1914. Vega Encabo, J. “Estado de la Cuestión: Filosofía de la Tecnología”. Theoría. An International Journal of Theory, History and Foundations of Science, 23.3 (2009): 323-341. Vérin, Hélène. “La Technologie: Science Autonome ou Science Intermédiaire?” Documents pour l’ histoire destechniques 14 (2007): 134-143. En línea. 25 de agosto de 2011. <http://dht.revues.org/pdf/1210>.
[59]
R ealismo pitagórico y realismo cantoriano en la física cuántica no relativista1
Pitagoric and cantorian realism in the non-relativistic quantum physics Rafael Andrés Alemañ Berenguer2
R esumen El carácter fundamentalmente probabilista de la teoría cuántica cuestionó el realismo como filosofía básica de la ciencia, si bien ciertas interpretaciones instrumentalistas podrían no amenazar por sí solas la existencia de un mundo exterior e independiente de nuestra conciencia. La falta de un valor definido para tales magnitudes antes de la medición alentó la suposición de que tales valores “no existen” antes de la medida. Una reinterpretación de nuestras ideas sobre las magnitudes físicas, considerándolas formalmente representadas por conjuntos de valores en lugar de valores numéricos concretos, ayudaría a disipar toda sombra de irrealidad física. Palabras clave: Objetividad, función, medida, magnitud, distribución.
A bstract The probabilistic character of quantum measures put in question the proper role of the realism as basic philosophy for science, even though certain instrumentalist interpretations might not threaten by itself the existence of an external world independent of the observer conscience. The lack of a defined value for such magnitudes previously to the measure encouraged the supposition that such values “did not exist” before there being measured. A reformulation of our ideas about physical magnitudes, regarding them as formally represented by sets of values instead of sharp numeric values would help to dissipate any unreality shade in physical sciences. Keywords: Objectivity, function, measurement, magnitude, distribution.
1 Recibido: 31 de marzo de 2012. Aceptado: 25 de septiembre de 2012. 2 Universidad Alicante, España. Correo electrónico: raalbe.autor@gmail.com.
Alemañ Berenguer, Rafael Andrés
1. Introducción Las discusiones sobre la interpretación más adecuada de la física cuántica apenas han cesado desde su mismo nacimiento. Sobre la mejor manera de entender sus fundamentos se han pronunciado muchos y muy eminentes autores, sin que todavía se haya llegado a un acuerdo general. Desde la concepción estadística propugnada por Alfred Landé hasta la concepción realista del potencial cuántico de David Bohm, pasando por la versión muchos universos de Hugh Everett, la explicación de Wigner basada en la conciencia del observador (Jammer 1974; Wheeler & Zurek 1986; Jammer 1996), o las interpretaciones modales, los sistemas cuánticos siempre tienen valores bien definidos en algunas propiedades físicas (Van Fraasen 1974, 1991; Albert & Loewer 1990; Elby 1993; Dickson 1994; Bene & Dieks 2002; Berkovitz & Hemmo 2006) infringiendo el tradicional vínculo “autoestado-autovalor”. Quizás por ello muchos físicos suelen adoptar una pragmática duplicidad, suscribiendo una opinión realista a efectos heurísticos (exploración de nuevos modelos, discusión de experimentos, uso de imágenes intuitivas de los microbjetos individuales), y replegándose hacia una interpretación minimalista basada en conceptos estadísticos (según la cual la teoría cuántica no es más que un manual de instrucciones para operar con datos experimentales) cuando habían de afrontar cualquier cuestionamiento epistemológico (D’Espagnat 2006, 225). En su vertiente científica —que es la que aquí nos concierne—, el realismo consiste en una actitud epistémica acerca del contenido de nuestras teorías científicas, la cual recomienda creer en la validez tanto de los aspectos observables como los no observables del mundo descrito por las ciencias (Musgrave 1992). En una interpretación probabilística mínima, la teoría cuántica se concibe como un formalismo cuyo fin consiste en el cálculo de probabilidades correspondientes a las frecuencias pronosticadas para los resultados de medidas llevadas a cabo en sistemas preparados idénticamente. Así pues, si el estado obtenido tras la preparación viene dado por el operador ρ y la magnitud observable E se asocia con una POM (medida de operador positivo) en una σ-álgebra Σ de subconjuntos X del espacio de valores Ω, la medida de probabilidad asociada p es {X ∈ Σ} → pEρ(X) ≡ tr[E(X)] ∈ [0, 1]. Tomando partido por una interpretación realista en el sentido anterior, la física cuántica sería una teoría completa cuyos enunciados tienen como referentes sistemas individuales (no colectivos estadísticos). Se supone que el papel principal de cualquier interpretación en esta controversia consiste en proporcionar una regla que determine, para cada estado, qué cantidades físicas poseen valores
[62] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 61-82
Realismo pitagórico y realismo cantoriano en la física cuántica no relativista
definidos que representan propiedades genuinas —o “elementos de realidad”, como veremos más adelante— del sistema cuántico estudiado. En relación con ello, en este artículo se propondrá un punto de vista interpretativo no muy extendido, pero que acaso sea digno de una ulterior profundización a causa de sus prometedoras posibilidades explicativas. De acuerdo con esto, ha de atribuirse valor ontológico a las superposiciones cuánticas de autoestados en pie de igualdad, aunque en otro sentido, con los autovalores de tales estados. Con ese fin, la primera parte analiza los distintos significados concedidos a la función de onda cuántica según el marco interpretativo escogido, y las célebres paradojas vinculadas con dichos significados. La segunda analiza si en verdad resulta inevitable someterse a la interpretación idealista de la teoría cuántica. La tercera presenta y defiende una alternativa. Las repercusiones ontológicas de esta propuesta, así como las cuestiones que deja abiertas serán comentadas en las siguientes dos partes. Por último, un sucinto resumen de las conclusiones cerrará el presente trabajo.
2. L a función de onda y las paradojas cuánticas En el marco de la teoría cuántica no relativista, suele tomarse como punto de partida en estas discusiones la afirmación de que la función de onda contiene toda la información susceptible de obtenerse en un sistema cuántico. En la práctica, esta información se logra aplicando a dicha función de onda una determinada operación matemática (operador cuántico) de tal forma que cada dato (posición, velocidad, energía, etc) tenga asociado un operador específico (operador de posición, de velocidad, de energía, entre otros). En la formulación usual de la teoría cuántica (restringiéndonos a un espectro de valores no degenerados), un observable típico viene matemáticamente representado3 por un operador hermítico A = ∑m am E m, con autovalores am, y E m el operador de proyección sobre el autovector |am>, que satisface E m2 = E m. El conjunto de operadores de proyección {E m} se conoce como la resolución espectral de A. Un estado mecano-cuántico se expresa mediante un vector de estado4 |ψ> sometido al requisito de normalización <ψ|ψ> = 1. 3 En general no se distinguirá en este trabajo entre un observable típico A y su representación matemática por medio de un operador hermítico Â. Esta pequeña negligencia en las distinciones entre ontología y epistemología resulta menos comprometedora que la identificación usual entre “estado (cuántico)” y “función de onda”. 4 Por simplicidad, la discusión subsiguiente no se ocupará de los estados mezcla ni de sus operadores de densidad ya que nada añaden a la cuestión aquí planteada.
[63]
Alemañ Berenguer, Rafael Andrés
El carácter vectorial de estos estados cuánticos concuerda con el llamado principio de superposición, que afirma la aditividad de dos estados de modo que la combinación lineal c1|ψ1> + c2|ψ2>, adecuadamente normalizada, constituye un posible vector de estado si |ψ1> y |ψ2> lo eran por separado. Una importante aplicación de este principio es la posibilidad de representar un vector de estado arbitrario como una combinación lineal de autovectores de un observable A, es decir, |ψ> = ∑mcm|am>, ∑m |cm|2 = 1. Estos vectores de estado son elementos de un espacio vectorial lineal, o más concretamente, de un espacio de Hilbert. La regla de Born nos proporciona la distribución de probabilidad de los resultados de medidas realizadas para un observable A en un cierto estado |ψ> según la igualdad pm = |<am|ψ>|2, donde la cantidad numérica <am|ψ> es la amplitud de probabilidad. En estas condiciones, el valor medio de los resultados de una serie de medidas, sería <A> = ∑mpm am = <ψ|A|ψ>. La evolución temporal viene dada por la ecuación de Schrödinger dependiente del tiempo iħ∂|ψ>/∂t = H |ψ>, donde H es el operador hamiltoniano (en lo sucesivo se tomará, como es habitual, ħ = 1). Si no depende explícitamente del tiempo, la solución de la ecuación de Schrödinger puede escribirse |ψ(t)> = e−iHt |ψ(0)>. La linealidad de esta ecuación garantiza la validez del principio de superposición. El llamado “postulado de proyección (o de reducción) de Von Neumann”, que suele tomarse no pocas veces como parte del formalismo típico de la teoría cuántica no relativista, establece que durante la medida el estado cuántico cambia de un modo no contemplado por la ecuación de Schrödinger. En concreto, se supone que durante la medida de un observable típico A que conduce a un resultado am, el vector de estado |ψ> sufre una transición discontinua5 |ψ> = ∑mcm|am> → |am>. Cuando efectuamos una medida del sistema cuántico, el valor de la función de onda cambia repentinamente; puesto que entonces se concreta su estado, la descripción física del sistema ya no puede contener probabilidades. Así, el coeficiente de la función correspondiente al estado en que el sistema no se encuentra se hace cero, con lo que el otro coeficiente se iguala a 1, pues una probabilidad igual a la unidad equivale a la certeza. Así ocurre si las probabilidades se interpretan como medida de la información o de la ignorancia acerca del estado preciso en el que se encuentra el sistema, esto es, si se trata de probabilidades gnoseológicas que cambian al modificar el estado 5 Esta es la versión “fuerte” del postulado. La versión “débil” considera todos los resultados posibles en lugar de uno, y desemboca en un estado final descrito por el llamado “operador de densidad”.
[64] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 61-82
Realismo pitagórico y realismo cantoriano en la física cuántica no relativista
de conocimiento del observador6. Aquí radica la famosa paradoja del gato de Schrödinger (1935), según la cual —si el sistema total evoluciona de acuerdo con la ecuación de Schrödinger— un hipotético felino podría encontrarse en un estado de superposición entre la vida y la muerte, ψ(gato) = (1/√2) ψ(gato vivo) + (1/√2) ψ(gato muerto), en una proporción del 50 % cada uno (Stapp 1971; Busch et ál. 1996). Esta paradoja ilustra una triple dificultad en la teoría cuántica; a saber, (a) la controvertida interpretación física atribuible a la función de onda, (b) la carencia de un criterio definido que marque la transición desde el mundo cuántico al mundo clásico, y (c) la posibilidad de que los sistemas físicos posean propiedades bien definidas en contra de las predicciones de la teoría cuántica que, por tanto, sería incompleta en el sentido expuesto por Einstein. De acuerdo con la posición realista adoptada en este trabajo, consideraremos en lo sucesivo que la función de estado en la teoría cuántica representa, al menos en algún sentido, ciertas características objetivas de los microbjetos, a los cuales nos referiremos en adelante como “cuantones” a fin de usar un término tan neutral como resulte posible (Bunge 1967a). Hay entonces dos visiones contrapuestas sobre el significado de la función de onda. La interpretación epistemológica afirma que esta contiene la información que un observador posee sobre un sistema cuántico; diversos observadores pueden tener información diferente sobre el mismo sistema cuántico. Parafraseando a Einstein, se tendría en este caso una descripción “incompleta” del sistema físico real. Por su parte, la interpretación ontológica sostiene que la función de onda codifica las propiedades físicas reales de un sistema cuántico. Por esta razón, todos los observadores7 que analicen de forma correcta el mismo sistema cuántico deben coincidir en el contenido físico —más allá de la forma matemática— de su función de onda. La cuestión pareció decidirse a finales de 2011 gracias a un artículo de Pusey et ál (2011) donde se presentaba un teorema —denominado ya “teorema PBR”— destinado a probar que la visión epistemológica es incorrecta. En la demostración del teorema PRB, estos autores establecen que si dos observadores utilizan dos funciones de onda diferentes representativas del mismo 6 Esto no es así si se adopta una interpretación ontológica (propensiva) de la probabilidad, como medida de una tendencia objetiva, aunque dicha interpretación sufre de diversos inconvenientes, como la dificultad de hallarle una pertinente extensión relativista. En todo caso, el problema filosófico de las interpretaciones de la probabilidad no se limita a la física cuántica. 7 A juicio de los autores del teorema PBR, el observador no tiene que ser macroscópico e incluso el “vacío cuántico” puede ser un observador válido.
[65]
Alemañ Berenguer, Rafael Andrés
sistema cuántico, porque parten de datos iniciales diferentes, entonces es posible construir un protocolo de medida en particular tal que los resultados físicos obtenidos difieran para ambos observadores. En concreto, para ciertas preparaciones del sistema cuántico, uno de los observadores afirmará que hay una probabilidad no nula de observar un resultado imposible (cuya probabilidad por construcción es siempre cero). Los autores del teorema PRB concluyen que dos observadores no pueden asignar dos funciones de onda diferentes al mismo sistema, aun cuando sean aparentemente compatibles con todas las medidas. Siempre resultaría posible demostrar que una de esas dos funciones carece de validez. Por tanto, la función de onda es “real” (lo que para estos autores significa ontológicamente independiente de los observadores) y no se trata de una mera elección epistemológica. Por otra parte, las teorías de variables ocultas, opuestas a la interpretación convencional de la física cuántica, sostienen que la conducta del electrón no es intrínsecamente fortuita e impredecible, sino que su aparente aleatoriedad se debería a factores físicos inadvertidos. La idea esencial que inspiraba esta alternativa había sido propuesta por Einstein, Podolsky y Rosen, lo que inspiró la llamada “paradoja EPR”. En cuanto al tema que aquí nos atañe, el artículo que presenta la paradoja EPR comienza dando un criterio de completitud para cualquier teoría física. Una teoría se juzgará completa si “todo elemento de la realidad física ha de tener una contrapartida en la teoría física” (Einstein et ál. 1935, 777). Ahora bien, ¿qué consideraban un “elemento de la realidad” Einstein y sus colegas? Se trata de un punto esencial en el debate, y sobre ello se decía unas líneas después: “Si podomes predecir con certeza (es decir, con probabilidad igual a la unidad) el valor de una cantidad física sin perturbar el sistema en modo alguno, entonces existe un elemento de rea1idad física correspondiente a esa cantidad física” (Einstein et ál. 1935, 777). Semejante afirmación se presenta como una condición suficiente para atribuir realidad a una magnitud física, no como una definición rigurosa de la realidad física en sí misma. Sin embargo, multitud de experimentos en una serie iniciada por el científico francés Alain Aspect y sus colaboradores (Aspect et ál. 1982) parecen respaldar más allá de toda duda razonable esta última opinión, lo que confrontó a los físicos con el problema de explicar cómo es posible que una medición efectuada sobre un fotón afecte a otro tan alejado del primero que ninguna señal física pueda conectarlos.
[66] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 61-82
Realismo pitagórico y realismo cantoriano en la física cuántica no relativista
3. ¿Es inevitable el subjetivismo cuántico? Una respuesta imparcial a esta pregunta debería buscarse como se haría con cualquier otra teoría física, esto es, analizando los referentes del formalismo propio de dicha teoría. Y si obramos de ese modo, no hallaremos el menor rastro de “mentes”, “observadores” o “conciencias” en el corazón de la física cuántica, más allá de la fraseología empleada por algunos autores. Sustituyendo la palabra “observable” —un legado del positivismo lógico dominante a comienzos del siglo XX— por “magnitud física”, el ámbito de aplicación y el poder predictivo de la teoría cuántica quedan intactos. Y no puede ser de otra manera porque ni las referencias al yo ni a sus aptitudes para colapsar estados pertenecen en rigor a la teoría cuántica. Se trata de interpretaciones adventicias de los referentes de la física cuántica así como de sus procesos de medición (Bunge 1982, 69-70, 95-100). El papel desempeñado por los símbolos matemáticos es idéntico en la física clásica y en la cuántica. En ambos casos, se trata de conceptos formales cuyos referentes son las propiedades de los objetos físicos que componen el mundo natural (Bunge 1967b), aunque en muchos casos tales propiedades resulten asombrosas. Tampoco se justifica la opinión de que la teoría cuántica destierra la causalidad del corazón de la física. Únicamente debemos renunciar al determinismo laplaciano, pero no a la existencia de leyes naturales bien definidas (ecuaciones de evolución, como la de Schrödinger, o teoremas de conservación, como el de la energía) que obviamente también se dan en el mundo cuántico (Fock 1958). Las restricciones impuestas por las desigualdades de Heisenberg se refieren solo a la descripción clásica de los fenómenos subatómicos; la descripción puramente cuántica no está sometida a tales limitaciones. Por ejemplo, las distribuciones de probabilidad —una propiedad específicamente cuántica— pueden calcularse con precisión siempre creciente en proporción directa al refinamiento de nuestras teorías sobre el micromundo (Omelyanovskij et ál. 1972). No obstante, para salvar la noción realista clásica, se recurre a la intervención de un presunto sujeto cognoscente responsable de tales limitaciones. Pero sucede que para señalar los límites de validez en la aplicación de los conceptos clásicos al mundo cuántico no se necesita de subjetividad alguna; basta con prescripciones puramente físicas sin más referentes que los de la propia teoría (Bunge 1985, 79-95). Parece, pues, que sí es posible interpretar la teoría cuántica mediante una perspectiva realista y objetiva (Bunge 1977) que no considere su formalismo como un simple artificio matemático para pronosticar datos experimentales,
[67]
Alemañ Berenguer, Rafael Andrés
ni como un imparable generador de mundos alternativos, ni como expediente legitimador de una fantasmagórica intervención de la mente sobre la materia. La física cuántica, en suma, no es necesariamente positivista, contra la opinión todavía hoy manifestada en los escritos de algunos de sus expertos (ÁlvarezGalindo y García-Alcaine 2005). La física clásica, es bien cierto, se ha identificado siempre con las cuatro demandas típicas de la filosofía realista (Rescher 1987, 121-125): (R1) Sustancialidad: identidad permanente de las cosas físicas. (R2) Fisicalidad: todo objeto existente debe ser susceptible de incorporación al esquema físico de la naturaleza. (R3) Accesibilidad: los objetos físicos pueden ser conocidos de modo parcial, inexacto y siempre perfectible. (R4) Independencia existencial: la existencia de las cosas físicas es autónoma con respecto al entorno (observadores inteligentes, otros objetos físicos, entre otros). Rechazar los enunciados (R1) y (R3) supondría en la práctica vedar toda posibilidad de discusión racional sobre la naturaleza, por lo cual no insistiremos en ellos. Por el contrario, el requisito (R2) se ha confundido, tradicionalmente y sin necesidad de ello, con el de ubicabilidad; es decir, que todo objeto posee una localización concreta —“puntual”, diríamos— en el espacio y el tiempo8. La teoría cuántica renuncia a la ubicabilidad, es cierto, pero en modo alguno abandona también la fisicalidad. Sucede que el esquema cuántico del mundo es radicalmente diverso del clásico, aunque no por ello es menos real. Por último, (R4) es el que mayor controversia ha generado, en cuanto que los resultados de los experimentos sobre correlaciones EPR se han interpretado erróneamente como una negación de este requisito. Los observadores someten a prueba las distribuciones probabilísticas pronosticadas por la teoría cuántica con independencia de los observadores; sus experimentos las confirman en todo caso, pero no las crean.
8 Se considera concretamente la ubicación espacio-temporal —cuando el problema del valor definido concierne a todas las propiedades de los sistemas cuánticos— porque la ubicabilidad, con su transposición clásica inmediata (la posición de un objeto), fue una de las cuestiones que más inflamó los primeros debates sobre la interpretación de la física cuántica.
[68] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 61-82
Realismo pitagórico y realismo cantoriano en la física cuántica no relativista
4. R ealismo “pitagórico” y realismo “cantoriano” En el corazón de la mayoría de las controversias sobre el realismo y el idealismo en la interpretación de los bien confirmados fenómenos cuánticos, parece hallarse un supuesto implícito al que pocas veces se presta la atención debida. Recordemos que, según el criterio EPR, una propiedad física se considera “real” si posee un valor concreto expresado formalmente mediante un número real. Ya que la violación experimental del teorema de Bell indica que semejante opinión es insostenible, mediante un silogismo implícito no pocos autores han inferido de ello que la teoría cuántica refuta el realismo como trasfondo filosófico fundamental de la ciencia física. Sin duda quienes así piensan tienen razón si reducimos el significado de “realismo” a lo que, en sentido estricto, deberíamos denominar “realismo fisicista clásico”, a saber: la suposición de que las propiedades de los sistemas físicos solo pueden quedar matemáticamente definidas mediante números reales concretos, negando toda legitimidad a cualquier otra opción. … Si los proyectores, las magnitudes, no pueden estar completamente definidos, habrá que aceptar una imagen de la realidad microscópica en la que las cosas están en situación de indefinición, de cierta ambigüedad. . . . No puede mantenerse la imagen de un mundo completamente determinado. No podemos pensar que la realidad existe ahí afuera sin que la observemos (Cassinello 2007, 47).
Nótese el descarnado salto lógico que se da en la cita precedente, pues de la indefinición de las magnitudes cuánticas se pretende deducir la imposibilidad de una realidad extramental no observada. Teniendo en cuenta que el realismo clásico suele abarcar otras premisas, como el requisito de separabilidad (refutada por las correlaciones EPR), sería más adecuado buscar un nombre específico para este aspecto concreto relacionado con la expresión cuantitativa de las propiedades físicas. Tal vez una denominación apropiada sería “realismo pitagórico” por cuanto la clave de la distinción reside en la naturaleza del objeto matemático —números reales— que se hace corresponder necesariamente con cada propiedad física (aunque Pitágoras hubiese abominado de este tipo de números). Esquemáticamente expresado, en el realismo pitagórico se afirma que a cada propiedad p de un objeto físico cualquiera O corresponde un número real x al que llamamos valor de dicha propiedad, de lo cual deducimos que p solo tiene existencia objetiva si existe un x con el cual hacerla corresponder.
[69]
Alemañ Berenguer, Rafael Andrés
Por tanto, con los argumentos previos se nos invita a aceptar subrepticiamente una cadena de implicaciones muy determinada: Realismo ⇔ Realismo pitagórico ≡ Asignación de valores concretos (números reales) a las propiedades físicas. Teniendo en cuenta que las magnitudes cuánticas carecen en general de estos valores concretos, se nos exige la renuncia al realismo en su sentido más amplio. Sin embargo, hay una alternativa muy clara que surge con naturalidad de la propia teoría cuántica, según la cual bastaría con admitir que las magnitudes físicas solo pueden asumir conjuntos de valores, continuos o discretos, en lugar de valores únicos y aritméticamente aquilatados (sharp values). En este caso, asignar a la propiedad física p —antes de ser medida— un subconjunto de los números reales S, que bien podría ser un intervalo continuo (cuando los valores permitidos a una magnitud cuántica forman una serie continua) o un conjunto discreto (si el rango permitido recorre valores discontinuos), no debería considerarse menos real que la tradición clásica consistente en asociar valores numéricos unívocos a cada propiedad física de un sistema. La alternativa que aquí se defiende implica aceptar que la superposición cuántica de estados permitidos para un cierto sistema es tan real como cuando se encuentra en un autoestado cuyo autovalor para una propiedad determinada coincide con un resultado clásico. Es decir, para una propiedad física cualquiera, las superposiciones de valores permitidos, continuos o discretos, son tan objetivamente reales como los estados unívocamente caracterizados por un autovalor tras efectuar una medición. Es de crucial importancia destacar que con esta decisión estamos otorgando un valor ontológico, no solo gnoseológico, a los conjuntos de valores de las magnitudes cuánticas. Una elección tal merece su propia denominación que, por contraste con el nombre escogido con anterioridad, podría denominarse “realismo cantoriano”, dado que ahora operamos en principio con conjuntos de valores que pueden ser tanto continuos como discretos. Con ello han de considerarse objetivamente reales las superposiciones de estados, y por tanto objetivamente real también la situación en que una propiedad física no se caracteriza por un valor numérico unívoco sino por un conjunto —continuo o discreto— de valores posibles, cada uno de ellos multiplicado por un coeficiente que determina su grado de participación en la superposición global. Para cada cuádruplo 〈O, p, t, f 〉, donde O es un objeto o sistema físico cualquiera, p una propiedad física de O, t un instante del tiempo y f un marco de referencia, la física clásica asignaba siempre, en principio, un número real x ∈ ℝ. Podía darse el caso de que las técnicas experimentales no pudiesen [70] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 61-82
Realismo pitagĂłrico y realismo cantoriano en la fĂsica cuĂĄntica no relativista
medir esa magnitud concreta, tal vez porque el objeto en cuestiĂłn formase parte de un colectivo muy numeroso (como en la mecĂĄnica estadĂstica), pero nunca se ponĂa en duda que tal propiedad poseĂa por definiciĂłn un valor numĂŠrico aquilatado. En la fĂsica cuĂĄntica, por el contrario, a ese mismo cuĂĄdruplo se le puede asignar en general un conjunto de valores đ?&#x2019;Ž, continuo o discreto, el cual queda reducido tras el proceso de medida a un Ăşnico valor que en ocasiones coincide con un valor clĂĄsico de algunas magnitudes fĂsicas. Por primera vez en la historia de la ciencia, encontramos una teorĂa cuya cuantificaciĂłn de las propiedades fundamentales de la naturaleza no se realiza primariamente mediante nĂşmeros individuales. Antes de la teorĂa cuĂĄntica, siempre se daba por sentado que el uso de las probabilidades y la estadĂstica compensaba una dificultad de cĂĄlculo debida a nuestra ignorancia de la gran cantidad de factores implicados. Pero, despuĂŠs de la teorĂa cuĂĄntica, sabemos que en la naturaleza puede haber probabilidades primarias irreducibles que no encubren nuestra ignorancia sobre multitud de datos bien determinados. Si hasta ahora, durante la evoluciĂłn temporal de cada magnitud clĂĄsica se le asignaba un valor numĂŠrico en cada instante del tiempo, en el mundo cuĂĄntico a cada instante corresponde todo un conjunto de valores del cual podemos obtener ulteriormente una distribuciĂłn de probabilidad mediante los procedimientos usados en esta teorĂa. Por eso, la teorĂa cuĂĄntica sĂ es realmente extraĂąa comparada con la fĂsica clĂĄsica porque sus referentes bĂĄsicos son entidades sin parangĂłn en el mundo macroscĂłpico clĂĄsico. Estas puntualizaciones sirven como defensa del realismo no clĂĄsico frente a los intentos de asentar una postura positivista radical en el regazo de la fĂsica cuĂĄntica (Gleason 1957; Jauch & Piron 1963). Uno de ellos se apoya en el teorema desarrollado en 1967 por Simon Kocher y Ernst Specker sobre la compatibilidad de los valores observables (Kochen & Specker 1967), cuya interpretaciĂłn vulgarizada afirma que los resultados de las magnitudes fĂsicas observables en un sistema fĂsico â&#x20AC;&#x153;no existenâ&#x20AC;? antes de ser medidos (Ă lvarezGalindo & GarcĂa-Alcaine 2005; Cassinello 2007). La verdadera finalidad del teorema es demostrar la contextualidad cuĂĄntica: el hecho de que la adjudicaciĂłn simultĂĄnea de un valor preciso a todos los observables (magnitudes fĂsicas) de un sistema cuĂĄntico conduce a una contradicciĂłn (para espacios de Hilbert de dimensiĂłn mayor o igual a tres) y, por tanto, la adjudicaciĂłn simultĂĄnea de un valor preciso a los observables de un sistema cuĂĄntico solo puede efectuarse consistentemente para los observables de un contexto (Bub 1997). Sin embargo, persiste una lĂnea de pensamiento para la cual antes de admitir la existencia de un valor concreto de una propiedad fĂsica se considera un requi-
[71]
AlemaĂą Berenguer, Rafael AndrĂŠs
sito indispensable la exigencia de que dicho valor no dependa de la mencionada contextualidad. El criterio de realismo EPR, por ejemplo, se opone a esa interpretaciĂłn contextual. El corazĂłn de la controversia radica, una vez mĂĄs, en lo que entendamos por â&#x20AC;&#x153;existir antes de ser medidoâ&#x20AC;?. Si concebimos Ăşnicamente datos clĂĄsicos â&#x20AC;&#x201D;expresados como nĂşmeros realesâ&#x20AC;&#x201D; la respuesta es negativa. Pero si atribuimos a las propiedades cuĂĄnticas un carĂĄcter matemĂĄtico distinto â&#x20AC;&#x201D;no hay valores individuales antes de la mediciĂłn, sino conjuntos de tales valoresâ&#x20AC;&#x201D;, entonces las magnitudes fĂsicas existen objetivamente en todo momento aunque no siempre como nĂşmeros reales aquilatados9. Tomemos el caso tĂpico idealizado de un cuantĂłn en una caja unidimensional, que pese a su carĂĄcter puramente ilustrativo servirĂĄ bien a los propĂłsitos de esta discusiĂłn. Sea y(x) la funciĂłn de estado de ese cuantĂłn, con las consabidas condiciones de contorno, de cuyo cuadrado obtenemos la densidad de probabilidad de localizaciĂłn |y(x)|2. Un positivista dirĂa que el cuantĂłn no posee un valor concreto de la propiedad â&#x20AC;&#x153;posiciĂłnâ&#x20AC;? hasta que es medido, y a consecuencia de ello infiere que dicha propiedad no es real. Ahora bien, si aceptamos el realismo cantoriano, deberĂa replicarse que en efecto el cuantĂłn carece de una localizaciĂłn concreta â&#x20AC;&#x201D;que serĂa una exigencia tĂpica del realismo pitagĂłricoâ&#x20AC;&#x201D;, pero aun asĂ a la propiedad â&#x20AC;&#x153;posiciĂłnâ&#x20AC;? corresponde todo el conjunto continuo de puntos permitidos del espacio dentro de la caja, en cada uno de los cuales la densidad de probabilidad asociada se calcula mediante el cuadrado de la funciĂłn de onda. Tener en cuenta solamente la posiciĂłn equivale a elegir un solo contexto, de manera que la discusiĂłn de la contextualidad cuĂĄntica no procede. Cuando se quieren determinar diversas propiedades incompatibles del sistema a la vez, por ejemplo la posiciĂłn y el impulso, resulta entonces que cada uno de los respectivos conjuntos de valores â&#x20AC;&#x201D;đ?&#x2019;Žq y đ?&#x2019;Žp, por ejemploâ&#x20AC;&#x201D; viene estipulado por las bien conocidas desigualdades de Heisenberg, dependiendo del modo en que se haya preparado fĂsicamente el sistema en cuestiĂłn. ÂżQuĂŠ sucede cuando tenemos un sistema cuĂĄntico individual en una superposiciĂłn de dos estados? Escojamos por simplicidad el caso de un cuantĂłn en una combinaciĂłn lineal de dos estados energĂŠticos discretos, yE = c1f1 + c2f2. Tradicionalmente se afirmarĂa que los cuadrados de los coeficientes de esta combinaciĂłn, |c1|2 y |c2|2, representan tan solo la probabilidad de encontrar el sistema en uno de esos dos estados al efectuar una mediciĂłn, sin otro signi9 Cada estado puro es una combinaciĂłn lineal no trivial de autovectores de magnitudes cuĂĄnticas con las cuales el operador de densidad asociado (la proyecciĂłn unidimensional) no conmuta. Por ello, los valores de esas magnitudes quedan indefinidos.
[72] Revista Colombiana de FilosofĂa de la Ciencia 12.25 (2012 julio-diciembre): 61-82
Realismo pitagórico y realismo cantoriano en la física cuántica no relativista
ficado físico más que el meramente instrumental. Desde la perspectiva del realismo cantoriano, sin embargo, la propia superposición posee valor ontológico, y los cuadrados de sus coeficientes expresan la participación de cada uno de esos estados componentes en el proceso —todavía desconocido— que opera la transición hasta un resultado único (autovalor), el denominado “colapso de la función de onda”.
5. R epercusiones ontológicas Al considerar la cuestión de qué podría constituir una condición necesaria para que una propiedad fuese juzgada real, no estaría de más detenerse a reflexionar someramente sobre el significado de términos como “real”. Una cosa (en latín res) posee la facultad de hacerse notar ejerciendo algún tipo de influencia a su alrededor; esto es, actúa de alguna manera sobre su entorno. Por tanto, el carácter real de una propiedad perteneciente a un objeto implica la capacidad de influenciar otros objetos (en especial, los aparatos de medida) de una forma típica de esa propiedad. Esta condición necesaria y suficiente para la realidad de los objetos físicos y sus propiedades aquí sugerida concuerda con ciertos requerimientos de la experiencia objetiva, de espíritu kantiano, basados en las categorías de sustancia, causalidad e interacción (Mittelstaedt 1975; 1994). En nuestro caso, las propiedades de interés son las magnitudes físicas de un sistema cuántico. En ausencia de una cierta propiedad, la acción del sistema sobre el entorno —su conducta, en suma— será distinta de la que exhibiría con esa propiedad presente. Aplicado al contexto de las mediciones, en el cual la interacción se da entre el sistema y una parte de su entorno (el dispositivo de medida), esto significa que una propiedad se considerará real cuando la medida proporcione el valor de la magnitud sin ambigüedad. Esta prescripción, que ha recibido el nombre de condición de calibración (Busch et ál. 1996), se adopta como criterio definitivo en el reconocimiento de que un proceso determinado ha sido de hecho la medida de una cierta magnitud cuántica. Su incorporación en la física cuántica se hace posible si el carácter real de una propiedad se identifica con el hecho de que el sistema se halle en el autoestado asociado. Los teoremas de irresolubilidad iniciados por Wigner (Busch & Shimony 1996; Busch 1998) recogieron algunas interesantes implicaciones de esta cuestión. Estos teoremas presuponen una dinámica lineal y unitaria para los estados cuánticos, el criterio de realidad suministrado por el vínculo autoestado-autovalor, y la regla de que todo proceso físico de medida ha de finalizar
[73]
Alemañ Berenguer, Rafael Andrés
con un resultado concreto. Según los teoremas de irresolubilidad, estos tres requisitos tomados en conjunto desembocan en contradicciones. Una razón más, tal vez, para modificar el criterio de realidad en la dirección señalada por el realismo cantoriano. En síntesis, las ideas que en la actualidad configuran la teoría cuántica de la medida sugieren la adopción del vínculo autovalor/autoestado como el criterio básico de realidad en la física cuántica. Pero se trata precisamente de un criterio legado por el realismo clásico (pitagórico) que en modo alguno resulta obligatorio admitir. Aceptando desde una posición realista cantoriana que los estados de superposición expresan una ontología propia, es decir, poseen su propio estatuto de realidad, se extinguirían los problemas asociados al debate sobre el realismo en los objetos cuánticos. Esta alternativa ontológica debe distinguirse con claridad de las versiones remozadas de la dicotomía aristotélica entre “potencia” y “acto”. El término “potencialidad” fue recuperado por Heisenberg (1958, 53) para expresar la tendencia de los fenómenos cuánticos a actualizarse durante las medidas. Una idea similar fue defendida por Popper (1959) con la palabra “propensividad”, refiriéndose a las probabilidades cuánticas como tendencias inmanentes de los microbjetos. Desde la perspectiva del realismo cantoriano, no hay tendencias ni potencialidades puesto que las superposiciones lineales de los autoestados gozan por sí mismas de una consideración ontológica de realidad con pleno derecho, y no remiten a un devenir que convierte las potencias en actos, ni a propensiones inherentes a la intimidad incognoscible de los cuantones. En todo caso, del realismo cuántico también se desprende la capacidad de encajar en su marco interpretativo el indeterminismo de los resultados de las medidas realizadas sobre magnitudes cuánticas. Si una propiedad carece de un valor concreto —en el sentido antes expuesto—, todo lo que una medida puede hacer es inducir el acaecimiento aleatorio de uno de los posibles resultados. Es decir, el resultado individual de la media no viene impuesto por causa identificable alguna, si bien dicho resultado individual sí obedece a una causalidad de tipo estocástico (la regla de Born). Esta idea descansa sobre la premisa de que las medidas y la obtención de sus correspondientes resultados son procesos físicos correctamente descritos y explicados por la propia teoría cuántica, lo cual está muy lejos de hallarse claro en el momento presente (Mittelstaedt 1998).
[74] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 61-82
Realismo pitagórico y realismo cantoriano en la física cuántica no relativista
6. Cuestiones pendientes La interpretación expuesta hasta este punto deja sin respuesta algunos de los interrogantes esenciales de la teoría cuántica, tres de los cuales —tal vez los más relevantes— la acompañaron desde sus inicios. El primero de ellos se refiere a la naturaleza física de la función de onda, o más objetivamente, función de estado cuántico. Sigue pendiente esclarecer a qué clase de realidad conciernen las propiedades formales de dichas funciones, en buena parte a debido a que las funciones Y se consideran pertenecientes a un espacio funcional abstracto (espacio de Hilbert) con el cual nuestro espacio-tiempo físico guarda una relación muy lejana y controvertida. Por tanto, queda todavía en la penumbra dilucidar cuál es el referente físico de las funciones de estado típicas de la teoría cuántica. Tampoco se aclara dónde podemos encontrar la genuina transición desde el ámbito cuántico al clásico, cuestión ejemplificada por la archiconocida paradoja del gato de Schrödinger10. No sabemos cómo se produce —si es que se produce— el así llamado “colapso” de la función de onda, por la cual una superposición lineal de diversos estados se reduce a uno solo, aquél que de hecho obtenemos en la medida. Obviamente, si admitimos un encadenamiento de sucesivos colapsos nos veremos enfrentados a un claro dilema: o bien no hay un colapso final y todo el universo sigue evolucionado según la ecuación de Schrödinger (interpretación de “muchos mundos” de Everett), o bien hemos de poner al final la conciencia de un observador (versión del “amigo de Wigner”) y cargar sobre ella la responsabilidad de restaurar la realidad. Pero con ello tan solo probamos nuestra ignorancia del colapso cuántico como proceso físico genuino, independiente de recursos extrafísicos, como supuestas mentes o conciencias reductoras de la función de estado. La recurrente mención de los observadores o los actos de observación ha arraigado en la literatura especializada hasta el punto de que su improcedencia pasa completamente desapercibida: 10 Pero el colapso no es suficiente para explicar la transición de lo cuántico a lo clásico: una superposición de dos autoestados del espín en la dirección x, por ejemplo, se convierte en uno de los dos autoestados debido al colapso, pero no puede decirse aún que se haya pasado al mundo clásico puesto que el espín es una magnitud cuántica sin análogo clásico alguno. Por ello, la discusión se refiere a aquellas magnitudes cuánticas con una contrapartida clásica. El espín no satisface dicha condición, aunque —si bien puede incluirse por puro expediente empírico como un número cuántico más— surge de una combinación entre requisitos cuánticos y relativistas. Este trabajo, no obstante, se ciñe a la cuantización no relativista efectuada tomando variables clásicas y sustituyéndolas por operadores cuánticos.
[75]
Alemañ Berenguer, Rafael Andrés
El teorema [de Kochen y Specker] que hemos demostrado prueba que las propiedades de los sistemas microscópicos no están definidas hasta que nosotros las observamos. Los proyectores, las magnitudes, permanecen en estado de indefinición hasta que los observamos, los medimos . . . (Cassinello 2007, 47).
Basta con un somero examen del citado teorema (Cabello et ál. 1996) para comprobar que en su formulación rigurosa solo aparecen nociones como la de proyector, espacio n-dimensional o magnitud física. Por ninguna parte se mencionan observadores, actos de medida o algo similar (Bunge 1971). Por último, otra de las dificultades que no resuelve la adopción de un realismo cantoriano como base interpretativa de la física cuántica involucra la conciliación entre las características propias de los fenómenos cuánticos y los requerimientos derivados de la relatividad especial. Pese a las repetidas afirmaciones de que la teoría cuántica de campos resuelve esta cuestión, lo cierto es que no se llega a trazar una imagen plenamente espacio-temporal de los sistemas físicos en ella tratados (Bohm & Hiley 1993). Sin duda diversos teoremas prohíben la transmisión de señales a velocidades hiperlumínicas mediante las correlaciones EPR, pero tampoco cabe dudar que nadie ha logrado obtener una genuina descripción covariante del colapso de la función de estado en términos del espacio-tiempo de Minkowski. De hecho, observadores en movimiento mutuamente inercial que participen en un experimento de tipo EPR, aunque no puedan comunicarse a velocidades mayores que c, obtendrán de sus respectivas medidas (y consiguientes colapsos de la función de estado) imágenes del mundo físico difícilmente compatibles entre sí. La solución a este problema suele esperarse de una futura gravitación cuántica, fundada sobre algún tipo de estructura cuántica para el espacio-tiempo, de modo que el espacio- tiempo clásico y los objetos clásicos emergerían como configuraciones a gran escala. Mediante las álgebras C*, por ejemplo, las coordenadas espacio-temporales aspiran a convertirse en variables cuántica, dando lugar con ello al concepto de espacio-tiempo cuántico (Doplicher et ál. 1995; Bahns et ál. 2003). En tanto las coordenadas espacio-temporales devengan no conmutativas, el marco natural para las medidas espacio-temporales podría ser el perfilado por el realismo cantoriano.
7. Conclusiones Las interpretaciones idealistas y subjetivistas de la teoría cuántica en cualquiera de sus versiones suelen argumentarse a partir de un supuesto implícito
[76] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 61-82
Realismo pitagórico y realismo cantoriano en la física cuántica no relativista
relacionado con la asignación de valores numéricos unívocos a las propiedades físicas que se juzgan inherentes a cada sistema físico (realismo pitagórico). Este problema puede soslayarse sin más que aceptar el valor ontológico de los conjuntos, discretos o continuos, de valores propios de las magnitudes cuánticas (realismo cantoriano). De ese modo, no resultará obligado considerar irreal una propiedad física por el hecho de que carezca de un valor concreto estipulado mediante un número real. Aun así, quedan en pie los problemas relacionados con el significado físico de la función de estado, la reducción o “colapso” de dicha función, así como la incoherencia entre la descripción espacio-temporal de los fenómenos físicos, típica de la relatividad especial, y la descripción estocástica no espacio-temporal, propia de la física cuántica. Podría ocurrir que tanto la física clásica como la cuántica fuesen casos límites de una teoría más general y abarcadora, que sería la responsable de asignar distintos dominios de validez a estas dos teorías. Uno de los escenarios intelectuales donde se persigue este objetivo surge al aplicar el formalismo de las álgebras C* a la formulación de teorías físicas. Con este método, la estructura del álgebra de las magnitudes físicas —“observables”, para muchos autores— puede ser o bien abeliana (representativa de las situaciones clásicas), o bien irreducible (fenómenos cuánticos), o incluso intermedia. Este último caso parece corresponderse con sistemas cuánticos en los que operan reglas de superselección, que pueden aflorar en teorías relativistas de campos cuánticos o en teorías cuánticas de sistemas macroscópicos. En suma, es perfectamente posible una interpretación realista y no local de la física cuántica (Bunge 1967b), considerada a su vez como una teoría completa —en el sentido de suponer la inexistencia de variables ocultas subyacentes— aunque no definitiva, pues no permanecerá como la teoría final de los procesos microfísicos, aunque solo sea porque habrá de modificarse para clarificar el colapso de la función de estado e incorporar la gravitación. Parece excesivo pretender que la teoría cuántica en solitario —con su cortejo de problemas interpretativos— es el marco fundamental y último para la explicación de la realidad física, como en algún momento afirmó Heisenberg. Sin duda, fenómenos tan asombrosos como las correlaciones EPR, y otros del mismo jaez, nos obligarán antes o después a modificar nuestra concepción de la naturaleza mucho más radicalmente que la propia revolución cuántica.
[77]
Alemañ Berenguer, Rafael Andrés
Trabajos citados Albert, David & Loewer, Barry. “Wanted dead or alive: two attempts to solve Schrödinger’s paradox”, Proceedings of the Philosophy of Science Association 1 (1990): 277-285. Álvarez-Galindo, Gabriel & García-Alcaine, Guillermo. “Localidad einsteiniana y mecánica cuántica”. Revista Española de Física 19.1 (2005): 43-50. Aspect, Alain; Dalibar, Jean & Roger, Gerard. “Experimental tests of Bell`s inequalities using time-varying analyzers”. Physiscal Revew Letters 49 (1982): 1084-1087. Bahns, Dorothea; Doplicher, Sergio; Fredenhagen, Klaus & Piacitelli, Gherardo. “Ultraviolet Finite Quantum Field Theory on Quantum Spacetime”. Commun. Math. Phys. 237.1-2 (2003): 221-241. Bell, John S. Lo decible y lo indecible en mecánica cuántica. Madrid: Alianza, 1990. Bene, Gyula. & Dieks, Dennis. “A perspectival version of the modal interpretation of quantum mechanics and the origin of macroscopic behavior”, Foundations of Physics 32 (2002): 645-671. Berkovitz, Joseph & Hemmo, Meir. “Can modal interpretations of quantum mechanics be reconciled with relativity?”. Philosophy of Science 72 (2005): 789-801. Birkhoff, Garrett & Von Neumann, John. “The Logic of Quantum Mechanics”. Annals of Mathematics 37 (1936): 823-843. Bohm, David & Hiley, Basil. The Undivided Universe. An Ontological Interpretation of Quantum Theory. Londres: Routledge, 1993. Bub, Jeffrey. Interpreting the Quantum World. Cambridge: Cambridge University Press, 1997. Bunge, Mario. Foundations of Physics, New York: Spinger-Verlag, 1967a. —. Quantum theory and reality. New York: Springer-Verlag, 1967b. —, ed. Problems in the foundations of physics. New York: Springer-Verlag, 1971. —. The Furniture of the World. Dordrecht-Boston: Reidel, 1977. —. Filosofía de la Física. Barcelona: Ariel, 1982. —. Epistemología. Barcelona: Ariel, 1985.
[78] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 61-82
Realismo pitagórico y realismo cantoriano en la física cuántica no relativista
Busch, Paul. “Can «Unsharp Objectification» Solve the Quantum Measurement Problem?”. Int. J. Theor. Phys. 37.1 (1998): 241-247. Busch, Paul; Lahti, Pekka. & Mittelstaedt, Peter. The Quantum Theory of Measurement. 2ª ed. Berlin: Springer, 1996. Busch, Paul. & Shimony, Abner. “Insolubility of the quantum measurement problem for unsharp observables”. Stud. Hist. Phil. Mod. Phys. 27.4 (1996) 397-404. Cabello, Adán; Estebaranz, José M & Garcia, Guillermo. “Bell-KochenSpecker theorem: A proof with 18 vectors”. Physics Letters. A 212 (1996): 183-187. Cassinello, Andrés. “La indeterminación en mecánica cuántica”. Revista de la Real Sociedad Española de Física 21.4 (2007): 42-53. D’Espagnat, Bernard. On Physics and Philosophy. Princeton: Princeton University Press, 2006. Dickson, Michael. “Wavefunction tails in the modal interpretation”. Proceedings of the Philosophy of Science Association 1 (1994): 366-376. Doplicher, Sergio; Fredenhagen, Klaus & Roberts, John E. “The quantum structure of spacetime at the Planck scale and quantum fields”. Commun. Math. Phys. 172.1 (1995): 187-220. Einstein, Albert; Podolsky, Boris & Rosen, Nathan. “Can quantum-mechanical description of reality be considered complete?”. Physical Review 47 (1935): 777-780. Elby, Andrew. “Why «modal» interpretations of quantum mechanics don’t solve the measurement problem”. Foundations of Physics Letters 6 (1993): 5-19. Fock, Vladimir A. “Remarks on Bohr’s article on his discussions with Einstein”. Usp. Fiz. Nauk, 66 (1958): 599-607. Gleason, Andrew M. “Measures on the Closed Subspaces of a Hilbert Space”. Journal of Mathematics and Mechanics 6 (1957): 885-893. Gottfried, Kurt. “Does Quantum Mechanics Carry the Seeds of its own Destruction?” Quantum Reflections. Eds. D. Amati D, J. Ellis. Cambridge: Cambridge University Press, 2000. 165-185. Halvorson, Hans & Clifton, Rob. “No Place for Particles in Relativistic Quantum Theory?”. Philosophy of Science 69 (2002): 1-28.
[79]
Alemañ Berenguer, Rafael Andrés
Heisenberg, Werner. Physics and Philosophy. New York: Harper & Row, 1958. Hiley, Basil J. “Foundations of Quantum Mechanics”. Contemporary Physics 18 (1977): 411-414. Jammer, Max. The Philosophy of Quantum Mechanics: The Interpretations of Quantum Mechanics. An Historical Perspective. New York: John Wiley & Sons, 1974. —. The Conceptual Development of Quantum Mechanics. New York: McGrawHill, 1996. Jauch, Josef M & Piron, Constantin. “Can Hidden variables be Excluded in Quantum Mechanics?”. Helvetica Physica Acta 36 (1963): 827-837. Kochen, Simon & Specker, Ernst. “The Problem of Hidden Variables in Quantum Mechanics”. Journal of Mathematics and Mechanics 17 (1967): 59-87. Mackey, George. The Mathematical Foundations of Quantum Mechanics. New York: Benjamin, 1963. Mittelstaedt, Peter. Philosophical Problems of Modern Physics. Dordrecht: Reidel, 1975. —. “The Constitution of Objects in Kant’s Philosophy and in Modern Physics”. Kant and Contemporary Epistemology. Ed. P. Parrini. Dordrecht: Kluwer Academic Publishers, 1994. 169-181. —. The Interpretation of Quantum Mechanics and the Measurement Process. Cambridge: Cambridge University Press, 1998. Musgrave, Alan. “Discussion: Realism About What?”. Philosophy of Science 59 (1992): 691-697. Omelyanovskij, Mykhailo E; Tagliagambe, Silvano & Geymonat, Ludovico. L’ interpretazione Materialistica della Mecánica Quantistica. Milán: Feltrineli, 1972. Popper, Karl. “The Propensity Interpretation of Probability”, British Journal for the Philosophy of Science, 10 (1959): 25-42. Pusey, Matthew; Barrett, Jonathan & Rudolph, Terry. “The quantum state cannot be interpreted statistically”. Quantum Physics (2011). En línea. <http://xxx.lanl.gov/abs/1111.3328v1>. Rescher N. Scientific Realism. A Critical Reappraisal. Dordrecht: Reidel, 1987.
[80] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 61-82
Realismo pitagórico y realismo cantoriano en la física cuántica no relativista
Schroedinger, Erwin. “Die gegenwärtige Situation in der Quantenmechanik”, Naturwissenschaften 23 (1935): 807-812; 823-838; 844-849. Stapp, Henry P. “S-Matrix Interpretation of Quantum Theory”, Physical Review D 3 (1971): 1303-1320. Van Fraassen, Bas. “The Einstein-Podolsky-Rosen paradox”, Synthese 29 (1974) 291-309. —. Quantum Mechanics. Oxford: Clarendon Press, 1991. Von Neumann, John. Mathematische Grundlagen der Quantenmechanik. Berlin: Springer-Verlag, 1932. Wheeler, John A & Zurek, Wojciech H., eds. Quantum Theory and Measurement. Princeton: Princeton University Press, 1983.
[81]
Los problemas de la filosofía kripkeana: la crítica a la autoidentificación de los objetos1
Problems in kripkean philosophy: criticism on self-identifying objects2 Juan José Colomina Almiñana3 Vicente Raga Rosaleny4
R esumen El presente artículo pretende criticar las tesis fuertes de la ontología kripkeana, derivada de la semántica que Kripke desarrolló a partir de la lógica modal, por ser poco claras y precisas y por contener un grave error de fondo: la adopción de las intuiciones ordinarias como guía de su filosofía. Además, se discute la plausibilidad o no de la adscripción de las tesis kripkeanas al millianismo, lo que permitirá atender a ciertas nociones problemáticas y posibilitará concluir que, tal vez, no es muy recomendable basar un sistema filosófico en las intuiciones ordinarias. Palabras clave: realismo esencialista, verdad contingente a priori, verdad necesaria a posteriori, intuición ordinaria, millianismo.
A bstract This paper criticizes the Kripkean ontology, which is based off in modal logic, because of the adoption of the folk psychology as a guide of his philosophical project. Also, it discusses the Millian inheritance of the Kripkean theory of objects, concluding that it is not desirable a philosophical system based on ordinary intuitions. Keywords: essential realism, a priori contingent truth, a posteriori necessary truth, ordinary intuition, Millianism.
1 Agradecemos los comentarios que hizo un evaluador de esta revista a una versión previa de este trabajo. El marco para la confección y formalización de este trabajo se sitúa parcialmente dentro del proyecto de investigación FII2011-24549: “Points of View and Temporal Structures”. Juan J. Colomina agradece el apoyo necesario para su realización a LEMA Research Group, perteneciente al Departamento de Historia y Filosofía de la Ciencia y el Lenguaje de la Universidad de La Laguna, y a los miembros del Department of Philosophy of The University of Texas at Austin. 2 Recibido: 1º de noviembre de 2011. Aceptado: 8 de septiembre de 2012. 3 The University of Texas at Austin. Correo electrónico: colomina-alminana_juan@austin.utexas.edu. 4 Universidad de Cartagena. Correo electrónico: vragar@unicartagena.edu.co.
Colomina Almiñana, Juan José & Raga Rosaleny, Vicente
“Los nombres designan sólo lo que es un elemento de la realidad. Lo que no puede destruirse; lo que permanece idéntico en todos los cambios” -¿Pero qué es eso?- ¡Mientras dijimos la oración ya nos vino a las mientes! Expresamos ya una imagen totalmente determinada. Una figura determinada que queremos emplear. Pero ciertamente la experiencia no nos muestra estos elementos. Wittgenstein (IF, § 59).
1. Introducción Del mismo modo que existen términos y nociones que pasan al uso popular, vulgarizándose, provenientes del vocabulario técnico, del campo semántico de la filosofía (el mejor ejemplo que nos viene a la mente es la noción ordinaria de ‘amor platónico’, que ni es amor ni es platónico), también existen muchos préstamos en sentido contrario: topoi ordinarios, vocablos, nociones que constituyen el cuerpo argumentativo de nuestra disciplina. Esto que en principio parece inevitable, e incluso menos problemático de lo que algunos filósofos han supuesto, adquiere un carácter altamente peligroso cuando se convierte en el núcleo o base del proyecto filosófico propuesto. Desde este punto de vista, debemos leer el trasfondo del proyecto filosófico de Saul Kripke. Proponemos como punto de partida que este autor habría tratado de alimentar algunas de nuestras intuiciones cotidianas: el hecho de que existe una realidad en sí misma, previa, estructurada e independiente del conocimiento que de ella tengamos. Esto es, la defensa de la existencia de un conocimiento de la realidad consistente en un proceso de descubrimiento (Defez 1998, 10). Por eso mismo consideramos que, a pesar de que nuestras intuiciones son realistas, tal vez la filosofía no deba, y no se deje, acompañar por ellas dado el elevado precio a pagar.
2. Designadores rígidos y referencia directa Comenzaremos recordando el ejemplo referente al descubrimiento de Neptuno y que Kripke aduce para reforzar e ilustrar sus tesis acerca de las verdades contingentes a priori (Kripke 1985, 87 n. 33). Antes de que hubiera evidencias de la existencia de este planeta, Leverrier estipuló a priori la posible existencia de un planeta desconocido como causa de las discrepancias orbitales de Urano, y que este se llamaría Neptuno. Pero podría haberse dado el caso de que estas discrepancias tuvieran otra causa que no fuera la existencia de un planeta. Así,
[84] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 83-98
Los problemas de la filosofía kripkeana: la crítica a la autoidentificación de los objetos
el enunciado ‘Neptuno es el planeta que causa las discrepancias en la órbita de Urano’, si es verdadero, dirá Kripke, será porque es una verdad contingente a priori. Sabemos que lo que ejemplifica este caso es cómo introducir por estipulación un designador rígido (en este caso, ‘Neptuno’) mediante el uso referencial de un designador no rígido (que aquí sería una descripción definida, ‘el planeta que causa perturbaciones en la órbita de Urano’), además con la peculiaridad, que no es absurda en una concepción realista esencialista como la que está defendiendo Kripke, de estar pensando en una estructuración ontológica previa e indiferente a nuestro conocimiento de la realidad, de un bautismo en ausencia del bautizado o “por poderes” (Defez 1998, 8 n. 10)5. Pero, ¿realmente es este un modo efectivo de introducir un designador rígido? Pero, además, dice Kripke, si un nombre designa rígidamente, debe hacerlo de modo estrecho6. Como se desprende de la crítica kripkeana a la teoría descriptivista del lenguaje, una descripción no puede ser la referencia de un nombre ya que esto significaría que un enunciado como ‘Cervantes es el autor de El Quijote’ sería necesario. Sabemos que existen mundos posibles donde puede ser que Cervantes no llegara nunca a escribir dicha obra, pero no existe ningún mundo donde sea falso que ‘Cervantes es Cervantes’. Según las tesis kripkeanas, debemos concluir que la identidad expresada en el segundo enunciado es necesaria, por lo que ‘Cervantes’ debe ser considerado un designador rígido de iure, donde la caracterización de iure apela a la necesidad de la relación entre el nombre en cuestión y su portador. Del mismo modo, podemos decir que la descripción definida ‘el escritor de El Quijote’, que si bien permite fijar la referencia de un nombre, no se mantiene en todo mundo posible, puede ser considerada un designador no rígido o un designador rígido de facto, porque alude a un individuo determinado que solo en un mundo posible refiere a un cierto objeto. Parece al menos cuestionable que podamos apelar a la intuición directa de la rigidez de los nombres para establecer un determinado nombre como designador de un objeto, como pretende Kripke. Si un objeto se asocia directa5 Es conveniente recordar al lector que, y este es un punto importante, el designador rígido introducido no es una abreviatura de las descripciones definidas empleadas para introducirlo, y así es como debemos entender un verdadero designador rígido. Sería necesario preguntarse, tal vez, por la ausencia de una estipulación explícita de que el nombre debe entenderse como un designador rígido y la descripción definida como utilizada referencialmente, y esto es lo que sucedería en un lenguaje natural frente a uno lógico, donde descansa esta segura distinción y descripción de los elementos del lenguaje y de su uso (y la respuesta parece ser de nuevo la confiable intuición, demasiado empleada como último recurso). 6 “[U]n designador designa rígidamente a cierto objeto si designa a ese objeto dondequiera que el objeto exista; si, además, el objeto existe necesariamente, podemos llamar al designador rígido en sentido fuerte” (Kripke 1985, 56).
[85]
Colomina Almiñana, Juan José & Raga Rosaleny, Vicente
mente en virtud de sí mismo a un nombre, ¿cómo es posible tener intuiciones directas acerca de fenómenos que son semánticos, como lo es la rigidez de un nombre? (McCulloch 1986). Pero, además, la caracterización de los designadores rígidos como rígidos de iure es problemática porque incurre en la falacia de la no mediación (Textor 1998, 48): no existe un sentido que refiera un nombre a un objeto, por lo que se incumple una de las bases de la teoría de la referencia directa, que la fijación de un nombre sustituya al conjunto de descripciones que anteriormente se empleaba para referirse a un objeto y que se ha logrado refinar mediante la observación empírica. Si consideramos que hay designadores rígidos de iure, dichos designadores no podrían ser nombres que sustituyan (por refinamiento) descripciones o designadores no rígidos más primitivos, sino que deberían establecer a priori lo que Kripke ha defendido como a posteriori: el descubrimiento de la asociación de un nombre con su referente. En este sentido, por ejemplo, en la teoría de Gareth Evans, la descripción o descripciones relevantes sirven para determinar un cierto referente, pero no se pretende que el nombre propio describa al objeto. Es decir, no se espera que el nombre sea sinónimo de sus descripciones definidas. Así, podemos fijar la referencia de un individuo del que solo conocemos una cierta propiedad mediante dicha descripción. Es decir, podemos determinar la referencia de un objeto del que solo conocemos la propiedad G asociando dicho nombre al único individuo que es ‘el G’. Por ejemplo, podemos estipular que denominaremos ‘Julius’ a la persona que inventó la cremallera sin saber a quien refiere ‘Julius’ asociando el nombre ‘Julius’ a aquel individuo que responda a la descripción ‘el inventor de la cremallera’. Es un modo más débil de descriptivismo porque aquí no se asocia nombre con descripciones, es decir, el nombre en cuestión no es sinónimo de las descripciones que le corresponden. Pero tampoco implica las nociones de aprioricidad y necesidad porque pueden existir mundos posibles donde ‘Julius’ puede no haber sido el inventor de la cremallera (por lo que el establecimiento del enunciado no tiene por qué ser necesario) y porque no es necesario que los hablantes conozcan a quién se refiere el nombre ‘Julius’ para ser competentes en su uso (por lo que sería irrelevante si el conocimiento del enunciado es a priori). Si consideramos que ‘Julius’ es un designador rígido de iure, entonces la fijación del nombre ‘Julius’ al individuo que refiere sería previa a toda observación empírica, lo cual incumpliría los requisitos kripkeanos de fijación de los designadores rígidos (Cf. Evans 1982; 1985).
[86] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 83-98
Los problemas de la filosofía kripkeana: la crítica a la autoidentificación de los objetos
Pero, además, esta noción de rigidez de iure también incurriría en el llamado problema de las descripciones actualizadas7. McGinn considera que existen cierto tipo de descripciones que podemos emplear en este y solo en este mundo, como por ejemplo, ‘el escritor de El Quijote’ para designar a un cierto individuo en este mundo. Pero puede ser que, convencionalmente, los hablantes de un mismo lenguaje decidan emplear dicha descripción actualizada para referirse a determinado objeto de modo estrecho, es decir, en todo mundo posible, por lo que la descripción adquiere un carácter de iure. Sin embargo, se incurre en un error al considerar que la convencionalidad significa ‘hacer esto de esta o de aquella manera a partir de ahora’. McGinn parece confundir el contenido de una proposición con su carácter. En un momento dado, los hablantes pueden asociar un cierto sentido nuevo a un determinado individuo mediante una descripción definida, pero la norma semántica que rige el uso de esa nueva expresión indicativa pasaría a integrar la entera gramática del lenguaje del que forma parte, por lo que se subordinaría a ella al provenir el origen de la asociación entre un nombre y su referente de una labor y una acción lingüística y social. Sin embargo, esto no consigue responder a nuestra pregunta inicial. ¿Realmente sería este un modo efectivo de introducir un designador rígido? Lo que sí es cierto es que si paramos a pensarlo detenidamente, tratando de distinguir entre una cierta confusión entre conocimiento de dicto y de re, como ahora veremos, nuestra conclusión debería ser que no es el caso. Pero si no lo es, tal vez tampoco sería lícita la aseveración de la existencia de verdades contingentes a priori y, en última instancia, la distinción kripkeana frente a la tradición filosófica y de la que se derivaba toda su imagen alternativa a la teoría descriptiva del lenguaje y, en último término, un cierto irrealismo (por tanto, la objeción debe ser radical).
7 “Kripke dice que un designador rígido es una expresión que designa al mismo objeto en todo mundo en el que el objeto existe. La ontología de los mundos posibles involucrada en esta definición parece inesencial: podríamos decir simplemente que un designador rígido es una expresión que designa al objeto que es su actual referente –necesariamente designa al objeto que actualmente designa” (McGinn 1982, 97; traducción y énfasis nuestros). McGinn aquí apela más al valor semántico que debe adquirir la atribución de referencia a un nombre al implicar el conocimiento lingüístico que se supone en el empleo de un término, dejando de lado el esencialismo de propiedades en que incurre la propuesta kripkeana.
[87]
Colomina Almiñana, Juan José & Raga Rosaleny, Vicente
3. L a problemática de la necesidad frente a la contingencia Yendo paso a paso, el primer síntoma de que algo extraño acontece en el argumento kripkeano es que si una verdad es contingente es porque debe ser hecha verdad por algún estado de cosas real; por ejemplo, el enunciado ‘Bernat es el autor de El Quijote’ sería verdadero si hubiera un estado de cosas tal que Bernat fuera el autor de dicha obra. Pero lo que se sigue del procedimiento de introducir el designador rígido es que el enunciado expresaría, por estipulación, una verdad contingente (estamos pensando de nuevo en nuestro ejemplo). Si lo que hace que algo contingente sea verdad es cómo sea el mundo, que existan o no existan ciertos estados de cosas, entonces el hablante debería ser Dios para poder hacer este tipo de milagro, ¡el estipular cómo debe ser el mundo! (Donnellan 1977, 19). Entonces, ¿qué es lo que conocemos? O, mejor dicho, ¿qué tipo de verdad es la verdad contingente? Una verdad mucho más modesta, por cierto, que la que pretende Kripke. Esto es un conocimiento de cuestiones lingüísticas, o de dicto, más que un conocimiento de re (o, por decirlo de otra manera, un conocimiento de la verdad de que ciertos enunciados expresan una verdad más que un conocimiento de la verdad que esos enunciados expresan). Un enunciado como ‘Bernat será el primer hombre que entrará por la puerta de la iglesia principal de Carcaixent el primer domingo del año 2030’ es claramente contingente porque podría ser el caso que ese día no entrara nadie en dicha iglesia y para Kripke, sin embargo, dicho enunciado sería una verdad, un conocimiento a propósito de un individuo, de re, en el sentido en que hay o habrá alguien del que ahora mismo sabemos alguna cosa y que si este, el que acaba por entrar dicho día y en dicha iglesia, resulta ser Andrés, deberíamos decir que sabemos ahora alguna cosa acerca de Andrés. Pero esto no es cierto, porque no hay un sentido plausible en el que podamos decirle a Andrés que, aunque designado con un nombre diferente, ya sabíamos 20 años antes que él sería el primer hombre que atravesaría la puerta de dicha iglesia el primer domingo del año 2030. Por tanto, debemos concluir que las estipulaciones no aumentan nuestro conocimiento del mundo sino tan solo de aquellas cuestiones lingüísticas, cuestiones acerca del lenguaje, de dicto, y no, como confunde la verdad contingente a priori kripkeana, verdades de re. Un argumento pormenorizado que analiza la ilusión de contingencia de los enunciados bidimensionales (como los de identidad) enunciada por Kripke puede encontrarse en Pérez Otero (1998). Allí se apela a una explicación general (menoscabando la importancia de una explicación específica) que permite afirmar lo que denomina Ecuación Bidimensional Básica (EBB) y
[88] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 83-98
Los problemas de la filosofía kripkeana: la crítica a la autoidentificación de los objetos
que diferencia en Kripke dos tipos de intensiones dentro de su semántica: una intensión secundaria (el sentido del término que se transmite en todo mundo posible) que de ser necesaria convertiría la identidad en necesaria, independientemente de que la intensión primaria (la evaluación del valor de verdad del enunciado en todo mundo posible como si fuera el mundo real y que permite indicar su sentido) sea contingente. El propósito de este artículo es reforzar la crítica (kripkeana) a la teoría de la identidad de los estados mentales con estados físicos, a pesar de concluir que no es posible refutarla partiendo de la explicación específica, apelando a la EBB, que se convertiría así en un principio general. Esta distinción permitirá a Pérez Otero defender las posturas kripkeanas de ataques como los de Casullo (1977), que afirma que enunciados como ‘un metro es la longitud de la barra S en t’confunden la distinción entre el uso atributivo y el uso referencial defendida por Donnellan. Podemos emplear la expresión atributivamente para referirnos a la longitud de S en t, en alusión a la barra. Pero si la usamos en sentido referencial, entonces aludimos a la longitud que tiene la barra S, sea la que sea, diciendo que es un metro. Solo de modo atributivo parece seguirse que ‘un metro es la longitud de S en t’ puede ser considerado un enunciado a priori. Pero si esto es verdad, entonces solo podrá ser cognoscible en virtud de sus términos, por lo que entonces se descubre que no puede ser contingente, porque algo que se autoidentifica solo puede ser considerado como necesario, haciendo peligrar, así, la distinción entre necesario y a priori y, por derivación, toda la edificación kripkeana. Pérez Otero (2002), en un intento por salvar las tesis kripkeanas, observa que no distinguir entre los dos niveles de intensión supondría menoscabar el poder de la teoría causal de la referencia, por lo que críticas como las de Casullo violarían de manera explícita la EBB. Recientemente, Dan López de Sa (2006) argumentaba contra las tesis de Pérez Otero (y, por presuponerlas, las de Kripke) acerca de la defensa de la ilusión de la contingencia que son un recurso inválido cuando se aplican a la conciencia por tener una forma diferente a la de los demás casos familiares de enunciados necesarios a posteriori, para intentar mostrar la incorrección exegética existente en sus argumentos8. Todavía podemos plantear a la existencia de verdades necesarias a posteriori otro tipo de objeción, no tan potente como la anterior, pero que nos servirá para poner entre paréntesis la adscripción inmediata de las teorías de Kripke al millianismo (nunca explicitada por el autor), así como también alguna de sus aseveraciones realistas. Por ejemplo, como afirma Fitch (1976, 243-247), si estamos de acuerdo con que un enunciado como ‘Hesperus es Phosphorus’ en caso de ser verdadero debe serlo necesariamente, tal como lo es el enun8 Una atención adecuada a dicha crítica excede el tema del presente trabajo.
[89]
Colomina Almiñana, Juan José & Raga Rosaleny, Vicente
ciado ‘Venus es Venus’, y le añadimos un par de presuposiciones adicionales9, no sería cierto que ‘Hesperus es Phosphorus’ exprese una verdad necesaria a posteriori, sino que nuestro conocimiento de ella sería tan a priori como el de ‘Venus es Venus’. Esta parece ser una conclusión absurda e inaceptable para un Kripke que quiere dar cuenta del progreso de la ciencia (y de la paradoja de la existencia de enunciados de identidad contingentes, a la que ha dedicado alguno de sus textos), pero según Fitch, si somos millianos y rechazamos que los designadores rígidos tienen un contenido descriptivo, entonces ni se puede rechazar esta tesis de la sustituibilidad ni podemos aducir la existencia de contextos intensionales para impedir la consecuencia no deseada. Por tanto, debemos matizar el pretendido millianismo kripkeano y admitir que, en cierto sentido, ‘Hesperus’ y ‘Phosphorus’ o ‘Tulio’ y ‘Cicerón’ difieren en su significado aunque compartan su referencia. Esto es, si ‘Hesperus’ y ‘Phosphorus’ no son analíticos no es porque no sean verdaderos en todo mundo posible, como en el caso de ‘Venus es Venus’, sino que no lo son en virtud de su significado (Pérez Otero 1998, 69-70). Podría decirse que si se distinguiera entre enunciado y proposición, expresando el segundo ‘verdad’ y ‘necesidad’, y siendo ‘aprioricidad’ y ‘aposterioricidad’ relativos al enunciado dado que ‘Cicerón es Tulio’ es verdadero, ‘Cicerón es Cicerón’ y ‘Cicerón es Tulio’ expresarían la misma proposición, una verdad necesaria. Mientras tanto, y mirando a través de la lente enunciativa, ‘Cicerón es Cicerón’ se mostraría como una verdad apriórica y como a posteriori el enunciado ‘Cicerón es Tulio’ por requerir investigación (Salmon 1993, 84; Salmon 1986, 137 ss.). Si, por tanto, admitiéramos como los millianistas que un enunciado de identidad como ‘Cicerón es Tulio’ es apriórico y no informativo, analítico a fin de cuentas, que su contenido proposicional es el mismo que el de ‘Cicerón es Cicerón’ pero que lo conocemos a posteriori y nos aporta información, entonces entenderíamos ambas cosas como relativas a la dimensión enunciativa distinguida o, aún mejor, relativa al hablante, es decir, a una dimensión pragmática o de semántica aplicada más que pura. Por tanto, haría falta algún tipo de distinción, por ejemplo entre propiedades y conceptos, que dé cuenta de las diferencias de conocimiento existentes entre los hablantes para, al menos, tratar de preservar la identidad necesaria, el rígido nombrar las propiedades de las entidades y también a estas. 9 Que los objetos de conocimiento serían proposiciones y que un designador rígido del enunciado sería insustituible por uno que designara el mismo objeto sin que ello suponga un cambio de proposición.
[90] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 83-98
Los problemas de la filosofía kripkeana: la crítica a la autoidentificación de los objetos
Aunque no hemos prestado mucha atención a cuestiones relativas a la teoría kripkena del significado10, es necesario resaltar un punto conflictivo que aparece al criticar las distinciones kripkeanas de los conceptos clásicos de necesidad y apriorismo. Es decir, debemos fijarnos en la crítica a la lectura excesivamente fiel a las intenciones y simpatías kripkeanas más que a sus realizaciones efectivas porque, a pesar de ser cierto que el autor no puede esconder su simpatía por la tesis milliana, este no enuncia explícitamente que la adopte. Este punto es importante porque, si se confirmara la distancia, Kripke podría evitar alguna de las críticas que arrastra el millianismo y que suman dificultades a los problemas que nosotros hemos planteado. No entraremos ahora en la exposición y discusión de dichos problemas del millianismo, que muchos identifican sin más con la teoría de la referencia directa, y que muchos autores ya han denunciado en Kripke11. Una vez dicho esto, y frente a otras posiciones muy fundamentadas e interesantes12, podemos distinguir entre dos aproximaciones a la cuestión de la referencia, una que ya hemos denominado teoría de la referencia directa y otra que se ha llamado millianismo (García-Carpintero 1998, 21-44). La primera trataría de lo que viene dado por la semántica de un término en la determinación de sus condiciones de verdad mientras que la segunda establece el tipo de conexión existente entre un término y su referente, su puro estar por el objeto. Si entendemos de este modo la posición kripkeana, como mucho más cercana a la primera que no a la segunda posición, y atendemos a los puntos de vista neofregeanos, parece que la diferencia entres ambas posturas no es, por una parte, tan grande, mientras que por otra sí que lo es, pero en otro sentido 10 No lo haremos ahora, ya que Kripke parece dar plena importancia a la cuestión referencial más que a las discusiones en torno a su teoría del significado, y este artículo pretende tan solo ser una reconstrucción crítica de algunas de las tesis de nuestro autor acerca de la realidad y su metafísica. 11 Por ejemplo, Searle (1990, 166-169) con respecto al uso de los nombres propios que solo tienen referencia en enunciados existenciales, de identidad (donde aparece el clásico enigma fregeano de los enunciados de identidad con información cognitiva) o también el error que denuncia Wittgenstein en el silogismo 43 de sus Investigaciones de confundir entre un nombre y su portador y que da pie a absurdas confusiones y a introducir la contingencia de los hechos del mundo en el lenguaje (porque parece que si el mundo fuese destruido todavía podríamos emplear el lenguaje para describir la desolación reinante). También en el mismo sentido las más modernas, aunque en muchos casos idénticas, críticas de Bach (1994, 149-174), donde este añade una crítica a los nombres vacuos y a los enunciados de creencia bastante interesante y difícil de rebatir, en el segundo caso. Este incluye una discusión en torno a las fuentes de la ilusión de rigidez que también merecería cierto comentario, pero que no vamos a hacer aquí. 12 Estamos pensando en Stalnaker (1998, 7-19), que defiende una lectura de Kripke como intentando mostrar la coherencia de la respuesta milliana más que su adecuación empírica. Lo defiende de los ataques al estilo searleano o dummettiano, que se inclinarían por negar la viabilidad, calificada incluso de imposible, de la semántica milliana (y si hiciéramos caso de los que identifican a Kripke con esta posición, por extensión de la semántica kripkeana). La distinción que hace, para defender dicha coherencia entre semántica y metasemántica, a pesar de ser muy interesante, nos llevaría muy lejos de las pretensiones de este trabajo.
[91]
Colomina Almiñana, Juan José & Raga Rosaleny, Vicente
y con una consecuencia crítica para aquellos que rechazan la derivación del esencialismo a partir de la teoría de la referencia directa (Salmon 1981, 207ss.). Lo único que indicaremos aquí es que, por una parte, podemos entender el fregeanismo como una posición que defiende la existencia de dos tipos de valores semánticos que debemos atribuir a los nombres, un perfil general (el sentido) y uno individual (la referencia). Y en este sentido no se distinguiría tanto de la teoría de la referencia directa entendida de modo amplio, como nosotros lo hemos estado haciendo en los últimos párrafos. Pero, de todos modos, la cuestión importante —que va conectada con un cierto internismo del contenido y con un antirrealismo metafísico que topa frontalmente con lo que hemos venido indicando de Kripke— es que el argumento clásico de Frege sería la defensa de la necesidad (y de la suficiencia) del sentido, en contraposición con el millianismo, para dar cuenta de la comprensión de los términos singulares con referente objetivo que tiene el hablante. La raíz de dicha cuestión nos llevaría demasiado lejos, por lo cual no profundizaremos en ella. Tan solo es suficiente para nuestros propósitos indicar que lo que encontramos tras estas afirmaciones es un punto incompatible con las tesis kripkeanas, ya que si para Frege la referencia es algo adventicio, una propiedad extrínseca, de la que podemos prescindir en una expresión de un lenguaje sin que este se modifique y se convierta en otro lenguaje, para Kripke, es una propiedad intrínseca que permitiría hablar de propiedades esenciales de los objetos, independientemente de cómo nos los representemos, o propiedades esenciales de re, y en consecuencia, esencialismo y teoría de la referencia directa irían de la mano de manera mucho más clara de lo que algunos críticos parecen considerar. En este sentido podemos acudir a las críticas de Mellor de las que se hace eco Salmon (1981, 92). Derivar el esencialismo de la teoría de la referencia supondría concebirlo de modo gratuito ya que se incurriría en una falacia modal. Que un objeto sea idéntico a sí mismo no significa que dicho objeto posea una propiedad que sea idéntica a sí misma en todo mundo posible. Para que esto fuera posible (o correcto), necesitaríamos apelar a nuestras propias explicaciones acerca de la identidad, ya que tan solo bajo una atribución de dicto de las propiedades como esenciales puede admitirse su transmundanidad, algo que Kripke estaría negando desde el principio. Pero, ¿no será esta una propiedad esencial, o no, dependiendo de su marco conceptual? Si fuésemos fieles a Kripke, deberíamos decir que no porque de otra manera estaríamos de nuevo ante una modalidad de dicto). Como ya comentamos al referirnos al esencialismo kripkeano en relación con las consecuencias de su
[92] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 83-98
Los problemas de la filosofía kripkeana: la crítica a la autoidentificación de los objetos
análisis de los enunciados de identidad, parecería que otra vez nos situamos en el plano transconceptual, transubjetivo y transhistórico, un plano como el que se desprendía del análisis de la imagen alternativa kripkeana de la teoría causal de la referencia, así como de su concepción de la ciencia, los dos últimos elementos del teorizar kripkeano en los que vamos a detenernos.
4. El esencialismo cientificista como base de la teoría causal kripkeana
Como sabemos, el acto bautismal que inicia una cadena causal de comunicación y que permite transmitir el nombre de un hablante a otro hasta llegar al que ahora mismo lo emplea y puede referirse a algo e identificar a un único individuo a pesar de carecer de criterios y descripciones (o aunque los tuviera, que estos fueran todos erróneos) ha recibido ya una serie de críticas y de explicaciones que permiten que dicha imagen alternativa funcione mejor cuanto más lejos se sitúe del marco realista de pensamiento que encontramos en su trasfondo. Pero todavía nos falta clarificar una duda relativa a la plausibilidad de la raíz misma de dicha noción, su fundamento en una supuesta realidad translingüística, hipótesis esta que articularía las intuiciones ordinarias presentes en la obra kripkeana. Si primeramente atendemos a los nombres propios, como por ejemplo ‘Aristóteles’, debería parecernos problemático que alguien pudiera mantener que todo lo que sabemos acerca de Aristóteles sea falso y que en realidad Aristóteles fuera un caporal austriaco que luchó en la Primera Guerra Mundial y después dirigió un partido político de extrema derecha que llegó a tomar el poder de Alemania, la llevó hacia una nueva guerra mundial y la involucró en el exterminio del pueblo judío (entre otros horrendos sucesos). La plausibilidad de esta tesis pasaría por aceptar la más que sospechosa antropología metafísica que indica que las personas serían entidades permanentes e independientes de cómo fueran descritas o conocidas por nosotros. Pero, si pasamos al polo de los términos generales, de masa, etcétera, la cuestión parece igual, o más, implausible (Moulines 1991, 156-161). No es tan solo que sea irrealizable la investigación que nos llevara hasta el establecimiento del bautismo de cualquier término de nuestro lenguaje ordinario, como el agua (o nos llevara a una implausible indagación hacia sus orígenes remotos, prehistóricos, que nunca podría llevarse a cabo en condiciones adecuadas), ni tampoco simplemente que resulte inverosímil la idea de que la referencia determinada por cierto acontecimiento introductorio se mantenga invariable a lo largo del
[93]
Colomina Almiñana, Juan José & Raga Rosaleny, Vicente
tiempo (desde los griegos hasta nuestros días, de su término oro al nuestro)13, ni que el hecho no se corresponda con la realidad del lenguaje, donde los procesos son graduales y globales (esta concepción del bautismo), que introduce de manera espontánea y atomizada mecanismos de referencia14. Lo que realmente resulta inaceptable es que se olvide que para referirse a alguna cosa hace falta un marco conceptual que nos permita saber, por ejemplo, el tipo de entidad que hemos bautizado, del mismo modo que permita tener en cuenta nuestras reacciones naturales, nuestras conductas como seres humanos, que la identificación de determinada entidad como tal está siempre guiada por nuestros intereses. De hecho, el análisis kripkeano no es correcto porque el bautismo supondría todo aquello que sabemos de la entidad a bautizar, algo que según Kripke no sería posible ni necesario porque es independiente del significado y de la referencia de una entidad, es independiente de todo aquello que los hablantes puedan saber o creer. El bautismo presupondría, entonces, todo aquello que pretende negar; presupondría las reacciones naturales de los humanos y el marco conceptual en el que tienen lugar. Una posible solución la aporta Blasco al decir que la identificación sería previa a la descripción, pero que la identificación vendría posibilitada por la praxis humana y no por la contemplación de las esencias del mundo, como pretende Kripke. La identificación de individuos pertenece al seno de una teoría y es relativa a ella: la teoría que la praxis social ha creado y que constituye el corpus teórico del lenguaje ordinario; pero esta no es una teoría elaborada en el marco de una actividad investigadora, sino que es la teoría que, estructurada en el lenguaje ordinario, aprendemos en el propio proceso de aprendizaje del lenguaje, proceso que corre parejo al de nuestra ordenación práctica del mundo entorno. La actividad filosófica no consiste tanto en elaborar una teoría sobre el conocimiento, la realidad, o ambos, como en elucidar la estructura categorial de la teoría que tenemos incorporada… Los individuos que aceptamos, los individuos que conocemos, son pues consecuencia de un compromiso ontológico… avalado… por las estructuras de nuestro comportamiento social (Blasco 1974, 250-1). 13 El lenguaje cambia, y lo hace muy a menudo, por lo que parece razonable pensar que el hablante sea responsable de cómo emplea el lenguaje ahora, de las prácticas actuales acordadas, pero no lo parece del modo en que se hablaba hace siglos (Dummett 1980, 525). 14 De hecho, Donnellan (1974, 233) dirá que tal vez no es una necesidad teórica que los nombres entren de modo atomizado en nuestras transacciones lingüísticas (y para nuestros intereses aquí no sería tan esencial ver el cómo sino el qué se requiere para entender una práctica bautismal como tal).
[94] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 83-98
Los problemas de la filosofía kripkeana: la crítica a la autoidentificación de los objetos
Pensémoslo a un menor nivel de abstracción, con el ejemplo del oro. Podríamos decir que esta sustancia es la clase instanciada por (casi toda) una muestra dada. Necesitaríamos una muestra para poder fijar la referencia del término oro, pero al mismo tiempo, para poder asegurar dicha muestra, necesitaríamos alguna característica de la referencia fijada anteriormente. Es decir, que en apariencia estaríamos atrapados en un círculo vicioso donde para poder fijar la referencia sería necesario haberla ya fijado. Una posible respuesta (Hong 1998, 92) a esta objeción pasaría por decir que el oro de las muestras podría tener otros muchos componentes aparte de los que tiene aquello que la mayoría de la gente nombra como oro, y solo tras los descubrimientos de la investigación científica de tales características dicho término designaría correctamente al oro. Por supuesto, esta respuesta continúa presuponiendo nuestro marco conceptual, científico y ordinario, nuestra división entitativa fruto de nuestras creencias y conocimientos, y nuestras actitudes naturales propias de los seres humanos en que descansan dichas prácticas (y, por tanto, debemos descartarla por no ser una buena respuesta).
5. Conclusiones Al final de una de sus obras, manifiesta Ayer (1983, 305 ss.) su descontento con la teoría putnamiana respecto de la referencia de los términos de masa, tales como agua, con todas las argumentaciones y aseveraciones que expusimos cuando comentamos la extensión de la noción de designador rígido a dichos términos, y por extensión, con el esencialismo del Putnam más kripkeano, en el ámbito de la ciencia. Una de dichas aseveraciones nos parece aquí en especial ilustrativa. Nosotros tenemos la intuición (por supuesto, Ayer no habla en estos términos) de que si encontrásemos una sustancia con la composición química H2O, pero sin poseer ninguna de las propiedades manifiestas del agua, no podríamos denominarla agua, y a la inversa (y no podríamos entender a nadie, que no fuera un filósofo tal vez, que hiciera tal cosa). La mayoría de nosotros sabe muchas cosas del agua, no solo que es un líquido, y solo en casos extremos recurriríamos a la opinión de un experto para que certifique nuestra impresión porque nuestro saber es insuficiente, por lo que deberíamos tender a pensar que existe alguna perversión en la plausible, y posiblemente acertada, tesis de la división social del trabajo lingüístico cuando presupone que los hablantes no comprenden cabalmente los términos de su propio lenguaje (ordinario). Pero todavía puede ser mucho más grave que tratemos de inflar esta concepción del conocimiento y la verdad con toda una
[95]
Colomina Almiñana, Juan José & Raga Rosaleny, Vicente
serie de descubrimientos de la ciencia como conocedora de realidades (aunque sean a medio camino). Pensemos, por ejemplo, en el agua. ¿Sería plausible pensar que más adelante, tal vez mañana, lleguemos a saber que aquello que llamamos agua era en realidad el conjunto de dos sustancias químicamente distinguibles, una de ellas un elemento y la otra un compuesto, que satisfarían todas las características cotidianas de identificación y fueran prácticamente indistinguibles? (Dummett 1980, 523-525). ¿Qué deberíamos hacer en esta situación? ¿Cómo podemos plantearnos esta cuestión y decidir el curso que debería seguir dicho término antes de introducir el marco conceptual de la teoría química? Y como ya hemos dicho, ¿no dependería de los intereses y conductas humanas variables el modo en que los nombraríamos?15 Podríamos recurrir a Kuhn, o a Feyerabend, para establecer una crítica del convergentismo y del esencialismo realista de la concepción de la ciencia del binomio Kripke-Putnam, pero creemos que es suficiente con todo lo que hemos expuesto para poder establecer al menos la duda respecto de la plausibilidad de esta imagen alternativa y pretendidamente mejor y más cercana a nuestro uso del lenguaje cotidiano, y a nuestra práctica de la ciencia y a nuestras intuiciones. Si, por lo que respecta a los enunciados de identidad como por lo que se refiere a la teoría de la referencia directa, y a la teoría causal de la referencia o, a grandes rasgos, a la imagen kripkeana de la ciencia, se puede oponer algunas dificultades relevantes, sería más que recomendable sospechar del hilo conductor de sus pensamientos filosóficos. Su intención de dar carne filosófica a nuestras intuiciones, tal vez no sea tan buena idea, por lo que deberíamos abandonarla.
15 Todo esto debería aducirse a lo que ya hemos comentado acerca de la crítica a la teoría causal de la referencia. Tal vez el error kripkeano sea haber asimilado el tipo de lenguaje de la lógica, y una concepción formal de la identidad como autoidentidad, con el lenguaje natural, donde los nombres pueden tener diferentes portadores, uno o ninguno, sin marcas externas que lo indiquen, y la identidad varía según el tipo de entidad.
[96] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 83-98
Los problemas de la filosofía kripkeana: la crítica a la autoidentificación de los objetos
Trabajos citados Ayer, Alfred. J. La filosofía del siglo XX. Barcelona: Crítica, 1983. Bach, Kent. Thought and Reference. Oxford: Clarendon Press, 1994. Blasco, Josep. Ll. “La identificación de individuos”. Revista de Occidente 138 (1974): 237-251. Carter, William. R. “Contingent Identity and Rigid Designation”. Mind, 96.2 (1986): 250-255. —. “How Not to Preserve Kripke’s Fundamental Insight”. Teorema 17.1 (1998): 99-108. Casullo, Albert. “Kripke on the a priori and the necessary”. Analysis 37. 4 (1977): 152-158. Defez, Antoni. “Realismo esencialista y nominalismo irrealista”, Pensamiento 210 (1998): 417-442. Donnellan, Keith. “The Contingent a priori and Rigid Designators”, Midwest Studies in Philosophy 2 (1977): 12-27. —. “Speaking of Nothing” 1974. Naming, Necessity and Natural Kinds. Ed. S. P. Schwartz. Ithaca (NY): Cornell University Press, 1977. 216-244. Dummett, Michael. La verdad y otros enigmas. México D.F.: Fondo de Cultura Económica, 1980. Evans, Gareth. “Reference and Contingency”. 1979. Collected Papers. Oxford: Clarendon Press, 1985. —. The Varieties of Reference. Oxford: Clarendon Press, 1982. Fitch, Gregory. W. “Are there Necessary a posteriori Truths?”. Philosophical Studies 30.2 (1976): 243-247. Frege, Gottlob. “Sobre sentido y referencia”. 1892. La búsqueda del significado. Ed. L. M. Valdés. 24-45. Gallois, André. “Rigid Designation and the Contingency of Identity”, Mind 95.1 (1986): 57-76. —. “Carter on Contingent Identity and Rigid Designation”, Mind 97.2 (1988): 273-278. García-Carpintero, Manuel. “Fregean versus Kripkean Reference”, Teorema, 18.1 (1998): 21-44.
[97]
Colomina Almiñana, Juan José & Raga Rosaleny, Vicente
Kripke, Saul. “Identidad y necesidad”. 1979. La búsqueda del significado. Ed. L. M. Valdés. 98-130. —. El nombrar y la necesidad. Trad. Margarita M. Valdés. México D.F.: UNAM, [1980] 1985. López de Sa, Dan. “Por qué la aposterioridad no (basta, según Kripke, ni) basta”. Theoria 57.2 (2006): 245-255. Hong, Chang-Seon. “Natural kinds and the identity of property”. Teorema 17.1 (1998): 89-98. McCulloch, Gregory. “A Variety of Reference?”. Mind 94.4 (1986): 569-582. McGinn, Collin. “Rigid Designation and Semantic Value”. The Philosophical Quaterly. 32.127 (1982): 97-115. Moulines, Ulises. Pluralidad y recursión. Madrid: Alianza, 1991. Pérez Otero, Manuel. “El argumento de Kripke sobre la necesidad del origen material de las mesas”. Actas del II Congreso de la Sociedad de Lógica, Metodología y Filosofía de la Ciencia en España. Eds. A. Estany y D. Quesada. Bellaterra, Publicacions de la Universitat Autónoma de Barcelona, 1997. 34-38. —. “Las distinciones modales de Kripke y el concepto de proposición”. Teorema 17.1 (1998): 61-74. —. “Aplicaciones filosóficas del bi-dimensionalismo: modalidad y contenido epistémico”. Theoria 17.3 (2002): 457-477. Salmon, Nathan. Reference and Essence. Princenton (NJ): Princeton University Press, 1981. —. Frege´s Puzzle. Cambridge (MA): MIT Press, 1986. —. “Relative and Absolute Apriority”. The Philosophical Studies 69.1 (1993): 83-100. Searle, John. Actos de habla. Trad. L. M. Valdés. Madrid: Cátedra, 1990. Stalnaker, Robert. “Los nombres y la referencia: semántica y metasemántica”. Teorema 17.1 (1998): 7-19. Textor, Mark. “Rigidity and De Jure Rigidity”, Teorema 17.1 (1998): 45-59. Valdés V. Luis M, ed. La búsqueda del significado: lecturas de filosofía del lenguaje. Madrid: Cátedra, 1990. Wittgenstein, Ludwig. Investigaciones Filosóficas [IF]. Trad. A. García Suárez & C. U. Moulines. Barcelona: Crítica, 1988.
[98] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 83-98
L a experimentación y su rol epistémico en la ecología: el caso de la ecología del paisaje1
Experimentation and its epistemic role in ecology: the case of landscape ecology2
Federico di Pasquo3 Guillermo Folguera4
R esumen Durante el siglo XX, el experimento ha sido presentado como una vía indispensable para todas las disciplinas dedicadas al estudio de la naturaleza. En el presente trabajo analizamos la caracterización que se ha dado durante el siglo XX de la experimentación así como sus efectos sobre una subdisciplina de la ecología: la ecología del paisaje. Entre las décadas de 1930 y 1980, mediante una fuerte influencia del empirismo lógico, se incorporó el experimento como una herramienta metodológica fundamental en las investigaciones de la ecología. Sin embargo, durante la década de 1980 se reconocen cambios significativos tanto en la caracterización como en la aplicación de los experimentos. Estos cambios parecen estar relacionados con las grandes extensiones geográficas de los problemas ambientales, que han obligado al reemplazo de los experimentos manipulativos por los mensurativos. Palabra clave: empirismo lógico, experimento, historia de la ecología, ecología del paisaje, problemática ambiental.
A bstract In the XX century, the experiment has been presented as a fundamental way to study of nature since disciplines and sub-disciplines. The aim of this work is to study characterization of the experiment and its epistemic effects over an area of knowledge of Ecology: Landscape Ecology. Between 1930’s and 1950’s decades, experiment was considered as a fundamental methodological tool in studies of Ecology. However, in 1980’s decade it is recognized significant changes in characterization and application of the experiments. One of the causes of this change may be the wide geographic scales of the ambient problems producing the replacement of manipulative experiments by mensurative experiments in Landscape Ecology. Keywords: Logical empiricism, experiment, History of Ecology, Landscape Ecology, Ambiental problematic. 1. Esta investigación fue financiada por los proyectos de investigación UBACyT X029 y UBACyT Cód. 20020100100285. 2. Recibido: 31 de mayo de 2012. Aceptado: 15 de noviembre de 2012. 3. Universidad de Buenos Aires, Argentina. Correo electrónico: dipasquof@yahoo.com.ar. 4. CONICET, Argentina. Correo electrónico: guillefolguera@yahoo.com.ar.
Di Pasquo, Federico & Folguera, Guillermo
1. Introducción Entre las corrientes de pensamiento que pueden reconocerse en la conformación de la biología contemporánea, sin dudas una de las más significativas ha sido el empirismo lógico. Desde esta perspectiva, se reconoce una fuerte escisión entre “lo empírico” y “lo metafísico” (denostando al segundo y promoviendo al primero), que tuvo su correlato científico en la necesidad de manipular y controlar, de algún modo, “lo empírico”. Así, continuando esta tradición, los “hechos del mundo” debían ser detectados, registrados y regularizados. Es en este contexto, que el experimento se presentó como una herramienta indispensable para todas las disciplinas y subdisciplinas dedicadas al estudio de la naturaleza. De este modo, la experimentación era implementada bajo el objetivo de la búsqueda de la “verdad”, logrando ajustarse así a algunos de los lineamientos del empirismo lógico. Esta presencia tan marcada del empirismo lógico dentro de la actividad académica fue objeto de numerosas y diversas críticas al seno de la propia filosofía, pero sus influencias continuaron de un modo notorio en las ciencias naturales y, en particular, en la biología. Entre los aspectos que pueden considerarse como provenientes de dicha influencia aparece, entre otros, el elogio del experimento como vía metodológica preferencial. Numerosos ejemplos pueden señalarse al respecto. Por ejemplo, cabe la mención de uno de los que ha ocupado mayor cantidad de páginas tanto desde la biología como desde la filosofía de la ciencia: la injerencia de lo metodológico en la relación entre microevolución y macroevolución. Al respecto, fue señalada durante la segunda mitad del siglo XX la “imposibilidad” de la paleontología de presentar mecanismos evolutivos en contraposición a otras subdisciplinas tales como la genética de poblaciones (cf., e.g., Bock 1970; Futuyma 1998). Según esta perspectiva, los estudios que no cumplan dicho requisito metodológico serían insuficientes para reconocer los mecanismos que den cuenta de los fenómenos asociados a la vida en diacronía. De este modo, el experimento ofrecía características anheladas como la repetibilidad, imposible de realizar en sistemas de cierta complejidad o en disciplinas como la paleontología. Más aún, dicha característica fue esgrimida como uno de los requisitos indispensables para la obtención de los mecanismos evolutivos, pieza teórica fundamental a los fines de obtener el carácter de cientificidad tan preciado para los partidarios de la síntesis biológica. Dentro del ámbito evolutivo, algunos de estos elementos comenzaron a ser revisados de manera parcial y fragmentada a partir de la década de 1970 (para profundizar en estos aspectos, cf. Mellender de Araújo 2006).
[100] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 99-120
La experimentación y su rol epistémico en la ecología: el caso de la ecología del paisaje
Si bien el área evolutiva ha sido una de las más analizadas respecto al rol epistémico que ha cumplido el experimento, una situación similar puede rastrearse en diferentes disciplinas asociadas al estudio de lo viviente. Sin duda una de las áreas en las que lo experimental ha cumplido roles epistémico sumamente significativos ha sido la ecología5. Durante el siglo XX, esta área del saber se ha centrado grosso modo en la indagación de las interacciones entre los organismos y su ambiente (Begon et ál. 1999, 4). A su vez, en las últimas décadas, ha sufrido un fuerte desarrollo teórico y metodológico, acompañado de una notable proliferación de diferentes subáreas. En el presente trabajo analizaremos la caracterización de la experimentación y su rol epistémico dentro de la ecología y en particular, en una de sus áreas, la denominada ecología del paisaje. Dicho análisis transitará el periodo comprendido entre la década de 1930 hasta la actualidad. Nuestra hipótesis principal es que durante la década de 1980 se reconoce una fuerte discontinuidad tanto en la caracterización de la metodología experimental como en sus implicaciones epistémicas. En relación a ello, se señala desde entonces un desplazamiento del experimento controlado (o manipulativo), en el ámbito de las investigaciones ecológicas conducidas sobre grandes dimensiones físicas; siendo reemplazado por el denominado experimento observacional (o mensurativo), el cual ocupo un “rol” central en estas investigaciones. A su vez, entre las implicaciones epistémicas, este desplazamiento tuvo asociado la dificultad de dar cuenta de las causas de los fenómenos indagados6. Con el fin de analizar la problemática mencionada, el trabajo está subdividido en diferentes secciones. En la siguiente sección, es presentado el modo en que es caracterizada la experimentación en la propuesta del empirismo lógico. En la tercera sección se hace mención sobre el modo en que es incorporado el experimento a la ecología a partir de la década de 1930. En la cuarta, son distinguidos dos enfoques experimentales dentro de la ecología: el experimento controlado y el experimento observacional. La quinta sección presenta dos aspectos de relevancia para la argumentación general del trabajo: por un lado, es señalado brevemente un aspecto central de la denominada “crisis 5. Por ecología, ecología científica o ecología disciplinar nos referimos a una de las áreas de la biología. 6. Por simplicidad, utilizamos la expresión “causa” en un sentido amplio. No se pretende indagar acerca de la distinción entre “causa” y “leyes causales”, como tampoco indagar sobre las distintas leyes conocidas (e.g. leyes estadísticas, de desarrollo, etc.). Por el contrario, se pretende solo vincular el experimento controlado y la posibilidad que ofrece acerca del control de los eventos y el establecimiento de causas. En este sentido, resulta interesante destacar que el experimento puede ser empleado como un modo de acceder (a través de una sucesión de ensayos) a las causas de los fenómenos estudiados. A la vez, puede tener un “carácter de tanteo”, en la medida que deja decidir sobre un conjunto de hipótesis alternativas (Boido, 1998, 310; Martinez 1995, 14-15).
[101]
Di Pasquo, Federico & Folguera, Guillermo
ambiental” y la influencia que tuvo en la ecología disciplinar; y por otro, es analizado críticamente la aplicabilidad del experimento controlado en un área de la ecología (la ecología del paisaje). Finalmente, son ofrecidas algunas reflexiones y perspectivas generales.
2. El método experimental y el empirismo lógico Tal como se ha adelantado, en una primera aproximación puede señalarse que gran parte de los supuestos que han guiado las prácticas de las disciplinas correspondientes a las ciencias naturales durante el siglo XX tienen un origen embebido en la tradición del empirismo lógico. Para analizar la relación entre la experimentación y el empirismo lógico nos limitaremos al análisis del manifiesto que se presentó en 1929, titulado: “Wissenschaftliche Weltauffassung, Der Wiener Kreis” (El punto de vista científico del Círculo de Viena), escrito por Rudolf Carnap, Otto Neurath y Hans Hahn. En este manifiesto se señalaban los “principales” problemas filosóficos de la matemática, la física, la biología, la psicología y las ciencias sociales (Ayer [1959] 1993, 10). Una de las características más salientes de este movimiento fue el de sostener un pensamiento fuertemente empirista, el cual era caracterizado como opuesto al “metafísico”. Una ciencia sería propiamente empírica en la medida en que pudiera fundamentar el conocimiento obtenido mediante la experiencia, es decir, reconociendo que “en la base del conocimiento” se encuentran los datos empíricos (Klimovsky [1994] 2001, 125). De aquí que las operaciones prácticas como registrar, medir, describir, clasificar, inventariar o experimentar, permitirían operativizar al empirismo, en la medida que capturan, detectan o registran los fenómenos. En particular, tal como fue adelantado, uno de los elementos metodológicos asociados a la constitución de la cientificidad es el experimento. Al respecto, en el manifiesto de la década de 1929 se puede leer: “. . . la concepción científica . . . ésta presente en la investigación de todos los campos de las ciencia experimental” (Neurath et ál. [1929] 1995, 2). O bien: “Sólo la continua investigación de la ciencia experimental puede enseñarnos en qué grado el mundo es regular” (Neurath et ál. [1929] 1995, 9). Este “rol” central del experimento controlado se debió (en parte) a que agrega, a la detección de los fenómenos, el control de las variables bajo estudio: “Experimental research is commonly held up as the paradigm of «good» science. Although experiment plays many roles in science, its classical role is testing hypotheses in controlled laboratory settings” (Cleland 2002, 474).
[102] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 99-120
La experimentación y su rol epistémico en la ecología: el caso de la ecología del paisaje
Hasta aquí hemos podido reconocer la relevancia de la aproximación experimental dentro del empirismo lógico. En la siguiente sección analizaremos cómo incidió el elogio de lo experimental en la ecología (en tanto disciplina científica) durante el siglo XX.
3. El método experimental en la ecología disciplinar: entre 1930 y 1980 Iniciado el siglo XX la ecología, como ámbito disciplinar de la biología, comenzó a incorporar dentro de su metodología a los experimentos a partir de las influencias dadas por el empirismo lógico (Lodge et ál. 1998, 218). Desde entonces, es posible reconocer a grandes rasgos tres etapas diferentes en cuanto a la caracterización de la metodología. En el primer período, comprendido entre 1930 y 1950, tienen lugar una serie de experimentos considerados por algunos autores como los primeros de la disciplina (Hairston 1989, 56; Krebs 1988, 143). Generalmente se reconoce que estos primeros ensayos fueron realizados por el soviético Georgii Frantsevich Gause, quien supo formular la ley de exclusión competitiva basándose en los resultados de dichos experimentos (Lawton 1995, 328). Los mismos fueron posibles a partir de la cría de dos especies de paramecios en el contexto del laboratorio (Paramecium aurelia y Paramecium caudatum). A grandes rasgos, eran tres las metas de estos primeros ensayos: determinar el crecimiento poblacional de una especie según la disponibilidad de alimento, detectar los efectos de la competencia entre dos especies, y estudiar la relación entre su predador y su presa en el tiempo (Dajoz 2002, 175; Mcintosh [1985] 1995, 174-175). La segunda etapa la podemos datar entre las décadas de 1950 y 1980. Es aquí cuando la ecología comenzó a integrarse al proyecto del empirismo lógico, en la medida en que incorporaba el experimento como una herramienta metodológica fundamental en las investigaciones de la disciplina a la vez, se aproximaba al modelo de ciencia “dura” heredado de la física (Núñez et ál. 2008, 15-16; Núñez 2008, 42-43; De Laplante 2004, 11). Algunos autores sugieren que esta implementación del experimento es lo que permitió la “maduración” de la ecología. Por ejemplo, según Kingsland, “The origins of ecology as a science began with the application of experimental and mathematical methods to the analysis of organism-environment relations, community structure and succession, and population dynamics” (1991, 1). A su vez, Rosenzweig en 1976 mencionaba: “. . . as sciences mature they develop a hypothetico-deductive philosophy. They progress by generating hypotheses and disproving them
[103]
Di Pasquo, Federico & Folguera, Guillermo
in controlled experiments. It is my opinion that such a maturation is now underway in ecology” (citado en Mcintosh 1982, 3). A la vez que se reconocía el rol general de la experimentación en la ecología, fueron presentados los primeros diseños experimentales conducidos a campo (Hairston 1989, 56; Krebs 1988, 143). En dichos experimentos se consideraban (en general) dos sitios de muestreo (e.g., dos lagos) (cf. Hasler et ál. 1951). Mientras uno de los sitios era considerado como “control”, al otro se le aplicaba algún tratamiento. Posteriormente, se comparaban ambos sitios en busca de alguna diferencia significativa. En caso de que efectivamente se la registrara, el investigador se encontraba en condiciones de asociar el cambio detectado con el tratamiento implementado. Siguiendo esta tendencia, George Edward Pelham Box y George C. Tiao, en 1965 y en 1975, desarrollaron otro diseño experimental denominado “Before-After”, donde se registraban los datos de un solo sitio, antes y después de un impacto ambiental o de una perturbación no controlada. En estos casos se comparaban los datos que habían sido tomados antes de la perturbación contra los datos recogidos después de la misma. Sin embargo, cabe señalar que en estos diseños no se contemplaba ningún control. Fue Roger Harrison Green, alrededor de 1980, quien intento resolver dicho inconveniente con un nuevo diseño, conocido como: “Before-After-ControlImpact”. En este caso se consideraban muestras de dos sitios diferentes (uno de los cuales era el control) antes y después del impacto (o de la perturbación) (Miao et ál. 2009, 6). Este último diseño contemplaba no solo el seguimiento de un sitio antes y después de una perturbación, sino que permitió también su comparación con un sitio control. Finalmente, la tercera y última etapa puede reconocerse desde la década de 1980 hasta la actualidad. En ésta se alertaba sobre las diferencias de dos enfoques experimentales: el experimento manipulativo (o controlado) y el experimento mensurativo (u observacional)7. En la próxima sección, desarrollamos ambos enfoques destacando en qué se complementan, en qué difieren y cuáles son algunas de las implicaciones epistemológicas que sobrevienen de su aplicación.
7. En el presente trabajo nos limitaremos a analizar la primera gran división (manipulativo-mensurativo). Sin embargo, para una profundización del tema, cf. Eberhardt & Thomas (1991). Aquí los autores reconocen ocho diseños experimentales distintos. Por un lado, aquellos donde interviene el investigados: experimento con replicas; sin replicas y “modelización” y por otro, aquellos donde el investigador no interviene: análisis de intervención; estudios observacionales; estudios analíticos; estudios descriptivos y por último, análisis de patrones.
[104] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 99-120
La experimentación y su rol epistémico en la ecología: el caso de la ecología del paisaje
4. L a ruptura de la década de 1980: el experimento manipulativo y el experimento mensurativo en la ecología
4.1. Diferencias entre el enfoque manipulativo y mensurativo El experimento en ecología contiene una serie de características “deseables” las cuales fueron detalladas en un artículo de gran importancia para la disciplina: “Pseudoreplication and the design of ecological field experiments”, presentado por Stuart Hurlbert en 1984. En este trabajo se señala: A full description of the objectives of an experiment should specify the nature of the experimental units to be employed, the number and kinds of treatments (including “control” treatments) to be imposed, and the properties or responses (of the experimental units) that will be measured. Once these have been decided upon, the design of an experiment specifies the manner in which treatments are assigned to the available experimental units, the number of experimental units (replicates) receiving each treatment, the physical arrangement of the experimental units, and often, the temporal sequence in which treatments are applied to and measurements made on the different experimental units (Hurlbert 1984, 188).
Según Hurlbert, con el fin de realizar un experimento controlado, entre otros requisitos se debe poder definir la unidad experimental, determinar el número necesario de éstas (las réplicas), decidir el número tratamientos (entre ellos el control), decidir la/s variable/s explicativa/s y la variable explicada. Así, a la vez que se presentaban las condiciones necesarias que un experimento controlado debería cumplir, eran excluidos los diseños experimentales que no contemplaban esos elementos. Por ejemplo, Hurlbert critica los diseños “Before–After–Control–Impact”, los cuales carecían de réplicas independientes (Miao et ál. 2009 6). Fue a partir del artículo de Hurlbert que se distinguiría, muy a grandes rasgos, las diferencias entre dos enfoques experimentales usualmente utilizados en la ecología: los experimentos mensurativos (u observacionales) de los experimentos manipulativos (o experimentos controlados): Two classes of experiments may be distinguished: mensurative and manipulative. Mensurative experiments involve only the making of measurements at one or more points in space or time; space or time is the only “experimental” variable or “treatment.” Tests of significance may or may not be called for. Mensurative experiments usually do not involve the imposition by the experimenter of some external factor(s) on experimental units. If they do involve such an imposition, . . . all experimental units are “treated” “identically”. (Hurlbert 1984, 189)
[105]
Di Pasquo, Federico & Folguera, Guillermo
En cuanto al experimento manipulativo Hurlbert agregaba: Whereas a mensurative experiment may consist of a single treatment, a manipulative experiment always involves two or more treatments, and has as its goal the making of one or more comparisons. The defining feature of a manipulative experiment is that the different experimental units receive different treatments and that the assignment of treatments to experimental units is or can be randomized (Hurlbert 1984, 190).
Así, las diferencias señaladas entre el experimento manipulativo y el mensurativo en la ecología, descansaba sobre la idea de que el primero permitía controlar un fenómeno (o un evento), mientras que el segundo permitía, más bien, controlar los procesos de observación (Eberhardt & Thomas 1991, 54).
4.2. Implicaciones epistemológicas de los enfoques experimentales Resulta interesante analizar algunas de las implicaciones epistémicas de las dos aproximaciones presentadas. Para ello, veamos previamente en qué sentido se suelen entender los conceptos de “patrón”, “proceso” y “mecanismo” desde la ecología: • Patrón: eventos repetidos, entidades recurrentes, relaciones replicadas o trayectorias regulares e irregulares registradas en espacio y tiempo (adaptado de Pickett et ál. 2007, 69; Marone & Bunge 1998, 35). • Proceso8: conjunto de fenómenos en donde los acontecimientos se suceden en el espacio y en el tiempo. Estos fenómenos pueden estar o no relacionados causalmente (por fenómeno entendemos: cualquier evento, suceso, entidad o relación de interés para el ecólogo) (adaptado de Pickett et ál. 2007, 69; Marone & Bunge 1998, 35). • Mecanismo: tipo especial de proceso en donde un conjunto de causas que refieren a una interacción directa se traduce en un fenómeno (adaptado de Pickett et ál. 2007, 69; Marone & Bunge 1998, 35). En las caracterizaciones anteriores se puede notar que es el mecanismo (y no el proceso) el que remite propiamente a las causas que darían cuenta de los fenómenos ecológicos indagados. Ahora bien, si consideramos las definiciones mencionadas en relación con los dos enfoques presentados (manipulativo y 8. La distinción entre patrón y proceso no está siempre del todo clarificada. En principio, aquello que se considera como proceso a un nivel dado (ej. el proceso de extinción de la sp.1) puede resultar en un patrón a otro nivel (ej. un cambio de abundancia en la sp.1 de n a 0) (cf. Wiens 1989, 20).
[106] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 99-120
La experimentación y su rol epistémico en la ecología: el caso de la ecología del paisaje
mensurativo), resulta claro que el experimento controlado permite “fijar” relaciones entre dos fenómenos distintos en tanto y en cuanto, logra reproducir un fenómeno (o un evento) de interés para obtener otro (Nagel [1961] 2006, 111). Es decir, el experimento controlado “ofrece” la posibilidad de reproducir un presunto mecanismo, manipularlo y de ahí, estudiarlo. Tal manipulación permite establecer relaciones causales entre las unidades tratadas y los tratamientos, es decir, admite la “detección” de forma inequívoca del efecto que tienen los tratamientos sobre las unidades experimentales (Peters 1993, 137). En cambio, en el caso del experimento mensurativo no hay una manipulación de los fenómenos y mucho menos una reproducción de los mismos. Más aún, el investigador no interviene “imponiendo” tratamientos (Peters 1993, 140). Es por ello que en el experimento mensurativo resulta imposible analizar, descomponer o sondear un mecanismo para conocerlo. Y aun cuando en algunos diseños (generalmente conducidos a campo) se incluye algún tipo de tratamiento que implica alguna manipulación (e.g., experimento comparativos mensurativos), se sostiene que estos diseños tampoco pueden ser considerados experimentos en sentido estricto. Dado que la simple aplicación de un tratamiento a una unidad experimental no supone la reproducción y estabilización de un fenómeno (o de un evento): We can call this a comparative mensurative experiment. Though we use two isobaths (or “treatments”) and a significance test, we still have not performed a true or manipulative experiment. We are simply measuring a property of the system at two points within it and asking whether there is a real difference (“treatment effect”) between them” (Hurlbert 1984, 189).
De este modo, desde la postura dominante dentro de la ecología, por medio del experimento mensurativo se intenta, en general, registrar patrones fenoménicos desde los cuales podría inferirse (y no reproducirse) el/los mecanismos o procesos actuantes. Ahora bien, es importante reconocer que la imposibilidad de manipular un mecanismo no inhabilita su postulación hipotética y posterior corroboración mediante la observación. Es decir, nada impide que se postulen hipótesis referidas a mecanismos (o procesos) ecológicos que luego son puestos a prueba por medio de un experimento mensurativo (u observación controlada). En este punto, se debe reconocer que desde una perspectiva epistemológica, hay una diferencia cualitativa entre los enfoques señalados. Mientras el experimento manipulativo permitiría elegir entre hipótesis alternativas y profundizar sobre las causas (reproduciendo, estabilizando y manipulando presuntos mecanismos), el experimento mensurativo sólo admitiría la elección
[107]
Di Pasquo, Federico & Folguera, Guillermo
entre hipótesis competidoras (se traten estas de hipótesis referidas a mecanismos, procesos o patrones). Es decir, la continua aplicación del experimento mensurativo, en el proceso de descubrimiento, no aseguraría el establecimiento de las causas, en la medida en que no permite manipular un fenómeno para obtener otro. De aquí que, al comparar ambos enfoques (manipulativos y mensurativos), Eberhardt & Thomas mencionan: “In many respects, the same formal mathematical procedures might be employed, but the two approaches differ markedly in the relative strengths of inferences as to cause and effect” (1991, 54). Por lo demás, el reemplazo del experimento manipulativo por un enfoque mensurativo (tema que justamente abordaremos en la quinta sección), implicaría por los motivos recién expuestos, la dificultad de “profundizar” en las causas de los fenómenos indagados.
4.3. Los enfoques manipulativo y mensurativo como complementarios Acabamos de señalar cómo, desde la posición hegemónica de la ecología, las propias características del experimento manipulativo dan lugar al sondeo de mecanismos, al garantizar la reproducción de un fenómeno o un evento en condiciones controladas. O dicho de otra manera, el experimento controlado da lugar al análisis de las causas que se traducen en un fenómeno. Con todo, el experimento manipulativo llevado a cabo en el campo (y no en el laboratorio) encontró importantes dificultades en su aplicación: Aunque es cierto que la experimentación es una de las avenidas más efectivas para establecer relaciones de causalidad, no está del todo exenta de problemas en su aplicación del mundo real. Las interacciones indirectas y el mutualismo competitivo dificultan el esclarecimiento de relaciones causales (Jaksic & Marone 2007, 246).
Una diferencia que se supone entre la experimentación controlada en el laboratorio y en el campo, es que en el primero “todas” las variables pueden ser controladas9, mientras que en los experimentos manipulativos a campo se señala su imposibilidad: Field experiments show the manipulate factor may have its presumed effect in a more natural setting, despite the uncontrolled variations of other factors, but these results are suspect because uncontrolled variations may induce chance 9. En relación al control de las variables en el laboratorio Peters (1993, 137) señala la posibilidad de identificar hasta un solo factor entre un conjunto de variables que permanece constante. De aquí que dichos experimentos sea especialmente útiles en la detección de diversas vías causales.
[108] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 99-120
La experimentación y su rol epistémico en la ecología: el caso de la ecología del paisaje
colinearities and erroneous attribution of the significance. Since there is an infinite number of factors and variables in field experiments, such experiments always risk confounding the manipulation with some correlate (Peters 1993, 138).
Según esta posición, el experimento controlado en el campo encuentra dificultades adicionales (en comparación con su aplicación en el laboratorio) respecto del esclarecimiento de relaciones causales. A ello, se le agregó que la constatación de cierto mecanismo detectado en el contexto del laboratorio no implica, por sí solo, que él mismo actúe efectivamente en la naturaleza (Jaksic & Marone 2007, 255). Por lo mencionado es que se acepta cierta relación de complementariedad entre ambos enfoques (Lodge et ál. 1998, 219). Es decir, se puede considerar un experimento mensurativo a campo donde, por ejemplo, se busca establecer una correlación entre dos variables. Posteriormente, se ensayan experimentos manipulativos en el laboratorio (o en el campo) para intentar “acceder” a los posibles mecanismos involucrados (en caso de que los hubiera) (Smith & Smith 2001, 7-8; Peters 1993, 140). Revisado brevemente los dos enfoques que han caracterizado a la experimentación en la ecología a partir de la década de 1980, en la siguiente sección indagaremos el modo en que irrumpió la problemática ambiental en el seno de esta disciplina.
5. L a crisis ambiental, la ecología del paisaje y el experimento manipulativo
5.1. La ecología disciplinar y el aspecto “global” de la crisis ambiental En un periodo de tiempo relativamente corto (que comprende desde 1960 a 1980, aproximadamente) el “mensaje ecologista” que alertó acerca de la degradación ambiental, alcanzó distintos sectores de las sociedades industrializadas (científicos, académicos, empresariales, Estados, etc.). Esta toma de conciencia “setentista”, a pesar de la diversidad en sus diferentes vertientes, confluiría en la idea de que las acciones humanas devastan el planeta en toda su globalidad: “. . . existe una jerarquía de problemas ambientales que ejercen influencia a nivel planetario, regional y local” (Cornejo et ál. 2001, 111). Así, un aspecto común de las sociedades industrializadas será su capacidad de degradar la naturaleza a escalas espaciales nunca antes concebidas (di Pasquo et ál. 2011, 28-29; Parry et ál. 2007, 8-9; Bramwell 1992 [1989], 4).
[109]
Di Pasquo, Federico & Folguera, Guillermo
Ahora bien, ¿de qué modo la problemática ambiental pudo afectar la aplicabilidad del experimento controlado en la ecología disciplinar? Aceptada la idea de que los problemas ambientales pueden descansar sobre grandes extensiones geográficas, es relativamente sencillo entender dicha conexión. Es decir, a la ecología se le “introduce” el inconveniente de atender fenómenos que “actúan” sobre amplias escalas espaciales. En efecto, mucho autores del ámbito de la ecología disciplinar coinciden en que la atención sobre dichos fenómenos se debe principalmente, a la relevancia que han tomado los problemas ambientales (Odum y Barrett 2008 9; Smith et ál. 2008 116; Neilson 2005 167-168; Turner 20051968; Burel y Baudry 2004[1999] 12; Naveh y Liberman, 2001[1984] 33-34; Turner et ál. 2001 7). De este modo, a la ecología se le presentó un nuevo desafío que se sumaba a la mencionada dificultad de la implementación del experimento manipulativo en el campo: los problemas de la implementación del experimento manipulativo sobre grandes regiones geográficas10. Dicho obstáculo se ha puesto en evidencia, sobre todo, en aquellas áreas de la ecología que se caracterizan por abordar investigaciones en escalas espaciales amplias. Este es el caso de la ecología del paisaje (Ver: Andersen 2008 o Mcgarigal y Cushman 2002). A continuación, indagamos el eje central de la tesis propuesta: la insuficiencia del experimento manipulativo en el contexto de esta subdisciplina de la ecología.
5.2. El experimento manipulativo y la ecología del paisaje Tal como mencionamos en las secciones anteriores, a pesar de las dificultades señaladas, el experimento manipulativo adquirió cierto “privilegio” en comparación al mensurativo, en la medida en que permitía “profundizar” sobre las causas que se “traducen” en los fenómeno indagados. Sin embargo, con la consolidación disciplinar de la ecología del paisaje11 entre 1970 y 1980, y de las investigaciones conducidas sobre grandes extensiones geográficas (di Pasquo et ál. 2011, 24), el experimento manipulativo se mostró insuficiente y, en algunos casos, directamente inviable12 . 10. La escala espacial es la dimensión física del área geográfica. En este sentido, entendemos que un área geográfica “amplia” se corresponde con una escala espacial “amplia”. 11. En general, el paisaje fue entendido como: “A mix of local ecosystem or land use types is repeated over the land forming a landscape, which is the basic element in a region at the next broader scale . . .” (Forman 1995, 134). Otras definiciones agregaron que el paisaje se caracterizó fundamentalmente por la heterogeneidad espacial. Ello se debió, principalmente, a que el paisaje se representó como un conjunto de elementos, más o menos fragmentados. Véase Burel & Baudry ([1999] 2004, 43). 12. Resulta interesante destacar que la extensión de un paisaje puede variar entre 10 y 100 Km² aproximadamente, mientras que una región está formada por una combinación de paisajes. Véase Bailey (2009, 27) y Matteucci (1998, 228).
[110] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 99-120
La experimentación y su rol epistémico en la ecología: el caso de la ecología del paisaje
En un trabajo titulado “Research in the journal Landscape Ecology, 1987– 2005” (2008), Barbara Andersen realizó una revisión de los artículos publicados en la revista Landscape ecology (que comprende desde el 1° volumen publicado en 1987 hasta la publicación del volumen número 20 en el 2005). La autora analizó el porcentaje de investigaciones que descansaron sobre escalas amplias (más de 100km2) y el uso del experimento manipulativo en esos trabajos. En términos generales, sus resultados indicaron que en el período que comprende entre 1987 y 1997, el 40% de las investigaciones fueron realizadas sobre escalas amplias, mientras que menos del 1% realizó experimentos controlados (o manipulativos). A su vez, en los trabajos publicados entre 1998 y 2005, se observó que más del 65% de las investigaciones se condujeron sobre escalas gruesas mientras que en menos del 10% de éstas se realizaron estudios experimentales. En palabras de la autora: There was a modest increase in papers addressing sociological subjects, a more spread out distribution of study scales, more use of descriptive, methodological and GIS approaches, and more employment of mathematical and statistical approaches. The lack of experimental studies continued through Volume 20 (Andersen 2008, 129).
En otro trabajo titulado “Comparative evaluation of experimental approaches to the Study of habitat fragmentation effects”, los autores Kevin McGarigal y Samuel Cushman mencionan: Our task was to review recent fragmentation literature to provide feedback to researchers on the effectiveness of recent fragmentation field research, and to provide suggestions to strengthen it. We reviewed a total of 134 papers on habitat fragmentation published in the journals Conservation Biology, Landscape Ecology, and Ecological Applications from January 1995 through January 2000. . . . Furthermore, >75% of the experiments were mensurative in design; only 13 studies used manipulative treatments. . . . These results indicate that many researchers are using experimental approaches to study fragmentation, but few are using manipulative designs that lead to the strongest inferences, highlighting the difficulties of conducting manipulative experiments as described earlier (McGarigal & Cushman 2002, 339).
A su vez, destacan: In addition to difficulties related to control and replication, there are other important limitations related to issues of scale. There are practical limits to the area that can be manipulated in field experiments. This disqualifies many important large-scale phenomena from manipulative experiments. Also, at
[111]
Di Pasquo, Federico & Folguera, Guillermo
large scales there is a decided limit to the range of manipulations and controls that can be utilized. (McGarigal & Cushman 2002, 338).
Según esta posición, a la dificultad de controlar y replicar un evento se le agrega la limitación práctica de poder manipularlo, cuando este descansa sobre un área grande (es decir, sobre una dimensiones físicas amplias). Otros autores se han referido al experimento manipulativo (en el contexto de la ecología del paisaje) para señalar su insuficiencia. Por ejemplo: We question whether classical experimentation is adequate for real progress in landscape or regional ecology. One cannot do classical experimentation unless one can replicate the treatment. There is conflict between the need to replicate and the need to study processes at appropriately large scales. Because of the difficulties in doing controlled field experiments at regional scales, we propose that landscape ecologists take greater advantage of natural field experiments [or mensurative experiments] (Hargrove & Pickering 1992, 251).
Contrariamente, el experimento mensurativo se ha visto “favorecido” en el contexto de la ecología del paisaje. De aquí, que puede reconocerse claramente lo mencionado: el experimento mensurativo ocupó un “rol” central en aquellas investigaciones conducidas sobre dimensiones físicas amplias: Mensurative experiments offer a means of overcoming some of the important limitations that we have discussed for manipulative experiments. Most importantly, the practical and logistical difficulties of implementing largescale treatments are avoided altogether. . . . Mensurative experiments have the highest realism and generality, because they are applied to unmanipulated, real-world systems. For many fragmentation questions, due to issues of scale and scope, mensurative experiments are the only feasible approach (Mcgarigal & Cushman 2002, 338-339).
En una primera aproximación a las referencias citadas, se puede reconocer la siguiente posición: la imposibilidad de manipular la naturaleza crece en la medida en que aumenta la escala espacial analizada (Odum & Barrett 2008, 488). En relación con ello, entendemos que la evidencia presentada permite sostener el abandono del experimento controlado en el contexto de las investigaciones conducidas sobre amplias escalas espaciales, tal como en el caso de la ecología del paisaje. A la vez, el experimento mensurativo ha sido (al menos en parte) una solución metodológica “realista” para aquellas áreas de la ecología que involucran un amplio espectro de escalas espaciales, entre estas, las correspondientes con dimensiones físicas grandes. Asimismo, el reemplazo del experimento manipulativo por el mensurativo conllevó a la idea de una
[112] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 99-120
La experimentación y su rol epistémico en la ecología: el caso de la ecología del paisaje
dificultad en cuanto a la sondeo de las causas de los fenómenos ecológicos indagados.
6. Discusión Luego del recorrido trazado, resulta oportuno volver a la hipótesis sugerida en la primera sección, en la cual se reconocía una “fractura” durante la década de 1980 en cuanto a la conceptualización del experimento en la ecología y de la caracterización de sus implicaciones epistémicas. Ahora bien, volvamos sobre dicha discontinuidad y analicemos más cuidadosamente tanto su naturaleza como algunas de sus consecuencias en la actualidad. Recordemos que entre las décadas de 1930 y 1980, el experimento fue un elemento metodológico fuertemente “anhelado” y la “intención” por parte de aquellos científicos fue incorporarlo, en el ámbito disciplinar de la ecología. Posteriormente, para mediados de 1980, fueron reconocidas las diferencias entre dos enfoques experimentales, desarrollados dentro de la disciplina: el enfoque manipulativo (o experimento controlado) y el enfoque mensurativo. Éste último ocuparía un “rol” secundario hasta finales de la misma década, cuando comenzaba a reconocerse que un experimento, entendido en un sentido estricto (el cual supone el control y la manipulación de un fenómeno) resultaba impracticable en aquellas investigaciones realizadas sobre regiones geográficas grandes. Las transformaciones que hemos señalado durante la década de 1980 no implicaron alteraciones únicamente al seno de la ecología disciplinar. Por el contrario, el quiebre sugerido se opone, confronta y objeta fuertemente con aquella tendencia iniciada a comienzos del siglo XX, dada por el empirismo lógico13, en la cual el experimento (entendido en un sentido estricto) permitía operativizar dicha filosofía, constituyéndose como una herramienta esencial para toda disciplina que fuese considerada empírica. En este sentido, en el ámbito de la ecología, la aproximación experimental había “acercado” a la disciplina a los estándares de “cientificidad” impuestos para las ciencias denominadas “duras”. Sin embargo, a partir del quiebre mencionado, la ecología del paisaje (una importante área del conocimiento de la ecología) se alejó de aquellos estándares de “cientificidad” al reconocer que el experimento controlado resultaba insuficiente e impracticable en aquellas investigaciones 13. En relación con la ruptura de otros aspectos epistemológicos de la ecología con el empirismo lógico ver Quenette & Gerard (1993, 361).
[113]
Di Pasquo, Federico & Folguera, Guillermo
conducidas sobre escalas espaciales amplias14. A su vez, este recorrido subdisciplinar la diferenció fuertemente de las clásicas áreas de la ecología (e.g., ecología del comportamiento, ecología de poblaciones, ecología de comunidades y ecología de ecosistemas) las cuales descansaron (y aún lo hacen) sobre el experimento manipulativo o bien, sobre la posición que propugna por una complementariedad de ambos enfoques “ubicando” el enfoque mensurativo en un lugar secundario. Contrariamente, en el caso de la ecología del paisaje, el experimento mensurativo ocupó un lugar central. Y ello se realizó a pesar de la adjudicación de dos elementos negativos, señalados por la corriente de pensamiento dominante dentro de la ecología. El primero, es que el experimento mensurativo pareció vincularse más con un muestreo o una observación sistemática de la naturaleza, que con un experimento en un sentido estricto (Eberhardt & Thomas 1991, 54), tal como habría sido concebido por el empirismo lógico. El segundo, es que el reemplazo del experimento manipulativo por el mensurativo, estuvo acompañado de consecuencias epistémicamente negativas. De este modo, se señaló que los experimentos mensurativos no podían sondear o bien profundizar en los mecanismos ecológicos actuantes. En tanto y en cuanto no permiten su reproducción y su “desintegración”, en condiciones controladas. De aquí, que el enfoque mensurativo no logre dar lugar al análisis de las causas que se traducen en los fenómenos indagados. Ahora bien, ¿cómo se comprende que una disciplina del ámbito de las ciencias “duras” concediera (en algunas de sus áreas15) el desplazamiento del experimento controlado? Al respecto, dos motivos no excluyentes que dan cuenta de este singular proceso pueden ser sugeridos. El primero, se encuentra vinculado a la dinámica “interna” de la propia disciplina. Las transformaciones sugeridas sobre la dimensión metodológica parecen haber estado íntimamente relacionadas con la propia dimensión teórica de la ecología disciplinar. Así, puede reconocerse al seno de la disciplina que desde fines de 1970 y comienzos de 1980 emergen tanto la noción de escala (espacial y temporal) como la denominada teoría jerárquica (Schneider 2001, 552). A partir de la incorporación de estas estrategias teóricas, se establece la idea de que los fenómenos ecológicos operan dentro de un rango de escalas espacio-temporales (Burel & Baudry [1999] 2004, 81-82; Turner et ál. 2001, 36-37). De aquí en adelante, los fenómenos ecológicos deberán ser indagados en la dimen14. La ecología del paisaje trabaja sobre una multiplicidad de escalas espaciales. En este sentido, el abandono del enfoque manipulativo se vincula únicamente con las investigaciones conducidas sobre grandes dimensiones físicas. 15. La macroecología es otra de las áreas de la ecología en las cuales pareciera que también se ha optado por el experimento mensurativo (Brown 2003 [1995]).
[114] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 99-120
La experimentación y su rol epistémico en la ecología: el caso de la ecología del paisaje
siones físicas sobre las cuales actúan con mayor preponderancia (sean escalas pequeñas o amplias) (Delcourt et ál. 1988, 25). Es en este contexto, que puede comprenderse el lugar central de los experimentos mensurativos. Mientras los experimentos manipulativos permanecieron vinculados a las dimensiones físicas más pequeñas (dado que el control experimental es factible), los experimentos mensurativos se afianzaron sobre las dimensiones físicas más grandes. El segundo motivo, más bien “externo” a la disciplina, parece relacionarse con la propia crisis ambiental. Muchas veces los impactos ambientales tienen lugar sobre amplias regiones geográficas, por lo que se le planteó a la ecología el nuevo desafío de “atender” a fenómenos que descansan sobre escalas espaciales amplias (Odum & Barrett 2008, 9; Smith et ál. 2008, 116; Neilson 2005, 167-168; Turner 2005, 1968; Burel & Baudry [1999] 2004, 12). Es decir, la crisis ambiental, demandó en la ecología soluciones teórico-metodológicas que pudieran aplicarse sobre grandes extensiones geográficas. En este sentido, la ruptura señalada no sólo es relevante a la comprensión del devenir de la propia disciplina (así como en los distintos enfoques experimentales ensayados, adoptados y descartados por la misma) sino también, en el propio discernimiento de que dicha ruptura “encontró su momento” durante la crisis ambiental. De ahí que una línea de investigación que resulta significativa para ser abordada en próximos trabajos, es la de indagar los modos en que la problemática ambiental se ha relacionado con la disciplina a través de la historia; más allá de un primer reconocimiento trivial de las posibles soluciones (técnicas) desarrolladas en el seno de la ecología y transferidas posteriormente al ámbito de lo ambiental.
Trabajos citados Andersen, Barbara J. “Research in the journal Landscape Ecology, 1987– 2005”. Landscape Ecol. 23 (2008): 129-134. Ayer, Alfred J. El Positivismo Lógico. Madrid: Fondo de Cultura Económica, [1959] 1993. Bailey, Robert G. Ecosystem Geography. From Ecoregions to Sites. London: Springer New York, 2009. Bock, Walter J. “Microevolutionary sequences as a fundamental concept in macroevolution”. Evolution 24 (1970): 704-722. Boido, Guillermo. Noticias del planeta Tierra. Galileo Galilei y la revolución científica. Buenos Aires: AZ editorial, 1998.
[115]
Di Pasquo, Federico & Folguera, Guillermo
Box, George E. P. & Tiao, George C. “A change in level of a nonstationary time series”. Biometrika 52 (1965): 181-192. Box, George E. P. & Tiao, George C. “Intervention analysis with applications to economic and environmental problems”. Journal of the American Statistical Association 70 (1975): 70-79. Bramwell, Anna. Ecology in the twentieth century: a history. New Haven & London: Yale University Press, [1989] 1992. Brown, James H. Macroecología. México: Fondo de Cultura Económica, [1995] 2003. Burel, Francoise & Baudry, Jacques. Landscape Ecology Concepts, Methods and Applications. United States of America: Science Publishers, [1999] 2004. Cleland, Carol E. “Methodological and Epistemic Differences between Historical Science and Experimental Science”. Philosophy of Science 69 (2002): 474-496. Cornejo, R.; De Viana, Marta L. & Quintana, M. “Cambio global: perspectiva ético-epistemológica”. Epistemología e Historia de la Ciencia 7 (2001): 111-116. Eds. Ricardo Caracciolo & Diego Letzen. Córdoba (Arg.): Universidad Nacional de Córdoba. Dajoz, Roger. Tratado de ecología. Madrid: Mundi-Prensa, 2002. Delcourt, Hazel R. & Delcourt, Paul A. “Quaternary landscape ecology: Relevant scales in space and time”. Landscape Ecology 2.1 (1988): 23-44. De Laplante, Kevin. “Toward a more expansive conception of ecological science”. Biology and Philosophy, 19.2 (2004): 263-281. Di Pasquo, Federico M.; Folguera, Guillermo & Onna, Alberto. “La ecología disciplinar y la intrusión de la problemática ambiental: hacia la «percepción de fenómenos globales»”. Observatorio Medioambiental 14 (2011): 21-39. Eberhardt, L. L. & Thomas, J. M. “Designing Environmental Field Studies”. Ecological Monographs, 61.1 (1991): 53-73. Farina, Almo. Principles and methods in Landscape Ecology. London: Cambridge University Press, 1998. Forman, Richard T. T. “Some general principles of landscape and regional ecology”. Landscape Ecology, 10.3 (1995): 133-142. Futuyma, Douglas J. Evolutionary Biology. Sunderland M. A.: Sinauer Associates, 1998.
[116] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 99-120
La experimentación y su rol epistémico en la ecología: el caso de la ecología del paisaje
Hairston, Nelson G. Sr. Ecological experiments. Purpose, design and execution. Cambridge: Cambridge University Press, 1989. Hargrove, William W. & Pickering, John. “Pseudoreplication: a sine qua non for regional ecology”. Landscape Ecology 6.4 (1992): 251-258. Hasler, Arthur D.; Brynildson, O. M. & Helm, William T. “Improving conditions for fish in brown-water bog lakes by alkalization”. Journal of Wildlife Management 15 (1951): 347-352. Hurlbert, Stuart H. “Pseudoreplication and the design of ecological field experiments”. Ecological Monographs 54.2 (1984): 187-211. Jaksic, Fabian & Marone, Luis. Ecología de comunidades. Santiago: Universidad Católica de Chile, 2007. Kingsland, Sharon E. “Defining Ecology as a Science”. Foundations of Ecology. Classic Papers with Commentaries. Eds.: Real, Leslie; Brown, James. Chicago: University of Chicago Press, 1991. 1-13. Klimovsky, Gregorio. Las desventuras del conocimiento científico. Buenos Aires: AZ Editorial, [1994] 2001. Krebs, Charles J. “The experimental approach to rodent population dynamics”. Oikos 52 (1998): 143-149. Lawton, John H. “Ecological experiments with model systems”. Science 269 (1995): 328-331. Lodge, David M.; Blumenshine, Steven C. & Vadeboncoeur, Yvonne. “Insights and application of large-scale, long-term ecological observations and experiments”. Experimental ecology. Issues and perspectives. Eds. Resetarits, William J. Jr. y Bernardo, Joseph. Oxford: Oxford University Press, 1998. 202-235. Marone, Luis & Bunge, Mario. “La explicación en ecología”. Boletín de la Asociación Argentina de Ecología 7.2 (1998): 35-37. Martinez, Sergio F. “La autonomía de las tradiciones experimentales como problema epistemológico”. Crítica 27.80 (1995): 3-48. Matteucci, Silvia D. “El análisis regional desde la ecología”. Sistemas ambientales complejos: herramientas de análisis espacial. Eds.: Matteucci, Silvia D. y Buzai, Gustavo D. Buenos Aires: Eudeba, 1998. 117-150.
[117]
Di Pasquo, Federico & Folguera, Guillermo
Mcgarigal, Kevin & Cushman, Samuel A. “Comparative evaluation of experimental approaches to the study of habitat fragmentation effects”. Ecological Applications 12.2 (2002): 335-345. Mcintosh, Robert P. “The background and some current problems of theoretical ecology”. Concetual issues in ecology. Eds.: Saarinen, ESA. Holanda: D. Reídle Publishing Company, Dordrecht, 1982: 1-61. Mcintosh, Robert P. The background of ecology. Concept and theory. Cambridge (MA): Cambridge University Press, [1985] 1995. Mellender de Araújo, Aldo. “Estará em curso o desenvolvimento de um novo paradigma teórico para a evolução?” Ciencias da Vida: Estudos Filosóficos e Históricos. Eds. Pereira, Martins, L. A.; Regner Anna C. & Lorenzano, Pablo. São Paulo (Brasil): AFHIC, 2006. 1-27. Miao, ShiLi; Carstenn, Susan & Nungesser, Martha. “Introduction – Unprecedented Challenges in Ecological Research: Past and Present”. Real World Ecology. Large-Scale and Long-Term Case Studies and Methods. Eds.: Miao, ShiLi; Carstenn, Susan & Nungesser, Martha. New York: Springer Science, 2009. 1-18. Nagel, Ernest. La estructura de la ciencia. Barcelona: Paidos, [1961] 2006. Naveh, Zev & Liberman, Arthur S. Ecología de Paisajes. Teoría y Aplicación. Buenos aires: Universidad de Buenos Aires, Facultad de agronomía, [1984] 2001. Neilson, Ronald P. “Landscape ecology and global change”. Issues and Perspectives in Landscape Ecology. Eds.: Wiens, John A. & Moss, Michael R. Cambridge: Cambridge University Press, 2005. 167-178. Neurath, Otto; Carnap, Rudolf & Hahn, Hans. “El punto de vista científico del Círculo de Viena”. Wissenshaftliche Weltauffassung Sozialismus and Logischer Empirismus. Eds.: Hegselmann, R.; Francfort del Meno y Suhrkamp. Viena: Wolf, [1929] 1995. 81-101. Núñez, Paula G.; Núñez, Cecilia I. & Núñez, Martín A. “La ecología en tensión. Una indagación histórica del presente de la disciplina”. Observatorio Medioambiental 11 (2008): 13-24. Núñez, Paula G. Ecología y praxis ambiental. Una revisión de presupuestos. Tesis doctoral, Universidad Nacional de La Plata: Facultad de Humanidades y Ciencias de la Educación, 2008.
[118] Revista Colombiana de Filosofía de la Ciencia 12.25 (2012 julio-diciembre): 99-120
La experimentación y su rol epistémico en la ecología: el caso de la ecología del paisaje
Odum, Eugene & Barrett, Gary W. Fundamentos de Ecología. México: Cengage Learning Editores, S.A, 2008. Parry, Martin; Canziani, Osvaldo; Palutikof, Jean; Van der Linden, Paul & Hanson, Clair. Climate Change. Impacts, Adaptation and Vulnerability. Cambridge: Cambridge University Press, 2007. Peters, Robert H. A critique for ecology. Cambridge (GBR): Cambridge University Press, 1993. Pickett, Steward T. A.; Kolasa, Jurek & Jones, Clive G. Ecological understanding. Burlington (MA): Elsevier, 2007. Quenette, Pierre Y. & Gerard, jean F. “Why biologists do not think like Newtonian physicists”. Oikos 68 (1993): 361-363. Smith, Roberto L. & Smith, Thomas M. Ecología. Madrid: Pearson Educación, S.A., 2001. Smith, Felisa A.; Lyons, kathleen S.; Ernest, Morgan S. K. & Brown, James H. “Macroecology: more than the division of food and space among species on continents”. Progress in Physical Geography 32.2 (2008): 115-138. Turner, Monica G. “Landscape Ecology in North America: Past, Present, and Future”. Ecology 86.8 (2005): 1967-1974. Turner, Monica G.; Gardner, Robert H. & O’neill, Robert V. Landscape ecology in theory and practice: pattern and process. New York: Springer-Verlag, 2001. Wiens, John A. “Determining pattern and process: the logical structure of community ecology”. The Ecology of Bird Communities. Cambridge (MA): Cambridge University Press, 1989. 18-37.
[119]
Indicaciones para los autores
La Revista Colombiana de Filosofía de la Ciencia es una publicación académica dedicada a la filosofía de la ciencia y a sus campos afines (lógica, epistemología, ciencias cognitivas, filosofía de la tecnología, filosofía del lenguaje) y, en general, a los temas y problemas que ponen en diálogo a las ciencias con la filosofía. En ocasiones se editan números monográficos sobre autores o temas puntuales. La revista recibe contribuciones en forma de artículos originales y reseñas de libros en español, portugués, francés e inglés. Las colaboraciones aceptadas serán publicadas en riguroso orden de aceptación, salvo en el caso de los números monográficos. Todas las colaboraciones serán evaluadas por un árbitro de manera anónima y el autor recibirá una respuesta en un lapso no mayor a 90 días. Se entiende que los autores autorizan a la revista la publicación de los textos aceptados en formato impreso y digital. Todas las contribuciones han de ser enviadas en formato doc, docx, o rtf por correo electrónico a la dirección revistafilosofiaciencia@unbosque.edu.co, y han de cumplir con las siguientes condiciones:
A rtículos • El texto ha de ser original e inédito y no se ha de encontrar en proceso de evaluación para su publicación por ninguna otra revista académica. • Se ha de enviar el artículo en un archivo, en versión anónima y cuidando que las notas a pie de página, agradecimientos o referencias internas en el texto no revelen la identidad de su autor. En un archivo aparte se ha de enviar el título del artículo, el nombre del autor, su afiliación institucional y sus datos de contacto (dirección de correspondencia, correo electrónico y teléfono). • El artículo debe venir precedido de un resumen en su idioma original que no exceda las 100 palabras, y 5 palabras clave. Se han de incluir también las traducciones sal inglés del título del artículo, el resumen y las palabras clave.
Indicaciones para los autores
• La lista de trabajos citados ha de estar al final del artículo y ha de cumplir con el sistema MLA de la citación para el área de filosofía (http://www. mla.org/style). • Las referencias bibliográficas han de incorporarse al texto y no en las notas al pie de página (las notas a pie de página han de restringirse así a aquellas que contengan información sustantiva), de la siguiente manera: (Autor, página). En caso de que haya más de una obra el autor en la bibliografía, se ha de agregar el año de la obra: (Autor, año, página). • Las citas textuales de más de cinco líneas han de ubicarse en párrafo aparte con sangría de 0,5 cms. a margen derecho e izquierdo, y no han de estar entrecomilladas. Las citas de extensión menor no requieren párrafo aparte y han de venir entrecomilladas. • La extensión máxima de los artículos es de 15.000 palabras.
R eseñas bibliográficas • Se recibirán únicamente reseñas sobre libros publicados recientemente (cuya fecha de publicación no exceda los últimos dos años). • Las reseñas han de cumplir con las mismas condiciones para la citación, notas al pie y referencias bibliográficas ya especificadas para los artículos. • La extensión máxima de las reseñas es 2.500 palabras. Los autores de artículos y reseñas que sean publicados en la revista recibirán dos ejemplares de la misma.
[122]
Instructions for authors
The Revista Colombiana de Filosofía de la Ciencia is an academic journal published by the Humanities Department of the Universidad El Bosque, mainly devoted to the Philosophy of Science and their related fields (Epistemology, Logic, Cognitive Science, Philosophy of Technology, Philosophy of Language) and, in general, the topics and problems that generate dialogue between philosophy and science, whether pure sciences, applied, social or human. Sometimes issues are published on specific topics or authors. The journal receives submissions in the form of original articles and book reviews in Spanish, Portuguese, French and English. The accepted papers will be published in strict order of acceptance, except in the case of special issues. Submissions received will be considered by the editorial committee for publication, verifying that they fit their own areas of the journal; after receipt they will be evaluated by an anonymous expert referee and the author will receive a response within a period not exceeding 90 days. It is understood that the authors authorize publication of accepted texts in print and digital. All submissions must be sent in Word, docx or rtf format, and emailed to the address revistafilosofiaciencia@unbosque.edu.co, and they must meet the following conditions:
A rticles • The text must be original, unpublished and should not be under evaluation for publication by any other journal. • The author must send the manuscript in a file, in anonymous version and making sure that the footnotes, acknowledgments and internal references in the text does not reveal the identity of its author. In a separate file, the author must include: the article title, author’s name, institutional affiliation and contact information (mailing address, email and phone). • The paper must be preceded by a summary in the original language that does not exceed 100 words and 5 keywords. It should also include the English translations of the article title, abstract and keywords (or the Spanish translation, if the original language of the article is English).
Instructions for authors
• The complete list of works cited must be at the end of the article and must comply with the MLA citation system for the area of philosophy (http:// www.mla.org/style). • References must be incorporated into the text and not in footnotes (the footnotes have to be restricted to those that contain substantive information), as follows: (Author page). If there is more than one work by the same author in the bibliography, in the reference must be added the year of the work: (Author year page). • Quotations of more than five lines must be placed in a separate paragraph indented 0.5 cm to left and right margins, and don’t need quotations marks. The quotations of minor extension don’t require a separate paragraph. • The maximum length of articles is 15,000 words.
Book reviews • It will be received only reviews of recently published books (whose publication date must not to exceed two years). • The review must meet the same conditions for the citation, footnotes and list of works cited for articles already specified. • The maximum length of the reviews is 2,500 words. The authors of articles and reviews published in the journal will receive two copies of it.
[124]
Vol. XII No. 25 • 2012 julio-diciembre ISSN 0124 - 4620
Revista Colombiana de
FILOSOFÍA DE LA CIENCIA
PROGRAMA DE FILOSOFÍA