El Burro de Sancho y El Gato de Schredinger

Page 1

PAIDÓS AMATEURS / 1 - 2001 COLECCIÓN DIRIGIDA ESCALANTE GONZALBO

POR

FERNANDO

1. Luis González de Alba, El burro de Sancho y el gato de Schródinger 2. Adolfo Castañón, Por el país de Montaigne

Luis González de Alba

El burro de Sancho y el gato de Schródinger

Un paseo al trote por cien años de física cuántica y su inesperada relación con la conciencia


Pag 17

Capítulo 1: La pirámide que se derrumbó Trivia no tan falsa Es ya lugar común (y probablemente falso) la anécdota según la cual a fines del siglo XIX la ciencia por antonomasia, la física, creía haber hecho su tarea y estaba concluida. John Horgan, quien desde hace años escribe para Scientific American, opina que no hay sino una cita para apoyar tan extendida opinión [véase El fin de la ciencia, p. 37]. En tal caso estaríamos ante una mentira compartida, como la que sostiene que Ingrid Bergman solicita: «Play it again, Sam», en Casablanca; que Galileo murmuró por lo bajo, terco: «E pur si muove» («Y sin embargo, se mueve»), cuando la Inquisición le mostró los instrumentos de tortura con los que le arrancaron el juramento de que nunca más sostendría la falsa doctrina de que la Tierra gira alrededor del Sol en movimiento anual, y en torno de su propio eje, en movimiento diario; o que Cari Sagan decía repetidamente en Cosmos: «Billions and billions», como él aclara en su libro postumo que lleva, a Pag 18 propósito, ese título, como quien dice: «Pues no lo dije, pero ahora lo diré, pues.» Quizá estemos ante un caso de falsa trivia científica, con gran éxito por su notoria paradojez, pero grandes y famosos como Steven Jay Gould sostienen que en 1900, al borde de la avalancha de descubrimientos que han moldeado nuestra idea del uni-verso, los científicos creían haber llegado al fin de la ciencia, para decirlo con el título del reciente, brillante y polémico libro de Horgan... salvo uno o dos detalles de poca trascendencia: «Pelillos a la mar», como diría don Quijote para sortear un disgusto en alguno de esos capítulos donde Cervantes se hace bolas y Sancho tiene burro y no tiene burro, tiene burro y no tiene burro. Apenas se lo ha robado Ginesillo de Pasamonte, cuando ya lo monta; lo acaba de montar en lo alto de la página cuando llora por el recuerdo de su pérdida tres párrafos adelante, detalle observado por Erwin Schródinger durante una conferencia en Ginebra [«What is Matter?»]. Pero quizá la Trivia no sea tan falsa. Sostienen Kafatos y Nadeau: Hacia el final del siglo XIX, lord Kelvin, uno de los más conocidos y respetados físicos por entonces, comentó que «sólo dos pequeñas nubes» permanecían sobre el horizonte del conocimiento en física. En otras palabras, había, desde el punto de vista de Kelvin, sólo dos fuentes de confusión en nuestro por otra parte completo conocimiento de la realidad material: los resultados del experimento de Michelson y Morley, quienes no habían podido detectar la existencia de una hipotética sustancia

Pag 19 llamada éter, y la incapacidad de la teoría electromagnética para predecir la distribución de la energía radiante a diferentes frecuencias emitidas por un ideal «radiador» llamado


cuerpo negro. Estos problemas parecían tan «pequeños» que algunos físicos de renombre estaban alentando a quienes contemplaran graduarse en Física a seleccionar otros campos de estudio en los que hubiera mejores oportunidades de hacer contribuciones originales al conocimiento científico. Lo que lord Kelvin no podía haber anticipado era que los esfuerzos por resolver esas dos anomalías conducirían a la relatividad y a la teoría cuántica, o a lo que vino a llamarse la «nueva» física [The Conscious Universe, p. 13].

El padre fundador: Max Planck Lo que es un hecho es que la física, como se la conoció hasta 1900, dio paso a una nueva concepción que nadie habría podido vislumbrar: el espacio no es un enorme agujero donde están colocadas estrellas, galaxias y humanos, sino algo elástico, que hace curvas y está indisolublemente unido al también elástico tiempo; la materia está constituida sobre todo de vacíos enormes circundados por electrones, que no son pequeñas bolitas giratorias sino cargas negativas sin ubicación ni velocidad previamente existentes. Y quien comenzó el derrumbe fue Max Planck con su concepción de quantum. El esquema general de la física, lo que Kuhn llamaría luego «paradigma», funcionaba a satisfacción de todos. Luego de los triunfos de la teoría gravitatoria de Newton, al permitir predecir la existencia de Pag 20 Neptuno y su ubicación exacta antes de ser observado, había ocurrido la gran unificación de la electricidad, el magnetismo y la luz a cargo de Maxwell. No quedaban territorios por descubrir. Se procedía a llenar huecos en el gran mapa dibujado por Newton y Maxwell sin esperar grandes sorpresas. Dos de tales huecos se habían mostrado particularmente tenaces a los esfuerzos de los físicos y resistían todo intento de solución: la «catástrofe ultravioleta» y el efecto fotoeléctrico. Con la expresión «catástrofe ultravioleta” se referían los físicos al hecho que veremos enseguida. Es fácil observar que la radiación de un cuerpo varía con la temperatura; por ejemplo, al aumentar el calor en una fragua, un hierro pasa del rojo oscuro al rojo vivo, al naranja, al amarillo y luego al blanco. Las ondas de luz se vuelven amplias hacia el rojo y comprimidas hacia el violeta. Si imaginamos la luz como ondas que se esparcen sobre un estanque al arrojar una piedra, la distancia entre una cresta y otra de esas ondas es mayor en la luz roja y menor en la violeta. Las ondas de luz violeta van más juntas y apretadas; se dice que la longitud de la onda es menor. Si el rojo es una luz con ondas más amplias que el amarillo, podemos decir entonces que, al ir calentando en la fragua el hierro del ejemplo, la longitud de onda de la luz irradiada se va volviendo menor. A mayor temperatura, menor longitud de onda en la luz emitida por un objeto caliente. Dicho a grandes rasgos, la temperatura y la longitud de onda son inversamente proporcionaPag 21 les. Esta relación sirve hoy a los astrónomos para conocer la temperatura de las estrellas a partir del espectro de su luz.


El caso teórico perfecto sería aquel donde no tuviéramos un pedazo de hierro, sino un objeto constituido de una materia ideal, materia que absorbiera sin desperdicio alguno toda la radiación dirigida a ella (de ahí su nombre, «cuerpo negro»). Expliquemos esto: si un cuerpo blanco es el que refleja todos los colores de la luz visible, uno negro es el que no refleja ninguno; los absorbe todos, y por eso vemos negra una tela, aunque nunca totalmente negra. En un cuerpo negro perfectamente eficiente, la frecuencia y la intensidad de la radiación dependerían sólo de la temperatura. Esta relación entre radiación y temperatura el color y el calor en el ejemplo del hierro en la fragua sigue una ley muy precisa y bien conocida por los físicos, sospechada desde mediados del siglo XIX, pero no formulada sino hasta 1893, por Wilhelm Wien. Dicho otra vez: entre más calentemos un objeto, menor será la longitud de onda de la luz que emita. La radiación sigue las predicciones de la ley hasta un límite, pero cuando el calor supera los dos mil grados centígrados, la radiación (el color) llega al ultravioleta; a partir de allí, los valores predichos por la ley de Wien son infinitos. Un radiador negro debe emitir una cantidad infinita de luz ultravioleta, lo cual es evidente que no ocurre en la realidad. Una ley muy precisa al pasar del rojo al naranja, al amarillo y otras frecuencias, se tambalea a partir del Pag 22 azul y afirma un sinsentido cuando la frecuencia rebasa el violeta: es la catástrofe ultravioleta. Nadie podía imaginar explicación alguna. Planck hace paquetes Max Planck analiza el problema en una obra de título humilde: The Theory of Heat Radiation, en cuya segunda parte repasa a Maxwell, Boltzman y Wien en sendos capítulos. Para resolver el enigma, Planck ideó una solución puramente matemática, sin prueba experimental alguna: si imagináramos la energía no como un chorro continuo de agua, sino de manera discontinua, como un chorro de pelotas, y si además dichas pelotas no fueran siempre iguales, sino que tuvieran cada vez mayor energía al ir del infrarrojo hacia el ultravioleta (digamos, ilustrando la energía con tamaño, pelotas rojas chicas, mayores las amarillas y azules, pelotas violeta grandes y ultravioleta más grandes...); entonces, la catástrofe ultravioleta no ocurría y la ley de Wien daba resultados que podían confirmarse y no esos valores infinitos tan similares a los de la división entre cero. Se trataba de una hipótesis tan ad hoc que el mismo Planck la consideró con gran desazón y sólo temporalmente. Resultaba como hacer trampa con las cuentas del mandado para lograr en el cambio la cantidad correcta. Eran demasiados «si» condicionales. Planck calculó qué valor debían tener esos pasos discretos de la energía. Pag 23 En 1900 dio con un número pequeñísimo, pero exacto, para ajustar los valores en la radiación de cuerpo negro y evitar así la catástrofe ultravioleta: 0.00000000000000000000000000655 de centímetro-gramo-segundo. Como hay


26 ceros después del punto decimal, esta infinitesimal fracción se expresa más fácilmente como h, la constante de proporcionalidad o constante de Planck: un producto de la energía por el tiempo. Los científicos, para ahorrar espacio y no estar contando ceros, acostumbran expresar los números muy grandes o muy pequeños con una notación basada en exponentes de diez: 102 es 100 (10 x 10 = 100), 103 es 1000. Así, en este caso, la constante de Planck se escribiría 6.55 x 10~27 ergios/segundo. Hoy se fija con más exactitud en 6.626196 x 10~ 27. El propio Planck expresa así sus dudas en su discurso de recepción del premio Nobel en 1920: O bien el quantum de acción era una magnitud meramente ficticia y, por lo tanto, toda la deducción de la ley de la radiación era ilusoria y un puro juego de fórmulas, o bien en el fondo de este método de derivar la ley de la radiación había un concepto físico verdadero. De admitirse esto último, el quantum tendría que desempeñar en la física un papel fundamental y anunciar el advenimiento de una nueva era, acaso destinado a transformar por completo nuestros conceptos físicos, que, desde que Leibniz y Newton introdujeron el cálculo infinitesimal, han estado basados en el supuesto de la continuidad de todas las cadenas causales de acontecimientos [«El origen y el desarrollo de la teoría del quantum»].

Pag 24 Saltos de h en h Han pasado, pues, veinte años y es probable que Planck arregle de manera retrospectiva sus viejas y nuevas concepciones acerca de su descubrimiento. Quizá no en 1900, pero ya plenamente en 1920 tenía claro que si no se trataba sólo de un artificio urdido para ajustar las cuentas de la radiación, sino que la naturaleza se comportara de esa manera, dando esos pequeñísimos saltos, significaba algo todavía más inquietante: que un cuerpo no puede radiar energía en todos y cada uno de los valores numéricos que podamos imaginar, que la columna de un termómetro no puede ser subdividida en unidades tan pequeñas como las podamos marcar, que la energía da saltos de h en h y los da sin pasar por estadios intermedios. Eso va contra todo sentido común. Un conejo que brinca pasa, si bien por el aire, por todos los puntos intermedios entre salto y salto. La energía no. Ahora está aquí, luego está allá. Así dice Tomás de Aquino en su Summa Theologica que se mueven los ángeles. A ningún físico le complacía mucho esa semejanza. A esos paquetes de energía Planck los llamó con el término latino «quantum», que significa «cuanto». Por terminar en «um» es palabra neutra y hace su plural en «quanta». En español podemos, pues, decir «los quanta», o «los cuantos», castellanizado, pero jamás «los quantas». Planck aceptó los quanta de energía sólo porque la solución era inmejorable, pero a la espera de des-embarazarse de ellos. No lo consiguió porque Einstein Pag 25 vio en ellos la solución para otro de los detalles molestos que perturbaban el casi perfecto panorama de la física al terminar el siglo XIX: el efecto foto-eléctrico. Su solución acabó de derrumbar la pirámide lentamente construida en quinientos años,


con cimientos colocados en el siglo VI antes de Cristo en Jonia, la costa griega de lo que hoy es Turquía. Luz, más luz Quizá sea otro mito en la trivia histórica que Goethe al morir dijo, como últimas palabras: «Luz, más luz.» Pero un segundo hueco importante que faltaba por llenar en el mapa bien delineado de la física de fines del siglo XIX trata de la luz: el efecto fotoeléctrico. Consiste en que, de manera a todas luces inexplicable por entonces, la luz arranca electrones de una placa de metal cuando la ilumina, pero, curiosamente, la velocidad a la que son despedidos no depende de la intensidad de la luz, como podría suponerse: una luz más poderosa haría salir los electrones a mayor velocidad como un golpe más fuerte produce ese efecto en un paquete de pelotas. No era así. La velocidad a la que los electrones eran arrancados del metal dependía del color de la luz que lo iluminara. A más corta longitud de onda, mayor velocidad. La física clásica no tenia respuesta. Pero Planck acababa de ofrecer una con respecto a la energía para explicar la «catástrofe ultravioleta». Si se piensa en la luz como partículas de energía variable dependiendo del color, el fenómeno es claro. Pag 26 Sólo que los físicos tenían por un hecho perfectamente comprobado en miles de laboratorios que la luz no eran partículas, sino ondas semejantes a las del sonido en el aire o las olas en el agua. Ibn al-Haytham Si alguna pregunta se había hecho la humanidad era la referida a la naturaleza de la luz. Los egipcios y luego los griegos y otros pueblos antiguos pensaron que vemos porque el ojo proyecta un rayo sobre las cosas. Así pues, la luz del sol era nada menos que la mirada de Dios. Debimos esperar a que los árabes tomaran la estafeta en la civilización mediterránea para tener un cambio de opinión. En la Bagdad del año 1000 de nuestra era, convertida en centro de todas las artes, la filosofía y las ciencias, un astrónomo y matemático, Ibn al-Haytham, o simplemente Alha-zen, hizo los estudios de óptica más importantes en muchos siglos precedentes y subsecuentes. Fue el primer científico en referirse a las postimágenes: si miramos fijamente un objeto luminoso, por ejemplo, desde una habitación en penumbra una ventana abierta al día brillante, y luego cerramos los ojos, veremos la ventana danzar por algunos segundos ante nuestros párpados cerrados. Y aún más, la veremos en los colores opuestos, en negativo. Los verdes y azules se convertirán en una postimagen roja y naranja. Para Alhazen ésa era la prueba de que el ojo recibe y no lanza rayos de luz. Pag 27 Bien, ¿pero de qué estaba hecha la luz? Cada religión tenía una opinión firme. Pero los científicos habían aprendido a interrogar a la naturaleza, aun sin abandonar sus


creencias religiosas. Que Dios había hecho el mundo de manera que pudiéramos entenderlo fue la convicción que nos heredaron los filósofos jonios del siglo VI antes de Cristo. Así que en la Italia renacentista, donde se había inventado - la perspectiva para dar apariencia de realidad a la pintura, Galileo sugirió que la luz estaba formada por corpúsculos luminosos que se crean al reducir la sustancia a átomos indivisibles. Este desacuerdo con la doctrina de la Iglesia, sumado a su apoyo abierto y publicado a la teoría de Copérnico, que ponía al Sol en el centro del sistema solar y a la Tierra como un planeta más girando a su alrededor, y sus muchas discrepancias con Aristóteles, el santo sin canonizar de la Iglesia, hicieron que Galileo pasara el final de su vida prisionero en su casa. Ondas esféricas Un siglo después, otro grande, Christian Huygens, contemporáneo de Newton, propuso la teoría ondulatoria de la luz: «He, pues, mostrado de qué manera uno puede concebir que la luz se esparce por ondas esféricas», sostiene en el primer capítulo de su Tratado de la luz. Los muy claros argumentos de Huygens sobre la reflexión y la refracción, en el aire y en el «cristal de Islandia», no hicieron mella en la comuniPag 28 dad científica porque sir Isaac Newton, en todo el esplendor de la gloria que un científico puede alcanzar, propuso en su Óptica que la luz eran «muy pequeños cuerpos emitidos desde las sustancias brillantes». Además, había un asunto de la mayor importancia no resuelto. Si la luz se parece a una onda en el agua, respondemos en el ejemplo con facilidad a la pregunta ¿qué es lo que ondula? Ondula el agua. Una botella flotando nos permite ver que cuando es alcanzada y levantada por una ola, una vez que ésta pasa, la botella sigue en su sitio. La ola no es un movimiento del agua, sino en el agua. Cuando ocurre un sonido, ondula el aire. Bien, si la luz es ondas y éstas nos llegan del Sol, de la Luna, de las estrellas, y por lo tanto atraviesan distancias inmensas de espacio vacío, ¿qué es lo que ondula? Huygens propuso un medio que permeaba todo el universo, al que llamó «éter». A pesar de esta grave deficiencia en la teoría ondulatoria, pues no había manera de demostrar la existencia del éter, tampoco la teoría corpuscular de la luz pasó sin otras críticas. A mediados del siglo XVIII, más de cincuenta años después de ser publicada la Óptica, Leonhardt Euler, uno de los más grandes matemáticos de todos los tiempos, sostuvo que la luz es con respecto al éter lo que el sonido es con respecto al aire. El éter había sido ideado por quienes apoyaban la teoría ondulatoria porque la luz que nos llega del Sol debe cruzar el espacio vacío que lo separa de nuestro planeta. Si la luz es una onda, ¿qué ondula en el vacío? Con esa pregunPag 29 ta se terminaba la discusión porque no había respuesta. Entonces surgió la idea de una sustancia más dura que el acero, y millones de veces más sutil que el aire, que llenaba perfectamente todo el universo: el éter luminífero. El apellido significaba «portaluz».


Durante los siguientes 150 años, los científicos se darían a la tarea de encontrar la forma de detectar el medio que era a la luz lo que el aire al sonido. La evidencia de que la luz era un fenómeno ondulatorio resultaba ya avasalladora, sobre todo a partir de Fresnel y sus observaciones sobre la interferencia. Augustin Fresnel y Thomas Young Cuando arrojamos una piedra en un estanque se forman ondas concéntricas. Si arrojamos dos piedras las diversas ondas se entrecruzan. Donde coinciden dos crestas, la ola es más alta, pero si coinciden cresta y valle, el agua se aplana. Interfiere una onda con otra y se cancelan mutuamente [véase la figura 1.1]. De manera similar, donde se interceptan dos haces de luz deben de aparecer rayas más brillantes, como opina el sentido común, pero vemos también rayas oscuras. Si la luz es ondas, al pasar por dos pequeñas rendijas y caer sobre una pantalla debe producir mayor brillo en algunas zonas de la intersección, pero también partes oscuras que demuestren el encuentro de una cresta y un valle de la onda luminosa. Rayas oscuras y brillantes. Era fácil constatar la predicción [véase la figura 1.2]. Pag 30 y 31 (Figura 1.1 a) Ondas en fase se suman; b) Ondas fuera de fase se restan.

a)

b)

FIGURA 1.2. Interferencia.


Pag 32 De forma independiente, el francés Augustin Fresnel y el inglés Thomas Young propusieron una teoría ondulatoria de la luz. Fresnel, un ingeniero de caminos desconocido hasta entonces, elaboró además el andamiaje matemático de la teoría. Ésta encontró, para empezar, la oposición de nada menos que Laplace. Luego las difíciles ecuaciones de Fresnel, resueltas por Siméon-Denis Poisson, discípulo y amigo de Laplace, demostraron algo que pareció dar al traste con la teoría ondulatoria, al menos en la versión matemática de Fresnel, pues predecían que la luz rodearía un cuerpo opaco y produciría un punto de luz en la zona más oscura de la sombra. Si el cuerpo era lo bastante pequeño, las ondas de luz descritas en las ecuaciones de Fresnel debían encontrarse en el polo contrario a la fuente de luz. Poisson, a quien debemos algo tan actual como sus «Investigaciones sobre la probabilidad de las opiniones» y la tan famosa en estadística «distribución de Poisson», ofreció a sus amigos su descubrimiento como el acta de defunción de la teoría ondulatoria. Magnetismo hecho con electricidad Pero en 1820, ó la, la!, otro francés, Frangois Dominique Arago, trabajando sobre hallazgos del danés Oersted, había conseguido producir magnetismo con un alambre de cobre electrificado y enrollado en un cilindro. Era la evidencia de que la electricidad y el Pag 33 magnetismo tenían alguna relación directa. Arago era un convencido de que la luz era una onda. Así que tomó las ecuaciones resueltas por Poisson, diseñó el experimento que debía producir ese punto de luz en la oscuridad, lo llevó a cabo y encontró que el efecto predicho ocurría. El efecto a todas luces absurdo se verificó. Los sarcasmos de Laplace y sus amigos terminaron. La luz era, pues, una onda sin lugar a dudas. Pero la pregunta básica seguía sin ser respondida. Entre el Sol y la Tierra, en 150 millones de kilómetros de vacío absoluto que la luz atraviesa para llegar a nosotros, ¿qué es lo que ondula? La respuesta fue tan etérea e increíble como siempre: el éter luminífero más duro que el acero y más sutil que el aire. pero eso había que probarlo. Faraday En el debate acerca de si la luz era ondas o partículas, pronto intervino una noción todavía más misteriosa: el campo. El inglés Michael Faraday era un hombre profundamente religioso y científico de primera línea. Sus estudios de la luz y de la electricidad cambiaron el mundo. Descubrió que al transmitir electricidad por uno de dos cables, dispuestos muy cerca uno de otro, pero sin tocarse, el cable que no recibía electricidad de cualquier manera mostraba un ligero efecto eléctrico siempre que comenzaba o terminaPag 34 ba el flujo eléctrico en el otro cable.


Había algo que no pasaba por los cables, pero que alcanzaba al no electrificado, y esto no sucedía de manera constante, sino únicamente al variar la corriente en el cable electrificado, ya fuera que se abriera o se interrumpiera el flujo de corriente. Una onda eléctrica sin un medio identificable. Anotó en su diario el 26 de marzo de 1836: «Entendí que la electricidad, al pasar, produce magnetismo.» En un segundo experimento descubrió que por medio de un imán podía producir una corriente eléctrica en un cable vecino, y así abrió sin sospecharlo la puerta de toda la producción actual de electricidad en el mundo entero, sea hidroeléctrica, nuclear o eólica, pues en todas ocurre la misma y sencilla acción: un magneto que gira en una turbina produce electricidad en los cables que lo rodean. «En la actualidad, toda dínamo con su zumbido, todo motor eléctrico en su girar, canta un himno de alabanza en honor de aquel inglés genial, sosegado y laborioso» [«Diario de Faraday», p. 272]. Electricidad hecha con magnetismo Si Arago producía magnetismo con electricidad, Faraday mostraba el inverso de la moneda: producía electricidad con magnetismo. Un magneto alineaba misteriosamente las virutas de hierro en torno de sus polos. La electricidad producía magnetismo que luego producía electricidad. La materia se comportaba Pag 35 extrañamente, desbordando sus límites aristotélicos alcanzando una zona del espacio no ocupada por ella. El campo magnético, con sus líneas de fuerza marcadas por las limaduras de hierro, inició el derrumbe de la concepción de la materia dictada por el sentido común. Maxwell Un escocés, James Clerk Maxwell, reuniría todo este material disperso en cuatro breves ecuaciones que ministran cómo la electricidad y el magnetismo son expresiones de un fenómeno más fundamental: el electromagnetismo. La teoría que propongo puede llamarse, pues, teoría del campo electromagnético, porque se refiere al espacio vecino a los cuerpos eléctricos o magnéticos [...]. El campo electromagnético es la parte del espacio que contiene cuerpos en condiciones eléctricas o magnéticas, y los circunda [«Teoría dinámica del campo electromagnético», p. 426].

En cuanto a cómo se transmiten las ondulaciones de la luz y del calor, responde sin dudar: «Lo que ondula es una sustancia etérea.» Pero lo que se transmitía entre los alambres cercanos de Faraday iba a la velocidad de la luz, según predecían las ecuaciones formuladas por Maxwell, así que el hombre a quien debemos la primera de las grandes unificaciones de la física da un salto Pag 36 gigantesco y une dos campos que no parecían afines: el electromagnetismo y la luz. «La velocidad se aproxima tanto a la de la luz que, según parece, tenemos poderosas razones


para suponer que la luz misma es una perturbación electromagnética» [«Teoría dinámica del campo electromagnético», p. 426]. Por lo tanto, ésta formaba parte del electromagnetismo. Hoy llamamos radiación electromagnética lo mismo a la luz visible que a los rayos X, a las ondas de radio y a las de color azul, infrarrojo o ultravioleta. En el seno mismo de la física había aparecido un término inmaterial: «campo electromagnético». La luz no era una cosa, sino una perturbación del campo electromagnético. Heisenberg afirma que la imagen materialista del universo era simplista, y que en esa imagen se abrió una grieta en la segunda mitad del siglo XIX con el descubrimiento del campo electromagnético. En sus propias palabras: «En electrodinámica, lo auténticamente existente no es la materia, sino el campo de fuerzas» [La imagen de la naturaleza en la física actual, p.12]. Pero la concepción del universo como una maquinaria y de la luz como una parte de esa gran máquina hizo que los científicos siguieran buscando el sustrato material por el que corría ya no sólo la luz, sino el nuevo campo electromagnético de Maxwell. Y la respuesta fue la ya sabida: el campo electromagnético tiene como sustrato físico al éter luminífero. Pag 37 Michelson y Morley Casi para terminar ese siglo comenzado con Napoleón, Laplace y su teoría sobre el origen del sistema solar, las guerras de independencia en América, la certidumbre de que la luz eran corpúsculos como decía Newton, más adelante continuado por Fresnel y su prueba indudable de la naturaleza ondulatoria de la luz y coronado por la gran unificación de Maxwell, persistía la gran duda: ¿existía el éter con sus maravillosas cualidades? Y si no existía, ¿cómo llegan las ondas de luz provenientes del Sol y de las estrellas? otra vez: ¿qué ondula en el espacio vacío? Se diseñó el experimento perfecto para probar la existencia del éter, y buena parte de los científicos contuvieron el aliento rogando que el éter existiera, con todo y resultar tan perfecto y diseñado a la medida de las necesidades teóricas que era mejor si no existía. Pero si no… Albert Abraham Michelson nació en un pueblo de Prusia, reino alemán luego unificado en un solo imperio alemán, y hoy, tras dos guerras mundiales, perteneciente a Polonia. Cuando tenía dos años, por Ia década de 1850, sus padres emigraron a Estados Unidos. Se graduó en la Academia Naval y allí mismo inició su carrera como profesor. Pronto se interesó en la luz y en el problema del éter. Para determinar la existencia de este último concibió uno de los experimentos más importantes de toda la física. Michelson supuso, primero, que el movimiento de traslación de la Tierra en su órbita debía crear Pag 38 una corriente de éter, como la que se produce cuando movemos en círculos la mano en un estanque de agua inmóvil. Así pues, enviaría un rayo de luz contra la corriente del éter, o sea en el sentido de la traslación de la Tierra, y otro rayo perpendicular al primero. Era como poner a competir a dos nadadores: uno cruzando un río en sentido transversal, digamos cincuenta metros, y otro cruzando los mismos cincuenta metros, pero contra la


corriente, según el descriptivo ejemplo de March: «El aparato de Michelson se basaba en una idea notablemente simple. En lenguaje ordinario, era que se tarda menos tiempo en atravesar a nado una corriente y volver que en recorrer la misma distancia río arriba y volver» [Física para poetas, p. 137]. Aunque ambos nadadores resienten el retraso que les provoca la corriente, pues uno la recibe de lado y lo desvía, y el otro de frente y lo empuja en sentido contrario, es fácil intuir que llegará primero el que nade atravesando el río y no el que recorra esa misma distancia río arriba, pues éste soportará la presión directa del agua en contra. Un rayo contra el éter La Tierra viaja a treinta kilómetros por segundo, velocidad que por tanto sería la de la corriente del éter, de la misma forma que si movemos la mano a un metro por segundo en agua inmóvil un sensor en la mano detectaría una corriente de agua en dirección opuesPag 39 ta a la misma velocidad de un metro por segundo. La luz, a 300.000 kilómetros por segundo, debía remontar esa corriente en contra. Otro rayo de luz haría las veces del nadador que cruza el río y sería disparado en sentido perpendicular al primero. Si se pusieran detectores a la misma distancia, el rayo de luz que corra en el sentido de la traslación de la Tierra debería sufrir más los efectos de la resistencia opuesta por el éter al ser cruzado por nuestro planeta. El segundo rayo, perpendicular a la órbita, sufriría menor retraso. Éste sería detectado antes [véase la figura 1.3]. Para decirlo con Feynman sin ecuaciones: el tiempo para ir al espejo lateral y regresar es un poco menor que el tiempo para ir al espejo de enfrente y regresar, aun cuando los espejos estén equidistantes de la fuente de luz. Es la predicción teórica basada en cálculos donde intervienen las transformaciones de Lorenz, las cuales nos podemos saltar aunque nos perdamos la belleza didáctica con que Feynman las lleva en sustituciones algebraicas. Concluye Feynman: «El aparato era ampliamente sensible para observar tal efecto, pero no se encontró diferencia de tiempos: la velocidad de la Tierra a través del éter no podía ser detectada. El resultado del experimento era nulo» Six Not-So-Easy Pieces, p. 57]. Pero eso no fue todo. El fallido experimento tuvo una implicación mucho más profunda, que expresa así el mismo Feynman: Sin embargo, en muchos otros experimentos para descubrir el viento del éter surgieron dificultades simila-

Pag 40 (Figura 1.3)


Pag 41 res, hasta que pareció como si la naturaleza estuviera en una «conspiración» para frustrar al hombre introduciendo algunos nuevos fenómenos para deshacer cada fenómeno que él pensara que podría permitir llegar a una medición de u [la velocidad absoluta de la Tierra respecto del éter en reposo]. Fue finalmente reconocido, como Poincaré señaló, ¡que una completa conspiración era en sí misma una ley de la naturaleza! Poincaré entonces propuso que existe tal ley de la naturaleza, que no es posible descubrir un viento del éter por ningún experimento; o sea, no hay forma de determinar una velocidad absoluta [Six Not-So-Easy Pieces, p. 57].

El éter, pues, era algo contra lo cual medir todo movimiento y cualquier transcurso de tiempo. En palabras más técnicas: constituía un sistema inercial preferente. Y está claro que era preferente porque, de existir, todo movimiento podría medirse con referencia a él: si un objeto no se mueve con respecto al éter, está en reposo absoluto en el universo; y si se mueve, podemos medir su velocidad absoluta al cruzar el éter en reposo. Sería como medir la velocidad de un submarino respecto del agua inmóvil que lo rodea. El aparato En síntesis, Michelson diseñó un sistema que dividía mismo haz de luz en dos rayos perpendiculares entre sí, dos rayos en ángulo de noventa grados. Luego con la ayuda de Edward Morley, construyó un enorme aparato de inmensa precisión y lo puso a floPg 42 tar en mercurio para evitar toda vibración del exterior. El rayo de luz se debía partir en dos haces en ángulo recto, reflejarse en espejos colocados exactamente a la misma distancia y volver. ¿Pero cómo medir una diferencia tan infinitesimal? Michelson y Morley la midieron con la propia longitud de onda de la luz. Dispusieron un interferómetro que analizaría ambos rayos a su llegada. Si lograban colocarse las ondas de luz cresta con cresta y valle con valle, como una línea ondulada bien superpuesta con otra, o sea en fase, sería prueba de que ambos rayos habían recorrido la misma distancia sin que


ninguno de ellos encontrara oposición alguna. Ninguno de ellos habría encontrado corriente alguna producida por el movimiento de la Tierra en el éter inmóvil. En caso contrario, si crestas y valles no se alineaban en el interferómetro al regresar, la discrepancia probaría la existencia de un medio interestelar invisible y la medida de la discrepancia diría mucho sobre las características de dicho medio. En 1887 ocurrió lo primero: el interferómetro no mostró bandas por desfase de los dos rayos, sino la luz de dos rayos idénticos que habían ido y venido sin obstáculo para ninguno. Lo mismo era ir en el sentido en que la Tierra se desplaza que en diagonal, pues el planeta no produce ninguna corriente en su traslación. El río de los dos nadadores estaba seco y caminando habían recorrido sin problema la misma distancia en el mismo tiempo. Si no había diferencia alguna en los rayos nacidos idénticos y reflejados idénticos, entonces o la Tierra no se movía o no existía el éter. La primera Pag 43 alternativa era inadmisible. El sistema copernicano está comprobado de muy diversas maneras y no hay' duda alguna de que los planetas giran en torno de su eje y se trasladan en torno al Sol. Debía tomarse la segunda opción. La física estaba en graves problemas, pues, esfumado el éter, ahora debía explicarse cómo es que una onda luminosa (de las que vemos y de las que no vemos, como las de radio o las microondas) atraviesa el espacio vacío donde no hay nada que ondule. Un ruido sin aire. Una ola sin agua. ¿Era posible? La respuesta de Lorenz y FitzGerald Hubo una respuesta adelantada de manera independiente por dos investigadores, el holandés Hendrik Antoon Lorenz y el irlandés George FitzGerald: los cuerpos en movimiento se acortan en el sentido de su movimiento. El brazo del aparato de Michelson y Morley se había acortado en el sentido del movimiento terrestre; por lo tanto, la luz en ese brazo había recorrido un trecho más corto que en el perpendicular, lo cual había compensado los tiempos y provocado que parecieran recorridos iguales en tiempos iguales. Ahora conocemos más a Lorenz por el desarrollo matemático de la propuesta: las transformaciones de Lorenz. El planteamiento, que parecía salvar al éter, en realidad le dio el tiro de gracia porque abrió el camino de la relatividad. Pag 44 Este acortamiento o relatividad del espacio, y por lo tanto del tiempo, quedaría luego incluido en la teoría de la relatividad de 1905, de la que es elemento esencial al punto de darle nombre. Aunque Lorenz y FitzGerald habían salvado la hipótesis del éter, la teoría de la relatividad la iba a hacer por completo innecesaria. Pag 45

Capítulo 2: Si no se marea... es que no ha entendido


Einstein: el quantum en la luz Tras este largo rodeo regresamos al problema del efecto fotoeléctrico, planteado anteriormente como uno de los pocos huecos que los físicos no habían llenado para completar el mapa de la física. El efecto fotoeléctrico, por el que la luz arranca electrones a un metal, había sido observado desde 1839, aunque no se tenían entonces los conceptos para formularlo. Fue explícitamente formulado en 1887 por el alemán Heinrich Hertz. Lo más curioso del efecto era que la velocidad n la que salen los electrones no depende de la intensidad de la luz, sino de su longitud de onda, o sea de lo que llamamos color cuando es visible. ¿Cómo podía la luz que era ondas según tantas demostraciones, arrancar de su sitio partículas de materia? Siendo un adolescente de 16 años, Albert Einstein se había preguntado cómo se vería un rayo de luz si uno va montado en otro. Respondió que se vería «un campo electromagnético espacialmente oscilatorio Pag 46 en reposo» [Calaprice (comp.), Einstein entre comillas, p. 42]. A los 26 publicaría la teoría especial de la relatividad, donde ofrece mucho más que una explicación para el efecto de la luz en los metales: remodela el mundo. En 1905, su «año milagroso», Einstein mostró que el efecto fotoeléctrico podía explicarse si aceptamos que la luz, como la energía de Planck, viene en paquetes y no en un chorro continuo. Además, la energía de cada paquete era proporcional a su frecuencia (cuántas ondas por segundo), por eso el color de la luz, y no su intensidad, era la variable de la cual dependía la velocidad del electrón arrancado a una placa de metal. Teniendo la luz ultravioleta mayor frecuencia (más ondas por segundo) que la visible, golpeaba los electrones con mayor energía y éstos mostraban una mayor velocidad. Pero, más asombroso aún, la variación entre la energía de los fotones no se daba de forma continua, sino de acuerdo a un factor de proporcionalidad que era nada menos que la constante de Planck. Así, de un solo golpe, Einstein resuelve ese problema un tanto menor, además del gran problema de la transmisión de la luz en el vacío, que se ha quedado sin éter para que sus ondulaciones viajen, y el de los molestos quanta de Planck, a los que instala para siempre en la física del nuevo siglo. Tuvo en principio la oposición del mismo Planck, quien llamaba a sus hijos, los quanta de energía, «la horrenda hipótesis», y deseaba por tanto desembarazarse de ella. Y Einstein le hacía el flaco favor de Pag 47 instalarlos en la luz. Todavía sin experimentos que certificaran la existencia de los quanta de luz, los científicos recibieron con escepticismo o franco rechazo las paradójicas contradicciones de la luz según Einstein. Pronto deberían aprender a pensar en esos y más paradójicos términos, pues en 1916 Robert Millikan comprobó en Estados Unidos la solución propuesta por Einstein para el efecto fotoeléctrico. ¿Ondas o partículas? Si al atravesar el vacío y al golpear contra las placas metálicas de Millikan, la luz era


partículas moldeadas por la constante de Planck, ¿cómo luego era ondas al producir interferencia? ¿Qué hacer con las claras demostraciones de Fresnel y las rayas oscuras y brillantes del espectro, prueba irrefutable de picos y valles, por tanto de ondas de luz? Resultaba violento sostener que la luz a veces se comportaba como partícula y a veces como onda, pero así era. Las unidades de luz de Einstein, los quanta de luz, no necesitaban de medio alguno para viajar en el vacío porque eran partículas, y producían rayas oscuras y claras de interferencia... porque eran ondas. Así de contradictorio. El quantum de luz era ambas cosas, o mejor todavía, no era ninguna de ellas y nos presenta una respuesta según la pregunta que le hagamos. Si le preguntamos cómo cruza desde las estrellas hasta aquí nos dice que es una partícula; si le preguntamos Pag 48 cómo arranca electrones a los átomos de un metal, nos dice lo mismo: que es una partícula. Si le preguntamos cómo una partícula cruza por dos rendijas a la vez y sigue dos caminos distintos a la vez (según veremos en el capítulo cuatro), responde que lo hace así sencillamente porque es una onda. La dualidad de la naturaleza de la luz, implicada en la teoría de la relatividad, traería en el curso de las siguientes tres décadas el levantamiento de la concepción estadística del átomo, esencia de la física cuántica, aspecto que Einstein luego rechazaría terminantemente. Pero sin duda fue él quien jaló la piedra que inició el derrumbe de la casa. Dos décadas después, en 1926, un químico estadounidense, Gilbert Lewis, acuñó un acertado nombre para el quantum o cuanto de luz conjeturado por Einstein. Tomando la palabra griega para luz, «foos», y la última sílaba de «electrón», la partícula de materia descubierta por Thomson, sumó «fotón», nombre con el que conocemos la unidad de luz. A partir de ese momento, los quanta se desbordarían por toda la física del átomo, invadiendo las órbitas de los electrones, el núcleo y hasta el espacio vacío mismo, que danza al ritmo de h, la constante de Planck, como iremos descubriendo. Por lo pronto, había que esperar una solución que parecía milagrosa para resolver el misterio de la dualidad de la luz. El milagro lo produciría el joven Werner Heisenberg cuando desarrollara su teoría. Una espera de dos décadas, pues en aquel momento era un niño de cinco años. Pag 49 la relatividad En 1905, cuando Albert Einstein, de 26 años, trabajaba en la oficina de patentes de Berna, Suiza, publicó tres artículos en una revista especializada y prestigiosa, los Annalen der Physik, de la que Planck era director. Cualquiera de los tres habría dado fama permanente a un físico; pero el tercero de ellos hizo algo más: transformó toda la física. Se titula «Sobre la electrodinámica de los cuerpos en movimiento». Es la teoría de la relatividad. Un artículo sin notas ni referencias aparecido en septiembre de 1905 en el volumen 17 de los Annalen. Física, cosmología, astronomía, mecánica cuántica y, con ellas, el mundo cotidiano de hoy, son impensables sin ese artículo de Einstein que delinea la teoría de la relatividad.


Una década más tarde publicaría la teoría general de la relatividad, su versión de la gravitación universal. Aquí no nos referiremos a ella, pero sí a la relatividad especial en palabras del propio Einstein para explicar su teoría. Es una exposición popular publicada en 1916; el párrafo siguiente está tomado de allí: Me asomo a la ventanilla de un vagón de ferrocarril que se mueve con velocidad uniforme, y dejo caer una piedra, sin arrojarla. Entonces, haciendo caso omiso de la resistencia del aire, veré cómo la piedra cae en línea recta. El peatón que desde la carretera mire mi fechoría advertirá cómo la piedra al caer describe una curva parabólica. Pregunto, pues, ahora: ¿Se hallan «realmente» en línea recta o en parábola las posiciones recorridas por la piedra? [...] Podemos responder: La piedra recorre una línea recta relativa a un sistema de coorde-

Pag 50 nadas [el vagón del tren]; pero respecto de un sistema de coordenadas rígidamente vinculadas con el suelo, describe una parábola. Con ayuda de este ejemplo se ve a las claras que no existen trayectorias independientes, sino tan sólo trayectorias relativas a un cuerpo especial de referencia [«Exposición popular...», p. 497].

Es el «principio de relatividad», que podemos describir con otro ejemplo: cuando un avión toma velocidad en la pista y alza el vuelo, sentimos la aceleración como una fuerza que nos empuja contra el asiento. Pero una vez que el avión ha alcanzado su máxima altura nos parece tan inmóvil como cuando estuvo en tierra. Si una maleta cae de los compartimentos superiores la veremos caer en línea recta sobre el suelo y no irá a dar a la parte trasera del avión; cuando nos sirven la cena, vaciamos un poco de vino de la botella al vaso sin notar que sea diferente a cuando lo hacemos en tierra. Las leyes de la física son idénticas en un restorán y en un avión a mil kilómetros por hora. Ningún experimento nos permitiría saber si viajamos o estamos en reposo; sólo viendo por la ventanilla sabemos que nos movemos. Si fuera de noche, una noche totalmente oscura, con nuestro avión muy por encima de las últimas nubes, y en tales condiciones viéramos acercarse otro avión, tendríamos la impresión de que sólo el otro se mueve. Pero los pasajeros de ese avión pensarían exactamente igual: que ellos están inmóviles y otro avión cruza en sentido contrario. Si medimos el tiempo que tarda en rebasarnos podremos decir que iba a 2 000 kilómetros por hora. Es solamente nuestra experiencia cotidiana la que Pag 51 nos informa que nuestro avión no puede estar inmóvil en el aire, como un helicóptero, y que por tanto esos 2 000 kilómetros son una suma de nuestra velocidad y la del otro avión. Otro ejemplo más. Yendo en auto, lanzo al aire una pelota y la veo regresar de nuevo a mi mano en línea recta. Pero quien haya visto, desde fuera, la trayectoria de la pelota dirá que trazó una parábola entre dos puntos de la trayectoria [véase la figura 2.1]. El agua de Newton En cine se consiguen resultados similares por simple intuición. Cuando vemos un auto en marcha y la cámara enfoca a sus ocupantes mientras corren por una carretera, es frecuente que en la filmación el auto esté inmóvil y contra las ventanillas se haga una


proyección en sentido contrario al de la marcha. Así, el director de la película engaña al cerebro del espectador. Éste sabe que los paisajes no caminan y los autos sí; por lo tanto interpreta el paso de los árboles de adelante hacia atrás como movimiento del auto de atrás hacia adelante. Es lo mismo, dice el principio de relatividad. Para Einstein, el problema mayor con el éter no eran sus características concebidas tan ad hoc, sino que «el éter resultaba ser así como una especie de personificación de un espacio en reposo absoluto» [La relatividad, pp. 192-193]. Newton había tratado de definir un espacio absoluto con un cubo de agua. Imaginemos, nos dice, Pag 52

Pag 53 que todo el universo estuviera vacío, excepto por un cubo lleno a medias de agua. ¿Cómo puedo saber si el cubo está inmóvil o girando? Observo el agua: si está plana, está en reposo; si se curva como un reflector parabólico, está rotando. ¿Pero rotando con respecto a qué? No hay nada en referencia a lo cual comprobar la rotación, ninguna estrella, ninguna marca. Pero la superficie del agua, en el experimento mental de Newton, indica con su forma si el cubo está rotando o está inmóvil en referencia a un «espacio absoluto». Eran precisamente el espacio y el tiempo absolutos, postulados por Newton, lo que la teoría de la relatividad echaba por tierra: no había ningún punto fijo de comparación para determinar el transcurso del tiempo ni la medida del espacio, o el giro o la movilidad de un cubo lleno de agua; de ahí el nombre mismo de «relatividad» del tiempo y del espacio. Reconocer un punto fijo desde el cual medir sería, En palabras de Einstein, otorgar «preferencia a un sistema inercial en particular» [La relatividad, pp. 192-193]. Para no entrar en complicaciones, un sistema inercial es el andén y otro un tren en movimiento. Si consideramos que el tren se mueve con respecto al andén y no al contrario, estamos


aceptando un «sistema inercial preferente», en este caso el andén. Pero no hay nada similar en el universo con lo cual podamos relacionar diversos sistemas. El paso de un tren puede interpretarse como si fuera el andén lo que se moviera y los vagones estuvieran quietos. «Más aún, según el principio especial Pag 54 de la relatividad, tal interpretación se justifica plenamente desde el punto de vista físico», concluye Einstein [«Exposición popular...», p. 501]. (El siguiente paso de Einstein: la teoría general de la relatividad, su teoría de la gravitación, diez años después haría al espacio algo aún más inconcebible que llenarlo de éter: lo haría elástico. Un espació que se contrae y se alarga, se curva y hasta se rompe en una curvatura infinita cuando demasiada masa se concentra en demasiado poco espacio: los hoyos negros. No tenemos una imagen de un espacio tal en cuatro dimensiones; apenas si nos lo podemos representar en dos dimensiones: como un cielo raso elástico al que pelotas de diversos pesos le producen hondonadas mayores y menores. Pero cuando intentamos pasar esa imagen a las tres dimensiones conocidas, ya nos topamos con un límite de nuestras capacidades.) Hasta aquí no es difícil seguir el razonamiento de Einstein. Pero al sentido común se le complica el aspecto medular de la teoría: la luz como constante en cualquier sistema de referencia. Esto es, una vez que Einstein nos ha convencido de que el movimiento de la piedra al caer es relativo y describiremos trayectorias diferentes, ambas correctas, según el sistema de referencia (suelo o vagón) desde donde observemos, debemos aceptar algo contra toda lógica sensata y toda intuición del mundo, que es lo siguiente. Si en ese mismo vagón juego a la pelota con otro pasajero, estaremos de acuerdo en que si bien la pelota va a, digamos, diez kilómetros por Pag 55 hora, para quienes estamos dentro, si el tren viaja a cien kilómetros por hora y una persona lo ve pasar desde un andén, dirá que la pelota va a 110 kilómetros por hora cuando la lanzamos hacia adelante, y a noventa al lanzarla hacia atrás. No ocurre así con un rayo de luz. Tanto si encendemos una lámpara en el tren parado o a toda velocidad, si dirigimos el rayo hacia adelante o hacia atrás cuando va en movimiento, la velocidad de la luz es la misma: 300 000 kilómetros por segundo. Es como decir que tanto da correr en una escalera eléctrica en movimiento como esperar de pie, exclamó Bertrand Russell. La constancia de la luz La constancia de la velocidad de la luz puede producir extraños resultados. Veamos antes un ejemplo común: un hampón va huyendo en un auto a cien kilómetros por hora. Lo ve pasar una patrulla y se lanza a perseguirlo. Cuando alcanza los cien kilómetros por hora, ¿a qué velocidad se acerca al perseguido? A cero: mantienen la misma distancia indefinidamente, igual que si ambos coches estuvieran detenidos. De pronto, el auto del hampón comienza a fallar y baja a cincuenta kilómetros por hora. La patrulla, que sigue a cien, ahora se acerca al auto del hampón a una velocidad de cincuenta kilómetros por hora. El hampón realiza una maniobra, un bombeo con el acelerador que limpia súbitamente el carburador, y su auto se lanza a 150 kilómetros por hora; ahora la pa-


Pag 56 trulla se está alejando a cincuenta kilómetros por hora. Esto no es nada extraño; los patrulleros saben que deben ir a una velocidad superior a la de otro auto si desean alcanzarlo. Pero esta patrulla está equipada con un mortífero rayo láser, que viaja a 300000 kilómetros por segundo, y los policías lo apuntan contra las llantas del auto perseguido. Sólo que el hampón ya ha cambiado su auto por un veloz cohete que viaja a mil kilómetros por segundo. El rayo láser disparado desde la patrulla no se acercará al cohete a una velocidad de 299000, sino a los mismos 300000 kilómetros por segundo. Es más, las velocidades no se sumarían ni siquiera si el delincuente decidiera entregarse y dirigiera su cohete hacia el rayo láser; el rayo seguirá aproximándose a la misma velocidad tanto si el delincuente lo espera como si huye de él o se dirige hacia él. En palabras de Greene: Aunque usted se esté alejando, seguirá midiendo la velocidad de los fotones [la luz] que se aproximan a 1 080 millones de kilómetros por hora, ni una pizca menos [...]. Lo mismo es verdad si usted corre hacia los fotones que vienen o si corre tras de ellos: siempre parecerán viajar a 1080 millones de kilómetros por hora [The Elegant Universe, p. 32].

Comprobación estelar Por supuesto que poner a prueba este elemento clave de la relatividad sería dificilísimo en el escaso territorio de un planeta, pero se ha comprobado con luz Pag 57 de estrellas binarias, estrellas que giran una en torno de otra como las pesas de una mancuerna: la velocidad de su luz es la misma tanto cuando se alejan de nosotros como cuando se acercan. Esa paradoja había sido propuesta y comprobada por el astrónomo holandés De Sitter, a quien Einstein da el crédito debido, pero él la une al principio ya mencionado de relatividad y de allí saca como consecuencia toda suerte de actos mágicos: relatividad del tiempo y por lo tanto imaginarios gemelos que envejecen a distinto ritmo según si uno permanece en tierra y el otro viaja a las estrellas; Los objetos se acortan o achican en el sentido de su marcha; la masa aumenta paulatinamente al aproximarse a la velocidad de la luz; la simultaneidad no existe sino dentro de un mismo sistema de referencia, y dos relámpagos que parecen simultáneos a un observador en tierra no lo son para el viajero en un tren; además, un obstáculo al que se resiste la mente: la velocidad de la luz no sólo es la mayor en el universo, sino la máxima, y nada puede rebasarla, ni la propia luz. ¿Por qué? Porque cuando un cuerpo se mueve, sus dimensiones se acortan en el sentido de su movimiento, según propusieron Lorentz y FitzGerald de forma independiente para explicar la falla en el experimento de Michelson y Morley. Einstein hizo de esa variación parte de su teoría. Este acortamiento o achicamiento de los cuerpos móviles alcanza su máxima expresión a la velocidad de la luz. Pag 58 El tiempo


Que el tiempo es una cuarta dimensión lo observamos fácilmente al hacer una cita con alguien: «Nos vemos en la esquina de Vallaría y Marsella, tercer piso.» Aquí hay tres elementos: un punto en el plano, dado por dos datos, y un tercer dato que proporciona la altura o tercera dimensión. Pero todavía no podremos asistir a la cita si no nos dicen la hora. «A las 6:30» completa los cuatro datos que se requieren. (El tema de las dimensiones se aborda con mayor amplitud en el capítulo ocho.) La velocidad es una relación entre el espacio y el tiempo. Decimos «cien kilómetros por hora», lo cual significa que un espacio de cien kilómetros será recorrido en el tiempo de una hora. ¿Pero qué hacemos cuando las dimensiones se nos acortan? Si el cohete en que intenta huir el facineroso va a mil kilómetros por segundo, sabemos que la máquina y su ocupante sufren un acortamiento proporcional a esa velocidad. ¿Qué relación tiene eso con la constancia de la velocidad de la luz? Volvamos al avión donde viajamos a velocidad uniforme y sin aceleración, por lo cual ya no sentimos movimiento alguno. Cuando servimos vino en tierra podemos calcular la velocidad a la que cae los quince centímetros que hay de la botella a nuestra copa. Nos basta un buen cronómetro y un buen ojo. Luego medimos ese mismo acto en el avión que parece inmóvil porque ha dejado de acelerar y la atmósfera está tranquila. El resultado debería ser idéntico si colocamos la Pag 59 botella a los mismos quince centímetros. Si no lo fuera ya habríamos encontrado una manera de determinar si estamos viajando y no inmóviles. Las leyes de la física no serían idénticas en marcos de referencia distintos (en un restorán o en un avión en vuelo). Lo cierto es que cae de la botella a la copa en el mismo tiempo, cuando hacemos la medición en el viaje sin aceleración. Pero desde el punto de vista del observador en tierra, el chorro de vino siguió una trayectoria muchísimo más larga cuando lo servimos en el avión, pues no recorrió quince centímetros en línea recta, sino que trazó una diagonal (más exactamente, una parábola) de unos noventa metros. Nos da tiempos iguales tanto fuera como dentro del avión porque, considerado desde fuera, el chorro de vino siguió una trayectoria más larga, pero también cayó en la copa a una velocidad mayor, pues el observador externo suma la velocidad del avión a la de la caída libre del vino. El movimiento horizontal del avión y el vertical del vino producen una componente diagonal más larga por la que cae el vino también a mayor velocidad. Resultado: tiempos iguales. Luego de cenar, nos recostamos en el asiento del avión y nos disponemos a leer un libro de física para calcular el tiempo en que recorre el vino los quince centímetros de su caída libre. Encendemos la luz. De nuevo: para nosotros, el rayo de luz bajó en línea recta hasta el libro, pero un observador externo, que se encontraba disfrutando la plácida noche en su jardín, jura que trazó una diagonal, como la Pag 60 del vino, puesto que vio avanzar el avión. «Cuando la luz se encendió, el avión estaba sobre la torre de la iglesia —explica— y cuando iluminó las páginas de física ya estaba adelante.» Para él, la luz siguió un recorrido más largo: desde la torre de la iglesia hasta el atrio, en diagonal. Si medimos tiempos, encontraremos que tardó lo mismo en llegar del foco al libro, tanto si medimos dentro como si medimos desde fuera del avión. Sólo que en este caso no podemos decir que esa igualdad se deba a que la luz, si bien viajó una distancia mayor, lo hizo a velocidad también mayor pues se sumó la velocidad del avión,


como en el caso del chorro de vino. La velocidad de la luz es constante en todo marco de referencia, para el observador en tierra o para el viajero en el avión. Por tanto debemos concluir que sobre el avión, el tiempo se modificó. Transcurrió más lentamente, pues la luz sólo avanzó, desde el foco hasta la página, un metro. Un microsegundo del avión es distinto a un microsegundo en tierra. Volviendo al experimento de Michelson, señala Feynman que el tiempo calculado para el viaje del rayo de luz desde la fuente hasta el espejo y de regreso no es el mismo cuando es calculado por un hombre que realiza el experimento en una nave espacial en movimiento [o el planeta] que cuando es calculado por un observador estacionario que mira la nave espacial [...]. En otras palabras, cuando desde fuera alguien mira al hombre en la nave espacial encender un cigarro, todas las acciones parecen ser más lentas que las normales,

Pag 61 mientras que para el hombre de dentro todo se mueve a una velocidad normal. Así pues, no sólo las longitudes deben acortarse, sino que también los instrumentos medidores de tiempo («relojes») aparentemente deben hacerse lentos [Six Not-So-Easy Pieces, p. 59].

La luz no envejece nunca A medida que una velocidad se aproxima a la de la luz el tiempo transcurre más lentamente. La clave está en el principio mismo de la relatividad: si podemos considerar, con igual validez, que un objeto se mueve y el otro está fijo, o con movimientos repartidos entre ambos, como en el caso de los aviones al cruzarse, también podemos decir que la luz está inmóvil y que todo el universo se mueve a la velocidad de la luz. ¿Pero no dijimos que no era posible? Da lo mismo decir que el auto corre en un paisaje fijo o que el paisaje corre ante un auto inmóvil. Podemos aplicar esa misma regla a la luz. Con la salvedad de que esa velocidad está combinada, en el caso de la materia, en las cuatro dimensiones, tres de espacio y una de tiempo. Sigamos a Greene en The Eleganí Universe: Si un objeto está inmóvil (en relación con nosotros) y consecuentemente no se mueve a través del espacio en absoluto, entonces todo el movimiento del objeto está usado en viajar a través de una dimensión: en este caso la dimensión tiempo. Es más, todos los objetos que están en descanso en relación con nosotros y con cada uno de ellos se mueven a través del tiempo —envejecen— exactamente a la misma velocidad. Sin embargo, si un

Pag 62 objeto sí se mueve a través del espacio, esto significa que algo de su movimiento previo a través del tiempo debe de distraerse [...]. La velocidad de un objeto a través del espacio es, pues, meramente un reflejo de cuánto de su movimiento a través del tiempo se distrae [...]. La máxima velocidad a través del espacio ocurre si todo el movimiento de un objeto a través del tiempo se ha invertido en movimiento a través del espacio [p. 50].

Así pues, cuando un objeto ha invertido toda su capacidad de movimiento en viajar por el espacio, alcanza la velocidad más rápida que cualquier objeto pueda tener, concluye el físico de Columbia. En consecuencia, si todo se ha invertido en las tres dimensiones del espacio, no queda nada para la dimensión tiempo. La conclusión es que lo que viaje a la velocidad de la luz no ha dejado nada para viajar en el tiempo: «Por tanto, la luz no envejece; un fotón que surgió del Big Bang tiene hoy la misma edad que entonces. No


hay paso del tiempo a la velocidad de la luz» [The Elegant Universe, p. 50]. Poner a prueba la variación del tiempo es en extremo difícil porque las velocidades deben ser muy cercanas a la de la luz para que los efectos sean notorios. Pero la propia naturaleza nos ha dotado de observaciones inesperadas. Un ejemplo de cómo el tiempo se atrasa conforme la velocidad aumenta nos lo da una partícula subatómica llamada muon, o mesón mu). Estas partículas se desintegran en tiempos tan breves como poco más de dos millonésimas de segundo. Los muones llegan a la Tierra y en su mayor parte se desintegran. Pero algunos de ellos, Pag 63 creados a diez kilómetros de altitud en la atmósfera pueden encontrarse en los laboratorios que los buscan. Sin embargo, aun a la velocidad de la luz, su vida es tan breve que en teoría no podrían avanzar más de 600 metros. La explicación estriba en que, desde nuestro punto de vista, el tiempo transcurre para los muones más lentamente que para nosotros y pueden así alcanzar el suelo [véase Feynman, Six NanSo-Easy Pieces, p. 62] Al aproximarse a la velocidad de la luz, la masa de los cuerpos aumenta de forma espectacular y con ello su resistencia a la aceleración. No es lo mismo empujar un auto pequeño descompuesto que empujar un tráiler: la masa (el peso, decimos en términos terráqueos) ofrece una mayor resistencia a cambiar su estado inmóvil. Es también lo que llamamos inercia. De ahí que, conforme nos aproximamos a la velocidad de la luz, nuevos aumentos de velocidad sean cada vez más difíciles y obtengan menores resultados. Es como si por empujar el tráiler lo fuéramos volviendo cada vez más pesado, lo cual a su vez nos dificultaría el siguiente empujón. De hecho así ocurre, sólo que el cambio a tan bajas velocidades resulta imperceptible. Este aumento de la masa con la velocidad puede observarse en los aceleradores de partículas, esos enormes túneles con que los laboratorios de física sondean el átomo. Así por ejemplo, comenta Feynman que para guiar la corriente de electrones en el interior del sicrotrón de Caltech se requieren campos magnéticos 2000 veces más fuertes que Pag 64 los necesarios si los electrones no fueran acelerados. «En otras palabras, la masa de los electrones en el sincrotrón es 2 000 veces mayor que su masa normal» [Six Not-So-Easy Pieces, p. 67]. Aceleración, gravitación y tiempo Otra conclusión en cuanto al paso del tiempo es la siguiente. Quedamos en que a mayor inversión de movimiento en las dimensiones de espacio, menor en la de tiempo, y los minutos y segundos se vuelven más largos a velocidades crecientes Pero nos falta observar que para Einstein no sólo la velocidad, como la imaginamos todos, entra en consideración. La fuerza gravitatoria, de la que Newton nos dijo cómo era pero no que era, es en la teoría general de la relatividad, publicada en 1916, una curvatura del espacio y del tiempo, que son ya una sola unidad: el espacio-tiempo. Como una bola de boliche sobre un colchón, las estrellas y los planetas curvan el espacio en sus cercanías. En realidad lo hacemos todos los seres compuestos de materia, pero a escala infinitesimal.


Un planeta queda en órbita no a causa de una misteriosa fuerza atrayente, sino porque se limita a seguir la curvatura del espacio producida por una estrella. Un satélite queda en órbita porque sigue la curvatura del espacio producida por un planeta. Si un objeto apareciera en el espacio, la curvatura producida se extendería en todas direcciones, y esa onda avanzaría, cada vez más aplanada, a la velocidad de la luz. Pag 65 El mismo efecto de la gravitación se obtiene con la aceleración; incluso el cine ha empleado abundantemente esa equivalencia entre una y otra. El principio de equivalencia, de Einstein, estipula que el movimiento acelerado y la gravitación son indistinguibles. Cuando nos muestran una estación espacial con gravitación artificial, ésta se produce por el movimiento rotatorio de la estación, que lanza a todos sus ocupantes contra las paredes más alejadas del eje de rotación. Así pues, basta con ordenar todo para que esas paredes sean el piso, y ya nadie siente que camina por una pared, como araña, sino que ve un piso como lo tenemos por la gravitación terrestre. El campo gravitatorio tiene el mismo efecto sobre el tiempo que la aceleración: el transcurso del tiempo se vuelve más lento conforme más fuerte es el campo gravitatorio. Sobre uno de nuestros grandes planetas, los relojes marcharían más despacio que en la Tierra. Los hoyos negros El astrónomo alemán Karl Schwarzschild propuso en 1916 unos cúmulos de gravitación siguiendo cálculos derivados de la teoría de la relatividad. Hoy están comprobados por sus poderosos efectos, aunque sean para siempre inobservables: los hoyos negros; así los llamó John Wheeler. Son los restos de estrellas mayores que el Sol, cuyas capas superiores han aplastado las inferiores con un apachurrón que primero desPag 66 truye los átomos, luego funde los electrones y protones en neutrones y después toda esta gravitación concentrada en apenas dos o tres kilómetros desgarra el espacio-tiempo con una curvatura de la que nada escapa, ni la luz. Es como colocar una bola de boliche sobre un cielo raso de manta: lo rompe. De ahí lo de «hoyos». Y «negros» porque la «velocidad de escape», la necesaria para vencer la atracción, dentro del agujero debería ser superior a la de la luz. Como tal velocidad no existe ni puede existir en el universo, nada, ni la luz es capaz de vencer esa fuerza gravitatoria concentrada. "Pero antes de caer hacia el fondo de eso donde nos quedamos sin capacidad de imaginación, existe un borde, llamado «horizonte de eventos», donde una nave podría estar en órbita sin ser absorbida por la monstruosa gravitación del hoyo negro. En ese borde, el tiempo transcurriría tan lentamente que tras circundarlo por un mes, un astronauta descubriría que en la Tierra habrían pasado 800 años. Con apenas las raciones para treinta días y el inicio del te-dio, a su regreso el mundo estaría en el 2800. Así pues, el tiempo transcurre a muy distintas tasas para dos hermanos gemelos, no sólo cuando uno de ellos viaja a velocidades enormes, sino también cuando permanece en un poderoso campo gravita-torio. Es la muy famosa «paradoja de los gemelos» que siempre se menciona al hablar de relatividad. Vemos coincidir aceleración y gravitación cuando deforman los rostros de viajeros espaciales lanzados a velocidad de escape. Se deforman por un au-


Pag 67 mento de la fuerza gravitatoria, o por un aumento de la velocidad; es lo mismo: podemos medir en kilómetros por hora o en unidades g de gravitación. Regreso al tiempo Así pues, la solución de dos pequeños problemas de física operó la transformación completa de esta ciencia. El resultado negativo en el experimento con el interferómetro de Michelson y Morley creó grandes dificultades en la física, comenta Wolgang Pauli en su difícil Theory of Relativity: «Para eliminar éstas, Lorentz e, independientemente, FitzGerald adelantaron la hipótesis de que todos los cuerpos cambian sus dimensiones cuando se mueven» [p. 2]. Sobre estas bases y el trabajo matemático de Minkowski, Einstein nos cambió el mundo y transformó la física en un sentido que nadie a fines del siglo XIX habría siquiera podido sospechar. Una de las mayores transformaciones es la referente al tiempo. Nunca más tendremos ese tiempo subjetivo al que todos consideramos fluyendo. De Broglie lo dice en estos términos: En el espacio-tiempo, todo lo que para cada uno de nosotros constituye el pasado, el presente y el futuro es dado en bloque, y la colección de eventos completa, sucesiva para nosotros, y que constituye la existencia de una partícula material está representado por una línea, la línea-mundo de la partícula [citado en Yourgrau, Godel Meéis Einstein, p. 9].

Pag 68 Quizá esté más claro en un fragmento de Godel Meéis Einstein que a continuación parafraseo resumido para evitar complejidades filosóficas: A partir del descubrimiento de la relatividad no podemos seguir diciendo que sólo el presente es real («el pasado es el presente desaparecido, el futuro aún no existe»). Un observador A, en un marco inercial M, mira a otro observador B en un marco N (lo de «inercial» quedó ejemplificado con el andén y el tren). Ahora consideremos el evento e en el futuro de A. Según la relatividad, desde el punto de vista de B puede ser un evento que ya está ocurriendo. Es presente, es real. «Pero lo que es real para alguien que es real para mí, debe, por transitividad, ser real para mí» [p. 64]. Así es como el futuro se vuelve tan real como el presente. Es más, si el futuro entonces, en un sentido, ya está allí, eso significa que para A el futuro está determinado. Para Roger Penrose, lo que descubrió Einstein «no fue sólo alguna pieza menor de la física, es la cosa más fundamental que tenemos en la Naturaleza: la naturaleza del espacio y del tiempo» [The Large, the Small and the Human Mind, p. 25]. (¡Atención! Achtung!, sociólogos posmodernos: la relatividad se refiere a las leyes de la física, a que los resultados de un experimento serán los mismos en cualquier marco de referencia elegido, ¡no a que todo marco de referencia social sea igualmente válido y las chozas de los cazadores de cabezas tengan el mismo valor que el Taj-Mahal o la Alhambra!) Pag 69 Con respecto a la vida cotidiana y al pensamiento filosófico, Richard Feynman encuentra tres influencias de la teoría de la relatividad en su artículo «Relativistic Energy and Momentum». Una es que si las leyes de Newton, pareciéndonos tan exactas, resultaron


erróneas y sólo aplicables para el limitado rango de las velocidades bajas en las que los efectos relativistas no son detectables, o no lo eran por los instrumentos de hace cien o 300 años, entonces: Ahora tenemos un punto de vista más humilde de nuestras leyes físicas: ¡todo puede estar equivocado! En segundo lugar, si tenemos un conjunto de «extrañas» ideas, tales como que el tiempo va más despacio cuando uno se mueve, y así por el estilo, el que nos gusten o no nos gusten es un asunto irrelevante. El único asunto relevante es si las ideas son consistentes con lo que se encuentra experimentalmente. En otras palabras, las «ideas extrañas» sólo necesitan concordar con "experimentos, y la única razón que tenemos para discutir la conducta de los relojes y lo demás es para demostrar que aunque la noción de dilatación del tiempo es extraña, es consistente con la forma en que medimos el tiempo. Finalmente, hay una tercera sugerencia que es un poco más técnica, pero que ha resultado ser de enorme utilidad en nuestro estudio de otras leyes físicas, y que es buscar la simetría de las leyes o, más específicamente, buscar las formas en que las leyes pueden transformarse y permanecer iguales fSix Not-So-Easy Pieces, p. 77].

Pag 70 Hasta aquí Einstein y la relatividad. Ahora volvamos unos años atrás para seguir la línea de descubrimientos que condujo hasta Bohr y la física cuántica, el otro pilar de la física del siglo XX, y luego atender a la asombrosa discrepancia entre ambas teorías y su intento de fusión. También, como la relatividad de Einstein, el personaje central es Planck y su noción de energía en paquetes, en cuantos. Pero si la relatividad es una teoría de lo inmensamente grande, la física cuántica atenderá lo inmensamente pequeño. Pag 71

Capítulo 3 El quantum en la materia Joseph John Thomson Cuando Dimitri Mendeleiev, el químico ruso a debemos la tabla periódica de los elementos, descubrió en 1869 ese orden progresivo que comienza con el hidrógeno y va añadiendo elementos cada vez más pesados hasta llegar al uranio y los siguientes, no podía explicar el fundamento de dicho orden. Informaba que existía y predecía elementos por descubrir en los huecos de la tabla, pero le faltaba saber el porqué. Por la misma época, un monje austríaco de apellido con el mismo inicio, Gregor Mendel, hizo el descubrimiento de las primeras leyes de la genética estudiando sus cultivos de flores de chícharo. Tampoco sabía por qué la transmisión de ciertas características ocurría de la manera por él observada. Habló de «genes» como Planck, décadas más tarde, de «cuantos»: poniendo un nombre a algo desconocíPag 72 do y quizá inexistente, pero que, por el momento, proporcionaba una explicación. En tiempos de Mendeleiev, la teoría atómica estaba bien establecida en la química.


Planteada desde el siglo V antes de Cristo por Leucipo y Demócrito, a principios del siglo XIX la reintrodujo sobré bases científicas John Dalton (cuya ceguera al color dio nombre al daltonismo, por cierto). En su Nuevo sistema de filosofía química, sostiene que «todos los cuerpos de magnitud sensible, ya fueren sólidos o líquidos, están constituidos por un inmenso número de partículas en extremo pequeñas, o átomos de materia» (p. 219]. Pero tanto a Dalton como a Mendeleiev les faltaba un elemento esencial para explicar el paso de un elemento a otro: de hidrógeno a helio a oxígeno a hierro a oro. La tabla periódica ponía orden, pero ¿qué subtendía a ese orden? ¿Qué ordenaba los elementos? El peso atómico, es verdad. De menor a mayor. Pero ¿qué era el peso atómico? Engels acierta sin saberlo Engels hizo una previsión asombrosa dejándose llevar tan sólo por la ley dialéctica de «la conversión de la cantidad en calidad». Entre sus notas dispersas, amontonadas luego en el volumen póstumo Dialéctica de la naturaleza, señala que este proceso es observable en todos los fenómenos naturales. El ejemplo más común lo tenemos con el agua: los aumentos de temperatura alcanzan un límite, pasado el cual ya no Pag 73 tenemos agua más caliente, sino algo distinto: vapor. Las sumas de cantidades de calor han producido el salto a otra calidad. Señala luego Engels: «Pero el campo en que alcanza sus triunfos más imponentes la ley natural descubierta por Hegel es la química. Podríamos decir que la química es la ciencia de los cambios cualitativos de los cuerpos como consecuencia de los cambios operados en su composición cuantitativa. Esto ya lo sabía el propio Hegel» [p. 44]. Luego observa que si sumamos átomos de oxígeno, al combinar tres átomos en vez de dos obtenemos ozono, «un cuerpo que se distingue claramente del oxigeno corriente, tanto por el olor como por sus efectos» [p. 44]. Entre notas y pedacería se encuentra un párrafo escrito en 1885, donde Engels revisa la tabla periódica de Mendeleiev y subraya las predicciones de elementos desconocidos donde la tabla tiene huecos. Luego llega a su conclusión deslumbrante: Si todas las diferencias y todos los cambios de cualidad pudieran reducirse a diferencias y cambios cuantitativos, a desplazamientos de lugar, llegaríamos necesariamente a la conclusión de que toda la materia se halla formada por partículas pequeñísimas idénticas [subrayado de Engels] y de que todas las diferencias 'cualitativas que se dan en los elementos químicos de la materia están determinadas por las diferencias cuantitativas, es decir, por el número y la agrupación local de estas partículas mínimas para formar átomos. Pero a semejante resultado no hemos llegado todavía, ni mucho menos [p. 216].

Pag 74 Era 1885. Esas partículas idénticas entre sí que al sumarse producen los saltos de un elemento a otro iban a ser descubiertas doce años después, en un laboratorio no lejano de donde Engels moriría dos años antes del hallazgo, dejando ese y otros manuscritos inéditos y desordenados. Era el electrón. Las leyes de Mendel debieron esperar mucho más: hasta el descubrimiento, en 1953, de la doble hélice del ADN en el núcleo de las células, medio por el cual se transmite la herencia de un ser vivo a su progenie. La tabla de Mendeleiev obtuvo su explicación faltante a fines del mismo siglo en que él vivió. El electrón


Siempre citado como J. J. Thomson, sir Joseph John Thomson descubrió el electrón en 1897, recibió el premio Nobel en 1906, el título de caballero en 1908 y siete de sus colaboradores fueron posteriormente otros tantos premios Nobel. Trabajando con la electricidad y el magnetismo, una sola y la misma cosa tal como había demostrado Maxwell, los científicos habían observado que un tubo lleno de cualquier gas y con placas de metal en sus extremos, conectado luego cada uno de éstos a cada polo de una batería, generaba desconocidos rayos que cruzaban de una placa a la otra. Se trata de los rayos catódicos, cuyo nombre deriva de «cátodo», la placa de donde parecen surgir hacia el ánodo o polo opuesto. Concluyeron que tales rayos estaban forPag 75 mados por partículas y no por ondas, porque podían hacer girar una ruedecita muy ligera montada en un eje. Si se colocaban magnetos en torno del tubo se conseguía curvar los rayos. Pero en su intento por explicar «la discrepancia que existe en el modo como se desvían los rayos catódicos, según que actúen sobre ellos fuerzas magnéticas o fuerzas eléctricas», Thomson llegó «tras largas meditaciones acerca de los experimentos» a las conclusiones siguientes, según su propio relato: 1. Los átomos no son indivisibles, porque de ellos pueden arrancarse partículas cargadas de electricidad negativa [...]. 2. Todas estas partículas son idénticas en cuanto a la masa y llevan idéntica carga de electricidad negativa, sea cual fuere la especie de átomos de que salgan, y son elementos constitutivos de todo átomo. 3. La masa de dichas partículas es menos de un millonésimo de la masa del átomo de hidrógeno [«El des-cubrimiento del electrón», p. 477].

Thomson dio a esas partículas el nombre de «corpúsculos de electricidad». Un nombre más exitoso fue el de «electrones». Así pues, Thomson, en el Laboratorio Cavendish de Cambridge, Inglaterra, planteó que se trataba de partículas cargadas negativamente y calculó la razón entre la carga eléctrica y la masa de tales partículas. En Estados Unidos, Robert Millikan midió la carga del electrón. Establecida por Thomson la razón entre carga y masa, se obtuvo de inmediato la masa del electrón. Pag 76 El átomo perdió su característica esencial y de la cual tomaba su nombre: a-tomo: sin división. Estaba formado por partículas negativas sumidas en un medio positivo. El átomo debía de tener la forma, como dijo descriptivamente el propio Thomson, de «un pastel con pasas». Los electrones eran las pasas. Pero el átomo tampoco iba a ser ese racimo de apretadas cargas, sino algo mucho más complejo. Y vacío. Ernest Rutherford En 1910, y en el mismo Laboratorio Cavendish de Cambridge, Ernest Rutherford puso a


prueba esta teoría del átomo. Disparando las entonces llamadas partículas alfa (que son núcleos de átomos de helio) contra los átomos de una hoja de oro, mostró que algunas rebotaban y señalaban así la existencia de elementos de gran masa, y otras se desviaban de manera no predicha por el modelo del racimo, según el cual debían cruzar sin dificultad, «como balas que perforan una nube de polvo» [Ortoli y Pharabond, El cántico de la cuántica, pp. 31-32]. Forward describe así el razonamiento de Rutherford al poner a prueba el modelo atómico de Thomson, quien «veía el átomo como un budín de ciruelas donde los electrones eran ciruelas de carga negativa insertados en un difuso budín de carga positiva». Emplearía la emisión de algunos elementos radioactivos descubierta por él mismo, las partículas alfa, para bombardear el budín: Pag 77 Si el modelo atómico de Thomson era correcto, las partículas alfa apenas sufrirían perturbaciones en su pasaje por la película de metal. Los electrones de los átomos de oro desviarían algunas partículas alfa, pero muy ligeramente. Rutherford y sus colegas descubrieron que la mayoría de las partículas alfa se desperdigaban en pequeños ángulos. Pero no todas. Un significativo número de partículas alfa se desviaba en ángulos grandes. Algunas rebotaban de la lámina de oro para regresar hacia la fuente emisora. Rutherford dijo después que era como disparar un obús de quince pulgadas a un trozo de papel higiénico y verlo rebotar. El modelo de Thomson no podía ser correcto. Parecía que la mayor parte de un átomo consistía en un núcleo diminuto con carga positiva [Forward y Davis, Explorando el mundo de la antimateria, p. 41].

El protón Así pues, la delgada hoja de oro no era ni pastel con pasas, ni nube de polvo, ni budín de ciruelas, ni papel higiénico. Los proyectiles rebotaban contra algo muy duro que debía de ser un núcleo positivo denso. Los electrones negativos no podían estar pegados al núcleo, sino en órbitas a mucha distancia, dejando vacía la mayor parte del átomo. En 1911, Rutherford propuso «la idea en que el átomo consistía de un núcleo pequeño, masivo, positivamente cargado, rodeado de electrones» [Watson, «Quantum Spookiness Wins...»]. Era allí donde rebotaban las partículas alfa. En 1913, dos de sus jóvenes ayudantes comprobaron el planteamiento teórico de Rutherford con un cuidadoso programa por el que midieron el rebote de las Pag 78 partículas alfa desde varios ángulos. «E. Rutherford mostró [en 1919] que el nitrógeno bajo bombardeo de partículas alfa lanzaba lo que parecían ser núcleos de hidrógeno. Hacia 1920 aceptó el núcleo de hidrógeno como partícula fundamental, dándole el nombre de protón» [Encyclopcedia Britannica, entrada «protón»]. El nombre lo tomó de la palabra griega para «primero»: «protos». Identificados los protones, quedó establecido que integraban la mayor parte de la masa en un átomo. El átomo vacío En resumen, Rutherford mostró que el átomo no podía ser un racimo de cargas positivas y negativas, sino un gran espacio vacío: un núcleo de partículas positivas, los protones, rodeado de electrones negativos. Para balancear sus cargas debía de existir, por cada protón en el núcleo, un electrón circulando. Así quedó explicado el origen del orden


observado por Mendeleiev: en los diversos elementos de la naturaleza se iban sumando electrones y protones. Y la suma de cantidad, uno, dos, cinco, cien electrones, con sus correspondientes protones en el núcleo, producía los saltos de calidad: nitrógeno, flúor, neón, bario, cobre, zinc, manganeso, plomo. La transformación de la cantidad en calidad esperada por Engels a partir de la dialéctica de Hegel. La nueva imagen del átomo queda así descrita por su descubridor. Tras elegir para su ejemplo «el átomo más pesado, el de uranio», señala: Pag79 En el centro del átomo hay un núcleo diminutísimo en torno del cual se arremolina un conjunto de 92 electrones, todos los cuales se mueven recorriendo órbitas determinadas y ocupando, aunque de ningún modo llenando, un volumen muy grande en comparación con el del núcleo [Rutherford, «La estructura eléctrica de la materia», pp. 479-480].

Luego precave sobre los límites de considerar al átomo como un pequeño sistema solar, pues a diferencia del verdadero, el átomo tiene un asombroso equilibrio gracias al cual si una partícula se dispara a través de él puede que pase sin alterarlo, y hasta en el caso de que la partícula arranque algún electrón de su órbita, ésta será pronto llenada por un electrón tomado del exterior y el átomo permanecerá idéntico. El modelo del átomo de Rutherford resultaba particularmente inquietante porque estaba constituido, casi en su totalidad, de vacío. Un escritorio, tan sólido como lo vemos, está hecho de átomos huecos. Imaginemos un chícharo girando tan alto como las bóvedas de una catedral. Ese enorme hueco demarcado por una partícula diminuta es todo lo que nos queda de la catedral del átomo. Y de ese mismo vacío está hecha toda la materia: las estrellas, los planetas, las flores y los seres humanos. El neutrón Pero el modelo pronto presentó problemas: uno, de la mayor importancia, era que los cálculos realizados Pag 80 mostraban que los electrones debían perder energía y caer hacia el núcleo en una cienmillonésima de segundo. La materia no debía de existir. Pero el hecho es que existe, así que algo fallaba en los cálculos que tan rigurosos y exactos se mostraban al predecir la órbita de un planeta, pero no la de un electrón. Por otra parte había átomos que, teniendo la misma cantidad de electrones, poseían distinto peso. "Esto es, algunos elementos venían en diversas presentaciones, sin dejar de ser siempre el mismo elemento. Es lo que llamamos isótopos. El hidrógeno viene en tres, pero sigue siendo hidrógeno, aunque en su caso los isótopos reciban nombres distintos: deuterio y tritio. Tenía que haber, pues, otra partícula, aunque saltaba a la vista que si hubiera un protón extra en el núcleo, la carga quedaría desequilibrada y el átomo tomaría pronto otro electrón. El elemento que producía diversos pesos en átomos del mismo número de electrones (diversos isótopos del mismo elemento) tenía que ser neutro, ni positivo ni negativo, y además, pesar lo mismo que el protón. Esta fue la propuesta de Rutherford.


«Neutrón» resultó el nombre lógico para esa partícula neutra del núcleo si ya se tenían los términos «electrón» y «protón». No existía prueba directa de su existencia, pero resultaba una buena conjetura. En 1932, un alumno de Rutherford, James Chadwick, encontró partículas que no podían ser desviadas por magnetos; por lo tanto, eran neutras. El neutrón quedó firmemente anclado al núcleo del átoPag 81 Mo. Pero en el interior de éste seguían ocurriendo cosas muy extrañas. Por ejemplo, con las órbitas de electrones: no se encontraban todas las que el espacio interior del átomo permite. ¿Por qué no? Y, además, ¿por qué no caían los electrones en espiral hacia el núcleo como predecían las ecuaciones? Bohr: el quantum en el átomo El danés Niels Bohr dejó su país luego de obtener su doctorado y buscó a Thomson en Inglaterra. Trabajó con él en Cambridge; después con Rutherford, ya por entonces en Manchester. En 1913, Bohr regresó a Dinamarca y se dedicó a estudiar la luz. Si ésta, como sostenía Einstein, estaba constituida por paquetes, por cuantos, haciendo así que el reino de las ondas, el electromagnetismo, estuviera formado por partículas, era bien posible que esos mismos saltos cuánticos se aplicaran a las órbitas de los electrones. Tomando el átomo de Rutherford, semejante a un pequeño sistema solar, Bohr añadió las discontinuidades de Planck, los cuantos. El verdadero «átomo», el mínimo elemento no divisible, era el cuanto de energía; por ende, la energía de los electrones debía de seguir los mismos saltos. Así que hizo dos suposiciones: una, que las órbitas de los electrones sólo podían existir en ciertos niveles o estados permitidos; dicho de otra forma, que el radio de las órbitas no puede variar de manera continua, sino en múltiplos de h, la constante de Planck. La otra fue Pag 82 que si bien con sus órbitas en tales posiciones el átomo no emite radiación, y en consecuencia permanece sin cambio, cuando un electrón pasa a una órbita más cercana al núcleo emite radiación, y por el contrario, si el átomo absorbe energía ésta exige que los electrones alcancen órbitas más alejadas del núcleo. Lo más notable era que tanto la emisión de energía al bajar de nivel como la absorción al subir se daban en múltiplos de h. También el átomo estaba cuantizado. Bohr de esta manera unía los cuantos de Planck y Einstein con el átomo hueco y casi vacío de Rutherford, semejante a un diminuto sistema solar. El vuelo de los ángeles Si las ecuaciones de la física predecían el colapso de los electrones contra el núcleo atómico, los cálculos basados en los valores discontinuos, o cuantos, ya empleados con éxito por Einstein para su teoría de la luz, daban resultados concordantes en todo con la realidad: los átomos no se colapsan, y eso es lo que predice el modelo cuántico. Se comenzó a emplear adjetivos diferentes para la física: «clásica», cuando no consideraba a la energía subdividida en pequeñas unidades; «cuántica», cuando echaba mano de los


paquetes de energía sugeridos por Planck. En esta descripción había un elemento aún más inconcebible para el sentido común: al cambiar de una órbita a otra, el electrón no pasaba por los estaPag 83 dios intermedios por la sencilla razón de que son posiciones no permitidas por la división cuantizada de la energía. Si un electrón en su camino a una orbita más cercana o más alejada del núcleo pudiera pasar por los puntos intermedio, sería señal de que puede existir allí, pero las nacientes matemáticas de la física cuántica, guiadas por la constante h, sostenían que el electrón no puede existir en tales posiciones ni siquiera por el instante en que atraviesa por ellas. En consecuencia, no pasa por las posiciones intermedias. Una vez más los físicos se topaban con el movimiento de los ángeles descrita por santo Tomás de Aquino en su Summa Theologica. Cuando la teoría de Bohr fue comprobada en el Laboratorio Cavendish, durante el otoño de 1913 la física clásica llegó a su fin en el ámbito del átomo. Lo que seguiría iba a arrancar la conocida expresión de Bohr: si al pensar en la mecánica cuántica usted no siente vértigo... es que realmente no ha entendido. De Broglie: las ondas de materia Si de acuerdo con Einstein la luz, energía, son partículas, ¿no podemos decir que las partículas, materia, son ondas? No había dato alguno experimental para apoyar semejante sugerencia en 1923, pero daba tan perfecto equilibrio al nuevo edificio de la física que resultaba imposible evadir su belleza intelectual Por razones estéticas, no experimentales, el francés Pag 84 Louis de Broglie propuso ese año que la esencia de la materia, las partículas subatómicas, como los electrones y los protones, eran ondas. Propone, pues, que a toda partícula se asocie una onda cuya longitud estará determinada por dos elementos: uno, la constante de Planck (que aparece una vez más), y dos, el producto de la masa y la velocidad de la partícula. Era como decir que una canica debía considerarse en adelante un sonido. La única base teórica para tan atrevida generalización era la unión de dos ideas. En términos generales consistían en tomar la más popular ecuación de Einstein (y de toda la física), que muestra cómo se relacionan la energía y la masa: E=mc 2 (la energía, E, es igual a la masa, m, por la velocidad de la luz, c, al cuadrado). Luego se decía: ya Planck mostró que E, la energía, está formada por paquetes, cuantos, que es una forma de ser discreto (con límites) como una partícula, y tanto él como Einstein relacionaron la energía con la frecuencia de las ondas (recordemos la solución de la catástrofe ultravioleta y del efecto fotoeléctrico); por lo tanto, la masa, m, en el otro lado de la ecuación y relacionada por un signo de igual, también debía de tener una expresión como onda. E y m ¿no son declaradas por Einstein como iguales una vez añadido el factor de la velocidad de la luz? Al detallar su audaz generalización de los cuantos a la materia, De Broglie explica que no considera a la partícula como caracterizada por una longitud de onda pura, sino por un paquete de ondas. El


Pag 85 mejor ejemplo es, de nuevo, el sonido. Un sonido en un instrumento musical o en una garganta no se produce por una onda pura, sino por el tono y sus armónicos, que contribuyen a la belleza y al misterio del sonido. Así, la partícula debía considerarse un paquete de ondas. Algunas se cancelan entre sí, como la ola que se encuentra con el valle de otra, pero en un punto convergen aproximadamente las crestas, como varias olas en el agua, cuando coinciden sus alturas y se suman en una ola más alta. Entonces la ola avanza dejando tras de sí una cola que disminuye paulatinamente. Así debíamos ver al electrón en su órbita: como una ola alta donde se encuentra la partícula, seguida por una cauda en la que el paquete de ondas se cancela paulatinamente. La materia se hace ondas Dicho en palabras de Louis de Broglie: «Ya no podemos representarnos el electrón como diminuto corpúsculo de electricidad: tenemos que asociarle una onda. Y esta onda no es mera ficción: puede medirse su longitud, calcularse de antemano su interferencia [«Mecánica ondulatoria», p. 518]. Queda claro que si las partículas materiales son ondas, deben producir, como la luz, un fenómeno de interferencia que consistiría en mostrar bandas oscuras y brillantes en el espectrógrafo. Oscuras donde coinciden valle y cresta, brillantes donde dos crestas suman su efecto. Pag 86 Apenas cuatro años después, en 1927, dos investigadores observaron en Estados Unidos que un haz de electrones producía sobre una placa fotográfica el rayado típico de la interferencia. Sin duda, los fundamentos de la materia eran ondas, pues producían los mismos efectos ópticos que la luz... que estaba constituida de partículas, según Einstein. De Broglie no se preguntaba si la materia estaba formada por ondas o por partículas. Afirmaba que era ambas cosas de manera simultánea, como la luz de Einstein. Las ondas de materia se mostraban como partículas en la región de coincidencia del paquete de ondas. Y así era como producían las órbitas «legales» postuladas por Bohr, que sólo se permitían ciertos niveles y no otros. A sólo dos años de comprobarse su intuición, en 1929, el príncipe Louis de Broglie recibió el premio Nobel de física. Conclusión del edificio: Schródinger y Heisenberg En 1921, el austríaco Erwin Schródinger (se lee «shroedinguer») formula las bases matemáticas del paquete de ondas postulado por De Broglie y en 1926 Max Born les da forma definitiva. Con su ecuación describe el comportamiento del electrón. Esta interpretación plantea que el paquete de ondas que conforma el electrón debe verse como una probabilidad. Esto es, el átomo es como un puñado de arena, donde cada grano indica una probabilidad mayor o menor de presencia Pag 87 de la partícula-onda. En algunas partes la probabilidad de existencia es mayor, en otras menor. De esa manera, la ecuación de Schródinger describe las probabilidades que


gobiernan el movimiento de las partículas subatómicas. Su autor la puso a prueba aplicándola al átomo de hidrógeno, el más sencillo, y prediciendo sus propiedades con una exactitud nunca igualada por ningún otro instrumento matemático. Esta interpretación sigue vigente, y con gran éxito, en la física de nuestros días. Su poder de predicción rigurosa la hace uno de los instrumentos más perfectos desarrollados por la humanidad. Un joven alemán de 26 años, Werner Heisenberg dio en 1927 el paso definitivo para derrumbar la física clásica y terminar los cimientos de la física cuantica. En ese año podemos ubicar la fecha de nacimiento de la nueva ciencia que se había comenzado a gestar en 1900. En esos 27 años la física se transformó más profundamente que en los dos milenios y medio contados a partir de la Física de Aristóteles. Incluso en el átomo de Rutherford y Bohr, y tan vacío y con órbitas prohibidas, se esperaba que la maquinaria funcionase conforme a las leyes de la materia. El átomo era como un delicado mecanismo de relojería, si bien hueco y constituido mayormente por vacío. Pero cuando De Broglie lo convirtió en ondas ocurrió algo de extrema gravedad: la materia nunca más fue esa aristotélica sustancia con un lugar que no puede ser ocupado por otra sustancia simultáneamente. Ya la introducción de los saltos cuánticos a las órbitas de los electrones, por parte Pag 88 de Bohr, había tambaleado la imagen mecánica del sistema solar en miniatura, aunque seguía siendo un nanoaparato que giraba como un motor. Pero cuando los electrones y los protones de la materia fueron observados comportándose como ondas, no dejaron rastro del mecanismo de relojería giratoria ni de sustancia aristotélica. «Obviamente los cuerpos físicos contienen superficies y volúmenes, líneas y puntos», sostiene Aristóteles en la Física [libro II, capítulo 2]. A partir de la generalización concebida por De Broglie y su rápida comprobación experimental, los cuerpos físicos más pequeños, los de orden subatómico, dejaron de tener «obviamente» los rasgos sensatamente señalados por Aristóteles. Incluso dejaron de ser «cuerpos físicos». Sujeto y objeto se desvanecen También Einstein había transformado la física para siempre con su teoría de 1905. Pero aún quedaba algo, lo finalmente desechado por Heisenberg, quien lo explica con esta sencillez en las primeras palabras de la conferencia sobre el principio de incertidumbre, parte de una serie pronunciada en 1929 en la Universidad de Chicago: Por grandes que sean las exigencias de aptitud para el pensamiento abstracto por parte de la teoría de la relatividad, ésta satisface los requisitos tradicionales de la ciencia; permite una división del mundo en sujeto y objeto, observador y observado, y, por tanto, una for-

Pag 89 mulación clara de la ley de causalidad [«El principio de incertidumbre», p. 523].

Cuando quedaba tan poco de la noción de materia, como la sensata, intuitiva y científicamente necesaria causalidad, Heisenberg desechó esos restos estableciendo en el corazón de la materia la contradicción más íntima: incertidumbre. Hasta el lenguaje está


construido para que las cosas sean o no sean, como se interroga Hamlet. Lo poco que restaba de la noción de materia acabó para siempre aplastado bajo el principio de incertidumbre, descubierto por Heisenberg, y meollo de la nueva física. Las órbitas limitadas del átomo desaparecieron y los electrones como pequeñísimos trozos de materia también. Y algo todavía más importante: la causalidad (esto es, el principio de que a todo efecto le antecede una causa) dejó su milenaria plaza a la incertidumbre. Si Rutherford había descubierto que la materia está constituida esencialmente de vacío y De Broglie que la materia eran ondas, Heisenberg desarrolló una rigurosa teoría matemática según la cual no sólo ambos estaban en lo cierto, sino que además no existen órbitas definidas para los electrones y éstos no tienen posición ni velocidad dentro del átomo. No es que no sepamos la velocidad mientras no la midamos, afirmación fácil de aceptar por evidente, sino que un electrón no tiene velocidad ni posición ni órbita definida mientras no exista una observación. Así como suena. Y de aquí en adelante tendremos Pag 90 como único consuelo la paradoja de Bohr: si no sentimos vértigo ante la mecánica cuántica es que no hemos entendido. Suponemos que el vértigo nos ataca ante lo desconocido. Bohr nos previene de que será a la inversa: sentiremos vértigo al conocer. Esa será la firma de que comprendemos. La incertidumbre El principio de incertidumbre en palabras de Heisenberg es una transformación completa entre el observador y lo observado. La diferenciación "clara entre la res cogitans (mas o menos el pensamiento) y la res extensa (más o menos la materia), tan importante para Descartes, se esfuma, se escapa como agua entre los dedos. En las conferencias que~ en 1929 dio en la Universidad de Chicago, ya citadas, Heisenberg planteó así el principio de incertidumbre: En las teorías de la física clásica siempre se ha dado por supuesto, o bien que dicha acción recíproco (entre el observador y el objeto observado] es tan pequeña que puede despreciarse_[el observador casi no afecta el objeto observado), o bien que su efecto puede eliminarse del resultado mediante cálculos fundados en el control de los experimentos. Tal suposición no es lícita en física atómica: la interacción entre el observador y el objeto produce cambios grandes e imposibles de fiscalizar, a causa de las mudanzas discontinuas características de los procesos atómicos. La consecuencia inmediata de esta circunstancia es en general, que todo experimento realizado para determinar algunas cantidades núPag 91 méricas hace ilusorio el conocimiento de otras, puesto que la perturbación, imposible de fiscalizar, del sistema observado altera los valores de las cantidades antes observadas. Si estudiamos esta perturbación en sus pormenores cuantitativos, veremos que en muchos casos resulta imposible obtener una determinación exacta de los valores simultáneos de dos variables; antes al contrario, la exactitud con que pueden conocerse tiene un límite inferior. El punto de partida de la teoría de la relatividad era el postulado según el cual no hay velocidad que sea mayor que la de la luz. De manera semejante, ese límite inferior de la exactitud con que pueden conocerse ciertas variables puede postularse como ley de la naturaleza, bajo la forma de las llamadas relaciones de incertidumbre [«El principio de incertidumbre», p. 523].


Sin palabras Así pues, enfatiza Heisenberg, el principio de incertidumbre o de indeterminación no responde a una incapacidad de nuestros instrumentos actuales, sino que es un estado de la propia naturaleza. La paradoja inescrutable por la que tanto la materia como la radiación muestran características de onda y de partícula, siendo que se trata de conceptos contradictorios, lo explica Heisenberg atribuyendo la paradoja a la incapacidad de nuestro lenguaje, y diríamos de nuestro pensamiento, para describir los procesos atómicos. Nada tiene esto de extraño, pues son procesos que comenzamos a entrever en este siglo y ni los idiomas ni el pensamiento habían jamás requerido los nuevos conceptos. No hay por tanto palabras para exPag 92 presarlos, ni imágenes mentales para representarlos. «Por fortuna, las matemáticas no están sometidas a semejante limitación; y así ha sido posible inventar un esquema matemático —la teoría del quantum— que parece del todo apto para tratar los procesos atómicos», concluye en la misma conferencia. Para tratar esa paradoja, y muchas otras que vendrían apareciendo, Niels Bohr introdujo el concepto de «complementariedad». Lo explica así Heisenberg: Dicho concepto significa que diferentes imágenes intuitivas, destinadas a describir los sistemas atómicos, pueden ser todas perfectamente adecuadas a determinados experimentos, a pesar de que se excluyan mutuamente. Una de ellas, por ejemplo, es la que describe al átomo de Bohr como un pequeño sistema planetario: núcleo atómico en el centro, y una corteza de electrones que dan vueltas alrededor del núcleo. Pero para otros experimentos puede resultar conveniente imaginar que el núcleo atómico se halla rodeado por un sistema de ondas estacionarias [«La imagen de la naturaleza en la física actual», p. 35].

De igual forma, unas veces resulta conveniente imaginar al electrón como una onda y otras como una partícula. No es sino el experimento lo que determinará el comportamiento del electrón como una cosa o la otra. Onda y partícula son estados complementarios. El electrón es ambas cosas mientras un experimento no determine alguna de ellas. Es la solución de Bohr a lo que no entendemos. Pag 93 Más incertidumbre Los componentes de la luz y de la materia se comportan como ondas unas veces y otras como partículas porque no son una cosa ni otra. La incertidumbre está en la naturaleza misma. Otra incertidumbre muchas veces ejemplificada en los libros de física, hasta en los más elementales, habla de la imposibilidad de asignar a un electrón, de manera simultánea, una velocidad y una posición. A mayor determinación de una, mayor indeterminación de la otra. Se debe, explica Heisenberg, a que los conceptos empleados: velocidad, posición y otros, proceden de nuestra experiencia cotidiana y realizada con objetos comunes. Luego se han aplicado los mismos conceptos al electrón porque en ciertos experimentos fundamentales el electrón se comporta, desde el punto de vista mecánico, de manera parecida a los objetos de la experiencia común [...]. La velocidad del electrón corresponde a la del haz de ondas, pero este último no puede determinarse con exactitud a causa de la difusión que en él


ocurre. Esta indeterminación ha de considerarse como característica esencial del electrón [«El principio de incertidumbre», p. 524].

Esto es, para plantearlo con un ejemplo del mundo cotidiano: si la fotografía de un objeto nos sale "borrosa no es por culpa de nuestra cámara o de nuestra ineficacia, sino porque el objeto mismo es borro. Se distribuye en el espacio como diversas probabilidades de ser. Es la incertidumbre de los números antes de caer los dados: pueden ser una combinaPag 94 ción, pueden ser otra; pero una vez que caen los dados y quedan inmóviles tienen un solo valor. Suponer que la incertidumbre se debe a la ineludible necesidad del experimentador de «tocar» y en consecuencia alterar de alguna manera su objeto de estudio es una trivialidad. En efecto, todo estudio modifica al objeto estudiado, no sólo cuando lo deshace en sus piezas y por ende lo destruye sino hasta cuando lo ilumina. Y cuando iluminamos algo tan pequeño como una molécula, los fotones se convierten en bólidos destructores a pequeña escala que entran, literalmente, a la velocidad de la luz, rebotando contra lo que encuentran, arrancando electrones de sus órbitas y haciendo toda clase de per-juicios, alterando y revolviendo átomos y dejando finalmente al investigador en absoluta incapacidad para saber cuál era la situación anterior. El premio Nobel Dennis Gabor sostuvo algo que parece obvio: ninguna observación puede hacerse con menos de un fotón. Así que tendremos al menos el disturbio producido por un fotón; pero éste es un problema técnico y no una incertidumbre esencial a la naturaleza. Si es técnico es por lo tanto trivial. Además fue resuelto en 1996. Cuando en abierta contradicción al postulado sensato de Gabor, los investigado res de la Universidad de Innsbruck (Australia) Paul Kwiat, Harald Weinfurter y Antón Zeinlinger realizaron mediciones libres de toda interacción con el objeto. Empleando precisamente las leyes del asombroso mundo cuántico - entre ellas el enlace permanente de dos partículas demostrado por Alain Pag 95 Aspect en la Universidad de París, como veremos en el capítulo seis—- pudieron hacer algo equivalente a conocer el contenido de una caja cerrada sin abrirla ni dirigir sobre ella ninguna forma de radiación. “La imagen es hecha por fotones que no han tocado jamás el objeto» (“Quantum seeingin the dark”) Argumentar el desorden producido en el objeto de estudio hasta por la simple iluminación como si fuera la esencia del principio de incertidumbre es no haberlo entendido en absoluto. No podemos conocer de manera simultánea ciertas variables del mundo subatómico no por problemas con la iluminación, sino porque no están determinadas, no existen, ante tal observación. Esto es, no hay variables ocultas como la posición y la velocidad, que estén allí pero no las hallamos medido, sino que ni la velocidad ni la posición existen. Y cuando una observación determina alguna de las variables, la misma observación hace más nebulosa la otra variable. Así pues, no es que no podamos «ver» un electrón sin disturbarlo porque debamos iluminarlo y los fotones de nuestra luz


cambien la situación. No podemos precisar posición y velocidad porque antes de observar el electrón éste no tiene posición ni velocidad determinadas. Y, de hecho, ya se explicó que sí podemos «ver» un electrón sin tocarlo en absoluto con nada, como lo demostró el experimento de Innsbruck. Pag 96 Culminación del edificio Podríamos decir que con el principio de incertidumbre de Heisenberg culmina, en 1927, la construcción del nuevo edificio de la física, conocido con diversos nombres: mecánica cuántica, mecánica ondulatoria o, por lo poco que resta de mecánica, simplemente física cuántica. A partir de ese año la física no ha cesado de producir resultados contraintuitivos. El más contrario a la intuición, por sorprendente, fue la oposición de Einstein a las bases probabilísticas de la nueva física. «No puedo creer que Dios juegue a los dados con el mundo» es su famosa expresión. Pero si bien la nueva física está completa, todavía en 1952 dirá Erwin Schródinger en «What is Matter?», refiriéndose a las partículas subatómicas a las que él ha dado la más acabada y exacta expresión matemática: Si ustedes finalmente me preguntan: «Bueno, ¿qué son esos corpúsculos, realmente?», les debo confesar honestamente que estoy casi tan poco preparado para responder eso como para decir de dónde vino el segundo burro de Sancho Panza.

Los físicos del año 2000, si tienen la misma honestidad intelectual de Schródinger, deben responder que, habiendo precisado la masa, la carga, el spin y múltiples variables con un nivel de exactitud inigualado para cuanta partícula ha aparecido, siguen todavía sin poder responder a la pregunta: ¿qué es un electrón? Pag 97

Capítulo 4: El vacío vuelve a llenarse Einstein contra la incertidumbre Disgustado con principios como el de incertidumbre en el seno de la física, Einstein se propuso demoler el edificio recién terminado. Su primer asalto lo dio precisamente sobre el principio de incertidumbre. «Los últimos años de la década de 1920 resonaron con el ding-dong de la batalla entre Einstein y Bohr», comenta John Polkinghorne, a quien parafrasearemos en los siguientes párrafos evitando las sutilezas matemáticas, que si bien no son difíciles de comprender, resultan molestas para una cantidad sorprendente de lectores. El round final en la pelea tuvo lugar en torno a una ecuación, mejor dicho una desigualdad. En re-sumen, la incertidumbre plantea en esa desigualdad que un electrón puede tomar prestada energía para realizar una acción de la que no es capaz, siempre y cuando la devuelva en instantes acotados por la infinitesimal constante de Planck. La incertidumPag 98


bre de la energía puede tomar el préstamo del tiempo y permitir, por ejemplo, que el electrón cruce una I barrera para cuya acción no tiene suficiente energía. Se llama «tuneleo». Un ejemplo de la vida cotidiana sería tan absurdo como el siguiente: voy corriendo, llego a un abismo que sólo podría saltar del dos trancos, entonces salto y apoyo el pie en el vacío! para dar el segundo tranco, suplicándole a la gravitación que me permita hacerlo ya que, a fin de cuentas, mi apoyo en el vacío contra la gravitación será por un tiempo tan breve tan breve que apenas llegará a| la constante de Planck. En el mundo subatómico sí ocurren estas situaciones, según el principio de incertidumbre, debido a la incertidumbre misma de la energía cuando se baja a niveles tan profundos que un átomo resulta enorme. Para darnos un sentido de la escala de pequeñez que estamos considerando, veamos este ejemplo de Greene: «Si ampliáramos un átomo hasta la medida del universo conocido, la longitud de Planck apenas se habría expandido hasta la altura de un árbol promedio.» Un árbol comparado con todo el universo: así se ve la longitud de Planck respecto de un átomo. Allá, en esas profundidades, la energía pura despliega una danza constante que verémos descrita en el capítulo siete. Y esa energía pura puede tomarse prestada del tiempo y devolvérsele. Pag 99 La caja de Einstein Einstein no podía tolerar semejante broma cuántica. Planteó entonces uno de sus muy ingeniosos Gedan-kenexperiment: experimentos mentales. Se trata de experimentos que, si bien es imposible realizarlos por las limitaciones técnicas, se conducen de acuerdo con una lógica imbatible. Propuso un sistema por el cual la energía podía determinarse con exactitud, aunque Heisenberg dijera lo contrario. Tenemos una caja llena de radiación (recordemos que es un experimento mental) que se abre por un mecanismo de reloj. Lo arreglamos de manera que se abra un tiempo t, dejando salir algo de radiación en ese lapso. Heisenberg dirá que existe una incertidumbre, si bien infinitesimal, acerca de la cantidad de energía soltada y que esa incertidumbre estará acotada por la constante de Planck entre el tiempo t de apertura de la caja. Pero no habrá tal incertidumbre, dice Einstein, pues peso la caja antes y después de soltar la energía. Cuando la haya soltado pesará menos y ese cambio en masa lo transformo en un cambio en energía por medio de la ecuación E-mc2 y ya está: tengo el total de energía sin incertidumbre alguna. Esto dio a Bohr una noche sin sueño; pero respondió: pesar es comparar un objeto contra un campo gravitatorio. Y Einstein nos ha enseñado, en su teoría general de la relatividad, que los campos gravitatorios hacen ir más despacio a los relojes. Así que cuando Einstein pesa su caja antes y después de soltar energía ya se encuentran inducidas incerPag 100

tidumbres incontrolables acerca del tiempo. Esto es, no sabemos la velocidad a la que avanza el tiempo antes y después de abrir la caja y soltar la energía. Como no podemos saber cuan exactamente tictaqueaba el reloj durante el proceso de pesar la caja, no podemos saber precisamente los tiempos a los que la apertura ocurrió y soltó la energía. Cuanto más exactamente trate uno de determinar el peso de la caja llena de radiación antes y después de soltar una poca, más incierta se volverá la medida de estos instantes. Todo ello concuerda perfectamente con el principio de incertidumbre y con la ecuación


citada por Einstein [véase Polkinghorne, The Quantum World, pp. 54-55]. Einstein se lamió sus heridas y en 1935 volvió al ataque con lo que llamamos «la paradoja Einstein-Podolsky-Rosen» o simplemente «la paradoja EPR». La veremos más adelante. Rendijas Dispongamos una lámpara de luz bien dirigida, un cartón opaco y una pantalla a cierta distancia del cartón en línea recta. Abramos un pequeño agujero en el cartón y encendamos la luz. Sobre la pantalla veremos una imagen de la fuente de luz, el hecho que estudió el árabe Alhazen en Bagdad hace mil años. El principio de la cámara oscura y del ojo, como señaló en el Renacimiento Leonardo da Vinci. Si hacemos un agujero más pequeño, la imagen se reducirá tal y \como podemos suponer. Pero, pasado un cierto límiPag 101 te, la pequeñez del agujero deja de dar imágenes consecutivamente más pequeñas, la imagen comienza a volverse borrosa y abierta. Se dice que la luz se difracta en el agujero. Ocurre así porque hemos ido haciendo, al reducir el agujero, cada vez más precisa la posición de los fotones. Por tanto, a causa del principio de incertidumbre, deberán ser más imprecisas su velocidad y su dirección, el momentum. La imagen se esfuma. No tiene límites precisos. Si además de determinar la posición del fotón, que es la de la rendija (pues a través de ella pasa y podemos decir «aquí está»), tuviéramos una perfecta línea recta a un punto en la pantalla, podríamos determinar, con muy sencillos cálculos, la velocidad y la dirección del movimiento de nuestra partícula cuántica (su momentum, que es la expresión que comprende masa, velocidad y dirección del movimiento). Así que, en correspondencia con el principio de incertidumbre, entre más pequeña la rendija y por ende mayor determinación de la posición de la partícula en el instante de cruzar, más borrosa y esparcida será la imagen resultante en la pantalla. Por el contrario: si abrimos la rendija, con eso perdemos certidumbre en la posición exacta de la partícula al cruzar por allí, al igual que no sabemos la posición de una bala disparada dentro de un túnel de ocho carriles; pero tenemos, en cambio, mayor determinación del momentum, expresado como una imagen más precisa y cerrada, menos borrosa. La difracción es, pues, un efecto exigido por la incertidumbre. Pag 102 Las dos rendijas Quizá la expresión más desafiante del principio de incertidumbre sea la que borró la vieja noción entre el observador y lo observado, el principio de objetividad, base de la vida cotidiana y de la ciencia. Nos dice que no podemos determinar la posición de una partícula simultáneamente con otra variable. Se afirma entonces que son variables complementarias: determinar una hace nebulosa a la otra, como vimos en el experimento de una rendija: a menor diámetro y consecuente mayor determinación de la posición del fotón, más difusa la imagen. Esto impide precisar la trayectoria del fotón con la recta que uniera la rendija con el punto de luz. No hay tal punto, sino una mancha difusa, y las


trayectorias son en consecuencia indefinidas. Cada línea es posible; están en superposición de estados, la luz sigue todos esos caminos. También la naturaleza misma de las partículas subatómicas y de los cuantos de energía, los fotones, está en superposición de estados: son partículas y son ondas de manera complementaria. Esta doble naturaleza la observamos con el clásico experimento de las dos rendijas repetido con fotones o con electrones en numerosos laboratorios y citado millares de veces, quizá decenas de miles. Una magnífica y sencilla exposición se encuentra en el artículo «Quantum Philosophy», de Horgan; otra es «The Quantum Paradox», de Finkelstein, y, por su lenguaje divertido, la de Richard Feynman en Six Easy Pieces. A grandes rasgos consiste en lo siguiente: Pag 103 Si ahora abrimos otra rendija en el cartón, muy cercana a la primera, y tapando ésta lanzamos un rayo de luz monocromática (de una longitud de onda [precisa), veremos en la pantalla tras el cartón otra ancha borrosa y esparcida. Marcamos con un lápiz el círculo de luz. Abrimos el otro agujero y cerramos éste. Una segunda mancha de luz surge en la pantalla. Marcamos el círculo de igual manera. Vemos que ambos coincidan en un área, que se traslapen las manchas. Ahora abrimos los dos agujeros y lanzamos nuestro rayo de luz. En la intersección de los dos círculos, donde se empalman, la cantidad de luz que llega es el doble. Podemos esperar entonces que sea más brillante el área de intersección, donde ambas áreas luminosas se traslapan. No es así, como ya sabían Fresnel y Young. En ese lugar se presentan rayas luminosas, pero también rayas oscuras. Nos podemos hacer de inmediato la pregunta siguiente: si hubo fotones que llegaron hasta esa área cuando sólo tenían una rendija para pasar, ¿cómo es que no llegan cuando tienen dos? Los fotones, como ondas producidas al lanzar dos piedras a un estanque, producen interferencia. Donde las crestas coinciden, el brillo aumenta, pero se oscurecen mutuamente cuando se encuentran valle y cresta. Es el conocido fenómeno de interferencia por el que la luz durante un siglo fue considerada un fenómeno ondulatorio. Hasta aquí la nueva física repite experimentos ya realizados, pero tiene una insospechada explicación para el conocido y estudiado fenómeno de la difracción. Pag 104 Ahora reduzcamos la corriente de fotones en nuestro rayo de luz. La reducimos tanto que podemos lanzar un solo fotón a la vez hacia las dos rendijas, en esta ocasión abiertas ambas, pero sin posibilidad de mostrar interferencia porque no estamos lanzando dos piedras al estanque, sino una sola. El fotón cruza y marca, como esperábamos, una mancha borrosa por difracción: como sabemos, su posición no nos deja saber su momentum. Luego empleamos película fotográfica y lanzamos de nuevo un solo fotón hacia las dos rendijas. Conseguimos una imagen sin rayas de interferencia. Ni podría haberla, pensamos, porque hemos lanzado un solo fotón: no tiene con qué interferir. Pero si seguimos lanzando fotones, de uno en uno, acabamos teniendo en la película de nuevo las rayas claras y oscuras que son la firma de la interferencia [recuérdese la figura 1.2]. Si hemos estado lanzando un solo fotón cada vez, ¿con qué interfiere? Quizá, como una ola ante dos huecos, se parte en dos, cruza por las dos rendijas, luego se recombina, y así es como interfiere consigo mismo. Se colocan, pues, detectores en ambas rendijas


para saber si pasa por una o por ambas y un detector final al fondo de la trayectoria. Al cruzar el fotón deberá ser percibido por los instrumentos si es verdad que se parte y luego se recombina como las olas en los postes de un muelle. Lanzamos de nuevo nuestro chorro de fotón en fotón. En el detector final aparece la mancha borrosa y sin rayas: señal de que no hay interferencia. El fotón es partícula. Cada fotón pasó por una rendija o por otra, sin Pag 105 que sepamos cómo elige entre ambas. Quitamos los detectores. Otra vez no podemos saber por cuál rendija pasará el fotón o si pasará por ambas. De nuevo aparecen las rayas oscuras y brillantes de la interferencia: el fotón pasó por ambas, por lo tanto es onda. Recolocamos los detectores que nos permiten observar. Resultado: una mancha borrosa y sin rayas. Es partícula otra vez [véase Horgan, «Quan¬tum Philosophy»]. Feynman Entre los grandes físicos cuánticos de la segunda generación, Richard Feynman, premio Nobel en 1965, marcó la física de la segunda mitad del siglo XX y a la vez produjo algunas obras de divulgación científica accesibles al lector ilustrado. Algunos capítulos de sus muy famosas Lectures on Physics fueron publicados en un volumen titulado Six Easy Pieces. Allí nos da esta magnífica descripción de la evanescente conducta de las partículas subatómicas cuando el investigador quiere atraparlas en plena acción. Primero esquematiza el experimento típico que consiste en que con una pistola de electrones se lanzan estas partículas contra una lámina de metal donde se han perforado dos agujeros, y al final se coloca un detector. En el detector se forman las rayas oscuras y claras que demuestran interferencia: el electrón está pasando por ambos agujeros, como una ola que se parte ante los soportes de un muelle y vuelve a integrarse cuanPag 106 do los pasa. Pero Feynman nos dice que ahora vamos a tratar de saber si en realidad cada electrón pasa por ambos hoyos. Ponemos un señalizador luminoso del paso del electrón detrás de los dos agujeros por donde pasará éste. Un detector será el final de la carrera del electrón. Hecho ese arreglo experimental: Aquí está lo que vemos: cada vez que oímos un «click» en nuestro detector de electrones (que los para al fondo), también vemos un flash de luz, ya sea cerca del hoyo 1 o cerca del hoyo 2, ¡pero jamás ambos a la vez! Y observamos el mismo resultado sin importar dónde pongamos el detector. De estas observaciones concluimos que cuando miramos los electrones encontramos que los electrones pasan ya sea a través de un hoyo o del otro [...]. Debemos concluir que cuando vemos los electrones, su distribución en la pantalla es diferente que cuando no los vemos [...]. ¡Si los electrones no son vistos, tenemos interferencia! [Six Easy Pieces, pp. 127— 130] .

Y la interferencia, firma de todas las ondas, desaparece cuando podemos saber si pasaron por el hoyo 1 o por el hoyo 2. Las cursivas y los signos de admiración son producto del entusiasmo de Feynman por las paradojas del mundo cuántico, que él explica con peculiar sentido del humor. ¿Por qué desaparecen las bandas de interferencia cuando podemos «ver» al electrón pasando por dos hoyos a la vez? Colocar detectores en ambas rendijas nos permite determinar con exactitud el camino seguido por el electrón. Ese conocimiento está


prohibido por la naturaleza, según nos dice el prinPag107 cipio de incertidumbre, también llamado de indeterminación. Por lo tanto, el electrón se comporta como partícula y elige una rendija para su paso y no ambas. Nada cambia si en estos experimentos empleamos cuantos de energía, fotones, o cuantos de materia, electrones. La esencia de la materia muestra el mismo inmaterial comportamiento y la misma alianza indisoluble con el observador. El fotón, como el electrón y todos los cuantos, no es, pues, partícula ni onda. En 1927, Bohr concluye el dilema entre onda o partícula por su principio de complementariedad: la sustancia básica de la materia y la energía tiene manifestaciones corpusculares y ondulatorias. Éstas son manifestaciones complementarias de un mismo sustrato profundo. El corpúsculo y la onda existen en una superposición de estados. Cuando observamos un cuanto, la superposición de estados desaparece y se muestra como partícula. El gato de Schródinger Erwin Schródinger ideó otro ingenioso experimento mental para ilustrar la superposición de estados. Imaginó un famoso ejemplo que se conoce en los textos de física como «el gato de Schródinger». En una caja metemos un gato, un frasco de gas venenoso y un aparato con un mecanismo dependiente de un azaroso evento cuántico, que rompa el frasco al tener Pag 108

Fig 4.1 El gato de Schrodinger en superposición de estados; vivo-muerto Pag 109 lugar. Puede ser, por ejemplo, un átomo radiactivo con probabilidad 50-50 de decaer en el término de una hora, emitiendo con eso un rayo gama. Este rayo dispara un dispositivo que rompe el frasco de gas venenoso. Cerramos la caja.


Esta emisión gama es un evento cuántico impredecible y la probabilidad de que ocurra está dada por la ecuación de Schródinger. El conjunto completo gato dispositivo-partícula está descrito por una función de onda complejísima que incluye todos los átomos participantes y los dos estados de la partícula mortífera: emitida o no emitida. Por lo tanto, todo el conjunto se encuentra en superposición de estados. En uno la partícula ya accionó el mecanismo; en otro, esto no ha ocurrido. El gato está en superposición de estados: está vivo-muerto, y sólo la observación permite determinar uno solo de los estados: o vivo o muerto. Como el burro de Sancho, que ora está, ora no está. La observación colapsa el paquete de ondas y nos da un solo resultado. Los físicos dicen que una observación colapsa la onda de probabilidad y da existencia a una sola de entre el paquete de probabilidades. Cómo ocurre que un observador colapse la onda de, probabilidad es uno de los debates en los que se enzarzan diversas posturas filosóficas. A todos nos consta que el gato no está vivo-muerto, aunque el ejemplo sea divertido. ¿Cómo de ese mundo atómico inasible tenemos rocas, planetas y estrellas? La superposición de estados no se da sino en el nivel atómico y, de alguna manera que la física aún no nos explica satisfactoriamente, la suma de muchos átomos con sus indePag 110 terminaciones produce el mundo determinado y conocido, regido por las leyes de Newton y no por las de la cuántica. La superposición de estados de los cuantos subatómicos (para ya no hablar de partículas, pues no lo son) se muestra también en la capacidad que éstos tienen para estar en dos lugares a la vez: un fotón o un electrón pueden pasar simultáneamente por dos caminos separados. Dirac lo expresó así en The Principies of Quantum Mechanics, ya desde 1930: «Podría argüir que una muy extraña idea ha sido introducida: la posibilidad de que un fotón esté de cierto modo en cada uno de dos estados de polarización o de cierto modo en cada uno de dos rayos separados» [p. 10]. La solución de Feynman Las cosas pueden todavía empeorar en manos de Feynman. Él propone que cada partícula no sólo pasa por ambas rendijas, sino que sigue simultáneamente toda trayectoria posible Es una aproximación a la mecánica cuántica llamada «suma de caminos» («sum-over-paths» por si el lector encuentra mejor traducción). Esto es, todos los caminos, entre ellos los que le dan vuelta al planeta antes de penetrar por una rendija, los que van derecho, los que dan unos pocos giros y eligen o, siguiendo a Greene, se van en larga jornada hasta la galaxia de Andrómeda antes de regresar y pasar a través de la rendija izquier-

Pag111 da en su camino a la pantalla [...]. El electrón, de acuerdo con Feynman, simultáneamente «olfatea» cada posible vía que conecte su locación de arranque con su destino final ¡The Elegant Universe, p. 110].


Y, de nuevo, este comportamiento se da únicamente mientras no exista no solamente una observación, sino ni siquiera la posibilidad de una observación, como demostró Mandel en 1996. En un diseño los investigadores no podían saber cuál de dos rutas fue «escogida» por un fotón particular dentro de un rayo láser: entonces el fotón va por ambas; Hay superposición de estados y está en dos lugares al mismo tiempo. En otro diseño sí pueden saber la ruta que sigue, pero no emplean esa capacidad, no observan; el fotón sigue una sola ruta. Hay un colapso de la función de onda y desaparece la superposición de estados aunque no hubo observación realmente. «¿Qué ha cambiado? La respuesta es que el conocimiento potencial del observador ha cambiado, comenta Horgan. ahora puede determinar cuál ruta tomaron ciertos fotones. Un fotón «ya no puede ir por ambas vías». La comparación de tiempos de llegada [por las dos vías] no necesita ser realizada en realidad para destruir el patrón de interferencia. La mera «amenaza» de obtener información acerca de cuál vía siguió el fotón, explica Mandel, lo fuerza a viajar sólo por una ruta. «El estado cuántico refleja no sólo lo que conocemos acerca del sistema, sino lo que es en principio conocible» [Horgan, «Quantum Philosophy»].

Pag 112 Una exposición del propio Mandel sobre tan estrafalarias faltas a la lógica aristotélica por parte de la naturaleza puede encontrarse en su experimento descrito en Fundamental Problems in Quantum Theory. Si Einstein nos había dicho que no existía el tiempo absoluto, ese tiempo de Newton que según los Principia Mathematica «fluye uniformemente sin referencia a nada externo», y al unificarlo con el espacio nos dio un nuevo concepto, el espacio-tiempo, a su vez la física cuántica sostenía que tampoco había elementos para considerar al observador y lo observado como entidades absolutas e independientes. Los procesos subatómicos, el ámbito de la cuántica, son inseparables del proceso de observación. Cada resultado posible en un particular marco de observación es, en otro marco, una superposición de estados. Cuando un investigador elige su marco de trabajo sabe que por cada uno de sus resultados habrá, en quien trabaje en otro marco, una superposición de muchas posibilidades. Pag 113

CAPÍTULO 5: La síntesis de Dirac Dirac: relatividad e incertidumbre El físico inglés Paul Dirac, a los 25 años de edad, habría de unir, en otra más de las felices síntesis de campos opuestos, las teorías de Schródinger y Heisenberg, quienes nunca se expresaron con amabilidad de sus respectivos y extraordinarios hallazgos. Si la ecuación de Schródinger sólo se aplicaba a partículas con velocidades muy inferiores a la de la luz, en 1927 Dirac la combinó con la relatividad y la incertidumbre, propuso un giro sobre su eje para el electrón y así produjo un solo conjunto de cuatro ecuaciones simultáneas que describían un electrón cuántico, relativista y con spin o giro (por


supuesto, tal descripción del spin es sólo una manera de hablar, común hasta en los físicos para referirse a lo inefable; pero el electrón ni gira ni tiene eje porque no es una bolita minúscula). Las nuevas ecuaciones explicaron de inmediato los resultados salidos de los primeros laboratorios Pag 114 de partículas. Comenzaba otra época de sorpresas y las ecuaciones de Dirac parecían perfectamente aptas para ellas. Pero en un punto predecían algo muy extraño: energía negativa. Así lo sostienen Forward y Davis en su obra con dedicatoria a Dirac en la primera página: En diciembre de 1929, la solución de Dirac se publicó en los Proceedings of the Royal Society. Era un trabajo sorprendente, pues las ecuaciones de Dirac lograban algo extravagante [...]; tenían dos soluciones posibles: un electrón con energía positiva, o un electrón con energía negativa [Explorando el mundo de la antimateria, p. 40].

El físico (Forward) y el periodista científico (Davis) parecen plantear un absurdo, pero insisten enseguida en que sí han dicho lo que leímos: Dirac descubrió que un electrón con energía negativa que atravesara un campo magnético actuaría exactamente igual que un electrón con energía positiva, siempre que el electrón tuviera una carga eléctrica positiva en vez de negativa [p. 41].

En sentido matemático no había nada extraño: si nos preguntamos cuál es la raíz cuadrada de 4 tenemos dos soluciones: 2 es la inmediata, pero no es menos correcta -2. Las ecuaciones de Dirac admitían igualmente dos soluciones: una para un electrón común y otra para un electrón en todo semejante, pero con energía negativa. Pag 115 Entendámonos: desde un principio se llamó «electrón» a la carga eléctrica negativa mínima. Pero las ecuaciones de Dirac, en una de sus dos soluciones, predecían algo imposible de imaginar: no carga eléctrica negativa, sino energía negativa. El término «negativo» induce a confusiones porque se emplea aquí en dos acepciones muy diferentes una de otra. La carga eléctrica del electrón no tiene nada de negativa en el sentido en que es negativo -2. Desde 1733, el jardinero del rey Luis XV había anunciado la existencia de dos tipos de electricidad: una atraía y la otra repelía objetos. Se las pudo haber denominado electricidad «blanca» y «negra», «A» y «B», «alfa» y «omega», en fin, con cualquier par de palabras que expresaran oposición. Fue Benjamín Franklin quien ideó el uso de los signos + y - para distinguir una de la otra; por eso hablamos de electricidad positiva y negativa. La carga del electrón pudo llevar cualquier otro nombre. La antimateria Así pues, una carga eléctrica negativa no tiene nada de negativa. Pero las ecuaciones de Dirac tenían dos soluciones: una era un electrón común de carga eléctrica negativa, y la otra era, siguiendo a Forward y Davis, un electrón hecho de algo inimaginable: energía negativa, no energía, energía inferior a cero. ¿Cómo se puede tener menos energía que


cero energía? Es como preguntarse cómo puede haber menos Pag 116 agua que nada de agua. Ni siquiera es fácil darle sentido a esa expresión. Pero eso decían las ecuaciones. Puesto que Einstein había encontrado la relación entre la masa y la energía, ¿podía también hablarse de masa negativa, de una no masa, de una masa más ausente que ninguna masa? Un peso es una cantidad representada por una moneda. Al gastarlo nos quedan cero pesos. Pero si gastamos dos debemos uno, para lo cual contamos con una representación numérica, -1, pero no con una física. Si nos regalan un peso, con eso apenas compensamos la deuda y quedamos en cero. ¿Podría haber algo semejante en la materia? Sería como una deuda, un hueco en el espacio donde la materia al caer simplemente llenara esa falta y dejara espacio vacío, sin hueco ni materia, como el peso que pagamos cuando debemos uno. Pero desde el punto de vista del espacio no tiene sentido hablar de huecos o de faltantes. Las ecuaciones predecían una forma de descubrir esa extraña manifestación de la materia, si aún se le podía aplicar ese nombre, según vimos: un electrón de energía negativa cruzando por un campo magnético sería observado como un electrón con carga eléctrica positiva. Otra vez: no es que los electrones vengan en dos presentaciones, uno bien conocido y con carga eléctrica negativa, y otro novedoso con carga positiva. No es así. La segunda solución de las ecuaciones de Dirac predice una partícula que será similar a un electrón, pero cuya energía será inferior a cero, energía negativa. Por tanto, al cruPag 117 zar un campo magnético será desviado como si fuera una partícula positiva. Las partículas positivas del átomo son los protones, así que Dirac buscó en ellos una explicación más sensata. Pero el protón tiene casi dos mil veces la masa del electrón. No podía tratarse de protones, sino de alguna nueva partícula, no descubierta en el laboratorio pero ya predicha por las ecuaciones, lo cual ocurre con gran frecuencia. Dirac propuso llamar «antielectrón» a la nueva partícula. Con él se abriría la existencia de toda una nueva familia de partículas, pues sus ecuaciones predecían, con sus dos soluciones, un gemelo para cada una de las conocidas. Había nacido la antimateria. Su comprobación experimental llegó en 1932. La antimateria sigue viva y sana, pero no el nombre de la primera antipartícula propuesta. El antielectrón de Dirac es conocido hoy día como «positrón». El positrón En el artículo «Symmetry in Physical Laws» incluido en el volumen Six Not-So-Easy Pieces, Feynman describe así el descubrimiento de la antimateria: Dirac predijo que además de los electrones debía de haber otra partícula, llamada positrón (descubierta en el Caltech por Anderson), que está necesariamente relacionada con el electrón. Todas las propiedades de estas dos partículas obedecen a ciertas reglas de correspondencia: las energías son iguales; las masas son


Pag 118 iguales; las cargas invertidas; pero, sobre todo, las dos, cuando se encuentran, pueden aniquilarse una a la otra y liberar su masa entera en forma de energía, es decir, de rayos gama [p. 43].

Aunque esta redacción da la apariencia de que Dirac llamó «positrón» a la hipotética partícula, es sólo un problema de excesiva condensación sintáctica; en realidad Dirac la llamó «antielectrón». Para mostrar la esencia del descubrimiento, Feynman recurre al neutrón, que siendo eléctricamente neutro no conduce a las confusiones entre las cargas eléctricas (positivas o negativas) y la energía negativa en el sentido en que -2 es negativo. La regla para el «anti» no es sólo que tenga carga opuesta; tiene cierto conjunto de propiedades, la partida entera de las cuales son opuestas. El antineutrón se distingue del neutrón de esta manera: si ponemos dos neutrones juntos, permanecen sólo como dos neutrones, pero si ponemos juntos un neutrón y un antineutrón, se aniquilan uno al otro liberando una gran explosión de energía, con varios mesones pi, rayos gama y lo que se te ocurra [Six Noí-So-Easy Pieces, p. 44].

El mar de Dirac Forward y Davis afirman que Dirac sugirió, posteriormente, un segundo modelo para dar cuenta de los estados de energía negativa aparecidos en la solución de sus ecuaciones [véase Explorando el mundo de la antimateria, p. 42]. El modelo, que exige del Pag119 lector algo más que imaginación, es descrito así por dos investigadores de Cornell: [Dirac] imaginó que el vacío constituía un «mar» uniforme de estados de energía negativa, todos llenados por electrones. Puesto que el principio de exclusión de Pauli prohíbe que dos electrones ocupen el mismo estado cuántico, los electrones de energía positiva [electrones comunes] se mantendrían encima del mar invisible para formar los estados «excitados» observables en la naturaleza. Un estado excitado podría también crearse echando suficiente energía positiva para sacar un electrón del mar, proceso que dejaría un hoyo en el cual otro electrón de energía negativa caería. «Estos hoyos serán cosas de energía positiva y por tanto serán al respecto como partículas ordinarias», escribió Dirac [R. C. Hovis y H. Kragh, «P. A. M. Dirac and the Beauty of Physics»].

En una carta a Niels Bohr fechada el 26 de noviembre de 1929, dice Dirac: Parece razonable asumir que no todos los estados de energía negativa están ocupados, sino que hay unos pocos vacíos o «agujeros». Tal agujero —que puede ser descrito por una función de onda— aparecería experimentalmente como una cosa con energía + ve [positiva], puesto que para hacer el agujero desaparecer (p. ej. para llenarlo), uno debería poner energía - ve [negativa] dentro de él [citado en «P. A. M. Dirac and the Beauty of Physics»].

Como podemos ver, aquí ya Dirac pone la energía negativa no en la antipartícula del electrón, que ahora es de energía común y corriente (positiva), sino, Pag 120 peor aún, llenando el universo. Es todo el espacio lo que está lleno de un mar de partículas densamente apretadas y hechas todas ellas de energía negativa.


Puesto que todo el espacio está lleno (al parecer el éter se resiste a morir), no hay diferencias que podamos detectar y el mar de energía negativa es in- observable. Pero cuando una partícula real arranca uno de estos electrones con menos energía que cero, menos que vacío, menos que nada, queda un hueco en el mar de energía negativa. Hay un hueco en el mar de huecos. Tenemos una negación de la negación, diría Engels. O lo que es lo mismo: tenemos ahora un hueco de energía positiva, una antipartícula hecha de energía común. Al encontrarse la antipartícula y un electrón normal, se comportarán como una bola de billar al caer en un agujero exactamente de su tamaño: desaparecen ambos. Un electrón normal y un antielectrón se aniquilan mutuamente; al hacerlo liberan energía equivalente a dos masas de electrón. ' Nada en los laboratorios hacía prever semejante anomalía en el universo conocido, así que Niels Bohr hizo a Dirac una famosa broma. Dijo que se podrían cazar elefantes de la siguiente manera: en un gran cartel se escribe la teoría de Dirac y se coloca donde los elefantes van a beber. Cuando el elefante, que proverbialmente es un animal sabio, llega al agua y lee el cartel, se queda embelesado. Los cazadores aprovechan el éxtasis elefantuno para amarrarle las patas y enviarlo al zoológico Pag 121 de Copenhague. ¿Y por qué a Copenhague? Porque se conoce como Escuela de Copenhague la posición filosófica que adoptan buena parte de los físicos cuánticos para atender las paradojas del mundo subatómico. Comprobación inmediata Pero un año después, en 1932, aquel Robert Millikan al que conocimos por el efecto fotoeléctrico se había instalado en Pasadena, California, donde pensaba transformar en un gran centro de investigación el departamento de física de una escuela privada, el Instituto Tecnológico de California (o Caltech, como se lo conoce brevemente). Entre los investigadores se encontraba un joven de 26 años, Carl Anderson. Un detector llamado cámara de niebla, en el cual las partículas dejan rastros al ser lanzadas a través de vapor, es el instrumento que las hace visibles. Si la cámara se rodea de magnetos se obtienen diversas desviaciones que permiten estimar las cargas y las masas. Al estudiar fotografías de las trayectorias dejadas por diversas partículas en la cámara de niebla, Anderson encontró trayectorias del todo similares a las de los electrones, pero invertidas. El campo magnético de la cámara de niebla curvaba en dirección opuesta las trayectorias. Anderson pasó un año sin una explicación satisfactoria y, además, sin conocer la predicción de Dirac. Luego identificó pares de un electrón y de una de esas partículas con igual masa y trayectoria opuesta. Finalmente la teoría de Dirac había encontrado su comprobación. La parPag 122 tícula fue llamada «positrón». El nombre da lugar a confusiones y era mejor el de «antielectrón», pues no es algo tan sencillo como un electrón positivo, uno que en vez de carga eléctrica negativa la tiene positiva, como un protón chiquito. Es algo más incomprensible: es la unidad mínima, el cuanto de un universo gemelo y especular hecho de antimateria.


En vez de llegar al zoológico de Copenhague amarrado entre sus elefantes pensativos, Paul Dirac recibió el premio Nobel en 1933 (compartido con Schródinger). Era tan joven que León Lederman comenta en The God Particle: «Cuando Dirac y Heisenberg fueron a Estocolmo para recibir sus premios Nobel, iban, de hecho, acompañados por sus madres.» Y, con todo, los físicos siguieron buscando para el positrón una fuente menos descabellada que el mar de energía negativa propuesto por Dirac. Con el éter habían tenido suficiente. La alternativa no fue mucho mejor; la presentó Richard Feynman, quien podemos decir que encabeza la segunda generación de físicos cuánticos, como veremos más adelante. Las variables ocultas Por el principio de complementariedad, enunciado por Bohr, concluyó el debate sobre la naturaleza ondulatoria o corpuscular de la luz y de la materia. Terminó como el gato de Schródinger, en una superposición Pag 123 de estados. Ambos estados, partícula y onda, están superpuestos en tanto no haya una observación. Luego el principio de incertidumbre extendió a todo el mundo subatómico la superposición de estados. La ecuación de Schródinger hizo del electrón un paquete de ondas: la observación producía el colapso de la función de onda y la localización del electrón. Con la síntesis de Dirac, que añade otra variable a las partículas, el spin o giro, sólo tenemos otra variable para incrementar las indeterminaciones, pues también el spin se somete a las paradojas de un mundo sin definición y al colapso de la función de onda por la observación. Para el sentido común, tal situación es inconcebible. También lo es para la física clásica, e incluso para la relativista. Todos los objetos del mundo poseen atributos: color, peso, forma, reposo o movimiento. Nuestros sentidos nos entregan los atributos del objeto, y en todo caso ha sido función de la filosofía determinar en qué medida nos engañan, cuándo los atributos percibidos se corresponden con la realidad. Pero es un hecho que, hasta cuando vemos verde un objeto azul por efectos cromáticos bien estudiados, el objeto tiene un color propio. Que los objetos cuánticos, por ser diminutos, ofrecieran dificultades a la detección de sus atributos era de esperarse. Que la observación los modificara y resultaran por tanto en buena medida inaccesibles también era un conocido problema de laboratorio. ¿Cómo iluminar un átomo si un solo cuanto de luz lo perturba? Era un problema serio, pero un pro Pag 124 blema técnico al fin. Si tales eran los problemas, la física cuántica era una teoría realista y local, como estipula la física que debe ser toda teoría saludable. La sensatez pierde terreno


Pero la nueva física establecía algo inaudito. En física cuántica los atributos del mundo subatómico no eran simplemente difíciles de observar porque el hecho mismo de la observación los modificara. No: los atributos de ese ámbito, por ejemplo valores como velocidad, spin, posición y trayectoria, no existen antes de que sean determinados por una observación. Esto resulta tan contraintuitivo como decir que un automóvil con el velocímetro descompuesto no tiene velocidad. Si los físicos cuánticos sostenían que las variables no observadas no existen, que permanecen en el ser y no ser de la superposición de estados múltiples y contradictorios, los demás declaraban que tal afirmación era aberrante y que las variables no observadas están allí, existentes y determinadas, aunque ocultas porque no ha venido un observador a descubrirlas. Si no podemos conocer simultáneamente posición y velocidad es porque nuestros medios para realizar las observaciones necesarias son todavía insuficientes, argumentaron, lo cual suena completamente sensato. Y más cuando uno de los inconformes era Einstein. Había nacido la postura llamada de «variables ocultas». Los primeros desacuerdos entre Bohr y Einstein nacieron desde que se daban los toques finales al Pag 125 edificio de la cuántica. Ya en 1927, en la conferencia del Instituto Solvay celebrada en Bruselas, se delinearon las dos posiciones irreductibles en la nueva física. «Vemos que los puntos esenciales del argumento EPR [Einstein-Podolsky-Rosen; véase p. 128] ya habían sido considerados por Einstein unos ocho años antes, en el Quinto Congreso Solvay» [Hardy, «The EPR Argument ...»]. Cada postura divergente estaba encabezada por uno de los padres fundadores. Para Einstein y más aún para sus partidarios, el aspecto impreciso e indeterminado de la física cuántica no puede satisfacer a un científico y muestra que debe de haber algo por debajo de ese aspecto: sería menester volver a encontrar bolitas u ondas, en fin, algo que podamos representarnos. Si todavía no se las puede ver, ello se debe a que nuestros medios de observación son insuficientes [Ortoli y Pharabond, El cántico de la cuántica, p. 45].

Se trataba de las variables ocultas que habrían de buscarse afanosamente. Einstein tenía a su favor que su postura coincidía con el sentido común y la sensatez: nadie nos puede decir, tan fresco, que para que un auto tenga movimiento es necesario observar el velocímetro. Respondemos que podemos ignorar la velocidad exacta, no conocerla por faltar la observación, pero el auto tiene ya una velocidad exacta, aunque desconocida para nosotros. Es una variable oculta porque no tenemos cómo medirla o no hemos mirado. ¿Cómo podían Bohr, Heisenberg, Dirac y tantos hombres Pag 126 que no parecían tontos decir lo contrario? Einstein se desesperaba. Pasarían más de cincuenta años antes de que esa discusión quedara definitivamente zanjada por Alain Aspect, en 1982. Mientras tanto, un elemento de la cuántica era innegable: resultaba rigurosamente exacta, más que ninguna otra ciencia humana, más que la celebrada mecánica de Newton que había predicho la posición de planetas nunca


observados. Nadie había visto nunca tales niveles de predicción. ¿Cómo sus mediciones con exactitud en las mil billonésimas de centímetro y de segundo podían derivarse de una teoría falsa? Einstein clama por auxilio divino «Ich habe genug!», debió decirse Albert Einstein. ¡Ya basta! Era demasiado. «No puedo creer seriamente en la teoría cuántica porque no puede ser reconciliada con la idea de que la física debe representar una realidad en el tiempo y el espacio, libre de fantasmagóricas acciones a distancia.» O peor aún, en una carta personal: «A medida que el éxito de la teoría cuántica aumenta, más tonta parece» [Einstein entre comillas, p. 190]. Luego llamó en su ayuda a Dios con su popular expresión sobre los dados que, por cierto, no es una, sino varias, pues parece que al mismo Einstein le gustó el ejemplo. Dice en una carta a Max Born fechada apenas en 1926: Pag 127 Bien vale la pena prestarle atención a la mecánica cuántica. Pero una vocecita interior me dice que no se trata del verdadero Jacob. La teoría rinde mucho, pero me temo que a duras penas nos acerca a los secretos del Viejo. En todo caso, estoy convencido de que Él no juega a los dados [Einstein entre comillas, p. 196].

El tratamiento familiar que da Einstein a Dios: «el Viejo», no deja de quedar en la línea de quien dijo de sí mismo: «Soy un no creyente... muy religioso», y que a la pregunta acerca de si creía en Dios respondió: «Creo en el Dios de Spinoza.» No hay nada de sorprendente en ello, porque la definición que ese filósofo judío, de origen portugués y nacionalidad holandesa, proporciona de Dios en su Ética no podría ser más semejante a una definición del universo firmada por Einstein. Algo similar dice Einstein en otra cita: Me es posible, aun en el peor de los casos, llegar a concebir que Dios tal vez creó un mundo en el que no existen las leyes naturales. En dos palabras, un caos. Pero pensar que existen leyes estadísticas con soluciones precisas, es decir, leyes que obligan a Dios a lanzar los dados en cada caso individual, me parece en extremo desagradable [p. 200].

Y en otra carta, ésta ya de 1942: «Es difícil echarles una mirada disimulada a las cartas que Dios tiene en la mano. Pero que él haya resuelto jugar a los dados con el mundo... es algo que no puedo creer ni por un solo instante» [p. 200]. La réplica de Niels Pag 128 Bohr fue más breve y cortante: «Deja de decirle a Dios lo que puede hacer.» Mucho tiempo después, en años recientes, respondería otro grande de este siglo que aún era niño a la muerte de Einstein, Stephen Hawking: Dios no solamente juega a los dados con el mundo, sino que a veces «los arroja donde no podamos verlos» [The Nature of Space and Time, p. 26]. Se refiere a los agujeros negros, por cuyo estudio teórico y desarrollo matemático recibió en 1978 el premio Albert Einstein. Nueva paradoja. EPR


Convencido de que la física debe ser una descripción de la realidad, tal y como sostiene el sentido común, Einstein se propuso mostrar que la física cuántica no se ajustaba a esa exigencia. En términos técnicos se dice que en tal caso una teoría es incompleta. Sin embargo, ya de inicio, para los físicos con la postura filosófica llamada de la Escuela de Copenhague, que una teoría sea completa no es lo mismo que para Einstein. La física, sostienen, no es una aproximación a la realidad ni las teorías se miden por su mayor o menor ajuste con algo externo. Para eliminar las complicaciones filosóficas de llamar a una invitada tan indefinible como la realidad, molestos con Kant y su noción del «objeto en sí», construyeron un andamiaje teórico que no requiere mencionar la realidad. Bohr y Heisenberg exigen de una teoría únicamente Pag 129 que no prediga resultados contradictorios para un mismo experimento y que represente todo experimento posible; entonces es completa y con eso basta. Si describe o no la realidad es una pregunta sin sentido, ajena a la ciencia. La misma posición expresa entre los físicos de hoy Stephen Hawking. En su famoso debate con Roger Penrose sobre la naturaleza del espacio y el tiempo dijo que una teoría sólo era un modelo matemático no tenía sentido preguntarse si se correspondía con la realidad. «Porque no sé qué sea eso», replicó sencillamente [p. 121]. Pero Einstein sí quería saber qué era eso, qué era la realidad; y para conocerla era físico. Así que en 1935, con dos jóvenes colaboradores, Boris Podolsky y Nathan Rosen, publicó un artículo que se ha vuelto famoso bajo las iniciales de sus apellidos: EPR. Se trata de otro Gedankenexperiment. A grandes rasgos, plantearon un caso donde el principio de incertidumbre y con él la física cuántica se verían prediciendo un absurdo. Dos partículas enlazadas Consideraron un sistema formado por dos partículas (de alguna forma hay que llamarlas) que tras estar en interacción se separan en direcciones opuestas. Según la teoría cuántica, seguirán descritas por una sola función de onda, así esperemos a que se alejen años luz entre sí. Ninguna tendrá atributos propios; no tendrán posición ni dirección ni spin ni velocidad Pag 130 determinados, sino todos ellos en diversos grados. Son como una nube difusa. Están en superposición de estados, como el gato de Schródinger. Pero una vez que pasan los años que se quiera y las partículas gemelas se encuentran en confines opuestos del universo, determinamos cualquier atributo de una sola de ellas. Con eso, de acuerdo con la cuántica, la función de onda pierde la superposición de estados; ya no predice una infinidad de valores posibles y adquiere uno solo. Por ejemplo, determinamos el spin. Ambas partículas, cuyo spin puede ser «arriba» o «abajo», tienen ambos en superposición de estados, pero al observar una de las partículas su spin queda determinado. Decimos que la observación ha realizado la reducción del paquete de ondas a una sola, o que las múltiples posibilidades se colapsaron y presentan ahora una posición precisa. Sólo que, recordemos, esa función de onda describe a ambas partículas gemelas, así que la determinación de algún valor en una produce la determinación de la


otra. Suponiendo que estemos empleando un par de protones, sabemos que por la manera en que los produjimos tienen spin contrario. Si uno es «arriba», el otro es «abajo», y viceversa. Así pues, en cuanto hacemos la medición en el protón A queda determinado también el valor del spin en el protón B en el otro extremo de la galaxia. El ejemplo era muy ilustrativo porque demostraba un absurdo flagrante derivado de los propios planteamientos fundamentales de la cuántica. Se hizo el silencio. La física clásica diría que los spines esPag 131 taban ya fijados desde el momento en que los dos protones se separaron, pero que simplemente no los conocíamos y ahora, por nuestra observación, los conocemos. Para la física cuántica no es así. «El acto de medición debe inducir un nuevo estado para B, no solamente revelar su estado previamente existente» [Polkinghorne, The Quantum World, p. 71]. A estos aspectos de la cuántica se refería Einstein al exclamar que la física no debería tener «acciones fantasmagóricas a distancia». Y las tenía, pues una medición aquí permite determinar instantáneamente un valor en otra parte del universo. Ejemplo con bolas Pensemos en bolas de billar con dos colores: media esfera es roja y media esfera es azul. La cuántica establece que la posición de estas mitades en la bola es indeterminada: no existe mientras no se realice una observación. Pero una vez que determinamos que una es azul arriba y rojo abajo, la otra, en una remota galaxia, habrá quedado también determinada y será a la inversa: azul abajo y rojo arriba. Si lo detectado fuera el spin de una partícula, el efecto sería el descrito con bolas de billar. Conocido un spin, el de la otra partícula también quedaría determinado. ¿Y cómo sabe el gemelo que su par ha sido observado? “Por telepatía!”, exclamó Einstein. Su risa estremeció la nueva física. En efecto, tampoco había capacidad para realizar ese experimento, pero todas sus bases lógicas parecían irrefutables. Pag 132 Al silencio súbito siguieron intentos de réplica. Bohr dijo que en el desarrollo de los argumentos en EPR, el uso dado a la relatividad por Einstein (of all people!) y sus colegas era erróneo; que no era la teoría cuántica la que se había mostrado equivocada, sino el concepto que Einstein, Podolsky y Rosen tenían de la realidad; que... Muchos argumentos complejos que llevan de nuevo a confrontar dos particulares concepciones de la ciencia; con todo, la paradoja resultaba incontestable. En esencia porque se trataba de dos idiomas. Para los contrarios a la cuántica, el mundo subatómico debía comportarse como minúsculas bolas de billar, por muy pequeñas que fueran. Los cuánticos hablaban de comportamientos contrarios al sentido común. Los físicos cuánticos pusieron la paradoja EPR en el archivo de pendientes para poder seguir trabajando, porque algo seguía siendo innegable: predecían resultados en el límite de las mil billonésimas. Pero la espina estaba clavada. Mientras tanto, los laboratorios seguían entregando los resultados más exactos que ciencia alguna hubiera imaginado, con todo y que la teoría predijera algo tan aberrante. Nadie sabía cómo quitarle al experimento EPR lo gedanken, lo pensado, y llevarlo a cabo realmente. Bohm y Bell


Las directrices generales del experimento para someter a prueba la física cuántica habían quedado señaladas en la paradoja EPR. Si un experimento comPag 133 probaba que había medido alguna característica previamente existente en las partículas antes de la medición, la cuántica estaba equivocada. El principio básico era sencillo. Había que imaginar su realización. El húngaro Johann von Neumann puso una primera piedra en 1929, con su «teorema de variables ocultas», donde probaba que la asignación de valores simultáneos a variables complementarias, como la velocidad y la posición, siempre daría resultados diferentes a los propuestos por la cuántica. Las determinaciones de valores en cuántica no son una muestra de valores previamente existentes. Pensemos que tenemos un millón de canicas, de las cuales la mitad son azules, un 25 por ciento rojas y el 25 por ciento restante verdes. Si las metemos en una gran revolvedora de lotería y sacamos al azar un millar, encontraremos la misma distribución en esa muestra del total: la mitad serán azules (con algunas más o menos de diferencia) y las otras serán rojas y verdes en igual proporción. Es porque nuestra selección se hace realmente al azar, pero también porque las canicas ya eran previamente azules, rojas y verdes. Éste es el principio de las encuestas. Si la muestra es grande y se hace al azar, las variables detectadas en la muestra serán una miniatura de la población general. Dicho con un ejemplo cotidiano: si 20 000 personas elegidas al azar prefieren a un candidato a la presidencia, éste ganará las elecciones. El problema, simplemente técnico, es cómo asegurar que la elección de los 20000 se haya hecho al azar. Pag 134 Si la revolvedora no permite ver las canicas —a diferencia de las empleadas por la lotería —, diremos que los colores están ocultos, como ocurre en las revolvedoras de cemento. Allí tenemos un modelo de variables ocultas. La cuántica sostiene que las canicas no tienen color mientras no las saquemos y que se irán pintando de un color u otro al salir. Las teorías de variables ocultas dicen que ya tienen color y sólo constataremos ese hecho. Ahora sí: bastará con saber los porcentajes de colores que deberían tener las canicas y tomar una muestra. Si la muestra tiene distribución semejante al total conocido, el mundo se comporta sensatamente, Einstein tiene razón y la cuántica está en serios problemas porque las variables existen antes de ser medidas. Sobre estas bases, David Bohm propuso un experimento en el que no era preciso ir a otras galaxias. En la versión del experimento Bohm-EPR se determina la polarización de fotones. Produciendo pares de fotones gemelos se observa la polarización haciéndolos pasar por polarizadores con diversos ángulos de polarización. Si la polarización existe en el fotón antes de ser observada (si es una variable oculta) y los pares de fotones se eligen verdaderamente al azar y los polarizadores también cubren diversos ángulos al azar, entonces la muestra de pares observados será similar a la distribución teórica de las polarizaciones. El experimento Bohm-EPR predice lo que cualquier encuesta: que si está bien hecha nos dará un modelo a escala de la población general, con porcentajes similares de hombres y mu-


Pag 135 jeres, rubios y morenos, altos y bajos. En este caso, nadie pone en duda que tales características existen previamente en la población y en consecuencia pasan a la muestra. Afinando el teorema de Von Neumann, en 1964 el irlandés John Bell estableció las bases matemáticas para llevar al laboratorio ese Gedankenexperiment, al que ahora debemos llamar Bell-Bohm-EPR. Dichos fundamentos se conocen como teorema de Bell y desigualdad de Bell. Nuevos instrumentos, nacidos precisamente gracias a la física cuántica, pusieron a prueba a la madre años después, en la Universidad de París. Pag 136 (Vacía) Pag 137

Capítulo 6: El fin de la paradoja Alain Aspect responde Las «acciones fantasmagóricas a distancia», como llamó Einstein a aquellos resultados puramente lógicos derivados de la física cuántica, pudieron ponerse a prueba cuando la tecnología, impulsada por la misma cuántica, creó los instrumentos adecuados, entre ellos el láser. En 1982, la experiencia de Alain Aspect realizada en la Universidad de París puso en práctica la idea con la que Einstein, Podolsky y Rosen habían «demostrado» en 1935 que la física cuántica conducía a un absurdo y por lo tanto sus bases mismas eran erróneas [véase Ortoli y Pharabond, El cántico de la cuántica, pp. 53-63]. Antes que nada había que producir pares de partículas gemelas. Aspect lo consiguió excitando átomos de calcio por medio de dos rayos láser. La energía de los rayos excita los átomos; luego, al interrumpirse la estimulación, cada átomo vuelve a su estaPag 138 do previo, para lo cual emite dos fotones. Ya se tienen así los gemelos. Ahora se debe medir alguna variable en uno de ellos y esperar a que el segundo sea a su vez medido. Si de manera consistente parecen enlazados aunque haya una distancia separándolos, la cuántica tiene razón y el mundo es absurdo. Con pelotas y colores El experimento de Aspect, explicado con pelotas y colores, era como lanzar dos pelotas de color desconocido, rojo o azul, en sentidos opuestos. La cuántica dice que no tienen color previo antes de verlas. EPR dice, sensatamente, que ya son rojas o azules, aunque no lo sepamos por no haberlas visto. Para comprobar quién tiene razón, pintamos una de ellas, ya en vuelo, de rojo o de azul, y descubrimos que, invariablemente, la otra tiene el color distinto. Si la pinto de rojo, la otra será azul; si la pinto de azul, la otra será roja. El azar dice que al menos algunas veces tendrían que coincidir los colores. Si nunca coinciden es porque no tienen color previo y la gemela toma el opuesto en cuanto


pintamos una de ellas. Pero entre el momento de pintarla y su llegada al detector, donde se ve el color, transcurre un tiempo tan breve que ni un rayo de luz alcanzaría a llegar de la pelota pintada a la otra. En consecuencia no podría enviar ningún mensaje con la información sobre el color. Antes de que llegara el mensaje, aun a la velocidad de la luz, la pelota sin pintar ya estaría en el detector. Pag 139 Con fotones y polarización Repitiendo: para llevar a cabo el experimento EPR, Aspect y sus colaboradores emplearon como partícula el fotón y como variable oculta o desconocida la polarización de la luz. Se habla de polarización de la luz cuando sus ondas vibran en un solo plano; por consiguiente sólo pueden cruzar por filtros que tengan ese mismo ángulo de paso. Es algo así como lo que ocurre con las persianas: en una persiana horizontal únicamente podemos meter una hoja de papel si la colocamos horizontalmente; y en persianas verticales debemos pasar la hoja en posición vertical. Los fotones, tras ser emitidos por los átomos de calcio con el método anteriormente descrito, se dirigieron, en sentidos opuestos, hacia receptores que midieron su polarización. Consideremos dos posibles polarizaciones, p y q, que, para facilitar el ejemplo, lo mismo podemos definir como luz que ondula en dirección vertical, como las olas, o en sentido horizontal, como las víboras. Pero —aquí viene la parte interesante— para evitar una posible comunicación entre los aparatos medidores de algún tipo misterioso que nadie lograra imaginar, y por la cual se avisaran: «Llegó un p, señala tú un q», con lo cual darían un tramposo triunfo a la cuántica, que eso predice, Aspect interpuso, entre la fuente de fotones y los medidores de polarización de un lado y de otro, aparatos que enviaban cada fotón en dirección hacia un medidor P o uno Q. Esa dirección de los fotones cambiaba, al azar, cien millones de veces por sePag 140 gundo. Así pues, nadie podía saber si un fotón serial dirigido hacia un medidor con igual orientación o al su contrario. En el primer caso, el fotón cruzaría y sería detectado. En el segundo caso, no sería detectado. Los medidores de polarización estaban a seis metros y medio de la fuente, pero en el cienmillonésimo de segundo de cada cambio, un fotón habría podido recorrer sólo unos tres metros. Esto es como tener un lanzador de pelotas que las dispara tan rápido que la señal entre un cácher y el de enfrente no alcanza a llegar, ni a la velocidad de la luz, antes de que ambos tengan la pelota en el guante [véase la figura 6.1]. El resultado el experimento de Aspect fue el predicho por la cuántica y contrario a Einstein: si los medidores de un lado captaban un fotón p, los del otro captaban uno q, y viceversa, con la inversión estadística predicha por las matemáticas descubiertas por Dirac y Schródinger, sin que comunicación alguna entre aparatos pudiera explicar el fenómeno. . Con esa velocidad de cambio en la trayectoria de fotones lanzados hacia medidores con polarizaciones opuestas, ya no fue necesario mandar partículas hasta galaxias lejanas, como en el experimento mental de Einstein, Podolsky y Rosen, el famoso EPR. Bastaban seis metros de separación entre detectores: una distancia razonable dentro de cualquier


laboratorio. Aspect puso trece. Para que esta correlación inversa ocurriera, quien no deseara aceptar el extraño enlazamiento de parPag 141 tículas predicho por la física cuántica estaba obligado entonces a aceptar algo peor: que alguna señal debía de haber viajado a velocidad superior a la de la luz para que los detectores se comunicaran entre sí y mostraran consistentemente una correlación entre la polarización del fotón captado: la «acción fantasmagórica a distancia» que tanto enojaba a Einstein. En conclusión, quedaba demostrado que los fotones no habían tenido ninguna polarización, ni p ni q, antes de que alguno de los dos fuera detectado. La polarización la adquiría el fotón aleatoriamente y en su gemelo quedaba determinada la opuesta. Con este experimento quedaba desechada la comunicación entre los receptores. Pero todavía podía ser que fueran los propios fotones los que se avisaran entre sí emitiendo una señal que informara al otro sobre su polarización, así que, describen Ortoli y Pharabond [El cántico de la cuántica, p. 63], Aspect hizo una modificación a su diseño para asegurarse de que tal aviso no ocurriera. Puso un medidor muy cercano a la fuente de fotones y el otro más alejado. La primera medición realizada debía determinar el resultado de la segunda si la cuántica estaba en lo cierto. La segunda medición ocurría en tiempos tan breves que una posible señal del primer fotón no podía alcanzar al gemelo antes de que éste llegara al detector [véase la figura 6.2]. Una vez más ocurrió el más extraño resultado: al mostrar el primer fotón una polarización determinada, el segundo en llegar al detector exhibió la contraria, revelando el Pags 142 y 143


Pag 144 enlazamiento predicho por las nuevas matemáticas. Pero, por la teoría de la relatividad, el primer fotón en llegar y ser medido no podía haberse comunicado con el que aún iba en vuelo, antes de que llegara al segundo receptor, pues ni la velocidad de la luz habría sido suficiente. Penrose, en su comentario sobre este asombroso experimento, concluye: «Ninguno de los fotones por separado tiene un estado objetivo: el estado cuántico se aplica sólo a los dos en conjunto. Ninguno de los fotones tiene, individualmente, una dirección de


polarización: la polarización es una cualidad combinada de ambos fotones juntos» [La mente nueva del emperador, p. 345]. Los resultados demostraban que los fotones no tenían polarización alguna previa a la medición, y que era ésta, la medición, la que al azar determinaba una u otra. Los físicos llaman a estos efectos instantáneos «no localidad», y era a lo que Einstein se refería con «acciones fantasmagóricas a distancia». El fotón gemelo emitido en dirección contraria presentaría la polarización inversa porque estaba descrito por la misma ecuación de onda: la paradoja EPR no era una demostración de que la física cuántica descansara en bases falsas, sino el modo de acción de la naturaleza. Einstein, el sentido común, la sensatez y la noción misma de realidad habían sido refutados. El mundo era absurdo. Pag 145 No separabilidad Ante la incógnita, los físicos se plantearon dos extremos: o no existe el espacio o no existe el tiempo. A esa violación de nuestra noción de espacio se le llama «no separabilidad». Nos dice que los dos fotones son un conjunto indivisible, por mucho que se alejen, hasta que uno de ellos sea objeto de una medición. Corolario: Entonces se puede aplicar la no separabilidad a todo el universo, pues de acuerdo con la teoría del Big Bang, todos los componentes del universo estuvieron unidos, hace unos 15 000 millones de años, en una singularidad y fueron descritos, por tanto, por una misma ecuación de onda... ¿o no? La ruptura entre la relatividad y la cuántica fue así completa. La física cuántica ha seguido poniendo en duda nuestra concepción del mundo. O bien algo está radicalmente mal en el sentido común, incluido el de Einstein, o bien lo está en la física cuántica. Pero si esta ciencia continúa haciendo predicciones con niveles de exactitud más agudos que el radio de un protón, ¿cómo puede estar errada? Revisemos algunos recientes hallazgos que llevan a inusitadas consecuencias las paradojas ya revisadas. Del pasmo a la estupefacción En 1997, un grupo suizo encabezado por Nicolás Gisin empleó fibra óptica para enviar pares de fotones alrededor de Ginebra y los resultados, una vez más, fueron consistentes con la física cuántica y contraPag 146 rios a Einstein: «Sí hay en realidad acciones fantasmagóricas a distancia» [véase Watson, «Quantum Spookiness Wins...»]. Como propone el principio incertidumbre (o de indefinición) de Heisenberg, la propiedades de los fotones creados en pares gemelo no estaban definidas sino hasta el momento de ser medidas en cualquiera de los dos fotones gemelos. Una vez realizada la medición en uno, el fotón gemelo quedaba instantáneamente definido a su vez. La no separabilidad de los gemelos hasta el momento de una medición y su consecuente negación del espacio reaparecía en pruebas con bases técnicas más refinadas. Un año después, en 1998, científicos del Caltech reportaron un experimento por el que


emplearon la no separabilidad para producir teleportación, esto es, «transporte sin cuerpo» y sin pasar a través de ningún medio físico, ni siquiera los puntos del espacio que separan la estación transmisora de la receptora. Ha sido denominada «teleportación cuántica incondicional» [véase Furusawa y otros, «Unconditional Quantum Teleportation»]. La teleportación del grupo californiano, encabezado por A. Furusawa, consistió en el envío de los estados cuánticos de un rayo de luz para reproducirlo. Pero no fue como enviar un plano, sino una reconstrucción del original. Pensemos en un fax para darnos una imagen más cotidiana. Cuando enviamos una fotografía, el aparato convierte la información visual, los colores, las formas y las líneas, en señales eléctricas que viajan por las líneas telefónicas. Luego esas señales recomponen la información Pag 147 en el fax de llegada. Ahora imaginemos un caso en el que no obtuviéramos una copia, sino una reproducción exacta del original, incluido cada átomo, y la lectura del original lo hiciera desaparecer para reaparecer en la otra máquina de fax, sin haber cruzado por los puntos intermedios del espacio. Los científicos creadores de la primera teleportación cuántica incondicional tuvieron el humor cruel de llamar EPR a sus rayos de fotones enlazados, con los que llevaron a cabo las «acciones fantasmagóricas a distancia» detestadas por Einstein y ofrecidas por él como ejemplo contra la naturaleza cuántica de la Naturaleza. La elección retrasada de Wheeler Si las partículas se comportaban de tan diferente manera según fueran observadas o no, como demuestra el experimento clásico de las dos rendijas, ¿qué pasaría si el experimentador-observador retrasara su decisión de observar o no observar hasta que la partícula hubiera pasado por las rendijas, ya fuera por una o por ambas? En el experimento de las dos rendijas los resultados cambiaban no sólo cuando se cerraba una de ellas, sino también cuando se ponían detectores, lo cual elude cualquier explicación sensata. Los cuantos de los que la materia misma está hecha —sean estrellas, galaxias o humanos—, los electrones, se comportan como ondas de luz al pasar por ambas Pag 148 rendijas a la vez y dejar huellas de interferencias, rayas oscuras y claras, en las placas de los investigadores. Son partículas en cuanto se cierra una rendija y así puede determinarse su posición al instante de cruzar. John Wheeler, quien estudió con Bohr en los años treinta, ideó un experimento para atrapar al electrón en el momento de elegir entre ser partícula ser onda. ¿Qué pasaría, se preguntó el alumno de Bohr, si el investigador esperara hasta que el electrón pasara por las dos rendijas antes de decidir sil observa o no? Llamó «elección retrasada» a su experimento mental. Apenas cinco años después fue realizado simultáneamente en las universidades de


Munich y Maryland. En vez de rendijas se empleó un espejo semirreflejante para partir en dos un rayo láser. Así, algunos cuantos, en este caso de luz, serían desviados a un lado, llamémoslos semirrayo A, y otros cruzarían de largo, a través del espejo: el semirrayo B. Luego otros espejos los regresaban hasta un detector. Bien, cuando el diseño no permitía a los investigadores conocer el camino de cada fotón individual, los fotones seguían ambos: en el espejo semirreflectante se partían en dos onditas que regresaban, reflejadas por los dos espejos finales, y producían las rayas clásicas de la interferencia en el detector. Lo mismo que con las dos rendijas. Luego los investigadores instalaron una celda de cristal del tipo que permite, al aplicársele una corriente eléctrica, desviar uno de los rayos hacia un Pag 149 detector auxiliar. Se conocen como celdas de Pockels. Sin corriente, se trata de un simple cristal perfectamente transparente a través del cual pasa el rayo de luz partido. Un generador de señales al azar encendía y apagaba la celda eléctrica después de que el fotón ya había cruzado el semiespejo partidor del rayo y, por tanto, según había mostrado en el paso previo, se había partido cada fotón en dos onditas que formaban los rayos A y B. Era la idea de Wheeler. Pero cuando la celda estaba encendida y enviaba en consecuencia el medio láser A al detector auxiliar, los fotones no mostraban rayas de interferencia en ninguno de los dos detectores, ni siquiera en el primario, a donde siempre volvía el rayo B, para el que no se había dispuesto una celda eléctrica. Por lo tanto, debía concluirse que ambos semirrayos estaban conformados por partículas que no se habían partido en el semiespejo, sino que, como un puñado de canicas ante un obstáculo, unas habían tomado un camino y otras otro, completas y sin partirse. Pero bastaba con apagar la celda y permitir a los fotones del rayo A pasar sin ser observados por el detector auxiliar para que reaparecieran las rayas de la interferencia. La elección ¿Cómo «sabía» el rayo entero, al llegar a donde debía partirse en dos, si debía partirse como canicas que se separan completas en dos grupos o bien como gotas Pag 150 de agua que se parten en dos y cada mitad sigue camino y forma media corriente? La célula eléctrica está colocada después de donde el rayo se parte, y se activa o permanece inactiva no sólo al azar, sino por una elección que se toma después de que el rayo se ha partido, por tanto ya va viajando en dos semirrayos sean de canicas enteras o de gotas partidas. ¿Y cómo «sabía» el rayo B si el rayo A estaba cruzando por un cristal inerte o activado para desviarlo? Si arrojamos un puñado de canicas contra la esquina de un mueble, ¿cómo puede cambiar de comportamiento la corriente que pasa por la derecha según lo que ocurra a la de la izquierda? Es más, ¿cómo puede saber si se encenderá o no un aparato? Tendríamos que hablar de premonición. La falacia tiene lugar, explica Wheeler, porque pensamos que un fotón (o un electrón) son ondas o partículas antes de observarlas. Pero los elementos cuánticos, por el principio de incertidumbre, no son ni ondas ni partículas sino algo indeterminado hasta el momento de una medición. Ya lo había dicho a principios del siglo XVIII el obispo de Cloyne, Irlanda, George Berkeley: ser es ser percibido.


Una gran maquinaria o un gran pensamiento Leonard Mandel, en la Universidad de Rochester, demostró en 1991 algo todavía más asombroso: basta la posibilidad de conocer una ruta determinada en una Pag 151 corriente de fotones para que éstos no se comporten como ondas que pasan por dos rutas a la vez, sino como partículas que van por una o por otra [véase Horgan, «Quantum Philosophy»]. Primero, Mandel dividió en dos un rayo láser empleando un semiespejo (un espejo que refleja sólo la mitad de la luz y deja pasar otra mitad, como en el experimento antes descrito); así consiguió dos rayos: llamémoslos otra vez rayos A y B. Luego, empleando lentes que parten un fotón en dos con la mitad de la energía cada uno, dividió cada fotón de los dos rayos láser en dos fotones. Así obtuvo cuatro rayos: a, a', b y b'. Mezcló a' y b' en un solo rayo y los envió a un detector. Los otros dos rayos, a y b, fueron a otro detector. Entre tantas particiones, subparticiones y mezclas, no había forma de saber cuál camino seguiría un fotón en particular. En este caso los fotones tomaron, cada uno, ambas direcciones en el semiespejo (comportándose como ondas) y cada uno pasó por la lente dividiéndose en dos (de nuevo como onda). Los detectores mostraron la señal de interferencia propia de las ondas. Nada distinto a lo sabido, salvo que este diseño permitía bloquear a' o b'. Entonces desaparecieron las rayas oscuras y claras de la interferencia en los detectores. Los fotones se comportaban como partículas simplemente porque ahora los investigadores podían determinar la ruta seguida por los fotones a y b a lo largo de las particiones del rayo en el semiespejo y en las lentes. Les bastaba con medir los tiempos de llegada de éstos contra el tiempo de a' o b', la vía no bloqueada. Pag 152 Una vez más: al llegar al semiespejo, cada fotón individual del rayo de luz debe «decidir» si se parte como una gota de agua contra una esquina o bien rebota a derecha o izquierda como una canica. Luego viene la lente que lo parte en dos fotones de energía menor y sólo después se encuentra o no el obstáculo. Al llegar a él, el fotón ya había tomado su primera «decisión»: partirse como onda y tomar las dos direcciones o sólo una, como partícula, ante el semiespejo. ¿Cómo «sabe» si adelante habrá un obstáculo? ¿Y cómo «sabe» que, dado el diseño del laberinto, ese obstáculo permite descubrir información ilegal? No puede, si es onda, haber seguido un camino preciso, de partícula. Pero el laberinto de Mandel lo permite. Así que la sola posibilidad cancela al fotón como onda y hace que se comporte como partícula. Richard Feynman expone estos resultados bajo la sencilla regla empírica: «Si los caminos son distinguibles, entonces la luz se comportará como partículas y no habrá interferencia. Si los caminos son indistinguibles, entonces la luz se comportará como onda e interferirá consigo misma» [Watson, «"Eraser" Rubs Out Information...»]. La «conferencia celebrada en honor del profesor John A. Wheeler», a la que convocó The New York Academy of Sciences en 1995, tuvo numerosas ponencias con diseños similares al descrito, publicadas en el volumen 755 de los Annals of The New York


Academy of Sciences con el título Fundamental Problems of Quantum Theory. Pag 153 Refinamientos subsecuentes en la misma dirección de este experimento permitieron cuatro años después, en 1996, emplear esta paradoja del mundo cuántico para examinar objetos sin observarlos en absoluto: sin que los toque nada, ni un rayo de luz ni cualquier otra cosa. Investigadores de la Universidad de Innsbruck han conseguido lo que llaman «interaction-free measurements»: mediciones sin interacción alguna con el objeto medido. La imagen la forman fotones que jamás han tocado el objeto, pero que pertenecen a un ramal de dos en que se ha partido un láser. Ninguno de los dos ramales del rayo partido toca el objeto, pero uno de ellos «sabe» cómo es y dónde está. Si Mandel demostró que la sola posibilidad de conocer la vía seguida por un fotón hace que se comporte como partícula, los investigadores de Innsbruck emplean esa base, en diseños mucho más complejos, para ver en total ausencia de interacción con el objeto «visto» [véase Kwiat, Weinfurter y Zeinlinger, «Quantum Seeing in the Dark»]. Feynman y los viajes al pasado «Haciendo las cosas todavía más raras, en la formulación según Feynman de la QED [electrodinámica cuántica], un positrón es equivalente a un electrón moviéndose hacia atrás en el tiempo» [Johnson, Pire in the Mind, p. 138]. Feynman es quizá el más importante entre los físicos cuánticos de la generación posterior a los padres fundadores. El 15 de septiembre de 1949, en Physical Review, publica Feynman el arPag 154 tículo «Space-time Approach to Quantum Electrodynamics». Allí postula para el positrón «componentes de tiempo negativo». La historia del positrón, iniciada en el «mar de Dirac» y las bromas sobre elefantes pensativos, ha seguido siendo tormentosa como su nacimiento marino. Tras el positrón fueron postuladas antipartículas para cada una de las existentes, antiquarks, antimesones y todo un universo-espejo que es la antimateria. Conocido por los estudiantes de física sobre todo por los «diagramas de Feynman», los gráficos por él inventados para facilitar los complejos cálculos necesarios en la física de partículas, Feynman recibió en 1965 el premio Nobel. En uno de los ejemplos expuestos a menudo en sus conferencias y artículos, un trazo del diagrama representa un electrón desplazándose libremente en el vacío. Al entrar a un fuerte campo electromagnético, la trayectoria del diagrama muestra la correspondiente alteración de la trayectoria. La aparición de un positrón (el electrón de energía negativa de Dirac) se muestra en el diagrama como una línea que surge cuando el electrón ya ha pasado, pero remonta el curso del tiempo, lo alcanza y se aniquilan. El positrón es un electrón viajando al pasado. El artículo de 1949 En su artículo de 1949 «Space-Time Approach to Quantum Electrodynamics», Feynman lo dice así: Pag 155


«Positrón states being those with negative time component» [p. 776]. Está hablando de los estados inicial y final de un electrón. Entre esos extremos es donde el electrón puede estar en momentos de tiempo negativo. Dicho en español: en el pasado. Pero no le basta esa audacia. Descubre cómo cierto problema (no importa describirlo) «puede ser resuelto considerando que las masas de las partículas y los cuantos tienen partes imaginarias negativas infinitesimales» [«Space-Time Approach...», pp. 776-780]. Aquí, Feynman emplea el término imaginario en el sentido matemático, muy distinto del habitual. Los números imaginarios no son los que imaginamos, sino los basados en la raíz cuadrada de -1, que "se expresa por la letra i Los números imaginarios toman su nombre del hecho de que no pueden ser colocados sobre la recta de los números reales, donde están -2, -1, O, 0.5, 3, 3.14159..., 5, 5.999, etc. Feynman nos propone que las partículas de las que todos estamos hechos tienen partes de algo tan imposible de figurar como la «masa imaginaria negativa». En términos terrestres, la masa es el peso. Puedo decir que algo es tan pequeño que pesa muy, pero muy poco. Ya es difícil concebirle el hecho de que algo exista y no pese nada. Pero ¿que pese menos que nada? ¿Cómo sería una manzana que pesa -50 gramos? Es una manzana tal que, puesta sobre una balanza, hace que el platillo donde la colocamos no sólo permanezca inmóvil — eso apenas es la masa cero —, sino que se levante. Eso es la masa negativa. ¿Y la «imaginaria negativa»? No hay ejemplos Pag 156 posibles, no hay imágenes, sólo hay ecuaciones y están en las páginas citadas. Ya lo dijo el mismo Feynman: «Nadie entiende la física cuántica.» Resulta difícil decidir qué interpretación del positrón es más contraria al sentido común: una partícula constituida por energía negativa, como dice Dirac (con las implicaciones relativistas que eso tendría para la masa... masa negativa), o un electrón "común, hecho de energía común viajando al pasado. Pero el positrón es un hecho y también es un hecho que es idéntico en todo al electrón, salvo que se desvía a la inversa en un campo magnético. Y aquí ha aparecido otra de las grandes interrogantes de la física cuántica: ¿por qué la masa de los diversos electrones es tan absolutamente idéntica y sin la más infinitesimal variación? La respuesta del venerable John Wheeler, director de tesis de Feynman en la Universidad de Princeton, es para leerse varias veces: porque todos los electrones son uno, uno solo y el mismo electrón. Todos los electrones son iguales, porque no hay más que uno en todo el universo [véase Von Baeyer, «Tiny Doubles»]. Este único electrón aparece una y otra vez, en cada átomo de cada molécula de cada objeto, ser vivo o no, planeta, estrella, galaxia, cúmulo de galaxias. El único electrón viene del pasado, lo observamos en el presente y continúa hacia el futuro, regresa en el tiempo como un positrón (la antipartícula del electrón) y vuelve al presente, que fue pasado cuando venía del futuro y es futuro cuando Pag 157


regresa a un pasado más lejano. Es una danza que llena el espacio y el tiempo. Wheeler llega a esa conclusión por los siguientes pasos que Forward enumera así: 1) Todos los electrones son producidos inicialmente mediante la creación de un par electrónpositrón; es decir, no se puede hacer un electrón sin hacer un positrón al mismo tiempo; 2) todos los electrones y positrones desaparecen alguna vez en un proceso de aniquilación electrónpositrón; 3) todas las trayectorias que los electrones y positrones recorren en el espacio-tiempo comienzan y terminan con el comienzo o fin de otro electrón o positrón; 4) eso significa que todas las sendas están unidas por los extremos en una larga trayectoria que zigzaguea de atrás para adelante en el espacio y el tiempo; 5) por tanto: si el positrón es sólo un electrón que retrocede en el tiempo, todos los electrones y positrones que ahora observamos en el universo son un solo electrón visto en diferentes tramos de una única y larga senda de electrones [Explorando el mundo de la antimateria, p. 44].

No es, pues, que sean idénticos, sino que son el mismo electrón. Ahora se entiende la razón de que Richard Feynman, levantando los hombros, comente que nadie entiende la mecánica cuántica. Pag 158 (Página Vacía) Pag 159

Capítulo 7: El invitado faltante Faltas contra la belleza Ya desde que las masas del electrón, el neutrón y el protón fueron confirmadas repetidamente en diversos laboratorios había resultado sorprendente la desproporción entre esos elementos de la naturaleza. Las matemáticas lo señalaban, el laboratorio lo confirmaba. No había error: el protón era 1836 veces más pesado que el electrón. Tal ausencia de armonía era muy inquietante. Guiados más por motivos estéticos que científicos, los físicos buscaban una explicación sin conformarse con un sencillo «Así es y basta». Nunca se dan por vencidos. La verdad y la belleza van juntas, dijo Platón, pero es al parecer también una profunda y no siempre consciente certeza en la ciencia. «Una ley física debe poseer belleza matemática», escribió Paul Dirac [véase Corby y Kragh, «P. A. M. Dirac and the Beauty of Physics»]. Y no es nada bello un diminuto chícharo de un gramo girando en torno a una sandía de casi dos kilos. Un matrimonio muy ridículo. Pag 160 Luego el también hermoso modelo basado en tres partículas se vino abajo. Ya no hubo sólo electrones, protones y neutrones para la materia, fotones para la energía. El zoológico se fue llenando de raras bestias que se acumularon por decenas. Otra vez: la naturaleza no podía estar constituida así,: por centenares de diversas partículas. ¿Y por qué no? El creyente puede contentarse con decir que así lo quiso Dios, el no creyente puede conformarse diciendo; que así es la Naturaleza. Pero el científico siente, más allá de toda prueba, que no puede ser así. Y no puede ser simplemente porque es confuso, arbitrario, escandaloso y feo.


Algunas de las partículas resultaban tan arbitrarias como el muon, en casi todo idéntico a un electrón, salvo que pesa 200 veces más. Isidor Isaac Rabi, quien obtendría el premio Nobel, lo recibió con la frase de disgusto a un mesero descuidado: « ¿Y quién pidió esto?» Pero el muon allí estaba. El quark Faltaba una sorpresa para redondear lo que hoy llamamos modelo estándar de la física de partículas: ni el protón ni el neutrón, las partículas constituyentes del núcleo atómico, eran partículas elementales. Estaban compuestas por partículas, éstas sí elementales hasta ahora (aunque bajo sospecha), y por su respectivo cuanto de energía que las une: los quarks y los gluones, respectivamente. Murray Gell-Mann Pag 161 tomó el nombre «quark» de Finnegans Wake, la última novela de Joyce, y, según dicen, más ininteligible que la física cuántica por su invención de palabras y con algunas similitudes con el mundo subatómico, pues los personajes aparecen, se mezclan y desaparecen como guiados por el principio de incertidumbre. Lo cual también lo aproxima al burro de Sancho y, por supuesto, al gato de Schródinger. Los gluones obtuvieron su nombre de manera más mundana: de «glue», pegamento en inglés, porque pegan un quark con otro. En 1964, Murray Gell-Mann y Yuval Ne'man, por una parte, y George Zweig por otra, propusieron de manera independiente la teoría de los quarks. Así, los centenares de partículas descubiertas quedaron reducidas a una con seis «sabores» [véase Voss, «Marking the Stuff of the Big Bang»] y cuyas diversas combinaciones producían distintas partículas, ninguna de ellas elemental, o, es decir, constituida por un solo quark. Dos hacen un mesón, tres un protón, tres en otra combinación nos dan un neutrón. Volvió el orden a la acumulación de partículas nuevas descubiertas incesantemente por los enormes aceleradores que rompen átomos y núcleos a cada vez mayores energías. Todas eran combinaciones de quarks. Los quarks recibieron nombres que no sugieren ninguna relación con el significado de la palabra en el mundo cotidiano: «up», «down», «strange», «charm», «bottom» (o «beauty») y «top» (o «truth»), comprobado en 1994. Protones y neutrones están formados Pag 162 por tres quarks. Los protones tienen dos up y un down los neutrones a la inversa, dos down y un up. Así que para construir la materia que forma galaxias y seres humanos bastan dos quarks, up y down, y electrones suficientes para equilibrar el átomo. Otras tres partículas elementales: un número que a todos nos gusta. Habría que añadir la partícula predicha en los años treinta por Wolfgang Pauli, el neutrino. Para la que la materia común es tan translúcida que, procedente del Sol, cruza nuestro planeta sin apenas mostrar algún disturbio en su trayectoria. Pero cuatro partículas tampoco están mal para explicar el universo. El gluon


Si el fotón es el cuanto de energía electromagnética, el gluon es el cuanto de la fuerza nuclear fuerte que une a los quarks en protones o neutrones y a éstos en núcleos atómicos. La carga de la fuerza fuerte se describe por un color. Si la carga eléctrica puede ser positiva o negativa, los portadores de la fuerza color son rojo, azul y verde [véase Greene, The Elegant Universe, p. 125], sin que, de nuevo, el nombre indique ni remotamente nuestra idea de esos colores. Así que, revisada la receta para construir un protón, se debe añadir que de los tres quarks necesarios, dos up y un down, cada uno de ellos debe tener un «color» o carga diferente: rojo, verde y azul. El neutrón, con dos quarks down y uno up, también debe tomar cada Pag 163 uno de ellos en color diferente. La suma de los tres colores primarios da una carga neutra o «blanca» a la fuerza color. Las fuerzas Las fuerzas en el universo también han quedado ordenadas en cuatro: 1) el electromagnetismo, cuyo mensajero es el fotón, y que es la luz visible, el radio, los rayos X, todo el espectro no visible de la luz y cuanto fenómeno eléctrico y magnético llena la naturaleza, el más elemental de los cuales sería la carga eléctrica del electrón, transportada por el fotón; 2) la fuerza nuclear fuerte, transportada por el gluon, que se ejerce únicamente en las minúsculas distancias del núcleo atómico para unir quarks en protones y neutrones y a éstos en núcleos de átomos; también une quarks en otro tipo de partículas; 3) la fuerza débil, responsable de la radioactividad del uranio o el cobalto, cuyos mensajeros son los bosones débiles; y, por último, 4) la fuerza gravitatoria, que nos une al planeta, a los planetas en sistemas solares, a éstos en galaxias, a las galaxias en cúmulos, a los cúmulos en supercúmulos y a éstos en estructuras aún mayores. Las cuatro fuerzas son transportadas por cuatro partículas: fotón, gluon, bosones débiles y graviten. Es un vaivén de partículas lo que explica toda fuerza en el universo. Un intercambio de gluones entre quarks los pega en protones, neutrones, mesones y otras partículas de peso medio y pesado; un ÍnterPag 164 cambio de fotones explica la atracción y la repulsión eléctricas entre los átomos. Estos intercambios han quedado descritos en tres formidables teorías. Resumen: el modelo estándar La materia está hecha, pues, de átomos formados por electrones externos y quarks up y down en el centro, formando protones y neutrones. Estos dos últimos, por integrar el núcleo del átomo, reciben el nombre genérico de nucleones. El protón tiene carga eléctrica positiva y el neutrón la tiene neutra; de ahí su nombre. Están unidos por mensajeros de fuerza llamados gluones. Hay además, fuera del átomo, neutrinos a los que nadie encuentra utilidad. El electrón se considera perfectamente puntual, una partícula sin dimensiones, sin radio, de carga negativa y más de 1800 veces menor que los nucleones. Las fuerzas, como ya dijimos, son cuatro: electromagnetismo, fuerza fuerte, fuerza débil y


gravitación. El electromagnetismo comprende aspectos que parecen diversos en la vida cotidiana y Maxwell descubrió que proceden de un sustrato común, como la luz, el radio, los rayos X, la electricidad, el magnetismo. Su quantum o cuanto de energía es el fotón. La fuerza fuerte une los quarks en protones o neutrones. Su cuanto es el gluon y viene en ocho presentaciones. La fuerza débil es responsable de ciertos aspectos de la radioactividad y sus cuantos se conocen como bosones débiles, que vienen en tres Pag 165 tipos: W+, W~ y Z°. La gravitación es la fuerza más débil en pequeñas distancias y se predice como portador un cuanto llamado gravitón. Con electrones, quarks y las cuatro fuerzas bastaría para entender el universo. Pero no es tan simple. Hay otras dos familias de partículas que no forman átomos, aunque están bien relacionadas con las de la primera familia descrita. El electrón tiene dos primos enormes, el muon y la partícula tau. Los dos quarks que nos bastan para tener materia tienen, cada uno, otros dos primos; up tiene a charm y a top, down tiene a strange y a bottom. El neutrino tampoco está solo y tiene dos primos: el neutrino-muon y el neutrino-tau. Complicación de la clasificación La clasificación de las partículas se ha complicado. Las partículas elementales, no compuestas, como electrones y neutrinos, reciben el nombre de «leptones», del griego «leptós», ligero. Leptones y quarks integran los fermiones, llamados así en honor de Enrico Fermi, y siguen el principio de exclusión de Pauli «según el cual no puede haber dos de tales partículas en el mismo estado de movimiento. La presencia de un electrón en un estado específico (por ejemplo, en un particular punto del espacio) excluye de allí a otros» [Polking-horne, The Quantum World, p. 39]. Los protones y neutrones, compuestos por quarks, reciben el nombre de «hadrones» con otras partículas como los mesones pi o Pag 166 piones. Los mesones tienen ese nombre porque se encuentran entre los ligeros electrones y los pesados protones: «mesos» significa «intermedio» en griego. El mesón mu es parecido a un electrón, pero 200 veces más pesado; su nombre se condensó en «muon». El mesón pi es aún más pesado. También hay kaones. Las partículas más pesadas se conocen como «bariones», del griego «barós», pesado. Entre ellas encontramos, de nuevo, al protón y al neutrón, a los que podemos llamar, por tanto, nucleones, hadrones y bariones. Los cuatro mensajeros de las fuerzas, llamados genéricamente «bosones» en honor al físico hindú Satyendra Nath Bose, no siguen el principio de exclusión de Pauli. Por el contrario, «positivamente les gusta estar en el mismo estado juntos», dice Polkinghorne. Unos y otros tienen su antipartícula, ante la cual desaparecen en un estallido de energía pura equivalente a sus masas. Algunos, como el fotón y el pión neutro, son su propia antipartícula [véase Weinberg, The Discovery of Subatomic Partióles]. Preguntas sin respuesta No acaba de estar libre de fealdades el modelo estándar de la física cuántica: la más alta culminación del espíritu humano. Entre ellas algunas en verdad repelentes, como que el


quark top sea 40 200 veces más pesado que el común quark up que hace protones y neutrones, o bien que las partículas tau sean 3 520 Pag 167 veces más pesadas que un electrón. Son números muy raros que parecen dictados por el azar y que conducen a buscar más abajo, más adentro de la materia, donde pudiera encontrarse un común denominador, único, hermoso, elegante, como lo fue el electrón para la química cuando quedó establecido que la simple suma de un elemento idéntico producía toda la diversidad de los elementos y la arbitrariedad del mu-do. Entre el hidrógeno, el plomo y el oro no hay más que una diferencia en el número de electrones. Por supuesto, con los suficientes protones para equilibrar sus cargas eléctricas. El aparente desorden entre gases, sólidos, líquidos, con sus diversas texturas y características, el humor explosivo del hidrógeno y la tranquilidad del nitrógeno, la ductilidad y el brillo del oro, la dureza del hierro: electrones más, electrones menos, y eso es todo. Es la corona final de la química. Podemos decir que desde entonces la química está concluida. Por supuesto, se inventarán nuevas moléculas, se añadirán elementos más pesados. Pero la investigación básica, fundamental, está hecha, y terminó con el descubrimiento del electrón como explicación de los elementos. La física de partículas busca otro tanto. Ha aparecido orden en el zoológico de partículas, pero ¿un quark 40 200 veces más grande que otro? ¿Y por qué ese 200 sobrante y no 40000 cerrados? Se ha propuesto un elemento que explica al electrón y al quark: la cuerda. Revisaremos esa teoría, quizá para siempre fuera de toda posible comprobación, en el capítulo Pag 168 ocho. Por ahora, todavía hay más motivos de asombro en el mundo de las partículas que no lo son. Las unificaciones Tres de las cuatro fuerzas del universo han podido unificarse al sondear la materia hasta niveles donde muestra que son parte de un elemento aún más básico, de un denominador común. El electromagnetismo, ya producto a su vez de la unificación de Maxwell, fue incorporado a la materia por los físicos como una danza entre fotones emitidos por electrones, pares electrón-positrón surgidos de un fotón, y la relatividad especial. Tenemos así electromagnetismo, cuántica y relatividad incorporados en la teoría llamada! <electrodinámica cuántica», QED por sus sigIas en inglés (quantum electrodynámics), en un juego con la idea de demostración concluida, pues se emplean las mismas letras, QED, para expresar «Quod Erat Demonstran-dum», «lo cual estaba en demostración», al finalizar una prueba matemática, por ejemplo, un teorema. Una lúcida serie de conferencias titulada QED: The Strange Theory of Light and Matter hizo de Richard Feynman uno de los principales arquitectos de esta teoría que describe la relación entre átomos y cargas eléctricas como un intercambio incesante de fotones que


van y vienen, vibrando continuamente a través del espacio y del tiempo. Sostiene Greene: Pag 169 El éxito de la electrodinámica cuántica inspiró a otros físicos en las décadas de 1960 y 1970 a emplear una aproximación análoga para desarrollar una comprensión cuanto-mecánica de las fuerzas débil, fuerte y gravitatoria. Respecto de las fuerzas débil y fuerte, ésta demostró ser una inmensamente fructífera línea de ataque. En analogía con la electrodinámica cuántica, los físicos pudieron construir teorías de campo cuánticas para las fuerzas fuerte y débil, llamadas cro modinámica cuántica y teoría cuántica electrodébil [...]. Con su trabajo ganador del premio Nobel, Sheldon Glashow, Abdus Salam y Steven Weinberg mostraron que las fuerzas electromagnética y débil están unidas naturalmente [...] aunque sus manifestaciones parezcan tan completamente distintas en el mundo alrededor de nosotros [...]. En esencia, mostraron que a suficientemente alta energía y temperatura —tal como la ocurrida una mera fracción de segundo después del Big Bang — los campos de fuerza electromagnético y débil se disuelven uno en otro (The Elegant Universe, p. 122].

Después, cuando la temperatura comienza a caer, ese campo unificado original se cristaliza en las diversas fuerzas que conocemos y que nos parecen tan notoriamente divergentes, como la gravitación y la luz. La gravitación se ha resistido al entusiasmo unificador de los físicos, pero ya vimos que otras fuerzas no. Así como el electromagnetismo y la fuerza débil resultaron indistinguibles y se disuelven una en la otra, en una sola fuerza, a las altísimas temperaturas que sólo existieron al inicio del tiempo, también la fuerza fuerte ha quedado enmarcada en una sólida teoría. Pag 170 La teoría que analiza la colorida danza de los gluones y los quarks, la fuerza fuerte, se llama «cromodinámica cuántica», QCD por las iniciales de quantum chromodynamics. El chromo («color» en griego) le viene porque la carga de los quarks recibió el nombre de «color» y ya vimos que son tres; colores. El aspecto más asombroso de esta teoría es su descripción del vacío como cualquier cosa menos vacío. El espacio vacío está lleno de un mar de pares de quarks virtuales que brotan por nanoinstantes en una vibración de perenne animación causada por el principio de incertidumbre [véase Voss, «Making the Stuff of the Big Bang»]. Las partículas virtuales incesantemente toman prestada energía al espacio mismo y salen de la nada sólo para desaparecer al instante [véase Marschall, «Nuil and Void»]. Si no hay límites claros entre el átomo y el vacío, tampoco los hay entre la existencia y la no existencia, al menos en el mundo subatómico. Las tres fuerzas no gravitatorias y las tres familias de materia ya vistas, una sola de las cuales basta para crear toda la materia y que conforman el «modelo estándar» de la física, poseen relaciones que nos dejan llenos de preguntas. Sigamos las que se hace Greene: ¿Por qué hay tantas partículas fundamentales, especialmente cuando parece que la gran mayoría de las cosas en el mundo a nuestro alrededor sólo necesitan electrones, quarks up y quarks down? ¿Por qué hay tres familias? ¿Por qué no una familia o cuatro familias o cualquier otro número? ¿Por qué las partículas tienen

Pag 171


una masa en apariencia azarosa, por qué, por ejemplo, la tau pesa 3 520 veces más que un electrón? ¿Por qué el quark top pesa unas 40 200 veces más que el quark up? Son estos números tan extraños, al parecer debidos al azar. ¿Ocurren por casualidad, por alguna elección divina, o hay una explicación científica comprensible para estos rasgos fundamentales de nuestro universo? [The Elegant Universe, pp. 9-10].

Añadiríamos: de las cuatro fuerzas, tres de sus mensajeros son partículas sin masa. El fotón, el gluon y el graviten tienen masa cero. ¿Qué significa «masa cero»? Las masas dadas aquí son las masas de las partículas en descanso. El hecho de que una partícula tenga masa cero significa, de alguna manera, que no puede estar en descanso. Un fotón nunca está en descanso, siempre se está moviendo a 300000 kilómetros por segundo [Feynman, Six Easy Pieces, p. 43].

El nuevo malestar Hay de nuevo el sentimiento en la física de que falta algo muy importante. No un detalle, otra partícula, un quark, un bosón, sino una total renovación equivalente a la que se dio en la tercera década del siglo XX. Falta un nuevo punto de vista, más global, desde donde todas estas extrañas casualidades caigan armoniosamente en una nueva imagen del universo. Tenemos dos grandes teorías para explicar el universo: la relatividad general la empleamos cuando Pag 172 tratamos con distancias estelares, galaxias en movimiento y velocidades cercanas a la de la luz. Pero cuando debemos estudiar los componentes de esas mismas galaxias, estrellas y observadores de estrellas, los átomos con sus electrones y quarks, debemos elegir otra teoría, la física cuántica. ¿Cómo pueden ser mutuamente incompatibles las dos teorías que describen el mundo con tal precisión? Guiadas por las ecuaciones de la relatividad, van y vienen naves espaciales que se dan vuelo gravitatoriamente empleando la cercanía de un planeta para acelerarse rumbo a los confines del sistema solar. La deformación del espacio-tiempo en su más alto grado, los hoyos negros, también se han visto confirmados luego de su predicción hace décadas por las ecuaciones relativistas. La relatividad es correcta. También lo es la cuántica. Ha predicho cuanta partícula, y antipartícula, hoy tenemos observada. Ha dicho cuál sería su masa, su spin, su carga eléctrica, cómo podríamos observarla, y un buen día allí estuvo, cumpliendo con todos los rasgos previstos, exacta a las ecuaciones hasta la milbillonésima. La cuántica es correcta. Pero no lo pueden ser ambas, subraya Greene. Cada una ha comprobado su enorme poder y es por tanto correcta en su campo, lo enorme o lo minúsculo. Y con todo, los seres humanos no podemos creer que el universo tenga esa división en su propio seno aunque los intentos por incorporar la gravedad a la física cuántica hayan fallado. Las fluctuaciones del vacío predichas por la incertidumbre convierten el intenPag 173


to de unificación en un desastre con predicciones aberrantes. Cuando las perfectas ecuaciones que nos dan la masa exacta de un hoyo negro penetran hasta la región donde el espacio danza al ritmo de las ecuaciones de Heisenberg, la danza se vuelve monstruosa y las ecuaciones afirman sinsentidos. Veamos algo más sobre ese que parece uno de los mayores obstáculos entre la relatividad y la cuántica: el vacío que no lo es tanto. El mayor obstáculo entre relatividad y cuántica: la fuerza del vacío Se llama longitud de Planck a una fracción de centímetro que se escribe con un punto, 32 ceros y un 1 (repitiendo el ejemplo, si infláramos un átomo hasta el tamaño de todo el universo, la longitud de Planck habría crecido al tamaño de un árbol). El principio de incertidumbre predice, para niveles en la longitud de Planck, una extraña descripción de un vacío viviente en el que pares de partículas y antipartículas brotan de la nada a la existencia y de nuevo regresan a la nada sin otra causa que las fluctuaciones de «incertidumbre» del espacio mismo. Son pares de partículas virtuales, que toman su existencia en préstamo debido a que el principio de incertidumbre permite esa posibilidad. Esta hermosa y terrible coreografía de la nada ha sido comprobada por Steven Lamoreaux, del Laboratorio Nacional Los Alamos. Siguiendo las ecuaPag 174 ciones de la física iniciada por Planck y Einstein, culminada por Heisenberg, De Broglie y Schródinger, incluso en el cero absoluto, el vacío germina en actividad «virtual». Es la energía ahora llamada «del punto-cero». «Por décadas después que Planck y Heisenberg describieran la energía punto-cero [zero-point energy], los físicos prefirieron ignorarla» [Seife, «The Subtle Pulí of Emptiness»]. Pero pronto la energía del vacío demostró que no podía seguir siendo ignorada. Científicos de la Philips en Holanda, Hendrick Casimir y Dik Polder, descubrieron que las fluctuaciones del vacío explicaban cierta débil atracción entre átomos neutros que, por ser neutros, no debían mostrarla. Pero, además, el alejamiento de los átomos producía una pauta muy particular en el debilitamiento de la atracción. Si se aceptaba la energía de punto-cero, postulada por la física cuántica y olvidada por extravagante e inmanejable, se comprendía esa atracción entre los átomos. Se le llamó efecto de Casimir-Polder y fue medida por primera vez con exactitud en 1993. El punto-cero La energía de punto-cero se revela por la atracción que parece unir a dos superficies separadas por una distancia minúscula. Si se consiguiera acercar tanto las dos superficies que se impidiera el surgimiento de partículas virtuales en su interior, las del exterior harían una pequeña presión contra las superficies, Pag 175 uniéndolas. Lamoreaux dispuso dos superficies de cuarzo recubiertas de oro a menos de un micrómetro, una de ellas conectada a un péndulo de torsión y la otra fija. Así creó un espacio tan reducido que sólo permitía algunas longitudes de onda; por lo tanto, había


muy escasas partículas virtuales en el interior mientras afuera brincoteaba alegremente una multitud con todas las longitudes de onda. Éstas produjeron presión contra las superficies de cuarzo y el sutil movimiento fue transmitido a los instrumentos. Lamoreaux midió la presión del vacío, la energía de punto-cero, con una diferencia menor al cinco por ciento respecto del predicho por la teoría [véase Seife, «The Subtle Pulí of Emptiness»]. Einstein encontró esa fuerza del vacío derivándose naturalmente de las ecuaciones relativistas y mostrando que el universo no era estático. Pero ocurrió antes de que Edwin Hubble descubriera, a fines de la década de 1920, la expansión del universo, así que Einstein, como Planck, introdujo en sus ecuaciones una constante ad hoc, la necesaria para mostrar un universo estático. La llamó «constante cosmológica». Tras el descubrimiento de Hubble y la comprobación de que el universo se expande, Einstein llamó a su componenda el más grande error de su vida. Espuma cuántica Así pues, la nada resultó llena de energía punto-cero, permeada por un campo que para algunos físicos surPag 176 ge del principio de incertidumbre y, para otros, en la j teoría competitiva, «un campo punto-cero es tan fundamental como la existencia del universo mismo» [Haisch, Rueda y Puthoff, «Beyond E=mc2»]. Está allí como toda la creación. El campo de energía puntocero es una perpetua danza entre el ser y el no ser, un ir y venir de pares virtuales de la inexistencia a la existencia y de nuevo a la inexistencia, aparición y desaparición: el vibrante tejido del espacio-tiempo bajo la fuga perpetua conducida por un tema único: el principio de incertidumbre. Basta una fluctuación azarosa de la incertidumbre para que puedan surgir a la existencia un par de cuantos opuestos, digamos un electrón y un positrón, que se aniquilarán y volverán a la nada. Todo está sujeto a las fluctuaciones cuánticas inherentes al principio de incertidumbre, aun el campo gravitatorio. Si bien el razonamiento clásico implica que el espacio vacío tiene campo gravitatorio cero, la mecánica cuántica muestra que en promedio es cero, pero que su valor real ondula arriba y abajo debido a fluctuaciones cuánticas. Es más, el principio de incertidumbre nos dice que la medida de las ondulaciones del campo gravitatorio será mayor conforme enfoquemos nuestra atención en menores regiones del espacio [Greene, «The Elegant Universe», p. 127].

Es éste el obstáculo para unificar la relatividad y la física cuántica, subraya el mismo autor. Este frenesí subatómico en la energía, esta «espuma cuántica», como la llamó John Wheeler, tiene una manifestación como masa, de acuerdo con la conocida Pag 177 ecuación «La energía es igual a la masa por la velocidad de la luz al cuadrado». Tres físicos lo plantean más rotundamente al sugerir una reinterpretación de ésa, la más conocida ecuación de Einstein, y quizá de toda la física, en los siguientes términos: «Deberíamos decir que la masa no es equivalente a la energía. La masa es energía» [Haisch, Rueda y Puthoff, «Beyond E=mc2»]. Ahora sólo nos falta saber lo que es la energía. Preguntemos a Feynman, el premio Nobel favorito en estas citas. Ésta es su respuesta: «Es importante darse cuenta de que en


física, hoy, no tenemos conocimiento de qué es la energía» [Six Easy Pieces, p. 71]. No hay duda: así se comporta el vacío, y cuando el tiempo es lo bastante breve, la energía toma a la existencia instantes prestados, se manifiesta como masa, como materia, y luego paga el brevísimo préstamo volviendo a la nada. En ese frenético mundo, las ecuaciones relativistas estallan. Si durante sus últimas tres décadas Einstein soñó con una teoría unificada de la física y a encontrarla dedicó todos sus esfuerzos, ahora parece como si el universo fuera irreconciliable... salvo que tenga razón el sentimiento generalizado de que el conflicto sólo está producido por la perspectiva desde la cual miramos, de que hay algo profundamente equivocado en el horizonte limitado desde el cual estamos observando. Debe de ser eso. Por ejemplo, Steven Weinberg considera probable que la teoría general unificadora ni siquiera vaya a ser formulada de manera alPag 178 guna en el espacio-tiempo [véase «A Unified Physic by 2050?»]. De estas dudas ha surgido un intento por reconciliar a Bohr y a Einstein, la cuántica y la relatividad general. Se conoce como teoría de las supercuerdas o simplemente de las cuerdas. La veremos en el capítulo siguiente. 179

Capítulo 8: La física del siglo XXI: las supercuerdas Cuerdas en vez de partículas Hacia 1968 comenzó una nueva inquietud en la física. Siguiendo matemáticas puras de Leonhardt Euler, el gran matemático alemán del siglo XVIII, varios jóvenes físicos encontraron con sorpresa que con ellas se podían describir las partículas elementales (el electrón, el fotón, etc.) como si fueran, en vez de puntos, pequeñas cuerdas vibrantes: algo similar a ligas de hule. Sus diversos modos de vibración darían origen a las diferentes partículas, tal y como el vibrar dé una cuerda de violín produce distintas notas. «La estructura matemática de la teoría de las cuerdas era tan hermosa y tenía tantas propiedades maravillosas que debía estar apuntando hacia algo profundo», comenta uno de los pioneros [citado en Greene, The Elegant Uniuerse, p. 137]. En el modelo estándar, un electrón no tiene radio alguno. Suena rarísimo, pero así es. No tiene extensión; es un punto puro. Por lo mismo, el espaPag 180 ció siempre puede subdividirse hasta el infinito, como en la paradoja de Zenón. Y cuando llegamos a regiones del espacio más pequeñas que la extensión de Planck, encontramos toda suerte de resultados anómalos, como esa danza frenética de la nada al ser, descrita en el capítulo anterior, que impide aplicar en esas regiones la teoría de la relatividad, puesto que ésta exige un espacio de comportamiento uniforme y suave. Entonces la pregunta esencial es la siguiente: ¿Será verdad que el espacio lo podemos dividir y subdividir hasta el infinito? ¿Que entre dos marcas siempre podemos poner otra


intermedia? ¿Siempre y hasta el infinito? No fue así con la energía ni con la materia. Vimos que ambas manifestaciones deben darse en múltiplos de la constante de Planck. No son divisibles hasta el infinito. Pero un punto es tan pequeño como queramos, es menos que cualquier cantidad que uno imagine. Igual que en los juegos verbales de los niños, ante un número dado siempre podemos responder con otro menor. El punto siempre será todavía menor. Y así están definidas las partículas elementales en el modelo estándar. De ahí que el spin, o giro, de las partículas elementales se considere más bien una propiedad intrínseca y no un giro real. Un punto no puede girar. Cuando un objeto gira sobre un eje de rotación, este eje no gira, sino que está perfectamente fijo y todos los puntos a su alrededor dan vueltas. Veamos girar un globo terráqueo escolar: el eje permanece inmóvil y los puntos hacia el ecuador giran en torno Pag 181 de él, y a mayor velocidad conforme se alejan, pues deben cubrir una circunferencia mayor en el mismo tiempo. Pero si un objeto es ya un punto, ¿qué es lo que gira? Así pues, el spin o giro de un electrón no es un movimiento circular, sino una propiedad intrínseca del electrón, como la carga, que recibió un nombre no del todo acertado. Filamentos de una sola dimensión Todas las citas que siguen en este capítulo están tomadas del capítulo seis de The Elegant Universe, de Greene. Sigo, en esencia, su razonamiento, pero añado ejemplos más adecuados al tono de este libro. Aunque las partículas subatómicas, como el electrón, se consideran realmente elementales, es decir, sin composición alguna, de cualquier forma se estima que el material de cada uno es diferente. El material de electrón, por ejemplo, tenía carga eléctrica negativa, mientras que el material de neutrino no tenía carga eléctrica. La teoría de las cuerdas altera esta imagen radicalmente al declarar que el material de toda la materia y de todas las fuerzas es el mismo. Cada partícula elemental se compone de una sola cuerda, esto es, cada partícula es una sola cuerda, y todas las cuerdas son absolutamente idénticas. Las diferencias entre las partículas surgen porque sus respectivas cuerdas entran en diferentes patrones de vibración. Lo que parecen ser diferentes partículas elementales son en realidad diferentes «notas» de una cuerda fundamental.

Pag 182 A diferencia del modelo estándar de la física, la teoría de las cuerdas propone que las partículas elementales no son puntos de radio cero y sin extensión, sino filamentos en la longitud de Planck y con la forma de una liga de hule. Se ha dicho de ella que es una teoría del siglo XXI descubierta por casualidad en el XX. El gran interés que despierta entre los físicos se debe a dos aspectos fundamentales: 1) Parece resolver el conflicto entre la teoría de la relatividad y la física cuántica. 2) Provee una teoría verdaderamente unificada, pues toda la materia y todas las fuerzas son el resultado de un solo ingrediente básico e idéntico: cuerdas vibrantes. Es el modo de vibración, no la cuerda misma, lo que produce un electrón, un fotón, un quark up, un quark strange.


Dimensiones Las cuerdas tienen una sola dimensión. Un ejemplo para imaginar un mundo de una sola dimensión es una raya de ancho cero y del largo que se desee. Los habitantes de esa raya sólo tendrían dos direcciones: adelante y atrás. Ocuparían siempre la misma disposición, pues uno no podría rebasar a otro. No hay anchura para hacerlo. Un dibujo en una hoja de papel es ejemplo de un mundo en dos dimensiones; largo y ancho, sin altura. Los habitantes de ese mundo no concebirían el Pag 183 arriba» ni el «abajo». Nosotros vivimos en un mundo de tres dimensiones espaciales y una temporal. Las cuerdas son bandas vibrantes de una sola dimensión. Comparadas con un núcleo atómico, éste resulta cien millones de billones (un 1 y veinte ceros) más grande que una cuerda. El diámetro de la órbita de Plutón es solamente 12 000 billones de veces más grande que un milímetro. Si lo multiplicáramos por 10000, de ese tamaño sería un núcleo atómico si una cuerda midiera un milímetro. La energía de una cuerda particular depende de dos aspectos. Uno es la amplitud con que vibre, es decir, la distancia entre los picos y los valles en la ondulación. A mayor amplitud, mayor energía. Ahora bien, por la relatividad sabemos que energía y materia son dos aspectos de una misma cosa; por ende, la masa de una partícula elemental estará determinada por la energía de la cuerda vibrante. El otro elemento para determinar la energía de una cuerda es la tensión. Como en el caso de una cuerda de violín o de piano, para vibrar debe estar tensa. La cuerda de un violín tiene menos tensión que la de un piano; su energía, en este caso su sonoridad, es menor. Igual ocurre con las cuerdas subatómicas: a mayor tensión corresponde mayor energía. Como siempre en el mundo cuántico, la energía en las cuerdas también sigue las discontinuidades de Planck. Una cuerda vibra sólo en unidades discretas, en múltiplos enteros de la energía de Planck. Encontramos de nuevo una constante de proporcionalidad y saltos, cuantos. Pag 184 Las cuerdas vibran en un número infinito de patrones. «¿Significa esto que habría correspondientemente una secuencia sin fin de partículas elementales?» La respuesta es sí, dice Greene, aunque estamos muy lejos de tener los medios para realiza las investigaciones que lo demostraran. Vibración y masa Puesto que la masa de un objeto determina sus propiedades gravitatorias (un tráiler es más difícil de levantar del suelo que un Volkswagen), «vemos que hay una asociación directa entre el patrón de vibración en la cuerda y la respuesta de una partícula a la fuerza gravitatoria». Entre los patrones de vibración estudiados por medio de las matemáticas de las cuerdas, uno ajusta perfectamente las propiedades del graviten. Esto produjo un gran entusiasmo entre los físicos. Lo entendemos si recordamos que la gravitación ha sido la única fuerza, de las cuatro existentes en el universo, que ha resistido los esfuerzos unificadores de la física, continuando así con la vieja polémica entre Bohr y Einstein.


El gran atractivo de las cuerdas es que acaban con las hostilidades entre la relatividad y la mecánica cuántica. La relatividad general es una teoría de la gravitación. Nos dice que los cuerpos curvan el espacio (y el tiempo) en torno de ellos, como una bola de boliche sobre un colchón. Cuando las ecuaciones relativistas se aplican a espacios por debajo Pag 185 de la escala de Planck, la incertidumbre produce ondulaciones del espacio, más grandes conforme más se penetra en el espacio: esto es la «espuma cuántica» de Wheeler. Las ondulaciones del espacio alcanzan tal frenesí que las ecuaciones derivadas de la relatividad dan resultados desastrosos. Ello se debe a nuestra concepción del espacio como un continuo: todo segmento lo podemos cortar de nuevo a la mitad, al menos con el pensamiento. Esta concepción, tan poco cuántica, ha prevalecido curiosamente en pleno corazón de la física cuántica porque las partículas elementales se consideran puntos. Y un punto es tan diminuto como se quiera. Sin límite. En consecuencia, podemos colocar ese punto en regiones tan pequeñas del espacio como ceros podamos agregar luego del punto decimal: diez, treinta, cien, mil ceros. No hay límite alguno. Pero la teoría de las cuerdas considera que sí hay límites al seccionar el espacio. Veamos por qué. Primero consideremos que las «observaciones» que hacemos del mundo subatómico las realizamos lanzando partículas para sondear otras partículas. Cuanto más pequeña sea la partícula empleada, más nítida será la imagen que produzca. Esto es: para formar una imagen con nudos en una alfombra persa, más definida estará la imagen conforme más pequeño sea el nudo. Una fotografía es más nítida conforme el grano de la película es más fino. Si voy a hacer el molde de una estatua y empleo canicas para el molde, perderé todos los detalles y apenas si conseguiré determinar la silueta general; empleando tierra, que está Pag 186 formada de granos mucho más pequeños que canicas, tendré mejores resultados; y si consigo una resina muy tersa para hacer el molde, podré copiar hasta los menores detalles de la estatua, como las pestañas y hasta la calidad de la piel. Así, «veo” más claro un átomo conforme le lanzo partículas más pequeñas. Tengo mayor resolución. Contra Zenón de Elea El modelo estándar nos dice que podemos sondear el átomo (hacer su molde) con partículas tan finas como se quiera, pues disponemos de puntos para hacerlo. Y el punto es tan pequeño como el investigador lo describa, pues no tiene extensión alguna. Entonces puedo ir más abajo que la longitud de Planck, y allí es donde la relatividad y la cuántica acaban peleadas y salta espuma. En cambio, si las partículas que lanzo para sondear el átomo no son puntuales (no son puntos), sino que tienen alguna extensión, así sea pequeñísima, esto mismo me indica que no podré superar cierto límite. Es el de la propia medida de la partícula, pues no existe nada más chico para lanzar contra el átomo y mejorar mi resolución. Repitiendo: para «ver> la forma de un átomo lo recubro de las partículas más pequeñas que encuentre, digamos de electrones. Para la nueva teoría, los electrones no son partículas puntuales, sin extensión, sino cuerdas con extensión minúscula. Un electrón que lanzo


contra Pag 187 mi átomo es una cuerda vibrando. Lo lanzo con energías cada vez mayores para sondear más internamente la materia. Sin embargo, cuando se incrementa la energía de una cuerda, es al principio posible sondear estructuras de escala más corta [...], pero cuando su energía se incrementa más allá del valor requerido para sondear estructuras en la escala de la longitud de Planck, la energía adicional no agudiza la cuerda lanzada. Más bien, la energía causa que la cuerda crezca de tamaño, disminuyendo consiguientemente su sensibilidad para distancias cortas.

No es un límite de los aparatos. Es un límite de la naturaleza, como el principio de incertidumbre: cuanto más energía ponga en el electrón para que sondee más abajo, más grande lo hago, y cuanto más grande es, menos resolución me da. Como cuando uso película fotográfica de grano grueso: es imposible tomar con nitidez detalles más pequeños que el grano de la película. Así pues: Si los constituyentes elementales del universo no pueden sondear distancias en la escala subPlanck, entonces tampoco ellas ni nada hecho por ellas puede verse afectado por las supuestamente desastrosas ondulaciones cuánticas de corta distancia.

Las entusiastas cursivas son del autor; veamos por qué se emociona. Nos dice que así como nuestros dedos son incapaces de distinguir los poros de una pieza de granito bien pulida aunque sepamos que, vista Pag 188 al microscopio, está llena de poros, así la cuerda aplasta las fluctuaciones ultramicroscópicas del espacio «lo suficiente para curar la incompatibilidad entre la relatividad general y la mecánica cuántica». Pero hay una diferencia esencial con la analogía del granito, subraya. Sabemos que nuestros dedos no tienen capacidad de resolución para detectar los poros del granito, pero que otros instrumentos sí lo hacen. En cambio, con la teoría de las cuerdas no hay manera de exponer las «imperfecciones» de escala sub-Planck en el tejido del espacio. En un universo gobernado por las leyes de la teoría de las cuerdas, la noción convencional de que podemos disectar la naturaleza en cada vez más pequeñas distancias, sin límite, no es verdadera. Sí hay un límite, y entra en función antes de que encontremos la devastante espuma cuántica.

¿No nos estamos haciendo tontos? La solución propuesta suena un poco a trampa positivista: si no lo mido no existe. ¿No está allá abajo la espuma cuántica ingobernable por la relatividad general, aunque uno no pueda llegar a ella? No, no existe. Dicho más claro: Primero, lo que el argumento anterior implica es que las supuestamente problemáticas fluctuaciones de longitud sub-Planck son un artefacto [que surge por] haber formulado la relatividad general y la mecánica cuántica en un marco de partículas puntuales. En cierto sentido, pues, el conflicto central de la física teórica contemporánea ha sido un problema de nuestra propia


hechura. A causa de que previamente contemplamos

Pag 189 todas las partículas de materia y todas las partículas de fuerza como objetos puntuales, sin, literalmente, extensión espacial, estuvimos obligados a considerar las propiedades del universo a escalas de distancia arbitrariamente cortas.

Pasa luego al segundo punto y recuerda que desde mucho antes, algunos de los más grandes físicos teóricos habían intentado abandonar la noción de partículas puntuales. Pero cuando el paradigma se desechaba ocurrían violaciones a dos principios fundamentales: uno, que los objetos no aparecen ni desaparecen súbitamente del espacio sin dejar rastro (conservación de la probabilidad cuántica) y dos, que son imposibles las transmisiones de información a velocidad superior a la de la luz. Para hacer electrones con algún radio había que caer en aceptar algo peor. Con la teoría de las cuerdas no ocurren tales violaciones y se acaba con la espuma cuántica. La incompatibilidad de la relatividad general y de la física cuántica se evita porque ocurre a distancias que no existen. El universo tiene distancias que no podemos siquiera decir que existan. Las dimensiones de Kaluza En 1995 se inició la segunda revolución de las supercuerdas, cuyo paladín es Edward Witten, y se caracteriza por la introducción de más dimensiones espaciales que las tres conocidas. ¿Cómo es que no las Pag 190 vemos? Greene ofrece un inmejorable ejemplo: si vemos de lejos una manguera de jardín colgando, digamos entre dos bardas, nos parece una línea si estamos lo bastante alejados. Tiene una sola dimensión: largura; una línea sin ningún grosor. Pero cuando la observamos con unos prismáticos descubrimos, primero, que sí tiene grosor y luego que, además, el grosor se enrolla y por eso es poco perceptible. La superficie de una manguera es un objeto de dos dimensiones donde el ancho se enrolla (para hacer el tubo) y por lo tanto, desde lejos, parece tener una sola dimensión o largura. Un matemático polaco de la Universidad de Kónigs-berg, Theodor Kaluza, envió en 1919 a Einstein un ensayo donde proponía que el universo podía tener no solamente las tres dimensiones espaciales, sino más. Su trabajo fue refinado en 1926 por el matemático sueco Oskar Klein. En esencia, sostiene que «el tejido espacial de nuestro universo podría tener dimensiones tanto extendidas como enrolladas» [cursivas de Greene]. Los cálculos de Klein determinaron que esas dimensiones adicionales debían ser tan pequeñas como... la longitud de Planck. De nuevo el quantum. Ahora en las dimensiones del espacio. Es la teoría de Kaluza-Klein. Kaluza desarrolló las ecuaciones de la relatividad para una dimensión más, es decir, para cuatro dimensiones espaciales y una temporal, y las envió a Einstein. Había descubierto que resultaban las mismas ecuaciones que en la relatividad, pero, como Pag 191


había añadido una dimensión más, tenía más ecuaciones. Al revisarlas y compararlas, Kaluza se dio cuenta de que algo sorprendente estaba ocurriendo. Las ecuaciones extra no eran otras que ¡las que Maxwell había desarrollado en la década de 1880 para describir la fuerza electromagnética! Añadiendo otra dimensión espacial, Kaluza había unificado la teoría gravitatoria de Einstein con la teoría de la luz de Maxwell .

El entusiasmo inicial se enfrentó con la falla absoluta de la teoría de Kaluza en el único sitio donde una teoría no puede fallar: en el laboratorio. Predecía una relación entre la masa y la carga del electrón que no coincidía con ninguna observación. Con eso se perdió el interés en las dimensiones espaciales adicionales. Pero los modelos más recientes de la teoría de las cuerdas exigen, para existir, espacios extradimensionales. Las cuerdas vibran en espacios de diez dimensiones y Witten propone once: tres extendidas que ya conocemos —ancho, largo y altura—, más el tiempo, al que la relatividad general convirtió en una dimensión más, y las demás dimensiones espaciales, ya sean seis o siete, estarían enrolladas en cada punto del espacio, como en el ejemplo de la manguera. «Después de haber sido dada por muerta a finales la década de 1920, la teoría Kaluza-Klein fue resucitada.» ¿Por qué sólo tres dimensiones, las que conocemos, se extendieron? Es necesario buscar la respuesta Pag 192 en las modalidades que debió tener el Big Bang con el que el espacio-tiempo dio comienzo. Aunque no podemos percibirlas, el hecho de que las cuerdas existan en estas dimensiones y, sobre todo, que los patrones de vibración producidos en ese mundo multidimensional a su vez sean causa de lo que percibimos como carga y masa en las partículas, significa que la geometría extradimensional determina los atributos físicos fundamentales, como masa y carga de las partículas que observamos en las tres grandes dimensiones espaciales ordinarias de nuestra experiencia común [...]. Porque los patrones de vibración de las cuerdas nos parecen las masas y cargas de las partículas elementales, concluimos que estas propiedades fundamentales del universo están determinadas, en gran medida, por el tamaño y la forma geométrica de las dimensiones adicionales. Éste es uno de los atisbos de mayor alcance en la teoría de las cuerdas.

Postdicciones Las teorías se consolidan conforme sus predicciones resultan acertadas. La desviación de la luz por los campos gravitatorios era un postulado de la relatividad general. Cuando Eddington observó ese desvío durante el eclipse solar de 1919, la relatividad obtuvo un fuerte apoyo empírico. La teoría de las cuerdas está, al parecer, para siempre fuera de las comprobaciones directas realizadas con aceleradores de partículas. Para alcanzar esos niveles necesitaríamos aceleradores tan grandes como toda la galaxia. Las Pag 193 pruebas deberán ser indirectas. Por lo pronto, la teoría de las cuerdas ya ha predicho algo muy curioso: la gravitación. Esto es, de acuerdo con las matemáticas de la teoría, en el


universo debe haber algo que tenga todas las características... de la gravitación. Es una «postdicción» muy interesante. El entusiasmo en torno a las cuerdas, como el Santo Grial que nos dará la Teoría de Todo, hace pensar en la efervescencia intelectual de la década anterior a 1927. Dice Greene que era como haber desempacado un juguete maravilloso por Navidad, y descubrir que falta el manual de instrucciones. Los físicos están escribiendo ese manual, pero las matemáticas que éste exige son realmente endiabladas hasta para ellos, pues deben tratar la topología de objetos con diez dimensiones. El campo de Higgs o el éter que vos matasteis... Los físicos que no se han entusiasmado por las supercuerdas buscan afanosamente un elemento que podría poner orden dentro del modelo estándar, donde ocurren cosas tan feas como partículas 350 000 veces más masivas que otras. Desde Platón estamos convencidos de que la verdad y la belleza van juntas. El bosón de Higgs nació de la desesperación, comenta Von Baeyer. El modelo estándar obtiene gran parte de su elegancia de un supuesto teórico: que sus partículas fundamentales tienen masa cero, Pag 194 que su masa en reposo es cero. Eso significa que nunca están en reposo, sino siempre viajando a la velocidad de la luz. Pero en la vida real las partículas no van a la velocidad de la luz y sí tienen una masa que puede ser medida. Para conservar la sencillez del modelo estándar, los teóricos postulan que todas las partículas viajan en un medio universal y ubicuo llamado «campo de Higgs» en honor a quien lo propuso, Peter Higgs, de la Universidad de Edimburgo. Podríamos parafrasear aquí: «El éter que vos matasteis... goza de cabal salud.» El campo de Higgs actúa como un mar (otra vez el mar de Dirac) de melaza que permea todo el universo. Una arruga en ese mar es un bosón de Higgs [véase Von Baeyer «Desperately Seeking SUSY»]. El bosón de Higgs es decisivo para la física de partículas porque vendría a dar cuenta del origen de tan diversas masas, de por qué el electrón es 350 000 veces más ligero que el más pesado quark y los neutrinos todavía más ligeros. El campo de Higgs se concibe como una suerte de voltaje sin cambio que permea el universo, estropea la simetría de las fuerzas y da origen a un arreglo de masas tan aparentemente azaroso. Excitaciones cuánticas del campo de Higgs darían origen a la partícula de Higgs, tal y como los fotones, las partículas de luz, emergen de un suave campo electromagnético [véase Glanz, «Wül the Higgs Particle Make an Early Entrance?»]. Pag 195 El principio Los cosmólogos han propuesto una época, en los primeros nanosegundos de la creación, a la que llaman «inflación». Alan Guth y Andrei Linde son los pioneros de este planteamiento. Cuando el universo tenía una fracción de segundo que se escribe con un punto decimal y 34 ceros seguidos de un 1, fue el reino del campo de Higgs. Luego el universo pasó por una transición de fase, como la que vemos en el agua cuando se


transforma en hielo. Entonces se crearon las partículas y la radiación. Luego empezó la fase en que el enfriamiento relativo habría de permitir la integración de los primeros átomos. El premio Nobel León Lederman relata así la acción del campo de Higgs en el principio: Habiendo donado toda su energía a la creación de partículas, el campo de Higgs se retira temporalmente, reaparece varias veces en distintos disfraces para mantener las matemáticas consistentes, suprimir los infinitos y supervisar la creciente complejidad conforme las fuerzas y las partículas continúan diferenciándose. Aquí tenemos a la Partícula Dios en todo su esplendor [Lederman y Teresi, The God Particle, p. 398].

La «Partícula Dios» es el nombre para las ondas del campo de Higgs. Continúa páginas adelante: «Podría haber dado la impresión de que la Partícula Dios, una vez entendida, proveería la revelación última: cómo funciona el universo.» Pag 196 Podemos concluir este repaso sobre la desmaterialización de la materia con una bella reflexión del George Johnson: «Así pues, mientras algunos científicos están tratando de reducir la conciencia a materia, otros están tratando de reducir la materia a conciencia» [Fire in the Mind, p. 149]. Pag 197

Capítulo 9: El último misterio de la conciencia humana El final del pozo: la información Tenemos moléculas que están formadas por átomos; éstos a su vez por electrones, neutrones y protones. Los últimos resultaron compuestos y no elementales, formados por partículas a las que se dio el nombre de quarks. Hay indicios de que el quark podría estar compuesto. Todos a su vez podrían no ser sino las diversas formas de vibración de minúsculas cuerdas en la longitud de Planck. Y, finalmente, el último sustrato podría ser información. La información es un concepto, no una cosa en el mundo. Esta es la postura sensata. Como siempre en cuántica, no es la sensatez la que gana. Algunos físicos plantean que la información es el último elemento en la composición del universo. «Unos pocos van tan lejos como para sostener que la información puede ser el más fundamental de todos [los ingredientes]; que masa y energía podrían de alguna Pag 198 manera derivarse de la información» [Johnson, Fire in the Mind, p.lll]. Sigamos de cerca el relato que hace George Johnson en su admirable obra Fire in the Mind. Las citas están tomadas de allí, y todo este apartado es un resumen de su capítulo cuatro, más acotaciones propias. Johnson comienza por señalar que todo en el universo se puede reducir a cuatro aspectos elementales: masa, energía, espacio y tiempo. Pero quizá podamos dejar sólo


dos: energía y espacio-tiempo, como ya hemos visto páginas atrás. El físico polaco Wojciech Zurek, ahora ciudadano estadounidense que trabaja en el famoso Los Alamos National Laboratory, lanzó un manifiesto con el título «Complejidad, entropía y la física de la información», en el que propone otro ingrediente básico del universo: información. «El fantasma de la información recorre el mundo», comienza su manifiesto. Polaco anterior a la caída del Muro a fin de cuentas, y a diferencia de Johnson, Zurek conoce la frase con que da inicio el Manifiesto comunista de Marx y Engels. La información es un concepto desarrollado por Claude Shannon, quien trabajaba en los Laboratorios Bell para estudiar la mejor manera de codificar señales de tal manera que pudieran transmitirse sin que las afectara el llamado ruido de las lineas, un efecto producido por la vibración al azar de las moléculas de cobre de los alambres telefónicos. Publicó sus investigaciones en 1948 y de ellas se deriva lo que conocemos como teoría de la información. Pag 199 El demonio de Maxwell Un siglo antes de los estudios de Shannon sobre la información, el ingeniero militar francés Sadi Carnot demostró que no había forma de utilizar el cien por ciento de la energía de un motor de vapor, pues siempre algo se perdería en forma de fricción, de calor. Eso puso punto final a la vieja búsqueda de una máquina de movimiento perpetuo. Una podría ser un generador eléctrico que diera electricidad a un motor eléctrico que hiciera girar al mismo generador Funcionarían así acoplados perpetuamente si no fuera porque buena parte de la energía se disipa en el ambiente como calor: el de la fricción de las máquinas, el de la fricción de la electricidad en los cables Es otro límite de la naturaleza: nuestras máquinas no pueden funcionar sin desperdicio. Un alemán en Berlín, Rudolph Clasius, le puso nombre a esa pérdida inevitable de energía: entropía, que es «vuelta» en griego. Entropía es el nombre que se da a la tendencia universal al mayor desorden, postulada en la segunda ley de la termodinámica. Una casa abandonada a su suerte comienza a deteriorarse: se rompen los vidrios, se carcome la madera, se agrietan las paredes, se derrumban los techos, se aplana cada vez más hasta que cada ladrillo vuelve al suelo y termina siendo un promontorio sin forma donde crecen las hierbas. De un estado ordenado pasa al más desordenado posible. Vemos casas venirse abajo solas pero nunca veremos casas levantarse solas y llenarse Pag 200 de nuevo de cortinas, tapetes y jarrones con flores porque la flecha de la entropía tiene una sola dirección: de menos a más, de orden a desorden. Es una de las flechas del tiempo, pues los sistemas avanzan en ese sentido y no son igualmente posibles las situaciones inversas. El universo entero avanza de estados ordenados, como las estrellas, a estados desordenados que acabarán por convertirlo en una helada extensión homogénea y sin rasgos, a menos que alguna fuerza, la gravitación por ejemplo, revierta el proceso. Maxwell ideó un experimento mental que parece quebrantar esta ley. Imaginó dos depósitos conectados entre sí, uno de los cuales está lleno de un gas. Si abrimos la


válvula entre los depósitos, el gas se dispersará por ambas cámaras hasta alcanzar estabilidad; pasa de un estado de baja entropía y alta organización (todo el gas en un lado), a uno de alta entropía y baja organización. El gas fluye de un compartimento a otro por los movimientos azarosos de sus moléculas. Ese flujo lo podemos utilizar para mover algún pequeño mecanismo, digamos una turbina productora de electricidad, y así encendemos un foco. Pero con el gas estabilizado en ambas cámaras no tenemos flujo alguno; tampoco hay electricidad ni luz. Para repetir el procedimiento tendríamos que invertir energía en volver a bombear el gas a una de las cámaras y tendríamos un costo en energía. Ahora Maxwell imagina un ser inteligente y diminuto que, junto a la válvula, observa cada molécula que se aproxima. Deja pasar las de Pag 201 movimiento rápido hacia la cámara vacía y no las deja regresar en el sentido contrario. Así, nuevamente acabará lleno uno de los compartimentos y vacío el otro. Si abrimos la válvula, tenemos de nuevo un flujo, éste moverá la turbina y así encenderá el foco. Resultado: energía gratuita, porque no tuvimos que gastar nada en recargar el gas. La inteligencia parece haber vencido a la segunda ley de la termodinámica. Pero no es así. Cualquier intento de sustituir al pequeño demonio imaginario por un artefacto, digamos una válvula unidireccional, que haga el mismo efecto y permita pasar a toda molécula que llegue en un sentido y a ninguna en el contrario, tendrá un costo: la fricción, el calor. Para que la válvula funcione debemos pagar su gasto en energía. Comprimir el gas a una sola cámara no es gratis: hay un gasto de energía. Otra vez el colapso de ondas Pronto se observó que la información era lo opuesto a la entropía, al desorden al que tiende todo estado. Cuando la entropía aumenta, la información se pierde. Imaginemos una molécula de agua. Tenemos muchos datos, mucha información: número de elementos, número de átomos de cada elemento, estructura de la molécula, distribución de las cargas eléctricas, etc., pero si rompemos la molécula, toda esa información se pierde, y permanece sólo la información que Pag 202 conforma cada átomo de hidrógeno y de oxígeno: cuántos protones, cuántos electrones. Todavía puede actuar la entropía y alcanzar un estado de mayor desorganización, el de electrones y protones sueltos, que no forman parte de átomos. Aumenta la entropía y disminuye la información. Ahora basta con la información general del electrón o el protón, que es menos que la del átomo. La información se puede considerar como una medida, una tan simple como 1 o 0: la presencia o ausencia de algo. Sí o no es la mínima información. Yendo más allá de las leyes de la termodinámica, algunos creen que la información desempeña un papel aún más profundo: de acuerdo con algunas interpretaciones de la teoría cuántica consideradas por Zurek y su círculo, sin información no habría nada que se pareciera a lo que llamamos mundo real» [pp. 111—112].

En capítulos anteriores examinamos el problema que plantea la observación de una partícula. Un electrón no existe con los rasgos que para nosotros son la marca misma de


la existencia, con posición en el tiempo y en el espacio, sino como una onda de probabilidad, más bien un paquete de ondas, una superposición de todas las trayectorias posibles. Vimos que una observación colapsa el paquete de ondas y nos deja un estado sin superposición, por ejemplo, una posición determinada. Pero cómo ocurre este colapso es materia de no siempre amables discusiones filosóficas. Una respuesta podría ser el flujo de información: Pag 203 Zurek y algunos de sus colegas esperan desmitificar la teoría cuántica. ¿Qué es una observación sino una recolección de información? Y si la información es fundamental, existe tan seguramente como existen la materia y la energía, sin necesidad de seres conscientes. La onda cuántica podría colapsarse no porque fue requisito de una mente, sino tan sólo porque la información fluyó de un lugar a otro en la región subatómica [p. 112].

De esta manera, la información, no la mente consciente, sería la responsable de que un electrón observado se comporte de tan distinta manera que uno no observado, según vimos en numerosos ejemplos. «Como la masa y la energía, la información sería irreductible, estaría en las raíces de la creación» [p. 113]. Pero la información, como vimos, es lo contrario de la entropía. La casa del primer ejemplo posee una gran cantidad de información: dónde va cada ventana y de qué forma y medida es, qué distribución tienen las diversas áreas, qué colores y texturas se han elegido para decorar. Todo es información. Pero luego de que se cae a pedazos con el paso de los siglos y se convierte en un montón de tierra, la información que describe a ese montón es mínima y mucho menor que la necesaria para describir la casa. La entropía ha crecido, la información disminuye. Entropía y observadores Y otra sorpresa: la entropía también depende del observador. El propio Maxwell lo explica así en la Pag 204 edición para 1878 de la Encyclopedia Britannica [citado por Johnson]: pongamos por caso que tratamos de leer una libreta con notas en la taquigrafía creada por una persona para su propio uso. La libreta no le parece confusa, suponiendo que esté pulcramente escrita, a una persona analfabeta, ni al dueño que la comprende enteramente, pero para cualquier otra persona capaz de leer parece ser inextricablemente confusa. De la misma manera, la noción de energía disipada no se le ocurriría a un ser que no pudiera conducir ninguna de las energías de la naturaleza en su propio provecho, ni a quien pudiera trazar el movimiento de cada molécula y capturarla en el momento justo. Es sólo para un ser en el estadio intermedio, que puede controlar algunas formas de energía mientras otras eluden su comprensión, para quien la energía parece estar pasando inevitablemente del estado disponible al disipado.

«La implicación era que la entropía existe para criaturas moderadamente inteligentes, como la gente, pero no para los demonios o los perros; que el orden o el desorden están en el ojo del espectador» [p. 118]. Nosotros vemos orden donde un perro encuentra sólo señales caóticas, una hoja impresa


tirada en el suelo, por ejemplo. Y sólo encontramos caos donde el pequeño demonio de Maxwell distingue perfectamente un orden. Es nuestra miopía la que no ve orden en los estados de gran entropía. En 1929, Leo Szilard planteó el experimento mental de Maxwell con su demonio de tal manera que, de nuevo, parecía obtener trabajo de la nada, en violación de las leyes de la termodinámica. En Pag 205 resumen, redujo el aparato a su mínima expresión, una sola molécula a la que con sucesivas divisiones de la cámara fue arrinconando. Con ello conseguía acumular energía para luego hacer trabajar un pistón que haría volver el aparato a la situación original, y vuelta a empezar: movimiento perpetuo sacado de la nada. No es necesario detallar el experimento, basta con las conclusiones. Szilard descubrió que las mediciones del demonio, realizadas para determinar si la molécula estaba en una subdivisión o en otra, inevitablemente consumían cierta cantidad de energía. Era una medición en términos binarios: está la molécula en un lado de la cámara y no está en otro, 1 cuando ésta, O cuando no está. Puesto que era también un experimento mental, Szilard había hecho todos los mecanismos perfectamente sin fricción. Pero descubrió que, si bien por allí no se perdía energía alguna, el mero acto de recoger información, cuando el demonio determinaba en cuál subdivisión había quedado la molécula, debía siempre disipar suficiente energía para hacer imposible esa máquina de movimiento perpetuo. Es decir, procesar esa sencilla información (está aquí o allá, 1 o 0) requería un mínimo gasto de energía. Szilard había dado con otro límite de la naturaleza. Computaciones irreversibles En 1961, Rolf Landauer, de la IBM, hizo por la computadora digital lo que Sadi Carnot había hecho por la máquina de vapor: sondear sus profundidades termoPag 207 dinámicas, prosigue Johnson. Cuando ya no tuvimos un experimento mental, como el de Maxwell o el de Szilard, sino computadoras trabajando con información binaria, sí o no, llega un pulso eléctrico o no llega, 1 o 0, cobró importancia la pérdida de energía descubierta por Szilard. Veamos primero un asunto esencial para comprender este punto, y es que la computación es irreversible. Este es un ejemplo sencillo: en una calculadora sumo 2+2=4. Se dice que la operación es irreversible porque si paso junto a un escritorio donde alguien dejó encendida su calcula-dora y veo un 4, es para mí absolutamente imposible saber la operación que produjo ese resultado. Pudo ser 2+2, pero también pudieron ser decenas de operaciones, restas, sumas y divisiones que tienen como resultado ese número. Las vías de regreso son infinitas: la computación es irreversible. Por otra parte, la expresión «2+2» contiene más información que «4». «2+2» incluye información sobre un número, una operación y de nuevo el mismo número. Hasta para decir la expresión necesitamos más palabras. Siendo así, el paso de 2+2 a simplemente 4 supone una pérdida de información. ¿Y qué pasa con esa información perdida? «Landauer mostró que se disipa en el medio como calor.» Es irrecuperable, como el agua de un barril vaciada en el mar.


Recoger información tenía, pues, un costo ineludible. O, como planteó Charles Bennett en 1973, no es tanto recogerla, sino borrarla para reiniciar el aparato lo que disipa energía. El borrado de la información transfiere energía al medio. Así es como Pag 207 se salva la segunda ley de la termodinámica hasta en imposibles aparatos sin fricción alguna. Por supuesto, resulta insignificante esa disipación de energía comparada con el gasto en el motor que mueve el disco duro, la energía para iluminar la pantalla o las pérdidas, como calor, por resistencia de los microcircuitos. «Pero la naturaleza parece poner un límite a cuan económicamente podemos borrar bits. Por abajo de cierto nivel, la pérdida no puede ser reducida. La información, sostuvo Landauer, es en realidad algo físico» [p. 125]. La información y la mente De ahí vino el gran salto: Edward Fredkin, de la Universidad de Boston, y algunos otros científicos sostienen que la información es más fundamental que la materia y la energía. Que según estas apariencias tenemos bits de información dando origen al universo que vemos. Esto implica que la realidad es muy semejante a una simulación corrida por un programa de computación; sólo faltaría saber quién está corriendo el programa. La idea ha dado por lo menos una muy buena película: Matrix. De hecho, podemos pensar en el universo como una cinta magnética, vacía y estructurada. Conforme todo este orden se vuelve entropía, la Cinta Universal de Memoria se llena con bits al azar. Pero nunca puede ser borrada. No hay nada para borrarla, ninguna parte adonde exportar ese azar. No se puede resetear el universo.

Pag 208 El azar sólo se sigue acumulando. Y ésta es la versión de la teoría de la información para la segunda ley [p. 127].

Las señales de la materia y la energía nos llegan por los sentidos y de allí al cerebro. La información está, pues, directamente ligada a nuestros conceptos de mente y conciencia. Final: la mente ante el espejo A principios del siglo XX, don Santiago Ramón y Cajal descubrió que el tejido nervioso no era continuo, es decir, que las células que lo forman no se conectaban de manera directa. La célula nerviosa principal es la neurona y está formada por un cuerpo muy semejante al de otras células y dos tipos de ramificaciones que ninguna otra posee: ramificaciones cortas en forma de árbol, llamadas «dendritas» (del griego «dendro»: árbol), y una larga prolongación llamada «axón». Las dendritas y el axón de una no se integran con los de otra, sino que dejan un pequeñísimo intersticio. Ese tipo de conexión entre neuronas se llama «sinapsis». El impulso nervioso, al viajar por un axón, llega hasta un botón terminal y allí concluye como impulso eléctrico. Para cruzar la sinapsis y alcanzar la dendrita de la siguiente neurona entra en acción un mecanismo distinto y muy complejo. El botón terminal contiene infinidad de vesículas llenas de compuestos químicos llamados


«neurotransmisores». Al arribo de la señal eléctrica se abren las vesículas apropia Pag 209

Pag 210

Pag 211


das y los neurotransmisores alcanzan la dendrita de la siguiente neurona. Allí estimulan un nuevo impulso nervioso que recorrerá esa célula hasta la siguiete sinapsis. Los neurotransmisores, entonces, modulan la señal nerviosa, pueden aumentarla, inhibir o transformarla. Es un complejísimo sistema de señales y contraseñales donde participan decenas de neurotransmisores conocidos. Muchos investigadores de la conciencia consideran este sustrato nervioso como el productor de todas las funciones superiores, y esencialmente del «yo». Por medio de tomografía computarizada y otros sistemas de observación en vivo han podido detectar los cambios precisos ocurridos durante el establecimiento de una memoria. Han visto, literalmente, la integración de un recuerdo en el tejido cerebral. Estudios semejantes se producen todos los días en los laboratorios de neurofisiología y se reportan por decenas en los medios especializados. El cerebro y la mente Pero sigue sin quedar clara la relación entre el tejido cerebral y lo que llamamos «conciencia». El término es ambiguo y los intentos por definirlo pueden resultar infructuosos y llevarnos a vericuetos semánticos sin interés. Hagamos como los matemáticos ante conceptos elementales: démoslo por sabido. No podemos definir «punto», «línea», «conjunto», ni siquiera «número», aunque todos sabemos qué son. Una definición Pag 212 de «número natural» levantaría polémica a pesar de que todo niño que pueda distinguir tres objetos rojos, dos azules, cinco verdes y una manzana está elaborando el concepto de «número». Tratemos, pues, de igual manera a la conciencia. Sabemos que tiene que ver con el hecho de estar alerta, con la inteligencia, con la percepción, y que hay algo, la autoconciencia, que nos permite darnos cuenta de que nos damos cuenta. Sabemos que una imagen se forma en la retina, y cada célula estimulada envía una señal eléctrica. Ésta pasa por la modulación de los neurotransmisores y llega a la corteza visual, desde donde se conecta con estructuras internas donde despierta emociones, memorias, acciones voluntarias, como la huida si la imagen es un león, e involuntarias, como la aceleración del ritmo cardiaco. Decimos entonces que tuvimos miedo. Pero esa conciencia del miedo pasado y de su falta de fundamento, si descubrimos que el león en realidad fue una proyección realista en tres dimensiones realizada en broma por un amigo, ¿no es sino otro encadenamiento de neuronas? El miedo y la conciencia del miedo, la risa ante la broma, el enojo, el amor: todos son estados que tienen su contraparte medible, observable, en el cerebro. Pero ¿somos iguales a un robot programado para huir del peligro? El robot «sabe» que huye si posee mecanismos de retroalimentación que le informen sobre su propio estado. ¿Es entonces consciente, al menos en la medida en que lo es un perro que huye? Para decirlo con la Pag 213 imagen de un objeto ahora omnipresente: ¿somos una computadora hecha de carne? Podemos programar una computadora para que dé señales de alarma ante la imagen de


un león y de enternecimiento ante la de un gatito. Es más, para emplear una buena broma de Roger Penrose, hasta podemos programar un robot para que deambule murmurando: « ¡Ay, Dios mío! ¿Cuál es el sentido de la vida?» [Véase La mente nueva del emperador]. ¿Sólo hay entonces diferencias de grado entre una supercomputadora y nosotros? ¿Conseguirá la tecnología producir computadoras que posean las más complejas respuestas humanas? ¿Podrán éstas probar un nuevo teorema? ¿Tendrán lo que llamamos conciencia? Para intentar una respuesta a estas preguntas, sigamos las reflexiones de Roger Penrose, uno de los más notables físico-matemáticos de hoy. Están tomadas en parte de sus Conferencias Tanner, en las que participó otro grande de este fin de siglo, Stephen Hawking. Penrose y Hawking han colaborado a menudo en trabajos sobre el espacio y el tiempo, las singularidades y los hoyos negros, pero en cuanto llegan a cuestiones filosóficas, sus opiniones son por completo divergentes. Ellas y nosotros Una computadora nos puede poner orden en una secuencia de palabras de manera que formen una historia. Lo puede hacer mejor que muchos seres humaPag 214 nos y con mucha mayor rapidez, dependiendo del programa que use para ejecutar esa tarea, pero siempre diremos que la computadora no «comprende» la historia que ella misma ha formado y que nosotros sí. ¿En dónde está la diferencia? ¿Qué es «comprender» cuando una computadora puede darnos un orden, en el ejemplo de la secuencia de palabras, que es tan bueno como el de un ser humano? Penrose propone que el conocimiento humano, sobre todo el matemático, es una forma de contacto con el mundo platónico de las ideas. El cerebro es el órgano necesario, pero lo que produce no le viene de su actividad interna, así como el hígado produce bilis, sino de su relación con un mundo que capta. «Entre más entendemos acerca del mundo físico, más parece como si el mundo físico casi se evaporara y nos quedáramos sólo con matemáticas» [The Large, the Small and the Human Mind, p. 3]. Va pensiero... Las matemáticas, el arte, la ciencia, en ocasiones ocurren como descubrimientos y no como invenciones largamente meditadas. A veces pensamos como las computadoras, paso a paso, siguiendo instrucciones, recetas, algoritmos, pero esa pesadez no es la manera característica como se desarrolla el pensamiento humano. No pensamos con palabras más que en ocasiones precisas: «Le voy a decir que...» Las palabras son exigencia de la comunicación y las meditamos bien Pag 215 cuando deseamos exponer un argumento, pero el pensamiento se parece más a la intuición que a la prosa. Penrose recuerda la similitud con la que Mozart y Einstein describen sus hallazgos: captaban de un golpe una forma, musical o matemática, sin pasos ni razonamientos previos. Para Mozart llegaba un tema musical, luego una melodía ligada, aparecían las armonizaciones necesarias, los timbres y colores de los instrumentos, hasta que era una obra completa en su mente. Luego la obra crecía hasta que la tenía acabada. «Entonces mi mente la atrapa de la misma forma en que mi ojo


atrapa de una mirada una imagen bella» [citado en Penrose, La mente nueva del emperador, p. 499]. No le llegaban poco a poco unas notas a las que luego debía encontrar armonizaciones y desarrollo, sino obras con su orquestación completa. Después, escribirlas era sólo una laboriosa exigencia para la interpretación. Einstein dice: «Las palabras o el lenguaje, ya sea escrito o hablado, no parecen desempeñar ningún papel en mi mecanismo de pensamiento» [citado en La mente nueva del emperador, p. 499]. Buscar las palabras adecuadas era un acto trabajoso que venía después y debía servir únicamente para comunicar aquel hallazgo. Poincaré, en cuyos trabajos está fundada la relatividad, también relata anécdotas de tales descubrimientos súbitos, en medio de una conversación banal, cruzando una calle. Octavio Paz se sube a un taxi, se acomoda entristecido por una ruptura, el ritmo del auto sobre el pavimento comienza a dictarle: «Un sauce de cristal, un chopo Pag 216 de agua...» El poema está allí, existe. Ahora sólo hay que escribirlo. Henri Poincaré relata una noche de insomnio en que las ideas le llegaban por montones y cómo a la mañana siguiente tenía respuesta a un problema con el que había bregado por quince días inútilmente. Los resultados súbitamente aparecidos sólo tuvo que escribirlos. En otra ocasión, el mismo Poincaré salió en una excursión geológica que le hizo olvidar, con el ajetreo del viaje, sus trabajos matemáticos. Al tomar un autobús le ocurrió lo siguiente: En el momento de poner el pie en el estribo se me ocurrió la idea, sin que, al parecer ninguno de mis pensamientos anteriores le hubiese abierto camino, de que las transformaciones empleadas por mí para determinar las funciones fuchsianas [olvide el nombre, lector] eran idénticas a las de la geometría no euclidiana. No comprobé la idea, ni hubiese tenido tiempo para ello, porque, en tomando asiento, reanudé una conversación que tenía comenzada; pero me sentí perfectamente seguro [Poincaré, «La creación matemática», p. 485].

Más adelante relata cómo un fracaso lo llevó a darse unas vacaciones por la costa para pensar en otros asuntos. «Una mañana, paseando cerca del mar, se me vino al pensamiento, con los mismos caracteres de brevedad, prontitud y certeza inmediata que en el caso anterior», una idea que luego, trabajada, se mostraría enormemente fructífera. Pag 217 La certeza En todos los casos de contacto con la verdad platónica se observa un profundo convencimiento anterior a toda demostración. Es sabida la anécdota según la cual le preguntaron a Einstein qué habría hecho s: Eddington no hubiera observado la predicha desviación en la luz de las estrellas cercanas (aparentemente) al disco solar durante el famoso eclipse de 1919 que confirmó la teoría general de la relatividad. «Lo habría sentido mucho por el pobre lord, porque la teoría es correcta.» La belleza matemática, la elegancia de la teoría es tal, que no podía ser falsa. Esta intuición estética es compartida por todos los grandes de la física Sin excepción, todos parecen convencidos de que una teoría horrible no pude ser verdadera.


Con respecto a la relatividad hay todavía algo más asombroso: su falta de observaciones. Penrose lo dice así: La teoría fue desarrollada originalmente sin ninguna motivación basada en observaciones; la teoría matemática es muy elegante y está físicamente muy bien motivada. El punto está en que la estructura matemática está justo allá, en la Naturaleza; la teoría realmente está afuera en el espacio, no ha sido impuesta sobre la Naturaleza por nadie [The Large, the Small and thi Human Mind, p. 25].

Los ejemplos abundan en las biografías de artistas y científicos, y se podrían citar más que no añadirían mucho. Mejor observemos que en la vida co Pag 218 tidiana de los seres humanos comunes también ocurre que las ideas, las soluciones, aparezcan como un destello imprevisto, una luz que en ese momento no era buscada. La idea esencial de Penrose es que el conocimiento parece tener algo de las características que le atribuía Platón: «Nada nuevo aprendemos, sólo recordamos.» Ahora diríamos: hay algo en nosotros que no podemos poner en una computadora. Y no por falta de tecnología, sino, otra vez, porque damos con un límite de la naturaleza, como en el principio de incertidumbre, en la longitud de Planck, en la velocidad de la luz según la relatividad. En este caso damos con un límite señalado por el teorema de Gódel. Veamos cómo se encontró este nuevo límite. La certificación del conocimiento ¿Cómo podemos estar cien por ciento seguros de que una prueba matemática no tiene error alguno? Elaborando una escrupulosa serie de requisitos que, una vez cumplidos, certifique la verdad. Es como fabricar un comprobador de verdades. Muchos científicos y filósofos se han hecho esa pregunta. Descartes intentó responderla con sus Reglas para la conducción de la mente. David Hilbert planteó en 1900 al Congreso Internacional de Matemáticos una lista de problemas sin resolver. El décimo de tales problemas era precisamente si podemos construir un procedimiento matemático mecánico que permita la comprobación Pag 219 de cualquier enunciado matemático. A los procedimientos matemáticos mecánicos los llamamos «algoritmos». Consisten en una receta que cualquiera pueda seguir: «Sume éste con aquél, divida entre tanto y reste aquello» es un algoritmo un tanto vago, pero más o menos esa forma tienen incluso los más sofisticados. Bertrand Russell, junto con Alfred Whitehead, se propuso resolver el asunto planteado por Hilbert y hacer por la aritmética lo que Euclides había hecho por la geometría: axiomatizarla. Esto significa que con unos pocos enunciados y reglas para trabajar esos enunciados se podría establecer un método para asegurar que toda operación aritmética fuera certificadamente correcta. La tarea resultaba monumental. Publicaron los primeros tomos con el nombre de Principia Mathematica. Un joven matemático entonces desconocido, Kurt Gódel, respondió en 1931 con unas


cuantas páginas donde probaba que para todo conjunto de enunciados elegido siempre habría una expresión para la que no se podría decidir si era verdadera o falsa. Dicho de otra forma: si quiero certificar la verdad de una afirmación la paso por un mecanismo comprobador. Este mecanismo está constituido de reglas como «Haga esto», «Verifique aquello». Bien, sean cuales sean las reglas que escoja, siempre podré encontrar un enunciado para el que mi máquina comprobadora no pueda responder si es verdadero o es falso. Y eso para cualquier conjunto inicial que elija. Pag 220 En el caso particular de la aritmética, que era el intento de formalización iniciado por Russell, respondía Gódel: ningún formalismo de la propia aritmética podrá evitar que alguna expresión aritmética resulte incomprobable. Otra forma de decirlo: siempre encontraré por lo menos una expresión para la cual ninguna sucesión de reglas constituya una prueba. O con la conclusión más general de Nagel y Newman: «Dado un determinado problema podría construirse una máquina que lo resolviese, pero no puede construirse una máquina que resuelva todos los problemas» [El teorema de Gódel, p. 123]. Y en esta limitación queda incluido el cerebro humano. Pero, con todo, hay algo que distingue al cerebro de las computadoras más sofisticadas, y es lo señalado por Penrose: toda computadora puede resolver sólo problemas que se puedan exponer como una sucesión de pasos, esto es, como un algoritmo. No otra cosa son los programas de computación, sino pasos. Pero hemos visto, en los ejemplos extremos citados y en la actividad mental de las personas comunes, que el cerebro no sigue algoritmos y puede alcanzar súbitos accesos a una idea sin seguir reglas como las exigidas por la comprobación mecánica. Para decirlo con palabras de Frege, figura esencial en la matematización de la lógica a principios del siglo XX: «Es posible, por supuesto, operar con números mecánicamente, así como es posible hablar como un perico: pero eso difícilmente merece el nomPag 221 bre de pensamiento» [citado en Yourgrau, Gódel Meets Einstein, p. 125]. Veamos dos problemas y su distinta solución por seres humanos y por computadoras. En un caso pedimos: «Encuentra un número que no sea la suma de tres números elevados al cuadrado.» Un ser humano debe calcular todas las combinaciones con los primeros números, incluido el cero. Dependiendo de su habilidad y entrenamiento dará con la primera solución: 7. Eso lo hace una computadora en fracciones de segundo. Para ello le basta con seguir un programa de computación, una serie de procedimientos, en fin, un algoritmo. Ahora pedimos: «Encuentra un número impar que sea la suma de dos pares.» La computadora seguirá un algoritmo, algo así como «Toma el primer número impar, divídelo entre 2, comprueba si ambos son pares. Si no lo son, sigue con el siguiente impar. Si lo son, detente. Pero la computadora no llegará a detenerse nunca y seguirá revisando por los siglos de los siglos números cada vez más inmensos. Una persona sabe de inmediato que la tarea es inútil: La suma de dos pares siempre es un par [véase Penrose, The Large, the Small and the Human Mind, pp. 106-107]. Inaprehensibilidad de la conciencia


Si bien la descripción del cerebro es cada vez más minuciosa y conocemos mejor cada vía seguida por, digamos, una percepción visual, la integración de esta Pag 222

Figura 9.3 Una cámara frente a un espejo forma una imagen interna de sí misma. ¿Eso la hace consciente? Pag 223 imagen en el cerebro no es suficiente para explicar la conciencia. Si lo fuera, comenta jocosamente Penrose entonces una cámara de video funcionando frente a un espejo tendría conciencia, pues está formando en su interior una imagen de sí misma. La conciencia sigue eludiendo el nivel anatómico. Así lo perfeccionemos hasta conocer cada fibra cerebral, nos deja con la misma pregunta: ¿Cuál es la diferencia entre la conciencia y una cámara que se ve a sí misma? Y la cámara, sin duda alguna, la conocemos hasta en sus menores detalles. Por supuesto, hay niveles explicativos para los que la respuesta neurofisiológica es suficiente: los pulsos enviados para realizar la digestión, el control automático de la respiración y del latido cardiaco la marcha, los reflejos. Todo esto se puede programar en una computadora, y de hecho se hace en las salas de cirugía. Pero «la formación de juicios, que afirmo es la impronta de la conciencia, es ella misma algo sobre lo que la gente dedicada a la inteligencia, artificial no tendría ni la menor idea de como programar en una computadora» [Penrose, La men¬te nueva del emperador, p. 486]. Por ejemplo, Gerald Edelman tiene algunas sugerencias acerca de cómo podría trabajar el cerebro, sugerencias que según él son no computacionales. ¿Qué es lo que hace? Tiene una computadora que simula todas estas sugerencias. Luego, si hay una computadora que supuestamente las simula, entonces son computables [Penrose, The Large, the Small and the Human Mind, pp. 126-127].

Pag 224


Y es precisamente esa formación de juicios, esa capacidad para distinguir o intuir verdad de falsedad, belleza de fealdad, lo que constituye la impronta de la conciencia para Penrose. Que la formación de juicios no sigue algoritmo alguno se comprueba en la propia experiencia del trabajo matemático. Una vez que hemos encontrado un algoritmo, el problema está resuelto. Pero el trabajo inicial, la búsqueda del método correcto para llegar a una solución válida, es una expresión no algorítmica de la conciencia. «¿Cómo sabemos si, para el problema a resolver, debemos multiplicar o dividir los números? Para ello necesitamos pensar y hacer un juicio consciente.» [The Large, the Small and the Human Mind, p. 127]. Esto es, únicamente por una elección consciente, no algorítmica y por lo tanto no computable, puedo saber que el algoritmo (el procedimiento) elegido para una solución particular es el correcto. Seguimos entonces sin saber cómo juzgan los matemáticos que han alcanzado una verdad, cómo están seguros de una prueba. Pero el hecho es que la verdad matemática se construye a partir de elementos sencillos. Cuando se presenta, se hace evidente para todos. Debemos «ver» la verdad de un argumento matemático para estar convencidos de su validez. Esta «visión» es la esencia misma de la conciencia. Debe estar presente dondequiera que percibimos directamente la verdad matemática. Cuando nos convencemos de la validez del teorema de Gódel no sólo lo «vemos», sino que al hacerlo revelamos la naturaleza no algorítmica del propio Pag 225 proceso de la visión [Penrose, La mente nueva del emperador, p. 493].

Así es como el descubrimiento matemático consistiría en un ensanchamiento del contacto con el mundo platónico de los conceptos matemáticos. Éstos están allí, como está el monte Everest. Sólo hay que «verlos» con un contacto directo, un camino que se establece entre el mundo físico y el mundo platónico. Cuando el niño abstrae, de diversas cantidades de objetos, la noción de «número natural», es decir, cuando ya «cinco» no debe ir seguido de un sustantivo («cinco pelotas»), sino que ha adquirido un significado abstracto, el niño ha realizado una tarea que no consigue ninguna supercomputadora. Lo que Gódel nos dice es que ningún sistema de reglas de computación puede caracterizar las propiedades de los números naturales. A pesar del hecho de que no hay manera computable de caracterizar los números naturales, cualquier niño sabe qué son [...]. Comprender lo que los números naturales son es un buen ejemplo de contacto platónico [Penrose, The Large, the Small and the Human Mind, p. 116].

¿Cómo ocurre ese contacto? Polkinghorne, otro físico (y ahora sacerdote y teólogo), propone que lo mental y lo físico se encuentran en una interface que es la conciencia [véase The Quantum World, p. 65]. Esta interface tiene características cuánticas; veamos en la siguiente sección cómo las describe Penrose. Pag 226 El fotón y el ojo


Cuando un fotón alcanza una célula perceptiva de la retina, al fondo del ojo, estamos ante un hecho, como la medición en el laboratorio, donde el mundo cuántico, en superposición de estados antes de la observación, cancela esta superposición. La detección por la retina colapsa el paquete de ondas característico del fotón, como ocurre al observar el paso de un fotón en los experimentos con dos rendijas. El fotón se encuentra en estado de complementariedad, como diría Bohr: impacta y no impacta la retina. De acuerdo con la ecuación de Schródinger, habrá por tanto una superposición de la señal nerviosa: presencia y ausencia de señal a lo largo del nervio óptico. Será la conciencia de la persona la que colapse la onda del fotón y lo fije como partícula. La retina de la persona consciente está efectuando una medición; esto desencadena una señal nerviosa perteneciente al mundo de la física clásica. Tenemos, pues, una interface en el ojo que nos lleva del mundo cuántico y complementario al mundo de la física clásica, donde las cosas siguen la normalidad que conocemos cada día. Así como ocurre con el fotón en el ojo, de igual forma podemos imaginar toda la actividad cerebral guiada por los principios de complementariedad y de incertidumbre, con la ecuación de Schródinger llevando el compás de ese telar mágico donde se tejen nuestros deseos, recuerdos y emociones. Así, el cerebro ensayaría no sólo una, «sino un inmenso número de posibles configuraciones, todas superpuesPag 227 tas», avanza Penrose [La mente nueva del emperador, p. 516]. El cerebro, en tal estado, puede realizar cálculos superpuestos simultáneos. La acción del pensamiento consciente está muy ligada a la resolución de configuraciones que previamente estaban en la superposición lineal de estados. Todo esto está relacionado con la física desconocida que gobierna la línea divisoria entre [la cuántica y la clásica] y que a mi modo de ver, depende de una teoría de la gravitación cuántica, GQC, aún por descubrir [La mente nueva del emperador, p. 517].

Penrose aventura una hipótesis con respecto al tiempo. Hace notar que en las descripciones físicas el tiempo no fluye en absoluto. Sólo tenemos un espacio-tiempo en el que se disponen los sucesos. No obstante, a nosotros nos parece que el tiempo fluye Mi conjetura es que aquí también existe algo ilusorio, y el tiempo de nuestras percepciones no fluye «realmente» en la forma de avance lineal en que lo percibimos fluir (independientemente de lo que esto pueda significar). El ordenamiento temporal que uno «parece percibir es, afirmo, algo que imponemos a nuestras percepciones para poder darles sentido en relación con la progresión temporal uniforme hacia adelante de una realidad física externa [La mente nueva del emperador p. 523].

Cuando Mozart captaba de golpe una composición musical completa, ésta no se veía sometida al tiempo que toma interpretarla. Tampoco parecen coincidir los largos tiempos de respuesta medidos en Pag 228 el laboratorio con los tiempos en que respondemos a una actividad consciente, como en un rápido juego de ping-pong. Algo semejante observamos en el experimento EPR llevado a cabo por Aspect: el enlace de partículas no puede describirse en función del espacio-tiempo ordinario de forma compatible con la relatividad.


Niveles de conciencia Por supuesto, Penrose no considera que únicamente el humano sea poseedor de conciencia. Y proporciona ejemplos de animales en los que hay una chispa, un destello súbito por el que se aprehende una situación y se resuelve un problema. Nos da el de un chimpancé al que «se le ilumina» la cara al pensar, súbitamente, una solución para alcanzar unos plátanos. Estaba leyendo el nuevo libro de Penrose en el jardín cuando ocurrió un ejemplo aun mejor de conciencia, sin comillas, animal. Mis dos perros, el Oso y el Yanko, cocker y dálmata, se pasan la tarde (y sólo la tarde, por alguna razón que ignoro), ladrándoles a las personas que cruzan frente a la reja. Las esperan asomados a una reja pequeña y cuando ven una víctima corren a la reja grande, donde tendrán oportunidad de ladrar más rato. Ambos conocen la carrera que pega el otro perro cuando ve aproximarse un incauto o incauta y, sin comprobar, se unen corriendo a la diversión. Es importante este detalle: cada uno conoce el tipo de carrera que indica «huPag 229 mano, perro o bicicleta aproximándose», que es muy distinta de otras carreras. Hace unos minutos, Oso encontró un hueso metido en una rendija. Lo sacó trabajosamente y luego se pagó sus esfuerzo royendo lentamente su tesoro. El Yanko lo mira con envidia, las orejas atentas, la mirada fija en el hueso. Es más grande y fuerte, así que fácilmente se lo podía haber arrebatado a la mala, pero prefirió una vía más amistosa: se puso en pie y lanzó carrera de «viene alguien a quien ladrarle», el Oso reaccionó al instante y se lanzó a la carrera rumbo a la reja. Pero el Yanko, tras unos cuantos pasos a la velocidad correcta, que es a todo vuelo, se dio vuelta y se dirigió sin dudarlo al hueso abandonado. ¡Había fintado la carrera! «Dijo» que venía alguien para quedarse con el hueso. No es poca cosa la ocurrida. Implica que para los animales, nosotros y los demás animales no somos «cajas negras» que producen conducta, sino seres con estados internos. «Si corro de la forma P, este que roe el hueso entenderá que viene peatón, correrá conmigo y descuidará el hueso.» Es la presunción completa de un estado interno, esto es, de un estado de conciencia, en su amigo perro. La conciencia es un continuo que abarca a todos los seres vivos. Se agudiza en perros y gatos, más todavía en los primates, incluido por supuesto el ser humano. También a lo largo de nuestra vida, la conciencia es un continuo que comienza con expresiones casi vegetales: en el recién nacido es apenas una respuesta como la fotokinética por la que las plan Pag 230 tas siguen la luz, luego aparece la percepción del espacio y la distancia, después la separación entre el mundo interno y el externo, hasta que la conciencia es plena alrededor de los ocho años, alcanza su culminación con la madurez y comienza su declive hacia la inconciencia de la senectud. Microtúbulos y Gódel Hay algo fundamental que falta en nuestra física. ¿Hay alguna razón en la física misma para


pensar que podría haber algo no computable en esta física faltante? Bien, pienso que hay alguna razón para creer esto: que la verdadera teoría cuántica gravitatoria podría ser no computable [Penrose, The Large, the Small and the Human Mind, p. 120].

Mientras no tengamos una teoría unificada de la física, una Teoría del Todo que incluya la gravitación, deberemos aceptar que, por razones misteriosas, los efectos cuánticos sólo se dan en el nivel atómico, y que al pasar a los objetos macroscópicos vuelve a regir la física clásica. Por lo mismo, si la conciencia está relacionada con efectos cuánticos, deberemos buscarlos en estructuras muy por debajo de la célula. En la célula nerviosa por excelencia, la neurona, encontramos unas estructuras de pequeñez molecular, los microtúbulos. Éstos transportan los neurotransmisores hasta las sinapsis neuronales. La nueva física podría expresarse en estos microtúbulos. Pag 231 «Una de las cosas que más me excitan de los microtúbulos es que son tubos. Siendo tubos, hay grandes probabilidades de que puedan aislar de la actividad azarosa en el ambiente lo que ocurre en sus interiores» [Penrose, The Large, the Small and the Human Mind, p. 131]. Y lo que ocurre en sus interiores estaría dictado por la nueva física, esa física faltante. Habría oscilaciones cuánticas en esos tubos, y por supuesto entrarían en superposición de estados. Los microtúbulos de los axones podrían ser la interface entre el mundo material y la conciencia, y ésta a su vez sería el medio para captar el mundo matemático platónico, el acceso a ese mundo que no creamos, sino que descubrimos. «En cierto punto, el estado cuántico podría enlazarse con el ambiente», dice Penrose, empleando el término «enlazar» en el sentido de los fotones de Aspect y su cancelación del tiempo y del espacio como los intuimos. «Así pues, sostengo que necesitamos algo en el cerebro que esté suficientemente aislado para que la nueva física tenga una oportunidad de desempeñar un papel importante» [p. 134]. Y serían los microtúbulos, aislados del ambiente, lo que podría permitir la acción de esa «física faltante». Así es como la superposición cuántica de estados, en caso de darse en los microtúbulos neuronales, explicaría la característica no computable de la conciencia. Por el principio de correspondencia de Bohr, las leyes clásicas, las del mundo cotidiano, «son simplemente la forma límite asumida por las fórmulas de la teoría cuántica cuando el número Pag 232 de los quanta o partículas implicados es muy grande», sostiene Eddington [véase «The Decline of Determinism»]. Las superposiciones cuánticas en los microtúbulos pasarían a un solo estado, definido clásicamente, por acción de la conciencia. Pero la conciencia misma seguiría esperando explicación. Quizá no la tiene por ese límite descubierto por Godel. Parafraseando su famoso teorema quedaría así: la conciencia no puede ser comprendida dentro de la conciencia misma. Pag 233

CAPÍTULO 10: EL INICIO EGEO DE LA AVENTURA A nuestra imagen y semejanza


Todos los pueblos antiguos comenzaron por explicarse los fenómenos naturales atribuyéndolos a seres poderosos e invisibles: dioses, espíritus, enojos y venganzas de fuerzas celestes. Algunos todavía lo hacen. Egipcios y caldeos, chinos y babilonios; después mayas, germanos o navajos, todos explicaron lo natural que no entendían, por lo sobrenatural. Hace 2.500 años, los griegos no ilustrados tampoco fueron excepción: los rayos tenían por causa la furia de Zeus, así como la de Poseidón era la causa de las tempestades y era necesario aplacarlos con obsequios; unos dioses se aliaron con Troya y otros con las ciudades griegas durante la guerra cantada por Hornero. En todas partes encontramos dioses hechos a imagen y semejanza de sus pueblos: sangrientos en el altiplano de lo que hoy es México, pacíficos donde el pueblo es pacífico, vengativos donde la ley del padre es la única garantía de supervivencia. Zeus y su Pag 234 esposa Hera son celosos como griegos, él la engaña con cuanta joven hermosa y jovencito guapo aparece en los campos llenos de ninfas y sátiros. Ella urde toda clase de represalias, las organiza en silencio, como buena esposa griega. Para todos los pueblos antiguos, el mundo era incomprensible salvo como capricho de dioses y espíritus siempre impredecibles. La benéfica crecida anual del Nilo debía suplicarse con anticipación y con ofrendas suficientes. En China y en Persia, en la India y en América, los dioses hacían de las suyas con los humanos. Cuando amanecían de buen humor se contaba con lluvia suficiente y cosechas para esperar los meses de frío, pero por quítame allá esas pajas podían encolerizarse y lanzar plagas contra los cultivos, enfermedades, guerra y hambre contra los seres humanos. Era necesario adivinarles sus deseos para prevenir los escarmientos. Primeras regularidades Aunque no todo parecía un capricho. Los seres humanos comenzaron a encontrar, por observación, regularidades en la naturaleza. Las más notorias estaban en los cielos: el sol, la luna y las estrellas tenían un comportamiento perfectamente predecible. A su vez, eran dioses en todas las culturas, pero comenzaban a desacoplarse dos nociones: el disco solar en tanto tal y los arrebatos de Ra provocados en ocasiones por su vida familiar y ni siquiera por errores de los seres Pag 235 humanos. Datos cotidianos, como el paso del sol de oriente a poniente, recibían explicaciones de acuerdo con los usos y costumbres de los pueblos. Era el dios solar viajando entre las riberas del gran río celeste, era carro de fuego, era lo que cada pueblo empleara para viajar. No sabemos cuándo surgieron las primeras explicaciones sobre los fenómenos de la naturaleza, pero las más antiguas están basadas siempre en las pendencias entre los dioses y los seres humanos. De manera paralela, comenzó a desarrollarse en todos los pueblos la observación: el paso de las estaciones, el perfecto orden de las estrellas y el desorden en cinco de ellas, que vagaban de aquí para allá por entre las estrellas fijas, y


por lo cual los griegos las llamaron «planitis», que significa «vagabundo». Pero la observación, así sea minuciosa y se acumule por milenios, como en las tablas astronómicas chinas, no produce nuevo conocimiento: una vez apuntados todos los erráticos movimientos de Venus o de Marte a lo largo de unos años, el trabajo ha terminado. Salvo que alguien se haga otra pregunta: « ¿Por qué?» La respuesta puede venir de la fantasía popular y, así, cada pueblo tendrá una distinta. Pero si son distintas, ¿no serán todas falsas? ¿Cómo comprobar que alguna es verdadera? En la inmensa mayoría de los pueblos, estas dudas no surgieron nunca. Los cielos y la tierra eran como eran por mandato expreso, en cada instante, de algún ser inmortal. La caída de las piedras, la forma de una flor, el aullido de un animal, la tormenta y el rayo: todo Pag 236 encontraba explicación fuera de la naturaleza, en lo sobrenatural. Y cada pueblo atribuye a lo sobrenatural diversas maneras de acción porque lo único que requiere es fantasía. Si los leones dibujaran.... Ahora es fácil aceptar que los dioses son hechura de sus pueblos, pero fue un filósofo griego el primero en advertir esta similitud. Xenófanes, cuya filosofía se expresó en grandes poemas épicos, hizo el siguiente escarnio de las creencias populares: «Los hombres suponen que nacen los dioses teniendo forma humana, voces y piel, y sin embargo si los bueyes tuvieran manos, y las tuvieran los caballos y los leones para poder dibujar como los hombres, los caballos dibujarían a los dioses como caballos y los bueyes como bueyes.» Esto fue dicho en el siglo VI antes de Cristo y en Jonia, nombre griego para la costa oriental del Egeo, hoy turca, donde nacieron los primeros intentos de interrogar a la naturaleza. «Hay un solo Dios», escribió Xenófanes, «que ni en imagen ni en pensamiento se parece a los mortales». Arthur Koestler llama al siglo VI antes de Cristo «el milagroso siglo de Buda, Confucio, Lao-Tsé, de los filósofos jonios y de Pitágoras». En una hermosa imagen describe un viento primaveral que parece soplar desde China hasta la isla de Samos, en el Egeo, despertando la conciencia de los seres humanos. Pag 237 En la escuela jónica de filosofía, el pensamiento racional comenzaba a surgir del mundo de los sueños mitológicos. Era el principio de la gran aventura: la búsqueda prometeica de explicaciones naturales y de causas racionales que, durante los 2 000 años siguientes, iban a transformar al hombre más radicalmente que los 200 000 años anteriores [Los sonámbulos, p. 22]. A ese amanecer lo llama «la fiebre jónica». La fiebre jónica No es menor el entusiasmo de Carl Sagan por el amanecer de la razón en la antigua Jonia. El caos fue, para los primitivos griegos, lo sin forma. De él surgió el orden: el cosmos. El caos es caprichoso e impredecible, el cosmos regular, por lo tanto puede conocerse. En palabras de Sagan: «En el siglo VI antes de Cristo, en Jonia, se desarrolló


un nuevo concepto, una de las grandes ideas de la especie humana. El universo se puede conocer, afirmaban los antiguos jonios, porque presenta un orden interno: hay regularidades en la naturaleza que permiten revelar sus secretos» [Cosmos, p. 175]. Descubrir que en el universo había orden y leyes llevó al paso inmediato: tratar de encontrarlas, de comprender lo que llamaron «cosmos», develar sus secretos. Ése fue el paso esencial e indispensable para fundar lo que hoy llamamos ciencia. Primero, una intuición germinal que decía: la naturaleza se comporta con base en regularidades, y estas proceden de la misma naturaleza y no de mandatos exPag 238 ternos a ella. Segundo, el inmediato afán por conocer esas regularidades. Así de sencillo, y así de difícil, pues sólo hubo una chispa. Su fuego creció durante 300 años, declinó por otros 300, en 300 más se apagó por completo y así permaneció durante mil años. Hasta que los hombres del Renacimiento soplaron los rescoldos y la llama revivió. ¿Por qué saltó esa chispa, esa primera intuición germinal, en Jonia y no en pueblos más antiguos? ¿Por qué no en China, India, Egipto, Babilonia o Centroamérica?, se pregunta Sagan, refiriéndose más bien a lo que los antropólogos llaman Mesoamérica. «¿Por qué no en la India, una cultura muy rica y con dotes matemáticas?», insiste. ¿Por qué ni siquiera en culturas más modernas? Es una buena pregunta que muchos nos hemos hecho y su respuesta es tan insuficiente como cualquier otra. Sagan atribuye el amanecer de la Jonia preclásica al hecho de que las numerosas islas y las quebradas costas que la integraban produjeron diversidad, comercio, intercambio. Jonia fue un punto de cruce para las grandes culturas de Egipto y Mesopotamia. ¿Por qué no? El río Mississippi constituye una vía navegable tan rica o más que el Mediterráneo oriental y unió diversas culturas americanas, ninguna de las cuales es grandiosa. Los mayas, aunque mil años después que los jonios, podrían haber navegado por CentroamériPag 239 ca, Yucatán, parte del Caribe, subido por el Mississippi, pero no lo hicieron. Como los hindúes, los mayas tuvieron magníficas matemáticas y observaciones escrupulosas de los astros, pero ninguno de estos importantes pueblos abandonó a sus dioses ni, mucho menos, intentó explicar el mundo mediante los números, como había hecho Pitágoras un milenio antes. Los mayas pudieron predecir eclipses solares, pero los siguieron atribuyendo al devoramiento del Sol por una inmensa serpiente cósmica. Sagan, en ignorancia pasmosa de los tiempos en la historia de México, pero en acto de buena voluntad y de corrección política, menciona hasta a los aztecas como un pueblo, entre los grandes, al que no llegó la luz que iluminó a los jonios. Así es. Pero el nombre no tiene por qué aparecer entre las civilizaciones antiguas, pues sabemos que 2 000 años después del amanecer de la ciencia en el Egeo, los aztecas, en pleno 1300 de nuestra era, con Atenas ya en ruinas, apenas iban llegando al Valle de México arrastrando una cultura de cazadores-recolectores superada en China 10000 años antes. 10000 años de atraso histórico respecto de China no son pocos. Y la mal llamada Conquista, por la que México quedó fundado y repoblado, en buena medida se explica porque ninguno de los pueblos americanos, ni los más elogiados, conocía el hierro, el metal para hacer espadas. Pero, sobre todo, ninguno se había propuesto la tarea iluminadora de interrogar a la


naturaleza. Comercio hubo, y mucho, en Mesoamérica. Hubo diversidad de naciones y de culturas. Hubo rutas de Pag 240 comunicación, inteligencia, arte. Pero no despertó aquí en América ni en China ni en India el interés por encontrar leyes y orden, por ver al mundo como un cosmos y no como un caos. En consecuencia, no hubo ciencia, y la ciencia es la madre de la técnica y la técnica es ama y señora de la guerra. Un pueblo sin ciencia es un pueblo perdido porque será avasallado más bien pronto que tarde. Así pues, al parecer no queda sino una explicación: para suponer que la naturaleza tiene regularidades y, por lo tanto, que podemos conocerlas, fue preciso, en primerísimo término, abandonar a los dioses. Por qué ocurrió ese abandono en la Jonia del siglo VI antes de Cristo y no en otros lugares y otros tiempos, quizá sea para siempre una interrogante sin respuesta.* Tales Los primeros filósofos, en la Jonia de 600 años antes de nuestra era, a los que también llamamos presocráticos porque sentaron las bases del pensamiento de Sócrates, dieron el paso que fundó la ciencia cuando trataron de explicar la naturaleza por la naturaleza misma. El agua, el fuego, la tierra, el aire, los números dando estructura matemática al cosmos, según cada filósofo y su escuela, eran la base subya* Tras revisar las pruebas de este libro leí una respuesta asombrosamente erudita y perspicaz: se trata de la fascinante visión acerca de los últimos 13 000 años de historia, desplegada con rigor y pasos precisos por Jared Diamond en Guns, Germs and Steel [Nueva York: Norton, 1999].

Pag 241 cente a los fenómenos. Todos siguen citando a los dioses, pero ya no los hacen responsables de los fenómenos naturales. Están allí, algunos filósofos creen en ellos, otros no, pero no forman parte de la explicación. Entre los jonios, el más antiguo es Tales de Mileto, nacido en el 625 antes de nuestra era. Son suyas las primeras especulaciones sobre la realidad física. Propone al agua como la esencia del orden cósmico; calculó el eclipse solar del año 585 antes de nuestra era; en Egipto descubrió un método para medir la altura de una pirámide a partir de su sombra. Con él da inicio la organización de la geometría, la cual concluiría tres siglos después con Euclides. Anaximandro Anaximandro, nacido en el 611 antes de Cristo, también fue de Mileto. Amigo joven y colega de Tales, no aceptó, sin embargo, su teoría del agua y propuso un sustrato último de toda realidad, al que llama «arjé», principio; para Anaximandro, los mundos son infinitos y eternos, sin principio ni fin. Adelantándose veinticinco siglos a Darwin, sostuvo que puesto que los seres humanos no se alimentan por sí mismos en la infancia, debían de provenir de otros animales que sí lo hacen y por tanto logran sobrevivir en situaciones en las que un ser humano perece, que todos debieron de tener su origen en el agua y posteriormente algunos fueron obligados a vivir en tierra, donde pasaron


Pag 242 de una forma corporal a otra, llenando así la tierra con toda su diversidad. No es muy diferente lo que en nuestros días propone la biología evolucionista. Observando los cambios diarios en la sombra de una simple vara clavada en el suelo, Anaximandro determinó con precisión la duración del año. Fue quizá el primer ser humano en no buscar una explicación para el sostenimiento de la Tierra en el espacio: no está ni flotando en agua, ni sobre una tortuga. Su idea fue asombrosamente sencilla: la Tierra está en el centro exacto del universo y por ende no hay fuerza alguna que la atraiga. Aunque ahora sepamos que no está ni remotamente en el centro de nada, la idea sigue siendo válida para explicarle a un niño por qué no cae el planeta. El universo de Anaximandro consiste en esferas concéntricas. La más externa es de fuego. Luego viene una opaca a través de cuyos orificios vemos la luz del fuego cósmico; los agujeros mayores son el sol y la luna, las estrellas en cambio son pequeños orificios. El modelo, una vez más, es falso y no permite explicar los movimientos de los planetas entre las estrellas fijas, pero ya es un modelo mecánico y no una barca en la que el dios solar se pasea de una ribera a otra del firmamento. El modelo mecánico del universo, parecido en muchos aspectos a los primeros mecanismos, con sus ruedas y engranes, habría de durar desde Anaximandro hasta 1916, cuando Einstein publicó su teoría general de la relatividad. Pag 243 Anaxímenes Para Anaxímenes, también jonio del siglo VI antes de Cristo, el principio de toda la realidad es el aire. El aire es infinito y se encuentra en eterno movimiento. El aire se convierte en fuego o se condensa en nubes, cae como lluvia y esa agua se transforma en tierra y luego, con el tiempo, ésta se endurece en piedra. Así es como ese ciclo acuático explica la multiplicidad de los elementos físicos. Anaxímenes continuó con la idea de las esferas ensambladas, sólo que las imaginó de cristal y con las estrellas pegadas «como uñas», dice. El sistema de Anaxímenes fue perfeccionado setecientos años después, en Alejandría, por Ptolomeo y habría de durar hasta el siglo XVI de nuestra era, cuando el canónigo y astrónomo Copérnico propuso su sistema. Poco al sur de Mileto, cruzando apenas un estrecho canal, en la isla de Cos, Hipócrates había fundado por entonces su escuela de medicina. Entre los pocos fragmentos que nos han llegado de sus escritos, además del juramento hipocrático, uno está en perfecta línea con la nueva forma de entender la naturaleza: «Los hombres —escribe Hipócrates— creen que la epilepsia es divina simplemente porque no la entienden. Pero si llamaran divino a todo lo que no entienden, realmente las cosas divinas no tendrían fin.» Pag 244 Pitágoras cambia el mundo En la isla de Samos, frente a la costa de Mileto, de la que la separa apenas un estrecho brazo de mar, nació Pitágoras en el año 580 antes de nuestra era. Nos dio dos palabras inmortales aún empleadas en todos los idiomas: «cosmos», mundo organizado y coherente, y nada menos que «filosofía», amistad por la sabiduría. Los pitagóricos se


enamoraron de los números; veían en las matemáticas la realidad perfecta de la que las apariencias percibidas no son sino un imperfecto reflejo. Las demostraciones matemáticas, para ellos, eran atisbos al mundo perfecto. Probaron que si bien existe un número infinito de polígonos regulares, sólo hay cinco cuerpos tridimensionales: los llamados sólidos regulares, cuyas caras son el mismo polígono regular. Fundaron una iglesia y se llenaron de ritos secretos y prohibiciones insólitas, como la de comer alubias o la de revelar a las personas comunes la existencia del quinto sólido, el dodecaedro, formado por doce pentágonos. Vieron en la esfera una figura perfecta y la hicieron modelo para el perfecto mundo de los cielos. No tuvieron peor crisis que el descubrimiento de un número que no se podía expresar como dos números enteros formando un quebrado: la raíz cuadrada de 2. Para agravar esta anomalía en el perfecto mundo de los números, el descubrimiento se había hecho al aplicar el teorema llamado precisamente «de Pitágoras»: que la suma de los cuadrados de los lados más cortos de un triángulo recto es igual al cuadrado del lado más largo. Cuando aplicaron este descubriPag 245 miento al más perfecto de los triángulos, que era el formado por dos lados con valor 1 (siendo este número 1 cualquier unidad), descubrieron aterrados que la solución al teorema, o sea la medida del lado más largo o hipotenusa, debía ser la raíz cuadrada de 2, y este número no podía expresarse como razón de dos números enteros, como un quebrado. Dada la fascinación de los pitagóricos por los números enteros, su edificio filosófico parecía tambalearse. Éste fue otro descubrimiento que escondieron, aunque por la razón contraria a aquella por la que habían ocultado el dodecaedro. Esa misma fascinación de los pitagóricos con los números enteros los llevó a hacer notables descubrimientos musicales al subdividir, en segmentos determinados por proporciones enteras, las cuerdas de una lira. Fueron éstos los primeros experimentos con las armonías musicales. Era una prueba más de la armonía universal determinada por los números. Pitágoras propuso que la Tierra era redonda, con lo que establecía las bases de lo que unos tres siglos después sería el sistema heliocéntrico de Aristarco, según el cual el Sol es el centro del universo, no la Tierra. Pitágoras hizo la propuesta en parte por su admiración a la forma geométrica que llamaba perfecta, pero también, como buen científico, por observación. El mundo griego fue de marinos, y era notoria la manera peculiar en la que desaparecían los barcos en el horizonte: no se iban empequeñeciendo hasta desaparecer, sino que parecían bajar una colina: primero desaparecía el casco bajo las Pag 246 aguas, luego las velas, y había un último instante en el que sólo era visible la punta más alta de la vela blanca. El fenómeno se repetía, a la inversa, con la llegada de un barco: tampoco se iba haciendo visible desde un punto en el horizonte, sino que aparecía primero la punta más alta de la vela, luego lo demás parecía emerger de las aguas. De nuevo, como si saliera tras de una colina. Esa colina era la redondez del mundo. No le costó mucho trabajo a Pitágoras plantear que no podía ser un segmento de esfera, sino una esfera completa. La idea pitagórica de un mundo perfecto del que éste sólo es reflejo fue recogida, más de


cien años después, por Platón, y de Platón pasó a la Iglesia cristiana primitiva. Cuando Galileo descubrió con su pequeño telescopio que la Luna tenía montañas, ya en pleno Renacimiento, hace unos cuantos siglos, el dato causó conmoción porque se encontraba por primera vez un cuerpo celeste que no era perfecto. Resultaba particularmente grave porque Platón había ingresado a la Iglesia por la vía de san Agustín. Así que la perfección de las esferas celestes ya no era un asunto sólo de astronomía, sino de fe. Heráclito Heráclito, nacido en el año 576 antes de Cristo, en Éfeso, poco al norte de Mileto sobre la costa jónica, propone el extremo opuesto al eterno permanecer de Parménides. «Todo cambia», «Nadie se baña dos veces Pag 247 en el mismo río», la realidad fluye siempre, como fluye un río, y es por tanto siempre nueva. El universo surge por la oposición de contrarios: luz y tinieblas, paz y guerra, justicia e injusticia, comienzo y fin, son todos parejas de contrarios; «es una armonía de tensiones opuestas», lucha de contrarios, pero también es síntesis que une los contrarios como en la esfera se unen el principio y el fin. «La naturaleza ama los contrarios, y es con ellos, y no con los semejantes, como produce la armonía.» En el siglo XIX, Hegel habría de dar nueva forma al pensamiento de Heráclito en la dialéctica. Pocas décadas después de Hegel, Marx y Engels harían de la dialéctica su herramienta de análisis para desmenuzar la economía y la historia. Hoy la física cuántica nos informa que la materia se produce siempre en pares opuestos: una partícula de materia y una de antimateria entran por instantes a la realidad y vuelven a la nada en una danza que llena todo el espacio, aun el más vacío y donde la temperatura sea el cero absoluto. Heráclito dejó de especular sobre la esencia del ser y descubrió que lo único concreto era el devenir, el cambio. Parménides Parménides es uno de los primeros filósofos de importancia que no son jonios. Nació en Elea, ciudad griega del sur de Italia, la llamada Magna Grecia, en el año 540 antes de Cristo. Es el fundador de la escuela eleática sobre las enseñanzas dejadas por Pag 248 Xenófanes. En un extenso poema titulado La naturaleza, del que han llegado a nosotros tan sólo fragmentos, sostiene que el ser es eterno, inmóvil y sin cambio, perfecto como una esfera indestructible, que los cambios y mutaciones del mundo son mera opinión transmitida por nuestros sentidos. Su discípulo más famoso es sin duda Zenón de Elea, quien, siguiendo la doctrina de su maestro, con la conocida paradoja de Aquiles y la tortuga quiso demostrar que el movimiento no existe. En una carrera a campo traviesa, el veloz Aquiles da una pequeña ventaja a la lenta tortuga. Esa ventaja bastará para que Aquiles jamás la alcance y la tortuga llegue triunfante a la meta. Nos dice Zenón que cada vez que Aquiles llega a donde estaba la tortuga, ésta ya ha avanzado un poco; cuando de nuevo Aquiles llega a ese punto, la tortuga avanzó más, y así hasta el infinito. Otra forma de la paradoja es la siguiente: si disparo una flecha ésta nunca llegará al blanco. El razonamiento es así de impecable: entre el inicio y el final del recorrido hay una recta, formada por puntos sucesivos; siempre entre dos puntos cualesquiera puedo encontrar otro intermedio y dividir así el espacio una y otra vez hasta el infinito. Por lo tanto, los


puntos entre el inicio y el final son infinitos y el tiempo requerido para recorrer infinitos puntos será infinito. Si todos vemos que las flechas llegan y los corredores veloces pasan a los lentos, es porque tal es la opinión de nuestros falaces sentidos. La paradoja no pudo ser resuelta por los matemáticos sino hasta el siglo XIX. Pag 249 Anaxágoras Anaxágoras nació al comenzar el siglo V antes de nuestra era, en el año 499. Fue el primer filósofo que se instaló en Atenas, donde fue maestro de Pericles. En 434 debió abandonar dicha ciudad, acusado de impío, y volvió a Jonia. El sustrato del universo es el nous, la inteligencia, la mente, sostuvo Anaxágoras. El nous es infinito, puro, único. La mente infinita rige lo que es, lo que fue y lo que será. Postula que los cambios observables en la realidad son el resultado de la agregación y desagregación de elementos; así se anticipó a la teoría atómica moderna por la cual sabemos que los diversos elementos de la naturaleza (hidrógeno, helio, carbono, hierro, oro...) se forman por simple agregación y desagregación de elementos, en este caso de electrones. Dijo que el sol, la luna y las estrellas eran grandes piedras en llamas y en movimiento circular. Fue uno de los primeros en señalar que nuestros sentidos no eran confiables y en consecuencia no podían alcanzar el conocimiento de la verdad, pero admitía que podemos llegar a ella por el conocimiento parcial que nos dan las cosas visibles. Es ésta la gran duda que permeará toda la filosofía hasta nuestros días: ¿cómo podemos comprobar que una afirmación es verdadera? Ésta es la misma pregunta de Hilbert, y ya vimos en el capítulo anterior cuál fue la respuesta de Gódel. Pag 250 Protágoras Protágoras, ya plenamente del siglo V antes de Cristo (pues nació en el año 485), al parecer el primer filósofo en cobrar por sus lecciones, nos dio también la síntesis del humanismo: «El hombre es la medida de todas las cosas: de las existentes que son, y de las inexistentes que no son.» Otro más que, acusado de impiedad, debió abandonar Atenas. Protágoras prepara a Grecia para la llegada de Sócrates. Empédocles La fiebre jónica, para seguirla llamando con la hermosa expresión de Arthur Koestler, en 150 años se extendió por todo el Mediterráneo y llegó a las colonias griegas de Sicilia, donde en el 483, y en Agrigento, nació Empédocles, el médico a quien debemos uno de los primeros experimentos, en el pleno sentido moderno de la expresión. Todos hemos observado que cuando metemos un popote en agua y lo sacamos, sale vacío. Pero si, luego de meterlo, tapamos el orificio superior con el dedo gordo y sacamos el popote, el agua sigue misteriosamente detenida en su interior. Basta con separar el dedo un poco para que el agua caiga. Los niños descubren este comportamiento de los líquidos en sus refrescos y se baten manos y ropa jugando a beber por el extremo inferior de un popote lleno. Si, por el contrario, tapamos con el dedo desde antes de sumergir el popote, el agua no entra. Así demostró Empédocles la existencia del aire, que, por Pag 251


raro que nos parezca, no era ninguna evidencia. Que existiera y nos rodeara una sustancia material pero invisible, sin olor ni sabor, resultaba una idea descabellada que algunos filósofos habían sostenido sin comprobación. De manera clara, un experimento ahora demostraba que si el agua no entra cuando tapo el extremo superior del tubo y lo sumerjo, es porque algo hay dentro del tubo que lo impide. La respuesta de Empédocles era la correcta y probaba así la existencia del aire. En su experimento, Empédocles no utilizó más que un instrumento de cocina cuyo funcionamiento nadie podía explicar: la klepsidra. «Kleptis) significa ladrón; «idra», agua: ladrón de agua. La klepsidra es una esfera con perforaciones en el fondo y un tubo en lo alto. Al sumergirla, se llena de agua Al sacarla con el tubo superior tapado, el agua no cae. Al aire recién demostrado, Empédocles añadió el agua, el fuego y la tierra para explicar toda la infinita variedad de la naturaleza terrestre y celeste A él debemos también una idea que Darwin habría suscrito con gusto: dijo que en otras épocas había existido mayor variedad de seres vivientes, pero muchos de éstos «debieron haber sido incapaces de generar y continuar su especie, porque en el caso de todas las especies existentes, la inteligencia, el valor o la rapidez las han protegido y preservado desde los inicios de su existencia». Ésta es exactamente la idea de la selección natural y la adaptación al medio, hoy comprobada miles de veces. Pag 252 Demócrito: los átomos y el vacío Podemos terminar este repaso con Demócrito, aunque haya nacido en el 460 antes de Cristo, diez años después que Sócrates. A Demócrito debemos el concepto y el término «átomo»: propone los átomos como el último elemento de la naturaleza. Son el último porque son ya indivisibles, de allí su nombre: a-tomo. La «a» es partícula negativa, como en «afónico», sin voz; «arrítmico», sin ritmo. Y «tomo» viene de «tomé»; corte, como en «tomografía»: imagen en corte. El español ha formado una expresión semejante a partir del latín: «in-dividuo», el no dividido, persona. En griego moderno, «átomo» es persona o individuo. Cuando vaya a Grecia, en el hotel le preguntarán a usted, si va solo: «¿Ena átomo?» No están hablando de física nuclear: le preguntan si desea cuarto para una persona. Por sus posiciones y formas, los átomos de Demócrito dan origen a los cuerpos físicos. El átomo y el vacío son las únicas realidades. Hemos llegado a la perfecta explicación materialista. Átomos y vacío: materia y nada. Sólo eso forma el universo. Aristóteles Con el nacimiento de Sócrates, en el 470, termina la primera etapa de este amanecer de la razón, la fiebre jónica. Un joven discípulo suyo, Platón, formaría a su vez, al llegar a viejo, al hombre al que podemos considerar el primer científico, en el sentido plenamente moderno del término: Aristóteles. Nacido 85 años Pag 253 después de Sócrates, ya bien adelantado el siglo IV antes de Cristo, en el año 384, Aristóteles estudió la caída de los cuerpos, el movimiento, el espacio, el tiempo, el cambio en las trayectorias de los cuerpos; tamizó barro seco en busca del origen de los sapos y demostró que no los producía el calor del sol, como se afirmaba entonces, sino diminutos


huevéenlos puestos por animales semejantes, por lo que concluyó que todo animal procedía de otro semejante. Ahora nos parece obvio, pero entonces no lo era. Fundó la lógica, la física, la metafísica, la biología, la estética, la retórica, la moral, la poética, la psicología, la política, la economía, y acabó siendo hasta el padre de la teología cristiana a través de santo Tomás de Aquino. Tanto la Iglesia católica como todas las demás Iglesias cristianas sostienen el concepto aristotélico de «motor inmóvil» como la causa final y eficiente del universo; en otras palabras, Dios. La astronomía pitagórica Los pitagóricos desarrollaron la astronomía hasta un punto sólo comparable al que Copérnico y Kepler redescubrirían 18 siglos después. Si Pitágoras había dicho, siglos antes, que la Tierra era esférica, Filolao fue el primero en plantear que se movía. Giraba, dijo, en torno de un punto del espacio y describía un círculo en 24 horas. Ese movimiento real producía el aparente paso de los astros por el cielo. El sistema poseía complejidades innecesarias, así que otro pitagórico, Pag 254 alumno de Platón, Heraclides del Ponto, hizo más sencillo el movimiento de la Tierra poniéndola a girar, ya no en torno a un punto externo, sino sobre su propio eje. Eso explicaba los movimientos diarios de los astros, pero no los anuales. Conforme pasan los meses, los grupos de estrellas que llamamos constelaciones cambian en lenta sucesión, hasta que algunas dejan de ser visibles. Sólo permanecen todo el año visibles las constelaciones más cercanas al norte celeste. Luego, las desaparecidas regresan por la misma época del año. Los movimientos celestes No había ninguna explicación para ese movimiento anual del cielo, pero el nuevo sistema de pensamiento prohibía conformarse con alzar los hombros y murmurar que eran cosas de los dioses o la voluntad de un dios único. Debía encontrarse una explicación mecánica, con ruedas, esferas, engranes. Y no sólo para los cambios anuales en las constelaciones visibles, sino para movimientos aun más extraños: los de cinco estrellas brillantes que parecían ir y venir a su antojo entre las estrellas fijas. Una noche estaban entre estas dos estrellas. A la siguiente ya las habían rebasado. Corrían apresuradas un tiempo, luego se detenían en alguna constelación, sólo para emprender una marcha en sentido contrario, hacia estrellas por las que ya habían pasado. Venus era la más caprichosa de todas, pues aumentaba notoriamente de Pag 255 brillo, como si se aproximara, y luego parecía alejarse. Siempre cercana al sol, una temporada era estrella vespertina y en otra pasaba por enfrente o por atrás del sol y se convertía en lucero de la mañana Heraclides propuso una solución: las dos estrellas que tenían ese comportamiento, Mercurio y Venus, debían de ser satélites del Sol. Así pues, la Tierra estaba en el centro del universo, con el Sol girando en torno a ella, pero Venus y Mercurio giraban en torne al Sol y luego, siguiéndolo, daban vueltas a la Tierra. Estaba andada la mitad del camino para el sistema heliocéntrico que hoy todos admitimos. Aristarco


Fue Aristarco de Samos quien completaría el sistema heliocéntrico. Se cree que nació, significativamente, en el mismo año en que murió Heraclides, el 310 antes de Cristo. La única de sus obras que ha llegado a nosotros no es la más importante. En su obra principal, conocida por referencias de Arquímedes —su contemporáneo y el inventor más prolífico de la antigüedad— sostiene que el Sol, y no la Tierra, es el centro del universo, y que no sólo Mercurio y Venus giran en torno a él, como ya había descubierto Heraclides, sino también los demás planetas: Marte, Júpiter y Saturno, y también la propia Tierra. Una referencia de Plutarco es clara al respecto, asegura Koestler, así que no hay duda alguna en cuanto a que el sistema heliocéntrico fue no sólo propuesto por Aristarco, Pag 256 sino conocido y difundido. Pero la humanidad habría de olvidarlo durante casi 2 000 años. Ese movimiento anual en torno al Sol explicaba de manera elegante y sencilla tanto el cambio en el aspecto del cielo en una noche de invierno y una de verano, como los extravagantes vagabundeos de las cinco estrellas móviles. Simplemente, al estar la Tierra en diversas posiciones de su órbita anual en torno al Sol, vemos un diferente telón de fondo. Es como correr trazando un círculo: el paisaje frente a nuestros ojos va cambiando, pero al volver al punto de partida es de nuevo el mismo. Eratóstenes: la medición del planeta Llegamos a lo que podría ser el momento más deslumbrante de la ciencia antigua. En el Egipto helenizado nació Eratóstenes. Hacia mediados del siglo III antes de Cristo llegó a ser bibliotecario de la más famosa biblioteca de la historia, la de Alejandría. Allí leyó alguna vez un documento antiguo en el que se anotaba la curiosa observación de que en una ciudad muy al sur llamada Siena había un pozo donde el día más largo del año, y sólo en esa ocasión, el sol se reflejaba en el agua del fondo, pues sus rayos caían perpendiculares a la Tierra. Ese mismo día, cuando el disco solar estaba más alto, los objetos no proyectaban sombra. Aquello era muy extraño, pues en esa fecha —la del solsticio de verano, bien determinado por todos los pueblos agrícolas y por supuesto un dato constante en los cálculos de Eratóstenes, matemático, Pag 257 geógrafo, filólogo y astrónomo— en Alejandría los objetos sí proyectan sombra, aunque es la más corta del año entero. La explicación, se dijo el geógrafo, es la superficie terrestre: si fuera plana, no habría diferencia entre las sombras proyectadas por objetos el mismo día y a la misma hora. Si la hay y además aumenta conforme más al norte vamos, es porque se trata de una superficie curva. Imaginemos una pelota de hule con alfileres clavados en ella, todos dirigidos hacia el centro. Al colocarla frente a un foco, los alfileres más cercanos a la fuente de lúa no darán sombra; pero ésta será progresivamente larga conforme se alejen del foco. Eratóstenes mandó medir la distancia entre Alejandría y Siena: era el equivalente de 800 kilómetros actuales. Después clavó dos estacas siguiendo una plomada, una en Alejandría y la otra en Siena. Luego esperó la llegada del siguiente solsticio de verano. Al mediodía, cuando al sur los objetos no proyectaban sombra, midió la sombra en Alejandría.


Por una operación geométrica muy sencilla, Eratóstenes podía obtener el valor de una circunferencia con sólo conocer el ángulo proyectado desde el centro y el segmento de arco que subtiende al ángulo. Si las estacas se prolongaban hasta el centro de la Tierra, ¿qué ángulo formarían? Faltaba ese dato, pues el arco ya lo conocía: eran 800 kilómetros. Un teorema de Euclides, el 29 del libro I, demuestra que «una línea recta que corta dos líneas rectas paralelas hace ángulos alternos iguales uno al otro [véase la figura 10.1].

Figura 10.1 Euclides había avanzado, para esa prueba, desde el teorema 15, que prueba la igualdad de ángulos opuestos por el vértice [véase la figura 10.2]. Y luego, por los teoremas 27 y 28, demostró el 29.

Figura 10.2 Eratóstenes tenía sus paralelas, los rayos del Sol, y una línea recta que las corta: la estaca de Alejandría proyectada hasta el centro de la Tierra. De acuerdo con Euclides, bastaba pues con medir el ángulo formado por la estaca de Alejandría y la línea entre su punta y la punta de su sombra para conocer el ángulo formado por ambas estacas en el centro del planeta [véase la figura 10.3]. Eratóstenes realizó la medición de la línea for¬mada por la sombra al caer: eran siete grados. Esto significaba que el ángulo formado por la prolongaPag 259 ción de las estacas hasta el centro de la Tierra era también de siete grados. El círculo completo tiene 360 grados, así que siete grados caben 51 veces en un círculo. Pero esos siete grados de círculo eran 800 kilómetros. Estos 800, multiplicados por 51, son poco más de 40 000 kilómetros: la circunferencia de la Tierra medía 40000 kilómetros. Ahora sabemos que el resultado es correcto. Por tanto, concluyó, se puede llegar a la India navegando desde España hacia el oeste. La distancia siempre será menor de 40 000 Kilómetros.


Así fue como, unos 250 años antes de nuestra era, Eratóstenes midió la circunferencia de nuestro planeta sin otro equipo que dos varas clavadas en ciudades distantes, la medición de sus sombras Pag 260

Figura 10.3 Los ángulos A y B son iguales porque son alternos entre líneas paralelas (los rayos del sol) Pag 261 proyectadas en Alejandría y en Siena, del alto Egipto, y, lo más importante, el equipo intelectual de la geometría de Euclides. Éste es uno de los más bellos momentos del pensamiento humano y no existe nada comparable en otras regiones. No porque hayan sido habitadas por pueblos más tontos, sino porque nunca abandonaron las explicaciones religiosas. Alejandría se convirtió en el centro del mundo mediterráneo. Hacia el año 128 antes de Crista Hiparco de Nicea descubrió y calculó la precesión de los equinoccios y su ciclo de 26 000 años; propuso que las estrellas fijas también se desplazan aunque no alcance una vida humana para comprobarlo, que acaban muriendo. Fue también el primero en catalogar las magnitudes de las estrellas. Además de Eratóstenes e Hiparco, en Alejandría trabajaron Euclides, construyendo el edificio de su geometría, en la que se formarían Kepler, Newton y Einstein; Dionisio de Tracia, quien hizo por el lenguaje lo que Euclides por la geometría, según recuerda Sagan en Cosmos; Herófilo, el fisiólogo que demostró que el cerebro era la sede de la inteligencía; Herón de Alejandría, autor de la obra denominada Autómata, donde por primera vez se habla robots, el inventor de aparatos movidos por vapor y engranes; Apolonio de Perga, el matemático que estudió las secciones cónicas (elipse, parábola e hipérbola); Arquímedes, el mayor genio inventor de la antigüedad, y descubridor del principio por el que un barco de acero flota. Pag 262 600 años después, hacia el 400 ya de nuestra era, cayó el telón sobre la prodigiosa fiebre de conocimiento despertada en Jonia. Había durado mil años. Habrían de pasar otros mil años, éstos de silencio en el ámbito de la razón, hasta el Renacimiento italiano, para que volviéramos al punto donde nos habíamos quedado. Un largo milenio de paréntesis.


El amanecer egeo Cuando los filósofos de la antigua Jonia se dieron a la sorprendente labor de querer explicar el mundo por el fuego, el aire, la tierra, el agua o los números, dio inicio el amanecer de la razón humana. Los dioses o un dios único podían seguir existiendo, pero las causas de los fenómenos naturales estaban en la naturaleza. Zeus lanzando rayos por su furia estaba bien como explicación para el hombre inculto; el sabio, el filósofo, debía encontrar una explicación natural. Así nació ese intento de responder las grandes preguntas al que ahora llamamos ciencia, aunque los antiguos lo llamaron simplemente filosofía, amistad con la sabiduría. No era algo que necesitáramos para comer, pues para ello nos bastaba el saber cómo y cuándo las divinidades de cada pueblo hacían las cosas. Pero llenó otra necesidad tan imperiosa como el hambre: la de conocer las explicaciones últimas de las cosas por métodos de pensamiento que cualquiera pudiese seguir. Para aceptar como explicación de los rayos a Zeus era indispensable creer en él y por lo tanto ser Pag 263 griego. Para atribuirlos al castigo del dios único que había prometido enviar a su hijo a redimir el mundo era preciso ser parte del pueblo de Israel. En cambio cualquiera podía seguir las explicaciones de Aristóteles acerca de los huevos de rana que incuban en el lodo tibio. Por encima de las creencias religiosas cada lector se abría paso el método de Aristóteles buscando causas naturales a los efectos observados. Por eso se lo llama el Filósofo, con mayúscula, y el fundamento de la ciencia árabe y lectura obligada « la Iglesia de Cristo desde santo Tomás de Aquino Aristóteles, como después Galileo, Newton o Pasteur puede ser seguido hasta sus menores detalles por el budista, el cristiano o quien no tenga creencias religiosas. Y con toda la grandeza de Aristóteles, el paso más formidable en la independencia del pensamiento científico respecto de las preguntas cotidianas que le dan origen es quizá el que dio Euclides. Es verdad que los seres humanos, con la invención de la agricultura y la posesión privada de terrenos, necesitaron técnicas de medición: geometría, en una palabra. Pero la axiomatización creada por Euclides para levantar la geometría paso a paso, teorema por teorema, rebasa con mucho el afán de encausar polémicas entre vecinos con terrenos colindantes: la geometría de Euclides es una catedral fulgurante del pensamiento abstracto. Ya no importa si Euclides nos enseñó a medir terrenos; nos enseñó a pensar. La semilla griega, cuidada por los árabes tras la caída del imperio romano y del mundo clásico, ger Pag 264 minó en la época que, por eso mismo, llamamos Renacimiento. Inicialmente en Italia; luego, cuando la libertad de pensar y opinar trajo la gran escisión religiosa del protestantismo, la ciencia salió del mundo mediterráneo en busca de tolerancia. La encontró en países del norte que se habían ido sumando al protestantismo. Copérnico, Kepler y Galileo eran editados en la Holanda protestante y sus libros introducidos de manera subrepticia a los países católicos, donde estuvieron prohibidos hasta el siglo XIX. Por tal razón, en 200 años la producción científica pasó de Italia y el mundo mediterráneo


a Inglaterra, Holanda, Alemania y dondequiera que se pudiera decir, sin arriesgarse a la tortura y la muerte, que la Tierra gira alrededor del Sol y no a la inversa. La ciencia y la libertad de comercio produjeron, hace apenas tres siglos, la revolución industrial. Esta nueva manera de fabricar mercancías, basada en técnicas como la caldera de vapor, surgidas al descubrir leyes naturales, orden bajo el caos de las apariencias, trajo riqueza y el mundo quedó dividido como ahora lo vemos: entre los países que continúan la tradición jónica de interrogar a la naturaleza, y los que debemos comprar lo que en aquéllos se produce. La actual tolerancia hacia el pensamiento científico en los países sin esa tradición ha llegado demasiado tarde: no es siquiera la tortuga la que lleva ventaja, sino el veloz Aquiles, y somos nosotros quienes debemos alcanzarlo.

Terminado este otro libro, realiza un brillante relato de la historia de la teoría cuántica, nos muestra los principios de la física cuántica para aquellos individuos formados en otras disciplinas y con pocos conocimientos de física cuántica. También, ayuda a interpretar la divergencia existente entre las posturas positivistas y cuánticas, expresa breve pero claramente como cada pensamiento afecta las concepciones de los hijos de estos pensamientos; y abre una venta o mas bien, una puerta para ver las casas con otros ojos, imaginar otras realidades y modificar nuestra manera maquina de interpretar la naturaleza


BIBLIOGRAFÍA ANTIA, MEHER, «Quanta», The Sciences, vol. 39, no. 3, mayo/junio de 1999. AQUINO, TOMÁS DE, Summa Theologica, Chicago: Great Books of the Western World, vol. 19,1952 [varias versiones en castellano]. ARISTÓTELES, Physics, Chicago: Great Books of the Western World, vol. 8, 1952 [varias versiones en castellano]. BOHR, NlELS, «El espectro del hidrógeno», en F. R. Moulton y J. J. Schifferes (comps.), Autobiografía de la ciencia. CALAPRICE, A. (comp.) Einstein entre comillas, Barcelona: Norma, 1997. CLARK, R. W., Einstein. The Life and Times, Nueva York: Avon, 1972. DE BROGLIE, LOUIS, «Mecánica ondulatoria: los aspectos ondulatorios del electrón», en F. R. Moulton y J. J. Schifferes (comps.), Autobiografía de la ciencia. DlRAC, P. A. M., The Principies of Quantum Mechanics, Oxford: Oxford Science Publications, 1996 (1a ed.: 1930). DUNCAN, R., y M. WESTON-SMITH, La enciclopedia de la ignorancia, México: Fondo de Cultura Económica, 1985. EDDINGTON, ARTHUR S., «The Decline of Determinism», en M. Gardner, Great Essays in Science. ElNSTEIN, ALBERT, La relatividad, México: Grijalbo, 1982. ———, Einstein entre comillas, Barcelona: Norma, 1997. ———, Ideas and Opinions, Nueva York: Three Rivers Press, 1982. ————, «On the Generalized Theory of Gravitation», Scien-tific American, número especial, 1991. ————, «E=mc2», en M. Gardner, Great Essays in Science, Amherst: Prometeus Books, 1994. ———— «Exposición popular escrita por el mismo autor de la teoría», en F. R. Moulton y J. J. Schifferes (comps.), Autobiografía de la ciencia. Encyclopcedia Britannica, varias entradas. ENGELS, FEDERICO, Dialéctica de la naturaleza, México: Grijalbo, 1961. FARADAY, MICHAEL, «Diario de Faraday», en F. R. Moulton y J. J. Schifferes (comps.), Autobiografía de la ciencia. FELDMAN, G., y J. STEINBERG, «The Number of Families of Matter», Scientific American, febrero de 1991.


FEYNMAN, RICHARD P., «Space-Time Approach to Quantum Electrodynamics», Physical Review, vol. 76, no. 6, 15 de septiembre de 1949. ————, Six Easy Pieces, Reading, Mass.: Perseus Books, 1963. ————, Six Not-So-Easy Pieces, Reading, Mass.: Perseus Books, 1963. FINKELSTEIN, D., «The Quantum Paradox», Science and the Future 1987, Chicago: Encyclopaedia Britannica,1986. FORWARD, R. L., y J. DAVIS, Explorando el mundo de la antimateria, Barcelona: Gedisa, 1990. FURUSAWA, A., y otros, «Unconditional Quantum Tele- portation», Science, 23 de octubre de 1998. GARDNER, MARTIN, Great Essays in Science, Amherst: Prometeus Books, 1994. GARUCCIO, A., «Parametric Downconversion Photon Sour-ces, Beam Splitters, and Bell's Inequality», en Fun¬damental Problema in Quantum Theory, Nueva York: Annals of The New York Academy of Sciences, vol. 755, 1995. GLANZ, J., «Will the Higgs Particle Make an Early En-trance?», Science, 25 de junio de 1999. GELL-MAN, MURRAY, The Quark and the Jaguar, Nueva York: Freeman, 1994. GREENE, BRIAN, The Elegant Universe, Nueva York: Norton, 1999. GREENEBERGER, DANIEL M., «Two-Particles versus Three-Particle EPR Experiments», en Fundamental Problema in Quantum Theory, Nueva York: Annals of the New York Academy of Sciences, vol. 755, 1995. GREENEBERGER, DANIEL M., y ANTÓN ZEILINGER (comps.), Fundamental Problems in Quantum Theory: A Con-ference Held in Honor of Professor John A. Wheeler, Nueva York: Annals of the New York Academy of Scien¬ces, vol. 755, 1995. GRIBBIN, JOHN, In Search of Schródinger's Cat, Nueva York: Bantam Books, 1984. HAISCH, B., ALFONSO RUEDA y H. E. PUTHOFF, «Beyond E=mc2», The Sciences, noviembre/diciembre de!994. HARDY, LUCIEN, «The EPR Argument of Nonlocality without Inequalities for a Single Photon», en Fundamental Problems in Quantum Theory, Nueva York: Annals of The New York Academy of Sciences, vol. 755, 1995. HAWKING, STEPHEN, Historia del tiempo, México: Críti-ca, 1988. HAWKING, STEPHEN, y ROGER PENROSE, The Nature of Space and Time, Princeton: Princeton University Press, 1996. HEISENBERG, W., La imagen de la naturaleza en la física actual, Barcelona: Orbis, 1985. ————, «El principio de incertidumbre», en F. R. Moulton y J. J. Schifferes (comps.),


Autobiografía de la ciencia. HORGAN, JOHN, «Quantum Philosophy», Scientific Ame¬rican, julio de 1992. ————, El fin de la ciencia, Barcelona: Paidós, 1998. Hovis, R. C., y HELGE KRAGH, «P. A. M. Dirac and the Beauty of Physics», Scientific American, mayo de 1993. JEANS, JAMES, Physics and Philosophy, Nueva York: Dover, 1981 (1a ed.: 1943). JOHNSON, GEORGE, Fire in the Mind, Nueva York: Knopf, 1996. KAFATOS, M., y ROBERT NADEAU, The Conscious Universe, Nueva York: Springer, 1990. KlESS, T. E., «Three-Particle Bell Inequalities», en Fun-damental Problema in Quantum Theory, Nueva York: Annals of the New York Academy of Sciences, vol. 755, 1995. KOESTLER, ARTHUR, Los sonámbulos, México: Consejo Nacional de Ciencia y Tecnología, 1981. KWIAT, PAUL, HARALD WEINFURTER y ANTÓN ZEINLINGER, «Quantum Seeing in the Dark», Scientific American, noviembre de 1996. LEDERMAN, L., y D. TERESI, The God Particle, Nueva York: Delta, 1993. MANDEL, L., «Two-Photon Downconversion Experiments», en Fundamental Problems in Quantum Theory, Nue¬va York: Annals of the New York Academy of Sciences, vol. 755, 1995. MARCH, R. S., Física para poetas, México: Siglo XXI, 1977. MARSCHALL, L., «Nuil and Void», The Sciences, mayo/ju¬nio de 1999. MAXWELL, JAMES C., «Teoría dinámica del campo elec¬tromagnético», en F. R. Moulton y J. J. Schifferes (comps.), Autobiografía de la ciencia. MERMIN, N. D., «The Best Versión of Bell's Theorem», en Fundamental Problems in Quantum Theory, Nueva York: Annals of the New York Academy of Sciences, vol. 755, 1995. MOULTON, F. R., y JUSTUS J. SCHIFFERES (comps.), Au-tobiografía de la ciencia, México: Fondo de Cultura Económica, 1986. NAGEL, E., y JAMES R. NEWMAN, El teorema de Godel, México: Consejo Nacional de Ciencia y Tecnología, 1981. ORTOLI, S., y J.-P. PHARABOND, El cántico de la cuántica, Barcelona: Gedisa, 1985. PAULI, WOLFGANG, Theory of Relativity, Nueva York: Dover, 1981 (1a ed.: 1958). PENROSE, ROGER, La mente nueva del emperador, México: Fondo de Cultura Económica, 1996.


————, The Large, the Small and the Human Mind, Cam¬bridge: Cambridge University Press, 1999. PLANCK, MAX, «El origen y el desarrollo de la teoría del "quantum"», en F. R. Moulton y J. J. Schifferes (comps.), Autobiografía de la ciencia. ————, The Theory ofHeat Radiation, Nueva York: Dover, 1991 (laed.:1913). POINCARÉ, J. H., «La creación matemática», en F. R. Moulton y J. J. Schifferes (comps.), Autobiografía de la ciencia. POLKINGHORNE, J., «Heavy Meta», Scientific American noviembre de 1996. ————, The Quantum World, Princeton: Princeton University Press, 1989. REES, M., Just Six Numbers, Nueva York: Basic Books 2000. RlTH, K., y ANDREAS SCHÁFER, «The Mystery of Nucleón Spin», Scientific American, julio de 1999. RUTHERFORD, ERNEST, «La estructura eléctrica de la materia», en F. R. Moulton y J. J. Schifferes (comps.), Autobiografía de la ciencia. SAGAN, CARL, Cosmos, México: Planeta, 1985. ————, «Can We Know the Universe? Reflections on a Grain of Salt», en M. Gardner, Great Essays in Science, Amherst: Prometheus Books, 1994. ————, Billions & Billions, Nueva York: Ballantine Books, 1998. SCHRÓDINGER, ERWIN, Mi concepción del mundo, Barce¬lona: Tusquets, 1988. ————, «What is Matter?» Scientific American, número especial, 1991. —, «La idea fundamental de la mecánica ondulato- ria», en F. R. Moulton y J. J. Schifferes (comps.), Au-tobiografía de la ciencia. SEIFE, C., «The Subtle Pulí of Emptiness», Science, 10 de enero de 1997. SHIH, Y., A. SERGIENKO, T. PITTMAN y H. RUBÍN, «EPR and Two-Photon Interference Experiments Using Type-II Parametric Downconversion», en Fundamen¬tal Problems in Quantum Theory, Nueva York: Annals of the New York Academy of Sciences, vol. 755, 1995. SMITH, T. P., «Worlds within Worlds», The Sciences, ju-lio/agosto de 1996. TAUBES, G., «Atomic Mouse Probes the Lifetime of a Quan¬tum Cat», Science, 6 de diciembre de 1996. THOMSON, JOSEPH JOHN, «El descubrimiento del electrón», en F. R. Moulton y J. J. Schifferes (comps.), Autobio¬grafía de la ciencia. VON BAEYER, HANS CHRISTIAN, «Tiny Doubles», The Scien¬ces, vol. 37, no. 5, septiembre/octubre de 1997. ————, «Desperately Seeking SUSY», The Sciences, vol. 38, no. 5, septiembre/octubre de 1998. VOSS, D., «Making the Stuff of the Big Bang», Science, 20 de agosto de 1999. WATSON, A., «"Eraser" Rubs Out Information to Reveal Light's Dual Nature», Science, 10 de noviembre de 1995.


————, «Quantum Spookiness Wins, Einstein loses in Photon Test», Science, 25 julio de 1997. WEINBERG, STEVEN, «Unified Theories of Elementar? Particle Interaction», Scientific American, número especial, 1991. ————, The Discovery of Subatomic Particles, Nueva York Scientific American Books, 1983. ————, «A Unified Physics by 2050?», Scientific American, diciembre de 1999. WHEELER, JOHN A., A Journey into Gravity and Spacetimt Nueva York: Scientific American Books, 1990. YOURGRAU, PALLE, Godel Meéis Einstein, Chicago: Opeí Court, 1999. ZAJONC, ARTHUR, Atrapando la luz, Barcelona: Andrs Bello, 1996.


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.