LOS NÚMEROS COMPLEJOS EN LA FÍSICA ÍNDICE 1. Los números complejos en la Física El espacio cuatridimensional de Minkowski Circuitos de corriente alterna 2. Dualidad onda partícula El experimento de la doble rendija y el fenómeno de interferencia Emisión de los cuerpos negros El espectro del hidrógeno. El modelo de Bohr Efecto fotoeléctrico
Página 2 3 4 5 6 7 7 9
3. Ecuación de Planck Longitud, tiempo, energía y masa de Planck Unificación de las fuerzas del Universo. Modelo estándar La teoría cuántica extendida al campo electromagnético El cuarto estado de la materia: el plasma El quinto estado de la materia: el condensado de Bose-Einstein La disyuntiva de dos modelos: Heisenberg versus Schrödinger
11 14 14 16 17 18 19
4. Ecuación de Schrödinger Análisis de la ecuación de Schrödinger Interpretación según la dualidad onda partícula de De Broglie Interpretación según la intensidad de onda de Schrödinger Interpretación según la probabilidad de Born Interpretación de Copenhague. El pensamiento cuántico de Bohr Interpretación determinista. El pensamiento cuántico de Einstein Interpretación heterodoxa desde el análisis de las variables complejas Necesidad de la utilización de las variables complejas Incertidumbre experimental e instrumental
20 21 21 21 22 24 25 26 27 31
4. Principio de incertidumbre de Heisenberg
32
5. Bibliografía
34
1
Las leyes que gobiernan el mundo en escalas minúsculas dependen fundamentalmente del sistema de los números complejos1 Penrose 1. Los números complejos en la Física El físico matemático británico de reputación mundial Roger Penrose, en su libro El camino a la realidad, afirma que los números complejos "componen una notable unidad con la naturaleza. Es como si la propia naturaleza estuviera tan impresionada por el alcance y consistencia del sistema de los números complejos como lo estamos nosotros, y hubiera confiado a estos números las operaciones detalladas de su mundo en sus escalas más minúsculas”2. Penrose se refiere al mundo microscópico de la física cuántica, y deja fuera del ámbito de los números complejos a la relatividad general, pensada para velocidades próximas a la luz y para densidades energéticas y masas grandes, como los agujeros negros. a las leyes newtonianas, muy seguras en sus predicciones en un mundo ni demasiado pequeño ni demasiado grande, de grandes partículas y velocidades muy pequeñas. Pero la importancia de los números complejos trasciende la minúscula escala anunciada por Penrose. Los números complejos, formados por la combinación de un número real y otro imaginario, son usados en Física por puras razones prácticas en principio, para facilitar la representación de los fenómenos de propagación de ondas electromagnéticas. Nos da idea de la extensión de su empleo la presencia en temas tan diferentes como la formalización matemática del espacio-tiempo de Minkowski, creado por la teoría de la relatividad, o en los circuitos de corriente alterna, o en las ecuaciones representativas de la mecánica cuántica, o incluso en la teoría de Hartle-Hawking sobre los comienzos del universo, que supone un universo sin límites y un tiempo imaginario3. En la formulación de todos estos contenidos tan diversos se comparte la presencia de la pulsación ɷ de una onda electromagnética, o de la frecuencia υ equivalente, y ambas siempre aparecen acompañadas por la unidad imaginaria i. Así pues, el recurso de las variables complejas obedece a necesidades interpretativas de fenómenos físicos en los que hay que tratar matemáticamente con ɷ y υ. Pero en el tratamiento surge automáticamente la unidad imaginaria i. La mera presencia de i causa la apertura de un desfase angular φ entre la componente imaginaria y la propia variable compleja (suma de la componente real e imaginaria). El desfase angular se presenta sistemáticamente e introduce siempre en la ecuación de la que forma parte distorsiones geométricas, y a veces incluso incertidumbres de cálculo de efecto imprevisible. Resumiendo entonces, el empleo de variables complejas en las ecuaciones responde a exigencias en el tratamiento matemático de la pulsación ɷ y la frecuencia υ. Este par de 1
Penrose, R. (2014) El camino de la realidad, 5ª edición, Debate, pág. 134. Ibíd., pág. 133-134. 3 Hawking y Hartle demostraron la inexistencia de fronteras al calcular el estado inicial del Universo por medio de una aproximación de teoría cuántica de la gravedad. Si la propuesta de ausencia de límites fuera correcta, no habría ninguna singularidad, y las leyes de la Ciencia serían siempre válidas, incluso al comienzo del Universo. El modelo Hartle-Hawking descubría una singularidad del Big-Bang cuando se le aplicaba la relatividad general clásica, que desaparecía en la versión cuántica. Hawking, S. W. (2007) La teoría del todo. El origen y el destino del universo, Debate. 2
2
variables participa siempre en el mundo de la física acoplada a la unidad imaginaria i. Cuando la variable compleja a + bi queda formada, aparece el desfase angular φ, que separa las componentes a y a + bi. Para que la participación en el mundo de la física iniciada desde la formación de ɷi y υi funcione eficazmente a través de ecuaciones formuladas con variables complejas, hay que encontrar la geometría que integre el desfase angular φ. A mi juicio, todo este proceso representa una muestra genuina de confianza de la naturaleza en los números complejos, que muy probablemente ha considerado Penrose en su cita al comienzo de este apartado. El espacio cuatridimensional de Minkowski El espacio-tiempo cuatridimensional de Minkowski fue construido por la teoría de la relatividad general. La ecuación [M9] del fichero Las matemáticas en la Física define un intervalo espaciotemporal entre dos sucesos del espacio-tiempo. ds2 = dx2 + dy2 + dz2 – c2dt2 [M9]4 2 2 2 En la ecuación se incluye una componente real espacial (dx + dy + dz ) y otra imaginaria temporal (cidt)2. Ambas conforman una variable compleja, lo que implica: La componente imaginaria es función de la pulsación ɷ. Se abre un desfase angular φ entre la componente imaginaria cidt y la variable compleja ds. Por un lado, la luz es una onda electromagnética definida por su pulsación ɷ según la ecuación c = λɷ/2π, donde λ es la longitud de onda. La componente imaginaria ci en [M9] equivale a la componente ɷi, puesto que c = f (ɷ). Por otro lado, se verifica aquí lo que Penrose llama el efecto mágico de los números complejos, ya que la sola presencia de la componente imaginaria ci provoca el desfase angular φ. Se puede concluir por tanto que las dos variables, φ y ɷ, están vinculadas a la componente imaginaria cidt y a la propia estructura del espacio-tiempo de Minkowski. En la Figura M4 del fichero Las matemáticas en la Física se han representado geométricamente los conos de luz que limitan el campo de los fenómenos observables5 en el espacio cuatridimensional de Minkowski. El ángulo formado por la generatriz del cono y el propio eje del tiempo coincide con el desfase angular φ.
Figura M4
4
Para facilitar la lectura del texto, se insertarán ecuaciones y Figuras procedentes de otros archivos. Para ampliar la información de los campos observables, véase el apartado de La nueva geometría creada por el paradigma de la relatividad especial, del fichero Las matemáticas en la Física. 5
3
En este caso, el desfase angular abierto φ limita el horizonte de observación. Como se ha detallado en el fichero Las matemáticas en la Física, la superficie cónica de la Figura M4 definida por la ecuación [C1] limita el horizonte de un observador desde su vértice. ds = (dx2 + dy2 + dz2)1/2 + (cidt)2 = 0 [C1]6 2 2 2 [C1] se cumple cuando (dx + dy + dz ) = cdt, es decir para φ = π/4. Circuitos de corriente alterna Es típico el uso de variables complejas en los circuitos de corriente alterna. En síntesis, estos circuitos funcionan del siguiente modo: la intensidad que circula I provoca una caída de potencial V con dos componentes. La primera componente RI es real y es causada por el paso de I por la resistencia R; la segunda componente XI, producida al atravesar I la reactancia X, es imaginaria. El balance de potenciales queda expresado por la siguiente ecuación: V = ZI = (R + Xi)I = (R + i(Lω - 1/ωC))I [C2] La impedancia del circuito Z está formada por dos componentes: la resistencia R, que es una variable real, y la reactancia X, que es imaginaria. A su vez, la reactancia X se divide en una reactancia inductiva, XL = Lω, y otra capacitiva, XC = 1/ωC, ambas imaginarias. Para completar el cómputo de variables que conforman la ecuación [C2], L y C son la inducción y la capacidad del circuito, y ω su frecuencia. Los elementos incluidos en el circuito son la resistencia R, la reactancia inductiva XL y la reactancia capacitiva XC. La resistencia se opone al paso de la intensidad por el circuito. Actúa como un elemento pasivo, independiente de la frecuencia de la corriente que la atraviesa, R ≠ f (ɷ), y disipa una energía en forma de calor igual a RI2. La reactancia X es la oposición ofrecida por las bobinas y condensadores del circuito a la circulación de la intensidad en función de la frecuencia, X = f (ɷ). La reactancia está compuesta por una reactancia inductiva XL y otra capacitiva XC. La reactancia inductiva es creada por un elemento pasivo (bobina), que almacena la energía 1/2LI2 en forma de campo magnético por autoinduccción. Su función es proteger el circuito de los cambios bruscos de intensidad de corriente y asegurar que las oscilaciones de la intensidad se estabilizan. Así es, la reactancia inductiva genera un voltaje V(t) = LdI/dt que se opone al provocado por el cambio de corriente. La reactancia capacitiva se origina al introducir en un circuito un condensador. Se trata de un elemento pasivo, capaz de almacenar la energía eléctrica 1/2CV2 que recibe durante el periodo de carga de intensidad I(t) = CdV/dt; la misma energía es cedida después durante el periodo de descarga. Su función es regular el voltaje del circuito; cuando aumenta, el condensador acumula carga eléctrica; cuando disminuye, el condensador devuelve la carga acumulada al circuito. En el circuito de corriente alterna, se combinan ondas eléctricas (almacenadas en el condensador) y ondas magnéticas (almacenadas en la bobina). Su acción conjunta interacciona entre ambas ondas ortogonales y desfasadas π/2 entre sí y produce un vector resultante, cuya dirección sufre un desfase φ respecto a la onda eléctrica. Así pues, la perpendicularidad de los campos eléctrico y magnético, que requiere el empleo de variables complejas, se corresponde con la aparición de un desfase geométrico sistemático φ. El triángulo de potenciales cuyo balance queda reflejado en la ecuación [C2] está representado en la Figura C1. El carácter complejo de la variable ZI implica:
6
Desde aquí se inicia la numeración correlativa de la serie [C].
4
un desfase angular φ entre ZI y su componente real RI, o el desfase complementario π/2 - φ entre la componente imaginaria XI y la variable compleja ZI. que la componente imaginaria sea función de la pulsación ɷ, es decir, XI = f (ɷ). Por tanto, cuando se emplean variables complejas para describir fenómenos físicos, se cumple la doble condición indicada en el apartado anterior: la existencia de un desfase angular φ y la vinculación de la frecuencia ω a la componente imaginaria XI. En este caso, el desfase angular tiene representación geométrica en el plano, cuyo efecto es un simple giro de la posición RI a la posición ZI.
ZI XI φ
RI Figura C1 Especial interés tiene el análisis de la resonancia eléctrica, fenómeno que se produce en un circuito en el que sólo hay bobinas y condensadores atravesados por una corriente alterna de una frecuencia tal que la reactancia X se anula. La resonancia eléctrica se origina cuando la reactancia inductiva XL anula la reactancia capacitiva XC, es decir cuando Lɷ = 1/ɷC. Entonces: X = XL - XC = Lɷ - 1/ɷC → A la pulsación de resonancia ωR le corresponde la frecuencia de resonancia , 2 a la que la bobina libera la energía 1/2LI , exactamente igual a la absorbida por el condensador: 1/2CV2. Es decir, durante la primera mitad de un ciclo completo, la bobina absorbe toda la energía descargada por el condensador; durante la segunda mitad del ciclo, el condensador vuelve a capturar la energía liberada por la bobina. Este estado oscilatorio se conoce como resonancia. Si usted piensa que entiende la mecánica cuántica... entonces usted no entiende la mecánica cuántica7 Richard Feynman 2. Dualidad onda partícula En el apartado 2 de la Teoría de la relatividad especial, del archivo Las matemáticas en la Física, decíamos que la unificación establecida por Maxwell del campo eléctrico y magnético en el campo electromagnético afianzó el concepto de luz ondulatoria. La Figura M3 del mismo apartado ha esquematizado la evolución combinada de un campo
7
Cita de Richard Feynman, conocido investigador norteamericano en electrodinámica cuántica y en superfluidos, en Dawkins, R. (2013) El espejismo de Dios, Espasa Libros, pág. 275.
5
eléctrico perpendicular a otro magnético, componiendo una onda electromagnética8 propagada en dirección ortogonal a ambos. En [A2.6] y [A2.8] del Anexo 2 Ecuaciones de Maxwell se ha expresado la relación matemática de esta evolución combinada. Ambas ecuaciones representaron para Einstein el espaldarazo de su teoría de la relatividad especial. El tratamiento de la luz como una onda pareció resolver el problema que la difracción de la luz planteaba a la teoría corpuscular de Newton. [A2.6] 9 [A2.8] El experimento de la doble rendija y el fenómeno de interferencia La prueba empírica decisiva de la naturaleza ondulatoria de la luz fue aportada por el físico inglés Thomas Young, que ideó el experimento sorprendente de la doble rendija. El ensayo mostró por primera vez que la materia era influida por la observación. El experimento de la doble rendija consistía en colocar una placa fotosensible a una distancia determinada de dos placas metálicas: la primera, con una ranura en el centro, era la más próxima a la placa fotosensible; la segunda, con dos rendijas, estaba más alejada. Cuando Young proyectó un haz de luz sobre las placas metálicas, al atravesar la primera placa no sucedió nada extraordinario, pero al cruzar la doble rendija de la segunda placa las ondas luminosas se interceptaban entre sí; algunas se reforzaban, al coincidir los máximos de las ondas; otras se anulaban, al concurrir los máximos con los mínimos. Este fenómeno de interferencia quedaba registrado por la placa fotosensible situada detrás de la doble rendija. La sucesión de ondas reforzadas y anuladas a la salida de la doble rendija se correspondía con la inesperada imagen de rayas verticales con puntos claros y oscuros10. Hasta aquí el fenómeno de interferencia experimentado por Young explicaba claramente la naturaleza ondulatoria de la luz. Pero al sustituir el haz de luz por un flujo de electrones ocurrió algo extraño. Al atravesar la doble rendija, se repitió el fenómeno de interferencia. Aquello no era lo esperado, porque al electrón se le asociaba la naturaleza de partícula, no de onda. Se pensó que el experimento se distorsionaba por la aparición de choques imprevistos entre los electrones. Así que se repitió la prueba, esta vez proyectando electrones sobre la rendija uno a uno. El fenómeno de interferencia volvió a presentarse de nuevo. Pero al proyectarse la imagen de los electrones sobre la placa fotosensible antes de pasar la doble rendija, desaparecían las rayas verticales alternando
8
La onda electromagnética tiene dos componentes vectoriales perpendiculares a la dirección de propagación, aunque los vectores pueden oscilar en diferentes direcciones y variar su amplitud con el tiempo. La suma de ambas componentes transversales va trazando una figura geométrica que define el tipo de polarización de la onda; a la recta le corresponde la polarización lineal; al círculo, la polarización circular; y a la elipse, la polarización elíptica. 9 Aquí se interrumpe la numeración correlativa de ecuaciones de la serie [C] por la inserción de ecuaciones de los Anexos. 10 Considerando el movimiento de las ondas de luz compuesta de fotones indivisibles, ¿cómo era posible el fenómeno de difracción por una ranura? Si se intentaba cerrar el paso de fotones estrechando la ranura, la maniobra resultaba inútil, ya que los fotones pasaban por los espacios más estrechos. Sin embargo, el comportamiento del fotón discriminaba entre una ranura estrecha, en la que era difractado, de otra ancha, por la que pasaba sin desviarse. Por otra parte, la ranura producía difracción sólo si su anchura superaba unas cuantas veces la longitud de onda de la luz. Lo que indicaba que alguna propiedad del fotón estaba relacionada con la longitud de onda. Planck resolvería este misterio relacionando la energía del fotón con su longitud de onda.
6
puntos claros y oscuros. Es decir, el electrón se comportaba como onda después de pasar por la doble rendija, y como partícula antes de pasar. De este modo quedó demostrada la naturaleza dual onda partícula de los electrones. Sin embargo, lo extraordinario del resultado experimental fue el cambio de la naturaleza de la materia por el simple hecho de ser observada. Parecía como si el electrón decidiera su comportamiento en función del lugar y el momento en que fuera observado, o que sus distintas naturalezas (onda y partícula) estuvieran interconectadas de alguna manera. Si el fenómeno de interferencia resultó definitivo para probar la naturaleza ondulatoria de la luz, tres contrapruebas refutaban esa misma teoría ondulatoria: la emisión de los cuerpos negros a distintas longitudes de onda, el espectro de absorción del hidrógeno y el efecto fotoeléctrico. Las tres anomalías contradecían la hipótesis de que la materia y la energía eran continuas. Emisión de los cuerpos negros Hasta finales del XIX se creía que un cuerpo caliente emitía energía continua con una intensidad constante para todas las frecuencias. La ecuación de Rayleigh y Jeans11, aplicada por la teoría clásica, determinaba que la intensidad de energía era directamente proporcional a la temperatura y al cuadrado de la frecuencia. Según esta relación, la emisión de alta frecuencia tendía al infinito en el espectro ultravioleta. Pero el aumento ilimitado de la intensidad energética pronosticado por Rayleigh y Jeans, conocido como la catástrofe ultravioleta, contradecía el postulado de conservación de la energía. Max Planck postuló en 1900 que las ondas electromagnéticas solo podían emitirse en cantidades discretas y que cada cuanto de energía dependía de su frecuencia, es decir frecuencias altas implicaban cuantos de energía altos. Como la frecuencia no podía ser infinita, la radiación emitida por cualquier cuerpo vinculada a ella tenía que ser finita. En conclusión, un cuerpo negro debía perder energía a partir de una frecuencia crítica. La revolucionaria idea de Planck daba explicación de la radiación emitida por un cuerpo negro para todas las frecuencias y reemplazaba radicalmente el concepto de emisión continua de energía por emisión intermitente en paquetes denominados cuantos. El espectro del hidrógeno. El modelo de Bohr El espectro de emisión de un elemento atómico es la huella electromagnética marcada después de ser sometido a una agitación térmica suficiente como para que los átomos rompan sus enlaces y salten a un estado de energía superior. Cuando cesa la agitación térmica, cada elemento retorna a un estado energético inferior que lo caracteriza. Las huellas de líneas discontinuas del espectro del hidrógeno no estaban previstas por el modelo ondulatorio clásico y entraron en contradicción con la teoría de Maxwell. La explicación de que la absorción electromagnética del hidrógeno se espaciara en líneas discretas se resolvió con el nuevo paradigma de Planck, que pronosticaba un espectro discontinuo causado por los paquetes cuánticos. El modelo atómico de Bohr se basó en la información de la serie espectral de las longitudes de onda del átomo hidrógeno y que la teoría del electromagnetismo clásica de Maxwell no supo explicar. Fue propuesto en 1913, y su contenido se podía resumir en un par de postulados principales:
11
El barón Rayleigh recibió el premio Nobel en 1904 por el descubrimiento del gas argón. James Jeans era astrónomo y matemático.
7
Un electrón siempre absorbe o emite la energía E electromagnética en cuantos discontinuos y completos, de acuerdo con la ecuación E = hυ12; h es la constante de Planck y υ la frecuencia de la onda. En las únicas órbitas potenciales de un electrón, el momento angular es nh/2π, siendo n un número entero. El electrón dentro de estas órbitas no emite energía. Del primer postulado, Bohr dedujo que las órbitas del átomo eran circulares, dado que la aceleración centrípeta, función del radio orbital, era incompatible con la idea de la emisión continua de la radiación electromagnética. El segundo postulado se basó en que la luz emitida en el espectro del átomo no contenía todas las frecuencias, sino únicamente las del momento angular definido nh/2π13. A partir de estos postulados, Bohr calculó el radio de la órbita seguida por el electrón y su energía total. Partió de la fuerza centrípeta Fc de un electrón de masa me que se movía a una velocidad v en una órbita circular de radio r: Fc = mev2/r [C3] De acuerdo con la ley de Coulomb, la fuerza de atracción electrostática Fe entre el electrón de carga e y el núcleo, de número atómico (número de protones) Z, es: Fe = 1/4πε0 Ze2/r2 [C4] ε0 es la permitividad eléctrica del vacío y Ze la carga eléctrica del núcleo del átomo, de signo contrario a la del electrón. Igualando las ecuaciones [C3] y [C4] se puede despejar la velocidad v del electrón en su órbita estacionaria de radio r. [C5] El electromagnetismo clásico predecía que un electrón moviéndose de forma circular emitía energía; por tanto debía colapsar sobre el núcleo al cabo de un cierto tiempo. El modelo de Bohr superó este planteamiento al descubrir que los electrones sólo podían ocupar órbitas específicas, definidas por su nivel energético. Cada órbita se identificó con un número entero n, que simbolizaba el número cuántico principal y que tomaba valores desde 1 en adelante. Como los electrones no podían radiar energía mientras giraban dentro de sus órbitas, el balance energético se obtuvo igualando el momento angular de rotación con el momento angular definido en el segundo principio, es decir con nh/2π, previa sustitución de la velocidad v obtenida en [C5] :
De esta ecuación se puede despejar el radio r de las únicas órbitas atómicas posibles: [C6] a0 = 0,529 Angström es el radio de Bohr, que corresponde a la distancia entre la órbita del electrón y el núcleo del átomo de hidrógeno. Es decir, es el valor del radio orbital para n = Z = 1, valores del número cuántico y de protones del hidrógeno. La energía total del electrón E en su órbita es la energía cinética más la potencial: [C7] Sustituyendo el valor de v de [C5] en [C7], resulta:
12
Véase la ecuación [C11] de Planck más abajo. Sólo si el electrón salta de la órbita de momento h/2π a la de momento h/π, o de la del momento h/π a la del 3h/2π, y así sucesivamente, el electrón emite energía, pero nunca al girar dentro de su órbita. 13
8
[C8] Sustituyendo el valor de r de [C6] en [C8], se obtiene finalmente: [C9] Si un electrón de hidrógeno salta de de un nivel orbital n1 a otro n2, absorberá o emitirá la energía de la ecuación [C9] para Z = 1. La energía es igual a hυ, según el primer postulado de Bohr. [C10] La ecuación [C10] calcula la frecuencia de la órbita del electrón en función de los dos niveles del salto: n1 y n2. El coeficiente del segundo miembro de [C10] coincide con las medidas experimentales de la frecuencia. La cinemática del átomo de hidrógeno de Bohr quedaba perfectamente definida por la velocidad del electrón deducida en [C5], por el radio de los orbitales potenciales de [C6], por la energía total del electrón de [C9] y por la frecuencia de la energía emitida o absorbida por el electrón [C10] al saltar de órbita. Confirmado por los resultados experimentales, el modelo atómico de Bohr resultó ser en su momento la base más fiable de la mecánica cuántica. No sólo dio explicación del espectro de emisión del hidrógeno, sino que se adaptó a los postulados cuánticos manteniendo el propio modelo en un estado dinámico permanente. En la década de 1920, el modelo de Bohr-Sommerfeld daba cuenta de ese estado dinámico sustituyendo al modelo primitivo de Bohr con el objetivo de ampliar los números cuánticos que definían los orbitales atómicos. Su introducción permitió afinar la estructura del átomo de Bohr y perfeccionar su encaje con los resultados empíricos. Para explicar las nuevas estructuras orbitales alternativas a las circulares de Bohr, el nuevo modelo atómico recurrió a cinco números cuánticos: el principal n, ya adoptado por Bohr y que estaba definido por el tamaño y la energía orbital de la capa ocupada por el electrón contada a partir del núcleo; Sommerfeld14 añadió el azimutal l, que vinculó con la excentricidad de las órbitas elípticas. Los tres números cuánticos restantes eran15: El magnético orbital ml, definido por la orientación del orbital de la subcapa. El de espín16 s, definido por el espín del electrón. El magnético de espín ms, definido por la orientación del espín. Efecto fotoeléctrico Otro fenómeno que tenía desconcertado a los físicos del siglo XIX era el efecto fotoeléctrico, que consistía en la emisión de electrones desde metales expuestos a una luz de longitud de onda fija. Casi veinte años pasaron desde los primeros ensayos de Rudolf Hertz17 sobre la distancia crítica entre dos electrodos para hacer saltar un arco 14
Sus aportaciones en física atómica y física cuántica culminaron con la caracterización de la interacción electromagnética por un valor adimensional. Su facilidad para encontrar parámetros adimensionales resultó decisiva en la construcción del modelo atómico que lleva su nombre. 15 Añadir los dos últimos números cuánticos, s y ms, a la lista previa de tres fue necesario para explicar la aparición de dobletes en el espectro de emisión de varios elementos químicos, incluido el hidrógeno. Los dobletes son líneas horizontales del espectro producidas por el desdoblamiento de la energía de orbitales causado por el campo magnético del espín electrónico. 16 El número cuántico de espín es a veces omitido por su valor constante. 17 Descubridor del efecto fotoeléctrico, este físico alemán malogrado por una muerte temprana tuvo el honor de que la unidad de frecuencia, el hercio, tomara su propio nombre como homenaje póstumo.
9
eléctrico en función de la frecuencia hasta la explicación teórica de Einstein del proceso fotoeléctrico. El fundador del paradigma relativista publicó18 la formulación de la fotoelectricidad que marcaría el comienzo de las ideas cuánticas de Planck. En este trabajo, Einstein confirmaba que la luz cedía toda su energía en forma de cuantos a un único electrón, y añadía que los cuantos se comportaban como partículas llamadas fotones. Más adelante, la combinación de las partículas de fotones y los paquetes cuánticos de energía resultarían claves para la concepción de los cuatro campos de la Física: gravedad, electromagnetismo, nuclear débil y nuclear fuerte. Durante todo el siglo XIX se interpretó con dificultad el fenómeno de la aberración de la luz a partir de la teoría ondulatoria. Bradley19 descubrió la aberración lumínica el siglo anterior, cuando intentó medir el paralaje de las estrellas. El célebre astrónomo real inglés esperaba observar un movimiento elíptico, paralelo y opuesto al movimiento orbital terrestre, de una amplitud dependiente de la distancia de la estrella observada a la Tierra. Sin embargo, aunque Bradley advirtió que la estrella se movía siguiendo una trayectoria elíptica, lo hacía en dirección perpendicular a la trayectoria terrestre. La aberración se medía por la pequeña desviación angular formada entre la posición fija de la estrella y la percibida en dirección del observador y dependía de la velocidad del mismo Bradley, es decir de la velocidad de la Tierra en su órbita alrededor del Sol. El resultado obtenido en el histórico experimento tenía explicación de acuerdo con la noción corpuscular de la luz, y así lo expuso el propio astrónomo. Con el descubrimiento de la aberración de la luz comenzó un traumático periodo para la historia de la Física, durante el que se intentó conciliar este fenómeno con el paradigma onda de la luz. El prestigio de la teoría ondulatoria se labró a principios del siglo XIX, con el estudio del fenómeno de interferencia de Young mencionado más arriba. A pesar del empuje dado por Bradley a la teoría corpuscular, ésta no fue muy bien recibida por la comunidad científica. El efecto del experimento de la aberración lumínica quedó amortiguado por la contundencia del experimento de Young y por el crédito otorgado a la tantas veces demostrada naturaleza ondulatoria de la luz. Hasta que en 1905 surgió el artículo de Einstein ya citado del efecto fotoeléctrico, basado en la noción cuántica y donde la luz mostraba su comportamiento corpuscular. A pesar del aparato matemático desarrollado para descifrar correctamente el fenómeno, muchos físicos se opusieron a considerar la luz como un haz de partículas individuales. Quienes mantenían esta posición apreciaban el agudo despliegue teórico de Einstein, pero no cambiaron de opinión sobre el funcionamiento indiscutible de la luz como onda. Más adelante, Millikan20 confirmó que la energía cuántica de los fotones proyectados sobre una placa era proporcional a la frecuencia de la luz y determinaba el proceso de fotoemisión. Por ejemplo, si un fotón cedía energía a un electrón por encima de su umbral de emisión21, este último escapaba de la superficie del metal; por debajo del umbral de emisión, el electrón no podía escapar. Sin embargo, la intensidad de la luz no modificaba la energía de los fotones y no afectaba por tanto el fenómeno fotoeléctrico; sólo cambiaba el número de fotones emitidos. Únicamente variando la frecuencia de la 18
Einstein, A. (1905) On a Heuristic Viewpoint Concerning the Production and Transformation of Light, Annalen der Physik 17: 132-148. 19 Además de la aberración de la luz, James Bradley detectó la nutación del eje de rotación de la Tierra, un movimiento ligero provocado por la atracción de nuestro satélite. 20 Einstein y Millikan fueron galardonados con el Nobel en 1921 y 1923 respectivamente por sus trabajos sobre el efecto fotoeléctrico. 21 El umbral de emisión es el trabajo necesario para que un electrón salte de su órbita liberado del enlace atómico, es decir para escapar de la fuerza de atracción electrostática del núcleo del átomo. Cada metal tiene su frecuencia umbral: los metales pesados precisan de mayor energía de emisión que los ligeros.
10
luz, es decir su color, se alteraba la energía del fotón: si la energía cedida por el fotón excedía el umbral de emisión del electrón, la diferencia entre la energía cedida y el umbral contribuía a aumentar la energía cinética del electrón libre separado de su órbita. La prueba empírica de Compton22 remató la demostración de la validez de la teoría cuántica, al comprobar la dispersión inelástica de un fotón por un electrón en el experimento fotoeléctrico. Lo específico del ensayo de Compton fue emplear fotones de alta energía, es decir de frecuencia muy alta. Cuando el electrón capturaba el fotón, el electrón saltaba de su órbita de acuerdo con el efecto fotoeléctrico, pero perdía parte de la energía absorbida emitiendo fotones menos energéticos. Este fenómeno se reconoció como el efecto Compton, donde la pérdida de energía del fotón en la transmisión se manifestaba en el experimento por el crecimiento de la longitud de onda del electrón. El experimento de Compton acabó demostrando la naturaleza corpuscular de la luz. La dispersión del fotón pudo explicarse como el choque inelástico entre dos partículas: el fotón, impulsado por su energía cinética, y el electrón, girando en la órbita de su átomo. Todos estos cincuenta años de cavilación consciente no me ha acercado a la respuesta de la pregunta ¿Qué son los cuantos de luz?23 Albert Einstein 3. Ecuación de Planck La Figura C324 de la distribución espectral de la radiación emitida por un cuerpo negro en función de la frecuencia es una línea continua, con un máximo que varía con la temperatura del cuerpo negro. Según Planck, la emisión funciona según el siguiente esquema: 1. La radiación del cuerpo negro está en equilibrio con los átomos dentro de un recinto, que se comportan como osciladores armónicos de frecuencia υ. 2. Cada oscilador absorbe o emite radiación en una cantidad proporcional a υ, es decir, su energía sólo puede tener los valores 0, hυ, 2hυ ,3hυ ....nhυ, , donde h es la constante de Planck25.
Figura C3
22
Arthur Compton recibió el premio Nobel en 1927 por el descubrimiento del efecto que lleva su nombre, por su investigación sobre rayos cósmicos y sobre polarización y espectros de los rayos X. 23 Frase tomada de De la Peña, L. (2004) Cien años en la vida de la luz, Colección La ciencia para todos Nº 200, Fondo de Cultura Económica, pág. 137. 24 Figura tomada de https://es.images.search.yahoo.com/search/images. 25 Todo el razonamiento seguido hasta aquí en este párrafo se ha apoyado en el trabajo de La radiación del cuerpo negro UPV/EHU. http://www.sc.ehu.es/sbweb/fisica/cuantica/negro/radiacion/radiacion.htm.
11
De acuerdo con la segunda fase del esquema, la energía de los osciladores se muestra en cuantos discretos, según la célebre ecuación de Planck: E = hυ == ħɷ, [C11] ɷ = 2πυ es la pulsación, y la constante de Planck normalizada ħ =h/2π es el factor de conversión entre los viejos sistemas de unidades, kJ, y la unidad natural mecano cuántica de energía, que es el ciclo por segundo. Planck expuso la revolucionaría explicación de que la energía no se irradiaba como un continuo del espectro electromagnético a cualquier frecuencia posible, sino en paquetes discretos discontinuos. El número de paquetes estaba determinado por la frecuencia de la energía. Por ejemplo, la emisión de luz de baja frecuencia precisaba pocos paquetes de baja energía, mientras que para emitir luz en el extremo ultravioleta del espectro se requería gran número de paquetes de alta energía. Esta exégesis del funcionamiento de la emisión de un cuerpo negro supuso un hallazgo notable, pero su transcendencia creció cuando Einstein explicó el efecto fotoeléctrico utilizando los cuantos energéticos. El planteamiento de la radiación de energía de Planck fue llevada más lejos por Einstein al afirmar que en el efecto fotoeléctrico los paquetes discretos energéticos eran administrados por la naturaleza como partículas de luz. El concepto radical de proponer la energía como paquetes discretos26, múltiplos de hυ, culminó en el segundo postulado cuántico, a pesar de que no armonizaba con la estructura continua de la onda relativista y que parecía más afín al esquema discontinuo newtoniano de partículas. El balance de pruebas y contrapruebas empíricas presentadas en los cuatro apartados precedentes para dar explicación de la naturaleza de la materia y de la energía se puede sintetizar, después de la formulación de Planck, en la Tabla 1. Tabla 1 Experimento
Naturaleza Luz Electrones Energía Doble rendija Ondulatoria Onda-partícula Onda electromagnética Emisión de cuerpos negros Cuántica Espectro del hidrógeno Cuántica Efecto fotoeléctrico Cuántica
El príncipe De Broglie planteó en 1924 una opción alternativa de compromiso al idear por primera vez la estructura dual onda partícula. Partió de la partícula de un fotón y le asoció la ecuación [C11] de la energía de Planck, y el momento, p = h/λ [C12] λ es la longitud de onda del fotón (véase Cuadro adjunto). El momento se deduce a partir de su definición p = mc [C13] m es la masa del fotón y c su velocidad. Para una onda electromagnética, c = λν → λ = c/ν [C14] λ es la longitud de onda del fotón. Sustituyendo la variable ν de [C11] en [C14], se obtiene λ = hc/E. Pero como E = mc2 → λ = h/mc Sustituyendo mc por su valor en [C13], se obtiene el momento del fotón: p = h/λ → λ = h/p [C15] .
26
La naturaleza discreta de la variable E de [C11] planteaba problemas prácticos de precisión de medida.
12
De este modo la onda partícula quedó asociada a la onda electromagnética y al fotón: la primera determinada por la energía [C11] y el fotón, por su momento [C12]. En el postulado 7 de Anexo 8 Ecuación de Schrödinger se sintetiza la acción onda partícula en el par [A9.14], donde es el vector de onda27 de módulo 2π/λ. {E = ħɷ; = ħ } [A9.14] 28 La estructura onda partícula responde a un comportamiento dual de la naturaleza de la materia. Como onda (E = ħɷ), no hay problemas en seguir su trayectoria, cuándo oscila y qué sucede en cada punto y en cada momento; la ecuación de la onda nos permite distinguir sus crestas, sus valles y sus puntos de inflexión. Pero como partícula ( = ħ ), la oscilación cesa súbitamente, y sólo mantiene la referencia de su posición como centro de la oscilación. Según Einstein, el fotón es la partícula producida por la agitación en un tiempo muy breve (del orden de t ≈ 10-9 segundos) de las cargas eléctricas de una molécula. Durante ese tiempo, las cargas generan una onda electromagnética que se propaga a la velocidad de la luz, junto con el fotón. La extensión de la onda es limitada; ocupa sólo la distancia que recorre la luz durante la agitación de las cargas. El cálculo de la distancia aproximada es λ = ct ≈ 3.1010.10-9 cm ≈ 30 cm Pero la idea atrevida de De Broglie fue extrapolar la asociación de la ecuación cuántica del momento y de la energía [A9.14] a cualquier partícula. Esta propuesta genial consideraba la dualidad onda partícula como un estado universal, lo que equivalía a reconocer que las partículas en general se comportaban como ondas. Davisson y Germer29 confirmaron experimentalmente la hipótesis de De Broglie. La prueba consistía en bombardear un haz de electrones hacia una placa de cristal de níquel. Previamente se excitaban los electrones térmicamente, y se proyectaban después al cristal a través de una cámara de vacío con una energía cinética determinada. La finalidad del experimento era medir el número de electrones que se dispersaba elásticamente. En plena observación ocurrió un incidente: entró aire en la cámara de vacío que oxidó la placa receptora de electrones. Para eliminar el óxido, se calentó el cristal de níquel a alta temperatura y la estructura cristalina se alteró. Entonces, Davisson y Germer advirtieron máximos de intensidad que no tenían explicación desde el esquema de choques elásticos entre partículas, Se esperaba que los átomos de níquel dispersaran los electrones en todas las direcciones. Sin embargo, el experimento reveló que se había generado una difracción por reflexión de electrones con picos de intensidad inesperados. Las longitudes de onda de estos picos coincidían con los valores teóricos de Planck de la ecuación [C15]. Así se confirmó la teoría de De Broglie, según la cual las partículas compartían las propiedades de las ondas. Pero el experimento de Davisson y Germer también jugó un importante papel en la aceptación de la mecánica cuántica y de la ecuación de Schrödinger entre la comunidad científica.
27
La introducción del vector le proporciona dirección y sentido al momento, cuya componente en cualquier dirección particular se puede definir como el cambio de fase de la función de onda cuando se desplaza un cm en dicha dirección el punto a partir del cual se mide la posición de la partícula. 28 Aquí se vuelve a interrumpir la numeración correlativa de ecuaciones [C]. 29 En 1927, Davisson y Germer probaron la exactitud de la longitud de onda pronosticada por de Broglie mediante el experimento de difracción de electrones. Davisson recibió por ello el premio Nobel en 1937.
13
Longitud, tiempo, energía y masa de Planck La inclinación de Einstein por los ingenios intuitivos le llevaba a pensar que había que elegir entre las experiencias sensoriales a la hora de definir un concepto o desarrollar una ley física. Su preocupación por el marco y la escala experimentales era menor. Pero la teoría cuántica obligó a revisar a fondo este tipo de ideas. Su carácter contraintuitivo y el tamaño reducido de su escala escapaban a la lógica de los sentidos y a los postulados de la mecánica clásica. Los deseos de Einstein de presenciar empíricamente la enorme gama de fenómenos y hacerlos corresponder con la teoría resultaban demasiado pretenciosos. Esa actitud se correspondía con la Física newtoniana, que manejaba magnitudes determinadas, de rango muy diferente que la Física cuántica. Una y otra operaban dentro de marcos cinético temporales y geometrías muy distintos. Cuando la escala de longitud onda y de longitudes locales se referían a los orbitales electrónicos, por ejemplo, se entraba de lleno en el dominio de lo probabilístico y de la indeterminación de Heisenberg del que sólo escapaban las magnitudes macro. Por consiguiente, la teoría cuántica tuvo que adaptarse a la métrica de magnitudes de orden subatómico, como la longitud, el tiempo, la energía y la masa de Planck. La longitud de Planck30 lp es la distancia por debajo de la cual se espera que el espaciotiempo deje de funcionar como una geometría clásica por la aparición de la gravedad cuántica. Es el punto físico menor de referencia para partículas subatómicas consideradas como puntuales. La acotación longitudinal lp elimina el problema de simetría que resulta de considerar puntos físicos menores que ella y de densidad infinita, dimensiones combinadas que se ajustan a los agujeros negros microscópicos. La longitud calculada en el Anexo 8 Longitud, tiempo, energía y masa de Planck es: lp = 1,6.10-35 m [A8.5] El tiempo de Planck tp es el periodo más pequeño que puede ser medido, es decir el tiempo que tarda un fotón en recorrer la longitud de Planck a la velocidad c. tp = 5,4∙10-44 s [A8.6] La energía de Planck Ep es la máxima energía que puede contenerse en una esfera de diámetro lp. Ep = 2∙109 J [A8.7] La masa de Planck mp es la contenida en una esfera de radio lp y que genera una densidad de 1093 g/cm3 que tendría el universo a la edad tp. .mp = 2,2∙10-8kg [A8.8] Unificación de las fuerzas del Universo. Modelo estándar Los postulados de la relatividad general y la mecánica cuántica han sido confirmados por rigurosas y repetidas evidencias empíricas. A pesar de ello, formar un modelo compatible con ambas teorías se ha mostrado extremamente difícil. En aplicaciones particulares, como la física de partículas, no es urgente alcanzar la unificación entre la relatividad general y la mecánica cuántica. Pero se echa en falta una teoría unificada de la gravedad en cosmología, un campo de la Física muy necesitado de ella. Resolver las inconsistencias entre ambas teorías ha sido un objetivo esencial en los siglos XX y XXI. Las cuatro fuerzas fundamentales que se manifiestan en el Universo son la gravedad, el electromagnetismo, la nuclear débil y la nuclear fuerte. 30
La longitud de Planck pertenece a la escala del espacio granular descrito por el físico Carlo Rovelli, uno de los fundadores de la teoría de la gravedad cuántica de bucles.
14
La fuerza nuclear fuerte mantiene unidos a protones y neutrones por la interacción de las partículas subnucleares quarks y gluones, con un efecto similar a las fuerzas de enlace que ligan los átomos para formar moléculas. Coexiste en el núcleo atómico en equilibrio con la fuerza de repulsión electromagnética entre protones. Su acción se percibe a muy cortas distancias, tales como el radio atómico. La fuerza nuclear débil se forma por el intercambio de bosones, que se manifiesta en la desintegración radiactiva. Su intensidad de campo es 1013 veces menor que la interacción nuclear fuerte. Desde finales del siglo pasado no han cesado los intentos de fusión de las cuatro fuerzas fundamentales de la Naturaleza para que una misma ley respondiera de su comportamiento en cualquier lugar y momento. Recordando el primer apartado del fichero Las Matemáticas en la Física, las leyes matemáticas que preservan las magnitudes físicas sin cambios se conocen como transformaciones de simetría. De modo que encontrar leyes comunes para las distintas fuerzas equivale a mantener las simetrías de las fuerzas que se tratan de unificar. Hasta el momento, las tentativas de fusión entre las fuerzas electromagnética y nuclear débil han sido recompensadas con el éxito31. En cambio, la simetría que unifique las fuerzas gravitatoria y nuclear fuerte con las la fuerza electrodébil no se termina de encontrar, o se incumple apenas encontrada. Es la misma dificultad que aparece cuando se trata de construir un modelo cuántico sobre la gravedad. En la formulación de una teoría común de la gravedad cuántica subsisten incompatibilidades arduas de resolver entre la relatividad general y algunas de las asunciones principales de la teoría cuántica. Muchos físicos destacados, como Stephen Hawking, han intentado descubrir una teoría explicativa que combine los modelos diferentes de física subatómica y que unifique las cuatro fuerzas integrantes del modelo estándar de la física de partículas: fuerza nuclear fuerte, electromagnetismo, fuerza nuclear débil y gravedad. Se trata de la teoría de la gran unificación, que busca la fusión de las cuatro fuerzas fundamentales a través de la mecánica cuántica. La electrodinámica cuántica, que es la teoría física más actualmente contrastada en competencia con la relatividad general, ha reunido con éxito la fuerza nuclear débil y el electromagnetismo en la fuerza electrodébil, y actualmente existen trabajos que tratan de conciliar esta últime y la fuerza nuclear fuerte. En 1995, Edward Witten formuló la supersimetría basándose en le teoría de las supercuerdas, aunque la falta de experimentos de verificación provocó un grado de escepticismo creciente. Ese mismo año, Carlo Rovelli describió las propiedades de la gravedad cuántica de bucles32, que trataba el espacio y el tiempo cuánticos como redes de bucles a las que llamó redes de espín. El tamaño menor de esta estructura de bucles era la longitud de Planck, aproximadamente 1.616×10−35 m. La teoría de la gravedad cuántica de Rovelli atribuyó a la materia y al espacio estructura común atómica. Actualmente, las predicciones de la teoría de gran unificación establecen que en torno a una potencia de 1014 GeV la fuerza nuclear fuerte, el electromagnetismo y la fuerza nuclear débil pueden fusionarse en un mismo campo. Más allá de esta gran unificación, se especula con la posibilidad de fusionar la gravedad con las otras tres fuerzas en torno a una potencia de 1019 GeV. Mientras se espera que la relatividad especial se incorpore plenamente a la electrodinámica cuántica, la relatividad general es la mejor teoría que describe la fuerza de gravitación. En el balance actual de unificación de las fuerzas presentes en el Universo, se alternan los triunfos breves y los fracasos. Hasta ahora, el modelo estándar ha funcionado muy 31
El modelo electrodébil fue desarrollado por Sheldon Lee Glashow, Abdus Salam y Steven Weinberg. por el que ganaron el Premio Nobel de Física en 1979. 32 En el espacio de la gravedad cuántica se forman redes de bucles que Rovelli nombra como redes de espín y que evolucionan a la llamada espuma de espín.
15
bien; su precisión en los resultados experimentales es muy alta. Su campo de acción son todas las partículas elementales y tres de las interacciones que se dan entre ellas: la nuclear débil, la nuclear fuerte y el electromagnetismo33. Aunque no está exento de problemas, este modelo integra la interacción electrodébil mediante una teoría que unifica la fuerza electromagnética con la nuclear débil, y deja para la teoría de la Cromodinámica Cuántica34 la descripción de la fuerza nuclear fuerte. En principio, con estas dos teorías se puede dar explicación de todo lo observable, con la ya mencionada excepción de la fuerza de la gravedad. La teoría cuántica extendida al campo electromagnético En 1905 Einstein defendió la hipótesis de que la emisión de paquetes cuánticos era una propiedad extensible al campo electromagnético. Esta posición arriesgada fue difícil de aceptar por la comunidad científica, ya que suponía un retorno a la teoría corpuscular de la luz de Newton. Sin embargo, todos los resultados experimentales (el experimento de la doble rendija, la emisión de los cuerpos negros, el espectro discontinuo del hidrógeno y el efecto fotoeléctrico) fueron confirmando la hipótesis de Einstein. Einstein desarrolló gradualmente la idea de la luz como partícula, entre 1905 y 1917, apoyándose en los trabajos de Planck. El punto culminante de la evolución progresiva a favor de las partículas llegó con el planteamiento del fotón como unidad cuántica. La actualización del concepto facilitó la explicación de los resultados experimentales, que ofrecían anomalías con el modelo ondulatorio clásico de la luz. En la confirmación de la hipótesis del fotón tuvieron especial impacto tres certidumbres empíricas: El efecto fotoeléctrico, demostrado en el experimento que acreditaba que el fotón abandonaba un metal después de superar la barrera de un umbral energético, función exclusiva de la frecuencia de la luz. La fotoionización de los gases por la luz, producida a frecuencias suficientemente altas, distintas para cada gas. El efecto desconcertante del descenso del calor específico de los sólidos a bajas temperaturas. La teoría cuántica de campos, fundada sobre la idea de Einstein de que los cuantos de luz eran los fotones, prosperó a buen ritmo entre 1920 y 1965 por una hornada de físicos de prestigio35. Conocida por electrodinámica cuántica, la teoría planteaba la creación de fuerzas electromagnéticas como resultado del intercambio de fotones, en contraposición al enfoque clásico estacionario, donde cada electrón mantenía una posición fija y contribuía al campo electromagnético como un simple elemento del flujo total de electrones. Rectificando este enfoque, en el campo electromagnético de Einstein se producía una continua interacción de electrones que se intercambiaban con fotones emitidos y absorbidos constantemente, donde los fotones eran simples partículas mediadoras de la interacción. La disciplina que Einstein había fundado aplicaba los principios de la mecánica cuántica a los sistemas clásicos de campos continuos, como el electromagnético. El
33
No se considera la gravedad por ser muy débil entre partículas individuales. Quantum chromodynamics (QCD) es una teoría cuántica propuesta en los años 70 por David Politzer, Frank Wilczek y David Gross por la que recibieron el Nobel en 2004. 35 Entre otros, los siguiente Premios Nobel: Dirac, 1933, por el descubrimiento de nuevas teorías atómicas productivas; Pauli, 1945, por el descubrimiento del Principio de exclusión que lleva su nombre; Tomonaga, Schwinger y Feynman, 1965, por su trabajo en electrodinámica cuántica y sus efectos sobre las partículas elementales. 34
16
nuevo modelo electrodinámico trataba de resolver el problema creado por los resultados experimentales insatisfactorios con la sola aplicación de las leyes relativista. Un fenómeno físico extravagante, puesto de relieve por la teoría cuántica, era la cooperación impuesta por la naturaleza sobre dos partículas. Se trataba del fenómeno denominado por Schrödinger de entrelazamiento. En la paradoja de los tres físicos judíos Einstein, Podolsky y Rosen, conocida como paradoja EPR, se planteaba que la idea del entrelazamiento cuántico violaba un principio característico de la mecánica, el principio de localidad36. Propuesta en 1935, la paradoja EPR proponía el siguiente experimento mental: si dos partículas quedaban vinculadas por el entrelazamiento cuántico, dos observadores alejados entre sí recibirían información de cada una de ellas; cuando un observador midiera el momento de una partícula, conocería el momento de la otra, y si midiera la posición de la primera partícula, podría saber la posición de la segunda instantáneamente. Este resultado contradecía la teoría de la relatividad especial, ya que en el experimento se transmitía información de forma instantánea entre las dos partículas, rompiendo en la trasmisión la barrera de la velocidad de la luz. Pero la paradoja EPR implicaba otra contradicción de las leyes de la Física. Si transcurrido un tiempo desde la formación de un sistema de dos partículas entrelazadas se realizaran mediciones simultáneas del momento lineal de una de ellas y de la posición de la otra, se obtendría la información completa sobre cada partícula del sistema, lo que violaría el principio de incertidumbre de Heisenberg. En cualquier caso, a pesar de las dificultades de encajar los principios relativistas y los cuánticos, hoy en día se confía plenamente en la teoría cuántica, avalada por numerosos experimentos. A pesar de que muchas de sus predicciones desafían la experiencia cotidiana, ha demostrado un grado altísimo de precisión en la descripción del mundo microscópico. Se sabe también que la acción a distancia, que la paradoja EPR trató de poner en evidencia, es posible. Recientemente, en el campo de la computación cuántica, se ha logrado transmitir el estado cuántico entre partículas entrelazadas de forma instantánea. El cuarto estado de la materia: el plasma Utilizada como herramienta habitual, la interacción electrodinámica ha propiciado avances en los dos nuevos estados descubiertos de la materia: el plasma y el condensado de Bose-Einstein. El plasma es el cuarto estado de la materia caracterizado por el gran volumen que ocupa. Se trata de un gas ionizado, donde buena parte de los átomos que lo componen han perdido sus electrones parcial o totalmente. Está compuesto por átomos que no han perdido los electrones y por cationes transformados por la ionización de los átomos que los han perdido. El estado de plasma se alcanza por elevación de la temperatura de un gas lo suficiente para que los electrones puedan escapar de sus órbitas alrededor del núcleo del átomo. A altas temperaturas, como las que existen en el Sol, sus moléculas y átomos se mueven rápidamente y sufren colisiones muy violentas entre los átomos, lo que facilita la liberación de los electrones de sus órbitas. Así es, en la atmósfera solar una gran parte de sus átomos está permanentemente ionizada, es decir en estado de plasma. También existe plasma interplanetario creado por la corona solar, que se encuentra a casi dos millones de grados centígrados. A esta temperatura, casi todos los átomos perimetrales del Sol están ionizados y el plasma formado escapa de la fuerza de gravedad de nuestro astro fluyendo en todas direcciones como un viento solar a la velocidad de un tornado. 36
Este principio siempre fue cuestionado por Bohr.
17
La energía de este viento alcanza a veces el borde de nuestra atmósfera, y penetra en ella causando fenómenos insólitos, como la aurora boreal y las tormentas magnéticas. La ionosfera también se encuentra en estado de plasma. En este caso, la energía de agitación procede de la longitud de onda corta de la propia luz solar, en la franja comprendida entre los rayos X y la ultravioleta. Antes de pasar el filtro atmosférico, es decir por encima de los 70 km de la superficie terrestre, la atmósfera se enrarece de día, lo que reduce la probabilidad de colisiones entre electrones y dificulta su agregación. Después de la puesta de Sol, la atmósfera recupera su densidad habitual y aumentan las colisiones entre iones y electrones. Entonces el estado de plasma desaparece, hasta que la luz solar lo vuelve a restablecer. Por encima de los 200 km, las colisiones son tan infrecuentes, que el estado de plasma prosigue día y noche a esa altura. El quinto estado de la materia: el condensado de Bose-Einstein37 En 1920, el físico bengalí Bose desarrolló una estadística sobre la probabilidad de configuraciones de partículas capaces de coexistir en el mismo estado cuántico en equilibrio térmico. El objetivo del trabajo era distinguir los fotones idénticos y los fotones diferentes. Einstein quedó impresionado por el estudio y apoyó su publicación38. Pero además, aplicó el trabajo de Bose para los átomos. El resultado fue que no todos los átomos se ajustaban a la estadística, y que a muy bajas temperaturas, tres átomos bosónicos se condensaban en el mismo nivel de energía. En 1924, ambos físicos predijeron la existencia del quinto estado de la materia, conocido como el condensado de Bose-Einstein o el estado superfluido. El condensado de Bose-Einstein es el estado de agregación de la materia que se da en ciertos materiales a temperaturas cercanas a 0ºK39. La propiedad cuántica que lo caracteriza es que una cantidad macroscópica del total de bosones40 pasa al nivel de mínima energía. El amontonamiento de átomos en un mismo lugar, no uno sobre otro sino ocupando el mismo espacio físico, es una alteración del condensado de BoseEinstein difícil de entender intuitivamente. El hecho es que al adherirse mutuamente átomos y moléculas no se colapsan bajo fuerzas eléctricas y consiguen un estado estable en forma de materia condensada. En este estado, los átomos pierden su acción individual, se agrupan formando un gran átomo dentro del cual sus componentes son indiferenciables, se mueven globalmente y manifiestan las mismas propiedades físicas e iguales reacciones ante las acciones externas. Además de a temperatura muy baja, el estado de agregación condensada de la materia se presenta a densidad también muy baja, condiciones éstas que minimizan su energía cinética. Por otro lado, por debajo de una temperatura crítica, el potencial químico de un condensado tiende a su energía mínima. Entre esta temperatura y el cero absoluto, los bosones descienden hacia un mismo estado cuántico o estado fundamental, que define la cota mínima energética permitida para una partícula y que coincide con el estado de agregación del condensado.
37
La literatura especializada reconoce un sexto estado de la materia. Se trata del condensado fermiónico, que se forma a temperaturas inferiores al condensado de Bose-Einstein. 38 Bose S.N. (1924) Plancks Gesetz und Lichtquantenhypothese, Zeitschrift für Physik, Vol. 26, Nº 1: 178–181. 39 El estado del condensado Bose-Einstein se alcanza a muy bajas temperaturas, cerca del cero absoluto. Entre todos los elementos químicos, sólo el helio resiste sin congelarse en torno a esa temperatura 40 Los bosones están formados por fotones, mesones, gluones y otras partículas. Se caracterizan por su número de espín entero, que les corresponde de acuerdo con la estadística de Bose-Einstein, y por una función de onda simétrica que incentiva el estado de agregación atómico.
18
La razón de la buena conductividad de la materia condensada es que en el límite del cero absoluto un átomo permanece inmóvil. Por tanto, la posición donde se encuentra es muy incierta y ocupa un volumen muy grande. De acuerdo con la teoría cuántica, en un escenario de posición azarosa crece la probabilidad de oscilación de las partículas, lo que aumenta la conductividad térmica de los superfluidos hasta límites que superan los valores estándar de los mejores conductores. Asimismo, la ampliación oscilatoria de las partículas facilita que los condesados de materia puedan atravesar cualquier sólido o superficie no porosa. Otra característica diferencial de los superfluidos es su casi ausencia de viscosidad, lo que les permite fluir continuamente sin fricción alguna. El estado de condensado se presenta a temperaturas concretísimas para cada elemento químico. Por ejemplo, en el isótopo de helio 4 la temperatura fluctúa en torno a 2º K. Por debajo de ella, el fluido se manifiesta en un estado dual: una fracción líquida y otra fracción superfluida, en una proporción variable en función de la temperatura. La disyuntiva de dos modelos: Heisenberg versus Schrödinger El papel fundamental que han desempeñado los números complejos en la Física41 alcanzó su máxima relevancia con la ecuación de Schrödinger, donde se concentró todo el potencial mágico de los números complejos42. La hondura de la riqueza conceptual de su contenido inspiró múltiples interpretaciones en la comunidad científica, a menudo contradictorias, incluso provocó en Schrödinger cierto pesar por haberla publicado. El artículo de Schrödinger43 fue bien recibido por la comunidad científica. Heisenberg, sin embargo, no lo aceptó en principio. Distintos criterios se contrastaban en las periódicas discusiones mantenidas entre Heisenberg, Bohr y el mismo Schrödinger. Del lado de los dos primeros estaba Max Born, un profundo conocedor del modelo cuántico que ya había participado en la mecánica de Heisenberg y que contribuiría decisivamente a resolver los problemas planteados por la ecuación de onda de Schrödinger44. Del lado contrario, Einstein, y De Broglie se inclinaban a favor de Schrödinger. La posición del primero respecto al principio de incertidumbre quedó claramente puesta de manifiesto con su célebre frase de "Dios no juega a los dados con el Universo"45. Schrödinger editó otros trabajos en los que resolvió su ecuación para casos sencillos, como el átomo de hidrógeno. En uno de ellos demostró matemáticamente que su teoría y la de Heisenberg eran equivalentes46; en otro aplicó su ecuación de onda para calcular la energía del electrón en el átomo de hidrógeno y obtuvo exactamente el mismo resultado que el calculado mediante el modelo del átomo de Bohr. A partir de la publicación de estos artículos, la mayor parte de los físicos apostaron abiertamente por la formulación de Schrödinger para tratar sistemas físicos.
41
Penrose, R. (2014) op. cit.,, pág. 126. Capítulo 4 de la obra citada Los mágicos números complejos, Ibíd. pág.131. 43 Schrödinger, E. (1926) Quantisierung als Eigenwertproblem, Annalen der Physik, Vol. 385, 13: 437490. 44 En 1926, Born trabajó en la interpretación de la localización de la función onda en un punto determinado considerándola como partícula. En 1954, recibió el Premio Nobel por este trabajo. 45 Harrison, E. (2000) Cosmology: The Science of the Universe. Cambridge University Press. pág. 239. 46 Aunque Schrödinger y Heisenberg partieron de enfoques matemáticos muy diferentes, al final los resultados eran idénticos. De acuerdo con la demostración matemática de Schrödinger, el cálculo de la velocidad o de la energía de un electrón resultó exactamente el mismo a través del modelo de matrices de Heisenberg que de la ecuación de variables complejas de Schrödinger. 42
19
No me gusta y me disgusta haber tenido que ver con ella47 Erwin Schrödinger 4. Ecuación de Schrödinger La ecuación de Schrödinger trata de explicar cómo evoluciona un sistema cuántico en el tiempo. Su objetivo es definir la función de onda ψ (x, t) asociada a un estado cuántico determinado por su posición x en el tiempo t. Para el caso particular de una onda plana, se parte para du desarrollo del balance energético de una partícula48: E = Ec + Ep= ½mv2 + V = hν [C16] 49 E es la energía total de la partícula, Ec, su energía cinética, Ep, su energía potencial, m, la masa de la partícula, v, su velocidad y V el potencial de la partícula relacionada a la posición que ocupa, particular para cada caso50. La definición de momento es: p = mv [C17] Si ω es la velocidad angular de la partícula, se cumple: ω = 2πν [C18] Sustituyendo ν de [C18] en el tercer miembro de la ecuación [C16], y v de [C17] y p de [C15] en el segundo miembro de [C16], se obtiene: ωh/2π = 1/2mh2/λ2 + V [C19] Sustituyendo ħ = h/2π y k = 2π/ λ en [C19], se alcanza finalmente la ecuación ħω = 1/2mħ2k2 + V [C20] El primer miembro de [C20] es la energía total de la partícula, el primer sumando del segundo miembro, su energía cinética y el segundo sumando del segundo miembro, su energía potencial. En correspondencia con la función de onda de Schrödinger ψ (x, t), la ecuación [C20] puede escribirse, para el caso particular de una onda plana, del siguiente modo: [C21] α y β son constantes. La solución particular típica de [C21] para una onda es de la forma: ψ = cos (kx – ωt) + i sen (kx – ωt) [C22] k es una constante. Derivando [C22] una vez respecto a t y dos veces respecto a x, tenemos: ∂ψ/∂t = ωsen (kx – ωt) – iωcos (kx - ωt) [C23] 2 2 2 2 ∂ ψ/∂x = k cos (kx - ωt) - k isen (kx – ωt) [C24] Sustituyendo [C22], [C23] y [C24] en [C21], para α = i y β = 1, se obtiene la ecuación general de Schrödinger: [C25] equivalente a la [C20] siempre que: [C26]
47
Frase atribuida a Schrödinger sobre la teoría cuántica. Por su mayor sencillez, se ha analizado el caso particular de una onda plana. En el Anexo 9 Ecuación de Schrödinger, se ha procedido al desarrollo detallado de la ecuación general. 49 Desde aquí se vuelve a recuperar la numeración correlativa de la serie [C]. 50 En el caso de un electrón por ejemplo, Ep es la energía potencial eléctrica debida a la atracción del núcleo y a la repulsión entre los electrones. 48
20
A partir de [C25], se puede definir la energía de un sistema en mecánica cuántica como el cambio de fase de la función de onda ψ en un instante t. Análisis de la ecuación de Schrödinger El problema sustancial que plantea la ecuación de Schrödinger es que aunque todas las variables del segundo miembro de [C25] son reales y, en principio, pueden medirse, el primer miembro es una variable imaginaria. La función de onda ψ no es real, por tanto no observable, y no puede medirse51. Si se pudiera resolver la ecuación [C25], la solución sería un número complejo, y no sabríamos lo que eso significa. En resumen, la función de onda es sencilla de manejar matemáticamente pero difícil de interpretar físicamente. Como se ha explicado detalladamente en el Anexo 9 Ecuación de Schrödinger, para evitar el manejo de variables complejas hay que recurrir al producto de la función de onda por su conjugada ψψ*, y obtener así un valor real. Este subterfugio matemático52 nos obliga a renunciar a la solución de la función de onda ψ (x, t), que la sitúa de modo preciso en una posición y tiempo definidos. Mediante el producto de ψ por ψ* se normaliza la función de onda, lo que significa sacrificar el valor absoluto de ψ (x, t) y resignarse a la opción de un valor probable dentro del dominio completo donde la función onda está integrada. Interpretación según la dualidad onda partícula de De Broglie En el caso particular de un electrón, se espera que su función de onda responda a la trayectoria descrita por ψ, en cierto sentido similar a la onda trazada por un fotón según las ecuaciones de Maxwell. Pero de acuerdo con el principio de identidad onda partícula de De Broglie, la masa y la carga del electrón no están concentradas en un punto, sino difusas por el espacio. La distribución de la masa y la carga queda definida por ψ, aunque sólo se puede conocer el valor de la suma de cuadrados ǀψǀ2 de sus dos componentes (real e imaginaria), que es la probabilidad de que el electrón se encuentre alrededor del núcleo del átomo cuya forma está definida por ψ. Por tanto, ψψ* = ǀψǀ2 es interpretada como la función de densidad de la probabilidad de que una partícula ocupe la posición x en un instante t y con la amplitud de probabilidad ψ. En conclusión, a través del escalar ǀψǀ2, es decir de un número, se ha recuperado información de una variable imaginaria ψ sin solución, a cambio de rebajar el contenido cualitativo de la información. En suma, se pierde el sentido de la magnitud física de ψ, que queda reducido al parámetro estadístico ǀψǀ2. Interpretación según la intensidad de onda de Schrödinger La interpretación de ǀψǀ2 como una función de densidad no satisfacía a Schrödinger, a quien le resultaba una carga enojosa la naturaleza compleja de la función de onda ψ. Así que el científico vienés Nobel en 1933 trató de plantear el desarrollo de su ecuación con funciones reales para resolver matemáticamente el problema, pero no lo logró. Sustituyó la amplitud de onda por la intensidad de onda, con el fin de buscar un número real y 51
La función ψ define una oscilación de una onda provocada por una partícula posicionada en x en el instante t, pero la función no tiene un valor real, es decir como magnitud física no es representable. 52 La manipulación matemática de la función de onda ψ es para obtener información sobre la posición de la partícula en cuestión. En el Anexo 9 Ecuación de Schrödinger hay que valerse de otra maniobra matemática: el cambio del escalar energía E por el operador energía Ê para facilitar su desarrollo.
21
medible de una magnitud física equivalente a ǀψǀ2. En realidad, se proponía igualar la densidad de carga o masa del electrón en cada punto con la intensidad de onda, basándose en el razonamiento de que en las áreas de mayor intensidad la densidad del electrón crecería, y bajaría en las de menor intensidad. En su explicación, Schrödinger había cambiado radicalmente el concepto esencial del problema respecto a De Broglie: de la interpretación dual onda partícula al sentido puramente ondulatorio de la función ψ. Y de nuevo las limitaciones de esta función volvían a presentarse con la aparición de altas velocidades comparadas con la luz53, donde ψ perdía su exactitud. Según la interpretación ondulatoria de Schrödinger, en cualquier choque de un electrón contra el núcleo de otro átomo debería manifestarse el efecto onda antes del choque. A medida que el electrón se acercara al núcleo, gran parte de su carga y de su masa habría de concentrarse en la proximidad del núcleo del átomo, y la densidad decrecería al alejarse de él. Pero después del choque, siguiendo con la misma interpretación, la función de onda se dispersaría irregularmente en todas las direcciones. Por tanto, la densidad de carga y de masa del electrón se reduciría de forma acusada después del choque con el núcleo y se dispersaría en todas las direcciones. Sin embargo, las medidas experimentales contradecían esta interpretación. Después del choque, se constataba empíricamente que el electrón mantenía una posición definida, sin que apareciera dispersión alguna. Además, experimentalmente se percibía al electrón como partícula, no como onda. Interpretación según la probabilidad de Born Max Born, que había ayudado a Heisenberg en la formulación del principio de incertidumbre asistiéndole con el cálculo de matrices, aplicó la noción de probabilidad a la función de onda para resolver el problema de su interpretación. La solución fue propuesta tan sólo un año después de la publicación de los artículos de Schrödinger, y complació a Bohr y a Heisenberg, pero no a Einstein ni a Schrödinger. Las ideas de Born relativas a la física eran totalmente opuestas a las de Einstein. El ilustre matemático de la física54 reconocía que sus diferencias en la concepción de la Naturaleza con el creador de la relatividad eran fundamentales. El enfrentamiento conceptual entre estos dos genios tenía un punto de partida: Born aceptaba sin reservas el principio de complementariedad onda partícula de Bohr; Einstein no quería aceptarlo. El primero pensaba que este nuevo principio tendría una importancia esencial en el desarrollo de la física moderna. También consideraba que la profundización en el conocimiento del Universo sería a costa de la incertidumbre en los resultados. Dejó constancia de su pensamiento contra el determinismo clásico en un artículo, publicado en 195555, donde lo rechazó de plano basándose en que un pequeño cambio en las condiciones iniciales alteraba ampliamente la trayectoria de una partícula de un gas. La interpretación probabilística de Born asumía el comportamiento indeterminado de una medida individual de la función onda de Schrodinger ψ. Como se ha dicho más 53
La formulación de Schrödinger, como la de Heisenberg en su día, se había planteado a espaldas de la relatividad de Einstein. 54 La formación matemática de Born era muy sólida. Tuvo como mentor a Hilbert y fue asistente de Minkowski en Göttingen. Junto con Bohr (estimado como padre de la teoría cuántica) y Heisenberg, se le ha considerado uno de los guías de la mecánica cuántica: los dos primeros buscaban argumentos físicos que desentrañaran la complejidad cuántica; Born buscaba argumentos matemáticos. 55 Born M. (1969) Is Classical Mechanics in Fact Deterministic? In: Physics in My Generation. Heidelberg Science Library.
22
arriba, recurrió al producto ψψ* para sortear el problema de las variables complejas, normalizando de paso la variable ψψ*, es decir encontrando una escala tal que: [C27] La normalización de la variable ψψ* a través de la integral [C27] era un procedimiento matemático rutinario para resolver el problema de falta de conocimiento de la función ψ. Aunque los estados del entorno del dominio υ eran desconocidos, la suma de estos estados en el dominio completo resultaba 1 tan solo considerando ψψ* una matriz de densidad, en este caso de densidad de probabilidad. En el Postulado 3 del Anexo 9 ecuación de Schrödinger se enuncia que dicha ecuación permite cualquier relación lineal: ψ (x) = αψ1 (x) + βψ2 (x) Por consiguiente, cualquier solución de la ecuación de Schrödinger multiplicada por un número adecuado n puede ajustarse a la escala normalizada [C27] sin dejar de ser solución, por ser nψ una variación lineal de ψ. Con toda esta pericia matemática se trata de soslayar el problema que presenta la ecuación [C25], planteada con operadores aplicados a una variable compleja ψ, y sustituirla por el escalar56 |ψ|2 con el objetivo de encontrar una solución real. Pero en la maniobra, la variable ψ, que confina toda la información, se ha transformado en ψψ* = |ψ|2, una función de probabilidad que anula la entidad física de ψ. De acuerdo con Born, |ψ|2 debe interpretarse como la probabilidad de que una medida de la posición57 de ψ se encuentre en una región del espacio determinada: donde la función de onda sea máxima, la probabilidad será máxima; donde la función sea nula, la partícula no se hallará. En el análisis de un caso extremo, si en el recinto espacial dυ |ψ|2 = 0, significa que la partícula no se encuentra nunca dentro de él; el otro caso extremo |ψ|2 → 1 denota la localización de la partícula dentro del recinto dυ si el experimento se repite muchas veces. De modo que |ψ|2 da información de la frecuencia con que la partícula ocupa distintas posiciones dentro del recinto dυ. Y en la interpretación de Born es inimaginable pensar sobre esta posición antes de realizar el experimento. La integral [C27] está extendida a todo el espacio υ y suma 1, lo que indica que la partícula está en algún punto de υ. Por tanto, se cumplirá que ψψ* = |ψ|2 < 1 en un entorno dυ. Pero el escalar |ψ|2 no mide la carga y la masa de la partícula que se encuentra en dicho entorno; esta información pertenecería a ψ, en el caso de que la función de onda fuera una variable real. |ψ|2 < 1 es la probabilidad de que, en el momento de realizar la medida, la partícula se encuentre dentro del dominio dυ. Schrödinger no compartía la interpretación de Born. El primero interpretaba el resultado de |ψ|2 = 0,75 del siguiente modo: el 75% de la carga y de la masa de la partícula se extendía dentro del espacio dυ y el 25% quedaba fuera de él. Pero en todos los experimentos realizados no se habían podido confirmar resultados estables sobre la posición del electrón dentro o fuera de un recinto espacial específico. A Schrödinger le costaba abandonar el determinismo clásico y las pruebas empíricas negaban el sentido que le daba a |ψ|2. Si Born interpretara el mismo ejemplo anterior, diría que si un experimento se repitiera muchas veces, el 75% de las medidas confirmarían que la posición del electrón estaría 56
Hilbert creó un espacio vectorial con la estructura de un producto escalar que funcionaba como un espacio euclidiano generalizado para cualquier número de dimensiones. El espacio estaba pensado para actuar sobre números complejos, pero sólo podía medir escalares: módulos y ángulos formados por dos vectores. 57 Se puede aplicar el mismo razonamiento al resto de variables relacionadas con el estado de la función de onda. Es posible calcular la probabilidad de que la velocidad, la energía o cualquiera de las magnitudes que definen ese estado estén comprendidas dentro de un intervalo de valores definido.
23
dentro del recinto dυ, y el 25% fuera. Pero en cada experimento se detectaría el electrón completo dentro del recinto o fuera de él; no se mostraría un porcentaje de su carga y de su masa como interpretaba Schrödinger. Born no tenía duda de que cuando se detectaba una partícula en un experimento se localizaba en un solo punto, de que si la partícula aparecía en un lugar determinado no podía aparecer también en otro lugar, en tanto que concebía la función de onda como un todo indivisible. En conclusión, desde el instante en que se medía la posición de ψ, la función de onda se colapsaba, sin que dependier de ella el resultado de la próxima medida. Lo que quería decir que la medida no condicionaba en absoluto la función de distribución ǀψǀ2, sino que era independiente de ella, tal y como exigen las leyes de la probabilidad. Por tanto, en cada medida había que olvidar todos los resultados experimentales previos y medir de nuevo. Pero además, la interpretación de Born suponía una rebaja categórica de las expectativas en el conocimiento de los fenómenos físicos. De acuerdo con su postura, a todo lo que se podía aspirar en Física58 era a definir la probabilidad con que se mediría algo en unas condiciones determinadas. Interpretación de Copenhague. El pensamiento cuántico de Bohr La interpretación de Copenhague ha sido considerada como la ortodoxa, por la aceptación de la mayoría de la comunidad científica desde su declaración en 1927. Recibió su nombre en homenaje a la ciudad de residencia de Bohr, propulsor inicial del concepto cuántico. Su contenido se podía resumir en tres grandes conclusiones: No hay ninguna realidad expresada en la función de onda de Schrödinger, sino un mero formalismo matemático. La naturaleza probabilística de la mecánica cuántica es definitiva, no temporal, y no cabe esperar su reemplazamiento por una teoría determinista. Es necesario conjugar la evidencia de diferentes medidas experimentales con la aplicación bien definida del formalismo de la función de onda. Bohr pensaba que la función de onda de Schrödinger no representaba una realidad cuántica, sino que era una mera descripción del conocimiento que un observador obtenía de un sistema cuántico. De acuerdo con esta interpretación, cuando se realizaba una medida se adquiría un mayor grado del conocimiento del sistema, de modo que concluida la medida saltaba el grado de su percepción. Esta idea de sustituir el salto aleatorio discontinuo de una función de onda por el salto del conocimiento identificaba como ninguna otra la posición ontológica del grupo de Copenhague. La discusión del grupo de Copenhague se centraba en que el conocimiento de los sistemas cuánticos ganaba en profundidad con el proceso de la experimentación. En este campo, el grupo mantenía una posición crítica contra el mal uso que la mecánica clásica hacía de las descripciones cinemáticas. De acuerdo con Bohr, los fenómenos cuánticos debían ser experimentados, y el proceso de la experimentación había de cumplirse con la descripción completa de todas sus etapas: preparativos, fases intermedias y medida final. La descripción debía ser rigurosa y minuciosa, porque ella misma formaba parte del conocimiento del sistema cuántico para el físico de Copenhague. Bohr reprobaba las imprecisiones a la hora de afrontar un experimento cuántico y trataba de corregir las alusiones macroscópicas y el lenguaje coloquial de la mecánica clásica cuando se refería a la nueva concepción cuántica. Por ejemplo, la mecánica cuántica no admitía que la posición y el momento del estado inicial de la función de 58
La aspiración de Born era consolidar las predicciones probabilísticas repitiendo el mismo experimento muchas veces. Dichas predicciones se confirmaban realizando experimentos, lo que no dejaba de ser una explicación tautológica.
24
onda pudiera predecir su estado final de un modo determinista. Por el contrario, en sus últimos escritos Bohr concebía el fenómeno cuántico como un proceso completo desde la condición inicial a la final, y no definido por dos estados instantáneos, inicial y final, vinculados por una relación causal. Desde el enfoque cuántico, la condición inicial de la función de onda, por muy precisa que fuera, sólo permitía hacer predicciones probabilistas. En resumen, Bohr trataba la ecuación de Schrödinger no como un método para determinar la evolución de la función de onda, sino como un sistema de medidas de probabilidad. Para Bohr, en los casos experimentales surgían varias trayectorias distintas a través de las cuales una partícula podía pasar de la condición inicial a la final. No había una opción fija entre los distintos caminos seguidos por la partícula. Sólo las condiciones inicial y final eran definitivas, pero la posición y el momento de la partícula obligaban a cumplir requisitos opuestos para poder ser observados. Por ejemplo, para que una partícula se encontrara experimentalmente en una posición favorable, debía mantenerse inmóvil; para encontrar experimentalmente un momento estable, la partícula debía moverse libremente, y estas dos condiciones eran incompatibles. Interpretación determinista. El pensamiento cuántico de Einstein Einstein no aceptó las interpretaciones de la teoría cuántica contrarias al determinismo y la causalidad. Rechazó la idea de que el estado de un sistema físico dependía de la gestión experimental de su medida. Mantuvo que todo fenómeno ocurría por sí mismo, con independencia de si era observado o cómo debía ser observado. Desde su enfoque relativista, concebía el estado cuántico como un invariante bajo cualquier configuración del espacio elegida, es decir bajo cualquier forma de observación. El físico norteamericano Everett propulsor de los universos paralelos también se opuso totalmente a la exégesis empirista de Copenhague. Concebía un estado cuántico que evolucionaba presentando alternativas cuánticas coexistentes, no como probabilidades, sino como opciones superpuestas. Pensaba por tanto que en cada medida de la función de onda coexistían resultados alternativos en una superposición lineal cuántica. Formulada en 1956, la teoría de Everett proponía una función de onda universal, que se correspondía con la interpretación de muchos universos alternativos. Defendió que todas las posibilidades descritas por la teoría cuántica ocurrían simultáneamente, como una composición de universos alternativos e independientes. Everett proponía que todos los estados potenciales y consistentes del sistema medido estaban presentes en la física real, no sólo formalmente como interpretó la escuela de Copenhague. Desde su perspectiva, resultaba innecesaria la explicación del colapso del paquete onda al final de cada media. La superposición de combinaciones del estado cuántico ha sido reconocida como estado de entrelazamiento, un fenómeno físico que sucede cuando pares o grupos de partículas interactúan de tal modo que el estado cuántico de cada partícula no puede describirse con independencia de las otras. El fenómeno se produce incluso cuando las partículas están separadas por una gran distancia y recientemente se han obtenido resultados a nivel macroscópico. En contra del entrelazamiento, Einstein sostuvo que la teoría cuántica debía formular un principio de localidad contra la acción a distancia, y atacó a lo largo de su vida la interpretación de Copenhague, que no pudo resolver la famosa paradoja de Einstein, Podolsky y Rosen (véase más arriba).
25
Interpretación heterodoxa desde el análisis de las variables complejas Las Matemáticas han sido empleadas como el lenguaje científico por excelencia que ha funcionado de modo indudable, como si las leyes del Universo no quisieran expresarse de otra forma alternativa. Sin cuestionar que el tribunal inapelable que aprueba o niega el consentimiento al paradigma científico es su verificación empírica59, cabe hacerse varias preguntas para calibrar el papel que permanentemente han jugado las Matemáticas ¿De verdad no pasan de ser un medio explicativo de las leyes de la Naturaleza? ¿Su función se reduce a leer el entramado de un fenómeno físico, al modo que una partitura lee el desarrollo de una pieza musical? ¿Hasta dónde llega el grado de su fecundidad? ¿No parece a veces que las Matemáticas gobiernan la Física y no al revés? O por el contario, ¿todas las leyes de la Física, llevadas al límite de las pruebas empíricas, son meras estadísticas y no matemáticamente perfectas y precisas? ¿Es la Física, finalmente, una ley sin ley? Estas dudas sobre el límite de participación del mundo matemático y los recelos y polémicas que la ecuación de Schrödinger han levantado entre los grandes colosos de la Física, animan a proponer una interpretación heterodoxa desde el análisis de las variables complejas. Lo más interesante de las dudas y discusiones permanentes suscitadas por la interpretación de la ecuación de Schrödinger son los efectos colaterales positivos que han ocasionado en prácticamente todos los campos de la Física. Nos estamos refiriendo a los retrocesos y logros científicos, a las innovaciones y rectificaciones conceptuales, continuamente provocados por el planteamiento de Schrödinger. En este campo abonado de interrogantes que parece no finalizar nunca, ha tenido un peso determinante la composición de variables reales e imaginarias de la función ψ de la ecuación [C25]. La cuestión central del problema es hasta qué punto la naturaleza compleja de las variables integradas en la función de onda de Schrödinger ha dificultado su comprensión. Hablábamos más arriba del artificio matemático desarrollado para sortear el problema de cálculo que plantea resolver una ecuación con la incógnita compleja ψ. En una primera fase, se aplica la astuta maniobra de multiplicar ψ por su conjugada ψ* para trabajar con variables reales. En una segunda fase, se procede a normalizar ψ, ya que sólo una función de onda normalizada puede tener significado físico. Pero al sustituir la variable compleja ψ por el escalar ǀψǀ2 se ha perdido el sentido físico original y la función ψ se ha visto obligada a funcionar en el azaroso mundo de la función de probabilidad. De este modo, al final de las dos fases que culminan en la sustitución de la variable compleja ψ por el escalar ǀψǀ2 nos encontramos con una doble paradoja: Se ha perdido el sentido físico de la función de onda ψ. La función de probabilidad ǀψǀ2 sustituye a la variable compleja ψ, que no puede interpretarse como probabilidad por ser compleja. Partidarios de no perder el sentido físico de ψ eran el propio Schrödinger e Einstein; por contra, Born defendía la interpretación probabilística. Los dos primeros sostuvieron su posición empleando los siguientes argumentos: La función de onda describe lo que la partícula es. La realidad es cognoscible y el proceso de observación está interrelacionado con las matemáticas de la física. No existen barreras entre el mundo existente y el mundo observado. Ambos son una misma cosa.
59
Véase el apartado RECORDEMOS del archivo Las matemática en la Física.
26
Los argumentos principales de Born a favor de la función de probabilidad fueron los siguientes: La función de onda contiene la información de la probabilidad de lo que mediré cuando observe una partícula. La función de onda es una descripción matemática para hacer predicciones de los resultados de todas las medidas que podamos realizar sobre el sistema. Es decir, Born partía de la noción de partícula oscilatoria y de que la oscilación estaba definida por la función matemática ψ, aunque ésta no tenía representación en el mundo real. Pero contando con la severa restricción de la naturaleza compleja de ψ, se podían obtener resultados reales hasta llegar al escalar ǀψǀ2, que indicaba la probabilidad de encontrar experimentalmente la partícula en un lugar definido. Por otro lado, cuando mediante un experimento la probabilidad de hallar la posición de una partícula aumentaba, la probabilidad se reducía para otras magnitudes relacionadas con la posición, como el momento. Esta relación inversa entre probabilidades de la posición y el momento, desvelada por la práctica experimental, tenía su correspondencia en el plano instrumental. En efecto, la posición y el momento resultan totalmente inobservables en la práctica. Cuanto más se afina y perfecciona el equipo de medida para observar nítidamente la posición de una partícula, más borrosa e inestable se vuelve la media del momento. Este comportamiento es recíproco: si se diseña un experimento con garantías en la medida estable del momento, inevitablemente la medida de la posición se torna inestable. Aunque Schrödinger e Einstein mantenían una posición común crítica con el sentido probabilístico de ψ, existían diferencias de matiz entre ellos. El primero consideraba cada medida experimental como un mero resultado, incomunicable con cualquier otra medida. El físico alemán era más moderado. Einstein reconocía que la interpretación de Born coincidía con los resultados empíricos obtenidos. Pero el reconocimiento no supuso la renuncia a hallar una función alternativa a ǀψǀ2 como base del funcionamiento de los fenómenos físicos, y a esta tarea empeñó gran parte de su vida. Necesidad de la utilización de variables complejas Las variables complejas son necesarias en Física cada vez que se precisa incluir en una ecuación la pulsación ɷ o la frecuencia υ de una onda. Por ejemplo, en la exposición del apartado de más arriba titulado El espacio cuatridimensional de Minkowski, la superficie cónica de la Figura M4 que limita el horizonte de un observador situado en su vértice está definida por: ds = (dx2 + dy2 + dz2)1/2 + (cidt)2 = 0 [C1]60 Se trata del caso típico de una ecuación que tiene que recurrir necesariamente a las variables complejas. El segundo miembro de [C1] está formado por una componente real espacial, (dx2 + dy2 + dz2)1/2 y otra imaginaria temporal (cidt). El empleo de variables reales e imaginarias en la ecuación [C1] se ajusta a las necesidades de explicación de la relatividad general. Su componente real es la expresión del espacio curvo y la componente imaginaria pone de manifiesto los fotones en movimiento. En esta doble manifestación se simplifica el concepto de la relatividad general, que establece las interacciones de campos y de partículas y que se puede resumir en dos principios esenciales: la curvatura del espacio gobierna el movimiento y el movimiento define la curvatura del espacio. 60
Para seguir mejor el razonamiento, aquí se interrumpe la numeración correlativa por la inserción de ecuaciones trasladadas de apartados anteriores de este archivo.
27
También se ha dicho en el mismo apartado El espacio cuatridimensional de Minkowski que las ecuaciones de variables complejas como la [C1] implican una doble condición: La componente imaginaria es función de la frecuencia υ. En efecto, c = λɷ/2π = λυ, donde λ es la longitud de onda del fotón. La variable c = f (υ) debe de ir acompañada por tanto de la unidad imaginaria i en la ecuación. Se abre un desfase angular φ entre la componente imaginaria cidt y la variable compleja ds. El ángulo φ abierto entre la generatriz del cono y el propio eje del tiempo de la Figura M4 define la frontera de los fenómenos observables. Otro ejemplo de uso de variables complejas ha sido presentado más arriba en el apartado de Circuitos de corriente alterna. En la ecuación que relaciona la diferencia de potencia de un circuito con su impedancia, la unidad imaginaria i vuelve a aparecer acompañada de la pulsación ɷ. V = ZI = (R + i(Lω - 1/ωC))I [C2] La segunda condición asociada a las ecuaciones de variables complejas es la apertura del desfase angular φ entre la componente imaginaria y la resultante de la componente real más componente imaginaria. En una geometría plana como la determinada por la ecuación [C2], el desfase φ entre (Lω - 1/ωC)I y ZI es de fácil representación, como se muestra en la Figura C1. Teniendo en cuenta los dos antecedentes anteriores, si se analiza ahora la primera de las tres identidades vinculadas a la ecuación de Schrödinger, es decir [C26] se comprueba de inmediato que se cumple de nuevo la previsión de que la variable imaginaria es función de ɷ. Por otro lado, el primer miembro de la ecuación de Schrödinger, [C25] que equivale a la energía total de la onda, es la componente imaginaria, e igual ω por la identidad [C26]. El segundo miembro es la componente real, formada a su vez por el primer sumando, la energía cinética de la onda, y por el segundo sumando, la energía potencial dependiente de las condiciones del entorno. [C25] De la formalización matemática de la ecuación de Schrödinger se deducen a priori dos conclusiones, por el mero hecho de incorporar variables complejas en [C25]: El término imaginario de la ecuación (energía total de la onda ψ) es función de la frecuencia ɷ. Existe un desfase angular φ entre la componente imaginaria de la ecuación (energía total de la onda ψ) y la variable compleja integral (suma de la componente real y la componerte imaginaria), que constituye el propio balance energético. El enunciado de la segunda conclusión expresa que el balance energético de la ecuación de Schrödinger es un balance afectado por el extraño desfase angular φ, que no sabemos lo que significa. Lo único que podemos asegurar es que existe una apertura angular φ, de la que no tenemos representación geométrica alguna, y un colapso del balance energético de Schrödinger asociado a ella. El significado de este desfase angular, acompañado del colapso energético, debe estar relacionado de alguna manera con la incertidumbre cuántica. Nos podemos referir al desfase o apertura angular, al salto cuántico y al colapso energético como distintas manifestaciones de una discontinuidad matemática insalvable, es decir como una irregularidad anunciada a priori por la naturaleza compleja de las variables que componen la ecuación [C25]. Como se ha dicho más arriba, con la sustitución de la variable compleja ψ por la función de probabilidad ǀψǀ2 se elude el problema de cálculo que plantea resolver una ecuación 28
con la variable compleja. Pero con la sustitución se pierde la certeza de la función de onda ψ por la incierta función de probabilidad. Así pues, el simple cambio de ψ por ǀψǀ2 nos sumerge de lleno en la incertidumbre cuántica, que no es sino la incompatibilidad de precisar conjuntamente la posición de la partícula x y su momento p en la función de onda de Schrödinger. La pérdida de definición global de x y p alcanza a los planos teórico y experimental: desde el primero, el principio de incertidumbre de Heisenberg reconoce que x y p están sometidas a las incertidumbres cuánticas; en el plano experimental, se descubren también incertidumbres en las medidas. Penrose percibe una conexión entre ambos planos de incertidumbre y habla del colapso que sucede a cada medida. Se refiere a los misteriosos saltos cuánticos, y acepta que las matemáticas describen la evolución de un estado cuántico en forma de función de onda extendida por el espacio, que después puede concentrarse en una región más localizada: "pero luego, cuando se realiza una medida, el estado [se] colapsa [en] algo localizado y específico. Esta localización instantánea sucede con independencia de cuán dispersa pudiera estar la función de onda antes de la medida, y a partir de entonces el estado evoluciona de nuevo como una onda guiada por Schrödinger, partiendo de esta configuración localizada específica y dispersándose de nuevo normalmente hasta que se realiza la siguiente medida. A partir de las situaciones experimentales... anteriores, se podría tener la impresión de que los aspectos corpusculares de una onda-partícula son los que se manifiestan en una medida, mientras que son los aspectos tipo onda los que se manifiestan entre medida y medida"61. Con este ciclo de estados sucesivos medida, colapso localizado, evolución como onda describe Penrose el salto cuántico. La descripción equivalente derivada de la formalización matemática con variables complejas de la ecuación de Schrödinger sería apertura del desfase angular φ, colapso del balance energético, evolución como onda. Estas dos descripciones apuntan en la misma dirección que la explicación que se deduce de la ecuación [A9.10] del Anexo 9 Ecuación de Schrödinger. [A9.10] 62 es un operador matemático conmutador63 aplicado a la posición y al momento de la función de onda. Equivale, según [A9.10], a la unidad cuántica de Planck iħ, de naturaleza obviamente imaginaria. La notación indica que es el operador identidad, es decir que ψ ψ. De la ecuación [A9.10] se deduce: Como el conmutado de x con p da un valor imaginario, x y p están encapsulados, es decir, no pueden medirse alternativamente la posición x y el momento p de una partícula. La acción combinada de los operadores es el operador identidad. La primera conclusión es equivalente al principio de indeterminación de Heisenberg. De la segunda conclusión se desprende que la posición x y el momento p proporcionan toda la información completa de la evolución de la función de onda ψ en el tiempo. Pero no hay matrices que se puedan computar como los operadores , excepto matrices de dimensión infinita. Esta imposibilidad de materializar el cálculo de la ecuación [A9.10] es la manifestación matemática de la mecánica cuántica 61
Penrose, R. (2014) op. cit., pág. 697. Aquí se vuelve a insertar ecuaciones de los Anexos y permanece interrumpida la numeración correlativa de ecuaciones [C]. 63 Born rindió un último homenaje al operador conmutador ordenando inscribir en su lápida la ecuación pq - qp = h/2πi, idéntica a la [A9.10] previos cambios oportunos de notación y haciendo la constante de Planck normalizada ħ = h/2π. 62
29
Así pues, la explicación de la ecuación [A9.10] confirma que los saltos cuánticos alternan el estado partícula, definido por el momento p, y el estado onda, definido por la posición x. Pero la explicación del conmutador va un poco más lejos, al demostrar [A9.10] matemáticamente que la posición y el momento definen por completo la función de Schrödinger. Esto quiere decir que la posición x, en forma de onda, y el momento p, en forma de partícula componen íntegramente la función de onda ψ. Antes de cerrar el cuadro de saltos cuánticos que conciernen a la ecuación de Schrödinger conviene volver a examinar la segunda conclusión determinada por la propia condición de variable compleja de la función de onda. Decíamos más arriba que existe un desfase angular φ abierto entre la energía total de la onda, término imaginario de la ecuación [C25], y el propio balance establecido por Schrödinger, suma de componente real y componerte imaginaria de [C25]. Se ha dicho también que el salto angular φ representa una incertidumbre cuántica que se transmite al propio balance energético de la ecuación de Schrödingeren en forma de colapso. Esta transmisión es el modo en que participa la geometría, a través de la estructura de variables complejas, en el mundo de la Física. El escenario de participación tiene una dinámica propia, tan vital como la dinámica de la onda-partícula de Schrödinger. Para interpretar el significado del salto angular y el colapso energético habría que disponer de una geometría utópica que nos admitiera contrastar, de acuerdo con la idea de Newton64, la inexactitud de la mecánica (concernida por cómo se trazan las líneas que constituyen la base de la geometría) con la precisión de lo geométrico (que postula ese trazado). Fuera la que fuera la métrica de esta geometría imaginada capaz de explicar el misterio del desfase o apertura angular y del colapso energético, su escala debería ser cuántica, del orden de la longitud de Planck calculada en [A8.1], es decir en torno a 1,6.10-35 m. A propósito de las magnitudes de un campo cuántico, Penrose dice: "si se intenta medir el valor de un campo cuántico en una región muy pequeña con gran precisión, esto nos llevará a una incertidumbre muy grande en otras magnitudes relacionadas...Así, el propio acto de establecer el valor preciso de una magnitud de campo dará como resultado que dicha magnitud fluctúe de manera incontrolada. Dicha magnitud podría ser una componente de la métrica espaciotemporal, de modo que vemos que cualquier intento de medir la métrica de forma precisa dará como resultado cambios enormes en ella. En la década de 1950, consideraciones como éstas llevaron a John Wheeler a argumentar que la naturaleza del espacio-tiempo en la escala de Planck de 10-33 cm sería una 'espuma' salvajemente fluctuante"65. La espuma cuántica es un concepto creado por John Wheeler66 en 1955 para describir las turbulencias del espacio-tiempo que se producen a escalas extremadamente pequeñas como la longitud de Planck. El problema que plantea la indeterminación cuántica es que diferentes magnitudes geométricas espaciotemporales no computan entre sí. En su lugar, de acuerdo con la imagen de Wheeler, es posible concebir una vasta superposición de geometrías diferentes, muchas de las cuales se desviarían enormemente de la geometría plana y por ello deberían tener el carácter espumoso que él imagina.
64
“Llega a suceder que lo perfectamente exacto se llama geométrico, y mecánico lo no tan exacto”, cita de Newton, I. (2011) Principios matemáticos de la filosofía natural, Prefacio de Newton a la primera edición, 3ª edición, tecnos, pág.5. 65 Penrose, R. (2014) op cit.,. pág. 1151-52. 66 Fallecido recientemente, Wheeler es conocido por formar parte del Proyecto Manhattan y por acuñar el término agujero negro, entre otras cosas.
30
Dentro de las proporciones cuánticas, Wheeler plantea un espacio-tiempo donde las partículas y la energía existan brevemente sometidas al principio de incertidumbre, para aniquilarse posteriormente sin violar las leyes de conservación de masa y energía. Con esta premisa de doble conservación Wheeler trata de mantener la continuidad de un espacio-tiempo que evolucione desde escalas cuánticas a escalas macro, hasta incluso las grandes curvaturas del espacio-tiempo. El planteamiento de Wheeler no deja de ser un tanteo especulativo, inspirado en que las fluctuaciones energéticas se pueden elevar lo suficiente desde pequeñas escalas hasta escalas significativas de energía. Este mecanismo de fluctuaciones energéticas daría al entramado espaciotemporal un carácter espumoso, que dentro del campo gravitatorio podría resultar un hervidero de espuma con múltiples cambios de topología. Incertidumbre experimental e instrumental Volviendo a la expresión [A9.10] del Anexo 9 Ecuación de Schrödinger, el operador conmutador no aclara el misterio de cómo dos magnitudes físicas, posición y momento, que se pueden medir en un laboratorio, dan por resultado el producto , diferente al producto , y mucho menos aclara cómo la unidad imaginaria está presente en [A9.10]. La única explicación verosímil es que a la incertidumbre cuántica le corresponde una incertidumbre experimental e instrumental. La ecuación [A9.10] ya avisa de que el valor imaginario del segundo miembro significa que x y p están encapsulados, es decir anuncia que no pueden medirse alternativamente la posición y el momento de una partícula. Por lo tanto, el operador conmutador advierte a priori, como el principio de indeterminación de Heisenberg, de la incertidumbre en la medida de la posición y el momento de una función de onda. Por otro lado, el colapso del balance energético de la ecuación de Schrödinger, ocasionado por el desfase angular φ, también se relaciona con la incertidumbre cuántica, y anuncia también la incertidumbre experimental. El balance energético de la ecuación [C25] presenta en el primer miembro la evolución del momento p; en el segundo, la variación de la posición x. De modo que el desfase angular φ, que trasmite al colapso del balance energético de Schrödinger, coincide con el colapso localizado que transmite la medida, y finalmente anuncia una incertidumbre experimental67. Penrose se refiere a la paradoja de la medida. La rareza que envuelve al procedimiento experimental de la función de onda de Schrödinger está vinculada al conflicto cuántico, una pugna abierta entre el proceso determinista de evolución de ψ y la reducción del estado cuántico causada en el mismo instante de realizar una medida. La reducción cuántica empuja a la función de onda a dar un salto aleatorio discontinuo y la definición de ψ se pierde en el salto. En este estado crítico del proceso la única opción posible es recurrir a la probabilidad de los resultados de las medidas, considerados por Penrose como simples partes de un estado entrelazado cuántico. "La idea es que en cualquier proceso de medida del sistema cuántico en consideración no puede tomarse aislado de su entorno. Así pues, cuando se realiza una medida cada resultado diferente no constituye un estado cuántico por sí mismo, sino que debe considerarse como una parte de un estado 67
Para ganar la precisión perdida en cada medida por la incertidumbre experimental es necesario repetir mediciones muchas veces. No hay otra opción que el cálculo estadístico para cualquier tratamiento de los datos de observación de las ondas electromagnéticas. Cuesta creer que para establecer la trayectoria de una onda electromagnética contando con una función de onda definida ψ (x, t), haya que conformarse con la solución estadística.
31
entrelazado, en el que cada resultado alternativo está entrelazado con un estado diferente del entorno"68 De Broglie soluciona el misterio de la dualidad de comportamiento de la materia, como onda o como partícula, en función del experimento específico a que se someta. Es decir, el absurdo de la doble naturaleza onda-partícula se resuelve en los hechos experimentales. No es la incertidumbre cuántica la que anticipa la incertidumbre de la medida, sino que las ondas son partículas y las partículas son ondas hasta que el experimentador encuentra el momento p o la posición x de ψ. En el primer caso, la propia medida del momento dicta que ψ es una partícula; en el segundo caso, la medida de la posición dicta que ψ es una onda. De este modo, cuando el experimentador mide la posición, ψ (x, t) colapsa en ψ (x), y con ella colapsa el propio balance de la ecuación [C25] por transmisión del desfase angular φ; con la medida del momento, ψ (x, t) colapsa en ψ (t), y se vuelve a quebrar la ecuación [C25] a causa del mismo desfase angular. Finalmente, la incertidumbre experimental culmina en la incertidumbre instrumental. Para medir la posición de una partícula, es necesario utilizar luz de onda corta, es decir de alta frecuencia, para que la difracción no emborrone las imágenes de pequeña longitud de onda. Por tanto, cuanta mayor precisión exigimos en la medida de la posición de la partícula necesitamos una longitud de onda más corta del fotón, que se corresponde con mayor momento. Así que utilizar luz de alta frecuencia significa equipos con fotones de momento alto, que al chocar con la partícula observada la hacen retroceder necesariamente. El retroceso implica una distorsión de la medida de la posición. De este modo, la adaptación del instrumento para conseguir imágenes claras de la posición de una partícula distorsiona la propia medida. Un caso similar se presenta cuando se ajusta la medida del momento. Durante el mismo experimento anterior, a consecuencia del impacto fotón se transfiere una fracción del momento a la partícula. Por tanto, cuando aumenta el momento del fotón crece su transferencia, así como la distorsión de su medida69. El conocimiento de un aspecto del sistema impide el conocimiento de otros aspectos70 Heisenberg 4. Principio de incertidumbre de Heisenberg Al hablar de probabilidad en la ecuación de Schrödinger se reconoce la imposibilidad de precisar la posición de la partícula x y su momento p en un experimento. Decíamos más arriba, que de la ecuación [A9.10] del Anexo 9 Ecuación de Schrödinger se deduce que la posición x y el momento p están encapsulados, lo que quiere decir que no pueden medirse alternativamente la posición y el momento de una partícula. [A9.10] La ecuación [A9.10] fue la clave explicativa de las oscilaciones cuánticas, y penetró de lleno en el principio de incertidumbre. Heisenberg se interesó por las medidas de las magnitudes cuánticas en un entorno pequeño y advirtió la incertidumbre que causaban en otras magnitudes relacionadas con ella. Adiivinó que el mero hecho de determinar el valor preciso de una magnitud cuántica provocaba una fluctuación incontrolada de su medida.
68
Penrose, R. (2014) op. cit., pág. 1053. Weinberg S. (2010) El sueño de una teoría final, Brakontos bolsillo, pág. 64-65. 70 Weinberg S. (1994) El sueño de una teoría final, Mondadori, nota pág. 65. 69
32
Heisenberg se refería a la precisión en las medidas de variables no conmutativas, como las vinculadas por el operador conmutador en [A9.10]. Confirmó la imposibilidad de conocer conjuntamente la medida exacta de la posición x y el momento p por no ser variables conmutativas. Su postulado decía que era imposible precisar simultáneamente la posición y el momento con exactitud arbitraria. El principio de incertidumbre o principio de indeterminación quedó limitado por la siguiente desigualdad: ΔxΔp ≥ ħ/2 [C28]71 Δx es la dispersión de la posición de la partícula y Δp, la dispersión del momento. [C28] indica que existe un límite en la precisión de las medidas del par de variables posición-momento. Pero lo que no indica es que la observación de un sistema cuántico introduce una perturbación incontrolable que distorsiona los valores de estas medidas. Ni mucho menos se puede deducir a partir de ella que la posición y el momento cambian erráticamente, sin vinculación alguna, haciendo imposible establecer una ley que relacione las dispersiones de ambas magnitudes. Por el contario, la desigualdad [C28] establece una acotación precisa de la dispersión de un paquete de ondas. En el caso más favorable de que se pudiera determinar con total exactitud el valor de la dispersión Δx, aumentaría la indeterminación del momento Δp en una cantidad ≥ ħ/2. Y recíprocamente, si la dispersión Δp fuera un valor exacto, la imprecisión de la posición Δx sufriría un aumento ≥ ħ/2. En el caso extremo de un estado de momento puro Δp = 0 implica Δx → ∞. Y al contrario, un estado de posición pura Δx = 0 implica Δp → ∞. Heisenberg incluyó en su principio de indeterminación la ecuación [C29], donde la constante de Planck ħ, con unidades de energía-tiempo, marcaba como en [C28] el límite de la indeterminación. ΔEΔt ≥ ħ/2 [C29] Si la ecuación [C28] se mide en unidades de cantidad de movimiento-espacio, la [C29] se mide en unidades de energía-tiempo, ambas equivalentes y equiparables a su vez a las unidades de acción. Como el registro de la acción corre a cargo en física de la medida, el principio de indeterminación se dirige principalmente al campo empírico. El enunciado de la ecuación [C28] dice que no es posible determinar simultáneamente y sin errores el valor exacto del momento de una partícula y la posición; la ecuación [C29] señala que es irrealizable medir con precisión la energía de un proceso y el momento en que dicho proceso se produce. La relación [C29] tiene un tratamiento diferente de la más familiar relación de incertidumbre posición-momento [C28]. La razón de esta diferencia estriba en que el tiempo se considera un parámetro externo a la variable dinámica de la energía. La interpretación de [C29] es que si se determina la energía de un sistema cuántico mediante una medida realizada en un intervalo Δt, hay una incertidumbre ΔE que debe satisfacer esta desigualdad. Esto es especialmente relevante para las partículas o núcleos atómicos inestables. Por ejemplo, la vida media del núcleo de uranio U238 es Δt = 109 años. Como ħ = 1,054571628 × 10 -34 Js, la incertidumbre de la energía según [C29] es: ΔE ≤ 1,054571628)/2.10-34 Js./109 años/365/24/3600 s/año ≈ 10-51 J Partiendo de la ecuación universal de la energía de Einstein [A3.4] del Anexo 3 Ecuación general de Einstein de la energía, se puede obtener la incertidumbre equivalente de la masa Δm: E = mc2 [A3.4] 72 2 ΔE = Δmc [C30] 73 71
Se restablece la numeración correlativa de la serie de ecuaciones [C]. Aquí se vuelve a interrumpir la numeración correlativa de ecuaciones [C]. 73 Se restablece la numeración correlativa de la serie de ecuaciones [C]. 72
33
Δm ≤ 10-51/9/1010 ≈ 10-62 kg 5. Bibliografía Born M. (1969) Is Classical Mechanics in Fact Deterministic? In: Physics in My Generation. Heidelberg, Science Library Springer. Bose S.N. (1924) Plancks Gesetz und Lichtquantenhypothese, Zeitschrift für Physik, Vol. 26, Nº1: 178–181. Dawkins R. (2013) El espejismo de Dios, Espasa Libros. De la Peña (2004) Cien años en la vida de la luz, Colección La ciencia para todos Nº 200, Fondo de Cultura Económica. Einstein, A. (1905) On a Heuristic Viewpoint Concerning the Production and Transformation of Light, Annalen der Physik, 17: 132-148. Harrison, E. (2000). Cosmology: The Science of the Universe. Cambridge University Press. Hawking, S. W. (2007) La teoría del todo. El origen y el destino del universo, Debate. https://es.images.search.yahoo.com/search/images. La radiación del cuerpo negro UPV/EHU. http://www.sc.ehu.es/sbweb/fisica/cuantica/negro/radiacion/radiacion.htm. Newton, I. (2011) Principios matemáticos de la filosofía natural, Prefacio de Newton a la primera edición, 3ª edición, tecnos. Penrose, R. (2014) El camino de la realidad, 5ª edición, Debate. Schrödinger, E. (1926) Quantisierung als Eigenwertproblem, Annalen der Physik, Vol. 385, 13: 437-490. Weinberg, S. (1994) El sueño de una teoría final, Mondadori. Weinberg, S. (2010) El sueño de una teoría final, Brakontos bolsillo.
34