1
CAPITULO 1
Los mitos
del Origen
Explicar a qué llamamos mito, siempre ha sido motivo de confusiones. Esto debido a que hasta aproximadamente fines del siglo XIX era concebido como sinónimo de ―fábula‖, ―invención‖ o ―ficción‖. Y aunque en la actualidad, el mito ha sido revalorado por los estudiosos como aquel que designa una historia verdadera, de insuperable valor, porque es sagrado, ejemplar y significativo. El empleo del término ―mito‖ se ha vuelto equívoco en el lenguaje corriente al adoptar ambas concepciones de acuerdo a la circunstancia. Mas lo realmente importante es dilucidar qué es verdaderamente un mito dentro del campo de la literatura, el cual nos concierne. Precisando más, no es el estadio mental o el momento histórico en que el mito ha pasado a ser una «ficción» el que nos interesa. Nuestra investigación se dirigirá, en primer lugar, hacia las sociedades en las que el mito tiene —o ha tenida hasta estos últimos tiempos— «vida», en el sentido de proporcionar modelos a la conducta humana y conferir por eso mismo significación y valor a la existencia. Comprender la estructura y la función de los mitos en las sociedades tradicionales en cuestión no estriba sólo en dilucidar una etapa en la historia del pensamiento humano, sino también en comprender mejor una categoría de nuestros contemporáneos. Para limitarnos a un ejemplo, el de los «cargo cults» de Oceanía, sería difícil interpretar toda una serie de actuaciones insólitas sin recurrir a su justificación mítica. Estos cultos profetices y milenarios proclaman la inminencia de una era fabulosa de abundancia y de beatitud. Los indígenas serán de nuevo los señores de sus islas y no trabajarán más, pues los muertos volverán en magníficos navíos cargados de mercancías, semejantes a los cargos gigantescos que los Blancos acogen en sus puertos. Por eso la mayoría de esos «cargo cults» exige, por una parte, la destrucción de los animales domésticos y de los enseres, y por otra, la construcción de vastos almacenes donde se depositarán las provisiones traídas por los muertos. Tal movimiento profetiza la arribada de Cristo en un barco de mercancías; otro espera la llegada de «América». Una nueva era paradisíaca dará comienzo y los miembros del culto alcanzarán la inmortalidad. Ciertos cultos implican asimismo actos orgiásticos, pues las prohibiciones y las costumbres sancionadas por la tradición perderán su razón de ser y darán paso a la libertad absoluta. Ahora bien: todos estos actos y creencias se explican por el mito del aniquilamiento del Mundo seguido de una nueva Creación y de la instauración de la Edad de Oro, mito que nos ocupará más adelante.
2
Estructura de los mitos: El mito vivo: Es aquel que tiene ―vida‖; es decir, está presente en la vida de algunas sociedades (sociedades tradicionales). Aquel mito que proporciona modelos a la conducta humana y confiere por eso mismo significación y valor a la existencia. Lo importante al observar las acciones y acontecimientos que giran en torno a los mitos de una sociedad determinada, es comprenderlas y reconocerlas como hechos humanos, hechos de cultura, creación del espíritu. Y no como una irrupción patológica de instintos, bestialismo, infantilismo e incluso ―salvajismo‖. Concepto de mito: El mito es una realidad cultural extremadamente compleja que puede abordarse e interpretarse en perspectivas múltiples y complementarias. Es el relato de una ―creación‖. Se narra cómo algo ha sido producido, ha comenzado a ser. Mas el mito no habla de lo que ha sucedido realmente, de lo que se ha manifestado plenamente. Si no, es la forma de explicar las cosas. “Historia verdadera” e “Historia falsa”: El mito se considera una ―historia verdadera‖, puesto que siempre se refiere a realidades. Tiene un carácter sagrado. Mientras las fábulas o cuentos se consideran ―historias falsas‖, pues tienen un carácter profano. Las ―historias falsas‖ pueden contarse en cualquier momento y en cualquier sitio. Los mitos, ―historias verdaderas‖, no deben recitarse más que durante un lapso de tiempo sagrado. Lo que revelan los mitos: Los mitos revelan no sólo el origen del mundo, de los animales, de las plantas y del hombre. Sino también, todo los acontecimientos primordiales a consecuencia de los cuales, el hombre ha llegado a ser lo que es hoy; es decir, un ser mortal, sexuado, organizado en sociedad, obligado a trabajar y que lo hace según ciertas reglas. Conocer los mitos: Significa conocer el origen de un objeto, de un animal, de una planta, etc. Equivale a adquirir sobre ellos un poder mágico gracias al cual se logra dominarlos, multiplicarlos o reproducirlos a voluntad. Pues los mitos, explican cómo surgen las cosas. Función del mito: El mito desempeña una función indispensable. La cual es expresar, realzar, y codificar las creencias; salvaguardar los principios morales e imponerlos; garantizar la eficacia de las ceremonias rituales; y ofrecer reglas prácticas para el uso del hombre. Prestigio mágico de los orígenes:Mitos de origen y mitos cosmogónicos: Desde el punto de vista de la estructura, los mitos de origen son equiparables al mito cosmogónico. Puesto que al ser la creación del mundo la creación por excelencia; la cosmogonía pasa a ser el modelo ejemplar
3
para toda la creación. Mas el mito de origen no copia el modelo cosmogónico, sino narra y justifica una ―situación nueva‖ (que no estaba presente desde el principio del mundo). Los mitos de origen, prolongan y completan el mito cosmogónico. Cuentan cómo el mundo ha sido modificado, enriquecido o empobrecido. El papel de los mitos en las curaciones: Es proyectar al enfermo fuera del tiempo profano e insertarlo en la plenitud del tiempo primordial. Es decir, es llevado ―hacia atrás‖ hasta el origen del mundo y asiste de este modo a la cosmogonía. Reiteración de la cosmogonía: En el proceso del ritual curativo no sólo se resume la cosmogonía, sino se evoca también a dios y se le suplica que cree de nuevo el mundo en provecho del enfermo. Es decir, que este ―recomience‖ su vida, nazca de nuevo.
ACTIVIDAD ¿QUE ES EL MITO? ______________________________________________________________________________ ______________________________________________________________________________ _______________________ ¿CUAL ES LA ESTRUCTURA DEL MITO?
SOPA DE LETRAS H V H I J O Ñ W A S N A O N
M I T U N K R E G R P Y R P
I T H A S A L E D H V F P E N F O E I E C A C H I G F X FICCION MITO MITOVIVO
O S D E R F L H S V U S J L G F O L A H Q R D F M L R H N Q P A A C P M D V I Q T A F O U H G Q E N A A G F H B INVENCION ORIGEN MITOSDELORIGEN
L O R I O J J P C V Q F F M I E D A J R G E H L A O B P M I T O V U R Y X E B O J G R Y N G V D C V D G N M C H HISTORIAFALSA
CAPITULO 2 TEORIA DEL BIG-BANG
4
G W G P G G V A C L T Q B N
E Q J T G Q S S F F Y S H H
N G C I K K O V I V O T I M
P H J P L K U R F D A D Y H
NUESTRA IMAGEN DEL UNIVERSO
Aristóteles, en su libro De los Cielos estableció dos argumentos para creer que la Tierra era redonda: La sombra de la Tierra sobre la luna (en los eclipses lunares) era siempre redonda y la estrella polar aparecía más baja vista desde el sur que desde regiones más al norte. Aristóteles incluso estimó que la distancia alrededor de la Tierra era de 400.000 estadios (hacia el doble del Ecuador correcto). Aristóteles creía que la Tierra era estacionaria. Esta idea fue ampliada por Ptolomeo en el siglo II d.C. hasta construir un modelo cosmológico completo. La Tierra permaneció en el centro, rodeada por ocho esferas. La esfera más externa transportaba a las llamadas estrellas fijas. Nicolás Copérnico, hacia 1514, propuso un modelo más simple. Su idea era que el sol estaba estacionario en el centro y que la Tierra y los planetas se movían en órbitas circulares a su alrededor. Casi un siglo después Kepler y Galileo empezaron a apoyar públicamente la teoría copernicana. En 1609 Galileo empezó a observar el cielo nocturno con un telescopio que acababa de inventar. El planeta Júpiter estaba acompañado por varios pequeños satélites o lunas que giraban a su alrededor. Esto implicaba que no todo tenía que girar directamente alrededor de la Tierra. Figura 1a1Johannes Kepler había modificado la teoría de Copérnico, sugiriendo que los planetas no se movían en círculo, sino en elipses. Las predicciones se ajustaban ahora finalmente a las observaciones. Las órbitas elípticas constituían una hipótesis bastante desagradable. Kepler no pudo reconciliarlas con su idea de que los planetas estaban concebidos para girar alrededor del Sol atraídos por fuerzas magnéticas. Hacia 1687 Isaac Newton en Pilosophíae Naturalis Principia Mathemática postuló una ley de la gravitación universal, según la cual cada cuerpo en el universo era atraído por cualquier otro cuerpo con una fuerza que era tanto mayor cuanto más masivos fueran los cuerpos y cuanto más cerca estuvieran el uno del otro.Llegó a ser natural suponer que las estrellas fijas eran objetos como nuestro Sol pero mucho más lejanas. Newton comprendió que las estrellas deberían atraerse unas a otras; no parecía posible que pudieran permanecer esencialmente en reposo. ¿No llegaría un determinado momento en el que todas ellas se aglutinarían?. En 1691 Newton argumentaba que esto verdaderamente sucedería si solo hubiera un número finito de estrellas; si, por el contrario, hubiera un número infinito de estrellas sobre un espacio infinito, ello no sucedería, porque no habría ningún punto central donde aglutinarse.En un universo infinito, cada punto puede ser considerado como el centro. La aproximación correcta, es considerar primero una situación finita, en la que las estrellas tenderían
5
a aglutinarse. Podemos añadir tantas estrellas como queramos, que a pesar de ello las estrellas originales seguirán juntándose indefinidamente. Esto nos asegura que es imposible tener un modelo estático e infinito del universo, en el que la gravedad sea siempre atractiva. En el pensamiento anterior al siglo XX nadie había sugerido que el universo se estuviera expandiendo o contrayendo. Por el contrario, se intentó modificar la teoría, suponiendo que la fuerza gravitacional fuese repulsiva a distancias muy grandes. Hoy en día creemos que tal equilibrio sería inestable: si las estrellas en alguna región se acercaran sólo ligeramente unas a otras, una vez que empezaran a aglutinarse, lo seguirían haciendo. Por el contrario, si las estrellas empezaran a separarse tan sólo un poco, el dominio de las fuerzas repulsivas las alejarían indefinidamente. Otra objeción a un universo estático e infinito es atribuida a Heinrich Olbers hacia 1923. En tal universo, todo el campo de nuestra visión estaría cubierto de estrellas, que podrían no verse por culpa de la materia intermedia; pero al cabo de un tiempo ésta se habría calentado tanto que brillaría a nuestros ojos como una estrella. la única manera de evitar la conclusión de que todo el cielo nocturno debería ser tan brillante como la superficie del sol sería suponer que las estrellas no han estado iluminando desde siempre, sino que se encendieron en un determinado instante pasado finito. De acuerdo con distintas cosmologías primitivas y con la tradición judeo-cristiana-musulmana, el universo comenzó en cierto tiempo pasado finito, y no muy distante. Parecía necesaria una "Causa Primera" (dentro del universo, uno siempre explica un acontecimiento como causado por algún otro acontecimiento anterior). San Agustín en La ciudad de Dios señalaba que la civilización está progresando, por lo que el hombre, y quizás también el universo, no podía haber existido desde mucho tiempo atrás. De acuerdo con el libro del Génesis, aceptaba una fecha de unos 5.000 años antes de Cristo para la creación del universo (no está muy lejos del final del último período glacial, sobre el 10.000 a.C., que es cuando los arqueólogos suponen que realmente empezó la civilización.) Aristóteles, y la mayor parte del resto de los filósofos griegos, no era partidario de la idea de la creación. Ellos creían que la raza humana y el mundo que la rodea habían existido, y existirían, por siempre. Los antiguos ya habían considerado el argumento descrito arriba acerca del progreso, y lo habían resuelto diciendo que había habido inundaciones periódicas u otros desastres que repetidamente situaban a la raza humana en el principio de la civilización. Immanuel Kant en Crítica de la razón pura llamó a estas cuestiones antinomias de la razón pura. Si el universo no hubiera tenido un principio, habría habido un periodo de tiempo infinito anterior a cualquier acontecimiento, lo que él consideraba absurdo. Si el universo hubiera tenido un principio, habría habido un periodo de tiempo infinito anterior a él. Ambos argumentos se basan en la suposición implícita de que el tiempo continúa hacia atrás indefinidamente, tanto si el universo ha existido siempre como si no. Como veremos el concepto de tiempo no tiene significado antes del comienzo del universo. Esto ya había sido señalado en primer lugar por San Agustín. Cuando se le preguntó: ¿Qué hacía Dios antes de que creara el universo?, dijo que el tiempo era una propiedad del universo, y que el tiempo no existía con anterioridad al principio del universo. En 1929 Edwin Hubble hizo la observación crucial de que, donde quiera que uno mire, las galaxias distantes se están alejando de nosotros. El universo se está expandiendo. Parece ser que hubo un tiempo, hace unos diez o veinte mil millones de años, en que todos los objetos estaban en el mismo lugar, y en el que la densidad del universo era infinita (big bang). Bajo tales condiciones, todas las leyes de la ciencia se desmoronarían. Si hubiera habido acontecimientos anteriores a este tiempo, no podrían afectar de ninguna manera a lo que ocurre en el presente. Uno podría decir que el tiempo tiene su origen en el big bang, en el sentido de que los tiempos anteriores simplemente no estarían definidos.
6
ESPACIO Y TIEMPO
Aristóteles decía que el estado natural de un cuerpo es estar en reposo. De ello se deducía que un cuerpo pesado debía caer más rápido que uno ligero, porque sufría una atracción mayor hacia la Tierra. La tradición aristotélica también mantenía que se podría deducir todas la leyes que gobiernan el universo por medio del pensamiento puro: no era necesario comprobarlas por medio de la observación. Nadie antes de Galileo se preocupó de ver si los cuerpos con pesos diferentes caían con velocidades diferentes. Galileo comprobó que cada cuerpo aumentaba su velocidad al mismo ritmo, independientemente de su peso. Las mediciones de Galileo sirvieron de base a Newton. El efecto real de una fuerza era el de cambiar la velocidad del cuerpo, en vez de simplemente ponerlo en movimiento. Siempre que sobre un cuerpo no actuara ninguna fuerza, éste se mantendría moviéndose en una línea recta con la misma velocidad. La aceleración disminuirá cuando aumente la masa (cantidad de materia) del cuerpo. Un cuerpo que tenga doble peso sufrirá una fuerza gravitatoria doble, pero al mismo tiempo tendrá una masa doble. De acuerdo con la segunda ley de Newton, estos dos efectos se cancelarán exactamente y la aceleración será la misma en ambos casos. La falta de un estándar absoluto de reposo significaba que no se podía determinar si dos acontecimientos que ocurrieran en tiempo diferente, habían tenido lugar en la misma posición espacial. Por ejemplo, supongamos que en un tren, una bola de ping-pong está botando, moviéndose verticalmente hacia arriba y hacia abajo y golpeando la mesa dos veces en el mismo lugar con un intervalo de un segundo. Para un observador situado junto a la vía, los dos botes parecerán tener lugar con una separación de unos cuarenta metros, ya que el tren habrá recorrido esa distancia entre los dos botes. Así pues la no existencia de un reposo absoluto, significa que no se puede asociar una posición absoluta del espacio con un suceso. Newton estuvo muy preocupado por esta falta de una posición absoluta, o espacio absoluto, como se le llamaba, porque no concordaba con su idea de un Dios absoluto. Rehusó aceptar la no existencia de un espacio absoluto, a pesar incluso de que estaba implicada por su propias leyes. Tanto Aristóteles como Newton creían en el tiempo absoluto. Pensaban que se podía afirmar inequívocamente la posibilidad de medir el intervalo de tiempo entre dos sucesos sin ambigüedad, y que dicho intervalo sería el mismo para todos los que lo midieran. El tiempo estaba totalmente separado y era totalmente independiente del espacio. El hecho de que la luz viaja a una velocidad finita, aunque muy elevada fue descubierto en 1676 por el astrónomo danés Ole Christensen Roemer. Observó que los tiempos en los que las lunas de Júpiter parecían pasar por detrás de éste no estaban regularmente espaciados. Una verdadera teoría de la propagación de la luz no surgió hasta 1865 con James Clerk Maxwell. La teoría de Maxwell predecía que tanto las ondas de radio como las luminosas deberían viajar a una velocidad fija determinada. Las ondas de luz debían viajar a través del éter, al igual que las ondas de sonido lo hacen a través del aire. Diferentes observadores que se movieran con relación al éter verían acercarse la luz con velocidades distintas. En 1887, Albert Michelson y Edward Morley compararon la velocidad de la luz en la dirección del movimiento de la tierra, con la velocidad de la luz en la dirección perpendicular a dicho movimiento. ¡Ambas velocidades eran iguales!.
En 1905, Albert Einstein, señaló que la idea del éter era totalmente innecesaria, con tal que se estuviera dispuesto a abandonar la idea de un tiempo absoluto. Una proposición similar fue realizada por un destacado matemático francés, Henri Poincaré. Las leyes de la ciencia deberían ser las mismas para todos los observadores en movimiento libre; ahora se extendía la idea para incluir también la teoría de Maxwell y la velocidad de la luz. Esta idea tan simple tiene algunas consecuencias extraordinarias. Quizás las más conocidas sean la equivalencia entre masa y energía, y la ley de que ningún objeto puede viajar a una velocidad mayor que la de la luz. Debido a esta equivalencia, la energía que un objeto adquiere debido a su movimiento se añadirá a su masa incrementándola. En otras palabras, cuanto mayor sea la velocidad de un cuerpo, más difícil será aumentar su velocidad. Este efecto sólo es realmente significativo para velocidades cercanas a la de la luz. Sólo la luz, u otras ondas que no posean masa intrínseca pueden moverse a la velocidad de la luz. En la teoría de Newton, si un pulso de luz es enviado de un lugar a otro, observadores diferentes estarían de acuerdo en el tiempo que duró el viaje (ya que el tiempo es un concepto absoluto), pero no siempre estarían de acuerdo en la distancia recorrida por la luz. Observadores diferentes, medirán por tanto velocidades de la luz diferentes. En relatividad, todos los observadores deben estar de acuerdo lo rápido que viaja la luz. Continuarán, no obstante sin estar de acuerdo en la distancia recorrida por la luz, por lo que ahora también deberán discrepar en el tiempo empleado. Cada observador debe tener su propia medida del tiempo, que es la que registraría un reloj que se mueve junto a él. Y relojes idénticos, moviéndose con observadores diferentes no tendrían por qué coincidir. Un suceso se puede describir en función de cuatro números o coordenadas. Si un pulso de luz es emitido se irá extendiendo como una esfera de luz. De manera similar, la luz, al expandirse desde un suceso dado, forma un cono tridimensional en el espacio-tiempo cuatridimensional. Dicho cono se conoce como el cono de luz futuro del suceso. De la misma forma podemos dibujar otro cono, llamado el cono de luz pasado, el cual es el conjunto de sucesos, desde los que un pulso de luz es capaz de alcanzar el suceso dado. Los conos de luz futuro y pasado de un suceso P dividen al espacio tiempo en tres regiones: - El futuro absoluto. Es el conjunto de todos los sucesos que pueden en principio ser afectados por lo que sucede en P. Sucesos fuera del cono de luz de P no pueden ser alcanzados por señales provenientes de P. - El pasado absoluto de P. Conjunto de todos los sucesos cuyas señales pueden alcanzar P - El "resto". Fuera del futuro y del pasado. Por ejemplo, si el Sol cesara de alumbrar en este mismo instante, ello no afectaría a las cosas de la tierra en el tiempo presente por estar en la región del resto del suceso de apagarse el Sol. Si se ignoran los efectos gravitatorios, tal y como Eisntein y Poincaré hicieron en 1.905, uno tiene lo que se llama la teoría de la relatividad especial.Sin embargo, la teoría era inconsistente con la teoría de la gravitación de Newton, que decía que los objetos se atraían mutuamente con una fuerza dependiente de la distancia entre ellos. Los efectos gravitatorios deberían viajar con una velocidad infinita, en vez de con una velocidad igual o menor que la de la luz, como la teoría de la relatividad especial requería. Einstein, en 1.915, propuso lo que hoy en día se conoce como teoría de la relatividad general. Hizo la sugerencia revolucionaria de que la gravedad no es una fuerza como las otras, sino que es una consecuencia de que el espacio-tiempo no sea plano, como previamente se había supuesto: el espacio-tiempo está curvado, o "deformado", por la distribución de masa y energía en él presente. Los cuerpos siguen la trayectoria más parecida a una línea
8
recta en un espacio curvo, es decir, lo que se conoce como una geodésica. En relatividad general, los cuerpos siguen siempre líneas rectas, en el espacio-tiempo cuatridimensional; sin embargo, nos parece que se mueven a lo largo de trayectorias curvadas a lo largo de nuestro espacio tridimensional. (Es como ver la sombra de un avión volando sobre un terreno montañoso. Mercurio sufre los efectos gravitatorios más fuertes, la relatividad general predice que el eje mayor de su elipse debería rotar alrededor del sol a un ritmo de un grado cada 10.000 años. Este efecto ya había sido observado antes de 1.915 y sirvió como una de las primeras confirmaciones de la teoría de Einstein.La relatividad general predice que la luz debería ser desviada por los campos gravitatorios. La teoría predice que los conos de luz de puntos cercanos al Sol estarán torcidos hacia adentro, debido a la presencia de la mas del Sol. La luz de una estrella distante, al pasar cerca del Sol, será desviada un pequeño ángulo. Es posible observarlo así durante un eclipse solar.Otra predicción de la relatividad general es que el tiempo debería transcurrir más lentamente cerca de un cuerpo de gran masa. Cuando la luz viaja hacia arriba en el campo gravitatorio terrestre, pierde energía, y por lo tanto, su frecuencia disminuye. A alguien situado arriba le parecería que todo lo que pasara abajo, en la Tierra, transcurriría más lentamente. Esta predicción fue comprobada en 1.962.
9
EL UNIVERSO EN EXPANSIÓN
Algunas de las estrellas, llamadas fijas, cambian muy ligeramente sus posiciones con respecto a las otras cuando la Tierra gira alrededor del Sol. Esto se debe a que están relativamente cerca de nosotros. Ya en 1750 algunos astrónomos empezaron a sugerir que la Vía Láctea podría ser explicada por el hecho de que la mayor parte de las estrellas visibles estuvieran en una única configuración en forma de disco, un ejemplo de lo que hoy llamaríamos una galaxia espiral. Sólo unas décadas después, William Herschel confirmó esta idea. En 1924 Edwin Hubble demostró que nuestra galaxia no era la única. Había de hecho muchas otras, con amplias regiones de espacio vacío entre ellas. Hubble advirtió que ciertos tipos de estrellas tienen siempre la misma luminosidad. Midiendo el brillo aparente de estrellas de este tipo, localizadas en otras galaxias, Hubble calculó las distancias a nueve galaxias diferentes. Vivimos en una galaxia que tiene un diámetro aproximado de cien mil años luz, y que está girando lentamente. Nuestro Sol está situado cerca del centro de uno de los brazos de la espiral. Las estrellas están tan lejos de la Tierra que nos parecen simples puntos luminosos. La luz emitida por un objeto opaco incandescente tiene un aspecto característico que sólo depende de su temperatura. Podemos averiguar la temperatura de una estrella a partir de su espectro luminoso. Cada elemento químico absorbe un conjunto característico de colores muy específicos. Por ello se puede determinar exactamente qué elementos hay en la atmósfera de una estrella comparando los conjuntos de colores ausentes de cada elemento con el espectro de la estrella. Al estudiar los espectros de estrellas de otras galaxias, encontramos un hecho peculiar: son análogos a los de estrellas cercanas, pero globalmente desplazados hacia el extremos del espectro correspondiente al color rojo. Sabemos, por otro lado, que si una fuente luminosa se aleja de nosotros, la frecuencia de las ondas que recibimos será menor que en el supuesto de una fuente estacionaria (Efecto Doppler, análogamente observable para los ondas sonoras). Hubble publicó en 1929 que ni siquiera el corrimiento de las galaxias hacia el rojo es aleatorio, sino que es directamente proporcional a la distancia que nos separa de ellas. La distancia entre las diferentes galaxias está aumentando continuamente. El universo se expande. Si se estuviera expandiendo muy lentamente, la fuerza de la gravedad frenaría finalmente la expansión y aquél comenzaría entonces a contraerse. Si se expandiera más deprisa, continuaría expandiéndose por siempre. Friedmann hizo dos suposiciones muy simples sobre el universo: que el universo parece el mismo desde cualquier dirección desde la que se le observe, y que ello también sería cierto si se le observara desde cualquier otro lugar. En 1965, dos físicos norteamericanos de los laboratorios de la Bell Telephone en Nueva Jersey, Arno Penzias y Robert Wisson, estaban probando un detector de microondas extremadamente sensible. Su detector captaba más ruido del que esperaban. El ruido extra era el mismo para cualquier dirección desde la que se observara, el ruido nunca varía más de una parte en diez mil. Dicke y Peebles argumentaron que aún deberíamos ser capaces de ver el resplandor de los inicios del universo, porque la luz proveniente de lugares muy distantes estaría alcanzándonos ahora. Sin embargo, la expansión del universo implicaría que esta luz debería estar tan tremendamente desplazada hacia el rojo que nos llegaría hoy en día como radiación de microondas. Existen en realidad tres tipos de modelos que obedecen a las dos suposiciones de Friedmann Figuras 3.2, 3.2 y 3.4. En el primer tipo la expansión acabaría frenándose hasta provocar el colapso. En el segundo la expansión no se invertiría nunca. Existe por último un tercer tipo de
10
solución, en la que el universo se está expandiendo con la velocidad justa para evitar colapsarse. La velocidad con la que las galaxias se están separando se hace cada vez más pequeña, aunque nunca llega a ser nula. En el primer tipo de modelos de Friedmann el espacio está curvado sobre sí mismo, al igual que la superficie de la Tierra. En el segundo tipo de modelo, el espacio está curvado al contrario, es decir, como la superficie de una silla de montar. Este caso, el espacio es infinito. En el tercer tipo el espacio no está curvado, (y por tanto también es infinito). Necesitaríamos conocer el ritmo actual de expansión y la densidad media presente en el universo. El universo se expande entre un cinco y un diez por 10 cada mil millones de años. Cuando sumamos toda la materia oscura de las galaxias, y la existente entre los racimos de galaxias, obtenemos tan sólo la décima parte, aproximadamente, de la cantidad requerida par detener la expansión. Todas las soluciones de Friedmann comparten el hecho de que en algún tiempo pasado (entre diez y veinte mil millones de años) la distancia entre galaxias vecinas debe haber sido cero. En aquel instante, que llamamos big bang, la densidad del universo y la curvatura del espacio-tiempo habrían sido infinitas. La teoría de la relatividad colapsa en lo que los matemáticos llaman una singularidad. Los sucesos anteriores al big bang no pueden tener consecuencias, por lo que no deberían formar parte de los modelos científicos del universo. Roger Penrose demostró que una estrella que se colapsa bajo su propia gravedad está atrapada en una región cuya superficie se reduce con el tiempo a tamaño cero, en otras palabras, una singularidad contenida dentro de una región del espacio-tiempo llamada agujero negro. Entre Penrose y yo, en 1970 probamos que debe haber habido una singularidad como la del big bang, con la única condición de que la relatividad general sea correcta y que el universo contenga tanta materia como observamos. Como veremos más adelante, esta singularidad puede desaparecer una vez que los efectos cuánticos se tienen en cuenta. La relatividad general sólo pretende ser una teoría parcial, de forma que lo que el teorema de la singularidad realmente muestra es que debió haber habido un tiempo, muy al principio del universo, en que éste era tan pequeño que ya no se pueden ignorar los efectos de pequeña escala de la otra gran teoría parcial del siglo XX, la mecánica cuántica.
11
EL PRINCIPIO DE INCERTIDUMBRE
La doctrina del determinismo científico fue ampliamente criticada por diversos sectores, que pensaban que infringía la libertad divina de intervenir en el mundo, pero, a pesar de ello, constituyó el paradigma de la ciencia hasta los primeros años de nuestro siglo. De acuerdo con las leyes en las que se creía en aquel tiempo, un cuerpo caliente tendría que emitir ondas electromagnéticas con igual intensidad a todas las frecuencias. Dado que el número de ciclos por segundo es ilimitado, esto significaría entonces que la energía total irradiada sería infinita. Planck sugirió en 1900 que la luz, los rayos X y otros tipos de ondas no podían ser emitidos en cantidades arbitrarias, sino sólo en ciertos paquetes que él llamó "cuantos". Cada uno de ellos poseía una cierta energía que era tanto mayor cuanto más alta fuera la frecuencia de las ondas, de tal forma que, para frecuencias suficientemente altas, la emisión de un único cuanto requeriría más energía que la que se podría obtener. En 1926 Werner Heisenberg formuló su famoso principio de incertidumbre. Para poder predecir la posición y velocidad futuras de una partícula, hay que ser capaces de medir con precisión su posición y velocidad actuales. El modo obvio de hacerlo es iluminando con luz la partícula. Sin embargo, uno no podrá ser capaz de determinar la posición de la partícula con mayor precisión que la distancia entre dos crestas consecutivas de la onda luminosa, por lo que se utilizará luz de muy corta longitud, y, por tanto muy alta frecuencia. Pero, según la hipótesis de Planck, no se puede emitir una cantidad arbitrariamente pequeña de luz: se tiene que usar como mínimo un cuanto de luz. Este cuanto perturbará la partícula, cambiando su velocidad en una cantidad que no puede ser predicha. Además, cuanto con mayor precisión se mida la posición, menor habrá de ser la longitud de onda de la luz que se necesite y, por lo tanto, mayor será la energía del cuanto que se haya de usar. Así, la velocidad de la partícula resultará fuertemente perturbada. En otras palabras, cuanto con mayor precisión se trate de medir la posición de la partícula, con menor exactitud se podrá medir su velocidad, y viceversa. La incertidumbre nunca podrá ser más pequeña que una cierta cantidad, que se conoce como constante de Planck. El principio de incertidumbre de Heisenberg es una propiedad fundamental, ineludible, del mundo. El principio de incertidumbre tiene profundas implicaciones sobre el modo que tenemos de ver el mundo. Marcó el final del sueño determinista. Parece mejor, en general, emplear el principio de economía conocido como "cuchilla de Occam" y eliminar todos los elementos de la teoría que no pueden ser observados. Esta aproximación llevó en 1920 a Heisenberg, Erwin Schrodinger y Paul Dirac a reformular la mecánica con una nueva teoría llamada mecánica cuántica, basada en el principio de incertidumbre. En esta teoría las partículas ya no poseen posiciones y velocidades definidas por separado, pues estas no podrían ser observadas. En vez de ello, las partículas tienen un estado cuántico, que es una combinación de posición y velocidad. La mecánica cuántica no predice un único resultado de cada observación. En su lugar, predice un cierto número de resultados posibles y nos da las probabilidades de cada uno de ellos. Así pues, la mecánica cuántica introduce una aleatoriedad en la ciencia. Einstein recibió el premio Nobel por su contribución a la teoría cuántica. No obstante, Einstein nunca aceptó que el universo estuviera gobernado por el azar ("Dios no juega a los dados"). Sin embargo, en ella se basa casi toda la ciencia y la tecnología modernas. Las únicas áreas de las ciencias en las que la mecánica cuántica aún no ha sido adecuadamente incorporada son las de la gravedad y la estructura a gran escala del universo. Existe una dualidad entre ondas y partículas en la mecánica cuántica: para algunos fines es útil pensar en las partículas como ondas, mientras que para otros es mejor pensar en las ondas como partículas. Los fenómenos de interferencia, refuerzo y cancelación de ondas, observables por
ejemplo al pasar éstas por dos rendijas y chocar posteriormente con una pared Figura 4.2. Las ondas provenientes de las dos rendijas no estarán en fase al llegar a la pantalla. En algunos lugares se cancelarán, y en otros se reforzarán mutuamente. El resultado es un característico diagrama de franjas luminosas y oscuras. Lo más notable es que se obtiene exactamente el mismo tipo de franjas si se reemplaza la fuente luminosa por una fuente de partículas, tales como electrones, con la misma velocidad ( lo que significa que las ondas correspondientes poseen una única longitud de onda). Si sólo se tiene una rendija, no se obtiene franjas. Cabría pensar, por tanto, que la apertura de la otra rendija simplemente aumentaría el número de electrones que chocan en la pantalla, pero debido a la interferencia, este número realmente disminuye en algunos lugares. En la realidad, aunque los electrones se envíen de uno en uno, las franjas siguen apareciendo. Así pues ¿cada electrón debe pasar a través de las dos rendijas al mismo tiempo!. Al principio de este siglo se creyó que los átomos eran bastante parecidos a los planetas girando alrededor del Sol. Las leyes de la mecánica y la electricidad predecían, antes de que existiera la mecánica cuántica , que los electrones perderían energía y caerían girando en espiral, hasta que colisionaran con el núcleo. Niels Bohr, en 1913, sugirió que quizás los electrones no eran capaces de girar a cualquier distancia del núcleo central, sino sólo a ciertas distancias específicas. Si también se supusiera que sólo uno o dos electrones podían orbitar a cada una de estas distancias, se resolvería el problema del colapso del átomo.La mecánica cuántica nos permite, en principio, predecir casi todos los fenómenos a nuestro alrededor, dentro de los límites impuestos por el principio de incertidumbre. (En la práctica los calculos son tan complicados que no pueden realizarse.) La teoría de la relatividad general de Einstein parece gobernar la estructura a gran escala del universo. No tiene en cuenta el principio de incertidumbre de la mecánica cuántica. Los campos gravitatorios que habitualmente experimentamos son muy débiles. El campo gravitatorio deberá ser muy intenso en, como mínimo dos situaciones: los agujeros negros y el big bang. En campos así de intensos, los efectos de la mecánica cuántica tendrán que ser importantes. Así, en cierto sentido, la relatividad general clásica, al predecir puntos de densidad infinita, predice su propia caída, igual que la mecánica clásica predijo su caída al sugerir que los átomos deberían colapsarse hasta alcanzar una densidad infinita.
13
LAS PARTÍCULAS ELEMENTALES Y LAS FUERZAS DE LA NATURALEZA Aristóteles creía que la materia era continua. Demócrito sostenía que la materia era inherentemente granular y que todas las cosas estaban compuestas por átomos. En 1803. John Dalton señaló que el hecho de que los compuestos químicos siempre se combinaran en ciertas proporciones podía ser explicado mediante el agrupamiento de átomos para formar otras unidades llamadas moléculas. Einstein en 1905 señaló cómo el movimiento browniano podía ser explicado por el efecto de las colisiones de los átomos del líquido con las partículas de polvo. En 1911 Rutherford mostró que los átomos de la materia tienen verdaderamente una estructura interna: están formados por un núcleo extremadamente pequeño y con carga positiva, alrededor del cual gira un cierto número de electrones. Dedujo esto analizando el modo en que las partículas alfa, que son partículas con carga positiva emitidas por átomos radioactivos, son desviadas al colisionar con los átomos. Hasta hace veinte años se creía que los protones y los neutrones eran partículas elementales, pero en realidad estaban formados por partículas más pequeñas. Estas partículas fueron denominadas quarks. Existe un cierto número de variedades de quarks: Se cree que hay como mínimo seis flavors ['sabores'], que llamamos up, down, strange, charmed, bottom, y top ['arriba', 'abajo', 'extraño', 'encanto', 'fondo' y 'cima']. Cada flavor puede tener uno de los tres posibles "colores", rojo, verde y azul. Un protón contiene dos quark up y un quark down; un neutrón contiene dos down y uno up. Se pueden crear partículas constituidas por los otros quarks (strange, charmed, bottom, y top), pero todas ellas poseen una masa mucho mayor y decaen muy rápidamente en protones y neutrones. En el experimento de Rutherford, las partículas alfa tenían energías de millones de electrónvoltios. ¿Pueden las partículas elementales, conforme obtenemos energías mayores, estar formadas por partículas aún más pequeñas?. Usando la dualidad onda-partículas, todo en el universo, incluyendo la luz y la gravedad, puede ser descrito en términos de partículas. Estas partículas tienen una propiedad llamada espín. Lo que nos dice realmente el espín de una partícula es cómo se muestra la partícula desde distintas direcciones. Una partícula de espín 0 es como un punto: parece la misma desde todas las direcciones. Una partícula de espín 1 es como una flecha: sólo si se la gira una vuelta completa la partícula parece la misma. Una partícula de espín 2 es como una flecha con dos cabezas: parece la misma si se gira media vuelta. Partículas de espines más altos parecen las mismas si son giradas una fracción más pequeña de una vuelta completa. Existen partículas que no parecen las mismas si se las gira justo una vuelta: hay que girarlas dos vueltas completas. Se dice que tales partículas poseen espín 1/2 Figura 5.1. Todas las partículas conocidas del universo se pueden dividir en dos grupos: partículas de espín 1/2, las cuales forman la materia del universo, y partículas de espín 0,1 y 2, las cuales, dan lugar a las fuerzas entre las partículas materiales. Las partículas materiales obedecen el principio de exclusión de Pauli, enunciado en 1925: Dos partículas similares no pueden existir en el mismo estado, es decir, que no pueden tener ambas la misma posición y la misma velocidad, dentro de los límites fijados por el principio de incertidumbre. El principio de exclusión explica por qué las partículas materiales no colapsan a un estado de muy alta densidad. Las partículas portadoras de fuerza no obedecen el principio de exclusión. Las partículas portadoras de fuerza que se intercambian entre sí las partículas materiales son partículas virtuales porque, al contrario que las partículas "reales", no pueden ser descubiertas directamente por un detector de partículas. Las partículas portadoras de fuerza se pueden agrupar en cuatro categorías. La primera categoría es la fuerza gravitatoria. Toda partícula la experimenta de acuerdo con su masa o energía. La gravedad es la más débil, con diferencia, de las cuatro fuerzas. Puede actuar a
grandes distancias y es siempre atractiva. Desde el punto de vista mecánico-cuántico la fuerza entre dos partículas materiales se representa trasmitida por una partícula de espín 2 llamada gravitón, que no posee masa propia. La segunda categoría es la fuerza electromagnética, que interactúa con las partículas cargadas. Es un 1 con 42 ceros de veces mayor que la fuerza gravitatoria. La atracción electromagnética se representa causada por el intercambio de un gran número de partículas virtuales sin masa de espín 1, llamadas fotones. Los fotones que son intercambiados son partículas virtuales. No obstante, cuando un electrón cambia de una órbita permitida a otra más cercana al núcleo, se libera energía, emitiéndose un fotón real, que puede ser observado por el ojo o una película fotográfica. Si un fotón real colisiona con un átomo puede cambiar a un electrón a una órbita más cercana al núcleo. Este proceso consume la energía del fotón, por tanto lo absorbe. La tercera categoría es la llamada fuerza nuclear débil, que es la responsable de la radioactividad y que actúa sobre todas las partículas materiales de espín 1/2, pero no sobre las partículas de espín 0, 1 ó 2, tales como fotones y gravitones. Abdus Salam y Steven Weinberg, propusieron una teoría que unificaba esta interacción con la fuerza electromagnética, de la misma manera que Maxwell había unificado la electricidad y el magnetismo unos cien años antes. Sugirieron que además del fotón había otras tres partículas de espín 1, conocidos colectivamente como bosones vectoriales masivos, W+, W- y Z0, que trasmiten la fuerza débil; cada una posee una masa de unos 100 GeV. La teoría propone una propiedad conocida como ruptura de simetría espontánea. A bajas energías parece ser que un cierto número de partículas totalmente diferentes es, en realidad, el mismo tipo de partícula, solo que en estados diferentes. A energías mucho mayores de 100 GeV, las tres nuevas partículas y el fotón se comportarían todas de una manera similar. Pero a energías más bajas, que se dan en la mayoría de las situaciones normales, esta simetría entre las partículas se rompería. W+, W- y Z0 adquirirían grandes masas, haciendo que la fuerza que trasmiten fuera de muy corto alcance.
15
La cuarta categoría de fuerza es la interacción nuclear fuerte, que mantiene a los quarks unidos en el protón y el neutrón, y a los protones y neutrones juntos en los núcleos de los átomos. Se cree que esta fuerza es trasmitida por otra partícula de espín 1, llamada gluón, que sólo interactúa consigo misma y con los quarks. La interacción nuclear posee una curiosa propiedad llamada confinamiento: siempre liga a la partículas en combinaciones tales que el conjunto total no tiene color. No se puede tener un único quark aislado porque tendría un color. Por el contrario, un quark rojo tiene que juntarse con un quark verde y uno azul por medio de una "cuerda" de gluones. Un triplete así, constituye un protón o un neutrón. Otra posibilidad es un par consistente en un quark y un antiquark (rojo + antirrojo, o verde + antiverde, o azul + antiazul = blanco). Tales combinaciones forman las partículas conocidas como mesones, que son inestables porque el quark y el antiquark se pueden aniquilar entre sí, produciendo electrones y otras partículas. Similarmente el confinamiento impide que se tengan gluones aislados, porque los gluones en sí también tienen color. Una colección de gluones cuyos colores se sumen para dar el blanco forman una partícula inestable llamada bola de gluones. Sin embargo a altas energías la interacción fuerte se hace mucho menos intensa, y los quarks y los gluones se comportan casi como partículas libres. El éxito de la unificación de las fuerzas electromagnéticas y nucleares débiles produjo un cierto número de intentos de combinar estas dos fuerzas con la interacción nuclear fuerte, en lo que se ha dado en llamar teorías de la gran unificación (TGU). A determinada energía muy alta, llamada energía de la gran unificación, estas tres fuerzas deberían tener todas la misma intensidad y sólo ser, por tanto, aspectos diferentes de una misma fuerza. Las diferentes partículas materiales de espín 1/2 como los quarks y los electrones, también serían esencialmente iguales y se conseguiría así otra unificación. El valor de la energía de la gran unificación no se conoce demasiado bien, pero probablemente tendría que ser como mínimo de mil billones de GeV. Así pues, es imcomprobable. A pesar de ello, existen consecuencias a baja energía de la teoría que sí pueden ser comprobadas. La más interesante de ellas es la predicción de que los protones pueden decaer espontáneamente en partículas más ligeras, tales como antielectrones. La probabilidad de que esto le ocurra espontáneamente a determinado protón es mínima, pero se pueden aumentar las probabilidades de detectar una desintegración observando gran cantidad de materia. Ninguno de los experimentos llevados a cabo han producido una evidencia definitiva sobre el decaimiento del protón o del neutrón. Puede ser que nuestra propia existencia sea una consecuencia del proceso inverso, la producción de protones, o simplemente de quarks, a partir de una situación inicial en la que no hubiese más que quarks y antiquarks, que es la manera más natural de imaginar que empezó el universo. Si hubiera extensas regiones de antimateria en nuestra galaxia, esperaríamos observar grandes cantidades de radiación proveniente de los límites entre las regiones de materia y antimateria, en donde muchas partículas colisionarían con sus antipartículas, y se aniquilarían entre sí, desprendiendo radiación de alta energía. Parece inverosímil que algunas galaxias fueran de materia y otras de antimateria. ¿Por qué debería haber tantísimos más quarks que antiquarks?. Las leyes de la física no son exactamente las mismas para partículas que para antipartículas. Hasta 1956 se creía que las leyes de la física poseían tres simetrías independientes llamadas C, P y T. La simetría C significa que las leyes son las mismas para partículas y para antipartículas. La simetría P implica que las leyes son las mismas para una situación cualquiera y para su imagen especular. La simetría T significa que si se invierte la dirección del movimiento de todas las
16
partículas y antipartículas, el sistema volvería a ser igual a como fue antes: en otras palabras, las leyes son las mismas en las direcciones hacia adelante y hacia atrás del tiempo. Tsung-Dao Lee y Chen Ning Yang sugirieron que la fuerza débil no posee de hecho la simetría P. Se encontró también que la fuerza débil no poseía la simetría C. Sin embargo parecía que la fuerza débil sí poseía la simetría combinada CP. Sin embargo, en 1964 Cronin y Val Fitch descubrieron que ni siquiera la simetría CP se conservaba en la desintegración de ciertas partículas llamadas mesones-K. Existe un teorema matemático según el cual cualquier teoría que obedezca a la mecánica cuántica y a la relatividad debe siempre poseer la simetría combinada CPT. Pero Cronin y Fitch probaron que si se reemplazaban las partículas por antipartículas y se tomaba la imagen especular, pero no se invertía la dirección del tiempo entonces el universo no se comportaría igual. Las leyes de la física tienen que cambiar, por lo tanto, si se invierte la dirección del tiempo: no poseen la simetría T. Podría ocurrir que, conforme el universo se expande, estas fuerzas convirtieran más antielectrones en quarks que electrones en antiquarks. Las teorías de gran unificación no incluyen a la fuerza de la gravedad. Lo cual no importa demasiado porque la gravedad es tan débil que sus efectos pueden normalmente ser despreciados cuando estudiamos partículas o átomos. Sin embargo el hecho de que sea algo a la vez de largo alcance y siempre atractiva significa que sus efectos se suman. Así, para un número de partículas materiales suficientemente grande, las fuerzas gravitatorias pueden dominar sobre todas las demás. Por ello la gravedad determina la evolución del universo. Incluso para objetos del tamaño de una estrella, la fuerza atractiva de la gravedad puede dominar sobre el resto de las fuerzas y hacer que la estrella se colapse. Mi trabajo en los años 70 sobre los agujeros negros nos condujo a vislumbrar la forma que tendría una venidera teoría cuántica de la gravedad.
17
LOS AGUJ.EROS NEGROS El término agujero negro fue acuñado en 1969 por John Wheeler como la descripción gráfica de una idea que se remonta hacia atrás un mínimo de doscientos años, a una época en que había dos teorías sobre la luz: una, preferida por Newton, que suponía que la luz estaba compuesta por partículas, y la otra que asumía que estaba formada por ondas. Debido a la dualidad onda/corpúsculo de la mecánica cuántica, la luz puede ser considerada como una onda y como una partícula. John Michell escribió en 1783 que una estrella que fuera lo suficientemente masiva y compacta tendría un campo gravitatorio tan intenso que la luz no podría escapar. Una sugerencia similar fue realizada unos años después por Laplace en la primera edición de su El sistema del mundo. Con la teoría ondulatoria, que se imponía, no estaba claro si la luz sería afectada por la gravedad. No es realmente consistente tratar la luz como las balas en la teoría de la gravedad de Newton, porque la velocidad de la luz es fija. Recordemos el ciclo vital de una estrella. Una estrella se forma cuando una gran cantidad de gas, principalmente hidrógeno, comienza a colapsar sobre sí mismo debido a su atracción gravitatoria. Conforme se contrae, sus átomos comienzan a chocar. Con el tiempo el gas estará tan caliente que cuando los átomos de hidrógeno choquen ya no saldrán rebotados, sino que se fundirán formando helio. El calor resultante expandirá los átomos equilibrando la acción gravitatoria en un cierto tamaño, que permanecerá aproximadamente constante durante mucho tiempo. Finalmente la estrella consumirá todo su hidrógeno y los otros combustibles nucleares. Paradójicamente, cuanto más combustible posee una estrella al principio, más pronto se le acaba, pues mientras más caliente esté, más rápidamente utilizará su combustible. Nuestro Sol tiene probablemente suficiente combustible para otros cinco mil millones de años aproximadamente, pero estrellas más masivas pueden gastar todo su combustible en tan sólo cien millones de años. Cuando una estrella se queda sin combustible empieza a enfriarse y por lo tanto a contraerse. Lo que puede sucederle a partir de ese momento sólo empezó a entenderse al final de la década de 1920. Subrahmanyan Chandrasekhar, en 1918 propuso que cuando la estrella se reduce en tamaño, las partículas materiales están muy cerca unas de otras, y así, de acuerdo con el principio de exclusión de Pauli, tienen que tener velocidades muy diferentes. Esto hace que se alejen unas de otras, lo que tiende a expandir a la estrella. Esta puede mantenerse con un radio constante, debido a un equilibrio entre la atracción de la gravedad y la repulsión que surge del principio de exclusión, de la misma manera que antes la gravedad era compensada por el calor. Sin embargo, existe un límite a la repulsión que el principio de exclusión puede proporcionar. La teoría de la relatividad limita la diferencia máxima entre las velocidades de las partículas materiales de la estrella a la velocidad de la luz. Esto significa que cuando la estrella fuera suficientemente densa, la repulsión debida al principio de exclusión sería menor que la atracción de la gravedad. Chandrasekhar calculó que una estrella fría de más de aproximadamente una vez y media la masa del Sol no sería capaz de soportar su propia gravedad. (A esta masa se la conoce hoy en día como el límite de Chandrasekhar). Si una estrella posee una masa menor que el límite de Chandrasekhar, puede finalmente cesar de contraerse y estabilizarse en un posible estado final, como una estrella enana blanca, con un radio de unos pocos miles de kilómetros y una densidad de decenas de toneladas por centímetro cúbico. Landau señaló que existía otro posible estado final para una estrella, también con una masa límite de una o dos veces la masa del Sol, pero mucho más pequeña incluso que una enana blanca. Estas estrellas se mantendrían gracias a la repulsión debida al principio de exclusión entre neutrones y protones, en vez de entre electrones. Se les llamó por eso estrellas de neutrones. Tendrían un radio de unos quince kilómetros, y una densidad de decenas de millones de
toneladas por centímetro cúbico. En la época en que fueron predichas, no había forma de poder observarlas. Estrellas con masas superiores al límite de Chandrasekhar tienen, por el contrario un gran problema cuando se les acabe el combustible. En algunos casos consiguen explotar, o se las arreglan para desprenderse de la suficiente materia como para reducir su peso por debajo del límite; pero es difícil pensar que esto ocurra siempre. Einstein y la mayoría de los científicos pensaron que simplemente era imposible que una estrella pudiera colapsarse y convertirse en un punto. Hacia 1939 Einstein, en un trabajo relativamente olvidado a raíz de la segunda guerra nuclear, sugirió que el campo gravitatorio de la estrella cambia los caminos de los rayos de luz en el espacio-tiempo, respecto a los que hubieran sido si la estrella no hubiera estado presente. Los conos de luz se inclinan ligeramente hacia adentro cerca de la superficie de la estrella. Esto hace más difícil que la luz escape, y la luz se muestra más débil y más roja para un observador lejano. Finalmente, cuando la estrella se ha reducido hasta un radio crítico, el campo gravitatorio llega a ser tan intenso, que los conos de luz se inclinan tanto hacia adentro que la luz ya no puede escapar. Tampoco lo puede hacer ningún otro objeto. Por lo tanto, se tiene un conjunto de sucesos, una región del espacio-tiempo, desde donde no se puede escapar y alcanzar a un observador lejano. Esta región es lo que hoy en día llamamos un agujero negro. Su frontera se denomina el horizonte de sucesos y coincide con los caminos de los rayos luminosos que están justo a punto de escapar del agujero negro, pero no lo consiguen. Señales periódicas emitidas desde una estrella que estuviera a punto de alcanzar el radio crítico, serían detectadas por un observador lejano, con un intervalo cada vez mayor, a la par que la luz de la estrella llegaría cada vez más débil y más roja, hasta la señal emitida justo en el momento en que la estrella redujese su radio por debajo del crítico, que se haría esperar eternamente. En 1965, Penrose y yo demostramos que de acuerdo con la relatividad general, debe haber una singularidad de densidad y curvatura del espacio-tiempo infinitas dentro de un agujero negro. Las leyes de la ciencia fallarían totalmente. Penrose propuso la hipótesis de la censura cósmica. Las singularidades están ocultas por medio de un horizonte de sucesos. Protege a los observadores de la crisis de predicción que ocurre en la singularidad. Existen algunas soluciones de las ecuaciones de la relatividad general en las que le es posible a un observador ver una singularidad desnuda, pero evitar chocar con ella, y en vez de esto, caer en un agujero de gusano, para salir en otra región del universo. Estas soluciones son altamente inestables, como para que un observador no las perturbe. Por lo tanto para tal observador la singularidad estaría siempre en su futuro, y nunca en su pasado. La versión fuerte de la censura cósmica nos dice que las singularidades siempre estarían, bien enteramente en el futuro, como las singularidades de colapsos gravitatorios, o bien enteramente en el pasado, como el big bang. El horizonte de sucesos actúa como una membrana unidireccional. Cualquier cosa o persona que cae a través del horizonte de sucesos pronto alcanzará la región de densidad infinita y el final del tiempo. Se podría suponer que la evolución del agujero, dependerá de su estructura interna y los complicados movimientos de gases en su interior. Si los agujeros negros fueran tan complicados como los objetos que se colapsaron para formarlos, podría ser difícil predecir algo sobre su comportamiento. En 1967 Werner Israel revolucionó el panorama demostrando que los agujeros negros sin rotación deberían ser muy simples; eran perfectamente esféricos, su tamaño sólo dependía de su masa, y dos agujeros negros cualesquiera con la misma masa serían idénticos.
19
En 1963 Kerr había encontrado un conjunto de soluciones a las ecuaciones de la relatividad general que describían agujeros negros en rotación. Estos giran a un ritmo constante, y su tamaño y forma sólo dependen de su masa y de su velocidad de rotación (Se achatan como la tierra). Hacia 1973 se llegó a demostrar que después de un colapso gravitatorio, un agujero negro puede rotar, pero no puede tener pulsaciones. Todo esto implicaba que una gran cantidad de información sobre el cuerpo colapsado se debe perder cuando se forma el agujero negro, porque después de ello, todo lo que se puede medir del cuerpo es la masa y la velocidad de rotación. Toda la teoría se desarrolla en gran detalle como un modelo matemático. La primera observación que coincide con la teoría fue Cygnus X-1, una estrella visible que gira alrededor de un compañero invisible, con una fuerte emisión de rayos X, observada con un enorme corrimiento hacia el rojo en 1975. En la larga historia del universo muchas estrellas deben haber consumido todo su combustible nuclear, por lo que habrán tenido que colapsarse. La atracción gravitatoria extra de un número grande de agujeros negros podría explicar porqué nuestra galaxia gira a la velocidad con que lo hace: la masa de las estrellas visibles es insuficiente para explicarlo. Tenemos alguna evidencia de que existe un agujero negro mucho mayor, con una masa de aproximadamente cien mil veces la del Sol, en el centro de nuestra galaxia. Se piensa que agujeros negros similares, pero más grandes, con masas de unos cien millones de veces la del Sol, existen en el centro de los quasars. Cuando la materia cayera en espiral hacia el agujero negro, haría girar a éste en la misma dirección, haciendo que desarrollara un campo magnético. Partículas de altísimas energías se generarían cerca del agujero negro, a causa de la materia que caería. El campo magnético sería tan intenso que podría enfocar a esas partículas en chorros inyectados hacia afuera, a lo largo del eje de rotación del agujero negro, en las direcciones de sus polos norte y sur. Tales chorros son ciertamente observables en cierto número de galaxias y quasars. Podría haber agujeros negros con masas mucho menores. No podrían formarse por un colapso gravitatorio, pero sí si la materia fuera comprimida a enorme densidad por grandes presiones externas. Tales agujeros de poca masa podrían haberse formado en las altas temperaturas y presiones del universo en una fase muy inicial. Los agujeros negros se habrían formado únicamente si el universo inicial no hubiera sido liso y uniforme. Y hoy en día se sabe que debieron existir algunas irregularidades, pues de los contrario, la materia seguiría siendo uniforme. No sabemos la cantidad de agujeros negros que estas irregularidades pudieron generar. Pero como aprenderemos en el siguiente capítulo, los agujeros negros no son realmente negros después de todo: irradian como un cuerpo caliente, y cuanto más pequeños son, más irradian. Así, los pequeños quizás sean más fáciles de detectar que los grandes.
20
LOS AGUJEROS NEGROS NO SON TAN NEGROS
Antes de 1970, mi investigación se había concentrado en si había habido o no una singularidad en el big bang. En un agujero negro, el horizonte de sucesos está formado por los caminos en el espacio-tiempo de los rayos de luz que justamente no consiguen escapar del agujero negro, y que se mueven eternamente sobre esa frontera. Una noche comencé a pensar en esto, mientras me acostaba. Mi enfermedad convierte esta operación en un proceso bastante lento. De repente, comprendí que los caminos de estos rayos nunca podrían aproximarse entre sí. Si así lo hicieran, acabarían chocando, y absorbidos por el agujero. Así, los caminos de los rayos luminosos en el horizonte de sucesos tienen que moverse siempre o paralelos o alejándose entre sí. Otro modo de ver esto es imaginando que el horizonte de sucesos es como el perfil de una sombra (la sombra de la muerte inminente.) Si la fuente de luz es muy lejana, se observará que los rayos de luz no se están aproximando entre sí. Si los rayos nunca pueden acercarse entre ellos, el área del horizonte de sucesos podría o permanecer constante o aumentar con el tiempo, pero nunca podría disminuir, porque esto implicaría que al menos algunos de los rayos de luz de la frontera tendrían que acercarse entre sí. De hecho, el área aumentará siempre que algo de materia o radiación caiga en el agujero negro. Si dos agujeros negros chocasen entre sí, el área del horizonte de sucesos del agujero negro resultante sería igual o mayor que la suma de las áreas de los originales. Esta propiedad de la no disminución del área, produce una restricción importante de los comportamientos posibles de los agujeros negros. Me excitó tanto este descubrimiento, que casi no pude dormir aquella noche. La segunda ley de la termodinámica tiene un status algo diferente al de las restantes leyes de la ciencia, como la de la gravedad de Newton por citar un ejemplo, porque no siempre se verifica, aunque sí en la inmensa mayoría de los casos. Sin embargo, si uno tiene un agujero negro, parece existir una manera más fácil de violar la segunda ley: simplemente lanzando al agujero negro materia con gran cantidad de entropía. Al no poder comprobar 5qué entropía existe en el interior del agujero, no podemos demostrar que la entropía total, dentro y fuera del agujero, ha aumentado. Bekenstein sugirió que el área del horizonte de sucesos era una medida de la entropía del agujero negro. Cuando materia portadora de entropía cae en un agujero negro, el área de su horizonte de sucesos aumenta. Esta sugerencia parecía evitar el que la segunda ley de la termodinámica fuera violada. Sin embargo, había un error fatal. Si un agujero negro tuviera entropía, entonces también tendría que tener una temperatura. Pero un cuerpo a una temperatura particular debe emitir radiación a un cierto ritmo. Pero por su propia definición, los agujeros negros son objetos que se supone que no emiten nada. Las partículas no provienen del agujero negro, sino del espacio "vacío" justo fuera del horizonte de sucesos del agujero negro, espacio que consideramos no puede estar totalmente vacío, pues en ese caso, el valor de todos los campos (como el electromagnético o el gravitatorio) valdrían exactamente cero, y la velocidad de su cambio también sería exactamente cero. Pero debe haber una cierta cantidad mínima, debida a la incertidumbre (fluctuaciones cuánticas), del valor del campo. Uno puede imaginar estas fluctuaciones como pares de partículas de luz o de gravedad que aparecen juntas en un instante determinado, se separan, y luego se vuelven a juntar, aniquilándose entre sí. Como la energía no puede ser creada de la nada, uno de los componentes de un par partícula/antipartícula tendrá energía positiva y el otro energía negativa. El campo gravitatorio dentro de un agujero negro es tan intenso que incluso una partícula real puede tener allí energía negativa. Es, por lo tanto, posible, para la partícula virtual con energía negativa, si está presente un agujero negro, caer en el agujero y convertirse en una partícula o antipartícula real. Su desamparado compañero puede caer asimismo en el agujero negro. O, al tener energía positiva, puede escaparse de las cercanías del agujero como una partícula o antipartícula real. Para un observador lejano, parecerá haber sido emitida desde el agujero negro. Cuanto más
pequeño sea el agujero negro, menor será la distancia que la partícula con energía negativa tendrá que recorrer antes de convertirse en una partícula real y, por consiguiente, mayores serán la velocidad de emisión y la temperatura aparente del agujero negro. La energía positiva de la radiación sería compensada por un flujo hacia el agujero negro de partículas con energía negativa. Por la famosa ecuación de Einstein, sabemos que la energía es proporcional a la masa. Un flujo de energía negativa hacia el agujero negro reduce, por lo tanto su masa. Conforme el agujero negro pierde masa, el área de su horizonte de sucesos disminuye, pero la consiguiente disminución de entropía del agujero negro es compensada de sobra por la entropía de la radiación emitida, y así, la segunda ley nunca es violada. Además, cuanto más pequeña sea la masa del agujero negro, tanto mayor será su temperatura. Así, cuando el agujero negro pierde masa, su temperatura y su velocidad de emisión aumentan y, por lo tanto, pierde masa con más rapidez. Lo que sucede cuando la masa del agujero negro se hace extremadamente pequeña no está claro, pero la suposición más razonable es que desaparecería completamente en una tremenda explosión final de radiación. Un agujero negro con una masa de unas pocas de veces la masa del Sol tendría una temperatura de sólo diez millonésimas de grado. Esto es mucho menos que la temperatura de la radiación de microondas que llena el universo (aproximadamente 2,7º) por lo que tales agujeros emitirán incluso menos de lo que absorben. Si el universo está condenado a seguir expandiéndose por siempre, la temperatura de la radiación de microondas disminuirá y con el tiempo será menor que la de un agujero negro de esas características, que entonces empezaría a perder masa. Pero, a esa temperatura, para que se evaporasen completamente habría de pasar un periodo muchísimo más largo que la edad del universo. Podrían existir agujeros negros primitivos con una masa mucho más pequeña, debidos a las irregularidades en las etapas iniciales del universo. Estos agujeros tendrían una mayor temperatura y emitirían radiación a un ritmo mucho mayor. Un agujero negro con una masa inicial de mil millones de toneladas tendría una vida media aproximadamente igual a la edad del universo.
22
EL ORIGEN Y EL DESTINO DEL UNIVERSO Para describir los primeros instantes del universo se ha usado el modelo llamado del big bang caliente. Conforme el universo se expande, toda materia o radiación existente en él se enfría. (Cuando el universo duplica su tamaño, su temperatura se reduce a la mitad.) A temperaturas muy altas, las partículas se estarían moviendo tan deprisa que podrían vencer cualquier atracción entre ellas debida a fuerzas nucleares o electromagnéticas. Incluso los tipos de partículas que existiesen en el universo dependerían de la temperatura. A temperaturas suficientemente altas, las partículas tendrían tanta energía que cada vez que colisionasen se producirían muchos pares partícula/antipartícula diferentes. Un segundo después del big bang, la temperatura habría descendido a alrededor de diez mil millones de grados (unas mil veces la temperatura en el centro del Sol). En ese momento, el universo habría contenido fundamentalmente fotones, electrones, neutrinos (partículas extremadamente ligeras que son afectadas solamente por la fuerza débil y por la gravedad) y sus antipartículas, junto con algunos protones y neutrones. A medida que el universo continuaba expandiéndose, la mayor parte de los electrones y los antielectrones se habrían aniquilado mutuamente para producir más fotones, quedando solamente unos pocos electrones. Los neutrinos y los antineutrinos, sin embargo, no se habrían aniquilado unos a otros, porque estas partículas interaccionan entre ellas y con otras partículas muy débilmente. Todavía hoy deberían estar por ahí. Podrían ser una forma de materia oscura, con suficiente atracción gravitatoria como para detener la expansión del universo y provocar que se colapse de nuevo. Alrededor de cien segundos después del big bang, la temperatura habría descendido a mil millones de grados, que es la temperatura en el interior de las estrellas más calientes. Protones y neutrones, en base a la interacción nuclear fuerte, habrían comenzado a combinarse juntos para producir los núcleos de átomos de deuterio (hidrógeno pesado), y posteriormente de helio, y en pequeñas cantidades de litio y berilio. Los restantes neutrones se habrían desintegrado en protones. Esta imagen de una etapa temprana caliente del universo la propuso por primera vez el científico George Gamow, en un artículo en que hizo la notable predicción de que la radiación en forma de fotones procedente de las etapas tempranas muy calientes del universo debe permanecer todavía hoy, con su temperatura reducida a sólo unos pocos grados por encima del cero absoluto. Fue esta radiación la que Penzias y Wilson encontraron en 1965. Estamos bastante seguros de que tenemos la imagen correcta, al menos a partir de aproximadamente un segundo después del big bang. Tan sólo unas horas después del big bang la producción de helio y de otros elementos se habría detenido. Después, durante el siguiente millón de años, los núcleos no tendría suficiente energía para vencer la atracción electromagnética, y habría comenzado a combinarse para formar átomos. En regiones ligeramente más densas que la media, la expansión habría sido retardada por la atracción gravitatoria extra, y algunas habrían empezado a colapsar de nuevo. El tirón gravitatorio podría empezar a hacerlas girar ligeramente. Finalmente, cuando la región se hiciera suficientemente pequeña, estaría girando lo suficientemente deprisa como para compensar la atracción de la gravedad, y de este modo habrían nacido las galaxias giratorias en forma de disco. Otras regiones evolucionarían hacia objetos ovalados llamados galaxias elípticas. En ellas, la región dejaría de colapsarse parque partes individuales de la galaxias estarían girando de forma estable alrededor de su centro, aunque la galaxia en su conjunto no tendría rotación. El gas de hidrógeno y helio de las galaxias se disgregaría en nubes más pequeñas que comenzarían a colapsarse debido a su propia gravedad. La temperatura del gas aumentaría, hasta iniciar reacciones de fusión nuclear. Se empezaría a convertir el hidrógeno en más helio, y el calor desprendido aumentaría la presión, lo que impediría continuar la contracción. Estas nubes
permanecerían estables en este estado durante mucho tiempo, como estrellas del tipo de nuestro Sol. Las estrellas con una masa mayor necesitarían estar más calientes para compensar su atracción gravitatoria más intensa, lo que aceleraría las reacciones de fusión, pudiendo llegar a consumir su combustible en un tiempo tan corto como cien millones de años. Se contraerían entonces ligeramente, y, al calentarse más, empezarían a convertir el helio en elementos más pesados como carbono u oxígeno. Esto, sin embargo, no liberaría mucha más energía, de modo que se produciría una crisis. Parece probable que las regiones centrales de la estrella colapsarían hasta un estado muy denso, tal como una estrella de neutrones o un agujero negro. Las regiones externas de la estrella podrían a veces ser despedidas en una tremenda explosión llamada supernova, que superaría en brillo a todas las demás estrellas juntas de su galaxia. Algunos de los elementos más pesados producidos hacia el final de la vida de la estrella serían arrojados de nuevo al gas de la galaxia, y proporcionarían parte de la materia prima para la próxima generación de estrellas. Nuestro Sol contiene alrededor de un 2 por 100 de esos elementos más pesados, ya que es una estrella de la segunda o tercera generación, formada hace unos cinco mil millones de años a partir de una nube giratoria de gas que contenía los restos de supernovas anteriores. Una pequeña cantidad de los elementos más pesados se acumularon juntos para formar los cuerpos que ahora giran alrededor del Sol como planetas al igual que la Tierra. La tierra estaba inicialmente muy caliente y sin atmósfera. Con el tiempo se enfrió y adquirió una atmósfera mediante la emisión de gases de las rocas. Ésta no contenía nada de oxígeno, sino una serie de gases venenosos para nosotros, como el sulfuro de hidrógeno. Formas de vida primitivas se desarrollaron en los océanos, formando macromoléculas, capaces de reunir otros átomos del océano para formar estructuras similares. Algunos errores habrían producido nuevas macromoléculas, incluso mejores para reproducirse a sí mismas. Las primeras formas primitivas de vida consumirían diversos materiales, incluyendo sulfuro de hidrógeno, y desprenderían oxígeno. Esto cambió gradualmente la atmósfera, y permitió el desarrollo de formas de vida superiores. La versión débil del principio antrópico dice que en un universo que es grande o infinito en el espacio y/o en el tiempo, las condiciones necesarias para el desarrollo de vida inteligente se darán solamente en ciertas regiones que están limitadas en el tiempo y en el espacio. Los seres inteligentes de estas regiones no deben, por lo tanto, sorprenderse si observan que su localización en el universo satisface las condiciones necesarias para su existencia. La versión fuerte del principio propone que o hay muchos universos diferente, o muchas regiones diferentes de un único universo, cada uno/a con su propia configuración inicial y, tal vez, con su propio conjunto de leyes de la ciencia. Solamente en los pocos universos que son como el nuestro se desarrollarían seres inteligentes que se harían la siguiente pregunta: ¿por qué es el universo como lo vemos?. La respuesta, entonces, es simple: si hubiera sido diferente, ¡nosotros no estaríamos aquí!. Las leyes de la ciencia, tal como las conocemos actualmente, contienen muchas cantidades fundamentales. como la magnitud de la carga eléctrica del electrón y la relación entre las masas del protón y del electrón. Puede ser que un día descubramos una teoría unificada completa que prediga todas esas cantidades, pero también es posible que algunas, o todas ellas, varíen de un universo a otro, o dentro de uno único. Los valores de estas cantidades parecen haber sido ajustados sutilmente para hacer posible el desarrollo de la vida. Si el modelo del big bang caliente fuese correcto desde el principio del tiempo, el estado inicial del universo tendría que haber sido elegido verdaderamente con mucho cuidado. En un intento de encontrar un modelo del universo en el cual muchas configuraciones iniciales diferentes pudiesen haber evolucionado hacia algo parecido al universo actual, un científico del MIT, Alan Guth, sugirió que el universo primitivo podría haber pasado por un periodo de expansión muy rápida. Esta expansión se llamaría "inflacionaria", dando a entender que hubo un momento
24
en que el universo se expandió a un ritmo creciente, en vez del ritmo decreciente al que lo hace hoy día. Hay algo así como un 1 con ochenta y cinco ceros detrás de partículas en la región del universo que nosotros podemos observar. En la teoría cuántica, las partículas pueden ser creadas a partir de la energía en la forma de pares partícula/antipartícula. Pero esto simplemente plantea la cuestión de dónde salió la energía. La respuesta es que la energía total del universo es exactamente cero. La materia del universo está hecha de energía positiva. Sin embargo, toda la materia está atrayéndose a sí misma mediante la gravedad. Dos pedazos de materia que estén próximos el uno al otro, tienen menos energía que los dos mismos trozos muy separados, porque se ha de gastar energía para separarlos en contra de la fuerza gravitatoria que los está uniendo. Así, en cierto sentido, el campo gravitatorio tiene energía negativa. En el caso de un universo que es aproximadamente uniforme en el espacio, puede demostrarse que esta energía gravitatoria negativa, cancela exactamente a la energía positiva correspondiente a la materia. Por consiguiente, el universo podría duplicar la cantidad de energía positiva de materia y también duplicar la energía gravitatoria negativa sin violar la conservación de la energía. Esto no ocurre en la expansión normal del universo, en la que la densidad de energía de la materia disminuye a medida que el universo se hace más grande. Sí ocurre, sin embargo en la expansión inflaccionaria, porque la densidad de energía permanece constante mientras que el universo se expande. Debería haber algún mecanismo que eliminase a la gran constante cosmológica efectiva y que, por lo tanto, modificase la velocidad de expansión de acelerada a frenada por la gravedad, como la que tenemos hoy en día. En la expansión inflaccionaria uno podría esperar que finalmente se rompiera la simetría entre las fuerzas del mismo modo que el agua sobreenfriada al final se congela. La energía extra del estado sin ruptura de simetría sería liberada entonces y calentaría al universo de nuevo, hasta una temperatura justo por debajo de la temperatura crítica en la que hay simetría entre las fuerzas. El universo continuaría entonces expandiéndose y se enfriaría exactamente como en el modelo del big bang caliente, pero ahora habría una explicación de por qué el universo se está expandiendo justo a la velocidad crítica y por qué diferentes regiones tienen la misma temperatura. En la idea original de Guth se suponía que la transición de fase ocurría de forma repentina, de una manera similar a como aparecen los cristales de hielo en el agua muy fría. La idea suponía que se habrían formado "burbujas" de la nueva fase de simetría rota en la fase antigua. Un modelo mejor, llamado modelo inflaccionario caótico, fue propuesto por Linde en 1983. En él no se produce ninguna transición de fase o sobreenfriamiento. En su lugar, hay un campo de espín 0, el cual, debido a fluctuaciones cuánticas, tendría valores grandes en algunas regiones del universo primitivo. La energía del campo en esas regiones se comportaría como una constante cosmológica. Tendría un efecto gravitatorio repulsivo, y, de ese modo, haría que esas regiones se expandiesen de una forma inflaccionaria. A medida que se expandiesen, la energía del campo decrecería en ellas lentamente, hasta que la expansión inflaccionaria cambiase a una expansión como la del modelo del big bang caliente. Este trabajo sobre modelos inflacionarios mostró que el estado actual del universo podría haberse originado a partir de un número bastante grande de configuraciones iniciales diferentes, demostrando que el estado inicial de la parte del universo que habitamos no tuvo que ser escogido con gran cuidado. No puede ser, sin embargo, que cualquier configuración inicial hubiese conducido a un universo como el que observamos. Incluso el modelo inflacionario no nos dice por qué la configuración inicial no fue de un tipo tal que produjese algo muy diferente de lo que observamos.
25
Para poder predecir cómo debió haber empezado el universo, se necesitan leyes que sean válidas en el principio del tiempo. Los teoremas de la singularidad, lo que realmente demuestran es que el campo gravitatorio se hace tan fuerte que los efectos gravitatorios cuánticos se hacen importantes: la teoría clásica no constituye ya una buena descripción del universo. Por lo tanto, es necesario utilizar una teoría cuántica de la gravedad para discutir las etapas muy tempranas del universo. Como veremos, no es necesario postular nuevas leyes para las singularidades, porque no tiene que haber ninguna singularidad en la teoría cuántica. No poseemos todavía una teoría completa y consistente que combine la mecánica cuántica y la gravedad. Una de sus características es que debe incorporar la idea de Feynman de formular la teoría cuántica en términos de una suma sobre historias. En este enfoque, una partícula no tiene simplemente una historia única. En lugar de esto, se supone que sigue todos los caminos posibles en el espacio-tiempo, y que con cada una de esas historias está asociada una pareja de números, uno que representa el tamaño de una onda y el otro que representa su posición en el ciclo (su fase). Cuando uno trata realmente de calcular esas sumas, sin embargo, tropieza con problemas técnicos importantes. La única forma de sortearlos consiste en la siguiente receta peculiar: hay que sumar las ondas correspondientes a historias de la partícula que no están en el tiempo "real" que usted y yo experimentamos, sino que tienen lugar en lo que se llama tiempo imaginario. Esto tiene un efecto interesante sobre el espacio-tiempo: la distinción entre tiempo y espacio desaparece completamente. Dado un espacio-tiempo en el que los sucesos tienen valores imaginarios de la coordenada temporal, se dice de él que es euclídeo, en memoria de Euclides, que fundó el estudio de la geometría de superficies bidimensionales. Una segunda característica que creemos que tiene que formar parte de cualquier teoría definitiva es la idea de Eisntein de que el campo gravitatorio se representa mediante un espacio-tiempo curvo: las partículas tratan siempre de seguir el camino más parecido posible a una línea recta en un espacio curvo. En la teoría clásica de la gravedad, basada en un espacio-tiempo real, hay solamente dos maneras en las que puede comportarse el universo: o ha existido durante un tiempo infinito, o tuvo un principio en una singularidad dentro de algún tiempo finito en el pasado. En la teoría cuántica de la gravedad, por otra parte, surge una tercera posibilidad. Debido a que se emplean espacio-tiempos euclídeos, en los que la dirección del tiempo está en pie de igualdad con las direcciones espaciales, es posible que el espacio-tiempo sea finito en extensión y que, sin embargo, no tenga ninguna singularidad que forme una frontera o borde. El espacio-tiempo sería como la superficie de la tierra, solo que con dos dimensiones más.
26
LA FLECHA DEL TIEMPO Hasta comienzos de este siglo la gente creía en el tiempo absoluto. En relatividad, cada observador tiene su propia medida del tiempo, la registrada por un reloj que él llevase consigo. Cuando se intentaba unificar la gravedad con la mecánica cuántica se tuvo que introducir la idea de un tiempo "imaginario". Este sería indistinguible de las direcciones espaciales. No puede haber ninguna diferencia importante entre las direcciones hacia adelante y hacia atrás del tiempo imaginario. Por el contrario, en el tiempo "real", hay una diferencia muy grande entre las direcciones hacia adelante y hacia atrás, como todos sabemos. ¿Por qué recordamos el pasado, pero no el futuro?. Las leyes de la ciencia no distinguen entre el pasado y el futuro; no se modifican bajo la acción de las simetrías conocidas como C (partículas/antipartículas), P (izquierda/derecha) y T (adelante/atrás en el tiempo). Si las leyes de la ciencia no se pueden modificar por la combinación de las simetrías C y P, y tampoco por la combinación de C, P y T, tienen también que permanecer inalteradas bajo la operación T sola. Imagine un vaso de agua cayéndose de una mesa y rompiéndose en mil pedazos. La explicación de por qué nunca se observa el fenómeno contrario (pedazos y gotas de agua recomponiéndose y saltando para formar un vaso de agua sobre la mesa) suele ser que lo prohibe la segunda ley de la termodinámica. Un vaso intacto encima de la mesa es un estado de orden elevado, pero uno roto es desordenado. No se puede alcanzar aquel estado desde éste. Hay al menos tres flechas del tiempo diferentes. Primeramente está la flecha termodinámica, que es la dirección del tiempo en la que el desorden o la entropía aumentan. Luego está la flecha psicológica, la dirección en la que nosotros sentimos que pasa el tiempo, la dirección en que recordamos el pasado pero no el futuro. Finalmente está la flecha cosmológica, la dirección del tiempo en la que el universo está expandiéndose en vez de contrayéndose. Todo esto hace que la segunda ley de la termodinámica sea casi trivial. El desorden aumenta con el tiempo porque nosotros medimos el tiempo en la dirección en la que el desorden crece. Pero, ¿por qué debe existir la flecha termodinámica del tiempo?. O, en otras palabras, ¿por qué debe estar el universo en un estado de orden elevado en un extremo del tiempo, el extremo que llamamos el pasado? ¿Por qué no está en un estado de completo desorden en todo momento? Después de todo, esto podría parecer más probable. ¿Y por qué la dirección del tiempo en la que el desorden aumenta es la misma en la que el universo se expande?En la teoría clásica de la relatividad general, no se puede predecir en que estado de orden o desorden comenzó el universo, debido al colapso de la teoría en la singularidad del big bang. En una teoría cuántica de la gravedad para especificar el estado del universo habría que decir aún cómo se comportarían las historias posibles del universo en el pasado en la frontera del espaciotiempo. Esta dificultad de tener que describir lo que no se sabe, ni se puede saber, podría evitarse únicamente si las historias satisficieran la condición de que no haya frontera: son finitas en extensión pero no tienen frontera, bordes o singularidades. En este caso, el principio del tiempo sería un punto regular, suave, del espacio-tiempo, y el universo habría comenzado su expansión en un estado muy suave y ordenado. No podría haber sido completamente uniforme, porque ello violaría el principio de incertidumbre. El universo se volvería grumoso y desordenado a medida que el tiempo pasase. Lo que explicaría la existencia de la flecha termodinámica del tiempo. El colapso de una estrella para formar un agujero negro es bastante parecido a las últimas etapas del colapso de todo el universo. Al principio, yo creí que el desorden disminuiría con el tiempo cuando el universo se colapsase de nuevo. Las gentes morirían antes de nacer, después de un enjuvenecimiento fisiológico.
Volviendo a la flecha del tiempo, nos queda la cuestión de por qué observamos que las flechas termodinámica y cosmológica apuntan en la misma dirección?. Hacia el final de la fase expansiva todas las estrellas se habrán quemado, y los protones y neutrones se habrán desintegrado probablemente en partículas ligeras y radiación. El universo estará en un estado de desorden casi completo. No habría una flecha termodinámica clara del tiempo. Sin embargo, una flecha termodinámica clara es necesaria para que la vida inteligente funcione. La fase contractiva sería inadecuada debido a que no posee una flecha termodinámica clara del tiempo.
28
LA UNIFICACIÓN DE LA FÍSICA En última instancia, se tiene la esperanza de encontrar una teoría unificada, consistente, completa, que incluiría a todas las teorías parciales como aproximaciones, y que no necesitaría ser ajustada mediante la selección de los valores de algunos números arbitrarios. La búsqueda de una teoría como ésa se conoce como "la unificación de la física". Einstein empleó la mayor parte de sus últimos años en buscar esta teoría unificada. El se negaba a creer en la mecánica cuántica, pero parece ser que el principio de incertidumbre es una característica fundamental del universo en que vivimos, y que una teoría de este tipo debe incorporar necesariamente este principio. Las perspectivas de encontrar una teoría como esta son mejores ahora. Pero debemos guardarnos de un exceso de confianza: en 1928 el físico Max Born predijo que "la física, dado como la conocemos, estará terminada en seis meses". Pensó que tras el descubrimiento por Dirac de la ecuación que gobernaba el electrón, otra similar gobernaría el protón, la otra única partícula conocida entonces, y eso sería el final de la física teórica. Las teorías parciales que gobiernan las fuerzas débil, fuerte y electromagnética, pueden combinarse en las llamadas teorías de gran unificación, o TGU. La principal dificultad para encontrar una teoría que unifique la gravedad con las otras fuerzas estriba en que la relatividad general es una teoría "clásica", esto quiere decir que no incorpora el principio de incertidumbre de la mecánica cuántica. Un primer paso, por consiguiente, consiste en combinar la teoría general con el principio de incertidumbre. Un problema es que éste implica que el espacio "vacío" está lleno de pares de partículas y antipartículas virtuales. Estos pares tendrían una cantidad infinita de energía y, por consiguiente, a través de la famosa ecuación de Eisntein E = mc2, tendrían una cantidad infinita de masa. Similarmente se encuentran infinitos aparentemente absurdos en las otras teorías parciales, pero estos infinitos pueden ser suprimidos mediante un proceso de renormalización, que supone cancelar los infinitos introduciendo otros infinitos. Aunque esta técnica es bastante dudosa matemáticamente, parece funcionar en la práctica. La renormalización, sin embargo, implica que los valores reales de las masas y las intensidades de las fuerzas no pueden ser deducidos de la teoría, sino que han de ser escogidos para ajustarlos a las observaciones. Al intentar incorporar el principio de incertidumbre a la relatividad general se dispone de sólo dos cantidades que pueden ajustarse: la intensidad de la gravedad y el valor de la constante cosmológica. Hacia 1976 se sugirió una posible solución llamada "supergravedad". La idea consistía en combinar la partícula de espín 2, llamada gravitón, que transporta la fuerza gravitatoria, con ciertas partículas nuevas de espín 3/2, 1, 1/2 y 0, que, en cierto sentido podrían ser consideradas como diferentes aspectos de la misma "superpartícula. Los cálculos para su comprobación eran de una enorme complejidad. Sin embargo, en 1984 se produjo un notable cambio de opinión en favor de lo que se conoce como teoría de cuerdas. Una partícula ocupa un punto del espacio en cada instante de tiempo. Así su historia puede representarse mediante una línea en el espacio-tiempo. Una cuerda -objeto que posee una longitud pero ninguna otra dimensión más-, por el contrario, ocupa una línea en el espacio. Por tanto su historia en el espacio-tiempo es una superficie bidimensional llamada "la hoja del mundo". La hoja del mundo de una cuerda cerrada es un cilindro o tubo Figuras 10.1 y 10.2.
29
Dos fragmentos de una cuerda pueden juntarse para formar una única cuerda; en el caso de cuerdas abiertas simplemente se unen por los extremos Figuras 10.3, mientras que en el caso de cuerdas cerradas la unión es similar a las dos piernas de un par de pantalones juntándose Figuras 10.4. En las teorías de cuerdas, lo que anteriormente se consideraban partículas, se describen ahora como ondas viajando por la cuerda. La emisión o absorción de una partícula por otra corresponden a la división o reunión de cuerdas. Por ejemplo, la fuerza gravitatoria del Sol sobre la Tierra se describe en las teorías de partículas como causada por la emisión de un gravitón por una partícula en el Sol y su absorción por una partícula en la Tierra. En la teoría de cuerdas, ese proceso corresponde a un tubo o cañería en forma de H (la teoría de cuerdas, en cierto modo, se parece a la fontanería). Los dos lados verticales de la H corresponden a las partículas en el Sol y en la Tierra, y el larguero transversal corresponde al gravitón que viaja entre ellas Figuras 10.5. La teoría de cuerdas tiene una historia curiosa. Se inventó a finales de los años 60 en un intento de encontrar una teoría para describir la interacción fuerte. Para que esta teoría proporcionase el valor correcto para la interacción fuerte entre partículas, las cuerdas tenían que ser como tiras de goma con una tensión de alrededor de diez toneladas. En 1974, Scherk y Schwarz publicaron un artículo en el que mostraban que la teoría de cuerdas podía describir la fuerza gravitatoria, pero sólo si la tensión en la cuerda fuese mucho más elevada. En 1984 se desarrolló una nueva versión, las llamadas cuerdas "heteróticas", que parecía que podría ser capaz de explicar los tipos de partículas que observamos. Las teorías de cuerdas también conducen a infinitos, pero se piensa que todos ellos desaparecerían en versiones como la de las cuerdas heteróticas. Las teorías de cuerdas, sin embargo, presentan un problema mayor: parecen ser consistentes ¡sólo si el espacio-tiempo tiene o diez o veintiséis dimensiones!. ¿Por qué no notamos todas esas dimensiones extra, si están realmente ahí?. La sugerencia es que las otras dimensiones están curvadas en un espacio muy pequeño, tanto que sencillamente no lo notamos. Plantea, sin embargo otro problema importante. ¿Por qué deben estar arrolladas en un pequeño ovillo algunas de las dimensiones, pero no todas?. Presumiblemente, en el universo primitivo todas las dimensiones habrían estado muy curvadas. ¿Por qué solo se aplanaron una dimensión temporal y tres espaciales. Una posible respuesta la encontraríamos en el principio antrópico. Dos dimensiones espaciales no parecen ser suficientes para permitir el desarrollo de seres complicados. Si una criatura bidimensional se comiese algo no podría digerirlo completamente, tendría que vomitar los residuos por el mismo camino por el que se los tragó, so pena de quedar ella misma escindida. También habría problemas con más de tres dimensiones espaciales. La fuerza gravitatoria entre dos cuerpos disminuiría con la distancia más rápidamente de lo que lo hace en tres dimensiones. Las órbitas serían inestables: el Sol no podría existir en un estado estable, en el que la presión compensase a la gravedad. O se rompería o se colapsaría para formar un agujero negro. Es probable que hacia final de siglo sepamos si la teoría de cuerdas constituye verdaderamente la muy codiciada teoría unificada de la física.
30
Pero, ¿puede haber en realidad una tal teoría unificada?. Con el advenimiento de la mecánica cuántica hemos llegado a reconocer que los acontecimientos no pueden predecirse con entera precisión. En muchas ocasiones hemos realizado un nuevo tipo de observaciones, y para explicarlos hemos tenido que desarrollar una teoría más avanzada. Parece que la gravedad puede poner un límite a esta sucesión de teorías. Si hubiese una partícula con una energía por encima de lo que se conoce como energía de Planck, diez millones de billones de GeV, su masa estaría tan concentrada que se amputaría ella misma del resto del universo y formaría un pequeño agujero negro. Parece que la sucesión de teorías más y más refinadas debe tener algún límite a medida que vamos a energías cada vez más altas, por lo tanto, debe existir alguna teoría definitiva del universo. Nunca podríamos llegar a estar suficientemente seguros de haber encontrado verdaderamente la teoría correcta. Pero si la teoría fuese matemáticamente consistente e hiciese predicciones que concordasen siempre con las observaciones podríamos estar razonablemente seguros de que se trataría de la teoría correcta. En la época de Newton, era posible, para una persona instruida abarcar todo el conocimiento humano, al menos en término generales. Si se descubriese una teoría unificada completa, sería sólo una cuestión de tiempo el que fuese digerida del mismo modo y enseñada en las escuelas al menos en términos generales. Incluso si descubriésemos una teoría unificada completa, no significaría que fuésemos capaces de predecir acontecimientos en general, por dos razones. La primera, el principio de incertidumbre es menos restrictiva que la segunda: No podríamos resolver exactamente las ecuaciones de la teoría excepto en situaciones muy sencillas. (Incluso no podemos resolver exactamente el movimiento de tres cuerpos en la teoría de la gravedad de Newton, y la dificultad aumenta con el número de cuerpo y la complejidad de la teoría). Conocemos las leyes básicas que subyacen bajo toda la química y la biología. Ciertamente, aún no hemos reducido estas disciplinas al estado de problemas resueltos. Una teoría unificada completa, consistente, es sólo el primer paso: nuestra meta es una completa comprensión de lo que sucede a nuestro alrededor y de nuestra propia existencia. ACTIVIDAD 1.
Como se produjo el big- bang: _________________________________________________________________________ _________________________________________________________________________ _________________________________________________________________________ __________________________________________________________________ 2. Hacer un análisis literario de los nueve subtemas de la teoría big- bang según ¨STEPHEN HAWKING¨ _________________________________________________________________________ _________________________________________________________________________ _________________________________________________________________________ _________________________________________________________________________ _________________________________________________________________________ _________________________________________________________________________ _________________________________________________________________________ ________
31
3. Resolver la siguiente sopa de letras.
CAPITULO 3 CONCEPTO DEL ORIGEN La genealogía es gris; es meticulosa y pacientemente documentalista. Trabaja sobre sendas embrolladas, garabateadas, muchas veces reescritas. Paul Ree se equivoca, como los ingleses, al describir las génesis lineales, al ordenar, por ejemplo, con la única preocupación de la utilidad, toda la historia de la moral: como si las palabras hubiesen guardado su sentido, los deseos su dirección, las ideas su lógica; como si este mundo de cosas dichas y queridas no hubiese conocido invasiones, luchas, rapiñas, disfraces, trampas. De aquí se deriva para la genealogía una tarea indispensable: percibir la singularidad de los sucesos, fuera de toda finalidad monótona; encontrarlos allí donde menos se espera y en aquello que pasa desapercibido por no tener nada de historia --los sentimientos, el amor, la conciencia, los instintos--, captar su retorno, pero en absoluto para trazar la curva lenta de una evolución, sino para reencontrar las diferentes escenas en las que han jugado diferentes papeles; definir incluso el punto de su ausencia, el momento en el que no han tenido lugar. En resumen, un cierto encarnizamiento en la erudición. La genealogía no se opone a la historia como la visión de águila y profunda del filósofo en relación a la mirada escrutadora del sabio; se opone por el contrario al despliegue meta histórica de las significaciones ideales y de los indefinidos teleológicos. Se opone a la búsqueda del «origen» Por qué Nietzsche genealogista rechaza, al menos en ciertas ocasiones, la búsqueda del origen (Ursprung)? Porque en primer lugar [la búsqueda del origen] se esfuerza por recoger allí la esencia
32
exacta de la cosa, su más pura posibilidad, su identidad cuidadosamente replegada sobre sí misma, su forma móvil y anterior a todo aquello que es externo, accidental y sucesivo. Buscar un tal origen, es intentar encontrar «lo que estaba ya dado», lo «aquello mismo» de una imagen exactamente adecuada a sí; es tener por adventicias toda las peripecias que han podido tener lugar, todas las trampas y todos los disfraces. Es intentar levantar las máscaras, para desvelar finalmente una primera identidad. Pues bien, ¿si el genealogista se ocupa de escuchar la historia más que de alimentar la fe en la metafísica, qué es lo que aprende? Que detrás de las cosas existe algo muy distinto: «en absoluto su secreto esencial y sin fechas, sino el secreto de que ellas están sin esencia, o que su esencia fue construida pieza por pieza a partir de figuras que le eran extrañas. ¿La razón? Pero ésta nació de un modo perfectamente razonable, del azar. ¿El apego a la verdad y al rigor de los métodos científicos? Esto nació de la pasión de los sabios, de su odio recíproco, de sus discusiones fanáticas y siempre retomadas, de la necesidad de triunfar --armas lentamente forjadas a lo largo de luchas personales. Será la libertad la raíz del hombre, la que lo liga al ser y a la verdad? En realidad, ésta no es más que una «invención de las clases dirigentes». Lo que se encuentra al comienzo histórico de las cosas, no es la identidad aún preservada de su origen --es la discordia de las otras cosas, es el disparate. La historia aprende también a reírse de las solemnidades del origen. El alto origen es la «sobrepujanza metafísica que retorna en la concepción según la cual al comienzo de todas las cosas se encuentra aquello que es lo más precioso y esencial» se desea creer que en sus comienzos las cosas estaban en su perfección; que salieron rutilantes de las manos del creador, o de la luz sin sombra del primer amanecer. El origen está siempre antes de la caída, antes del cuerpo, antes del mundo y del tiempo; está del lado de los dioses, y al narrarlo se canta siempre una teogonía. Pero el comienzo histórico es bajo, no en el sentido de modesto o de discreto como el paso de la paloma, sino irrisorio, irónico, propicio a deshacer todas las fatuidades: «Se buscaba hacer despertar el sentimiento de la soberanía del hombre, mostrando su nacimiento divino: esto se convirtió ahora en un camino prohibido, pues a la puerta del hombre está el mono». El hombre comenzó por la mueca de lo que llegaría a ser; Zaratustra mismo tendrá su simio que saltará a su espalda y tirará por su vestido. En fin, último postulado del origen ligado a los dos primeros: el origen como lugar de la verdad. Punto absolutamente retrotraído, y anterior a todo conocimiento positivo, que hará posible un saber que, sin embargo, lo recubre, y no cesa, en su habladuría, de desconocerlo; estaría ligado a esta articulación inevitablemente perdida en la que la verdad de las cosas enlaza con una verdad de los discursos que la oscurece al mismo tiempo y la pierde. Nueva crueldad de la historia que obliga a invertir la relación y a abandonar la búsqueda «adolescente»: detrás de la verdad, siempre reciente, avara y comedida, está la proliferación milenaria de los errores. No creamos más «que la verdad permanece verdad cuando se le arranca la venda; hemos vivido demasiado para estar persuadidos de ello». La verdad, especie de error que tiene para sí misma el poder de no poder ser refutada sin duda porque el largo conocimiento de la historia la ha hecho inalterable. Y además la cuestión misma de la verdad, el derecho que ella se procura para refutar el error o para oponerse a la apariencia, la manera en la que poco a poco se hace accesible a los sabios, reservada después únicamente a los hombres piadosos, retirada más tarde a un mundo inatacable en el que jugará a la vez el papel de la consolación y del imperativo, rechazada en fin como idea inútil, superflua, refutada en todos sitios --¿todo esto no es una historia, la historia de un error que lleva por nombre verdad?--. La verdad y su reino originario han tenido su historia en la historia. Apenas salimos nosotros «a la hora de la más corta sombra», cuando la luz ya no parece venir más ni del fondo del cielo ni de los primeros momentos del día. Hacer la genealogía de los valores, de la moral, del ascetismo, del conocimiento no será por tanto partir a la búsqueda de su «origen», el contrario ocuparse en las meticulosidades y en los azares de los comienzos; prestar una escrupulosa atención a su derrisoria malevolencia; prestarse a verlas surgir quitadas las
33
máscaras, con el rostro del otro; no tener pudor para ir a buscarlas allí donde están «revolviendo los bajos fondos»--, dejarles el tiempo para remontar el laberinto en el que ninguna verdad nunca jamás las ha mantenido bajo su protección. El genealogista necesita de la historia para conjurar la quimera del origen un poco como el buen filósofo tiene necesidad del médico para conjurar la sombra del alma. Es preciso saber reconocer los sucesos de la historia, las sacudidas, las sorpresas, las victorias afortunadas, las derrotas mal digeridas, que dan cuenta de los comienzos, de los atavismos y de las herencias; como hay que saber diagnosticar las enfermedades del cuerpo, los estados de debilidad y de energía, sus trastornos y sus resistencias para juzgar lo que es un discurso filosófico. La historia, con sus intensidades, sus debilidades, sus furores secretos, sus grandes agitaciones febriles y sus síncopes, es el cuerpo mismo del devenir. Hay que ser metafísico para buscarle un alma en la lejana idealidad del origen. El cuerpo: superficie de inscripción de los sucesos (mientras que el lenguaje los marca y las ideas los disuelven), lugar de disociación del yo (al cual intenta prestar la quimera de una unidad substancial), volumen en perpetuo derrumbamiento. La genealogía, como el análisis de la procedencia, se encuentra por tanto en la articulación del cuerpo y de la historia. Debe mostrar al cuerpo impregnado de historia, y a la historia como destructor del cuerpo. En esta genealogía de la historia, que esboza en distintas fases, Nietzsche relaciona el sentido histórico y la historia de los historiadores. El uno y la otra no tienen sino un solo comienzo, impuro y mezclado. En un mismo signo, se puede reconocer tanto el síntoma de una enfermedad como el germen de una flor maravillosa, ambos surgen al mismo tiempo, y enseguida tendrán que separarse. Sigamos pues, sin diferenciarlos de momento, su genealogía común. El sentido histórico conlleva tres usos que se oponen término a término a las tres modalidades platónicas de la historia. Uno es el uso de parodia, y destructor de realidad, que se opone al tema de la historia reminiscencia o reconocimiento; otro es el uso disociativo y destructor de identidad que se opone a la historia-continuidad y tradición, el tercero es el uso sacrificial y destructor de verdad que se opone a la historia-conocimiento. De todas formas, se trata de hacer de la historia un uso que la libere para siempre del modelo, a la vez metafísico y antropológico, de la memoria. Se trata de hacer de la historia una contra-memoria, y de desplegar en ella por consiguiente una forma totalmente distinta del tiempo.
34
Encuentra el origen:
¿Qué entiende como concepto del origen? _______________________________________________________________________________ ___________________________________________________________________________ Da una síntesis del video. https://www.youtube.com/watch?v=G5McXO_3dSI _______________________________________________________________________________ __________________________________________
35
CAPITULO 4
36
CAPITULO 5
Claudio Ptolomeo y la teoría de las esferas
Astrónomo y Geógrafo, propuso el sistema geocéntrico como la base de la mecánica celeste que perduró por más de 1400 años. Sus teorías y explicaciones astronómicas dominaron el pensamiento científico hasta el siglo XVI. Claudius
Ptolemaeus
(en
latín)
nació
en
Egipto
aproximadamente en el año 85 y murió en Alejandría en el año 165. Sin embargo, se sabe muy poco de él pero, por lo que nos ha llegado, puede decirse que fue el último científico importante de la Antigüedad Clásica. Aunque debe su fama a la exposición de su sistema ptolomaico, su saber fue mucho más allá; recopiló los conocimientos científicos de su época, a los que añadió sus observaciones y las de Hiparco de Nicea, y formó 13 volúmenes que resumen quinientos años de astronomía griega y que dominaron el pensamiento astronómico de occidente durante los catorce siglos siguientes. Esta obra llegó a Europa en una versión traducida al árabe, y es conocida con el nombre de Almagesto (Ptolomeo la había denominado Sintaxis Matemática). El tema central de Almagesto es la explicación del sistema ptolomaico. Según dicho sistema, la Tierra se encuentra situada en el centro del Universo y el sol, la luna y los planetas giran en torno a ella arrastrados por una gran esfera llamada "primum movile", mientras que la Tierra es esférica y estacionaria. Las estrellas están situadas en posiciones fijas sobre la superficie de dicha esfera. También, y según la teoría de Ptolomeo, el Sol, la Luna y los planetas están dotados además de movimientos propios adicionales que se suman al del primun movile.
37
Ptolomeo afirma que los planetas describen órbitas circulares llamadas epiciclos alrededor de puntos centrales que a su vez orbitan de forma excéntrica alrededor de la Tierra. Por tanto la totalidad de los cuerpos celestes describen órbitas perfectamente circulares, aunque las trayectorias aparentes se justifican por las excentricidades. Además, en esta obra ofreció las medidas del Sol y la Luna y un catálogo que contenía 1.028 estrellas. La teoría ptolomaica es insostenible porque parte de la adopción de supuestos falsos; sin embargo es coherente consigo misma desde el punto de vista matemático. A pesar de todo, su obra astronómica tuvo gran influencia en la Edad Media, comparándose con la de Aristóteles en filosofía. Publicó unas tablas derivadas de las teorías del Almagesto pero independientemente llamadas Tablas de mano las cuales sólo se conocen por referencias escritas. También se encargó de escribir y publicar su Hipótesis Planetaria en lenguaje sencillo para disminuir la necesidad de entrenamiento matemático de sus lectores.
38
Uno de sus mayores trabajos fue Geografía, en donde realizó mapas del mundo conocido dando coordenadas a los lugares mas importantes con latitud y longitud, los que por supuesto, contenían graves errores; se dice que esta obra fue lo que llevó a Colon a creer que podía llegar a las indias por el oeste, ya que en ellos parecían estar mas cerca. De esta manera, a pesar de todos los errores que Claudio Ptolomeo cometió en sus trabajos, fue uno de los Astrónomos que cambió la visión del universo e intentó explicar científicamente la mecánica de los astros. El hecho de que su equivocada teoría haya permanecido tanto tiempo no depende de él mismo, sino de las comunidades principalmente religiosas que se encontraron muy cómodas con la teoría geocéntrica y la compatibilidad con sus creencias.
La teoría geocéntrica es una antigua teoría que pone a la Tierra en el centro del universo, y los astros, incluido el Sol, girando alrededor de la Tierra (geo: Tierra; centrismo: agrupado o de centro). El geocentrismo estuvo vigente en las más remotas civilizaciones. Por ejemplo, en Babilonia era ésta la visión del universo1 y en su versión completada por Claudio Ptolomeo en el siglo II en su obra El Almagesto, en la que introdujo los llamadosepiciclos, ecuantes y deferentes, estuvo en vigor hasta el siglo XVI cuando fue reemplazada por la teoría heliocéntrica.
SISTEMA PTOLEMAICO deferente que se centra en la Tierra, y la otra esfera es el epiciclo que se encaja en el deferente. El planeta se encaja en la esfera del epiciclo. El deferente rota alrededor de la Tierra mientras que el
39
epiciclo rota dentro del deferente, haciendo que el planeta se acerque y se aleje de la Tierra en diversos puntos en su órbita inclusive haciendo que disminuya su velocidad, se detenga, y se mueva en el sentido contrario (en movimiento retrógrado). Los epiciclos de Venus y de Mercurio están centrados siempre en una línea entre la Tierra y el Sol, lo que explica por qué siempre se encuentran cerca de él en el cielo. El orden de las esferas ptolemaicas a partir de la Tierra es: Luna, Mercurio, Venus, Sol, Marte, Júpiter, Saturno y estrellas fijas. El modelo del deferente-y-epiciclo había sido utilizado por los astrónomos griegos por siglos, como lo había sido la idea del excéntrico. En la ilustración, el centro del deferente no es la Tierra sino la X, haciéndolo excéntrico. Desafortunadamente, el sistema que estaba vigente en la época de Ptolomeo no concordaba con las mediciones, aún cuando había sido una mejora considerable respecto al sistema de Aristóteles. Algunas veces el tamaño del giro retrógrado de un planeta (más notablemente el de Marte) era más pequeño y a veces más grande. Esto lo impulsó a generar la idea de un ecuante. El ecuante era un punto cerca del centro de la órbita del planeta en el cual, si uno se paraba allí y miraba, el centro del epiciclo del planeta parecería que se moviera a la misma velocidad. Por lo tanto, el planeta realmente se movía a diferentes velocidades cuando el epiciclo estaba en diferentes posiciones de su deferente. Usando un ecuante, Ptolomeo afirmaba mantener un movimiento uniforme y circular, pero a muchas personas no les gustaba porque pensaban que no concordaba con el dictado de Platón de un "movimiento circular uniforme". El sistema resultante, el cual eventualmente logró amplia aceptación en occidente, fue visto como muy complicado a los ojos de la modernidad; requería que cada planeta tuviera un epiciclo girando alrededor de un deferente, desplazado por un ecuante diferente para cada planeta. Pero el sistema predijo varios movimientos celestes, incluyendo el inicio y fin de los movimientos retrógrados, medianamente bien para la época en que se desarrolló.
GEOCENTRICO Y LOS SISTEMAS No todos los griegos aceptaban el modelo geocéntrico. Algún pitagórico creyó que la Tierra podía ser uno de los varios planetas que circundaban en un fuego central. Hicetas y Ecphantus, dos pitagóricos del siglo V aC., y Heraclides Ponticus en el siglo IV antes de nuestra era, creían que la Tierra gira sobre su eje pero permaneciendo en el centro del universo. Tal sistema todavía se califica como geocéntrico. Fue restablecido en la Edad Media por Jean Buridan. Heraclides Ponticus también es citado en ocasiones por haber propuesto que Venus y Mercurio circundaban el Sol más que la Tierra, pero la evidencia de esta teoría no estaba clara. Martianus Capella puso definitivamente a Mercurio y Venus en epiciclos alrededor del Sol. Aristarco de Samos (siglo II a.c.) fue el más radical. Escribió un libro, que no ha sobrevivido, sobre el heliocentrismo, diciendo que el Sol era el centro del Universo, mientras que la Tierra y otros planetas giraban alrededor suyo. Su teoría no fue popular, y solo tenía un seguidor conocido, Seleuco de Seleucia.
SISTEMA COOPERNICO En 1543 la teoría geocéntrica enfrentó su primer cuestionamiento serio con la publicación de De Revolutionibus Orbium Coelestium de Copérnico, que aseguraba que la Tierra y los demás planetas, contrariamente a la doctrina oficial del momento, rotaban alrededor del Sol. Sin embargo, el sistema geocéntrico se mantuvo varios años, ya que el sistema copernicano no ofrecía mejores
40
predicciones de las efemérides cósmicas que el anterior, y además suponía un problema para la filosofía natural, así como para la educación religiosa. La teoría de Copérnico establecía que la Tierra giraba sobre sí misma una vez al día, y que una vez al año daba una vuelta completa alrededor del Sol. Además afirmaba que la Tierra, en su movimiento rotatorio, se inclinaba sobre su eje (como un trompo). Sin embargo, aún mantenía algunos principios de la antigua cosmología, como la idea de las esferas dentro de las cuales se encontraban los planetas y la esfera exterior donde estaban inmóviles las estrellas, lo cual es falso por comprobaciones astronómicas hechas hoy en día, gracias a la tecnología y sus avances. no debe seguirse interpretando como una discordia entre ambos. 3 El sistema solar es aún de interés para los diseñadores de planetarios dado que, por razones técnicas, dar al planeta un movimiento de tipo ptolemaico tiene ventajas sobre el movimiento de estilo Copernicano. Existen algunos elementos que podemos aplicar para contrastarlos con el sistema geocéntrico: el sistema de años bisiestos, la inclinación del eje de rotación y el ciclo de fases de la Luna. Si la Tierra no se trasladara en torno al Sol, sería el Sol el que se trasladaría en torno a la Tierra una vez cada 24 horas, de modo que la Tierra tampoco tendría movimiento de giro en torno a su eje de rotación. La idea de que el Sol diera una vuelta a la Tierra en 24 horas significa que tendría que dar 365,25 vueltas a la Tierra para que se cumpliese un año, pero alguna autoridad institucional habría tenido que establecer dicho número, y lo racional sería un número entero. El sistema del día del año bisiesto ideado por la Iglesia sería la adaptación del calendario racional al supuesto de que cada 4 ciclos de 365,25 vueltas a la Tierra, el Sol acumularía una vuelta, la 366ª o 366º día. Pero según la Naturaleza, los 366,25 giros (365,25 días) es la cantidad de giros que le da tiempo a dar al planeta durante su tiempo de órbita al Sol, y por ello es una medida dada por el Universo.
41
ACTIVIDAD 1. Resolver el siguiente laberinto
2. Que aporto Claudio Ptolomeo a la ciencia. ____________________________________________________________ ____________________________________________________________ ________________________________________________________ 3. El sistema ptolomeico habla de : ____________________________________________________________ ____________________________________________________________ ________________________________________________________ 4. De qué habla la teoría geocéntrica. ____________________________________________________________ ____________________________________________________________ ________________________________________________________
42
CAPITULO 5 GALILEO Contó cómo, en 1609, habiendo oído decir que en el extranjero se había inventado un catalejo, se aplicó él mismo a Construir un telescopio. "Primero" dijo, "preparé un tubo de plomo y fijé en las extremidades dos lentes de cristal, planos ambos de una lado, Aunque del otro el primero era cóncavo y el segundo convexo. Al mirar Por el lente cóncavo, los objetos se me aparecieron, tres veces más cercanos y nueve veces más grandes. Luego construí otro telescopio, Más preciso aun, y por último, no escatimando ni trabajo ni gastos, logré construir yo mismo un instrumento tan preciso que hacía aparecer los objetos casi mil veces más grandes y más de treinta veces más cercanos que por la visión natural." El telescopio de Galileo Impuso a los hombres una nueva visión del mundo, cosa que no se logró sin despertar resistencias. "Querido Kepler" preguntaba Galileo en carta dirigida al astrónomo alemán, "¿qué dirá Vd. de los científicos de aquí que, con una obstinación realmente viperina, se han negado a mirar el cielo por el telescopio? ¿Qué debemos hacer ante ellos, reír o llorar?" Pese a la lucha, Galileo fabricó centenares de telescopios astronómicos (a la izquierda, los dos existentes en el Museo de Historia de la Ciencia en Florencia).
1642 nace Isaac Newton con una parábola, la vida de Galileo transcurre entre ambos términos. Puede decirse que la muerte de Miguel Ángel clausura el esplendor estético del Renacimiento italiano; a su vez el nacimiento de Newton, hombre destinado a completar el edificio que Galileo había elevado ya a tal altura, sugiere una continuidad ideal con respecto a la obra de éste y señala la que debía ser tónica dominante en las sociedades futuras; el aporte de la ciencia a la vida del hombre, aporte que tan esencial ha resultado a nuestra época. En tal sentido no sólo cierra Galileo un período histórico, sino que agota completamente un tipo de civilización cuyas estructuras espirituales y conceptuales básicas precipita él a una crisis tanto con sus descubrimientos como con su postura mental. El primer cuerpo celeste al que Galileo asesta su teles copio en 1609 es la luna. En los dibujos que nos ha dejado de sus observaciones (abajo) no pudo registrar la emoción que sintió esa noche. Lo que su vista explora no es el astro perfectamente esférico y liso de los filósofos, sino constatación que lo transforma una especie de tierra en miniatura. Y así describe Galileo lo que ha Visto: " Surgen picos cada vez más numerosos, aquí y allá, que se iluminan por encima de la sombra, y que crecen y acaban por confundirse con la superficie luminosa que se extiende. Y sobre la tierra, antes de salir ¿no ilumina éste las cumbres de las montañas más as mientras que las llanuras quedan en la sombra? Pero la Luna la diversidad de las elevaciones y depresiones rece sobrepasar en todos los puntos las rugosidades la superficie terrestre. ―Y Galileo llega a calcular altitud de las montañas y las dimensiones de los
43
Cráteres que fue el primero en observar en la Luna
Un sentido común pero engañoso Ningún movimiento espontáneo y natural puede llevarse a cabo sino en línea recta, sea de los cuerpos pesados hacia abajo, hacia el centro de la tierra, que se encuentra A su vez, inmóvil, en el centro del Universo, o de los cuerpos ligeros hacia arriba, mientras que cualquier otro movimiento será violento; esto es, se verá provocado por una fuerza que actúe sobre el cuerpo desde el exterior, y Durará sólo mientras esa fuerza sea aplicada La importancia de este descubrimiento iba mucho más allá de su valor intrínseco, ya que ponía a disposición del científico el instrumento indispensable para efectuar mediciones de precisión en la observación astronómica y los experimentos de mecánica. Desde entonces, Galileo Utilizará el péndulo para hacer, por la menos en ciertos aspectos, una demostración del principio de la inercia. Mientras tanto, por lo menos en el mundo académico, iba difundiéndose su fama de científico y comunicando Galileo los resultados de sus propias investigaciones, ligadas a relaciones personales de las que queda testimonio en el epistolario con hombres ilustres e influyentes de su tiempo. Gracias a su preparación científica y a las relaciones influyentes de sus amigos, el profesor, luego de dejar en 1592 la Universidad de Pisa, fue Llamado por el Senado de la República de Venecia para 27 Enseñar matemáticas junto al Estudio de Padua. Galileo en suma, qué hechos produciría esa realidad imaginaria. Entonces es cuando salimos de nuestra soledad imaginativa, de nuestra mente pura y aislada y comparamos esos hechos que la realidad imaginada por nosotros produciría con los hechos efectivos que nos rodean. Si casan unos con otros, es que hemos descifrado el jeroglífico, que hemos descubierto la realidad que los hechos cubrían y arcaizaban.
44
COPÉRNICO Y GALILEO En una concepción primitiva que los hindúes tuvieron del universo el mundo se apoyaba sobre el lomo de cuatro elefantes puestos de pie sobre una tortuga gigantesca. Copérnico como Galileo afirmó que seguían a los antiguos. Con ello se referían a la astronomía pitagórica, pero en el siglo V antes de J. C, Aristóteles concibió el universo según un sistema de órbitas circulares cuyo eje era " un fuego central "; la tierra era un " astro errante " entre los demás. En el siglo II de nuestra era Ptolomeo concibió un sistema complejo que permitía, al colocar la tierra en el centro del universo, calcular los movimientos de los astros, representación que debía subsistir quince siglos. Pero alrededor de 1520 Copérnico volvió A esgrimir la tesis pitagórica, que tenía al sol como centro del sistema; y pasó por iluso hasta que Galileo impuso su idea inmortalizándolo e inmortalizándose al mismo tiempo. KELPLER La primera etapa en la obra de Kepler, desarrollada durante sus años en Graz, se centró en los problemas relacionados con las órbitas planetarias, así como en las velocidades variables con que los planetas las recorren, para lo que partió de la concepción pitagórica según la cual el mundo se rige en base a una armonía preestablecida. Tras intentar una solución aritmética de la cuestión, creyó encontrar una respuesta geométrica relacionando los intervalos entre las órbitas de los seis planetas entonces conocidos con los cinco sólidos regulares. Juzgó haber resuelto así un «misterio cosmográfico» que expuso en su primera obra, Misterio cosmographicum (El misterio cosmográfico, 1596), de la que envió un ejemplar a Brahe y otro a Galileo, con el cual mantuvo una esporádica relación epistolar y a quien se unió en la defensa de la causa copernicana.
Durante
el
tiempo
que permaneció en Praga,
Kepler realizó una
notable labor en el campo de
la
una
óptica:
enunció
primera
aproximación
satisfactoria de la ley
de la refracción, distinguió
por
claramente
vez
primera
entre
los
problemas físicos de la visión y sus aspectos fisiológicos, y analizó el aspecto geométrico de diversos sistemas ópticos. Pero el trabajo más importante de Kepler fue la revisión de los esquemas cosmológicos conocidos a partir de la gran cantidad de observaciones acumuladas por Brahe (en especial, las relativas a Marte), labor que desembocó en la publicación, en 1609, de la Astronomía nova (Nueva astronomía), la obra que contenía las dos primeras leyes llamadas de Kepler, relativas a la elasticidad de las órbitas y a la igualdad de las áreas barridas, en tiempos iguales, por los radios vectores que unen los planetas con el Sol.
45
Culminó su obra durante su estancia en Linz, en donde enunció la tercera de sus leyes, que relaciona numéricamente los períodos de revolución de los planetas con sus distancias medias al Sol; la publicó en 1619 en Harmonices mundi (Sobre la armonía del mundo), como una más de las armonías de la naturaleza, cuyo secreto creyó haber conseguido desvelar merced a una peculiar síntesis entre la astronomía, la música y la geometría.
Había descubierto su primera ley, la primera ley de Kepler: Los planetas tienen movimientos elípticos alrededor del Sol, estando éste situado en uno de los 2 focos que contiene la elipse. Después de ese importante salto, en donde por primera vez los hechos se anteponían a los deseos y los prejuicios sobre la naturaleza del mundo. Kepler se dedicó simplemente a observar los datos y sacar conclusiones ya sin ninguna idea preconcebida. Pasó a comprobar la velocidad del planeta a través de las órbitas llegando a la segunda ley: Las áreas barridas por los radios de los planetas son proporcionales al tiempo empleado por estos en recorrer el perímetro de dichas áreas. Durante mucho tiempo, Kepler sólo pudo confirmar estas dos leyes en el resto de planetas. Aun así fue un logro espectacular, pero faltaba relacionar las trayectorias de los planetas entre sí. Tras varios años, descubrió la tercera e importantísima ley del movimiento planetario: El cuadrado de los períodos de la órbita de los planetas es proporcional al cubo de la distancia promedio al Sol. Esta ley, llamada también ley armónica, junto con las otras leyes, permitía ya unificar, predecir y comprender todos los movimientos de los astros.
Restos de la supernova SN sido compuesta a del Telescopio Telescopio Observatorio de
estrella de Kepler, la 1604. Esta imagen ha partir de imágenes espacial Spitzer, el Espacial Hubble y el Rayos X Chandra...
46
Hace más de dos mil años, el griego Pitágoras (cuyo busto se ve a la derecha) intentó demostrar con sus discípulos que" el libro de la Naturaleza está escrito en caracteres matemáticos," ya que entre otras cosas admitieron el movimiento de rotación de la tierra sobre su eje y la posición fija del sol en el centro de nuestro mundo. El astrónomo polaco Nicolás Copérnico (derecha) al mostrar que la Tierra gira alrededor del Sol, dejó caduco el sistema de Ptolomeo, según El cual nuestro planeta era el centro inmóvil del universo. En 1632, Galileo Redactó un verdadero "manifiesto copernicano" con su Diálogo sobre los dos sistemas máximos del mundo. El Frontispicio de la edición original (izquierda) muestra a Ptolomeo y Copérnico debatiendo con el filósofo Aristóteles, cuya concepción del mundo quedó desde entonces tan caduca como la del mismo Ptolomeo. La polémica se entabla en torno a la concepción del mundo a que ya nos hemos referido y rebate las observaciones basadas en el sentido común, que eran la fuerza de las teorías aristotélicas y ptolemaicas. Galileo, que fue grande también por haber sabido extraer de esos hechos que tenemos siempre delante de la vista conclusiones verdaderas, percibiendo la realidad del fenómeno bajo la apariencia inmediata de éste que es engañosa responde, gracias al nuevo método científico de investigación por él perfeccionado, exponiendo el principio de relatividad clásica, formulando las leyes que rigen la libre caída de los pesos, estableciendo el principio de la inercia, estudiando la composición de los movimientos y, sobre todo, planteando el problema de la «verdad» y la «validez» de la ciencia en el mundo con una conciencia y una sensibilidad completamente modernas. Hasta en el principio de la relatividad clásica, con el que derrota de una vez todas las objeciones contrarias al movimiento de la Tierra, queda en evidencia el espíritu nuevo con que el científico ve el mundo, y así, de las observaciones más comunes, surgen esos principios suyos que hasta entonces nadie había logrado formular. Así se completa la enunciación del principio de inercia, mostrando cómo cualquier cuerpo, cuando no se lo impiden causas externas, tiende a conservar no solamente el propio estado de quietud cosa que reconocían hasta los mismos aristotélicos sino el de movimiento; afirmación ésta que contradice todas las teorías antiguas sobre movimientos «naturales» y «violentos», sobre sus privilegios y nobleza, quitando todo valor a esas distinciones. Aplicando el principio de inercia, la ley de la caída de los pesos y el principio de la composición de los movimientos, Galileo estuvo en condiciones de descomponer el movimiento de un proyectil en los elementos que lo constituyen; el movimiento de inercia según la dirección y la velocidad inicial y el de calda por gravedad, así como de descubrir que la composición de ambos resultaren una parábola, lo que le permitió dibujar hasta los primeros blancos de tiro de los que se habla en los Discursos. Creo que éste ha de haber sido uno de los momentos culminantes en las investigaciones de Galileo, ya que de ahí en adelante posee todos aquellos elementos gracias a los cuales la obra que había iniciado podrá llegar a ser completada por Newton al extender al movimiento de los cuerpos celestes las consideraciones que Galileo hiciera en cuanto a la trayectoria de los proyectiles como resultado de dos movimientos: el de inercia y el de gravitación. Así quedó definitivamente abierto el camino a la ciencia moderna. Y Galileo, que había sabido reaccionar con fuerza verdaderamente indomable a las mortificaciones de su condena, no cesará de proclamar sus convulsiones, hallando la paz en su convicción íntima de estar en lo cierto
47
CAPITULO 6 ISAAC NEWTON
Las Leyes de Newton Las Leyes de Newton, también conocidas como Leyes del movimiento de Newton,1son tres principios a partir de los cuales se explican la mayor parte de los problemas planteados por la dinámica, en particular aquellos relativos al movimiento de los cuerpos. Revolucionaron los conceptos básicos de la física y el movimiento de los cuerpos en el universo, en tanto que Constituyen los cimientos no sólo de la dinámica clásica sino también de la física clásica en general. Aunque incluyen ciertas definiciones y en cierto sentido pueden verse como axiomas, Newton afirmó que estaban basadas en observaciones y experimentos cuantitativos; ciertamente no pueden derivarse a partir de otras relaciones más básicas. La demostración de su validez radica en sus predicciones… La validez de esas predicciones fue verificada en todos y cada uno de los casos durante más de dos siglos. En concreto, la relevancia de estas leyes radica en dos aspectos:
o
Por un lado, constituyen, junto con la transformación de Galileo, la base de la mecánica clásica;
48
o
Por otro, al combinar estas leyes con la Ley de la gravitación universal, se pueden deducir y explicar las Leyes de Kepler sobre el movimiento planetario.
Las 3 Leyes físicas, junto con la Ley de Gravitación Universal formuladas por Sir Isaac Newton, son la base fundamental de la Física Moderna. Así, las Leyes de Newton permiten explicar tanto el movimiento de los astros, como los
movimientos
de
los
proyectiles
artificiales creados por el ser humano, así como toda la mecánica de funcionamiento de las máquinas.
Su formulación matemática fue publicada por Isaac
Newton en 1687 en
obra Philosophiae
Naturalis
su Principia
Mathematica. No obstante, la dinámica de Newton, también llamada dinámica clásica, sólo se cumple
en
los sistemas
de
referencia
inerciales; es decir, sólo es aplicable a cuerpos cuya velocidad dista considerablemente de la velocidad de la luz (que no se acerquen a los 300,000 km/s); la razón estriba en que cuanto más cerca esté un cuerpo de alcanzar esa velocidad (lo que ocurriría en los sistemas de referencia no-inerciales), más posibilidades hay de que incidan sobre el mismo una serie de fenómenos denominados efectos relativistas o fuerzas ficticias, que añaden términos suplementarios capaces de explicar el movimiento de un sistema cerrado de partículas clásicas que interactúan entre sí. El estudio de estos efectos (aumento de la masa y contracción de la longitud, fundamentalmente) corresponde a la teoría de la relatividad especial, enunciada por Albert Einstein en 1905. Las leyes De manera Generalizada, las 3 leyes de Sir Isaac Newton son:
49
Primera Ley o Ley de
Todo cuerpo permanece en su estado de
Inercia
reposo o de movimiento rectilíneo uniforme a menos que otros cuerpos actúen sobre él.
Segunda
ley
o
La fuerza que actúa sobre un cuerpo es
Principio Fundamental
directamente proporcional a su aceleración.
de la Dinámica
Tercera ley o Principio
Cuando un cuerpo ejerce una fuerza sobre
de acción-reacción
otro, éste ejerce sobre el primero una fuerza igual y de sentido opuesto.
Primera Ley o Ley de la Inercia La primera ley del movimiento rebate la idea aristotélica de que un cuerpo sólo puede mantenerse en movimiento si se le aplica una fuerza. Newton expone que:
Todo cuerpo persevera en su estado de reposo o movimiento uniforme y rectilíneo a no ser que sea obligado a cambiar su estado por fuerzas impresas sobre él. La primera ley de Newton, conocida también como Ley de inercia, nos dice que si sobre un cuerpo no actúa ningún otro, este permanecerá indefinidamente moviéndose en línea recta con velocidad constante (incluido el estado de reposo, que equivale a velocidad cero).
Como sabemos, el movimiento es relativo, es decir, depende de cuál sea el observador que describa el movimiento.
Así, para un pasajero de un tren, el interventor viene caminando lentamente por el pasillo del tren, mientras que para alguien que ve pasar el tren desde el andén de una estación, el interventor
se
está
moviendo a una gran velocidad. Se necesita, por tanto, un sistema de
referencia al
cual
referir el movimiento.
1ra Ley de Newton: Ley de la Inercia
50
La primera ley de Newton sirve para definir un tipo especial de sistemas de referencia conocidos como Sistemas de referencia inerciales, que son aquellos sistemas de referencia desde los que se observa que un cuerpo sobre el que no actúa ninguna fuerza neta se mueve con velocidad constante. De manera concisa, esta ley postula, que un cuerpo no puede cambiar por sí solo su estado inicial, ya sea en reposo o en movimiento rectilíneo uniforme, a menos que se aplique una fuerza o una serie de fuerzas cuyo resultante no sea nulo sobre él.
Newton toma en cuenta, así, el que los cuerpos en movimiento están sometidos constantemente a fuerzas de roce o fricción, que los frena de forma progresiva, algo novedoso respecto de concepciones anteriores que entendían que el movimiento o la detención de un cuerpo se debía exclusivamente a si se ejercía sobre ellos una fuerza, pero nunca entendiendo como esta a la fricción.
En consecuencia, un cuerpo con movimiento rectilíneo uniforme implica que no existe ninguna fuerza externa neta o, dicho de otra forma, un objeto en movimiento no se detiene de forma natural si no se aplica una fuerza sobre él. En el caso de los cuerpos en reposo, se entiende que su velocidad es cero, por lo que si esta cambia es porque sobre ese cuerpo se ha ejercido una fuerza neta.
En realidad, es imposible encontrar un sistema de referencia inercial, puesto que siempre hay algún tipo de fuerzas actuando sobre los cuerpos, pero siempre es posible encontrar un sistema de referencia en el que el problema que estemos estudiando se pueda tratar como si estuviésemos en un sistema inercial. En muchos casos, suponer a un observador fijo en la Tierra es una buena aproximación de sistema inercial.
Segunda ley de Newton o Ley de fuerza La segunda ley del movimiento de Newton dice que
el cambio de movimiento es proporcional a la fuerza motriz impresa y ocurre según la línea recta a lo largo de la cual aquella fuerza se imprime. La Primera ley de Newton nos dice que para que un cuerpo altere su movimiento es necesario que exista algoque provoque dicho cambio. Ese algo es lo que conocemos como fuerzas. Estas son el resultado de la acción de unos cuerpos sobre otros. La Segunda ley de Newton se encarga de cuantificar el concepto de fuerza. Nos dice que la fuerza neta aplicada sobre un cuerpo es proporcional a la aceleración que adquiere dicho cuerpo. La constante de proporcionalidad es la masa del cuerpo, de manera que podemos expresar la relación de la siguiente manera: F=ma
51
Tanto la fuerza como la aceleración son magnitudes vectoriales, es decir, tienen, además de un valor, una dirección y un sentido. De esta manera, la Segunda ley de Newton debe expresarse como:
F=ma La unidad de fuerza en el Sistema Internacional es el Newton y se representa por N. Un Newton es la fuerza que hay que ejercer sobre un cuerpo de un kilogramo de masa para que adquiera una aceleración de 1 m/s2, o sea, 1 N = 1 Kg · 1 m/s2
2da Ley de Newton: Ley de la Fuerza o Principio Fundamental de la Mecánica La expresión de la Segunda ley de Newton que hemos dado es válida para cuerpos cuya masa sea constante. Si la masa varia, como por ejemplo un cohete que va quemando combustible, no es válida la relación F = m ·a. Vamos a generalizar la Segunda ley de Newton para que incluya el caso de sistemas en los que pueda variar la masa. Para ello primero vamos a definir una magnitud física nueva. Esta magnitud física es la cantidad de movimiento que se representa por la letra p y que se define como el producto de la masa de un cuerpo por su velocidad, es decir: p=m·v La cantidad de movimiento también se conoce como momento lineal. Es una magnitud vectorial y, en el Sistema Internacional se mide en Kg·m/s . En términos de esta nueva magnitud física, la Segunda ley de Newton se expresa de la siguiente manera: La Fuerza que actúa sobre un cuerpo es igual a la variación temporal de la cantidad de movimiento de dicho cuerpo, es decir,
F = dp/dt De esta forma incluimos también el caso de cuerpos cuya masa no sea constante. Para el caso de que la masa sea constante, recordando la definición de cantidad de movimiento y que como se deriva un producto tenemos:
F = d(m·v)/dt = m·dv/dt + dm/dt ·v Como la masa es constante
52
dm/dt = 0
y recordando la definición de aceleración, nos queda
F=ma tal y como habíamos visto anteriormente.
Otra consecuencia de expresar la Segunda Ley de Newton usando la cantidad de movimiento es lo que se conoce como Principio de conservación de la cantidad de movimiento. Si la fuerza total que actúa sobre un cuerpo es cero, la Segunda ley de Newton nos dice que: 0 = dp/dt es decir, que la derivada de la cantidad de movimiento con respecto al tiempo es cero. Esto significa que la cantidad de movimiento debe ser constante en el tiempo (la derivada de una constante es cero). Esto es el Principio de conservación de la cantidad de movimiento: si la fuerza total que actúa sobre un cuerpo es nula, la cantidad de movimiento del cuerpo permanece constante en el tiempo. Esta ley explica qué ocurre si sobre un cuerpo en movimiento (cuya masa no tiene por qué ser constante) actúa una fuerza neta: la fuerza modificará el estado de movimiento, cambiando la velocidad en módulo o dirección. En concreto, los cambios experimentados en la cantidad de movimiento de un cuerpo son proporcionales a la fuerza motriz y se desarrollan en la dirección de esta; esto es, las fuerzas son causas que producen aceleraciones en los cuerpos.
Consecuentemente, hay relación entre la causa y el efecto, esto es, la fuerza y la aceleración están relacionadas. Dicho sintéticamente, la fuerza se define simplemente en función del momento en que se aplica a un objeto, con lo que dos fuerzas serán iguales si causan la misma tasa de cambio en el momento del objeto. En términos matemáticos esta ley se expresa mediante la relación:
53
Donde
es la cantidad de movimiento y
la fuerza total. Si suponemos la masa
constante y nos manejamos con velocidades que no superen el 10% de la velocidad de la luz podemos reescribir la ecuación anterior siguiendo los siguientes pasos: Sabemos que
es la cantidad de movimiento, que se puede escribir m.V donde m es la
masa del cuerpo y V su velocidad.
Consideramos a la masa constante y podemos escribir
aplicando estas modificaciones a la ecuación anterior
que es la ecuación
fundamental de la dinámica, donde la constante de proporcionalidad, distinta para cada cuerpo, es su masa de inercia. Veamos lo siguiente, si despejamos m de la ecuación anterior obtenemos que m es la relación que existe entre
y
. Es decir la relación que
hay entre la fuerza aplicada al cuerpo y la aceleración obtenida. Cuando un cuerpo tiene una gran resistencia a cambiar su aceleración (una gran masa) se dice que tiene mucha inercia. Es por esta razón por la que la masa se define como una medida de la inercia del cuerpo. Por tanto, si la fuerza resultante que actúa sobre una partícula no es cero, esta partícula tendrá una aceleración proporcional a la magnitud de la resultante y en dirección de ésta. La expresión anterior así establecida es válida tanto para la mecánica clásica como para la mecánica relativista, a pesar de que la definición de momento lineal es diferente en las dos teorías: mientras que la dinámica clásica afirma que la masa de un cuerpo es siempre la misma, con independencia de la velocidad con la que se mueve, la mecánica relativista establece que la masa de un cuerpo aumenta al crecer la velocidad con la que se mueve dicho cuerpo.
De la ecuación fundamental se deriva también la definición de la unidad de fuerza o newton (N). Si la masa y la aceleración valen 1, la fuerza también valdrá 1; así, pues, el
54
newton es la fuerza que aplicada a una masa de un kilogramo le produce una aceleración de 1 m/s². Se entiende que la aceleración y la fuerza han de tener la misma dirección y sentido. La importancia de esa ecuación estriba sobre todo en que resuelve el problema de la dinámica de determinar la clase de fuerza que se necesita para producir los diferentes tipos de movimiento: rectilíneo uniforme (m.r.u), circular uniforme (m.c.u) y uniformemente acelerado (m.r.u.a).
Si sobre el cuerpo actúan muchas fuerzas, habría que determinar primero el vector suma de todas esas fuerzas. Por último, si se tratase de un objeto que cayese hacia la tierra con una resistencia del aire igual a cero, la fuerza sería su peso, que provocaría una aceleración descendente igual a la de la gravedad.
Tercera Ley de Newton o Ley de acción y reacción Con toda acción ocurre siempre una reacción igual y contraria: o sea, las acciones mutuas de dos cuerpos siempre son iguales y dirigidas en sentido opuesto. La tercera ley es completamente original de Newton (pues las dos primeras ya habían sido propuestas de otras maneras por Galileo, Hooke y Huygens) y hace de las leyes de la mecánica un conjunto lógico y completo. Expone que por cada fuerza que actúa sobre un cuerpo, este realiza una fuerza de igual intensidad y dirección, pero de sentido contrario sobre el cuerpo que la produjo. Dicho de otra forma, las fuerzas, situadas sobre la misma recta, siempre se presentan en pares de igual magnitud y opuestas en sentido.
Tal como comentamos en al principio de la Segunda ley de Newton las fuerzas son el resultado de la acción de unos cuerpos sobre otros.
La tercera
ley,
también
conocida
como Principio
de
acción
y
reacción nos
dice
esencialmente que si un cuerpo A ejerce una acción sobre otro cuerpo B, éste realiza sobre A otra acción igual y de sentido contrario.
3ra Ley de Newton: Ley de la Acción y Reacción Este principio presupone que la interacción entre dos partículas se propaga instantáneamente en el espacio (lo cual requeriría velocidad infinita), y en su formulación original no es válido para fuerzas electromagnéticas puesto que estas no se propagan por el espacio de modo instantáneo sino que lo hacen a velocidad finita “c”.
55
Es importante observar que este principio de acción y reacción relaciona dos fuerzas que no están aplicadas al mismo cuerpo, produciendo en ellos aceleraciones diferentes, según sean sus masas. Por lo demás, cada una de esas fuerzas obedece por separado a la segunda ley. Junto con las anteriores leyes, ésta permite enunciar los principios de conservación del momento lineal y del momento angular.
Esta ley es algo que podemos comprobar a diario en numerosas ocasiones. Por ejemplo, cuando queremos dar un salto hacia arriba, empujamos el suelo para impulsarnos. La reacción del suelo es la que nos hace saltar hacia arriba. Cuando estamos en una piscina y empujamos a alguien, nosotros también nos movemos en sentido contrario. Esto se debe a la reacción que la otra persona hace sobre nosotros, aunque no haga el intento de empujarnos a nosotros. Hay que destacar que, aunque los pares de acción y reacción tenga el mismo valor y sentidos contrarios, no se anulan entre sí, puesto que actúan sobre cuerpos distintos.
ACTIVIDAD Explica la ley de inercia y expón un ejemplo Explica la segunda ley de newton un ejemplo Explica la ley de acción y reacción y expón un ejemplo Resolver el siguiente crucigrama.
56
57
CAPITULO 7 58
ALBERT EINSTEIN Y LA RELATIVIDAD
Para empezar la teoría de la relatividad es complicada de entender y asimilar porque no tiene ningún reflejo en la vida cotidiana. No existe un sólo indicio que hayamos podido percibir que nos indique que todo esto es cierto. Hasta el siglo XX la ciencia estudió y describió fenómenos que cualquier persona había observado antes, aunque no se hubiera parado a pensar en ellas. La mayoría de la deducciones formuladas por la ciencia se podían experimentar en cualquier pequeño laboratorio y decir "funciona¡¡", o incluso ser observados por cualquier hijo de vecino, tales como la gravedad, las presiones, las fuerzas, las masas, velocidades, gases, etc. A principios del siglo XX, el grandísimo físico alemán Albert Einstein llega para echar por tierra todos los principios de la física establecida y a comenzar un camino que ya no ha parado: "a partir de ahora, aunque las fórmulas coincidan con la experiencia y describan ciertos fenómenos, no vais a entender nada". No es una frase suya, eso lo digo yo. Probablemente en su cabeza encajó todo como un reloj. La teoría de la relatividad de Einstein se divide en dos grandes teorías: * Teoría especial de la relatividad. Formulada en 1905, y describe como se percibe el espacio y el tiempo en función del observador. * Teoría general de la relatividad: Formulada en 1915, trata de explicar la gravedad, la fuerza más incomprendida de todas las fuerzas presentes en la naturaleza. Pongámonos en contexto. Hasta la formulación de las teorías de Einstein se aceptaban como correctas la física de Newton sobre la inercia, la gravedad y el movimiento. Me he permitido el lujo de hacer un dibujo (un mal dibujo realmente) para que se entienda mejor el fenómeno. Tenemos a dos tipos (B y C) que tienen pasta y han decidido dar un paseo en barco. Es tan grande que tienen espacio suficiente para que uno de ellos, llamemos Induráin (C), se ponga a andar en bici por la cubierta mientras B lee el periódico. El lector observa como Induráin se aleja de él a 20 km/h. Para el ciclista el lector permanece quieto con respecto al barco. Por otro lado tenemos a un pescador sentado en la orilla de la playa que observa a los dos,
59
sin embargo para éste el ciclista no se mueve a 20 km/h, sino a 50 km/h, ya que tiene que sumar la velocidad del propio barco. Además, el lector no está quieto, sino que se mueve a 30 km/h, exactamente la velocidad del barco. Arriba del todo, en el sol, está colocado el malo de Superan IV, y observa la escena y Concluye que el pescador se mueve a una gran velocidad (la velocidad que supone la rotación de la tierra alrededor del sol) y que el lector va un poco más rápido y el ciclista más rápido aún. La
conclusión es que la velocidad de los cuerpos depende del observador. Hasta aquí nada extraño, es algo que percibimos en cualquier experiencia cotidiana. Sin embargo, la física newtoniana percibe el tiempo como absoluto e independiente del observador, es decir, que si a la hora de salir los barcos todos ponen a cero su cronómetro, a la llegada del barco puede comprobar que siguen sincronizados y dan lecturas idénticas. Nuestra experiencia diaria nos dice que el tiempo es el mismo, independientemente de si vas en coche, andando, estás durmiendo o vas en avión. ¿Está claro no? Pues no. Aquí es donde entra el bueno de Einstein y dice que no, que el tiempo también depende del observador. Esta sorprendente conclusión es mucho más complicada de asimilar de lo que parece. Continuemos. Según la teoría de la relatividad, el tiempo depende de la velocidad del observador, es decir que los cronómetros del lector, del pescador, del malo de superan y del ciclista darían diferentes resultados a la llegada del barco a tierra. El cronómetro del ciclista marcará menos tiempo que el del lector, éste menos que el pescador y éste menos que el malo de superan. Con la velocidad se produce una especie de compresión en el tiempo, transcurre de manera distinta. ¿Pero de qué estamos hablando? este fenómeno de la variación del tiempo dependiendo de la velocidad ocurre así, efectivamente, pero sólo es perceptible a altísimas velocidades (cercanas a las de la luz). A escala humana la diferencia de tiempos es tan pequeña que es despreciable y sigue funcionando perfectamente la física de Newton, que considera al tiempo absoluto. De todas formas, vamos a calcular la diferencia de tiempo que obtendría el ciclista con respecto al pescador.
Si he hecho bien los cálculos, si el ciclista estuviera andando durante 24 horas, al final el ciclista habría medido en su cronómetro 84600 segundos, mientras que el pescador
60
obtendría 84.600,0000000001 segundos¡¡¡ no creo que el esfuerzo de no parar en 24 horas le merezca la pena para ganar una milmillonésima de segundo, pero no deja de ser curioso. La fórmula para el cálculo es la del cuadro de la derecha. El tiempo t' se calcula en base al tiempo t (el tiempo medido desde el objeto móvil). Depende de la velocidad V (del objeto móvil) y la velocidad de la luz. Como vemos, la diferencia entre t' y t sólo es apreciable con velocidades cercanas a la de la luz. Pero en viajes espaciales, con el tiempo y la velocidad a la que viajan, la desincronización empieza a ser apreciable. Si fuéramos capaces de viajar a velocidades cercanas a la de la luz, pongamos 150.000 km/s (la mitad de la velocidad de la luz), e diéramos una vuelta por el sistema solar durante 10 años (medidos desde la nave espacial) al volver los astronautas se darían cuenta que en la tierra habrían pasado 11,54 años. Los astronautas serían 1 año y medio más jóvenes que sus compañeros en la tierra¡¡¡ Resumen, se puede demostrar que si te pasas toda la vida en coche rejuveneces¡¡ Mejor dicho, logras que el tiempo transcurra de forma más lenta para ti que la de los pobres viandantes. Otra posible opción es hacer footing en las horas de trabajo. Es cuestión de probar. Viajando por el espacio Vamos a seguir con la serie sobre la relatividad para tontos, avanzando un poco más. Ya habíamos visto que el tiempo depende de la velocidad del sujeto, es decir, que el aumento de la velocidad provoca que el tiempo transcurra más lentamente que para los objetos que van más lentos. Este fenómeno, aunque ocurre en todas las velocidades, sólo es apreciable a altísimas velocidades cercanas a las de la luz. Ya puse las correspondientes fórmulas para el cálculo. Según la teoría de la relatividad, no sólo es relativa la velocidad, sino también el tiempo. Si un sujeto se mueve a una determinada velocidad sobre un objeto que se mueve a otra velocidad, habrá que sumar o restar sus velocidades si es observado desde "fuera". Siguiendo con este planteamiento, coges el coche para ir de vacaciones y se hace de noche. Vas en tu flamante bólido a 200 km/h y decides encender los faros para ver la carretera. Según lo que vimos en el anterior post, un observador que estuviera sentado en un banco al pie de la carretera debería observar que la velocidad de la luz que proyectan los faros del coche va a 300.000 km/s (la velocidad de la luz) más la velocidad del coche. Evidentemente si la luz sale desde un sujeto en movimiento (el coche) debería salir "disparada" más rápido que si se enciende una linterna estando parado en la carretera. Es lo lógico, si el conductor se asoma por la ventana y dispara una bala hacia adelante la velocidad del proyectil se sumará a la del coche. Sin embargo con la luz no ocurre esto, la luz es una constante universal y obtendremos exactamente la misma medida independientemente de la velocidad del objeto que la proyecta e independientemente del observador. Es decir, el conductor y el hombre sentado en el banco obtendrían la misma medición de la luz, algo que contradice toda lógica. La velocidad de la luz es constante se mida desde donde se mida. Esto es así debido a que el tiempo transcurre de forma distinta en la medición de los dos observadores y por tanto la medición será idéntica. Los períodos de tiempo que transcurren en ambos observadores son distintos (para el coche el tiempo transcurre de forma más breve), por eso obtendrían medidas iguales para la velocidad de la luz. Y siempre hemos oído la misma frase. No se puede ir más rápido que la velocidad de la luz. Y uno se pregunta, ¿por qué coño no vamos a poder ir más rápido?, ¿eso quién lo dice? ¿Es sólo una suposición? no me lo creo. Voy a tratar de explicarlo de forma sencilla. ¿Por qué coño no se puede alcanzar la velocidad de luz?
61
Si aceptamos como cierta la teoría de la relatividad (hasta ahora los experimentos la han corroborado constantemente) no se puede ir más rápido que la velocidad de la luz. Vamos a ver por qué. No creo que haya nadie en el mundo que no haya visto alguna vez la fórmula más conocida de la toda la ciencia: E=mc* donde (* es 2) Esta fórmula revoluciona toda la física, que traducida quiere decir que la energía almacenada en un objeto es igual al producto de su masa por la velocidad de la luz al cuadrado. ¿La energía almacenada en un objeto? ¿de qué estamos hablando? hasta entonces se había considerado que la energía es todo aquello capaz de producir un trabajo, es decir, un objeto en movimiento tiene energía puesto que puede golpear a otro y producir un segundo movimiento, o calor, o deformación o lo que sea. Si algo está quieto, ni tiene calor ni nada, no debería poder producir nada. No debería tener energía. Einstein viene a demostrar que la masa es energía contenida, aunque no se mueva. De aquí surgió la energía nuclear, las bombas atómicas y demás tecnologías basadas en obtener esa energía almacenada en la materia (separando los átomos). Entonces ya tenemos que la masa es energía por sí misma, pero la velocidad a la que vaya un objeto también va a aumentar su energía. Un kilo de patatas, además de tener energía por el hecho de ser un kilo de masa, aumentará su energía total según vaya aumentando su velocidad. La fórmula e=mc2 realmente es para objetos sin movimiento, pero es más complicada si intentamos obtener la energía que le da su velocidad: Para quien no quiera pensar mucho concluiremos que según la velocidad del objeto se acerca a la de la luz, el denominador de la fórmula se acerca a cero y la energía necesaria tiende a infinito. Es decir, sería necesaria una energía infinita para hacer que un objeto con algo de masa alcanzara la velocidad de la luz, algo que obviamente no es posible. Necesitaríamos toda la energía del universo para lograrlo. Podemos acércanos a la velocidad, pero nunca alcanzarla. ¿Y por qué la luz puede llegar a esa velocidad si no es posible alcanzarla? porque la luz tiene masa cero (la parte de arriba de la fracción es cero), por tanto sí es posible
Hipotéticos
viajes
interestelares
con
la
relatividad
Seguro que cualquiera de vosotros ha concluido que es imposible llegar a un planeta que se encuentra a 30 años luz. Si la luz tarda nada menos que 30 años en llegar hasta la tierra ¿cuánto tardaríamos nosotros en llegar allí si podemos asegurar que nuestra velocidad es menor que esa? Pues hipotéticamente se puede, vamos a explicar cómo se plantea un teórico viaje de estas características, pero antes de nada hay que explicar, a grandes rasgos, como es un viaje espacial actual. Una nave sale de la tierra con una carga tremenda de combustible para superar la fuerza de la gravedad. El 90% de la nave es combustible, y es curioso que casi todo el combustible exista para empujar el peso del propio combustible. Una vez vencida la gravedad el módulo se desembaraza del combustible y puesto que el espacio no ofrece resistencia, la nave navega a velocidad constante con los motores parados, que se encienden únicamente para rectificar la trayectoria. Ahora vamos con un hipotético viaje mucho más lejano aprovechándonos de la relatividad. Lo ilustro con otro dibujito, esta vez me lo he curado más.
62
Tal y como vemos en el dibujo, la nave saldría de la tierra con una aceleración constante de 9'8 m/s2, dirigido hacia el planeta de turno, en el ejemplo, a 30 años luz. La aceleración es exactamente esa para simular la aceleración que provoca la gravedad de la tierra, así los pasajeros pisarían el suelo de la nave como si estuvieran en la tierra. Esta aceleración permanecería constante hasta su llegada al destino, por lo que cada vez iría más y más rápido. Pero off, se estrellaría al llegar allí¡¡¡ No hay problema, justo en mitad del camino la nave gira 180º para empezar, con la misma aceleración, a frenar la nave suavemente y llegar parada a su destino. En este punto el suelo se convertiría en el techo de la nave, pero bueno, podrían sujetar las cosas de alguna forma. Ese no es nuestro problema. Hasta aquí va todo bien, pero las cosas aún pintan mejor. Todavía seguimos teniendo el grave problema del tiempo necesario. Con esa aceleración constante podríamos llegar a velocidades cercanas a las de la luz (nunca llegar), por lo que el transcurso del tiempo en la nave sería muy distinto del medido en la tierra, sería menor¡¡¡¡ En este caso, los que realizan la medición en la tierra obtendrían una medición de uno 70 años, pero la contracción del tiempo para los medidores del interior de la nave sería, aproximadamente, la mitad¡¡¡ Es decir, los astronautas podrían pasar en la nave unos 35 años hasta tocar tierra¡¡¡ Si tenemos en cuenta que hay estrellas más cercanas (alfa centauro a 4 años luz), los astronautas pasarían sólo 5 años dentro la nave, aunque la NASA en la tierra contara sólo 10. El problema principal es que el combustible necesario es astronómico en el despegue y es, hoy por hoy, absolutamente impracticable. Aumentar un poco la velocidad final de la nave requeriría multiplicar exponencialmente el combustible inicial, hasta superar, sin problemas, toda la energía de la tierra. Con modernos motores de hidrógeno (aún no inventados) o de antimateria podríamos alcanzar velocidades de 270.000 km/s, algo nada despreciable, que posibilitaría el viaje que he hablado anteriormente. Pero amigos, para eso, aún queda mucho. Actualmente toda la mole que sale de la tierra sólo es para escapar de la gravedad,
63
ya no queda combustible para más, y aquí estamos suponiendo que consumimos cantidades ingentes durante todo el viaje. Realmente esta posibilidad está lejos. LA CONTRACCIÓN DEL TIEMPO Evidentemente, la contracción relativista del tiempo es muy importante en el caso de las partículas que se mueven a velocidades cercanas a la de la luz. Los físicos que estudian las partículas elementales utilizan aceleradores de partículas, que son aparatos que imprimen una velocidad, cercana a la de la luz, a electrones, protones o núcleos atómicos. Estas partículas, al chocar entre sí, se "rompen", o, más precisamente, producen nuevas partículas al transformar su energía en masa. En este tipo de experimentos, el uso de la mecánica relativista es tan común como lo es el uso de la mecánica newtoniana a un ingeniero que construye edificios o puentes. Hasta aquí hemos considerado sólo viajes interestelares a velocidad constante. En esa situación, los pasajeros de una nave espacial no podrían percatarse, mediante la observación de efectos físicos, si se mueven o si se encuentran varados en el espacio: mientras la velocidad de la nave no cambie, sus pasajeros permanecerán flotando ingrávidamente en él. Pero en un viaje más realista, la velocidad del vehículo espacial debe empezar desde cero, acelerarse para aumentar progresivamente su velocidad y, en algún momento, empezar a frenarse para llegar a su destino con velocidad cero. Hay muchas maneras de lograr un viaje con estas características, pero el recorrido más sencillo es uno en el que la velocidad se aumenta uniformemente, es decir, se mantiene una aceleración constante. En la física clásica, un cuerpo que se acelera constantemente aumenta indefinidamente su velocidad; pero cuando la velocidad empieza a acercarse a la de la luz, surgen efectos relativistas que hay que tomar en cuenta: se puede demostrar que la velocidad del cuerpo se acerca gradualmente a la velocidad de la luz, pero sin alcanzarla nunca.
LA APARIENCIA ÓPTICA DE LOS CUERPOS EN MOVIMIENTO De acuerdo con la teoría de la relatividad, se podría pensar que un cuerpo en movimiento sufre una contracción; sin embargo, ha habido mucha confusión sobre este efecto. En primer lugar, no se trata de una contracción real, en el sentido de que un cuerpo que se mueve se comprime realmente. Más bien, se trata de cómo se percibe el tamaño de un cuerpo en un sistema de referencia en el que éste aparece en movimiento. El efecto anterior debe combinarse con la contracción relativista del tiempo para deducir qué apariencia tiene un cuerpo cuya velocidad es cercana a la luminosa. El resultado es muy curioso, aunque de poca relevancia práctica. Se puede demostrar, por ejemplo, que una esfera en movimiento sigue viéndose como esfera, pero una barra recta aparece doblada. También se ha demostrado que un objeto lejano (cuyo tamaño aparente es pequeño) no se ve deformado ni contraído: por ejemplo, un cubo en movimiento sigue viéndose como cubo, pero rotado.
RELATIVIDAD Y MECÁNICA CUÁNTICA LA FÍSICA Del siglo XX se sustenta sobre dos pilares: la teoría de la relatividad y la mecánica cuántica. La primera obra casi exclusiva de Albert Einstein, describe los fenómenos naturales en los que están involucradas velocidades cercanas a la de la luz. La segunda, en cuya formulación participó una pléyade de grandes físicos de principios de siglo, 1 es la mecánica del mundo de los átomos y las partículas que los constituyen. Así como la teoría de la relatividad introdujo conceptos que chocaron con el sentido común, la mecánica cuántica expuso una descripción del mundo microscópico que en nada se parecía al de la experiencia diaria. De acuerdo con la mecánica cuántica, las partículas atómicas no se comportan como los objetos del mundo macroscópico, sino que tienen propiedades a la vez de partículas y de ondas. Gracias a esta ecuación, los físicos lograron resolver un gran número de problemas relacionados con los átomos y las partículas que los componen. Un nuevo nivel de la realidad se había revelado, donde regían leyes totalmente distintas las de nuestro mundo macroscópico.
LA CURVATURA DEL ESPACIOTIEMPO 64
Consideremos primero el caso más simple de un espacio curvo de dos dimensiones. Un ejemplo es la superficie de una esfera, que es de dos dimensiones porque se necesitan dos números, las coordenadas de longitud y latitud, para localizar un punto sobre ella. Las curvas de menor longitud entre dos, puntos son el equivalente de las rectas y se llaman en lenguaje matemático, geodésicas. A diferencia de las rectas sobre una superficie plana, dos geodésicas inicialmente paralelas se cruzan en algún punto (Figura 29); en general, los postulados y teoremas de la geometría elemental —que se aprende en la escuela— no son válidos sobre superficies curvas donde las geodésicas sustituyen a las rectas. En la teoría de la gravitación de Newton, se puede calcular la atracción gravitacional ejercida por una distribución dada de masa por medio de una ecuación matemática. En la teoría de Einstein, se calcula la curvatura del espacio tiempo, pero la situación es bastante más complicada porque no sólo la masa sino también la energía ejerce una acción gravitacional. En su artículo de 1916, Einstein dedujo la ecuación matemática que relaciona la geometría del espacio tiempo con la distribución de masa y energía: esta fórmula se conoce como ecuación de Einstein y es la base de la relatividad general
65
La gravitación en el universo así como una canica desvía su trayectoria sobre una superficie curvada, una partícula masiva o un fotón siguen una geodésica en el espacio tiempo curvo. Las ecuaciones matemáticas de la relatividad general permiten calcular la curvatura del espacio tiempo producida por una masa dada, así como las trayectorias de las partículas bajo la influencia de esa masa. En la práctica, este cálculo es un proceso difícil. Al principio, Einstein logró resolver sus ecuaciones en forma aproximada y, aun así, obtuvo resultados sumamente interesantes, que veremos a
continuación. Posteriormente, se encontraron algunas otras soluciones exactas: unas describen cuerpos muy compactos y otras son modelos del Universo; también las presentaremos brevemente en este capítulo. El movimiento del perihelio de mercurio El primer gran éxito de Newton fue explicar el movimiento de los planetas alrededor del Sol. Tomando en cuenta, sólo la atracción gravitacional del Sol, demostró que las órbitas de los planetas son elipses, tal como había descubierto Kepler en forma empírica. Sin embargo, la atracción de los planetas entre sí, aunque mucho menor que la atracción solar, no es enteramente despreciable y produce ligeras desviaciones en las órbitas planetarias. Estas pequeñas perturbaciones orbitales se han podido calcular y las observaciones confirman los resultados teóricos. De hecho fue así como en el siglo pasado los astrónomos Adams y Le Verrier predijeron la existencia y la posición en el cielo del planeta. Neptuno a partir de las perturbaciones observadas en la órbita de Urano, el planeta más lejano conocido en aquella época. El mismo Le Verrier fue quien descubrió por primera vez una anomalía en la órbita de Mercurio, el planeta más cercano al Sol. En 1859, anunció que el perihelio1 de Mercurio avanza 38 segundos de arco por siglo (Figura 32). Este fenómeno fue confirmado posteriormente por otros astrónomos, estableciéndose un valor de 43 segundos por siglo, que es el aceptado en la actualidad. Le Verrier reconoció que el fenómeno que había descubierto no tenía una explicación simple. Descartó la posibilidad de que se debiera a la influencia de Venus o de algún planeta, aún no descubierto, que se encontrara en órbita entre Sol y Mercurio. Sugirió como posible explicación la presencia de una nube de asteroides en órbita intramercurial, pero ningún astrónomo detectó tales cuerpos. El avance del perihelio de Mercurio fue durante años una espina clavada en la mecánica newtoniana, pues arrojaba la sombra de la duda sobre la perfección de esta teoría. Figura 32. Corrimiento del perihelio de Mercurio.
ACTIVIDAD ¿Einstein presentó ese mismo día la ecuación que hoy se conoce? En realidad es un sistema de diez ecuaciones, pero se pueden escribir de manera unificada, utilizando una sola vez el signo ―=‖, y resumirlas en una sola: Rμν -1/2 gμν R = 8πG Tμν. En la forma original en la que la escribió Einstein en su artículo, la notación (por ejemplo usaba índices latinos en lugar de griegos) y la distribución de los términos era ligeramente distinta, pero aún así, es totalmente equivalente a esta. ¿Y qué significa Rμν -1/2 gμν R = 8πG Tμν en un lenguaje que todos podamos comprender? En lenguaje común, la nueva ecuación de Einstein relaciona dos aspectos: curvatura del espaciotiempo ↔ Masa (energía). Por ponerlo en contexto, anteriormente la teoría de la gravedad de
66
Newton, el mayor éxito de la revolución científica del siglo XVII, aportaba dos leyes que podemos visualizar así: Masa → Gravedad; y Fuerza de gravedad → Movimiento de cuerpos masivos, donde ―→‖ podemos leerlo como ―crea‖. Es decir, una masa –por ejemplo, la Tierra– crea un campo gravitatorio, que a su vez ejerce una fuerza que controla el movimiento de otras masas, como una manzana o la Luna. Con la aportación de Einstein, la teoría de Newton se veía ahora desbancada por otra que la incluía como una aproximación solo válida para masas y velocidades relativamente pequeñas. Pero la teoría de Einstein era mucho más que un refinamiento de la de Newton: cambiaba completamente el concepto de qué es y cómo actúa la gravedad. ¿Qué diferencias hay entre la visión clásica del mundo de Newton y la relativista de Einstein? ―La eliminación de la gravedad como una fuerza ‗real‘ es el elemento más revolucionario de la relatividad general‖ Hay dos esenciales. Por una parte, en la formulación de Einstein desaparece la noción de gravedad, que ha sido sustituida por algo más misterioso y sugerente: la curvatura del espaciotiempo. Y, por otra, unifica en una sola ecuación las dos leyes básicas de la teoría newtoniana. Es decir, ambas ―→‖ quedan aunadas en una sola ―↔‖. Sin duda alguna, la eliminación de la gravedad como una fuerza ‗real‘ y su interpretación como un ‗efecto aparente‘ de la curvatura del espaciotiempo es el elemento más revolucionario de la teoría. De esta manera, Einstein explicaba con una simplicidad pasmosa la observación de Galileo de que, en ausencia de fricción, todos los cuerpos caen al mismo ritmo: los objetos se mueven en un mismo espacio-tiempo que, al estar curvado, produce la impresión de movimiento bajo una fuerza que actúe sobre ellos. ¿Podemos visualizar el concepto de la curvatura del espacio-tiempo? Es habitual representar sus efectos como el movimiento de canicas en una cama elástica deformada por el peso de una masa mayor. Aunque ilustrativa, esta analogía no consigue transmitir el hecho esencial de que la curvatura del espacio-tiempo apenas afecta las direcciones espaciales de la cama elástica, sino que se produce mayoritariamente en la dirección del tiempo. La teoría es demasiado rica y sutil como para dejarse capturar completamente por analogías e imágenes simplificadas. ¿Qué relaciona la relatividad general con los agujeros negros? Todo comienza en aquel mismo año 1915. En una carta fechada el 22 de diciembre, ¡nada menos que desde el frente de guerra ruso!, el astrónomo alemán Karl Schwarzschild comunicaba a un – imaginamos– atónito Einstein que había encontrado una solución extremadamente simple a sus ecuaciones. En concreto, para el caso de la curvatura (o gravedad) que crean los cuerpos masivos como el Sol, la Tierra, las estrellas y de unos objetos que ninguno de los dos vivirían para reconocer: los agujeros negros. Son pozos insondables y absolutos, más fantásticos que la más delirante creación de la imaginación humana. ¿Einstein creyó en los agujeros negros? La predicción de la existencia de los agujeros negros que implicaba la teoría fue tan radical –aún más que la expansión del universo– que ni siquiera Einstein fue capaz de entenderla. Fue uno de sus principales errores. Solo se aceptó después, tras un largo y arduo proceso completado en los años 60, dando así un magnífico ejemplo de que las mejores teorías de la física son a menudo
67
‗más listas‘ que sus propios creadores. Hoy en día sabemos que los agujeros negros son reales. Recientemente en la película Interstellar hemos podido ver una de las mejores representaciones de lo que las ecuaciones de Einstein pueden llegar a contener ¿Por qué los agujeros negros también ‗enfrentan‘ a la relatividad y la física cuántica? ―La próxima vez que su navegador GPS le diga que ha llegado a su destino, agradezca a Einstein sus años de intenso trabajo‖ Imagina que se te cae tu móvil o tableta a un agujero negro. ¿Hay alguna posibilidad, por muy remota que sea, de que recuperemos la información que había en ellos? La teoría de Einstein nos dice que no: cuando algo ha cruzado el horizonte del agujero negro, ya no es posible recibir ninguna señal suya. Sin embargo, la mecánica cuántica nos dice que la información nunca se puede perder: se puede embrollar muchísimo (como sucede si quemamos la tableta), pero en principio siempre ha de ser posible extraerla de nuevo. Esta contradicción entre ambas teorías se conoce como la paradoja de la pérdida de información en los agujeros negros. Esperamos que los esfuerzos en intentar resolver esta cuestión nos ayuden a entender cómo unificar ambas teorías.
CAPITULO 8 WERNER HEISENBERG
PRINCIPIO DE INCERTIDUMBRE 68
Heisenberg había presentado su propio modelo de átomo renunciando a todo intento de describir el átomo como un compuesto de partículas y ondas. Pensó que estaba condenado al fracaso cualquier intento de establecer analogías entre la estructura atómica y la estructura del mundo. Prefirió describir los niveles de energía u órbitas de electrones en términos numéricos puros, sin la menor traza de esquemas. Como quiera que usó un artificio matemático denominado "matriz" para manipular sus números, el sistema se denominó "mecánica de matriz".
Heisenberg recibió el premio Nobel de Física en 1932 por sus aportaciones a la mecánica ondulatoria de Schrödinger, pues esta última pareció tan útil como las abstracciones de Heisenberg, y siempre es difícil, incluso para un físico, desistir de representar gráficamente las propias ideas. Una vez presentada la mecánica matriz (para dar otro salto atrás en el tiempo) Heisenberg pasó a considerar un segundo problema: cómo describir la posición de la partícula. ¿Cuál es el procedimiento indicado para determinar dónde está una partícula? La respuesta obvia es ésta: observarla. Pues bien, imaginemos un microscopio que pueda hacer visible un electrón. Si lo queremos ver debemos proyectar una luz o alguna especie de radiación apropiada sobre él. Pero un electrón es tan pequeño, que bastaría un solo fotón de luz para hacerle cambiar de posición apenas lo tocara. Y en el preciso instante de medir su posición, alteraríamos ésta. Aquí nuestro artificio medidor es por lo menos tan grande como el objeto que medimos; y no existe ningún agente medidor más pequeño que el electrón. En consecuencia, nuestra medición debe surtir, sin duda, un efecto nada desdeñable, un efecto más bien decisivo en el objeto medido. Podríamos detener el electrón y determinar así su posición en un momento dado. Pero si lo hiciéramos, no sabríamos cuál es su movimiento ni su velocidad. Por otra parte, podríamos gobernar su velocidad, pero entonces no podríamos fijar su posición en un momento dado. Heisenberg demostró que no nos será posible idear un método para localizar la posición de la partícula subatómica mientras no estemos dispuestos a aceptar la incertidumbre absoluta respecto a su posición exacta. Es un imposible calcular ambos datos con exactitud al mismo tiempo. Siendo así, no podrá haber una ausencia completa de energía ni en el cero absoluto siquiera. Si la energía alcanzara el punto cero y las partículas quedaran totalmente inmóviles, sólo sería necesario determinar su posición, puesto que la velocidad equivaldría a cero. Por tanto, sería de esperar que subsistiera alguna "energía residual del punto cero", incluso en el cero absoluto, para mantener las partículas en movimiento y también, por así decirlo, nuestra incertidumbre. Esa energía "punto cero" es lo que no se puede eliminar, lo que basta para mantener liquido el helio incluso en el cero absoluto.
69
En 1930, Einstein demostró que el principio de incertidumbre (donde se afirma la imposibilidad de reducir el error en la posición sin incrementar el error en el momento) implicaba también la imposibilidad de reducir el error en la medición de energía sin acrecentar la incertidumbre del tiempo durante el cual se toma la medida. Él creyó poder utilizar esta tesis como trampolín para refutar el principio de incertidumbre, pero Bohr procedió a demostrar que la refutación tentativa de Einstein era errónea
A decir verdad, la versión de la incertidumbre, según Einstein, resultó ser muy útil, pues significó que en un proceso subatómico se podía violar durante breves lapsos la ley sobre conservación de energía siempre y cuando se hiciese volver todo al estado de conservación cuando concluyesen esos períodos: cuanto mayor sea la desviación de la conservación, tanto más breves serán los intervalos de tiempo tolerables. Yukawa aprovechó esta noción para elaborar su teoría de los piones. Incluso posibilitó la elucidación de ciertos fenómenos subatómicos presuponiendo que las partículas nacían de la nada como un reto a la energía de conservación, pero se extinguían antes del tiempo asignado a su detección, por lo cual eran sólo "partículas virtuales". Hacia fines de la década 1940-1950, tres hombres elaboraron la teoría sobre esas partículas virtuales: fueron los físicos norteamericanos Julian Schwinger y Richard Phillips Feynman y el físico japonés Sin-itiro Tomonaga. Para recompensar ese trabajo, se les concedió a los tres el premio Nobel de Física en 1965. A partir de 1976 se han producido especulaciones acerca de que el Universo comenzó con una pequeña pero muy masiva partícula virtual que se expandió con extrema rapidez y que aún sigue existiendo. Según este punto de vista, el Universo se formó de la Nada y podemos preguntarnos acerca de la posibilidad de que haya un número infinito de Universos que se formen (y llegado el momento acaben) en un volumen infinito de Nada. El "principio de incertidumbre" afectó profundamente al pensamiento de los físicos y los filósofos. Ejerció una influencia directa sobre la cuestión filosófica de "casualidad" (es decir, la relación de causa y efecto). Pero sus implicaciones para la ciencia no son las que se suponen por lo común. Se lee a menudo que el principio de incertidumbre anula toda certeza acerca de la naturaleza y muestra que, al fin y al cabo, la ciencia no sabe ni sabrá nunca hacia dónde se dirige, que el conocimiento científico está a merced de los caprichos imprevisibles de un Universo donde el efecto no sigue necesariamente a la causa. Tanto si esta interpretación es válida desde el ángulo visual filosófico como si no, el principio de incertidumbre no ha conmovido la actitud del científico ante la investigación. Si, por ejemplo, no se puede predecir con certeza el comportamiento de las moléculas individuales en un gas, también es cierto que las moléculas suelen acatar ciertas leyes, y su conducta es previsible sobre una base estadística, tal como las compañías aseguradoras calculan con índices de mortalidad fiables, aunque sea imposible predecir cuándo morirá un individuo determinado. Ciertamente, en muchas observaciones científicas, la incertidumbre es tan insignificante comparada con la escala correspondiente de medidas, que se la puede descartar para todos los propósitos prácticos. Uno puede determinar simultáneamente la posición y el movimiento de una estrella, o un planeta, o una bola de billar, e incluso un grano de arena con exactitud absolutamente satisfactoria. Respecto a la incertidumbre entre las propias partículas subatómicas, cabe decir que no representa un obstáculo, sino una verdadera ayuda para los físicos. Se la ha empleado para esclarecer hechos sobre la radiactividad, sobre la absorción de partículas subatómicas por los núcleos, así como otros muchos acontecimientos subatómicos, con mucha más racionabilidad de lo que hubiera sido posible sin el principio de incertidumbre.
70
El principio de incertidumbre significa que el Universo es más complejo de lo que se suponía, pero no irracional. En la búsqueda de una estructura que fuera compatible con la mecánica cuántica Werner Heisenberg descubrió, cuando intentaba hallarla, el «principio de incertidumbre», principio que revelaba una característica distintiva de la mecánica cuántica que no existía en la mecánica newtoniana. Según el principio de incertidumbre, ciertos pares de variables físicas, como la posición y el momento (masa por velocidad) de una partícula, no pueden calcularse simultáneamente con la precisión que se quiera. Así, si repetimos el cálculo de la posición y el momento de una partícula cuántica determinada (por ejemplo, un electrón), nos encontramos con que dichos cálculos fluctúan en torno a valores medíos. Estas fluctuaciones reflejan, pues, nuestra incertidumbre en la determinación de la posición y el momento. Según el principio de incertidumbre, el producto de esas incertidumbres en los cálculos no puede reducirse a cero. Si el electrón obedeciese las leyes de la mecánica newtoniana, las incertidumbres podrían reducirse a cero y la posición y el momento del electrón podrían determinarse con toda precisión. Pero la mecánica cuántica, a diferencia de la newtoniana, sólo nos permite conocer una distribución de la probabilidad de esos cálculos, es decir, es intrínsecamente estadística. En síntesis, se puede describir que el principio de incertidumbre postula que en la mecánica cuántica es imposible conocer exactamente, en un instante dado, los valores de dos variables canónicas conjugadas (posición-impulso, energía-tiempo, …, etc.) de forma que una medición precisa de una de ellas implica una total indeterminación en el valor de la otra. Matemáticamente, se expresa para la posición y el impulso en la siguiente forma: xy h/2 donde x, incertidumbre en la medida de la posición;p, incertidumbre en la medida del impulso; para la energía, E, y el tiempo, t, se tiene E t h/2 ; en ambas relaciones el límite de precisión posible viene dado por la constante de Planck, h. Para ver el gráfico seleccione la opción "Descargar" del menú superior Una consecuencia ineludible del carácter dual de la materia es el principio de incertidumbre o de indeterminación propuesto por el físico alemán Werner Heisenberg en 1927. Este principio se refiere a la exactitud con que podemos hacer mediciones. Consideramos la pregunta: ¿no sería posible para un electrón y observarlo?. Vamos a suponer que disponemos de un aparato que puede " ver " a los electrones. Para " ver " un electrón necesitamos iluminarlo con " luz ". No podemos usar luz ordinaria porque su longitud de ondas es muchisimas veces mayor que el electrón y este no es dispersaría o reflejaría. Tendremos entonces que usar " luz " de una longitud de ondas muy pequeñas, o lo que es lo mismo, fotones de energía muy alta que al ser dispersados por electrones nos proporcionan una imagen de él. Pero he aquí que al hacer incidir un fotón muy energético sobre el electrón estamos comunicados a este un momento lineal muy grande, que lo perturba demasiado y lo hace cambiar del estado en que se encontraba. Nos enfrentamos como la imposibilidad de observar al electrón sin perturbarlo. Podemos reducir la magnitud de la perturbación disminuyendo la energía de fotones, pero entonces la longitud de onda de esto se hace mayor y tendremos paquetes de ondas menos localizadas; esto disminuye la precisión con la que puede conocerse la posición del electrón. Recíprocamente, si queremos aumentar la precisión en la determinación de la posición del electrón, necesitamos más paquetes más <<concentrados>> (menores longitudes de ondas) lo cual implica fotones más energéticos y más perturbados para el electrón. Tenemos así que no podemos determinar simultáneamente la posición y la velocidad (o momento lineal) del electrón con precisión tan buena como queramos. Y no hay forma de vencer esta dificultad que la naturaleza nos presenta. Razonamientos como este
71
llevaron a heisenberg a enunciar su famoso principio <<si es la incertidumbre en la posición de una partícula y es la incertidumbre o error en la determinación de su momento lineal, entonces necesariamente: (1) Si (1) es decir, aumentar la precisión en el conocimiento de la posición aumenta la incertidumbre del momento o de la velocidad. En tres dimensiones: (1) Podemos determinar con precisión y y simultáneamente, es decir, tener(1)y(1) arbitrariamente pequeños al mismo tiempo. Pero dos variables que se refieren al mismo eje. (x, (1)o bien y, (1) , etc.) deben satisfacer las relaciones de incertidumbre. Estas variables se llaman conjugadas. Debido al valor tan pequeño de h la incertidumbre propia de las variables conjugadas no es importante en el mundo macroscópico. Sin embargo, el principio de la incertidumbre nos dice que la imposibilidad de medir con precisión absoluta no es imputable al observador, no se debe a su falta de habilidad para construir aparatos de medición más exactos, si no que esta en la naturaleza de las cosas el no poder ser medidas con exactitud. Estos resultados de la Física Moderna han tenido repercusiones importantes en nuestras concepciones del Universo y en general en nuestra filosofía. Otra forma importante del principio de incertidumbre es la siguiente: (1) que se obtiene de(1)simplemente recordando que (1) y que(1)Sustituyendo: (1) E y t son también variables conjugadas. Esta forma del principio nos dice que no podemos conocer simultáneamente la energía y el tiempo que dura un evento con precisión ARBITRARIA. O bien, que no podemos hacer una medición precisa de la energía en un tiempo ARBITRARIAMENTE corto. Hay otras propiedades de las partículas microscópicas que si pueden determinarse con precisión absoluta. Por ejemplo, el signo de su carga eléctrica. Como ilustración vamos algunos ejemplos. 1.- Para una molécula de hidrógeno la incertidumbre con la que se conoce su posición en un cierto experimento es del orden del diámetro de dicha molécula, aproximadamente (1) m. La incertidumbre en el momento lineal es entonces: (1) Si su velocidad es 2000 m/seg (velocidad que tendría a temperatura ambiente) y sabiendo que la masa es m= Kg, tenemos: (1) La incertidumbre relativa es entonces: (1) O sea que para esta molécula no puede determinarse el momento lineal con mejor exactitud que el 170% de su valor original. En caso de una bala de 50 g. disparada a m/sec y cuya posición se conoce con un error de 1.0 mm: (1)y resulta entonces: (1) Este numero es tan pequeño que prácticamente no existe incertidumbre. Nótese como ha influido la masa de la partícula en le resultado. 2.- Cuando un electrón en un átomo es excitado puede pasar a ocupar un nivel de mayor energía. Pero no pasa mucho tiempo antes que el electrón regrese a su estado inicial (o estado base). El tiempo que tarda el electrón en el estado excitado se llama tiempo de vida de ese estado excitado. Sea (1) sec, el tiempo de vida de un estado excitado. La incertidumbre en la determinación de la energía de ese estado es: (1) Esto se llama <<a anchura de energía>> del estado excitado. NOTA: Las relaciones de incertidumbre a veces se dan en términos de(1), que se define como: (1) por conveniencia en los cálculos. Así, a veces usamos (1)en vez de(1) . La discrepancia por el factor(1)entre una expresión y otra no es fundamental. - Supuesta demostración
72
El hecho de que cada partícula lleva asociada consigo una onda, impone restricciones en la capacidad para determinar al mismo tiempo su posición y su velocidad. Este principio fué enunciado por W. Heisenberg en 1927. Es natural pensar que si una partícula esta localizada, debemos poder asociar con ésta un paquete de ondas mas o menos bien localizado. Un paquete de ondas se construye mediante la superposición de un número infinito de ondas armónicas de diferentes frecuencias. En un instante de tiempo dado, la función de onda asociada con un paquete de ondas esta dado por (1) donde k representa el número de onda (1) y donde la integral representa la suma de ondas con frecuencias (o número de ondas) que varian desde cero a mas infinito ponderadas mediante el factor g(k). El momento de la partícula y el número de ondas estan relacionados ya que (1) de lo cual se deduce que (1) Queda claro que para localizar una partícula es necesario sumar todas las contribuciones de las ondas cuyo número de onda varia entre cero e infinito y por lo tanto el momento (1) tambien varia entre cero e infinito. Es decir que esta completamente indeterminado. Para ilustrar lo anterior hemos indicado en la siguiente figura diferentes tipos de paquetes de onda y su transformada de Fourier que nos dice como estan distribuidas las contribuciones de las ondas con número de ondas k dentro del paquete.
Para ver el gráfico seleccione la opción "Descargar" del menú superior En el primer caso vemos que un paquete de ondas bien localizado en el espacio x, tiene contribuciones practicamente iguales de todas las ondas con número de ondas k. En el segundo caso vemos que si relajamos un poco la posición del paquete de ondas, también es posible definir el número de ondas (o el momento) de la partícula. En el último caso vemos que para definir bien el momento(1)de la partícula, entonces su posición queda completamente indefinida. Es posible determinar el ancho, o la incertidumbre, del paquete de ondas tanto en el espacio normal(1)como en el espacio de momentos(1) El principio de incertidumbre nos dice que hay un límite en la precisión con el cual podemos determinar al mismo tiempo la posición y el momento de una partícula. La expresión matemática que describe el principio de incertidumbre de Heisenberg es (1) Si queremos determinar con total precisión la posición: (1) De la desigualdad para el principio de incertidumbre verificamos entonces que (1) Es decir, que la incertidumbre en el momento es infinita.
FISICA CUANTICA La Física Cuántica es la ciencia que estudia los fenómenos desde el punto de vista dela totalidad de las posibilidades. Contempla aquello que no se ve y explica los fenómenos desde lo no visible. Contempla lo no medible, las tendencias, como por ejemplo la no localidad y el indeterminismo de las partículas.
73
En ese campo de lo no medible estamos nosotros los seres humanos. El átomo es una realidad científica, que dio paso a la Teoría de la Relatividad y luego ésta, a la Física cuantica. Los espacios entre las partículas de los átomos se los considera "vacío". Es decir, la materia de la que se componen los átomos es casi inexistente. Dentro de los átomos y las moléculas las partículas que lo componen ocupan un lugar insignificante. El resto es vacío, "el valioso vacío del átomo". Entonces si la materia está formada por átomos y en éstos la porción particular es menor que la porción de vacío... ¿por que no atravesamos la materia? El vacío es un concepto, una idea. El vacío en sí no existe. La materia no es estática, tampoco es predecible. El átomo no es una realidad terminada y permanente; es mucho más maleable de lo que el ser humano cree. El átomo no es una cosa. Son tendencias. En lugar de pensar en los átomos como cosas lo tenemos que pensar como posibilidades. "El vacío" es meramente conceptual y representa todas las posibilidades. Los seres humanos somos parte de esa cuántica. Pertenecemos al universo. Estamos hechos de polvo de estrellas. De esos mismos átomos con sus posibilidades. El pensamiento que nosotros emitimos vuela como moléculas que van al aire. Una de ellas se hace realidad creada por nosotros mismos. La materia no es estática. Es predecible. Dentro de los átomos y las moléculas la materia ocupa un lugar insignificante. Hay que pensar en el átomo no como una realidad determinada sino como una tendencia. La conciencia está envuelta, el observador no puede ser ignorado. La realidad es un número "n" de ondas. El Universo esta todo ocupado por millones de energías. La Energía es una vibración que se sucede en el espacio y en el tiempo. Todos somos energía y estamos conectados. Cada uno somos parte del otro. La energía es movimiento. Puede estancarse pero nunca saturarse. La vida es un continuo reciclar de la materia y la energía. RADIOFRECUENCIA La radiofrecuencia es un paquete de información inteligente que viene del Universo. La telecomunicación, a través de la cual interactuamos con el universo, siendo emisores y receptores de datos. El universo proporciona permanente información inteligente ordenadora. El poder utilizarla coherentemente depende de nosotros. Funciona como un gran ordenador. Estos paquetes de datos contienen Ion Calcio que nos llega a través de los rayos gamma, y que podemos utilizar para cambiar lo que no nos gusta o nos hace daño. Nos ponemos en sintonía con ese ordenador en la meditación o en relajación. No estamos hablando en los términos de la metafísica, pues esto es ciencia, sino de un estado completo de relajación en la que no se siente nada. El Ion calcio es un lenguaje, celular. Es un mensajero intracelular, por numerosas hormonas y neurotransmisores para activar múltiples funciones celulares desde la contracción a la secreción de genes. Nuestro organismo esta formado por órganos, formados por tejidos que se forman a partir
74
de las células entre las cuales debe establecerse una comunicación y el Ion calcio es el mejor súper neuro conductor conocido, es el negociador, el que está presente en estas transacciones entre lo que pasa en nuestro organismo y el paquete de datos inteligentes. Por eso lo importantes es que se hace con esta información, en relación con nuestros pensamientos, acciones. Los mensajeros para establecer comunicación utilizan las hormonas de las células liberadas por ciertos tejidos y los neurotransmisores liberados por las neuronas en las inmediaciones de otras células. El Ion calcio es el mas grande transmisor que nos conecta con la matriz, conciencia cósmica, energía primigenia La radiofrecuencia entonces trae información en forma de iones calcio. El Ion calcio se encuentra en todas las biomoléculas, en el ADN. Hay virus en la mente y virus en el cuerpo. Los virus atacan a la mente y luego la mente propone los pensamientos que crean las realidades. ¿Cómo logro bajar el nivel de pensamientos negativos que creen realidades acordes? 1 - No enfocarnos en las noticias para que ellas no se transformen en nuestra realidad. 2 - Enfocarnos solamente en nuestra salud y en nuestro bienestar para que ese pensamiento enfocado cree la realidad.
ACTIVIDAD
Describir con tus propias palabras el principio de incertidumbre. _______________________________________________ Que es física cuántica. _______________________________________________ Como se compone la radiofrecuencia. _______________________________________________
CAPITULO 9 MODELOS COSMOLÓGICOS CONTEMPORÁNEOS El universo está en expansión y que se compone o esta bañado por un fondo de radiación a una temperatura de alrededor de 2.7 grados Kelvin ´o -270 grados Centígrados. . Durante la ´época dominada por la radiación había no solamente el mismo número de fotones por partícula nuclear que existe ahora, sino que la energía de los fotones individuales era lo suficientemente alta para que la mayoría de la energía del Universo estuviera en la forma de radiación y no en forma de masa
75
El Universo contendría un gran número de partículas conocidas como mesones Pi (π), que tienen una masa alrededor de un séptimo de una partícula nuclear1. Al contrario de los electrones, positrones, muones y neutrinos, los mesones π interactúan fuertemente entre ellos mismos y con las partículas nucleares, de hecho, el continuo intercambio de mesones π entre partículas nucleares es responsable de la mayoría de la fuerza atractiva que mantiene unida los núcleos atómicos
La temperatura del Universo es 100, 000, 000,000 grados Kelvin 1×10 11 A pesar de su rápida expansión, el universo está en un estado cercano a un perfecto equilibrio térmico
Las partículas abundantes son aquellas cuya temperatura límite está por debajo de los 100,000 millones de grados Kelvin; ´estas partículas son el electrón y su antipartícula el positrón, y por supuesto las partículas sin masa como los fotones, los neutrinos, y los antineutrinos. El Universo esta tan denso que aún los neutrinos, los cuales pueden viajar por años a través de capas de plomo sin ser dispersados, están en equilibrio térmico con los electrones, los positrones y fotones a través de rápidas colisiones con ellos y con ellos mismos.
Existen un número pequeño de partículas nucleares durante el tiempo del primer cuadro, cerca de un protón ´o neutrón por cada 1,000 millones de fotones ´o electrones ´o neutrinos. Para predecir las abundancias de los elementos químicos formados durante las fases iniciales del Universo, necesitamos conocer también las proporciones relativas de protones y neutrones.
Por lo tanto, la colisión de neutrones ´o protones con un número más abundante de electrones, positrones, y demás, producirán transiciones rápidas de protones a neutrones y viceversa. Parece natural ahora preguntarse qué tan grande era el Universo en esas ´épocas iniciales
El Universo bien podría ser infinito en estos momentos en cuyo caso era también infinito al tiempo del primer cuadro y siempre ser ‗a infinito. Por otro lado, es posible que el Universo tenga actualmente una circunferencia finita, algunas veces estimada como 125,000 millones de años luz. Dado que la temperatura del Universo disminuye inversamente proporcional a su dimensión, la circunferencia del Universo en la ´época del primer cuadro era menor que la circunferencia en la ´época presente por un factor dado por el cociente de las temperaturas 100,000 millones grados Kelvin entonces, a
76
3 grados Kelvin ahora. Esto daría una circunferencia en ´esa ´época de tan solo 4 años luz el contenido del Universo sigue siendo dominado por electrones, positrones, neutrinos, antineutrinos y fotones, todos en equilibrio térmico y todos muy por arriba de su temperatura limite. Por lo tanto la densidad de energía ha disminuido simplemente como la cuarta potencia de la temperatura a casi 30 millones de veces la densidad de energía contenida en la masa en reposo de agua común y corriente.
El número tan pequeño de partículas nucleares no está todavía unido a ningún núcleo, pero con el descenso de la temperatura es significativamente más fácil para los pesados neutrones convertirse en protones (más ligeros) en vez de lo contrario. El balance de partículas nucleares ha cambiado significativamente a 38 por ciento neutrones y 62 por ciento protones.
Alrededor de esta época las decrecientes densidad y temperatura han incrementado el tiempo medio promedio de los neutrinos y antineutrinos tanto que empiezan a comportarse como partículas libres que ya no están en equilibrio térmico con los electrones, positrones ni fotones. Desde este momento en adelante dejaran de jugar un papel importante en nuestro relato excepto que su energía continuar ‗a siendo parte de la fuente del campo gravitacional del Universo. No mucho cambia cuando los neutrinos se salen de equilibrio térmico. No es muy importante determinar el preciso instante del desacoplamiento de los neutrinos, debido a que depende de los detalles de la teoría de las interacciones de los neutrinos.
El tiempo característico de expansión del Universo se ha por lo tanto incrementado a cerca de dos segundos. La temperatura es ahora solamente dos veces la temperatura límite de los electrones y positrones de tal forma que justo empiezan a aniquilarse más rápidamente que la tasa de formación a costa de la radiación.
Es todavía mucho muy caliente para que los neutrones y protones se unan en un núcleo por un tiempo apreciable. La decreciente temperatura ha permitido que el balance de neutrones - protones sea ahora de 24 por ciento neutrones y 76 por ciento protones. Con los electrones y positrones rápidamente desapareciendo, la densidad de energía del Universo es algo menos de lo que sería si solo estuviese disminuyendo como la cuarta potencia de la temperatura.
Ahora, el núcleo de helio ordinario es un núcleo fuertemente unido, de tal forma que, como mencione anteriormente, puede mantenerse unido a la temperatura del tercer cuadro. Sin embargo, tritio y helio tres están más débilmente unidos y especialmente el deuterio esta, se podría decir, muy ligeramente unido. A la temperatura del cuarto cuadro de 3,000 millones de grados Kelvin, los núcleos de deuterio son destruidos tan pronto como son formados de tal forma que núcleos más pesados no tienen ninguna oportunidad de ser formados. Los neutrones siguen siendo convertidos en protones, con una rapidez menor que antes; el balance ahora es 17 por ciento neutrones y 83 por ciento protones.
77
El material que resulto de los procesos en los primeros tres minutos, material del que necesariamente se formaron inicialmente las estrellas, consistió entre un 22 y 28 por ciento de helio y el resto de hidrogeno. El primer cálculo de la producción de helio cósmico que utilizo la medición de la temperatura de la radiación fue realizada por P.J.E. Puebles en Princeton en 1965 justo después del descubrimiento de la radiación de microondas de fondo por Pensáis y Wilson.
Las estimaciones de la abundancia de helio en el Universo están basadas en comparaciones de cálculos detallados de evolución estelar en conjunto con análisis estadísticos de propiedades estelares observadas más la observación directa de las líneas de helio en los espectros de estrellas calientes y de material interestelar.
Durante los primeros años de la década de los 1960‘s algunos astrónomos habían notado que la abundancia de helio no es solamente grande, sino que varía de región en región casi tanto como lo hace la abundancia de los elementos pesados. Esto es justo lo que uno esperaría si los elementos pesados fueran producidos en estrellas, pero el helio era producido en las ´épocas iniciales del Universo, antes de que las estrellas empezaran a cocinarse. Aún existe una gran incertidumbre y variación en las estimaciones de abundancias nucleares, pero la evidencia para una abundancia primordial de 20 a 30 por ciento de helio es lo suficientemente fuerte para continuar dando una gran motivación a los creyentes del modelo estándar.
A pesar de todo hay una gran incertidumbre que flota como una nube obscura sobre el modelo estándar. La suposición básica de todos los cálculos descritos en ´este capítulo es el del Principio Cosmológico, que supone que el Universo es homogéneo e isotrópico.
Sabemos de observación directa que el fondo cósmico de radiación de microondas aparece muy isotrópico a nuestro alrededor, y de esto inferimos que el Universo ha sido isotrópico y altamente homogéneo desde que la radiación salió de equilibrio con la materia a una temperatura de cerca de 3,000 grados Kelvin. Sin embargo, no tenemos ninguna evidencia de que el Principio Cosmológico era válido en las ´épocas del Universo temprano.
Según la visión actual de la ciencia, creemos que el Universo tuvo su origen en un evento conocido como el Big Bang (BB) hace unos 15 mil millones de años. Esta teoría científica, se basa en muchas observaciones empíricas que se fueron acumulando a lo largo de casi todo el siglo XX y estos estudios y observaciones siguen realizándose actualmente. Uno de los primeros indicios de este evento (el Big Bang) provino del descubrimiento realizado por E. Hubble, en la década de 1920, que el Universo se está expandiendo y las galaxias se alejan entre sí.
78
En la concepción de Aristoteles1, los cuatro elementos constituyentes de todos los cuerpos materiales eran: el fuego, el aire, el agua, y la tierra. Cada uno de ellos tenían propiedades de movimientos intrínsecas a su naturaleza. Así, liberado a si mismo un trozo de tierra tenía un movimiento mientras que el fuego, tenia un movimiento "natural" vertical y ascendente. De esta forma, la tierra era naturalmente un elemento pesado (grave) y el fuego era naturalmente liviano. El aire y al agua ocupaban una posición intermedia entre estos extremos
Para Galileo, el estado natural de un cuerpo es tanto el reposo como el movimiento en línea recta con velocidad constante. De modo que en este esquema no hay necesidad de una divinidad que "empuje" al mundo, el mismo puede hacerlo por su propia inercia. También Galileo, usando un razonamiento que aún hoy nos maravilla por su contundencia y brillantez, sostenía que el tiempo de caída de todos los cuerpos desde una dada altura es el mismo, siempre que el roce del aire sea despreciable o equivalentemente la caída se produzca en el vacío. Más precisamente, lo que sostiene
Para los observadores sobre la Tierra parece que ésta se mantiene quieta y todo lo demás se mueve a su alrededor. Así, al tratar de imaginar cómo funciona el Universo, pareció razonable en épocas antiguas, iniciar su búsqueda partiendo de estas verdades aparentes. Los antiguos pensadores griegos, en especial Aristóteles, establecieron un patrón que duró 2000 años aproximadamente: una gran Tierra estacionaria en el centro del Universo, y puestos alrededor de ésta el Sol, la Luna, y pequeñas estrellas ordenadas en una esfera perfecta, con todos estos cuerpos orbitando en círculos perfectos a velocidades constantes. Poco después del comienzo de la Era cristiana, este concepto básico fue transformado en un modelo matemático poderoso por un astrónomo greco-egipcio Ptolomeo (Claudius Ptolemaeus).
Su modelo de movimientos circulares perfectos sirvió bien para predecir las posiciones del Sol, la Luna y las estrellas. También explicó algunos de los movimientos en el espacio que parecían claramente irregulares. Unas pocas "estrellas errantes" (los planetas) no parecían girar perfectamente alrededor de la Tierra, sino que más bien cambiaban su velocidad, y a veces iban en reversa, siguiendo trayectorias de zigzag y de patrones desiguales. Este comportamiento fue explicado en el modelo de Ptolomeo añadiendo más círculos, los cuales giraban sobre los círculos principales.
Poco después del descubrimiento de América, un astrónomo polaco llamado Nicolás Copérnico, contemporáneo de Martín Lutero y Leonardo da Vinci, propuso un modelo diferente del Universo. Descartando la premisa de una Tierra estacionaria, demostró que si ésta y todos los planetas giraran alrededor del Sol, el movimiento aparentemente errático de los planetas podía explicarse en una forma
79
intelectualmente más satisfactoria. Pero el modelo de Copérnico, siguiendo la tradición aristotélica, todavía usaba movimientos circulares perfectos y era casi tan complicado como el viejo modelo de la Tierra en el centro. Además, su modelo violaba las nociones de sentido común y de la física prevaleciente acerca del mundo. Ese modelo requería que la Tierra, aparentemente inmóvil, girara por completo sobre su eje una vez al día y que el Universo fuera mucho más grande de lo que se había imaginado y lo peor de todo era que la Tierra se convirtiera en un lugar común perdiendo su posición en el centro del Universo. Más tarde, se pensó que una Tierra que orbitara y girara era incompatible con algunos pasajes bíblicos.
Las múltiples contribuciones de Galileo, quien fue coetáneo de Shakespeare y Rubens, fueron de gran importancia en el desarrollo de la física y la astronomía. Como astrónomo, construyó, utilizó y perfeccionó el telescopio recién inventado por fabricantes holandeses para estudiar el Sol, la Luna, los planetas y las estrellas, y realizó un sinnúmero de descubrimientos que apoyaban la idea básica de Copérnico del movimiento planetario. Posiblemente, la idea de usar el telescopio para estudiar los cielos, sea uno de los avances más significativo de la ciencia.
Uno de los hallazgos más significativos realizado por Galileo fue descubrir cuatro lunas que giraban alrededor del planeta Júpiter (hoy conocemos una docena de ellas), demostrando que la Tierra ( o el Sol ) no eran los únicos centros de movimiento celeste. Con el telescopio, también descubrió los inexplicables fenómenos de los cráteres y las montañas en la Luna, las manchas en el Sol, las fases de Venus parecidas a las lunares, y un gran número de estrellas invisibles para un ojo normal. Todo esto sugería que muchas de las características de la Tierra y la Luna no eran únicas, sino más bien fenómenos comunes al Universo. Además, algo que fue muy importante, y que se vuelve evidente para todo el que mira el cielo con el telescopio, es que el espacio tiene profundidad.
Otra gran contribución de Galileo a la revolución cosmológica fue divulgar sus descubrimientos, en una forma y lenguaje accesibles a todas las personas educadas de su época. También refutó muchos argumentos populares en contra de una Tierra que estuviera en órbita y girara sobre su eje, y mostró inconsistencias en la explicación del movimiento de Aristóteles, en particular en lo que respecta a la caída de los cuerpos y fue el pionero en desarrollar el principio de inercia. Pero le correspondió a Isaac Newton, un científico inglés, unir todos esos hilos, e ir más allá para crear la idea del nuevo Universo. Una cita conocida de Newton es aquel dicho: "Si pude ver más lejos, fue porque estaba montado sobre el hombro de un gigante". Seguramente el gigante al que se refería Newton era Galileo, que a la sazón era una persona de muy baja estatura, pero claramente con la visión de un coloso. En su libro "Principios Matemáticos de la Filosofía Natural", publicado a fines del siglo XVII e indudablemente una de las obras más influyentes de todos los tiempos, Newton presentó un modelo matemático impecable del mundo, en el que reunió el conocimiento del movimiento de los objetos en la Tierra y el de los movimientos distantes de los cuerpos celestes.
Newton fue capaz de dar explicaciones rigurosas al movimiento de la Tierra en el espacio y dar una explicación perfecta a las leyes de Kepler, que describían el funcionamiento del sistema solar. En otras palabras, dio una explicación al funcionamiento de casi todo el Universo conocido hasta entonces. Con este simple conjunto de ideas pudo no solo explicar las órbitas observadas de los planetas y sus satélites (lunas)
80
sino también el movimiento de los cometas, el movimiento irregular de la Luna, el movimiento de los objetos que caen sobre la superficie terrestre, el peso los cuerpos, las mareas oceánicas. Newton hizo a la Tierra parte de un Universo entendible, un Universo elegante en su simplicidad y majestuoso en su arquitectura, un Universo que marchaba por sí mismo según la acción de las fuerzas entre sus partes y de acuerdo con leyes bien definidas. La mecánica newtoniana explicaba con tanta precisión las órbitas de los planetas, que cuando se observaron algunas irregularidades anómalas en la órbita de Urano, LeVerrier imaginó que tal vez algún planeta aun no descubierto, podría ser el responsable de esta irregularidades. De esta manera, usando la mecánica newtoniana, pudo predecir la existencia y la posición del planeta Neptuno, cuya existencia fue descubierta de este modo.
La ciencia de Newton fue tan exitosa que su influencia se expandió más allá de la astronomía y la física. Los principios físicos y la forma matemática de Newton de derivar consecuencias a partir de un conjunto de leyes simples, se convirtieron en el modelo para todas las demás ciencias. La creencia creció a tal grado que se llegó a pensar que toda la naturaleza podía ser explicada en términos físicos y matemáticos. Consecuentemente, la naturaleza podía funcionar por sí misma, sin la ayuda o atención de los dioses. Paradójicamente, Newton veía a la física como una demostración de cómo la mano de Dios actuaba sobre el Universo.
A pesar de su éxito, la concepción newtoniana del mundo finalmente sufrió algunas revisiones fundamentales a comienzos del siglo XX. En la tercera década de su vida, 1906, Albert Einstein (1979-1955) publicó una serie de trabajos teóricos que hicieron contribuciones revolucionarias al entendimiento de la naturaleza. Uno de éstos fue la teoría especial de la relatividad, en la que Einstein consideró que el tiempo y el espacio eran dimensiones estrechamente relacionadas y dependientes del observador. Newton, por el contrario, sostenía que tanto el espacio como el tiempo tenían un carácter absoluto e independiente del observador. Para Newton el tiempo era una cualidad externa a los objetos cuya marcha inexorable era absoluta e igual para todos. De igual manera, el espacio era algo así como un escenario donde se desarrollaba el movimiento y el devenir de la materia y el Universo, pero siendo el espacio mismo independiente de dicho Universo y su devenir.
Casi una década más tarde, Einstein publicó lo que se considera el corolario de la teoría especial y uno de los logros más profundos de la mente humana en toda la historia: la teoría de la relatividad general. Ésta tiene que ver con la relación entre la gravedad, el tiempo y el espacio, en la cual la fuerza gravitacional de Newton se interpreta como una distorsión en la geometría del espacio y el tiempo. La teoría de la relatividad ha sido probada una y otra vez por pronósticos basados en ésta, y nunca han fallado hasta ahora, ni existe una teoría más poderosa en la arquitectura del Universo que la reemplace.
Pero muchos físicos están buscando formas de descubrir una teoría aún más completa, una teoría que vincule la relatividad general con la teoría cuántica del comportamiento atómico.
Mediante técnicas de datación radiactiva, usando isótopos de uranio y otros elementos radiactivos, ha sido posible estimar la edad de la Tierra en unos 4.650 millones de años. Asimismo, muchos meteoritos
81
datados, tienen edades similares a la de la Tierra. Se cree que la Tierra y el Sistema Solar se formaron en la misma época.
En el caso de la Tierra, se presume que después de formarse a partir del polvo cósmico y de gases mediante la atracción gravitacional, la Tierra habría sido casi homogénea y relativamente fría. Pero debido en parte a la compresión gravitacional y a la energía producida por los elementos radiactivos presentes en la Tierra, se calentó. Esto provocó que gran parte de la Tierra se fundiera. Evidencia de este proceso es la estatificación de densidades que se observa en la Tierra. Los elementos pesados, hierro y níquel, se fueron hacia el centro formando su núcleo y los silicatos más ligeros se fueron a la superficie, para formar la corteza y el manto o litosfera. La erupción volcánica generó la salida de gases y vapores, también se especula que la llegada de cometas (muchos de los cuales está compuestos de gases volátiles congelados) generaron gases, algunos de los cuales fueron capturados por la Tierra para formar la atmósfera. Asimismo se cree que los vapores de agua al condensarse formaron los océanos. En realidad, aún en el presente el interior de la Tierra está caliente; la fuente de este calor es la radiactividad natural. La teoría de las placas tectónicas fue aceptada finalmente por la evidencia observacional acumulada y porque explicó todo lo que antes había sido oscuro y controversial. Fenómenos tan diversos, y al parecer sin relación, como terremotos, volcanes, la formación de sistemas montañosos y océanos, la contracción del Pacífico y la ampliación del Atlántico, e inclusive algunos cambios mayores en el clima de la Tierra, pueden verse ahora como consecuencia del movimiento de las placas de la corteza terrestre.
Este proceso de transmutación fue un descubrimiento crucial, pues reveló que los átomos no son en realidad las unidades básicas de la materia. Más bien, cada uno de ellos consiste en tres partículas distintas: un núcleo pequeño y muy masivo formado de protones y neutrones rodeado por ligeros electrones, que orbitan alrededor del núcleo, como si fuese un sistema solar en miniatura. La radiactividad cambia el núcleo, en tanto que las reacciones químicas sólo afectan a los electrones del exterior.
La ley de Wien afirma que el máximo de la intensidad de la radiación térmica emitida por un cuerpo negro ideal se desplaza, con el aumento de la temperatura, hacia las frecuencias más grandes, o equivalentemente a regiones de longitudes de onda más cortas. Esta ley nos permite entender por qué un cuerpo al calentarlo, primero se pone rojizo y a medida que se calienta más se va volviendo más azul, pasando por un color blanco incandescente. Esta propiedad de los cuerpos calientes, es lo que posibilita la visión de mamíferos en la oscuridad. Dado que los mamíferos mantenemos una temperatura muy estable, de 37ºC (= 310 K), nuestro espectro de radiación tiene un máximo en el infrarrojo. Si usamos un visor sensible a esta radiación podremos ver la silueta de un mamífero en la oscuridad. Estas propiedades de la radiación de un cuerpo caliente también se aplican en termografía, que es una técnica que permite tomar una foto que muestra la distribución de las temperaturas de una persona.
La ley de Wien se utiliza también para determinar las temperaturas de las estrellas, a partir de los análisis de su radiación. En general, estudiando el espectro de emisión de un cuerpo podemos determinar su temperatura. Una de las teorías cosmológicas más antiguas es la del Universo estático e infinito. Una objeción importante a un Universo eterno es la existencia de radioactividad natural. La radioactividad natural es la causa del calentamiento de la Tierra y la fuente de energía de la actividad volcánica y movimientos geológicos terrestres. Su existencia se manifiesta, también, en la presencia de Helio en el interior de la Tierra. Este gas
82
se escapa de la atmósfera ya que su velocidad, debida a la agitación térmica, es mayor que la velocidad de escape de la Tierra. El origen del Helio en el interior de la Tierra es consecuencia del decaimiento alfa (núcleos de He) de los núcleos pertenecientes a las cadenas radiactivas naturales (Uranio y Torio). Cada elemento radiactivo tiene un tiempo característico, llamado su vida media (T1/2).
Otra objeción a la teoría del Universo estático e infinito es la existencia de la noche, objeción conocida como paradoja de Olber. Si el Universo fuese estático (no se expande ni colapsa) también debería ser infinito. De este modo la fuerza gravitatoria sobre cada región del Universo sería en promedio nula y esto prevendría el colapso gravitatorio. También se pensaba que el Universo era eterno, o sea que siempre habría existido como ahora, incluyendo los elementos que lo forman. Actualmente sabemos que estas teorías tienen varías objeciones serias. Si el Universo fuese eterno (siempre existió) e infinito, todos las visuales trazadas desde la Tierra eventualmente encontrarían una estrella, de modo que el cielo de noche debería ser tan brillante como la superficie del Sol
El Principio Cosmológico
Este principio se basa en la idea de que en todo el Universo valen las misma leyes de la física y además que el mismo es isótropo (igual en todas las direcciones) y homogéneo (igual en todas partes) en promedio para grandes escalas de distancia. El ―Principio Cosmológico‖ fue formulado por Einstein alrededor de 1915, cuando todavía los astrónomos consideraban al sistema de estrellas de la Vía Láctea como todo el Universo conocido. En ese tiempo, esta parecía una hipótesis demasiado atrevida. Sin embargo, la idea de Einstein tuvo una rápida aceptación.
83
La teoría del Big Bang, que en Inglés quiere decir la gran explosión, es una de las teorías científicas más populares y actualmente goza de un alto grado de aceptación. Ella se basa fundamentalmente en acontecimientos físicos como la expansión del Universo, las cantidades relativas de hidrógeno y helio, y la existencia de la radiación térmica cosmológica (radiación de fondo).
La teoría del Big Bang tiene actualmente el rango de un paradigma de la cosmología. Sin embargo no todos los científicos comparten sus postulados. Algunos científicos consideran que el Universo no tiene principio ni fin. Para ellos el Universo no comenzó con el Big Bang, y en esencia el Universo siempre fue igual a como lo observamos en la actualidad. Esta hipótesis se conoce como ―teoría del estado estacionario‖. Tuvo su origen a comienzos del siglo XX e incorpora en ella la expansión de Universo y la homogeneidad del mismo. Los representantes más destacados de esta teoría son los astrónomos británicos Herman Bondi, Thomas Gold y Fred Hoyle, que propusieron este modelo en los años posteriores a la segunda guerra mundial. Según esta hipótesis el Universo se expande por siempre y la materia se crea continuamente de modo que en promedio la densidad del Universo permanece constante.
Los partidarios del modelo del Big Bang salieron entonces a buscar esas irregularidades, que tenían que existir en alguna parte. Se hicieron numerosas observaciones y se montaron sofisticados detectores en globos y satélites para analizar más detalladamente la radiación de fondo. En 1992 cuando se comenzaron a analizar los datos obtenidos por el observatorio orbital COBE (Cosmic Background Explorer) un satélite de la NASA, se encontraron irregularidades en la temperatura de la radiación de fondo (CMB), consistentes con lo que se esperaba según el modelo del Big Bang
Alrededor de los años 30, el astrónomo Fritz Zwicky estaba estudiando el movimiento de cúmulos masivos, de galaxias distantes, en concreto el cúmulo Coma y el cúmulo Virgo. Zwicky calculó la masa de cada galaxia en el cúmulo basándose en su luminosidad. Luego trató de estimar la masa basándose en la que sería necesario tener en el cúmulo para contrarrestar la fuerza centrífuga que las tendía a apartar y encontró que la masa era 400 veces mayor que la masa estimada basándose en el primer cálculo. Esta anomalía desde entonces permanece sin ser resuelta.
84
ACTIVIDAD
1. Cual fue el material que resulto en los primeros tres minutos: a. b. c. d.
2.
Hidrogeno –Oxigeno Nitrógeno – Oxigeno Carbono – Helio Hidrogeno – Helio
Para Galileo los 4 elementos constituyentes eran fuego, aire, agua y tierra. F_______
V______
3. Galileo contribuyó a la revolución cosmológica divulgando sus descubrimientos, en una forma y lenguaje accesibles a todas las personas educadas de su época. También refutó muchos argumentos populares en contra de una Tierra que estuviera en órbita y girara sobre su eje, y mostró inconsistencias en la explicación del movimiento de Aristóteles, en particular en lo que respecta a la caída de los cuerpos y fue el pionero en desarrollar el _______________________. 4. Quien estudio el movimiento de los cúmulos masivos, de galaxias distantes, en concreto el cúmulo Coma y el cúmulo Virgo? _______________________________________
85
CAPITULO 10
86
La gravedad, las fuerzas del universo y los modelos cosmológicos
Todas estas interacciones entre átomos se producen a distancia, es decir, las partículas no necesitan entrar en contacto entre sí para sentir la fuerza debida a la presencia de otra partícula o partículas. Las fuerzas fundamentales actúan entre partículas separadas en el espacio. Este concepto se denomina acción a distancia. Newton consideraba la acción a distancia como un fallo de su teoría de la gravitación. La fuerza gravitatoria es la más débil de las cuatro interacciones básicas que tienen lugar entre las partículas elementales. Es despreciablemente pequeña en las interacciones de las partículas elementales. También es difícil de observar la fuerza gravitatoria entre objetos de la vida diaria, incluso cuando sus masas sean del orden de miles de kilogramos. Sin embargo, la gravedad es de capital importancia cuando consideramos las interacciones entre cuerpos muy grandes, tales como planetas, satélites y estrellas, como ya se ha comentado. La fuerza gravitatoria juega un papel importante en la evolución de las estrellas y en el comportamiento de las galaxias. En cierto sentido la gravedad es la que mantiene unido todo el universo La otra clase cotidiana de fuerzas, la de las interacciones electromagnéticas, incluye las fuerzas eléctricas y magnéticas. La fuerza ejercida por una carga sobre otra fue estudiada por Charles Coulomb mediante una balanza de torsión de su propia invención. La fuerza ejercida por una carga puntual sobre otra está dirigida a lo largo de la línea que las une. La fuerza varía inversamente con el cuadrado de la distancia que separa las cargas y es proporcional al producto de las cargas. Es repulsiva si las cargas tienen el mismo signo y atractiva si las cargas tienen signos opuestos.
87
Las fuerzas gravitatoria y eléctrica son de largo alcance, su influencia se extiende de un lado del universo al otro. Estas dos interacciones difieren enormemente en intensidad. La repulsión eléctrica entre dos protones a cierta distancia es 1035 veces más fuerte que su atracción gravitacional. Las fuerzas gravitacionales no desempeñan un papel apreciable en la estructura atómica o molecular, pero en cuerpos de tamaño astronómico las cargas positivas y negativas suelen estar presentes en cantidades casi iguales, y las interacciones eléctricas resultantes casi se cancelan. Por ello, las interacciones gravitacionales son la influencia dominante en el movimiento de los planetas y la estructura interna de las estrellas. La fuerza gravitatoria entre dos partículas elementales es tan pequeña frente a la fuerza electrostática que puede despreciarse al describir la interacción. Por lo tanto, sólo la fuerza electrostática es importante en la descripción de los sistemas atómicos. Cuando las cargas eléctricas están en movimiento, a las fuerzas electrostáticas se superponen otras, las fuerzas magnéticas, que dependen de las velocidades de las partículas y que generalmente no actúan según la recta que une las partículas interactuantes, por ser fuerzas deflectoras; esto es, que tienen siempre una dirección normal a la velocidad de la partícula cargada sobre la que actúan. La fuerza nuclear actúa entre dos protones (p-p), entre dos neutrones (n-n) y entre un protón y un neutrón (p-n), pero sólo si las partículas están muy próximas. Esto es, la fuerza nuclear es de corto alcance. Hoy sabemos que las fuerzas p-n y n-n son esencialmente idénticas y que, aparte la porción coulombiana, la fuerza p-p es la misma que la n-n o la p-n. Puesto que los protones y los neutrones tienen muchas propiedades comunes estas partículas reciben el nombre genérico de nucleones. Las fuerzas que actúan entre las moléculas reciben el nombre de fuerzas moleculares. Estas fuerzas no tienen carácter fundamental, en el sentido en que lo son las cuatro fuerzas básicas estudiadas anteriormente, ya que son
88
manifestaciones complejas de la interacción electromagnética básica entre los electrones y núcleos de una molécula con los de otra. Las fuerzas moleculares son atractivas a gran distancia y repulsivas cuando las moléculas están muy próximas. Para una cierta distancia r0 la fuerza molecular es nula, lo que significa que todas las complejas interacciones electromagnéticas se compensan, de modo que a esa distancia el sistema formado por las dos moléculas se encuentra en equilibrio. Las fuerzas de rozamiento están clasificadas entre aquellas fuerzas pasivas que tratan de impedir o retardar el movimiento, independientemente de la dirección en que dicho movimiento tenga lugar o tienda a tenerlo. Si lanzamos un bloque, de masa m, a lo largo del tablero horizontal de una mesa, con una velocidad inicial v0, la experiencia nos enseña que su velocidad no permanece constante, sino que disminuye gradualmente hasta que el bloque se detiene; esto es, el bloque experimenta una cierta aceleración a en sentido opuesto al de su movimiento. Si en un referencial inercial observamos que un cuerpo está acelerado debemos pensar que sobre él está actuando una fuerza resultante en la misma dirección y sentido que la aceleración. Cuando intentamos determinar la fuerza resultante que actúa sobre una partícula hemos de poner cuidado en incluir no solamente las fuerzas activas, tales como el peso, las fuerzas eléctricas, las fuerzas elásticas ejercidas por muelles, las tensiones en cuerdas sino también las llamadas fuerzas de reacción vincular o de ligadura. Todas las fuerzas que hemos considerado hasta ahora son fuerzas reales, en el sentido de que podemos identificar a sus agentes; otros cuerpos responsables de cada una de ellas. Conocidas las fuerzas que actúan sobre la partícula, la segunda ley del movimiento nos permite calcular la aceleración que ésta adquiere. Pero, evidentemente, necesitamos un referencial con respecto al cual mediremos la aceleración de la partícula y, además, es necesario que dicho referencial sea inercial.
89
ACTIVIDAD 1. Encuentra las fuerzas mencionadas anteriormente. F
G R S
E
C V
R
T
U G J
S
B W F
G R S
G J
M O L
E
K
H L
D E
C
U L I
A R F
D V
Y
U I
Z
C V
B
N M T
Q S
X
F
R
T
G A H J
H
P
T
E
L
E
C T
L
D G U Z
A D O G J
U
C L
R V
M V
F
E
A
Y
Q Z
O P
E
Y
W Q A X
K D S
W T S
W T
Q G J C V
K M T
O T
R
B N H
F
K L
S
D
G
H A K F
E
J
K
G
K L
Ñ
Z R
A R S
D
F
M N B O V
C
X N U C L
E
A
R
H E
M V
Y
Q Z
R O M A G N
E T
I
R V
H I
J
D H E
W Q R T X
I
G H V
K Z
O M F
B N I
K L
E
S
E
N K
I
C A M C
U K A F
E
J
F
G R S
R
T
S
G T
L
A R F
J
K D S
U G J
I
K M T
G H J
G R I C D X
D H E
S
W T D
A M N B O V
C
E T
H J
K Z
I
C K Y
E
N G A
3. Algunas de las fuerzas que debemos tener en cuenta para determinar la fuerza resultante que actua sobre una particula son: Eléctricas Gravitatoria Elástica A y B son correctas A y C son correctas Ninguna de las anteriores
4. Las fuerzas fundamentales no actúan entre partículas separadas en el espacio. Este concepto se denomina acción a distancia. Newton consideraba la acción a distancia como un fallo de su teoría de la gravitación. F _______ V_____
90
R
R O M A G N
2. Las fuerzas eléctricas y magnéticas pertenecen a __________________________________________________________
a. b. c. d. e. f.
U
A R S
W Q R Y
O Z
C A M C
V C O P
M O L
F
M
CAPITULO 11 ELTIEMPO Y LOS MODELOS COSMOLOGICOS ¿Qué es el tiempo? "Un colega de Einstein, el físico John Archibald Wheeler, desarrolló una de las primeras ecuaciones de la gravedad cuántica en los primeros días de la unificación de la Relatividad y la Teoría Cuántica. Aunque funciona, no incorpora el tiempo como un parámetro físico, y los físicos consideran esto inquietante... Cuando la Relatividad General fue cuantificada por vez primera (convirtiéndose en una teoría de la gravedad cuántica) en la década de 1960 por John Wheeler, el resultado predijo un estado estático del universo, que es - sin cambios, es decir, atemporalidad. Esta solución particular para la cuantificación de la relatividad general se conoce como la ecuación de Wheeler-DeWitt. El resultado parece ser paradójico porque ¿cómo puede ser el Universo estático e inmutable - cuando cada una de nuestras experiencias es de cambio ". William Brown de la Fundación Proyecto Resonancia Esa es precisamente la pregunta que estaremos explorando, y tal vez respondiendo en este artículo. Es interesante observar que las predicciones de las ecuaciones que son generalmente aceptadas por la comunidad científica sugieren tanto que el tiempo es una ilusión, como que el universo es, en realidad, estático. Obviamente, estas ideas fueron consideradas como defectuosas porque no eran sostenibles contra los hechos, es decir, lo que es claramente observable en el universo. Vemos cambio todos los días, y podemos medir el tiempo, por lo que debe ser verdad. Pero,
¿Y si pudiéramos cambiar nuestra percepción del universo y resolver este conflicto? ¿Qué pasa si no hay tal cosa como el tiempo en el universo y en realidad es sólo el resultado de un cambio en la perspectiva de las clases dentro de un universo estático que de alguna manera no se tradujo en movimiento o tampoco un universo cambiante?
Para explorar esta idea, primero debemos tratar de descubrir lo que es en realidad el movimiento.
¿Algo
realmente
se
está
moviendo?
En el fenomenal libro de Deepak Chopra Cómo conocer a Dios, él comparte una explicación del nivel cuántico del universo, lo cual, por otra parte, es una observación clara del universo a través del estudio científico de nivel cuántico de la realidad. Él afirma: "En el nivel cuántico todo el cosmos es como una luz parpadeante. No hay estrellas o galaxias, sólo vibrantes campos de energía. "
91
Nassim Haramein para mi explica esto mejor. Dijo que lo que percibimos como movimiento es realmente debido al hecho de que la realidad está parpadeando dentro y fuera de la existencia en una frecuencia alta, y que la creación está en realidad desapareciendo y reapareciendo, oscilando entre la forma y la no-forma a nivel cuántico innumerables veces por segundo, dando la apariencia de movimiento. Por lo tanto, técnicamente las cosas no se mueven en este universo en absoluto, sino que aparecen y desaparecen en poco diferentes patrones, dando la apariencia de movimiento. No es el mismo campo unificado que está parpadeado, sólo aquello que percibimos como materia sólida. Es decir, partículas, núcleos, partículas subatómicas, y el mundo material En cierto modo, técnicamente podría ser más exacto llamar lo que estamos haciendo todos los días como micro-teletransportación. Mientras caminamos en la tienda de comestibles o manejamos en nuestros coches en realidad estamos teletransportándonos hacia adelante en incrementos absurdamente pequeños, sin embargo, a una frecuencia extremadamente alta para dar la impresión de movimiento. Sin embargo, este movimiento sólo se está produciendo perceptualmente en los niveles energéticos más bajos de la creación: el mundo material, o del mundo clásico que el que existimos durante la mayor parte del día, y potencialmente el nivel atómico y molecular de la realidad. Ya que este nivel, al igual que nuestro nivel, los organismos unicelulares singulares pueden tener la experiencia de continuidad de la forma como lo hacemos en nuestros cuerpos físicos. No sé a ciencia cierta, porque yo no recuerdo haber sido una sola célula, pero hasta que no sepamos a ciencia cierta, no podemos descartar nada. Así, en el plano teórico cuántico de la realidad, realmente no hay movimiento, pero un parpadeo de entrada y salida de la existencia de la creación, sin embargo, desde nuestro nivel aparece como movimiento fluido. Al igual que las personas en nuestra pantalla de televisión no están realmente en movimiento, sino que son pequeños pixeles que se encienden y apagan en coordinación con los otros para que se vea como el movimiento. Esto nos podría dar una idea de por qué no hay tal cosa como el tiempo .
La
corriente
del
Campo
Unificado
Si percibimos el universo desde el nivel del campo unificado, imaginemos que el campo unificado contiene todo, y que toda la creación y todo el pasado y el futuro está codificado holográficamente dentro del campo unificado, y que todo existe simultáneamente, codificado dentro de la estructura del vacío En otras palabras, la creación surgió de este campo unificado en forma de partículas subatómicas, partículas, átomos y electrones y núcleos, que son todos sólo una forma de energía condensada - energía sin forma condensada como destellos del universo dentro y fuera de la existencia, pero nada es sólido. Para citar a Einstein una vez más:
92
"Lo que hemos llamado materia es energía, cuya vibración ha sido tan baja como para ser perceptible a los sentidos. No hay materia." Y estas manifestaciones de energía se colaboran unas con otras, guiadas por una fuerza invisible dentro de la creación misma, para formar las cosas más grandes que le dan toda la apariencia de ser real, y toda la apariencia de ser completamente sólida, pero ahora sabemos que esto no es cierto. Imagine que todo lo que existe a la vez. Imagine que todas las versiones del árbol fuera de la ventana desde el momento presente, hasta el nacimiento del árbol, y todo el camino hacia el futuro aparente hasta la muerte del árbol existen codificados dentro de espacio y tiempo, de manera holográfica presente dentro del campo unificado. Por lo tanto, nada en realidad nunca aparece, desaparece, se desplaza, o incluso cambia, no es más que nuestra percepción de la realidad en este nivel que da la apariencia de cambio. En otras palabras, toda la realidad, todo el tiempo, y todo el movimiento no es más que el resultado de la conciencia en movimiento. Si la dinámica de fluidos de Nassim en la teoría general de los agujeros negros es correcta, y si estas dinámicas son, de hecho, el origen de la conciencia, entonces este es el fundamento de la creación, y nosotros descubrimos que el fundamento de la creación es un colapso sin forma en sí mismo y de la correspondiente creación. Sin embargo, esto no es movimiento en el mundo físico. De hecho, no hay movimiento en el mundo físico. Esto ha sido demostrado a nosotros por los físicos cuánticos, cuando descubrieron que la realidad está parpadeando dentro y fuera de la existencia. Sólo hay imágenes holográficas que cambian cuando se la conciencia se expande y se contrae en sí misma. ¿Y qué si el flujo del campo unificado en el universo es en sí mismo el mecanismo que hace que la realidad destelle dentro y fuera de la existencia, y, además, que determina el flujo de tiempo? Esto también significa que toda conciencia es una extensión de la conciencia universal - el campo unificado - y que, al expandirse y contraerse el campo unificado, toda la otra conciencia es llevada al paseo, y debido a que estamos percibiendo desde el nivel material de la realidad, nosotros disfrutamos los asientos de primera fila a los hologramas de creación, cambiando cuando los nuevos niveles de campo unificado se hacen visibles para nosotros como resultado de nuestro cambio de percepción, y los deseos de la conciencia. Toda la creación y toda la actividad en la creación es el resultado de la interacción dentro de la conciencia, creando conciencia, y sólo porque todos compartimos un consenso común de la realidad (en su mayor parte) surge en absoluto el tiempo en nuestro planeta.
Información
holográficamente
Codificada
La forma más fácil y más clara en que puedo describir este concepto sería usando la analogía de una imagen holográfica. Es posible que haya visto las imágenes holográficas de una galaxia o alguna otra imagen impresa en una hoja de plástico o una tarjeta. Estoy seguro que muchos de ustedes han visto estos, si no, esta analogía no hará mucho para usted. De todas formas, digamos que tiene la
93
imagen de una galaxia en la tarjeta (o cualquier imagen que haya visto) y parece estar inmóvil, pero a medida que cambia su punto de vista (es decir, gira o mueve la tarjeta), la galaxia parece girar. Nada cambió en la imagen. Toda la información que estaba allí y codificada dentro de la tarjeta desde el principio, pero porque usted cambió su perspectiva, la imagen dio la apariencia de movimiento. ¿Y si así es como funciona la realidad? ¿Y si el movimiento y el tiempo aparente que experimentamos no es más que el resultado de nuestra perspectiva de la creación, debido a nuestro nivel de conciencia? Observe desde el nivel fundamental de la creación, el campo unificado. El campo unificado es la estructura del vacío que está teóricamente expandiéndose y contrayéndose a través de las dinámicas de agujeros negros de Nassim Haramein, pero técnicamente no se están moviendo. Y nada más, en realidad se está moviendo tampoco, porque todo está arreglado, cristalizado y holográficamente codificado dentro de la estructura del vacío que significa que todo es un presente no-local en todas partes, y todo está sucediendo al mismo tiempo. Y al colapsar la fundación de la creación y expandirse en estas dinámicas de agujeros negros, que en teoría es el origen de la conciencia, que crea un cambio de perspectiva para toda la conciencia que está presente en los niveles superiores de la realidad (el campo cuántico hasta la música clásica - nosotros) en el holograma de la realidad y por lo tanto obtenemos la apariencia de movimiento, del cambio cíclico, y por lo tanto del tiempo. Pero, como sabemos, la realidad parpadea dentro y fuera de la existencia, en teoría, como resultado de la conciencia cambiando la perspectiva, como tendría que hacer si no hubiera movimiento en el universo, si el universo fuera eterno y estático.
El
tiempo
es
relativo
Mi argumento es que todo el tiempo es el resultado de la rotación de la conciencia en el nivel del campo unificado, y que el tiempo es completamente relativo determinado por su propia ubicación perceptual y dimensión escalar (nivel de conciencia) desde donde se observa la realidad. El tiempo sería percibido de manera diferente en Marte que en la Tierra debido a que la longitud de sus días es diferente, de acuerdo a la rotación de su propio agujero negro (dinámica de campo unificado produciendo / siendo producido por la conciencia), y la longitud de su año sería diferente según donde está en la dinámica de los Soles en expansión y contracción de la conciencia. Además, los físicos están relativamente seguros de que el tiempo en sí es relativo, y es por eso. El tiempo no es un fenómeno que surge por sí solo en el universo. Potencialmente no hay tal cosa como el tiempo en absoluto, como sugieren sus ecuaciones. Lo que llamamos tiempo es una división arbitraria de los ciclos que estamos experimentando fuera de la tasa cíclica del cambio que estamos experimentando en este plano de la realidad. En otras palabras, es simplemente de una cuestión de percepción.
94
Si estuviéramos en un vacío no habría tiempo, porque no sólo no habría ningún ciclo para medir tiempo, sino que tampoco habría ningún objeto con el cual determinar el movimiento. Por lo tanto estaríamos en silencio perpetuo y atemporalidad. La prueba de que el tiempo es una construcción perceptiva que hemos ideado que se basa por completo en nuestra percepción, y por lo tanto es ilusorio, se puede observar en una historia que fue contada por Deepak Chopra. En su serie de conferencias con Wayne Dyer tituladas Viviendo más allá de los Milagros, él cuenta la historia de un grupo de mineros a quienes se les soterró una de sus minas encima de ellos en Alemania, quedando atrapados bajo tierra durante un período prolongado de tiempo. No había ninguna luz, no había manera de juzgar los ciclos del universo, y por lo tanto no tenían ningún marco de referencia para su percepción. Había un total de 7 hombres que quedaron atrapados bajo tierra, y sin embargo, sólo uno de ellos tenía un reloj. El hombre con el reloj no quería que las cosas se salieran de control, mientras estaban atrapados bajo tierra, y para aliviar el temor y la preocupación de sus amigos del hombre con el reloj se encargó de llamar a que: 1 hora había pasado cada vez 2 horas habían pasado, y porque nadie más tenía un reloj para validar esto, nadie podría decir la diferencia. Pues resulta que al final de 7 días que fueron rescatados y todos sobrevivieron a excepción del hombre con el reloj. Porque él se encargó de llamar a que: 1 hora había pasado cuando, en realidad, de acuerdo con su reloj, habían pasado 2 horas, y el esencialmente desaceleró el tiempo para todos los demás, y los hizo cambiar su acuerdo sobre el propio tiempo para que percibieran que estaban atrapados bajo tierra durante la mitad de la cantidad de tiempo que ellos realmente estuvieron bajo tierra. "Él los hizo cambiar su convenio colectivo en cuanto a lo que constituye el tiempo, es un acuerdo. Y luego envejecieron en consecuencia, aunque él no pudo engañarse a sí mismo porque tenía un reloj." Un Universo estático "El Tao sin embargo, es El Tao sin embargo, es la - Lao Tzu
no la
raíz
no fuente
de
actúa de toda acción se mueve toda la creación. "
Hemos establecido que la creación no se está moviendo, parece que el campo unificado tampoco se está moviendo. Sabemos esto porque hemos encontrado que el espacio que rodea la Tierra, el cual una vez se pensó que pasaba silbante por delante de nosotros, al igual que el aire que pasa por un objeto en un túnel de viento, ahora se ha demostrado que está completamente parado. Nosotros no nos estamos precipitando a través del espacio como pensamos, el espacio mismo se está expandiendo y contrayendo, por lo que no se está moviendo por decirlo, sino que está dando la apariencia de movimiento. Debido a que el campo unificado, que es la conciencia, se está expandiendo y contrayendo, y debido a que somos esa conciencia encarnada en un nivel ligeramente más denso de la realidad, en el mundo clásico, tenemos asientos de primera fila para el cambio aparente, el movimiento y el tiempo de la realidad. Pero eso es sólo porque somos conciencia universal, como lo dicen todas las antiguas tradiciones, que se ha condensado en este nivel de realidad para experimentar los cambios del
95
mundo, el mundo de las cosas. De la vida, la muerte, el nacimiento y renacimiento, y del tiempo lineal. Nuestro único enganche es que nos hemos apegado a este mundo y hemos quedado atrapados en una (agitación emocional) energética cuando las cosas aparentemente mueren, y cambian, y son transitorios. Sin embargo, todo - todas las criaturas, su peor enemigo, su mejor amigo, y usted - en el nivel más profundo son el campo unificado y es por eso que experimentamos este cambio: Debido a que el nivel fundamental de lo que somos está perpetuamente irradiando y colapsando de vuelta sobre sí mismo en un bucle de realimentación infinita, haciendo que el mundo holográfico parpadee y cambie ante nosotros como una hermosa, infinitamente compleja y magnífica película proyectada sólo para nosotros. Sin embargo, incluso el ritmo de esta película no es fijo. Es relativo, como Einstein afirmó, ya que cuando hemos incrementado la energía y tenemos la alegría de un nuevo amor o pasión desenfrenada y entusiasmo que surge cuando nos comprometemos a seguir y vivir nuestros sueños, nos conectamos con la energía superior, que nos acerca al campo unificado y por lo tanto, la tasa de tiempo notablemente se acelera de acuerdo a nuestra propia percepción. Como dice el viejo refrán, "El tiempo vuela cuando uno se divierte."
¿Qué
determina
la
Creación
dentro
de
un
universo
consciente?
Nuevamente citando a Albert Einstein, él observó: "Todo es energía y eso es todo lo que hay. Coincide con la frecuencia de la realidad que usted quiere y usted no puede evitar tener esa realidad. No puede ser de otra manera. Esto no es filosofía, es física." Esta cita también ayuda a explicar el mecanismo detrás del aparente cambio que vemos en la creación. Como la evidencia sugiere (en nuestra vida cotidiana y en la física) y en lo que se basan las teorías de Nassim Haramein, todas las cosas son divisiones escalares de las geometrías y las dinámicas de los agujeros negros, y por lo tanto todo tiene conciencia, porque todo es conciencia. No todo funciona al nivel de conciencia en que funcionan los seres humanos, es decir, el libre albedrío, y aun entre los seres humanos hay gradientes de conciencia. Pero todo tiene conciencia porque en el nivel del campo unificado del que todo emana, todos somos conciencia infinita. Y como conciencia nosotros tenemos deseos e intenciones que se canalizan a través de nosotros a partir de esa conciencia infinita. En mi propia vida yo llamo a esto la inspiración, o incluso creatividad y co-creación. En todo caso, yo puedo sentir que viene a través de mí, pero sé que no soy yo solo quien está haciendo la creación. Toda conciencia tiene estas inspiraciones y estos deseos, y en esencia son lo mismo: para
96
experimentar la felicidad y el éxtasis de la co-creación. Nos encanta crear, y lo hacemos con pasión desenfrenada e intuición, todo lo cual lleva a la iluminación y la comprensión de nosotros mismos, y por lo tanto de la realidad. Esto es lo que hace toda conciencia - irradia (crea) y luego se mueve de nuevo hacia sí mismo a través de la creación La Tierra desea crear un hermoso y magnífico jardín vibrante de vida, y por lo tanto su conciencia atrajo eso fuera del campo holográfico de información con el mismo mecanismo del que Einstein estaba hablando. Y nosotros experimentamos cambios en la Tierra porque estamos experimentando la expansión y colapso de la conciencia de la Tierra cayendo sobre sí misma mientras sus ciclos de flujo creación se hinchan y se contraen como las mareas. Ella está creando en armonía con los ciclos de conciencia solar, y cada uno de nosotros estamos experimentando nuestros propios ciclos de manifestación y experiencia, de acuerdo con todos los otros, proporcionándonos una rica experiencia sensorial de movimiento, de tiempo, y de creación - todo el resultado del deseo impetuoso de la conciencia en todos los niveles para crear y experimentar la creación. Todo es el resultado de las intenciones de la conciencia de crear y de experimentar sus creaciones, y es ese deseo que emana de la creación en el primer lugar. El campo unificado eligió manifestarse en este plano de la realidad para experimentar la dicha de un pájaro en vuelo; la alegría de saltar a través de las olas como un delfín; y volar como un águila; unidos en unión dichosa como hacen los amantes; y en espiral en éxtasis como una galaxia. No hay movimiento ni tiempo, sólo la experiencia de perceptualmente estar pasando por las manifestaciones holográficas del campo unificado, un movimiento perceptual creado por la expansión y contracción de la conciencia en todos los niveles. El universo es un holograma infinito, y nosotros sólo estamos de paso y la imagen parece estar cambiando, pero no lo está. Sólo estamos viendo lo que estaba codificado ya a lo largo cuando eternamente cambiamos nuestra perspectiva. Ésta puede ser la razón por la cual los pequeños fotones en el experimento de entrelazado (citado en el artículo de William Brown que se puede leer aquí) se experimenta el tiempo en relación de unos con otros, pero no para el observador. Debido a que el campo unificado todavía está cambiando su perspectiva, sigue fluyendo, lo que causa que la realidad se destelle dentro y fuera de la existencia, significando que los fotones en el experimento están destellando intermitentemente dentro y fuera de la existencia y, por tanto calculamos que cambian, y lo llamamos tiempo. Mientras que nosotros y nuestros dispositivos no somos lo suficientemente sutiles como para ver lo que ellos ven y sentir lo que ellos sienten respecto a su nivel, agravado aún más porque muchos de nosotros no entendemos plenamente que todas las cosas son vibrantes y vivas, y que todo es nosotros y que nosotros somos todo. Las cualidades que nosotros mismos poseemos deben entonces estar disponibles dentro de todo. Notablemente el deseo de la vida. Es irónico que somos la única especie que desperdiciamos el tiempo deseándolo, mientras nos resistimos a vivirlo. Porque ¿qué es lo que tendríamos que experimentar si los niveles atómicos de la conciencia no desearan crear?
97
¿Crear un patrón de interferencia holográfica con sus electrones con el fin de tener ciertas cualidades perceptibles cuando son reunidas, y mezclar y crear con otros átomos? ¿Y qué podríamos experimentar si la Tierra no hubiera creado con esos átomos hermosos árboles y plantas, y océanos y lluvia, todo dentro de sus ciclos de conciencia? ¿Y que tendríamos que experimentar si una galaxia no deseara crear planetas? ¿Y dónde estaría todo si el campo unificado no se expandiera y se contrajera en sí mismo en un deseo primordial de experimentar en sí, para ser, y para participar en la feliz co-creación?
El viejo argumento del diseño Cuando uno contempla cualquiera de las formas de vida que inundan la biosfera terrestre no puede más que sentir admiración. Habitualmente, todo ese derroche de imaginación de la naturaleza nos hace preguntar cómo esa complejidad ha llegado a ser. Vemos diseño en las estructuras orgánicas y finalidad en sus funciones, e incrédulos ante la capacidad de organización de las leyes de la física y la química atribuimos todo el mérito a la voluntad creadora del Gran Diseñador. El argumento del diseño ha sido utilizado, junto a los argumentos ontológico y cosmológico [2], como prueba de la inevitable existencia de un Creador del Universo. El teólogo del siglo XVIII William Paley lo exponía de la siguiente manera, en un pasaje bien conocido que daba comienzo a su Teología Natural o pruebas de existencia y atributos de 1803: Supongamos que, al cruzar un zarzal, mi pie tropieza con una piedra, y se me pregunta cómo esa piedra ha llegado hasta allí; probablemente podría contestar que, por lo que yo sabía, había estado allí desde siempre: quizás tampoco sería fácil demostrar lo absurdo de esta respuesta. Pero supongamos que hubiese encontrado un reloj en el suelo, y se me preguntase qué había sucedido para que el reloj estuviese en aquel sitio; yo no podría dar la misma respuesta que antes, de que, por lo que yo sabía, el reloj podía haber estado allí desde siempre. [Su precisión y la complejidad de su diseño nos forzaría a concluir] que el reloj debió de tener un fabricante: que debió de existir en algún momento, y en algún lugar, un artífice o artífices, que lo construyeran con una finalidad cuya respuesta encontramos en la actualidad; que concibió su construcción, y diseñó su utilización. [Nadie podría contrariar razonablemente esta conclusión, ya que] cada indicación de una idea, cada manifestación de diseño que existe en el reloj, existe en las obras de la naturaleza; con la diferencia, por parte de éstas, de ser tan excelsas o más, y en un grado que supera todo cálculo [3]. David Hume, en Dialogues Concerning Natural Religion publicado en 1759, hizo una crítica demoledora a la lógica de la utilización del aparente diseño de la naturaleza como prueba positiva de la existencia de Dios. El libro se desarrolla como un diálogo entre Philo, el escéptico que argumenta por Hume, y Cleanthes, representante de la Teología Natural, con la aparición esporádica de un defensor de la fe; Demea. Cleanthes pone el argumento del diseño en función de las siguientes dos premisas y su conclusión: Premisa 1: Objetos como relojes, casas o barcos exhiben cierto tipo de orden (adaptación de los medios en función de los fines) y son construidos por un diseñador inteligente. Premisa 2: El universo también exhibe algún tipo de orden Conclusión: Por tanto, el universo fue construido con un diseño inteligente. Philo expone una serie de objeciones que podemos resumir básicamente como sigue: 1. El argumento del diseño es sólo una analogía, y una analogía puede ser una guía adecuada para formular una hipótesis pero no es un criterio válido de prueba o verificación. Pero aún considerado como simple analogía, el argumento del diseño es una analogía débil puesto que no aporta similitudes contrastables entre el universo y una casa, un reloj o un barco. 2. Utilizando el mismo tipo de analogía, y a falta de más datos, podríamos llegar a
98
casi cualquier conclusión, diferente de la del teísmo clásico, sobre el origen del universo. A pesar de que esta podría ser la última palabra desde el punto de vista del estatus lógico del argumento del diseño, Richard Dawkins señala acertadamente en El relojero ciego [3]que, "esta posición [el ateísmo] puede ser lógicamente sensata, pero puede dejar una honda insatisfacción" puesto que tenemos algo importante que explicar: La complejidad del diseño biológico. La aparición de El origen de las especies en 1859 proporcionó esa explicación que hizo posible al ateo ser completo, intelectualmente hablando. El nuevo argumento del diseño y el principio antrópico Expulsado de la tierra firme de la biología, el argumento del diseño buscó refugio en las arenas movedizas de la cosmología. La base de la nueva argumentación se fue gestando a lo largo del siglo XX desde dentro de la propia física y de la cosmología principalmente como charlas de cafetería de los físicos y astrónomos que poco a poco se irían reflejando en las publicaciones . En 1919, Hermann Weyl señalaba que la relación entre la fuerza electromagnética y la fuerza gravitatoria entre dos electrones era un número enorme del orden de 10 39. Sir Arthur Eddington comentaba al respecto en 1923: "Es difícil dar cuenta de la aparición de un número adimensional de una magnitud tan diferente de la unidad en el esquema de las cosas; pero esta dificultad podría ser eliminada si pudiéramos conectarlo con el número de partículas en el mundo ". Eddington estimó que este número de partículas del universo era del orden de 10 79, curiosamente un número cercano al cuadrado del número de Weyl. Ningún físico tomó este juego de numerología demasiado en serio hasta que un hombre de la talla de Paul Dirac le prestó atención. En 1937, Dirac señalaba que la relación entre la vida de una estrella típica como el Sol y el tiempo que la luz tarda en atravesar un protón una unidad d es del mismo orden de magnitud que el número de Weyl. Robert Dicke puso algo de luz en la misteriosa coincidencia cuando señaló en 1961 que ésta debería darse en un universo, como el nuestro, donde fuera posible la síntesis de elementos químicos pesados en los interiores estelares [4]. Según el modelo estándar del Big Bang que a pesar de lo que se pueda oír por ahí constituye un modelo bien contrastado observacionalmente [5] sólo los elementos ligeros hidrógeno, deuterio, litio y helio fueron creados en el universo primitivo. Se necesitarían algunos miles de millones de años para que se formaran las galaxias y las estrellas que éstas contienen, se fusionara el hidrógeno en los interiores estelares creándose elementos pesados, y finalmente éstos se esparcieran por el espacio impulsados por los estallidos de estrellas masivas moribundas en forma de supernovas. Una vez en el espacio, estos elementos se fueron acumulando lentamente hasta formar planetas. Algunos miles de millones de años adicionales y en alguno de estos planetas al menos en uno que terminaría por desarrollarse la vida. Si la atracción gravitatoria no hubiese sido muchos órdenes de magnitud menor que la repulsión eléctrica, las estrellas hubieran colapsado mucho tiempo antes de que los procesos nucleares hubieran podido dar lugar a los elementos de la tabla periódica a partir del hidrógeno y el deuterio primigenios. La formación de la complejidad química que nos rodea parece requerir un universo de al menos algunos miles de millones de años de edad. Pero una edad avanzada no es todo lo que uno necesita. La síntesis de elementos pesados en las estrellas depende sensiblemente de las propiedades y de las abundancias relativas del deuterio y el helio generados en el universo temprano. El deuterio podría perfectamente no haber existido si la relación entre los valores de las masas del protón y del neutrón fuera ligeramente diferente. Las abundancias relativas de hidrógeno y helio también dependen fuertemente de este parámetro [6]. Podríamos seguir con esta especie de "lo que podría haber sido y no fue" cósmico pero no quiero alejarme demasiado de mi argumento principal, ni aburrir al lector. El físico y astrónomo creyente Hugh Ross [7] por ejemplo, enumera más de una veintena de
99
parámetros que requieren un "ajuste fino" de su valor con objeto de que nuestro universo sea lo suficientemente "hospitalario" con la vida. En los cincuenta, la gente empezó a hablar de lo que ahora se suele denominar Principio Antrópico Débil (PAD), definido por John Barrow y Frank Tipler [8] de la siguiente manera: Los valores observados de todas las cantidades físicas y cosmológicas no son igualmente probables, sino que toman valores restringidos por el requisito de que existan lugares donde pueda evolucionar la vida basada en el carbono y por el requisito de que el universo sea lo suficientemente viejo para que esta evolución ya haya ocurrido de hecho. El PAD no ha impresionado en realidad a mucha gente, que lo han considerado como una pura tautología; Por ejemplo, Cayetano López, en su reciente libro Universo sin Fin [9] comenta al respecto: Aunque Barrow y Tipler afirmen lo contrario, el Principio Antrópico en su forma débil no es más que una tautología o una constatación a posteriori de cosas que sabemos han sucedido; o aún más esquemáticamente, la simple afirmación de que el hombre existe[...] La descripción de algunas de las aplicaciones del PAD no hace sino elucidar su carácter tautológico y su desconexión con las hipótesis y procedimientos ordinarios en la investigación científica. Sin embargo en 1953, el astrónomo británico Fred Hoyle [10] utilizó dicha línea argumentativa para predecir la existencia de un estado excitado del núcleo del átomo de carbono previamente desconocido. La polémica estaba servida: ¿podría tener el PAD alguna relevancia como explicación científica de ciertos aspectos o propiedades del universo?. Barrow y Tipler, en su libro The Anthropic Cosmological Principle, parecen responder afirmativamente, aunque, desde mi punto de vista, han sido generalmente mal interpretados. Ya en la propia introducción[11] dejan bien claro por qué el PAD no es una apreciación vacía de contenido: Las características más básicas del Universo, incluidas propiedades como su forma, tamaño, edad y leyes de evolución, que deben ser observadas tienen que ser del tipo que permita la evolución de observadores, puesto que en otro universo posible donde la vida no pudiera evolucionar nadie estaría disponible para preguntarse la razón de la forma, tamaño, edad, y demás propiedades del Universo. A primera vista, tal observación podría parecer verdadera pero trivial. Sin embargo, ésta tiene implicaciones de gran alcance para la física, y no establece más que el simple hecho de que cualquier propiedad del Universo que pueda aparecer inicialmente harto improbable pueda sólo verse en su verdadera perspectiva después de que hayamos contado con que ciertas propiedades del Universo son requisito previo necesario para la evolución y existencia de algún observador. Los valores medidos de muchas cantidades físicas y cosmológicas que definen nuestro Universo están circunscritas por la inevitable observación desde un lugar donde las condiciones son las apropiadas para que ocurra la evolución biológica y desde una época cósmica que exceda las escalas de tiempo astrofísicas y biológicas requeridas para el desarrollo de entornos que puedan soportar la bioquímica. Lo que hemos estado describiendo es sólo un grandioso ejemplo de un tipo de sesgo intrínseco que los científicos denominan "efecto de selección". [...] Deberíamos hacer énfasis en que esta selección [de unas determinadas características del universo] no depende del hecho de aceptar la creencia de la mayoría de bioquímicos en que sólo el carbono puede formar la base de la vida generada de forma espontánea. Aún si esta creencia es falsa, el hecho de que seamos una forma de vida inteligente basada en el carbono que evolucionó espontáneamente sobre un planeta tipo Tierra que gira alrededor de una estrella de tipo espectral G2 implica que cualquier observación que hagamos esté necesariamente sometida a efectos de selección. [...] El PAD no es ciertamente una sentencia tautológica sin poder debido a que en los modelos cosmológicos actuales se toma la estructura a gran escala del Universo como la misma, en promedio, desde cualquier lugar de observación. El premio Nobel de física Steven Weinberg es más comedido respecto a la viabilidad de este tipo de argumentaciones, aunque existe un parámetro, la constante cosmológica, cuyo "ajuste fino" aparente sí que le ha impresionado lo suficiente para utilizar argumentos
100
antrópicos en la acotación de los posibles valores de esta cantidad [12]. En su reciente artículo A designer Universe?comenta [13]: A veces [los argumentos antrópicos] equivalen a la afirmación de que las leyes de la naturaleza son las que son para nuestra existencia, sin más explicaciones. Esto parece ser no mucho más que un galimatías. Por otro lado, si realmente hay una cantidad enorme de mundos en los que algunas constantes toman valores diferentes, entonces la explicación antrópica de por qué en nuestro mundo estas constantes toman valores favorables para la vida es sólo sentido común, como explicar por qué vivimos en la Tierra más bien que en Mercurio o Plutón. El valor de la constante cosmológica recientemente medido mediante el estudio del movimiento de supernovas distantes [14] está en el rango que cabría esperar de este tipo de argumentaciones: es justo lo suficientemente pequeño para no interferir en la formación de las galaxias. Sin embargo, todavía no conocemos lo suficiente de física para decidir si realmente existen diferentes partes del universo donde lo que habitualmente llamamos constantes de la física toman valores diferentes. Ésta no es una pregunta sin esperanza; seremos capaces de responderla cuando conozcamos algo más de la teoría cuántica de la gravedad de lo que conocemos en la actualidad. El estatus del PAD como posible argumento válido para obtener conocimiento positivo de la naturaleza es una polémica perfectamente legítima dentro del marco de la ciencia. Sin embargo, como veremos a continuación, otras veces se han hecho extrapolaciones e interpretaciones de los argumentos antrópicos que no están legitimados aún desde la lógica más elemental. En 1974, Brandon Carter [15] fue aún más lejos e introdujo lo que se conoce como Principio Antrópico Fuerte (PAF): El universo debe tener las propiedades adecuadas que permitan el desarrollo de la vida en algún momento de su historia. Una de las interpretaciones posibles del PAF se acerca peligrosamente al siguiente argumento: el universo fue diseñado con el propósito de que apareciera la vida, y posteriormente observadores inteligentes como los seres humanos. En palabras del propio Hugh Ross [16]: La existencia humana es posible porque las constantes de la física y los parámetros del universo y del planeta Tierra yacen dentro de unos rangos altamente restrictivos. John Wheeler y otros interpretan esas impresionantes "coincidencias" como prueba que la existencia humana determina de alguna manera el diseño del universo. Dibujando un paralelismo ilógico con experimentos de elección retardada en mecánica cuántica, ellos dicen que las observaciones hechas por seres humanos influyen en el diseño del universo, no sólo ahora, sino en el principio de los tiempos. Tal versión de lo que se conoce como "principio antrópico" refleja lo que los filósofos y religiosos actuales están aprendiendo hacia la deificación del hombre. Estos no nos muestran ninguna evidencia de que los actos humanos del presente puedan afectar a eventos del pasado. Más aún, las constantes de la física y los parámetros del universo apuntan, más bien, hacia la existencia de un diseñador que trasciende las dimensiones y los límites del universo físico. Michael Ikeda y Bill Jefferys [17] han interpretado este argumento desde el punto de vista de la teoría de probabilidades, poniéndolo de la siguiente forma: Si el universo es sólo consecuencia de leyes naturales, entonces la probabilidad de que un universo escogido al azar entre todos los universos posibles sea "hospitalario" con la vida, permitiendo su aparición y posterior desarrollo, es muy pequeña. Y por tanto se sigue que la probabilidad de un origen naturalista del universo, dado el hecho observado de que el universo es "hospitalario" con la vida, es también pequeña. La conclusión es una falacia común en los argumentos basados en teoría de la probabilidad. Un ejemplo simple puede aclarar la situación: La probabilidad de que el ganador de una mano de póquer lo haga con una escalera real de color es pequeña, lo que no implica obviamente que la probabilidad de ganar la partida si uno tiene una escalera real de color sea pequeña. Al contrario, una mano como esa nos asegura prácticamente la victoria. Pero existe aún una segunda razón por la que el argumento del "ajuste fino" interpretado es erróneo: para que una inferencia sea válida, es necesario tomar en cuenta toda la información conocida que pueda ser relevante para la
101
conclusión. En el caso que nos ocupa, ocurre que tenemos una información interesante en nuestro haber: la vida existe en nuestro universo. Por tanto, no es válido hacer inferencias acerca del carácter naturalista del universo sin tomar en cuenta tanto que la vida efectivamente existe como que nuestro universo es suficientemente "hospitalario" con ella. De lo que se sigue que cualquier inferencia acerca del carácter naturalista del universo debe estar condicionada por estos dos hechos. En consecuencia, para inferir la probabilidad de que nuestro universo esté regido sólo por leyes naturales, es irrelevante el valor que tome la probabilidad de que el universo sea "hospitalario" con la vida en el caso naturalista. En otras palabras, es enteramente irrelevante si existe o no un ajuste fino de los parámetros del universo. Pero Michael Ikeda y Bill Jefferys [17] van aún más lejos y "prueban" mediante argumentos bayesianos que el PAD implica que la observación del "ajuste fino" de los parámetros del universo no sólo no disminuye la probabilidad de que el universo tenga un origen naturalista sino que podría incrementarla. Resulta ciertamente curioso que por un lado uno tenga a los creacionistas arguyendo que el mundo natural es demasiado "poco hospitalario" con la vida y por tanto es necesaria la intervención divina en algún momento de la evolución, y que por otro lado estén los que utilizan la argumentación antrópica (habitualmente los mismos) arguyendo que las constantes y las leyes de la naturaleza están tan exquisitamente ajustadas para que la aparición de la vida sea posible en nuestro universo, que no existe otra alternativa que la existencia de un Diseñador; ¡así no hay quien pueda perder!. Parece que en este punto nos encontramos en la misma situación a la que se enfrentó el mismo Hume con el argumento del diseño clásico; aunque tenga la prueba de su inconsistencia lógica, el ateo no se sentirá "intelectualmente completo" hasta poseer una buena explicación a ese delicado ajuste de las constantes de la física y los parámetros del universo que ha hecho posible la aparición y posterior desarrollo de la vida. Lo que desconocen muchos de los defensores del nuevo argumento del diseño es que, si bien no existe actualmente una explicación completamente satisfactoria del origen de las coincidencias numéricas, sí que existe un marco general donde es posible encontrar una buena explicación. La historia se repite, pues Darwin tampoco dispuso de todos los detalles, y la discusión sobre algunos aspectos de cómo se produce el proceso evolutivo aún continúa entre biólogos como Richard Dawkins y Stephen Jay Gould [18] entre otros, aunque el hecho de que el esquema básico de Darwin sea la explicación de la aparición de la diversidad biológica esté fuera de toda duda razonable. Una pluralidad de universos El Big Bang estándar nos da una imagen consistente de la evolución de nuestro universo desde digamos una centésima de segundo después de la gran explosión. ¿Pero qué mecanismo puede explicar cómo se llegó a las condiciones del universo en ese momento?. Existe actualmente una alternativa teórica elegante que resuelve varios rompecabezas del modelo estándar: el escenario conocido como inflación [19]. La inflación no es más que una expansión exponencial del universo en los instantes previos a la fase de expansión lineal estándar que se produce en la actualidad. Para que el lector se haga una idea, en unos meros 10-35 segundos, el universo aumentó de tamaño en un factor del orden de 10 30. Esa tremenda tasa de expansión proviene del hecho de que al menos una pequeña región del universo haya estado en algún momento en un estado denominado de falso vacío. El estado de falso vacío en un estado peculiar e inestable que surge de manera natural en las teorías cuánticas de campos. Una vez una pequeña región del universo se ha materializado en dicho estado, empieza a expandirse de forma exponencial impulsada por un efecto gravitatorio "repulsivo" que resulta de una combinación de las propiedades peculiares del falso vacío y de las ecuaciones de la Relatividad General relacionado con Durante la expansión, el estado de falso vacío empieza a decaer en vacío habitual produciéndose una sopa muy caliente de partículas que precisamente corresponde al punto de partida de Big Bang estándar. Parece difícil evitar que este proceso de nucleación de burbujas de vacío habitual a partir del falso vacío pudiera repetirse ad infinitum, produciéndose una multiplicidad de universos en expansión, cada uno posiblemente gobernado por parámetros cosmológicos y constantes de la física diferentes.
102
Si pensamos que todo un universo como el nuestro procede, según el escenario delineado anteriormente, de una región que puede ser tan pequeña como unos 10 -35 m, parece perfectamente lícito preguntarse de dónde procede toda la energía del universo. La respuesta podría yacer en el hecho de que la energía gravitatoria generada durante la expansión pueda ser tomada de forma no ambigua como negativa, de tal forma que la energía materializada en la transición del falso vacío al vacío habitual proceda de la propia energía gravitacional acumulada en la expansión. Por tanto, la energía total podría ser tan pequeña como se desee sin que hubiera ninguna limitación a la cantidad de expansión exponencial que pudiera ocurrir. En otras palabras, podríamos decir que el mecanismo de inflación produce un universo partiendo esencialmente de nada [19]. Aunque este escenario del origen del universo pudiera ser todavía demasiado especulativo en el sentido d sí que es un escenario plausible al que están apuntando todos los indicios teóricos de los que disponemos en la actualidad. De hecho, es uno de los escenarios perfectamente compatible con observaciones astronómicas recientes[20]. Es sencillamente una explicación naturalista del universo donde no hay lugar para un Gran Diseñador. Los valores de las constantes de la naturaleza fueron seleccionados por puro accidente cuando, a medida que el universo se expandía, se rompió la simetría del un estado inicial posible caótico y totalmente simétrico [19]. Nosotros vivimos en una de esa infinidad de burbujas donde las constantes de la física y los parámetros del universo son los apropiados para que la vida haya podido surgir. Fuimos unos de los posibles ganadores de la gran lotería cósmica. ¿Y si el escenario delineado anteriormente fuera descartado por las observaciones en el futuro?. ¿Qué ocurriría si realmente existiera un solo universo?. Algunos autores como los propios Barrow y Tipler ó John Leslie [21] han propuesto que la única salida naturalista a la argumentación antrópica es la existencia de una multiplicidad de universos. Esto podría no ser realmente así; Aún con la existencia de un solo universo, las probabilidades no tienen porque jugar en nuestra contra. Así por ejemplo, Victor J. Stenger y Max Tegmark [22] han mostrado que podrían darse universos factibles para la evolución de la vida en un amplio rango de valores de las constantes de la física. Por otro lado, se ha señalado también [23] en contra de la opinión generalizada de biólogos evolucionistas [24] que la existencia de un gran número de galaxias en el universo es un factor que podría jugar estadísticamente a favor de la aparición casual de la vida, hecho que no ha sido tenida en cuenta habitualmente por los partidarios del principio antrópico al hacer sus cómputos. Por supuesto hay quien defiende [25] que ya es posible delinear una explicación convencional subyacente que surgirá de un mayor conocimiento de teorías cuánticas de la gravedad como las teorías de cuerdas, pero aún así parece inevitable la aparición de algún tipo de "ajuste fino" o condiciones iniciales en los parámetros de una teoría de unificación de las cuatro interacciones que tenga como aproximación de baja energía al Modelo Estándar de la física de partículas [26]. Irónicamente, la solución final a todo este lío podría residir en el equivalente cósmico del mismísimo proceso de selección natural darwiniano. Lee Smolin [27] ha propuesto un escenario compuesto por una multitud de universos en el que cada universo existente es el residuo de la "explosión" de un agujero negro previamente formado en otro universo progenitor. Cada universo nace con un conjunto de ciertos parámetros físicos . A medida que este universo se expande se crean nuevos universos con parámetros físicos similares pero que han variado ligeramente debido a fluctuaciones producidas por la alta entropía del interior del agujero negro el . El proceso se repite reiteradamente, generándose una progenie de universos que tenderán hacia una población dominada por aquellos que maximicen el número de agujeros negros que puedan producir. El modelo no es sólo curioso sino que hace ciertas predicciones observacionales concretas. En otras palabras, es perfectamente falsable.
103
CAPITULO 12 DIOS Y LOS MODELOS COSMOLOGICOS CONTEMPORANEOS El Gran Diseño Autor: Stephen Hawking Género: Ciencia / Divulgación Científica Idioma: Español Como vivimos e interaccionamos con los otros objetos del universo, el determinismo científico debe cumplirse también para las personas. Muchos, sin embargo, aunque acepten que el determinismo científico rige los procesos físicos, harían una excepción para el comportamiento humano, ya que creen que tienen libre albedrío. El gran diseño www.librosmaravillosos.com S. Hawking y L. Mlodinow Gentileza de Pablo Testai 22 Preparado por Patricio Barros Descartes, por ejemplo, para preservar la idea de libre Alberto, afirme) que la mente humana era una cosa diferente del mundo físico y que no seguía sus leyes. En su interpretación, las personas consisten en dos ingredientes: cuerpo y alma. Los cuerpos no son más que máquinas ordinarias, pero el alma no está sujeta a las leyes científicas. Descartes estaba muy interesado en la anatomía y la fisiología y consideró que un órgano diminuto en el centro del cerebro, llamado glándula pineal, era la sede principal del alma. Dicha glándula, creía él, era el lugar donde se forman todos nuestros pensamientos, la fuente de nuestra libre voluntad. ¿Tenemos libre albedrío? Si lo tenemos, ¿en qué punto del árbol de la evolución se desarrolló? ¿Tienen libre albedrío las algas verdes o las bacterias, o su comportamiento es automático, dentro del reino de las leyes científicas? ¿"Son tan sólo los seres multicelulares los que tienen libre albedrío, o está reservado a los mamíferos? Podemos pensar que un chimpancé está ejerciendo su libre albedrío cuando decide pelar una banana o un gato cuando araña el sola con sus uñas, pero ¿qué ocurre con el gusano denominado Caenorbabdytis elegans, una criatura muy sencilla que consta de tan sólo 959 células? Probablemente nunca piensa para sí: «¡Otra vez, esa insípida bacteria para cenar!» pero, aun así, quizá también tiene preferencias definidas por la comida y, o bien se resignará a una comida poco atractiva o irá a forrajear para buscar algo mejor, según su experiencia reciente. ¿Es eso el ejercicio del libre albedrío? Aunque sentimos que podemos escoger lo que hacemos, nuestra comprensión de las bases moleculares de la biología demuestra que los procesos biológicos están regidos por las leyes de la física y la química y que, por lo tanto, están tan determinados como las órbitas planetarias. Experimentos recientes en neurociencia corroboran el punto de vista de que es nuestro cerebro físico, siguiendo las leyes conocidas de la ciencia, el que determina nuestras acciones, y no algún agente que exista fuera de esas leyes. Por ejemplo, pacientes sometidos a una operación quirúrgica con anestesia local constataron que al serles estimuladas eléctricamente regiones adecuadas de su cerebro sentían el deseo de mover la mano, el brazo, el pie, o los labios y hablar. Es difícil imaginar cómo podría operar el libre albedrío si nuestro comportamiento está determinado por las leyes físicas, de manera que parece que no somos más que máquinas
104
biológicas y que el libre albedrío es sólo una ilusión. Aunque concedamos que el comportamiento humano El gran diseño www.librosmaravillosos.com S. Hawking y L. Mlodinow Gentileza de Pablo Testai 23 Preparado por Patricio Barros está efectivamente determinado por las leyes de la naturaleza, también parece razonable concluir que el resultado final está determinado de una manera tan complicada y con tantas variables que resulta imposible, en la práctica, predecirlo. Para ello se necesitaría conocer el estado inicial de miles de billones de billones de partículas del cuerpo humano y resolver un número parecido de ecuaciones. Ello llevaría miles de millones de años, y sería un poco tarde para apartarse si la persona opuesta decidiera propinarnos un golpe. Como resulta tan impracticable utilizar las leyes físicas subyacentes para predecir el comportamiento humano, adoptamos lo que se llama una teoría efectiva. En física, una teoría efectiva es un marco creado para modelizar algunos fenómenos observados, sin necesidad de describir con todo detalle sus procesos subyacentes. Por ejemplo, no podemos resolver exactamente las ecuaciones que rigen la interacción gravitatoria de cada uno de los átomos del cuerpo de una persona con cada uno de los átomos de la Tierra. Pero a todos los efectos prácticos, la fuerza gravitatoria entre una persona y la Tierra puede ser descrita en términos de unas pocas magnitudes, como la masa total de la persona y de la Tierra y el radio de la Tierra. Análogamente, no podemos resolver las ecuaciones que rigen el comportamiento de los átomos y moléculas complejos, pero hemos desarrollado una teoría efectiva denominada química que proporciona una explicación adecuada de cómo los átomos y las moléculas se comportan en las reacciones químicas, sin entrar en cada uno de los detalles de sus interacciones. En el caso de las personas, como no podemos resolver las ecuaciones que determinan nuestro comportamiento, podemos utilizar la teoría efectiva de que los individuos tienen libre albedrío. El estudio de nuestra voluntad y del comportamiento que se sigue de ella es la ciencia de la psicología. La economía también es una teoría efectiva, basada en la noción de libre albedrío, más el supuesto de que la gente evalúa sus posibles formas de acción alternativas y escoge la mejor. Dicha teoría efectiva sólo es moderadamente satisfactoria en la predicción del comportamiento ya que, como todos sabemos, a menudo las decisiones o no son racionales o están basadas en análisis deficientes de las consecuencias de la elección. Por eso el mundo es un lío. La tercera pregunta aborda la cuestión de si las leyes que determinan el comportamiento del universo y de los humanos son únicas. Si la respuesta a la primera pregunta es que Dios creó las leyes, entonces El gran diseño www.librosmaravillosos.com S. Hawking y L. Mlodinow Gentileza de Pablo Testai 24 Preparado por Patricio Barros esta tercera cuestión se formula como: ¿tuvo Dios una diversidad de opciones para escogerlas? Tanto Aristóteles como Platón creyeron, como Descartes y posteriormente Einstein, que los principios de la naturaleza existen por «necesidad», es decir, porque son las únicas leyes que tienen consistencia lógica. Debido a su creencia en el origen lógico de las leyes de la naturaleza, Aristóteles y sus seguidores sostuvieron que era posible «deducir» dichas leyes sin prestar demasiada atención a cómo la naturaleza se comporta realmente. Eso, y el énfasis en el «por qué» los objetos siguen leyes más que en las leyes específicas que siguen, le condujo a leyes básicamente cualitativas que a menudo eran erróneas y que, en cualquier caso, no resultaron ser demasiado útiles, aunque dominaron el pensamiento científico durante muchos siglos. Sólo mucho más tarde, gente como Galileo se
105
atrevió a desafiar la autoridad de Aristóteles y a observar lo que la naturaleza hacía en realidad, más que lo que la pura «razón» decía que debería hacer. Este libro está enraizado en el concepto del determinismo científico, que implica que la respuesta a la segunda pregunta es que no hay milagros, o excepciones a las leyes de la naturaleza. Sin embargo, volveremos a tratar de nuevo en profundidad las preguntas uno y tres, las cuestiones de cómo surgieron las leyes y por qué son las únicas posibles. Pero antes, en el capítulo siguiente, nos dedicaremos a la cuestión de qué es lo que describen las leyes de la naturaleza. La mayoría de los científicos dirían que son reflejos matemáticos de una realidad exterior que existe independientemente del observador que la contempla. Pero a medida que vamos examinando nuestra manera de observar nuestro alrededor y de formarnos conceptos sobre él, surge la pregunta de ¿tenemos realmente razones para creer que existe una realidad objetiva? Resumen: Un ejemplar insustituible con nuevas respuestas a las cuestiones últimas de la vida. Antes de ser publicado ya generaba en los medios masivos de comunicación una extraordinaria polémica sobre sus conclusiones: que tanto nuestro universo como los otros muchos universos posibles surgieron de la nada, porque su creación no requiere de la intervención de ningún Dios o ser sobrenatural, sino que todos los universos proceden naturalmente de las leyes físicas. "Ésta es la cuestión última de la vida, el universo y el todo. Intentaremos responderla en este libro. A diferencia de la respuesta ofrecida en la Guía del Viajero Intergaláctico, nuestra respuesta no será, simplemente, «42»". En efecto, este libro de Stephen Hawking y Leonard Mlodinow sobre los descubrimientos y los progresos técnicos más recientes nos presenta una nueva imagen del universo, y de nuestro lugar en él, muy distinta de la tradicional e, incluso, de la imagen que el propio Hawking nos había proporcionado, hace ya más de veinte años, en su gran libro "Historia del tiempo". En él, el gran físico nos explicaba de dónde procedía el universo y hacia dónde se encaminaba, pero aún no podía dar respuesta a importantes preguntas: ¿por qué existe el universo?, ¿por qué hay algo en lugar de nada?, ¿por qué existimos nosotros?, ¿necesita el universo un creador? En los últimos años, el desarrollo de la teoría "M" (en realidad toda una familia de teorías enlazadas sobre física cuántica) y las recientes observaciones realizadas por los satélites de la NASA, nos permiten ya enfrentarnos a la pregunta fundamental: la Cuestión Última de la Vida, el Universo y el Todo. Si esta teoría última es verificada por la observación científica, habremos culminado una búsqueda que se remonta a hace más de tres mil años: habremos hallado el Gran Diseño.
106
107