ANONIO CANTÓ
LA PIZARRA DE YURI 1
Este libro es una edici贸n NO AUTORIZADA de la web La Pizarra de Yuri http://www.lapizarradeyuri.com Todos los meritos del libro se deben al autor de la web. Todos sus errores, al editor.
Antonio Cantó
INDICE
Gagarin 5 Reparando homosexuales, destruyendo personas 20 Carl Sagan, el maestro de millones 33 ¿Cómo identificarías una Cosa Misteriosa? 45 Neutrinos, los notarios del universo 62 ¿Gafas de colores contra la dislexia? 75 De la muerte 93 Cosmos, de Carl Sagan 109 Fuego 114 Así funciona un arma termonuclear 126 Ibéricos extraterrestres. 144 Un viaje interplanetario relativista. 159 La bomba del juicio final. 183 ¿Por qué ya no tenemos aviones civiles supersónicos? 197 Desde el Sol hasta los ojos 215 No verás muchos objetos como este sobre la faz de la Tierra 233 El rayo, ¿sube o baja? 237 Así funciona una central nuclear 251 Así te persigue un misil. 267 Superbacterias: enfermedades resistentes a los antibióticos. 289 Qantas y Rolls Royce: Segundo incidente grave de motor en 65 días (A380 y B747) 302 El error de un Nobel que condenó el proyecto atómico nazi 306 Vida arsénica 336 ¿…y sólo sobrevivirán las cucarachas y las ratas…? 346
-4-
La Pizarra de Yuri 1
Gagarin Yuri, el 16 de septiembre de 2010 @ 12:37 · Categoría: Ciencia popular, Historia y cultura, Sociedad y civilización,Tecnología
Al parecer hubo un tipo que usaba el mismo nick que yo. Y el muy jodío hizo algo curioso.
El lugar donde Rita, su mamá y una vaca vieron bajar a un señor bajito del cielo (imagen de 1967; clic para ampliar).
Érase una vez una niña de seis años que se llamaba Rita. Rita vivía con sus papás en una granja colectiva a orillas de un río muy, muy grande, no lejos de un lugar llamado Engels. El papá de Rita era guardabosques y su mamá, que se llamaba Anna Akimova, se dedicaba a cuidar el ganado. Esta mañana, Rita había salido con su mamá para llevar a una vaca a pastar en los campos cercanos. Hacía un día muy bonito, con un cielo muy azul. Se acercaba ya el mediodía y el sol brillaba con fuerza, aunque era el mes de abril y aún hacía un poco de frío. De pronto, Rita señaló a lo alto y anunció: –¡Mira, mamá! ¡Hay un señor que baja del cielo! La mamá de Rita quiso decirle que no fuera tan fantasiosa (porque la verdad es que Rita, a veces, era un poquito fantasiosa); pero miró de reojo al punto donde señalaba la niña. Y entonces, ella también lo vio. Había, en efecto, un señor con un mono naranja y un casco blanco que bajaba del cielo en paracaídas. Anna y Rita se quedaron un poco pasmadas, viéndole descender en los campos cercanos. Y cuando el señor del mono naranja echó a andar hacia ellas arrastrando su paracaídas, la mamá de Rita la agarró con fuerza y ambas retrocedieron un poco asustadas. No hacía tantos años que terminó la Segunda Guerra Mundial, la Guerra Fría estaba ya en su pleno apogeo y podía ser que los señores que bajan del cielo no trajeran buenas intenciones. Aunque, para ser espía o soldado enemigo, este tipo era más bajito que los de las películas. Y sonreía, como si -5-
Antonio Cantó
estuviera inmensamente feliz. Además, en el casco blanco que llevaba ahora en la mano ponía “CCCP“: el acrónimo de su país. Entonces, el señor bajito del mono naranja que había bajado del cielo les gritó:
Anatoly Lugansky tomó esta fotografía, una de las primeras de Yuri Gagarin tras su aterrizaje junto al Volga, cerca de Engels.
–¡Eh, no tengáis miedo! ¡Soy soviético, como vosotras! ¡Vengo del espacio y tengo que encontrar un teléfono para llamar a Moscú! El señor bajito del mono naranja, un joven de veintisiete años que resultó ser muy alegre y simpático, se llamaba Yuri Alekseyevich Gagarin. Era el 12 de abril de 1961, cerca del mediodía, hora de Moscú. Y lo más cañero de todo es que decía la verdad: acababa de regresar del cosmos con una nave espacial llamada Vostok-1, que tomó tierra automáticamente a alguna distancia de allí. ¡Esto sí era una cosa para contar mañana en el cole! Rita y su mamá le llevaron a la granja colectiva, charlando amistosamente (aunque, la verdad, mamá no se acababa de creer mucho su historia). Mientras el supuesto kosmonavt hablaba por teléfono, alguien dijo que había oído en la radio un rato antes algo sobre el asunto este. Que el tipo era un héroe, el primer hombre en viajar al espacio, una cosa del otro mundo. Entonces, empezó una especie de locura colectiva, mucho más que cuando el Sokol de Saratov ascendió a segunda división. La gente se hizo fotos con él y se lo llevaron en un camión hacia la cercana base aérea de Engels.
-6-
La Pizarra de Yuri 1
Pero apenas habían salido a la carretera cuando apareció un helicóptero a recogerlo. Al poco, el lugar se llenaba de soldados, científicos y cámaras. La radio repetía triunfalmente con palabras muy grandes que la Unión Soviética había llevado al primer hombre al cosmos. Y el señor bajito y simpático del mono naranja salió en la tele y en los periódicos y en las revistas de todo el mundo, una y mil veces. Pues, en efecto, la historia de la civilización terrestre acababa de cambiar ante los ojos atónitos de Rita, su mamá y una vaca –cuyo nombre, por desgracia, no recordamos–, que vieron el instante en que la Humanidad entraba definitivamente en la Era Espacial. El amanecer en un lugar llamado Baikonur. La aventura extraordinaria del joven bajito con mono naranja había empezado unas horas antes, esa misma mañana, en un lugar secreto situado mil quinientos kilómetros al sudeste de allí. Por aquel entonces ese lugar aún se llamaba Tyuratam, pero pronto el mundo entero lo conocería como Baikonur. El cosmódromo de Baikonur. Esa mañana, todo el mundo se levantó muy temprano en Baikonur. Algunos ni siquiera habían dormido. Entre otros, un señor regordete, cuellicorto y cabezón cuyo nombre era tan secreto que sólo se le llamaba por las iniciales S. P. o número 20; aunque el mundo llegaría a conocerle como el Diseñador Jefe. Este señor Número 20 era quien ideó todo aquello y lo había llevado a cabo –con la ayuda de otros muchos casi tan geniales como él, claro–; y también quien decidió que el joven bajito, simpático y ligón llamado Yuri Gagarin se convertiría en el héroe de su fabulosa aventura. Le conocía en persona como al resto de sus aguiluchos –los elegidos para la gloria del programa espacial soviético–, eran amigos y hoy este aguilucho Gagarin se convertiría en águila… o moriría en el intento.
-7-
Antonio Cantó
Un Yuri Gagarin adolescente en su época de aprendiz de forjador y gamberro simpático entre las muchachas de Lyubertsy.
Yuri Gagarin era un joven piloto de la Fuerza Aérea Soviética que pertenecía ya a una nueva generación para quienes la Segunda Guerra Mundial era un recuerdo de la infancia y Stalin, un nombre de su adolescencia. Nacido en 1934, tenía once años cuando acabó el conflicto y diecinueve cuando desapareció el autócrata. Por aquel entonces, Gagarin era aún aprendiz de forjador en una fábrica, que había aprendido a pilotar avionetas en un aeroclub local y estudiaba para técnico aeronáutico en una escuela de formación profesional. Y es que procedía de una familia muy humilde: hijo de un carpintero y de una campesina a la que le gustaba mucho leer, se había criado en un suburbio industrial periférico de Moscú con no muy buena fama llamadoLyubertsy. Sus profesores decían de él que era buen estudiante pero bastante gamberro. Las muchachas de Lyubertsy coincidían en que era bastante gamberro, pero un gamberro simpático a pesar de su corta estatura –1,57, en un país donde los tipos suelen ser bastante inmensos– y esas cosas que se dicen antes de dejarse, uh, acaramelar. En 1955, a los veintiún años, Gagarin terminó su curso de técnico aeronáutico con unas notas bastante estupendas a pesar de estos entretenimientos e ingresó en la Fuerza Aérea Soviética para convertirse en piloto militar. Recibió sus alas en la Escuela de Pilotos de Orenburg, a los mandos de un MiG-15; a continuación, se casó con una chavala de nombre Valentina Goryacheva, aunque dicen las malas lenguas que no sentó mucho la cabeza en el tema de faldas. Sus superiores le enviaron a ejercer su nueva y definitiva profesión en un lugar llamado Luostari, en el óblast de Múrmansk, apenas unos pocos kilómetros al sur del Círculo Polar Ártico. Para parar a los bombarderos capitalistas si algún día decidieran atacar a la Rodina por el Polo Norte, Noruega o ese rollo. Como te imaginarás con facilidad, no es la Costa del Sol exactamente; sino un lugar maldito entre la tundra y los hielos del Océano Glaciar Ártico, con una climatología casi extraterrestre, que sólo tiene una virtud: crear magníficos pilotos, porque es preciso ser un magnífico piloto para gobernar aviones en un sitio donde hay una ventisca infernal antes de almorzar y otra después de comer como cosa de todos los días. O casi todos; luego están los días verdaderamente malos. Por lo visto, se le daba bien: a los veinticuatro años fue ascendido a teniente y a los veintiséis, a teniente primero. Más o menos en ese mismo año, 1959, comenzó a circular entre los oficiales jóvenes de la Fuerza Aérea Soviética que había una nueva oportunidad laboral relacionada con los recientes vuelos al espacio del Sputnik y de Laika. Que se admitían voluntarios, vamos, para un curro muy secreto, muy exigente y
-8-
La Pizarra de Yuri 1
muy peligroso que conducía directamente a la gloria o a la muerte en versión fritanga estratosférica y cachitos múltiples. Exactamente la clase de proposición que un joven piloto de caza encuentra irresistible: hubo miles de solicitudes, y entre ellas estaba la del teniente primero Yuri Gagarin. Quien, por cierto, acababa de tener a su primera hija: Yelena.
El cohete Vostok 8K72K que llevaría a Gagarin al espacio.
En 1960, se contaba ya entre el selecto grupo de veinte pilotos expertos elegidos para que uno de ellos se convirtiera en el primer ser humano en viajar al cosmos. Su corta estatura fue, precisamente, un punto a su favor: el espacio disponible en aquellas primeras Vostok era francamente reducido y los tipos grandullones no cabían. Pero no fue el único: las pruebas, cursos, exámenes, entrenamientos y comprobaciones de seguridad rayaban lo inhumano. Poco a poco, dos nombres fueron destilándose en aquel exclusivo grupo de pilotos excepcionales: Gherman Titov y nuestro Yuri Gagarin. Pronto se convirtió en el favorito, precisamente por ser de origen humilde (algo muy valorado en la Unión Soviética) y porque su nombre no sonaba tan alemán como el de Gherman Titov (si bien Gherman es relativamente común en Rusia y viene de San Germán de Constantinopla, un patriarca antiguo de la Iglesia Ortodoxa).
-9-
Antonio Cantó
Pero el señor Número 20, el legendario Diseñador Jefe que ya había lanzado al Sputnik y a Laika y otros cuantos objetos y animales más, no se dejaba impresionar por detalles de esos; y era precisamente este dios de la cosmonáutica quien debía tomar la decisión. Al parecer, sucedió de una forma bastante anecdótica. Estaban varios compañeros esperando en una sala para entrar a uno de los últimos exámenes teóricos, y pasaban el rato haciéndose preguntas entre sí, por practicar la prueba. Entonces, a instancia de uno de sus colegas, Yuri comenzó a recitar de carrerilla y con detalles exhaustivos los procedimientos técnicos de control de la Vostok; casi como si la hubiera diseñado él mismo. Casualmente, el Diseñador Jefe se encontraba en la habitación de al lado y pudo oírlo a través de la puerta. Y como ya tenía una muy buena opinión sobre él, especialmente porque Gagarin comprendía el alcance histórico y filosófico de todo aquel invento como muy pocos, tomó la decisión final en ese instante: el terror de las niñas de Lyubertsy, que acababa de tener a su segunda hija Galina, sería el primer gran héroe de la Era Espacial. Y así estaban las cosas en aquella mañana del 12 de abril de 1961. A unos pocos kilómetros, en una plataforma que se llamaba entonces sitio número 1 y ahora se conoce como la salida de Gagarin, esperaba ya una variante mejorada del primitivo cohete R-7 Semyorka denominada Vostok-8K72K. En la punta, una minúscula nave espacial con aspecto de helado de cucurucho raro llamada Vostok-1 y nombre en clave Cedro (Кедр, “Kedr”) aguardaba al elegido para pasar al libro gordo de la historia con letras grandes y doradas… o a una tumba con letras también grandes y doradas. Jamás se había hecho antes. Era la primera vez en que la Humanidad decidió enviar a uno de sus hijos más allá de la suave atmósfera que nos vio surgir. Y no sólo eso, sino que además iban a por el premio gordo: debía describir una órbita completa alrededor del planeta Tierra, pues sólo así se abriría la puerta para los viajes espaciales futuros. Aut Cæsar aut nihil, y esas cosas. Поехали!
- 10 -
La Pizarra de Yuri 1
Gagarin durante el entrenamiento
La mañana anterior, 11 de abril, Yuri y Gherman –Titov era el piloto de respaldo, por si a Gagarin le pasaba algo en el último momento– estuvieron charlando con unos soldados de la base de lanzamientos. Después, acudieron ya al chalé donde debían pasar la noche, junto a su jefe de entrenamiento, el general Nikolai Kamanin. En el centro de control, acaba de comenzar la cuenta atrás. Mientras se hallaban en esta casa comenzaron ya a tomar comida espacial, preparada por la Academia de Medicina de la URSS: dos raciones de puré de carne y una de salsa de chocolate, en tubos de 160 gramos. Durante la tarde, les colocan los sensores médicos que uno de los dos llevará puestos durante el vuelo y les toman las mediciones en reposo a lo largo de hora y media. Aparentemente, Yuri está muy tranquilo durante este proceso: su presión arterial es de 115/60, su pulso asciende a 64 pulsaciones por minuto y su temperatura corporal está en 36,8 ºC. A las nueve y media de la noche, el Diseñador Jefe se pasa a hacerles una visita y conversar un rato con ellos: todo está listo y el lanzamiento procederá según lo programado, con Yuri como primer piloto. Poco después, ambos cosmonautas se van a la cama; aunque el general Kamanin, quien permanece despierto en el cuarto adyacente, les oye conversar en la oscuridad hasta bien entrada la noche. Habría sido interesante estar en esa conversación, ¿eh? En la mañana del 12 de abril de 1961, como ya dijimos, todo el mundo se levanta muy temprano en Baikonur. Yuri y Gherman hacen algo de deporte, desayunan aquellos tubos de comida espacial estrictamente controlada y acuden a que les vistan con sus trajes de vuelo, sus cascos blancos y su monos naranja. A cada minuto que pasaba, había más gente alrededor: técnicos, médicos, especialistas, militares, los miembros del comité estatal. Todo el mundo parece estar de muy buen humor, aunque también se respira mucha tensión en el ambiente y la seriedad de quienes saben que se disponen a hacer historia, y no pequeña. Yuri sigue muy tranquilo y bromea con todo el mundo, como es su carácter. Ha amanecido ya cuando Gagarin, Titov y un grupo de especialistas y soldados se suben a un autobús en dirección al sitio número uno, - 11 -
Antonio Cantó
seguidos por un vehículo de escolta. Conforme se aproximan, Yuri mira al inmóvil cohete Vostok-K que ya apunta más allá de los cielos. Son las ocho y pico de la mañana cuando hay unos breves discursos, unas despedidas bastante emotivas y Yuri echa a andar hacia la plataforma de lanzamiento acompañado por técnicos, médicos y el general Kamanin. Aún existe la posibilidad de que se tuerza un tobillo o algo así subiendo la escalerilla, y entonces Titov será el primer hombre en el espacio… o el primer muerto intentándolo. Pero no sucede nada de eso. Yuri se introduce en un ascensor, asciende hasta la punta del cohete y allí es introducido y sujeto a la cápsula Vostok-1. En principio, no está previsto que Yuri tome los mandos: será un vuelo completamente automático. No obstante, le han entregado un sobre con las claves precisas para hacerlo en caso necesario. A bordo lleva comida espacial para diez días, por si acaso fallase el procedimiento de reentrada y tuviera que esperar allá lejos hasta que la órbita decaiga por sí sola. Aunque, si falla algo, lo más normal es que todo sea bastante más rápido y definitivo. Muchos pisos más abajo, las bombas comienzan a inyectar el keroseno y el oxígeno líquido para los motores cohete RD-108 de 1959.
Yuri Gagarin a bordo de la Vostok 1, listo para despegar.
Se acercan las nueve de la mañana del doce de abril de 1961, y el joven bajito y simpático que se llama Yuri Gagarin está ya encerrado en la Vostok-1. La Vostok-1, - 12 -
La Pizarra de Yuri 1
con su aspecto general de un cucurucho de helado medio asomando en la punta del cohete, está compuesta por dos partes: una esférica donde se halla el aspirante akosmonavt, y otra en forma de cono truncado para los equipos electrónicos, de orientación y apoyo. Alrededor, unos depósitos esféricos con oxígeno y nitrógeno líquidos para soporte vital y propulsión. Por radio, verifican los últimos parámetros previos al lanzamiento. El Diseñador Jefe está al mando, hoy como jefe de control de misión, y dice: –Zarya llamando a Kedr. La cuenta atrás [final] está a punto de empezar. –Recibido –contesta Yuri–. Me encuentro bien, estupendo de ánimo, listo para ir. Los rusos no usan la conocida cuenta atrás estadounidense que va descontando segundos en voz alta. Simplemente, el reloj va marcando el momento de realizar las distintas acciones previas al lanzamiento, y por fin marca la hora de cambiar la historia de la Humanidad para siempre. Entonces, mientras el cohete Vostok comienza a vibrar, los soportes de la torre de lanzamiento se apartan de él y los motores empiezan a proyectar llamaradas anaranjadas, la voz del Diseñador Jefe recita: –Etapa preliminar… intermedia… principal… ¡lanzamiento! Te deseamos un buen vuelo, todo está correcto. Yuri siente una suave sacudida, el estruendo de los motores cohete acelerando a máxima potencia y el fuerte tirón que le separa del suelo para llevarlo ni más ni menos que al espacio. Ve que ha comenzado a moverse y grita a la radio: –Poiejaly! (Поехали! “¡Allá vamos!”) Son las nueve y siete minutos de la mañana. En medio de una gran humareda, llamaradas inmensas y un rugido atronador, el cohete Vostok-8K72K se eleva desde las estepas de Kazajstán hacia el lugar donde el cielo ya no es azul pero a cambio está lleno de estrellas. Lejos de allí, a orillas del Volga, una niña llamada Rita saca a pastar a una vaca en compañía de su mamá. 108 minutos para meter a la Humanidad en la Era Espacial.
- 13 -
Antonio Cantó
Parte del panel de instrumentos de la Vostok-1 de Yuri Gagarin (clic para ampliar).
A los 119 segundos de vuelo, los cuatro impulsores externos se separan y caen hacia el desértico downrange de Baikonur. Gagarin conversa con su control de lanzamiento Zarya-1, indicando que todo parece ir bien. El Diseñador Jefe le confirma que el lanzamiento se ha producido dentro de todos los parámetros programados y que los datos transmitidos por el cohete son similares a lo previsto. A las nueve y diez, cuando el cohete lleva ahora 156 segundos elevándose a toda potencia, el aire se vuelve tan tenue que el fuselaje aerodinámico ya no es necesario y se separa, dejando al descubierto la nave Vostok-1 donde viaja Gagarin. El sistema de orientación óptico Vzor se activa y comienza a tomar referencias para el largo viaje por la órbita de la Tierra. El control de tierra le ve a través de un enlace de televisión; Gagarin parece encontrarse bien, consciente y orientado, muy contento. Los sensores médicos conectados a su cuerpo no presentan ninguna anomalía significativa. Hay que tener en cuenta que, hasta ese momento, nadie sabía realmente si un ser humano podría sobrevivir a un vuelo espacial. A los cinco minutos del lanzamiento, el cohete principal agota igualmente su combustible y se separa para caer a tierra también. La fase superior se enciende para llevar a la nave espacial hasta su destino. Un minuto después, a las 09:13, Yuri transmite al Diseñador Jefe en Zarya-1: –El vuelo sigue bien. Puedo ver la Tierra. La visibilidad es buena… puedo verlo casi todo. Hay un poquito de espacio bajo la cubierta nubosa de cúmulos… Continúo el vuelo, todo está bien. Otro minuto más tarde, el aún aspirante a kosmonavt se ratifica: –Todo funciona muy bien. Todos los sistemas están operativos. ¡Sigamos adelante!
- 14 -
La Pizarra de Yuri 1
A las 09:15, la etapa superior está activa aún y se encuentran ahora sobre Asia Central. El cielo es negro por completo y está lleno de estrellas. Debido al veloz aumento de la distancia a Baikonur, las comunicaciones de radio empeoran rápidamente. Está previsto: Zarya-2, el centro de seguimiento de Kolpashevo, trata de restablecer las comunicaciones lo antes posible. A las 09:17, la última etapa se apaga y el computador de a bordo libera a la nave espacial Vostok. Ahora ya no tiene ninguna propulsión, ni la necesita. Diez segundos después, Yuri Gagarin entra en órbita. ¡Está en el espacio! Ahora ya es un verdadero kosmonavt, el primero de todos, el pionero de la Humanidad: el fundador. Cualquier cosa que hagan las generaciones futuras más allá de la Tierra, lo harán como sucesores del ciudadano soviético Yuri Alekseyevich Gagarin a bordo de su nave Vostok-1, creada por el señor Número 20 y los suyos. Pero aún queda mucho trabajo por hacer hasta regresar con vida a casa. Ahora mismo se encuentra sobre Siberia, en dirección al este, al Océano Pacífico. Transmite a Zarya-2:
Yuri Gagarin en vuelo. Imagen transmitida a través de un enlace de televisión con los centros de control Zarya.
–La nave está funcionando normalmente. Veo la Tierra a través del ojo de buey del Vzor. Todo procede según lo planeado. A las 09:21 la Vostok-1 sobrepasa la Península de Kamchatka para adentrarse en el Océano Pacífico, abandonando así la Unión Soviética. Gagarin aprovecha para emitir un informe de situación: –Las luces están activadas en el monitor de descenso. Me encuentro bien y de buen ánimo. Parámetros de cabina: presión atmosférica 1, humedad 65, temperatura 20. Presión en el compartimiento 1, primer automático 155, segundo automático 155, presión en el sistema de retrocohetes 320 atmósferas. Ha transcurrido un cuarto de hora desde el lanzamiento y se está haciendo rápidamente de noche. Va a ser el día y la noche más cortos vividos por un ser humano jamás: poco más de 100 minutos para dar la vuelta completa a la Tierra y todos sus husos horarios. Conforme la Vostok-1 se adentra hacia las tinieblas del Pacífico, Zarya-3 (en Yelizovo)
- 15 -
Antonio Cantó
entra en contacto con el kosmonavt a las 09:26 y éste les pide un informe de telemetría. Sin embargo, Zarya-3 apenas tiene datos aún: –¿Qué podéis decirme del vuelo? ¿Qué me decís? –pregunta Yuri. –No hay instrucciones de Número 20 –le contestan desde Yelizovo–. El vuelo procede con normalidad. –¡Pero dadme los datos del vuelo! Ah, y mandadle un saludo al Rubio –pide Gagarin, en referencia a su amigo y futuro cosmonauta Alexei Leonov. Zarya-3 no puede darle datos de telemetría todavía –sólo lleva seis minutos en órbita y en aquella época esas cosas se tomaban su tiempo–, pero sí confirmarle que todos los sistemas están operando correctamente. La conversación languidece mientras las comunicaciones empeoran, conforme la Vostok-1 entra definitivamente en la noche sobre el Océano Pacífico. Desde Alaska, una estación de guerra electrónica estadounidense capta las imágenes de televisión que proceden desde el espacio, donde se ve a un hombre joven con casco hablando en ruso. No saben a qué atenerse, pero comprenden que están ante algo histórico y se ponen en comunicación con Washington. A casi ocho kilómetros por segundo y más de trescientos kilómetros de altitud sobre la superficie terrestre, Gagarin avanza ahora hacia las Islas Hawaii. Las comunicaciones por VHF ya no son posibles a tanta distancia, pero continúan intercambiándose mensajes por HF. Un rato más tarde, Yuri transmite:
Trayectoria de la Vostok-1 (clic para ampliar; horas expresadas en UTC).
–Informe regular de situación: son las nueve horas y cuarenta y ocho minutos, el vuelo procede con éxito, Spusk-1 está operando con normalidad. El índice móvil del monitor de descenso está moviéndose […] Me encuentro bien.
- 16 -
La Pizarra de Yuri 1
A las 09:51, comunica también que el control de actitud por orientación solar se ha activado. Aún tiene que esperar dos minutos más para recibir desde Khabarovsk el mensaje que llevaba esperando todo el rato: –Kedr, aquí Zarya-2. Por orden de Número 33 [el general Kamanin] hemos encendido los transmisores y comunicamos lo siguiente: el vuelo procede normalmente y la órbita ha sido calculada. A Yuri le cuesta mantenerse quieto en su asiento cuando oye estas palabras. Porque está exultante: ¡lo han logrado! No sólo está en el espacio, sino que se encuentra en una órbita verdadera y estable alrededor de la Tierra, no derivando sin rumbo hacia cualquier lugar. Ahora, incluso si todo saliera mal y nunca pudiera volver, Yuri Alekseyevich Gagarin pasaría ya a la historia como el primer navegante verdadero del cosmos: el cosmonauta original. Sin embargo, el terror de las niñas de Lyubertsy tiene toda la intención de regresar sano y salvo, aunque sólo sea para volver a ver a sus hijas y celebrarlo como corresponde a tan excepcional ocasión. Contesta, a las 09:56: –Recibido, recibido, Zarya-2. Kedr está en órbita calculada alrededor de la Tierra. Continúo el vuelo, me encuentro sobre América […] En realidad no se halla sobre el continente americano, pero puede verlo a la confusa luz del amanecer desde allá arriba, donde ya no hay “arriba” ni “abajo”. Sobrevuela el Pacífico Sur en dirección a la Península Antártica para pasar al Atlántico mientras el sol sale ante sus ojos a toda velocidad. Cristóbal Colón, Fernando de Magallanes, Vasco de Gama, Yuri Gagarin, susurra la Historia en sus oídos. En el noticiario de las diez en punto, Radio Moscú comienza a anunciar al mundo que hay un cosmonauta soviético en el espacio, para asombro de las gentes y las naciones. Yuri intenta varias transmisiones durante estos minutos, pero no se reciben en la URSS, al otro lado del planeta. Salvo una, a las 10:13, emitida ya desde el Atlántico Sur: “Os recibo bien; el vuelo sigue…”. A las 10:25, la Vostok-1 conmuta automáticamente a actitud de reentrada. Se encuentra cerca de la costa angoleña, a 8.000 kilómetros del punto de aterrizaje previsto en Rusia occidental. Los retrocohetes se disparan durante cuarenta y dos segundos; con eso, la nave espacial pierde velocidad y comienza a caer de nuevo hacia la Tierra sobre África. Diez segundos despúes el computador de a bordo ordena la separación del módulo de equipamiento, pues está previsto su aterrizaje por separado.
- 17 -
Antonio Cantó
Copia de la Vostok-1 en el Museo del Aire y del Espacio, París Le Bourget.
Entonces sucede un fallo que está a punto de terminar con la misión y matar a Gagarin durante la ardiente reentrada: un grupo de cables no se separa correctamente y los dos módulos quedan enganchados. Además, conforme vuelve a haber aire alrededor de la nave, aunque sea todavía muy tenue, la Vostok-1 comienza a girar sobre sí misma a gran velocidad debido a la forma esférica del módulo de descenso. Sin embargo, Yuri no trata de comunicarse para decir que algo va mal: ha deducido correctamente que estas anomalías no ponen en peligro a la nave y, según diría después, “no quise hacer ruido innecesariamente”. Unos minutos más tarde, el grupo de cables que ha impedido la adecuada separación se quema por el enorme calor de la reentrada y los dos elementos de la Vostok-1 se distancian por fin. Yuri se encuentra ahora sobre Egipto y la nave sigue rotando con fuerza, sometiéndole a aceleraciones de 8,5 g, pero el cosmonauta permanece consciente y sigue sin transmitir nada en particular. A partir de las 10:35, la Vostok-1 pasa sobre las pirámides de Egipto y se adentra en el Mar Mediterráneo, al oeste de Chipre. Tras atravesar Turquía, regresa a la Unión Soviética por la costa del Mar Negro, cerca de Krasnodar. El cielo vuelve a ser azul. Sigue descendiendo en dirección al Volga y por fin, a las 10:55, Yuri activa el asiento eyectable a siete kilómetros de altitud tal y como estaba previsto. Esto generó alguna polémica con posterioridad, puesto que se suponía que los cosmonautas debían permanecer con su nave hasta el aterrizaje para hacer valer sus récords ante la Federación Aeronáutica Internacional (aunque, como no podía ser menos, la cosa quedó definitivamente saldada a su favor; y, de todos modos, esto era ya astronáutica).
- 18 -
La Pizarra de Yuri 1
Sin embargo, esta era una preocupación completamente secundaria para el equipo del señor Número 20: la toma de tierra final podía ser dura y no estaban dispuestos a que uno de sus valiosos cosmonautas se rompiera los dientes así como así. Por tanto, hubo tres paracaídas en el aire: el del módulo de descenso, el del módulo de equipamiento y el de Yuri. Debido a los problemas de separación sobre África, el módulo de equipamiento caería bastante lejos. A las 10:55, dos chicas adolescentes vieron aterrizar el módulo de descenso de la nave espacial Vostok-1. Lo contaron así: “Era una bola muy grande, como de dos o tres metros, con un paracaídas enorme. Cayó, rebotó y volvió a caer. Se hizo un agujero bastante grande donde había caído por primera vez…” Yuri, cuyo paracaídas se ha abierto a 7.000 metros de altitud, es arrastrado por un viento suave hasta las orillas del Volga. Allí desciende, sobre unos campos de cultivo, y ve a una niña que señala hacia él, con su mamá y una vaca. Son las once y cinco, y la Humanidad ha entrado en la Era Espacial de la mano del Diseñador Jefe y el joven bajito del mono naranja que se llama Yuri Alekseyevich Gagarin. La mamá parece asustada, pero la niña –Rita– le mira con unos ojos enormes y llenos de fascinación. –¡Mira, mamá! ¡Hay un señor que baja del cielo! Y colorín colorado, este cuento no ha acabado y ya nunca terminará.
- 19 -
Antonio Cantó
Reparando homosexuales, destruyendo personas Yuri, el 12 de septiembre de 2010 @ 12:24 · Categoría: Ciencia popular, Sociedad y civilización
Cuando la ciencia deja de ser ciencia y hace concesiones a los valores morales tradicionales, los tabús sexuales, las doctrinas religiosas y los linchamientos sociales, nos acercamos rápidamente al borde del abismo.
Monumento a Alan Turing (1912-1954), padre de la informática moderna, de la máquina de Turing, de los ordenadores de propósito universal y criptoanalista de la máquina Enigma. Fue empujado al suicidio por las brutales terapias contra la homosexualidad que le aplicaron como alternativa a la prisión.
¿Puede haber mala ciencia? Sí, claro: toda aquella que abandona el método científico para satisfacer los prejuicios, miedos, manías y deseos de determinados grupos sociales, políticos o religiosos. Ya te conté enPsiquiatría Delirante cómo la mala ciencia se usó para justificar y potenciar la esclavitud, el racismo, el colonialismo salvaje, la lobotomía, los abusos farmacológicos, el Ku Klux Klan y hasta el genocidio nazi; es que esto de la psiquiatría, la psicología y la neurología (y la antropología), por lo que tienen de estudio íntimo del ser humano, da mucho juego para hacer el animal en cuanto se salen del más estricto método científico. Hoy hablaremos de otra tendencia que ha gozado de diversas épocas de popularidad a lo largo de los últimos doscientos años: la reparación del personal sexualmentedesviado o, si tal cosa no era posible, la supresión de su peligrosidad social; una de cuyas víctimas más notorias fue – naturalmente– Alan Turing, el padre de la informática moderna. Sexualidades alternativas. Este asunto de los gustos sexuales más allá del metesaca reproductivo básico ha sido materia delicada en todas las sociedades que ha creado la Humanidad; y su percepción y tratamiento, también. Para empezar, cada sociedad y tiempo ha tenido sus tabúes
- 20 -
La Pizarra de Yuri 1
sexuales, con frecuencia distintos e incluso contradictorios. Los romanos, que tan exagerados eran en algunas cosas, sentían un profundo desprecio por algo tan normalito como el sexo oral: lairrumatio estaba sujeta a burla y ridículo, y la persona que chupaba –fellator o fellatrix– se consideraba humillada de manera vergonzosa; una actividad propia de prostitutas y esclavos (y esclavas, claro). Por el contrario, un romano nunca habría entendido nuestro escándalo ante las relaciones sexuales con menores de edad, y seguramente se habría reído de nosotros. Bueno, un romano y toda cultura anterior al siglo XX, donde la edad reproductiva aceptada comenzaba de manera natural con el inicio de la pubertad y la edad a la que resultaba posible casarse era incluso anterior. De hecho, las leyes que determinan una edad mínima de consentimiento no empezaron a generalizarse hasta finales del siglo XVII, y esta edad era de entre diez y doce años; y así siguió siéndolo hasta segunda mitad del siglo XIX, cuando comenzaron a subirla por razones relacionadas con el puritanismo y elvictorianismo anglosajones. Este es el motivo de que la edad de consentimiento sea más elevada en los países tradicionalmente protestantes que en los tradicionalmente católicos (en España, por ejemplo, sigue siendo de 13 años, y en muchos estados mexicanos es incluso inferior de facto; los países musulmanes y asiáticos, por su parte, sólo han establecido limitaciones a raíz de esta influencia anglosajona). En todas las grandes culturas de la Antigüedad –Egipto, Mesopotamia, Grecia, Roma, China– la edad de los participantes en un acto sexual no era ni siquiera asunto de su interés, o al menos no lo bastante como para hablar de ello o codificarlo de ninguna manera. En realidad, se consideraba parte del metesaca reproductivo básico: “las muchachas echan tetas y comienzan a parir hijos, ¿cuál es la noticia?”, nos habría preguntado cualquier súbdito o ciudadano de tiempos pasados.
- 21 -
Antonio Cantó
Un fresco en las Termas Suburbanas de Pompeya plasma un trío sexual donde un hombre sodomiza a otro mientras éste mantiene relaciones con una mujer (siglo I dC aprox.).
La naturaleza del acto sexual, en cambio, ha sido objeto de restricciones, limitaciones y tabúes a lo largo de casi toda la historia de la Humanidad. Y, de manera muy notable en Occidente, la homosexualidad masculina. La femenina, en cambio, no parecía ser tan importante: lo que hicieran las hembras entre parto y parto nunca llegó a convertirse en materia de estado. Es bastante conocida la actitud liberal e incluso positiva de los griegos ante el tema (incluyendo a los muy machotes espartanos), pero también las severas condenas plasmadas en el Antiguo Testamento bíblico contra los sodomitas (que los clérigos posteriores extendieron a la homosexualidad femenina, aunque no es eso lo que dice el texto original). Los romanos, más que nada, hacían chistes al respecto (los romanos eran unos cachondos, si bien unos cachondos bastante crueles); y el historiador británico Edward Gibbon (1737-1794) comentó que “de los quince primeros emperadores [romanos], Claudio fue el único cuyos gustos en el amor eran enteramente correctos“. Antes –durante la República Romana– habían empezado a aparecer leyes, como la Lex Scantinia, prohibiendo la homosexualidad entre personas libres (los esclavos eran cosas, y por tanto podían ser utilizadas a discreción de cada cual); parece que el número de persecuciones efectivas en virtud de estas leyes fue muy reducido y eran más un arma arrojadiza política que otra cosa. En tiempos imperiales, habían perdido ya buena parte de su vigencia. Dicen queNerón se casó con uno de sus esclavos (el primer registro de un matrimonio homosexual de la historia), consta queHeliogábalo hizo lo propio con otro esclavo que se llamaba Hierocles, Trajano se lo pasaba pipa con los chavales,Adriano hace leyenda con el guapísimo Antinoo y el tema estaba lo bastante normalizado como para representarse en espacios públicos; por ejemplo, en las termas suburbanas de Pompeya (donde aparece un trío bisexual y una escena lésbica). A los egipcios antiguos, por su parte, el asunto no les resultaba de particular interés. Aunque apenas se conservan referencias al respecto, la primera pareja homosexual (o bisexual) conocida podrían ser los supervisores de la manicura real (estilistas, vaya, ¡qué raro!) Nianjjnum y Jnumhotep, según las imágenes presentes en su tumba común de Saqqara (aprox. 2.400 a.C.). Pero vaya, que parece que a los egipcios esto de la cosa gay les importaba también lo bastante poco como para ni siquiera hablar de ello (ni para relatarlo, ni para exaltarlo ni para condenarlo; o lo llevaban muy escondido o se les daba una higa). Ocurre además que, en la mayoría de las culturas antiguas, las relaciones interpersonales que no determinasen linajes reales o aristocráticos (lo que las convertía en un asunto de
- 22 -
La Pizarra de Yuri 1
estado) se consideraban eminentemente un asunto privado entre personas o familias donde nadie más tenía por qué meter el hocico. En Roma, por ejemplo, no existía una ceremonia civil específica a la que llamar boda o matrimonio; la manifestación pública de que una pareja vivía junta por mutuo consentimiento, o había intercambiado dotes, bastaba para considerarlos una nueva familia (aunque los ricos y poderosos organizaban grandes fiestas y rituales que están en la base de nuestra bodas modernas). Estaba laconferreatio, el manus, el usus, el coemptio y los distintos arreglos entre esclavos y entre esclavos y libres y entre ciudadanos y no-ciudadanos y el sursum corda. Vamos, que cada cual se lo montaba como quería y podía dentro de unas ciertas costumbres sociales generalmente admitidas. Marcial (40-104 dC), en sus Epigramas, nos habla de numerosas familias homosexuales; y Juvenal (60-128 dC) nos cuenta que acudir a una de estas fiestas para celebrar una unión homosexual se había convertido en cosa corriente.
La copa Warren (Roma, aprox. 5 - 15 dC) difícilmente puede ser más explícita. Pieza GR 1999.4-26.1, British Museum.
La persecución de la homosexualidad occidental. En las religiones abrahámicas de las que emerge el cristianismo dominante en Occidente a partir de la caída de Roma, en cambio, todo esto está mucho más severamente reglamentado y restringido. Y la homosexualidad masculina, como ya sabemos, es el objeto de duras condenas:
- 23 -
Antonio Cantó
Los libros sagrados de las religiones abrahámicas como la Torah judía, la Biblia cristiana y las Hadiz de los musulmanes contienen numerosas apelaciones a la persecución y muerte de las personas homosexuales por orden divina.
“Si alguien se acuesta con varón como con mujer, ambos han cometido abominación: morirán sin remedio; su sangre caerá sobre ellos.” –Levítico 20:13, en la Biblia.
El Nuevo Testamento cristiano no es mucho más comprensivo al respecto; el único cambio es que, bajo las leyes romanas, ya sólo pueden condenar a la gente al infierno: “¿No sabéis acaso que los injustos no heredarán el Reino de Dios? ¡No os engañéis! Ni los impuros, ni los idólatras, ni los adúlteros, ni los afeminados, ni los homosexuales, ni los ladrones, ni los avaros, ni los borrachos, ni los ultrajadores ni los rapaces heredarán el Reino de Dios. –Primera Epístola a los Corintios 6:9-10, en la Biblia.
Sobre esta base religiosa, la cultura occidental derivó hasta adquirir un carácter fuertemente homófobo a lo largo de los siguientes siglos. Con la cristianización y decadencia de Roma, la homosexualidad va siendo demonizada y termina por convertirse en un chivo expiatorio social sujeto a castigos brutales que comúnmente incluían la muerte –al estilo de aquellos tiempos, ya sabes–. Ya los tres primeros emperadores cristianos penalizaron virulentamente toda relación homosexual, lo que aparece recopilado así en el Código Teodosiano: “Cuando un hombre se casa y está a punto de ofrecerse a sí mismo a los hombres a la manera de las mujeres, lo que él desea; cuando el sexo ha perdido todo su significado; cuando el crimen es uno del que no es beneficioso saber; cuando Venus es cambiada a otra forma; cuando el amor se busca y no se encuentra; [entonces] ordenamos que se alcen los estatutos, que las leyes se armen con una espada vengadora, que esas personas infames que ahora son culpables, o pronto lo serán, sean sujetas a pena
- 24 -
La Pizarra de Yuri 1
exquisita.” –Codex Theodosianus, 9.7.3.
Te puedes imaginar que esto de la pena exquisita era, básicamente, cualquier forma horrenda de morir lentamente. Así desaparecían las uniones homosexuales legales durante los siguientes diecisiete siglos; y así se extinguía también toda posibilidad de mantener relaciones homosexuales al amparo de la ley cristiana. Los perpetradores (y sobre todo los pasivos) quedaban directamente condenados a la hoguera: “Todas las personas que tienen la costumbre vergonzosa de condenar el cuerpo de un hombre, desempeñando la parte de una mujer para sufrimiento del sexo ajeno (pues no parece que sean diferentes a las mujeres), deben expiar un crimen de esta clase entre las llamas vengadoras a la vista del pueblo.” –Codex Theodosianus, 9.7.6.
El caballero suizo Von Hohenberg es quemado vivo junto a su escudero frente a las murallas de Zurich, en 1482. Ambos habían sido condenados por homosexualidad.
El emperador Justiniano (483-565), en sus Novellæ Constitutiones, comienza a convertir a los homosexuales en chivos expiatorios de todos los males que afectan al pueblo, igual que se hizo con los judíos y las brujas: “Y puesto que sabemos que algunos hombres, en las cadenas del diablo, se dan de manera grandemente disoluta a cosas que son contrarias a la propia naturaleza […], dado que el hambre y los terremotos y las pestilencias están causados por estos pecados, les amonestamos para que se abstengan de los crímenes mencionados, para no perder sus almas. Y si hay algunos que perseveren en esta
- 25 -
Antonio Cantó
iniquidad tras esta nuestra amonestación, ellos mismos se han demostrado indignos de la clemencia de Dios […] y se les aplicará la pena de muerte.” –Novellæ Constitutiones, 77. Ver también la 141.
San Pedro Damián (1007-1072) cargó extensamente contra la homosexualidad y la masturbación en su Liber Gomorrhianus. La monja mística Hildegarda de Bingen (1098-1179) –canonizada de facto por Juan Pablo II y Benedicto XVI– aseguró que, según sus visiones, Dios en persona abominaba de la homosexualidad tanto masculina como femenina (en lo que constituye una de las primeras condenas expresas del lesbianismo). Por su parte, el reformador protestante Martín Lutero (1483-1546) dijo: “El vicio de los sodomitas es de una enormidad sin parangón. Se aparta del deseo y la pasión naturales, plantados en la naturaleza por Dios, según los cuales el varón tiene un deseo pasional por la hembra. La sodomía persigue lo que es completamente contrario a la naturaleza. ¿De dónde viene esta perversión? Sin duda alguna, procede del diablo.” –En Plass, E.M.: Lo que dice Lutero: una antología.
Se profundizaba así en una larguísima persecución que la Inquisición católica y las autoridades protestantes recogieron con gran afición durante toda la Edad Media y el Renacimiento. Cualquier persona sospechosa de cometer el llamado crimen contra natura o pecado nefando corría un riesgo cierto e inmediato de acabar en la hoguera, además de otros tormentos brutales fáciles de imaginar dadas sus características. Sólo en Sevilla, entre 1578 y 1616, fueron ejecutadas al menos cincuenta y cinco personas por esta razón, y un número muy superior resultaron condenadas a azotes y galeras. En los territorios protestantes, la homosexualidad se persiguió con aún mayor afán. Y en los territorios musulmanes sucede lo propio, más al calor de las Hadiz que del Corán, aunque al parecer de una manera menos obsesiva hasta el surgimiento y expansión del wahabismo a partir de mediados del siglo XIX (puesexiste una literatura homoerótica árabe durante toda la Edad Media, a diferencia de lo que sucede en la Cristiandad, donde fue exterminada por completo). Resulta imposible saber cuánta gente fue encarcelada, torturada y asesinada por homosexualidad durante este largo periodo, aunque con toda seguridad la cifra asciende a muchos miles y puede que algunos millones. Todo lo relacionado con la afectividad entre personas del mismo sexo, y especialmente entre hombres, fue demonizado en la mentalidad popular al mismo nivel que los judíos, los herejes o las brujas (y los cuatro
- 26 -
La Pizarra de Yuri 1
conceptos fueron vinculados en el proceso). La caza del marica se convirtió en deporte habitual, con la aprobación de la sociedad y la complicidad de las autoridades. Homofobia pseudocientífica.
La Revolución Francesa de 1789 marcó el principio del fin del Antiguo Régimen en Europa. En la imagen, La libertad guiando al pueblo, de Eugène Delacroix (1830). En 1791, la Francia revolucionaria despenalizaba la homosexualidad por primera vez en Europa Occidental desde la caída del Imperio Romano.
La Ilustración, el Racionalismo y los cambios revolucionarios que terminaron con el Antiguo Régimen a lo largo de los siglos XVIII, XIX y XX comenzaron a acabar también con estas persecuciones brutales, pues los poderes religiosos que habían sido predominantes durante todo el periodo anterior se vieron ahora rechazados y expulsados de muchos ámbitos. Pero, si bien a esas alturas todo el mundo sabía ya que las brujas no eran más que pobres desgraciadas y que los herejes seguramente eran librepensadores, el antisemitismo y la homofobia no iban a desaparecer con tanta facilidad. La sociedad necesitaba nuevos argumentos para seguir odiando y despreciando a estos colectivos, y ahí estuvo la mala ciencia para proporcionárselos con una serie de conjeturas e hipótesis que violaban el método científico por todas partes pero las buenas gentes anhelaban tragarse con anzuelo, plomada y sedal. ¿Cómo íbamos a seguir manteniendo los valores familiares tradicionales racistas, clasistas, mojigatos, antisemitas y homófobos, si no? Como suele ocurrir, el pecado, la violación de determinadas reglas morales y religiosas, fue convertida en enfermedad. Lentamente, las personas gays, lesbianas y bisexuales dejaron de ser pecadores para transformarse en enfermos. Eso, además, permitía mantener la criminalización de la homosexualidad en los países más tradicionalistas
- 27 -
Antonio Cantó
como materia de salud pública, moral social y protección de la juventud. Fue el psiquiatra austro-alemán Richard von Krafft-Ebing quien, en su famosa obra Psychopathia Sexualis (1886), caracterizó un gran número de desviaciones sexualescomo enfermedades mentales. Los razonamientos de Krafft-Ebing difícilmente pueden considerarse científicos: en esencia, está convencido por razones morales y religiosas de que el único fin de la sexualidad es la procreación, y por tanto todo lo que se salga de los mecanismos estrictamente necesarios para garantizarla son parafilias (“desviaciones”). Por ejemplo, para Krafft-Ebing, la violación era un acto moralmente reprobable pero no una perversión sexual, puesto que podía dar lugar a un embarazo. Obviamente, la homosexualidad masculina y femenina cayó de lleno en la telaraña psiquiátrica de Krafft-Ebing (que hoy en día sabemos que no sirve, esencialmente, para nada). No era la primera vez que la atracción por las personas del mismo sexo resultaba caracterizada como una forma de enfermedad mental, pero la enorme influencia dePsychopathia Sexualis convirtió este concepto en dogma científico-moral para todo psiquiatra, neurólogo o psicólogo de su tiempo, pasando rápidamente a la política, la religión y la sociedad porque les venía de lo más bien. Y si la homosexualidad era una enfermedad, entonces tenía pronóstico, diagnóstico y sobre todo tratamiento. Porque sí, porque todas las enfermedades los tienen; esta no iba a ser una excepción.
El Homomonumento de Amsterdam, en memoria de las personas homosexuales asesinadas por su condición. Hasta 15.000 seres humanos perecieron en los campos de exterminio nazis por preferir a las personas de su mismo sexo.
A su manera, los planteamientos de Krafft-Ebing fueron un avance para su tiempo. Por ejemplo, era firmemente contrario al uso de la castración y otros métodos quirúrgicos para combatir la enfermedad nefanda, favoreciendo el hipnotismo y otras técnicas - 28 -
La Pizarra de Yuri 1
blandas en su lugar. Ni siquiera fue partidario de encerrar a los homosexuales en manicomios, como empezó a ocurrir poco después. Durante los siguientes años se fueron generalizando diversas técnicas para erradicar esta enfermedad mental: la amputación del clítoris, los ovarios o el útero en las mujeres, la castración en los hombres, la vasectomía, la sección del nervio púbico y posteriormente la lobotomía a escala industrial que ya tratamos en el artículo anterior. Y si se hacía en la infancia, mejor, para coger la enfermedad a tiempo. A su manera, funcionaba, claro: cuando dejas a alguien castrado o convertido en un vegetal, lo más normal es que su perversión sexual mejore (al desaparecer el deseo sexual en su conjunto, obviamente). Por desgracia, estos tratamientos presentan algunos incómodos efectos secundarios: constituyen una fábrica de psicópatas peligrosos, antisociales y trastornados graves de toda especie, cuando no inválidos para toda la vida o directamente suicidas. Los nazis, en su sempiterna búsqueda de soluciones simplonas a problemas complejos, afrontaron este problema de salud pública mediante su solución favorita: la eugenesia y el exterminio. Erradicado el enfermo se erradica la enfermedad o, en términos más castizos, muerto el perro se acabó la rabia. Con esta sencilla aplicación del sentido común, aproximadamente cincuenta mil homosexuales acabaron en las prisiones nazis y entre cinco y quince mil desaparecieron en los campos de exterminio. Sí, la mala ciencia, los prejuicios y el peor sentido común nos ponen a todos al borde del abismo. En los países occidentales y en el entorno soviético prefirieron seguir avanzando en los tratamientos, con o sin internamiento. Una nueva generación de psiquiatras, psicólogos y neurólogos a ambos lados del Telón de Acero decidieron que eso de ir capando o lobotomizando a la gente por ahí era un atraso: ahora disponían de un potente arsenal farmacéutico para tratar el supuesto mal. Y se aplicaron a fondo, con las mejores técnicas neuropsiquiátricas de su época: electroshock, choque farmacológico, castración química, tratamientos hormonales, aplicación de toda clase de psicofármacos y por supuesto largas sesiones de psicoterapia sustentadas en la aceptación de la enfermedady la mejora de la calidad de vida (pues ya iban dándose cuenta de que el tema no tenía cura, y es normal: no se puede curar lo que no es una enfermedad). El gran científico y padre de la informática moderna, Alan Turing, fue una de las víctimas de estas atrocidades (que frecuentemente se aplicaban por orden judicial o paterna, como una alternativa a la cárcel o el reformatorio); quizá Turing sea la cara más visible de los miles y probablemente millones de víctimas de todas estas supercherías que empujaban a la gente a la locura, la violencia, el aislamiento y el suicidio de manera sistemática y científica. La terapia de reparación.
- 29 -
Antonio Cantó
Fotograma de La Naranja Mecánica (Stanley Kubrick, 1971), donde se muestra una representación cinematográfica de la terapia aversiva.
Ah, sí, y otro truqui que se la habría puesto dura al mismísimo Pavlov: la terapia aversiva. Siguiendo los principios fundamentales del condicionamiento clásico y de laescuela conductista, a algún genio se le ocurrió que si le arreas a alguien calambres eléctricos en los genitales u otras partes del cuerpo mientras lo expones al objeto de su deseo, a lo mejor –a lo mejor– le toma repelús y deja de desearlo. Y es que los conductistas son muy aficionados a brillanteces del tipo de curarte la fobia a las arañas exponiéndote a un nido de arañas, o el miedo a volar metiéndote en el asiento trasero de un avión acrobático (que no digo que no pueda llegar a funcionar en algunos casos, pero telita con lagenialidad). Por supuesto, funciona mucho mejor con los niños porque se coge la enfermedad a tiempo, etcétera. En fin: el caso es que toda una generación de conductistas y asimilados se pasaron algunas décadas metiéndoles descargas eléctricas a la gente (y con frecuencia a menores) una y otra vez para generarles aversión a las personas del mismo sexo. Este tratamiento, básicamente el experimento Ludovico de La naranja mecánica, se puede resumir fácilmente como una larga serie de crueles sesiones de tortura terapéutica para inducir temor, rechazo y paranoia ante todo lo vinculado con la misma (como, por ejemplo, fotos de personas de tu mismo sexo desnudas o en actitud erótica que te iban enseñando, y entonces, ¡zasca! Voltios a tutiplén.) Esta técnica fue muy popular para regenerar desviados en las prisiones de diversas dictaduras recientes que mantuvieron o mantienen la criminalización de la homosexualidad; entre ellas, el franquismo, sobre todo en lasprisiones de Badajoz y Huelva. Y también en clínicas privadas, de nuevo con preferencia a los niños y niñas raritos o sólo sexualmente curiosos. La cosa sigue así hasta 1973, cuando la homosexualidad es retirada del DSMnorteamericano por falta de todo fundamento - 30 -
La Pizarra de Yuri 1
científico para seguir considerándola una enfermedad mental; en Europa, no desaparecerá por completo del CIE hasta 1992. La completa rehabilitación de Alan Turing por el Gobierno Británico y la petición de disculpas póstumas del entonces Primer Ministro Gordon Brown es, quizá, la mejor expresión del fin de estas supersticiones medievales en el mundo occidental: “Si bien a Turing se le aplicó la ley de su tiempo y nosotros no podemos hacer que el reloj vuelva atrás, por supuesto su tratamiento fue absolutamente injusto, y me agrada tener la oportunidad de decir lo mucho que lamento y lamentamos lo que le ocurrió… Por tanto, en el nombre del Gobierno Británico y de todos aquellos que viven en libertad gracias al trabajo de Alan, me siento muy orgulloso de decir: lo sentimos mucho; merecías algo mucho mejor.” –El Primer Ministro del Reino Unido, Gordon Brown, en declaración oficial (2009).
Aquí, por supuesto, aún no se ha disculpado nadie por nada.
En pleno siglo XXI, páginas web de organizaciones religiosas que pretenden pasar por científicas (como esta de una autodenominada Asociación Médica Católica) siguen tratando de confundir al público con ideas patológicas sobre la homosexualidad que no se apoyan en ningún fundamento científico y son muy peligrosas para la salud mental de las personas. Constituyen la cara amable, moderna y pseudocientífica de una vieja superstición (clic para ampliar).
Pese a todos estos avances, a través del nuevo fundamentalismo religioso con piel de oveja pseudocientífica, algunas de estas técnicas para enderezar maricas y bolleras han llegado hasta nuestros días. Sobre todo en y desde los Estados Unidos, vagamente nucleadas en torno a la organización integrista NARTH, diversas clínicas mucho menos que científicas siguen ofertando la denominada terapia de reparación –también llamada terapia reparativa, terapia de reorientación sexual o terapia de conversión–. Las principales organizaciones científicas contemporáneas consideran esta terapia falsa, ineficaz, muy peligrosa para la salud mental de las personas y carente de todo
- 31 -
Antonio Cantó
fundamento científico: una vez más, no se puede curar lo que no es ninguna enfermedad. Esto es así incluso cuando se renuncia a los métodos directos, pero se aplica manipulación mental mediante sesiones o cursos de pseudo-psicoterapia y autoayuda, como los patrocinados en España y Latinoamérica por distintas iglesias tanto católicas como protestantes. Quien lo intente, aunque sea de manera bienintencionada, terminará hiriendo y destruyendo a la persona con toda probabilidad. (Convendría recordar aquí que, en la mayoría de países europeos contemporáneos, quien aplique semejantes tratamientos a una persona menor de edad es más que posible reo de maltrato y abuso infantil, y puede que hasta de abuso sexual de menores; por lo que cualquier persona de bien que tuviera conocimiento de algo semejante en su entorno debería ir a ponerlo en conocimiento del juzgado de guardia inmediatamente.) Para empeorar las cosas, el nuevo fundamentalismo islámico en el mundo musulmán también ha hecho bandera de la persecución de la homosexualidad y los homosexuales, con numerosos encarcelamientos, torturas y ejecuciones en una extensa región del mundo. A veces parece que lo que llevamos de siglo XXI es un retroceso al siglo XI, la verdad. Sin embargo, y pese a los errores pasados, la ciencia ha seguido aprendiendo y ahora sabe que las personas homosexuales no están enfermas; por fortuna, ya nadie podrá acogerse a un argumento científico para justificar sus prejuicios, su odio y su ignorancia. Y al hacerlo, no son las personas homosexuales quienes han sido rehabilitadas –pues no les debería haber hecho ninguna falta, si no hubiera sido por tanta injusticia–, sino la ciencia quien se ha rehabilitado a sí misma de una mancha vergonzosa mediante su mayor poder, el que la diferencia de todo dogma y superstición: la capacidad de reconocer sus propios errores, aprender de los mismos y contribuir decisivamente a la lucha humana por un mundo mejor. Declaración de la Asociación Psiquiátrica Americana sobre las terapias de reorientación sexual.
- 32 -
La Pizarra de Yuri 1
Carl Sagan, el maestro de millones Yuri, el 9 de septiembre de 2010 @ 12:30 · Categoría: Ciencia popular, Sociedad y civilización
A lo largo de su corta vida, el Dr. Carl Sagan dio un nuevo sentido a la divulgación científica, trabajó incansablemente por la paz entre los pueblos y fue capaz de enseñar cosas maravillosas a millones de personas sencillas por todo el planeta.
Carl Sagan, doctor en astronomía y astrofísica, divulgador de la ciencia.
Si eres una persona de mente inquieta e interesada por la ciencia y el futuro de la humanidad, sin duda habrás oído hablar de él, habrás leído algo de él o habrás visto algo creado por él. Y si no, deberías hacerlo de inmediato. A partir de los años ’60 y hasta su temprana muerte en 1996, el astrónomo y astrofísico estadounidense Carl Sagan se convirtió en la cara más popular y fascinante de una ciencia que se iba haciendo cada vez más compleja y más lejana para las gentes de a pie. Mediante sus libros, sus conferencias y sus apariciones en televisión, fue capaz de hacer llegar las maravillas del universo al que pertenecemos a millones de personas por todo el mundo, junto a una nueva conciencia planetaria vertebrada en torno al humanismo secular. Sin él, la ciencia habría seguido probablemente su camino; pero su conocimiento popular y el apoyo de sociedades enteras a sus planteamientos jamás habría sido igual. Esta es la historia del Dr. Sagan, el niño de mente inquieta, conciencia clara y frente despejada que logró convertirnos a todos en niños de mente inquieta, conciencia clara y frente despejada, que es seguramente lo mejor y más brillante que se puede ser.
- 33 -
Antonio Cantó
El chaval que miraba más allá. Carl Edward Sagan nació el 9 de noviembre de 1934 en una familia judía de origen ruso huida de los pogromos zaristas que se ganaba la vida en Brooklyn, en el corazón de Nueva York. Sus padres eran trabajadores: papá Sam Sagan era obrero textil y mamá Rachel Gruber, un ama de casa que se había criado en la miseria más infecta. El joven Carl se crió junto a su hermana Clara en un minúsculo apartamento muy cerca del Océano Atlántico. Cuando tenía cinco años, le llevaron a ver la Exposición Internacional de 1939, donde quedó asombrado por primera vez con las cosas que podía hacer la ciencia, la técnica y el progreso social. Y es que, desde niño, en aquel humilde hogar dejudíos reformistas se respiraba un ambiente que el propio Carl describiría así años después: “Mis padres no eran científicos. Apenas sabían nada de ciencia. Pero al introducirme simultáneamente en el escepticismo y en la capacidad de maravillarme, me enseñaron dos modos de pensamiento complejos de conciliar que son centrales al método científico.”
Con cinco años salía por primera vez solo de casa –cosa corriente en aquellos tiempos, aunque ahora nos hayamos vuelto todos unos paranoicos– para ir a la biblioteca pública con una tarjeta que le consiguió su madre. Allí pidió por primera vez un libro sobre estrellas, y quedó maravillado al descubrir las abismales escalas cósmicas. A los seis o siete años fue con un amiguito al Museo Americano de Historia Natural, donde se fascinó con las exhibiciones sobre meteoritos, dinosaurios y animales modernos en sus hábitats naturales. Él, que apenas había salido de la Gran Manzana.
- 34 -
La Pizarra de Yuri 1
Carl Sagan de pequeño. Ya entonces su padre se quedaba embobado escuchándole hablar de estrellas y dinosaurios.
Ya papá Sam se quedaba bastante embobado oyendo hablar a su único hijo sobre estrellas y dinosaurios, pero lo consideró parte de sus gustos infantiles. Y aunque el chaval apuntaba maneras, pocos en aquel lugar tan humilde creían que de allí pudiera surgir un gran científico. A Sagan le gustaba recordar una conversación con su abuelo materno Leib Gruber, que por lo visto discurrió más o menos así: –¿Y tú qué quieres ser de mayor? –Quiero estudiar astronomía. –Eso está muy bien, pero ¿qué piensas hacer para ganarte la vida? Pese a la poca fe de su entorno, el muchacho Sagan siguió creciendo e interesándose cada vez más por los misterios del mundo y del universo. Durante su adolescencia, en la posguerra de la Segunda Guerra Mundial, fue al instituto público Rahway de Nueva Jersey. De ahí saltó a la Universidad de Chicago, donde se graduó en 1954 y obtuvo un master en ciencias en 1956. En 1957 se casó con la destacada bióloga evolucionista Lynn Margullis, que le daría sus dos primeros hijos: Dorion yJeremy Sagan. Pero Carl seguía soñando con los dinosaurios y con las estrellas. Científico de la NASA, profesor en Harvard y Cornell, divulgador y antibelicista. Carl Sagan estuvo relacionado con el programa espacial norteamericano desde fechas muy tempranas. Mientras conseguía su doctorado en astronomía y astrofísica, trabajó en el laboratorio del genetista H. J. Muller y comenzó a relacionarse cada vez más estrechamente con la NASA, que aún trataba de hacer algo en el espacio ante laavalancha de éxitos soviéticos. Como científico visitante en el Jet Propulsion Laboratory, colaboró ya de manera relevante en las primeras misiones Mariner a Venus, que junto a las Venera soviéticas demostraron su hipótesis de que debía tratarse de un lugar muy seco y caliente. Consiguió una beca de investigación Miller para estudiantes destacados en la Universidad de California en Berkeleyentre 1960 y 1962, y entre 1962 y 1968 trabajó en el Observatorio Astrofísico del Smithsonian en Cambridge, Massachusetts. Así, estuvo entre los primeros en teorizar que Europa de Júpiter posee océanos de agua a gran profundidad, y que Titán de Saturno tiene océanos de compuestos líquidos en su superficie. Convertido ya en un especialista en atmósferas planetarias, el jovenzuelo surgido de un suburbio neoyorquino empezaba a brillar con luz propia.
- 35 -
Antonio Cantó
Carl Sagan en las Conferencias CETI (1972)
Merced a la estrecha vinculación entre el Observatorio Astrofísico del Smithsonian y elObservatorio de la Universidad de Harvard, que posteriormente daría lugar a la fundación del Centro de Astrofísica Harvard-Smithsonian, el entonces aún poco conocido doctor Carl Sagan comenzó a investigar y dar clases en Harvard. Allí se destacó pronto como un pedagogo excepcional, capaz de explicar la ciencia más compleja con sencillez y buen humor. A los 34 años, en 1968, saltaba a la Universidad Cornell como profesor titular. Regresaba así a su Nueva York natal y permaneció vinculado a esta institución durante el resto de sus días. Dirigió su Laboratorio de Estudios Planetarios y fue co-director del Centro de Radiofísica e Investigaciones Espaciales. Por aquel entonces ya había empezado a publicar artículos de divulgación científica para una colección de la popular revista LIFE y un libro titulado Vida inteligente en el universo en cooperación con el astrofísico soviético Iosif Shklovski. Sagan empezaba a destacarse así no sólo como científico notable, sino también como educador de las masas y un hombre de conciencia comprometido en tender puentes entre modelos de civilización antagónicos dispuestos a aniquilarse en cualquier momento, lo que le ocasionó no pocos líos y pinchazos con la CIA, el FBI y otras agencias gubernamentales. Hablamos de los años más duros de la Guerra Fría, poco después del macarthismo, cuando el mero hecho de escribir una carta a la URSS podía incluirte en alguna lista secreta poco recomendable. En 1968 se divorció de Lynn para casarse de nuevo con la artista y escritora Linda Salzman, con quien tendría a su tercer y último hijo Nick Sagan. A partir de 1970 sus libros de divulgación comienzan a multiplicarse, sus colaboraciones con la NASA también y empieza a aparecer frecuentemente en la televisión norteamericana, sobre todo en el muy popular show de Johnny Carson. El estilo directo y fascinante de este
- 36 -
La Pizarra de Yuri 1
científico de altos vuelos que procede del pueblo y sabe cómo hablar al pueblo comienza a llegar a millones de personas por toda la Unión, quienes descubren una oportunidad única para aprender cosas que nadie más les hace entender. Es un éxito mediático inmediato y el doctor Carl Sagan de Cornell, que habla a la gente sencilla de estrellas y dinosaurios, se convierte rápidamente en un personaje público inmensamente popular y querido. Una de sus expresiones favoritas, billions and billions (miles y miles de millones, en referencia a aquellos abismos cósmicos que tanto le impresionaron de niño), se transforma en una imagen de marca y es recogida por los principales humoristas del país. El maestro de millones ha encontrado su lugar, y esos millones dicen que les mola y quieren más. Billions and billions. Entre 1973 y 1979, Sagan publica la friolera de seis libros de alta divulgación: Comunicación con inteligencias extraterrestres (MIT Press, 1973); Marte y la mente humana (Harper & Row, 1973); La Conexión Cósmica (Anchor Press, 1973); Otros mundos (Bantam Books, 1975); Murmullos de la Tierra (Random House, 1978); Los dragones de Edén (Ballantine Books, 1978, que le permite ganar el Premio Pulitzer) y El cerebro de Broca (Ballantine, 1979), más otros textos de menor entidad. Todos ellos constituyen éxitos editoriales en el mundo entero, con millones de copias vendidas, y actualmente se consideran clásicos.
La placa elaborada por Carl Sagan con un mensaje de la Humanidad, ya montada en la Pioneer 10 y lista para el lanzamiento (NASA).
Las apariciones televisivas se disparan: todo el mundo quiere escuchar las palabras fascinantes y comprensibles de este astrofísico del pueblo. Da conferencias, organiza cursos. Mientras tanto, encuentra el tiempo para seguir enseñando a sus alumnos de la Universidad de Cornell, investigando desde el Centro de Radiofísica e Investigaciones Espaciales que co-dirige y colaborando con la NASA. En 1972, despega hacia el
- 37 -
Antonio Cantó
espacio profundo la Pioneer 10, con la universalmente famosa placa de oro que contiene un mensaje de la Humanidad a quien quiera que haya allá. Frank Drake y Sagan la diseñaron, y fue su esposa Linda Salzman quien realizó el dibujo. En 1973, la Pioneer 11 hace lo propio. Ambas placas contienen información esencial sobre la especie humana, su aspecto, su naturaleza y su posición en el universo en el momento en que fueron lanzadas. Las dos están ya fuera del sistema solar, en dirección a Aldebarán y Al-Thalimain Prior, adonde llegarán dentro de algún que otro millón de años. En la misma línea, participa decisivamente en la elaboración y emisión del Mensaje de Arecibo, orientado hacia el Cúmulo de Hércules (M13), que alcanzará dentro de 25.000 años. Estos son, hoy por hoy, los principales intentos de la Humanidad para hacer saber su existencia a cualquier otro viviente que no haya nacido al calor de nuestro Sol. Mientras tanto, Sagan se interesa en los peligros y problemas de nuestro propio mundo. Preocupado por el grave riesgo de guerra nuclear que se vivía en esos momentos, trata de tender lazos con otros científicos soviéticos y como experto en atmósferas planetarias comienza a realizar aportaciones en el problema del invierno nuclear y el cambio climático antropogénico. Co-fundó la Sociedad Planetaria, una de las asociaciones científicas más importantes de los Estados Unidos. Y durante el siguiente año, se va configurando su obra maestra de alta divulgación: una serie de televisión llamada Cosmos. Cosmos. Cosmos, un viaje personal (Cosmos, a personal voyage) fue una serie de televisión en trece episodios presentada por Carl Sagan y escrita por él mismo, la novelista Ann Druyan –que pronto se convertiría en su tercera esposa– y el astrofísico Steven Soter. La emitió por primera vez la cadena semipública norteamericana PBS en 1980. Y hoy por hoy, sigue siendo la serie de la PBS más vista del mundo, incluso por encima de Barrio Sésamo. La han visto más de quinientos millones de personas en más de sesenta países, y sigue siendo tan fascinante como el primer día. Los trece episodios de Cosmos hacen un completo recorrido por lo que la humanidad sabía sobre si misma y sobre el universo que la rodea en el momento de su realización. Fue premiada con el Emmy y con el Peabody. Nunca nadie logró contar tantas cosas maravillosas, a tanta gente y en tantos lugares con una sola producción. Estos capítulos son los siguientes:
- 38 -
La Pizarra de Yuri 1
Carl Sagan en Cosmos, explicando las órbitas planetarias.
1. En las orillas del océano cósmico (The shores of the Cosmic Ocean). 2. Una voz en la fuga cósmica (One voice in the Cosmic Fugue). 3. La armonía de los mundos (The harmony of the worlds). 4. Cielo e infierno (Heaven and hell). 5. Blues para un planeta rojo (Blues for a Red Planet). 6. Historias de viajeros (Travellers’ Tales). 7. El espinazo de la noche (The backbone of night). 8. Viajes a través del espacio y el tiempo (Journeys in space and time). 9. Las vidas de las estrellas (The lives of the stars). 10. El filo de la eternidad (The edge of forever). 11. La persistencia de la memoria (The persistence of memory). 12. Enciclopedia galáctica (Encyclopaedia Galactica). 13. ¿Quién habla en el nombre de la Tierra? (Who speaks for Earth?). Posteriormente se agregó un decimocuarto episodio, Ted Turner entrevista al Dr. Sagan, donde el fundador de la CNN mantiene una conversación con Carl. La banda sonora de la serie es de Vangelis (con algunas partes especialmente escritas para la ocasión), Dmitry Shostakovich, Goro Yamaguchi, Wolfgang Amadeus Mozart, Louis Armstrong, Igor Stravinsky, Johann Sebastian Bach, Antonio Vivaldi y Nikolay Rimski-Korsakov, entre otros músicos de gran calibre.
- 39 -
Antonio Cantó
Carl Sagan en el capítulo final de Cosmos: ¿Quién habla en el nombre de la Tierra?
Simultáneamente, se editaba un libro con el mismo título que recogía los temas tratados en este documental. Vendió más de cinco millones de ejemplares e hizo a Sagan rico y famoso en el mundo entero. Una generación entera, entre los que se encuentra este que te escribe, aprendió su lugar en el cosmos, los fundamentos del método científico y el poder del asombro y la curiosidad a través del viaje personal de Carl Sagan: Cosmos, probablemente la mayor y mejor obra de alta divulgación de la historia contemporánea. La ciencia como una luz en la oscuridad. Y el astrofísico del pueblo siguió adelante, ahora ya capaz de educar al mundo entero, convertido definitivamente en maestro de millones. Consciente de su alcance y responsabilidad, va agregando rasgos cada vez más humanísticos y sociales en sus obras, que al mismo tiempo siguen siendo rigurosamente científicas. Durante los años ’80, escribe con Paul Ehrlich y Donald Kennedy El frío y las tinieblas: el mundo después de la guerra nuclear, donde introduce al público el concepto de invierno nuclear (Sidgwick & Jackson, 1985); con su nueva mujer redacta también El Cometa, inmediatamente antes del último paso del Halley (Ballantine, 1985); y una novela de ficción:Contact (Simon & Schuster, 1985), de la que también se hizo una película. Son los años de Reagan y Gorbachov, y Sagan toma partido claramente en contra del belicismo del presidente norteamericano y a favor de las propuestas de reducción de armas nucleares del nuevo Secretario General soviético. Es arrestado en dos ocasiones durante unas manifestaciones en el exterior del Campo de Pruebas de Nevada, por encaramarse a la alambrada. Habla, escribe, se moja, sigue enseñando… y se convierte también en azote de los magufos y supersticiosos, que están en periodo expansivo, con su sencillo escepticismo de a pie y un racionalismo profundamente humanista fácil de entender por todos. En este periodo, va adquiriendo también la convicción de que lamagufería –con su potencial para expandir el pensamiento mágico, la ignorancia anti- 40 -
La Pizarra de Yuri 1
intelectual y el fanatismo religioso– es otra de las amenazas a las que tendrá que enfrentarse la humanidad en el futuro próximo. En materia religiosa se declara agnóstico, pero es proponente del materialismo positivo, del humanismo secular racionalista y escribe bastantes párrafos muy críticos con las creencias de las religiones tradicionales (y muy especialmente del dios monoteísta occidental). Sin embargo, no se declara ateo porque, en sus propias palabras, un ateo tiene que saber mucho más de lo que yo sé. A principios de los años ’90, Sagan sabe ver las tendencias que está tomando el mundo tras el fin de la Guerra Fría, y no le gustan. Su obra eleva el nivel filosófico, que llega a ser tan alto como el científico. El concepto de consciencia planetaria, la ciencia y la razón como cultura, como modelo de civilización, humanidad y convivencia, alcanza su culmen en estas creaciones finales: Sombras de antepasados olvidados (Ballantine, 1993); Un punto azul pálido(Random House, 1994) y El mundo y sus demonios: la ciencia como una luz en la oscuridad (Ballantine, 1996), así como su obra póstuma Miles de millones (Billions and billions, Ballantine, 1997) inciden cada vez más en estas ideas. En El mundo y sus demonios nos encontramos con su última enseñanza a las gentes sencillas de todo el mundo, lúcida y magistral:
Carl Sagan con su última esposa, la novelista Ann Druyan, que participó en muchas de sus creaciones.
“Si no somos capaces de pensar por nosotros mismos, si somos renuentes a cuestionar la autoridad, entonces somos sólo marionetas en las manos de quienes están en el poder. Pero si los ciudadanos están educados y son capaces de formarse su propia opinión, entonces los que están en el poder trabajarán para nosotros. En todos los países, deberíamos enseñar a nuestros hijos e hijas el método científico y las razones por las que existe una Declaración de Derechos. Y con ello, una cierta dosis de honestidad, humildad y espíritu comunitario. En el mundo acosado por los demonios donde vivimos por el mero hecho de ser humanos, esto puede ser todo lo que se interponga entre nosotros y la oscuridad.”
- 41 -
Antonio Cantó
Pues, en 1994, al maestro de millones le han encontrado una rara enfermedad parecida a la leucemia, llamada síndrome mielodisplásico. Requiere tres trasplantes de médula ósea durante los siguientes dos años, lo que le deja muy débil y desprovisto de sistema inmunológico. En estas condiciones, una neumonía calla su voz para siempre el 20 de diciembre de 1996, poco después de cumplir 62 años. Ya se dice que la luz que brilla el doble dura la mitad. Desde las lunas de Barsoom.
La nave espacial interplanetaria Mars Pathfinder, antes de su lanzamiento. Una vez establecida en Marte, fue rebautizada como Estación Memorial Carl Sagan.
El mundo entero lamentó la pérdida del astrofísico del pueblo, que está enterrado en el cementerio de Ithaca, en su natal Nueva York. Y el mundo científico y todos los que habían trabajado con él, también. No sólo tiene dedicadas calles, estampillas de correos y museos al aire libre, sino que algunas personas insistieron en conservar su memoria mucho más allá de la muerte. Por ejemplo, los trabajadores y científicos de la NASA, que casi organizan un motín para que se cambiara el nombre a la Mars Pathfinder, una vez firmemente establecida en Marte, por el de Estación Memorial Carl Sagan (el divulgador había sido un gran proponente y teórico de las misiones marcianas). El asteroide 2709 Sagan fue bautizado en su honor. Hay al menos tres galardones científicos en su honor: el Premio en Memoria de Carl Sagan, otorgado por laAsociación Astronáutica Americana y la Sociedad Planetaria que co-fundó; la Medalla Carl Sagan de la División de Ciencias Planetarias de la Asociación Astronómica Americana; y el Premio Carl Sagan para la comprensión pública de la Ciencia, que otorga el Consejo de Presidentes de Sociedades Científicas de los Estados Unidos.
- 42 -
La Pizarra de Yuri 1
En estos tiempos en que nos ha tocado vivir, parece como si las ideas y enseñanzas de Carl Sagan fueran más actuales e importantes que nunca. Entre fanáticos vocíngleros de todos los signos, guerras de religión del siglo XXI, sociedades en involución, ataques a los derechos humanos y el retorno de las numerosas supersticiones e ignorancias que en el mundo han sido, la pedagogía, la ética y la razón comprensible por todos del astrofísico de la gente sencilla resultan urgentes y fundamentales. Más allá de las estéticas, difícilmente ha perdido un ápice de actualidad. Sigue siendo capaz de fascinar. Sigue siendo capaz de hacernos soñar. Sigue siendo capaz de sacar lo mejor de nosotros mismos: ese niño de mente inquieta, conciencia clara y frente despejada y soñadora. Que es seguramente, como dijimos, lo mejor y más brillante que se puede ser.
La última entrevista a Carl Sagan, poco antes de su muerte (no la he encontrado con subtítulos en castellano, pero sí en portugués, que se entiende bastante bien). Parte 1, parte 2, parte 3.
- 43 -
Antonio Cantó
Carl Sagan (1934-1996). Doctor en astronomía y astrofísica, especialista en Ciencias Planetarias. Medalla de Servicios Públicos Distinguidos y Medalla de Logros Científicos Excepcionales de la NASA, Premio Hugo, Premio Humanista del Año (1981), Premio Isaac Asimov, Premio John F. Kennedy a la Astronáutica, Medalla Konstantin Tsiolkovsky de la Federación de Cosmonautas Soviéticos, Premio Masursky, Premios Emmy, Peabody y Pulitzer, Medalla al Bienestar Público de la Academia de Ciencias de los Estados Unidos. Divulgador de la Ciencia, la Paz, el Humanismo Secular y la Razón Ilustrada, para la Humanidad. Thank you, Carl.
- 44 -
La Pizarra de Yuri 1
¿Cómo identificarías una Cosa Misteriosa? Yuri, el 5 de septiembre de 2010 @ 9:00 · Categoría: Ciencia popular
Fisico-química analítica, pero de buen rollito.
¡A por la Cosa Misteriosa!
Pongámonos en situación: imagínate que te ves en una de esas situaciones peliculeras – o no tan peliculeras– en la que ha aparecido una Cosa Misteriosa que nadie sabe lo que es. E, inevitablemente, no te escaqueaste a tiempo y te ha caído a ti el marrón de investigarla. ¿Qué harías? ¿Cómo te las ingeniarías para recuperarla, identificarla y descubrir cuál es su propósito, tratando al mismo tiempo de sobrevivir al intento y ganar algún euro (o dólar, o yuan, o algo que se pueda cambiar por techo y comida durante otro mes más)? La Cosa puede ser cualquier cosa, valga la redundancia: una sustancia, un objeto, una estructura que según el chistoso friki de turno se parece mucho a un huevo de Alien (¡tonterías!). Lo que sea. El caso es que ahí estás tú, tras saltar de la cama en medio de la noche por una llamada al móvil de guardia que olvidaste apagar erróneamente; tratando de despabilarte con aguachirle aeroportuario sin salpicar los pantalones en un traqueteante helicóptero soviético –sí, soviético: ruso sería si lo hubieran fabricado después de 1991– que tus superiores han subcontratado a algún pirata uzbeko inhabilitado para operar en Europa hasta ayer al mediodía, ¡en dirección a la Cosa Misteriosa! (No pensarías que te iban a meter en un jet privado de esos tan monguis que usan los directivos, ¿no?) Recuperación.
- 45 -
Antonio Cantó
Bueno, pues ya estás ahí, en medio de vete tú a saber qué infame pudridero de los muchos que son en el ancho mundo: el lugar genéricamente conocido en casi todos los países comocasa del cliente, aunque sea un descampado inhóspito tras el prostíbulo teratogénico de un vertedero industrial tercermundista. Normalmente no será preciso presentarse todos con trajes NBQ completos y bombonas autónomas de aire (más que nada por no darle el gusto a los de la tele), pero según estén las circunstancias tampoco sería cuestión de descartarlo por completo. En general, hasta las protecciones más básicas –guantes de goma, gafas, mascarilla de papel y un gorrito de esos ridículos– reducen y eliminan un montón de riesgos, aunque no lo parezca. Si el asunto se sospecha más serio, pasaremos al capote, la máscara antigás (siempre aparece algún chino al que le queda alguna de surplus vietnamita o laosiana o algo que se pronuncia parecido) y así hasta el equipo NBQ con respirador autónomo en cuestión. (Es que los trajes NBQ son un asco, de veras: pesan un montón, ves y oyes fatal, te ahogas de calor y a los pocos minutos todo movimiento resulta agotador. Además, no sé cómo se las ingenian, pero siempre sales escaldado por algún sitio doloroso; típicamente, el que tú ya sabes.) Dependiendo de lo misteriosa que sea la Cosa Misteriosa, tampoco sobraría presentarse con al menos un contador Geiger y un kit HazMat. Supongo que ya sabes lo que es un contador Geiger-Müller: un aparato que mide la radioactividad. Quiero decir, la Cosa
- 46 -
La Pizarra de Yuri 1
puede ser más o menos radioactiva, como la mayor parte de este universo; y la radioactividad ni se ve, ni se oye, ni se huele ni se siente hasta que te das cuenta de que has empezado a broncearte a toda velocidad (¡pero si está nublado…!). Hay contadores Geiger de todos los niveles, desde los más sencillos hasta todo lo caros que quieras y puedas pagar, con capacidades a cual más sofisticada; pero incluso un modelo básico de 300 € con tubo extra para neutrones te indicará si la cosa emite radiaciones peligrosas (y además tendrás que apañarte, porque es lo máximo que van a gastarse tus jefes antes de repartirse cien millones en primas). Para que lo tengas en cuenta, y eso. ¿Largarte? No, el asiático de nacionalidad desconocida que llevas por piloto dice que tiene órdenes de regresar con la Cosa o sin ti, y es lo único que sabe chamullar en una lengua indoeuropea. O eso quiere dar a entender.
Los tubos colorimétricos comunes en los kits HazMat cambian de color con la presencia de gases o vapores tóxicos conocidos, y por tanto resultan de gran interés para adentrarse en atmósferas potencialmente peligrosas.
Un kit HazMat, por su parte, es una colección de reactivos químicos que cambian de color con la presencia de los venenos más conocidos en el aire, normalmente presentados en un maletín o de cualquier otra manera conveniente. También los hay en forma de detectores electroquímicos, un aparatejo que desempeña análoga función. Además de la evidente protección que obtenemos al ir tomando mediciones de posibles gases tóxicos mientras nos aproximamos a la Cosa, su presencia o ausencia ya nos permite ir descartando algunas posibilidades sobre lo que es o deja de ser, o al menos sobre las sustancias que puede estar emitiendo al entorno. La protección contra agentes biológicos desconocidos es más pejiguera. Aunque de viejo existen biosensores y, más actualmente, equipos electrónicos de biodetección, sólo son capaces de reaccionar más o menos bien ante un rango estrecho de patógenos militares conocidos; e incluso así, yo no haría depender mi vida por completo de uno de
- 47 -
Antonio Cantó
ellos. Hasta cierto punto, siguen en su infancia. Por otra parte, un agente biológico – supongamos– alienígena, originado en una vida distinta a la terrestre, difícilmente habrá evolucionado de forma compatible con nuestra biología y debería ser inocuo por completo a menos que se ponga a tirar bocados. En todo caso, si tenemos dudas, echamos manos del equipo NBQ y que los de la tele (si es que los hay en semejante sitio) se pongan todo lo palotes que quieran. (¿Una RPG por si las moscas? No, aquí no tenemos ningúna RPG, ¿verdad, señor chino? ¿Debajo de esa manta? No, se confunde usted, ahí tenemos los bocatas; es sólo que nos gusta zamparnos barras de pan bien largas.) La inspección visual preliminar, por supuesto, es otra herramienta útil; aunque también engañosa, claro. Pero si reconocemos la Cosa de buenas a primeras, pues todo eso que nos ahorramos. No obstante, seguramente habrá que verificarlo (y con eso tenemos una excusa para hacer el paripé y sacarle al asunto algún dinero extra). Establecida así la peligrosidad periférica de la Cosa Misteriosa, nos plantearemos la posibilidad de trasladarla al laboratorio para su estudio en profundidad. Por supuesto, el mundo está lleno de entes que reaccionan de manera muy desagradable cuando se los perturba. Estallan, se activan, muerden, lo que sea con tal de amargarte el día a ti personalmente. Así que, a la menor duda, trataremos de conseguir un robot teledirigido como los que usan los TEDAX. Y si esto no es posible (el chino dice que su primo puede conseguírtelo, pero no llegará hasta la semana que viene), al menos usanremos manipuladores largos desde detrás de algún tipo de escudo (casi siempre el chino logrará encontrar escudos policiales, mantas o chalecos de kevlar, normalmente todavía con el nombre de algún desgraciado en cualquier alfabeto raro y manchas de algo quemado). Como poco, si lo colocamos por encima de ese incómodo traje NBQ autónomo que nos viene rondando todo el rato, es posible que salvemos el torso y así quedará algo que meter en el ataúd. Esas cosas son importantes para la moral del equipo.
- 48 -
La Pizarra de Yuri 1
Los manipuladores robóticos teledirigidos del tipo del AUNAV (de fabricación española) son muy útiles para la manipulación de objetos potencialmente peligrosos.
El estudio básico.
Cualquier cosa se puede tratar como un residuo potencialmente peligroso. Normalmente, se debe transportar en contenedores acordes a sus características y al tipo de peligro que representa; pero también existen contenedores herméticos de acero inoxidable grueso que se pueden utilizar genéricamente con el correspondiente etiquetado. Nunca metas una cepa virulenta de Ébola-Marburgo en un contenedor genérico olvidado en un rincón sin marca alguna.
En fin. El caso es que hemos conseguido recuperar la Cosa y meterla en un contenedor de esos para residuos biológicos o nucleares, que aunque era de segunda mano nos hizo bien el papel (por cierto que llevaba unas marcas muy raras en cirílico, no se qué de Чернобыль). Debe ser realmente una Cosa muy Misteriosa, porque se ha dejado transportar hasta Occidente sin explotar, ni provocar un incendio a bordo ni infectar a nadie por el camino, ni ninguna otra de las gracietas habituales en estos casos. ¡Pues ya estamos en nuestro laboratorio con la Cosa! En primer lugar, habrá que determinar cómo nos planteamos la investigación. Y, sobre todo, cuánto tiempo y dinero va a costar. Sí, ya sé que en las pelis y series de TV siempre sale un CSI que dispone de tiempo infinito, medios infinitos y expertos de talla mundial para resolver cualquier violación de tres al cuarto. Pero en el mundo real, claro, la cosa no va así. En el mundo real, ahí estás tú, dispuesto a investigar la esfera de Esfera; y siempre – siempre– hay algún hideputa con rango jefatorial preguntando si no está aún, discutiéndote las horas extras y dudando de que realmente necesites un espectroscopio por resonancia magnética nuclear y no puedas apañar con el chaval de la ETT aportado por la subcontrata y el kit químico de la piscina comunitaria. Y cuando tú te reafirmas en que eso no es posible, por mucho que el muchacho sea un piscinero magnífico con seis días de experiencia como auxiliar de laboratorio en la depuradora urbana de aguas
- 49 -
Antonio Cantó
residuales, el tipo o tipa se aleja refunfuñando algo sobre peligrosos comunistas enemigos de la libre empresa y tus menguantes probabilidades de renovar el contrato en un indeterminado futuro. Pero en fin: tú perteneces a la legendaria estirpe de los científicos, que sacaron a la Humanidad de las cavernas para arrastrarla de la oreja hasta el espacio exterior, y esas pequeñeces de vulgares y mediocres no deben importarte. Además, como eres tan inteligente, ya todo el mundo da por supuesto que sabrás vivir del aire y construir un transbordador espacial por el camino con ladrillos y escarbadientes. Supondremos hipotéticamente que estás en un país serio y entre gente capaz de distinguir un nudo de corbata de una ligadura de trompas, por lo que dispones de un laboratorio bien equipado y personal experto que –asombrosamente– no tiene su relación de parentesco o bragueta con algún jerifalte como máximo mérito en su curriculum; toda una anomalía en el orden cósmico que merecería su propia investigación.
Incluso un laboratorio químico sencillo suele ser suficiente para identificar la mayoría de sustancias.
Si la Cosa es una sustancia de cualquier clase, nos plantearemos comenzar con un análisis físico-químico tradicional. A fin de cuentas, así se descubrieron la mayor parte de los átomos y moléculas que conocemos: todo con tubos de ensayo, básculas, pipetas, retortas y mecheros Bunsen, sin ningún juguete caro provisto de un montón de lucecitas chulas. Los muy rancios. Algunos de los análisis más básicos serían: •
Catalogación general: A temperatura y presión ambiente, ¿es un sólido, un líquido, un gas o qué? ¿Está inerte por completo o hace algo? ¿Parece inorgánico u orgánico? Hay algunas pruebas muy elementales que permiten distinguir un compuesto orgánico con bastante precisión. Por ejemplo: como todos los
- 50 -
La Pizarra de Yuri 1
•
compuestos orgánicos contienen carbono, si al quemar una pequeña cantidad se produce CO2tenemos un buen indicio a favor de que sea orgánico o de origen orgánico (lo que en el planeta Tierra entendemos como orgánico, vamos). Otros experimentos igualmente fáciles, casi al nivel del QuimiCefa, permiten descubrir la presencia de moléculas típicas tanto orgánicas como inorgánicas. Color, textura y aspecto macroscópico o microscópico: Aunque esta es una
•
observación muy imprecisa, hay algunas sustancias que tienen un color o aspecto característico bien a simple vista o cuando las ponemos bajo la lente de un microscopio o hacemos incidir sobre ellas una determinada luz. Desde luego, lo que no hay es sustancias que no tengan su color o aspecto característico (a menos que estén contaminadas con otras cosas). Puede servir para descartar un montón de posibilidades a falta de pruebas más exactas. Su olor (si es que nos atrevemos a acercar la nariz) también nos aportará pistas. Densidad: La densidad –es decir, la masa dividida por el volumen– es un rasgo
•
común a toda la materia, y cada materia tiene una densidad específica. Sólo tenemos que verter la sustancia en un vaso graduado para obtener el volumen, pesarla para conseguir la masa y realizar una simple división. Así también podemos saber si está predominantemente compuesta por átomos ligeros o pesados; a continuación, un simple vistazo a la tabla de densidades y la tabla periódica de los elementos nos irá orientando sobre la clase de Cosa que tenemos delante. Punto de fusión y ebullición: Toda la materia tiene la posibilidad de cambiar entre estado sólido, líquido y gaseoso; la temperatura exacta a la que esto ocurre también es muy característica de cada compuesto en particular. Por el simple método de calentar y enfriar una muestra en un laboratorio mínimamente equipado podemos descubrir a qué temperatura se produce esta transición, permitiendo así una identificación fácil; aunque en realidad se usa más para determinar la pureza de las sustancias. No obstante, cuando se trata de compuestos mezclados con otras cosas (que será lo más probable), este dato puede llevarnos a cometer un error, pues muchas de estas combinaciones alteran el punto de fusión y ebullición y lo
•
convierten en un intervalo poco preciso. Reactivos químicos: Existen numerosos reactivos que permiten la identificación de sustancias conocidas o categorías de sustancias. Productos sencillos como la fenolftaleína, el formaldehído, la acetona, el permanganato de potasio o diversos ácidos (cítrico, acético, tartárico, sulfúrico, etc) pueden aportar pistas sustanciales para la identificación de una sustancia mediante reacciones químicas elementales.
- 51 -
Antonio Cantó
Los dispositivos de imagen médica como este equipo de resonancia magnética (MRI) tienen su origen en aplicaciones científicas, industriales y militares; y pueden usarse, dentro de ciertos límites, para ver el interior de los cuerpos con una mínima intrusión.
Si por el contrario se trata de un objeto o estructura de algún tipo, podríamos empezar tomando muestras de lo que haya adherido a su superficie para aplicarles también el análisis tradicional anterior. Una vez bien limpito, le sacaríamos fotos desde todos los ángulos (en infrarrojo, luz visible y ultravioleta) y contemplaríamos la posibilidad de pasarlo por alguna técnica poco intrusiva para observar su interior. Por ejemplo, mediante radiografías de rayos X, TAC oresonancia magnética nuclear. Ojo aquí, porque poco intrusiva no significa nada intrusiva; y el aporte energético de todos estos aparatos tiene el potencial de alterar su estructura o activar cualquier proceso desconocido y sin duda diabólico. También le sacaremos algunos cortes o limaduras usando unmicrótomo, una fresa o algo parecido, para someterlos a los análisis indicados más arriba. Pero hemos dicho que necesitamos ver su interior de manera poco intrusiva. Así pues, una vez establecidos prudentemente los pros y los contras, nos decidimos a desplazar la Cosa hasta el hospital más cercano provisto con estos medios (rayos X, TAC, MRI, PET, etc) y con un director dispuesto a llegar a un arreglo en el tema de las comisiones. A poder ser, una tarde en que echen un partido de fútbol importante; así, seguro que no nos verá nadie. La pena es que, al poco de empezar, el cacharro se ha estropeado por alguna razón incomprensible. El auxiliar de clínica novato con contrato eternamente temporal que lo manejaba (que es a quien le toca la guardia en días de partido importante) dice que vio algo parecido a costillas y un aguijón en su interior antes de - 52 -
La Pizarra de Yuri 1
que se apagara la pantalla, pero es un niñato de Formación Profesional, ¡qué va a saber ese! Otra opción, claro, sería echar mano de la sierra eléctrica. O mejor aún, llamamos a Joseba, ese señor vasco tan majo que trabaja en el laboratorio de química inorgánica. Sí, ché, ¿no sabes quién te digo? Ese que vivió veinticinco años en el Puerto de Santa María, haciendo no sé qué para el Estado (¡bonitas playas!). Que me han dicho que sabe mucho de explosivos y seguro que encuentra la manera de destripar la maldita Cosa. Sin embargo, esta técnica tan proactiva y eficiente presenta el problema de que puede destruir los contenidos y dificultar su estudio posterior, con lo que la dejaremos para más adelante.
Un prisma óptico descompone la luz en franjas de sus colores (frecuencias) consituyentes. En la naturaleza, las gotas de agua o la neblina actúan como una miríada de prismas minúsculos y forman el majestuoso fenómeno que llamamos arco iris.
Jugando con espectros. Si tras aplicar estas pruebas básicas no hemos conseguido establecer la identidad y propósito de la Cosa, habrá llegado el momento de acudir al o la hideputa para jugarnos el puesto de trabajo comunicándole que en efecto, después de todo, vamos a necesitar esos aparatos caros capaces de reducir la cuenta de beneficios y su bono semestral. No - 53 -
Antonio Cantó
esperes que te invite a copas después de darle semejante noticia. Para endulzarnos la píldora un poco, podríamos comenzar por la espectroscopia de infrarrojos, que no sale tan brutalmente costosa. Esto de la espectroscopia es curioso. ¿Recuerdas cómo funciona el arcoiris? Va, que eso es de educación primaria, no tienes excusa: cuando la luz blanca del Sol pasa a través de un prisma óptico (por ejemplo, las gotas de agua de la lluvia) se descompone en todos los colores que la forman y da lugar a ese maravilloso espectáculo multicolor. Este fenómeno se conoce como descomposición de la luz blanca. Pero otra cosa que quizá no sepas (o puede que sí) es cómo se origina el color de las cosas. Los animales provistos de ojos podemos ver algo cuando emite luz por si mismo o refleja la luz ambiental (completamente a oscuras no hay manera de ver nada, ¿verdad?). El color de algo se forma porque ese algo absorbe la luz de todas las frecuencias (de todos los colores) menos el color que rebota y llega a nuestra retina. Un objeto de color azul, por ejemplo, es azul porque “quiere” todos los colores menos el azul, que al ser reflejado puede llegar hasta el ojo o un instrumento análogo (por ejemplo, el captador de imágenes de una cámara). Otro ejemplo: la melanina de nuestra piel absorbe todos los colores (frecuencias) menos la combinación que forma nuestro tono cutáneo característico, y por eso se nos ve de un determinado color. En general, se podría decir que las cosas son de todos los colores menos del color que las vemos . Este curioso fenómeno se conoce como absorción óptica. Bien. Pues hace muchos años, un señor de Baviera llamado Joseph von Fraunhofer hizo pasar la luz del Sol a través de un prisma bastante preciso y observó un hecho curioso: al estudiarlo con detalle y bien enfocado, en este espectro multicolor de la luz blanca solar aparecían unas rayas oscuras muy definidas. Por algún motivo entonces desconocido, el Sol no deja salir luz en esas frecuencias (colores) específicas, pero sí en todas las demás. Qué raro, ¿eh? Cualquiera diría que absorbe algunos colores (frecuencias) muy específicos de su luz antes de permitir que el resto escape hacia el espacio y la Tierra. Y al revés: la luz producida al quemar alguna sustancia más o menos pura, cuando la pasamos por el mismo prisma, sólo produce unos determinados colores en unas franjas muy estrechas; pero si se calienta todavía más, hasta que se ponga incandescente, produce exactamente el mismo fenómeno que la luz del Sol.
- 54 -
La Pizarra de Yuri 1
Espectro solar sencillo, obtenido al pasar la luz del Sol a través de un prisma. Las líneas oscuras (líneas de Fraunhofer) se producen porque los atomos y moléculas allí situados absorben frecuencias de luz (colores) específicas. De esta manera se puede saber qué sustancias abundan allí. Esta técnica es la base de la espectroscopia.
Algún tiempo después se descubrió que efectivamente esto era lo que sucedía: los átomos presentes en un medio absorben la luz de un determinado color (de una determinada frecuencia), y cada átomo distinto absorbe la suya distinta. Esto quiere decir que, por el mero hecho de observar las líneas oscuras producidas cuando la luz emitida por un objeto incandescente pasa a través de un prisma para formar el espectro multicolor, podemos saber qué átomos de qué elementos exactos lo componen . Cada átomo de este universo deja una línea negra en una frecuencia (color) característica. Había nacido la espectroscopia, una técnica analítica que nos permite saber de qué está hecha buena parte de la realidad, desde las sustancias más vulgares hasta las estrellas del espacio profundo. Así se descubrió la existencia del helio, por ejemplo (que producía una línea negra en un punto del espectro no observado hasta entonces), y muchas otras cosas más. Toma ya, para que luego digan que los bávaros son un poco brutos (¡que no lo digo yo! ¿Eh? ¡Que lo dicen los alemanes!). Existen múltiples técnicas espectroscópicas; y cada una de ellas funciona mejor con un rango de sustancias determinado y para unas aplicaciones determinadas. Las hay de absorción(que analizan estas líneas oscuras de luz absorbida por los átomos de una determinada sustancia) y también de emisión (que, por el contrario, estudian las franjas que esta sustancia emite antes de ponerse incandescente; o, para ser más técnicos, la longitud de onda de los fotones emitidos por un átomo cuando cambia de un estado excitado a otro más fundamental).
- 55 -
Antonio Cantó
Hemos propuesto al hideputa usar en primer lugar la espectroscopia de infrarrojos porque ya sospechamos que en la Cosa Misteriosa puede haber algún compuesto biológico o al menos orgánico, y esta técnica particular es muy buena identificando compuestos orgánicos (y por tanto biológicos, al menos en el planeta Tierra). Sin embargo, esta no es la única de las técnicas posibles. Otra, muy interesante, es la cromatografía de gases con espectroscopia de masas.
Captura de pantalla de un espectrómetro de masas moderno. Los "picos" constituyen la "firma" característica de una molécula determinada.
Cromatografía de gases.
- 56 -
La Pizarra de Yuri 1
Separación de distintas sustancias presentes en una planta verde mediante una de las técnicas cromatográficas más sencillas: el papel cromatográfico.
Esto de la cromatografía se expresa muy bien en términos de cromatografía de género. Veámoslo. Supongamos una parejita compuesta por Abel y Bea, que acuden a una superficie comercial un sábado por la tarde. En condiciones estándar y si se permite a cada uno actuar en base a sus características esenciales, observaremos cómo Bea va avanzando lentamente por las distintas tiendas y podría seguir haciéndolo hasta que llegara la hora de cerrar; en cambio, Abel irá pasando rápidamente por todas ellas y pronto se hallará decantado en el bar de enfrente viendo el Madrid-Barça, dando berridos y ciego de cervezas. Como bien sabes (y si no lo sabes, ya lo descubrirás), esto es una ley fundamental del universo a la par que un principio axiomático que no precisa demostración. Pues en la cromatografía hacemos algo parecido. Se prepara una muestra y la disolvemos en un gas o un líquido, que se llama fase móvil. A continuación, hacemos correr esta fase móvil sobre una superficie cubierta con partículas de un sólido estable conocido como la fase estacionaria. Entonces, algunas de las sustancias disueltas en la fase móvil se agarran mejor que otras a estas partículas sólidas. Es decir: que unas corren fácilmente por esta superficie (como Abel) y otras lo hacen más lentamente (como Bea). Gracias a este fenómeno, Abel y Bea se separan y quedan separados entre sí en vez de ir agarrados como pulpos, de tal modo que serían indistinguibles. De esta forma, podemos separar las distintas sustancias básicas que se encuentran en un compuesto complejo. ¿Por qué unas sustancias se agarran mejor a la fase estacionaria y otras peor? Puede deberse a distintas razones, y cada una de ellas se plasma como una técnica diferente. Una de las más comunes es aprovechándose de las direrencias de polaridad. La polaridad mide lo desigualmente que están organizados los electrones de un - 57 -
Antonio Cantó
determinado compuesto; decimos que los compuestos que tienen los electrones distribuidos de forma muy desigual son polares. Dado que los compuestos polares se ven atraídos por otros compuestos polares, a la sustancia más polar de una mezcla le costará más avanzar, puesto que tiene a pegarse a la fase estacionaria (que también es polar).
Un cromatógrafo de gases con espectrómetro de masas moderno.
Existen muchas técnicas de cromatografía distintas. Pero una de las más comunes y utilizadas es lacromatografía de gases. En la cromatografía de gases la fase móvil es eso: un gas, típicamente uno inerte como el helio o el nitrógeno. La ventaja es que la muestra es muy fácil de preparar: basta con evaporarla en el gas, que a continuación se introduce en un tubo muy largo –llamado columna– cuyas paredes están cubiertas con la fase estacionaria. Como las sustancias polares quedan más atrapadas por las partículas de la fase estacionaria, se evaporan menos y así va quedando establecida la distinción entre los distintos componentes del compuesto. En la práctica, esto funciona muy bien con mezclas que tienen una polaridad muy parecida, lo que aporta una gran precisión. Normalmente, los cromatógrafos de gases se sirven con un espectrómetro de masas enchufado al final de la columna. El espectrómetro, como ya hemos visto, va identificando estupendamente las sustancias que se van decantando a lo largo del cromatógrafo. Así es posible conocer la composición esencial exacta de un compuesto completo. Ya lamento haberte estropeado la leyenda urbana de la fórmula de la CocaCola imposible de descubrir. Microscopía electrónica.
- 58 -
La Pizarra de Yuri 1
Otra herramienta de utilidad para identificar la Cosa Misteriosa es, por supuesto, lamicroscopía electrónica. El problema con la microscopía óptica de luz visible (los microscopios corrientes) es que la luz visible es un fenómeno oscilatorio electromagnético (como la radio, los rayos X o la radiación gamma) que tiene una cierta frecuencia máxima a la que deja de ser luz visible (y, por tanto, de poderse ver). Esta frecuencia se corresponde a una longitud de onda de aproximadamente cuatrocientas millonésimas de milímetro (400 nm). Como la onda de luz pasa dos veces por el mismo sitio en cada ciclo, la luz normal sólo puede ver cosas más grandes que doscientas millonésimas de milímetro: todo lo que sea más pequeño se cuela entre las ondas de luz y el ojo no puede verlo usando un microscopio óptico. Esto se corresponde, en la práctica, a unos mil quinientos o dos mil aumentos. Por supuesto, podemos solucionar esto. La manera más sencilla es –claro– aumentar la frecuencia (lo que reduce la longitud de onda), usando electrones en vez de los fotones de la luz para que el resultado se presente en una pantalla muy parecida a las de televisión de toda la vida. Esto es un microscopio electrónico. Los hay de transmisión y de barrido, y con ellos se puede llegar a aproximadamente dos millones de aumentos. Si queremos aumentar la resolución y obtener la imagen en tres dimensiones, podemos pasarnos almicroscopio de fuerza atómica. En el caso de que la Cosa Misteriosa sea tan puñetera que necesitemos irnos a visualizar sus átomos individuales, recurriremos al microscopio de barrido por efecto túnel cuántico o al microscopio por emisión de campo, que puede incluso resolver los orbitales electrónicos del átomo. No te imaginas lo que son capaces de ver esas cosas(¡flípalo!). Y es que aquí somos así de chulos.
Un microscopio de fuerza atómica de pequeño tamaño.
- 59 -
Antonio Cantó
Análisis avanzado.
Patrón de difracción generado por una enzima cristalizada en un equipo de cristalografía de rayos X. Esta compleja trama es analizada por los ordenadores hasta reconstruir la molécula que la ocasionó.
Por supuesto, si se requiere un estudio más profundo existen muchas otras técnicas a utilizar. Una de las más interesantes, que tendrá además la virtud de provocarle un infarto al o la hideputa cuando vea la factura, es la espectroscopia por resonancia magnética nuclear: se usa para resolver la estructura precisa de una molécula, determinando dónde está cada uno de sus átomos. Otra muy chula, que provocará un efecto similar en el equipo jerifalte, es lacristalografía de rayos X: sirve para resolver todas las sustancias que forman cristales y determinar la estructura de las proteínas. Y es que es verdaderamente muy bonita: se hace pasar un haz de rayos X a través de cualquier estructura cristalina y ésta, debido a un fenómeno de refracción, produce complejos patrones de radiación en un detector. A continuación, se emplean ordenadores para reconstruir los fenómenos ópticos que han generado tales patrones hasta reproducir informáticamente la estructura en cuestión. La cristalografía de rayos X se usa sobre todo para establecer la estructura de una sustancia ya identificada, pero en principio no hay ningún motivo por el que no se pueda usar para identificarlas también. Su único problema es que no sirve con las cosas que son incapaces de formar cristales (por eso se llama cristalografía, claro); y otra de sus virtudes, que sale deliciosamente cara. No puedo terminar este post sin mencionar la espectroscopia Raman, que hará salir corriendo al consejo de administración en pleno con los pelos en llamas hasta explotar y desaparecer en un agujero negro autogenerado. Este dispositivo aprovecha un fenómeno llamado efecto Raman, por el físico y premio Nobel indio del mismo nombre. Pues - 60 -
La Pizarra de Yuri 1
nada, que resulta que se sabe de viejo que cuando la luz se dispersa desde un átomo o una molécula, la inmensa mayoría de los fotones lo hacen de forma elástica. Sin embargo, uno de cada diez millones más o menos resultan dispersados por excitación, a una frecuencia distinta a la que llegaron. Estas variaciones de frecuencia se pueden detectar y utilizar para estudiar la vibración de los enlaces electrónicos que forman las moléculas; y así, obtener unahuella dactilar de la molécula capaz de identificarla con enorme exactitud.
Un espectroscopio Raman.
Vamos, que hoy por hoy existe un verdadero arsenal de ciencia, tecnología, técnicas y conocimientos para identificar cualquier cosa que caiga en nuestras manos a poco que se haya originado en este universo. El análisis químico tradicional, la espectroscopia, la microscopía, la cromatografía, la cristalografía y otros muchos métodos son capaces de sacarle las entretelas a la materia con fantástica efectividad; si algo es real, se puede analizar hasta una profundidad que habría asombrado a nuestros padres y que se encuentra ya mucho más allá de la escala molecular, llegando a la atómica ahora mismo. ¿Que qué era al final la Cosa Misteriosa? Ah, ni idea. Es que, poco antes de completar la investigación, externalizaron todo el equipo técnico al Magreb y a los de aquí nos pusieron de patitas en la calle; hasta a Joseba, el señor ese vasco tan majo, que ahora está de cobrador de impuestos o no sé qué. Supongo que habrán completado el estudio ahí abajo. Por cierto, que hablando del Magreb, he visto hoy en la tele que tienen un problema gordísimo, una plaga de langosta o algo así que se come también a la gente. Qué cosas pasan en el mundo, qué barbaridad.
- 61 -
Antonio Cantó
Neutrinos, los notarios del universo Yuri, el 2 de septiembre de 2010 @ 10:00 · Categoría: Ciencia popular
Astronomía neutrínica
Esquema del telescopio submarino de neutrinos ANTARES (Francia).
Gran Telescopio Canarias (España), el mayor del mundo. Como cualquier otro instrumento óptico, sólo puede operar en las frecuencias lumínicas del espectro electromagnético.
- 62 -
La Pizarra de Yuri 1
Nuestra capacidad de aprender, de comprender, depende por completo de nuestra posibilidad de observar. La observación es el primer paso, el más fundamental, del método científico sin el cual permaneceríamos aún en la Edad Media. A partir del punto donde ya no pueden llegar nuestras manos o nuestras sondas, necesitamos que algo llegue hasta aquí para poderlo detectar. Estealgo suele ser radiación electromagnética en cualquiera de sus frecuencias –luz, infrarrojos, rayos gamma o X, lo que sea–, porque la radiación electromagnética puede recorrer enormes distancias con relativamente pocas alteraciones hasta que se acerca por aquí y nuestros ojos e instrumentos la pueden registrar. Así es como tú puedes ver el sol en el día y las estrellas en la noche; así fue como pudimos conocer todo lo que hemos aprendido hasta hoy y así es también como nuestros grandes observatorios logran saber de cosas que están a miles de millones de años-luz de distancia, adentrándonos cada día más en los secretos fundamentales del universo. Sin esta interacción esencial, la observación no sería posible y el método científico resultaría inaplicable, manteniéndonos así eternamente en las tinieblas de la ignorancia y la incomprensión. Sin embargo, la radiación electromagnética presenta algunas deficiencias en este papel de notario del universo. Simplemente, hay algunas cosas que no puede atravesar, o cuando las atraviesa ya ha desaparecido la información más interesante. Una simple nebulosa de polvo estelar es opaca por completo a la mayor parte de estas emisiones; y además, no nos permite saber lo que hay dentro de las cosas. ¿Significará esto que estamos condenados a pararnos ahí, a no llegar nunca a saber con certeza de la totalidad? La sandía, la estrella y el límite de Greisen-Zatsepin-Kuzmin.
- 63 -
Antonio Cantó
¿Cómo sabríamos de qué color es una sandía por dentro si no pudiéramos mirar en su interior? Pues el mismo problema tenemos con todo lo que está en el corazón de las estrellas y las galaxias, o detrás de barreras infranqueables para la radiación electromagnética.
Supongamos una sandía. Una sandía verde y dura por fuera, y roja y jugosa por dentro. ¡Alto ahí! ¿Cómo sabemos que la sandía es roja y jugosa por dentro, si sólo podemos ver su apariencia exterior? Bueno, me dirás, por supuesto todos hemos visto sandías abiertas alguna vez. Las compramos en el supermercado, las abrimos y nos las comemos, ¡menudo misterio! Y bien buenas que están, sobre todo con estos calores veraniegos. Pero, ¿y si no pudiésemos acceder directamente a la sandía? Imagínate que las sandías no se dieran en la Tierra, sino en algún planeta donde no podamos llegar: las hemos descubierto con un telescopio y –puesto que somos tan curiosos– nos preguntamos cómo serán por dentro. Si no tenemos la capacidad de enviar una sonda, algo que les haga un agujero o las reviente o las exponga de algún modo ante nuestros ojos y nuestros aparatos, su interior permanecerá desconocido para la Humanidad. Bien, pues ese es el problema que tenemos con buena parte de lo que hay en el universo: conocemos su aspecto exterior, pero no el interior. Las estrellas, por ejemplo. Sabemos que dentro de las estrellas ocurren cosas extraordinarias, cuyo descubrimiento nos aportaría enormes beneficios científicos y tecnológicos; lamentablemente, este conocimiento nos está vedado en la actualidad porque la radiación electromagnética que llega hasta la Tierra –y hasta los satélites que tenemos por ahí dando vueltas– se produce sobre todo en su corteza exterior. Lo que ocurre realmente dentro de una estrella sigue siendo objeto de hipótesis más o menos bien fundadas, que no tenemos ninguna forma de verificar por la sencilla razón de que no lo podemos ver. Lo mismo ocurre con los objetos que se encuentran detrás de una barrera opaca a la radiación electromagnética. Por ejemplo, tenemos muchos problemas para saber lo que se encuentra al otro lado de nuestra propia galaxia, dado que el disco principal y la barra nuclear de la Vía Láctea están llenos de materia que bloquea el paso de los fotones de la radiación electromagnética y reduce a un mínimo –e incluso a cero– nuestra visibilidad. Este mismo fenómeno se da en los núcleos de cualquier otra galaxia, transformando en invisible todo lo que sucede dentro (y todo esto son algunas de las cosas más interesantes de nuestro universo, las que pueden aportar pistas esenciales para su comprensión profunda).
- 64 -
La Pizarra de Yuri 1
La radiación de fondo cósmico absorbe los fotones de mayor energía, filtrando así buena parte de la radiación electromagnética que llega a la Tierra. Debido a este mecanismo, hay muchas cosas que no podemos observar más allá del límite GTK (a unos trescientos millones de años-luz).
Peor aún: los fotones de mayor energía interaccionan con la radiación de fondo cósmico para transformarse en pares electrón-positrón que se quedan varados por ahí. Este efecto, que los físicos llaman límite de Greisen-Zatsepin-Kuzmin(GZK), actúa como un filtro que deja pasar sólo a los fotones de menor energía y por tanto nos priva de conocer otro montón de cosas importantes más que suceden a partir de la barrera de los trescientos millones de años-luz. ¡Pues sí que estamos bien! ¿Significa eso que la Humanidad debe conformarse con descubrir sólo lo que ocurre superficialmente en nuestro entorno local? Ah, no. De eso nada. La hija de la lluvia es demasiado curiosa, demasiado brillante para detenerse ahí. Por fortuna, hay algo más capaz de superar todas estas barreras y terminar interactuando con sus ojos, con sus máquinas, con su mente inquieta y cotilla. Este algo más es un ente minúsculo, que se encuentra en el mismísimo borde de la realidad, tan en el borde que interacciona muy mal con ella pero se aviene a hacerlo un poquitín. Este ente mensajero de los secretos profundos del cosmos, verdadero notario de este universo, es la partícula que llamamos neutrino. El neutrino al rescate. El neutrino es una partícula subatómica del tipo que llamamos fermiones (por el físico experimental y teórico Enrico Fermi), como los electrones o los quarks. Se sospecha que puede ser un fermión de Majorana, es decir, que sería su propia antipartícula; esto no está verificado aún en la actualidad. Lo teorizó Wolfgang Pauli, en 1930, mientras estudiaba la radioactividad; pero no fue hasta 1956 cuando su existencia real se comprobó de manera experimental. En 1962 se descubrió que existía al menos en dos sabores y allá por 1975 quedó determinado en el nivel teórico que se trataba en realidad de tres: el electrón-neutrino (νe), el muón-neutrino (νμ) y el tau-neutrino (ντ). Para el año
- 65 -
Antonio Cantó
2000, las tres variantes habían sido ya detectadas experimentalmente. Todos los neutrinos poseen masa, aunque minúscula, y algunos piensan que deberían tener también un ínfimo momento magnético. Viajan por el universo a velocidades similares a las de la luz.
Modelo estándar de partículas, que refleja todos los componentes conocidos de la materia y de la energía. Puede observarse que los tres sabores de neutrinos presentan muy poca masa y ninguna carga.
Los neutrinos presentan varias características poco comunes en el zoo de las partículas subatómicas, como eso de que la antimateria de neutrinos puedan ser los propios neutrinos. Pero posee otra que nos interesa enormemente para este problema que nos ocupa: está tan en el borde de lo que existe que interactúa fatal con la materia. Para un neutrino, el electromagnetismo o lafuerza cromática (“fuerte”) no existen: sólo interaccionan bien con la fuerza débil y, en menor medida, con lagravedad. ¿Y esto qué quiere decir? Pues quiere decir que los neutrinos pueden viajar por el espaciotiempo con muy pocas molestias, a diferencia de lo que ocurre con la radiación electromagnética. Para un neutrino, un muro de plomo de cien años-luz de grosor resulta transparente casi por completo: pasa a través como si no hubiera nada ahí. (Eso viene a ser como desde aquí a Edasich del Dragón, ríete tú de la Gran Muralla China.) Y
- 66 -
La Pizarra de Yuri 1
están por todas partes: hay un saco de ellos en este universo. Se producen en gran cantidad en las estrellas (como nuestro Sol), en las supernovas, en la atmósfera terrestre y hasta debajo de nuestros pies, como parte de la radiación natural de fondo. Incluso los reactores de las centrales nucleares generan una cantidad respetable. Tu cuerpo (y el mío) es atravesado por unos cincuenta billones de neutrinos cada segundo; la inmensa mayoría vienen del Sol, pero otros han llegado hasta aquí después de cruzar un buen cacho de universo. Estos neutrinos proceden del interior de las estrellas y del corazón de las galaxias, han recorrido distancias inmensas con poca o ninguna alteración y ahora llegan hasta aquí (si bien por el momento sólo hemos detectado dos fuentes astrofísicas constantes: el Sol y la supernova SN 1987A). Contienen una cantidad enorme de información sobre lo que hay en esos lugares y sobre algunas de las cosas que se han encontrado por el camino. Son la alternativa que todo lo penetra y todo lo ve a la frágil radiación electromagnética: los fieles notarios del universo listos para contarnos un cuento maravilloso sobre las profundidades del cosmos y de la realidad que eres, soy, somos. Bueno, pues entonces, problema solucionado; ¿no? ¡Vamos a contar neutrinos, tralará! ¿O qué…? Cazadores de neutrinos. El problema radica, naturalmente, en que como ya hemos dicho los neutrinos no interaccionan con casi nada y son capaces de atravesar todo, incluyendo bloques de materia sólida millones de veces más gruesos que el propio planeta Tierra. No interactúan, no se paran, no se inmutan. Eso significa que, para ellos, es como si nuestro planeta, nuestros aparatos y nosotros mismos no estuviéramos ahí y no hubiéramos estado jamás. Entonces, ¿qué clase de celada podemos montar para que uno de estos entes en el límite de la realidad tenga a bien pararse un momentín a charlar y contarnos lo que sabe? El truco consiste en que, como comenté más arriba, los neutrinos sí interaccionan a través de la fuerza electrodébil. Esto significa que pueden hablarnos por dos vías:
- 67 -
Antonio Cantó
• Primera detección de un neutrino en una cámara de burbujas (1970). Un neutrino (invisible) colisiona con un protón y se transforma en un mesón-μ, creando también un mesón-π.
Mediante la interacción débil de corriente neutra, el neutrino influye vía un bosón Zsobre un electrón de los que constituyen la materia y lo acelera a velocidades relativistas, próximas a las de la luz en el vacío. Si esto sucede en un medio como el agua, la velocidad de la luz en el medio quedará excedida y se producirá una débil traza luminosa por radiación de Cherenkov, delatando así su existencia. Lamentablemente, este procedimiento sólo nos hará saber que el neutrino está pasando por ahí, pero no suministra ninguna información adicional. •
Mediante la interacción débil de corriente cargada, en cambio, el neutrino se transforma en su leptón equivalente (un electrón-neutrino en un electrón, un muonneutrino en un muon o un tau-neutrino en un tau) mediante el intercambio de un bosón W. Esto es mucho más interesante, porque estos leptones se pueden identificar y estudiar con detectores similares a los que se encuentran en los aceleradores de partículas. La parte negativa es que, para que esta conversión se produzca, el neutrino tiene que ser bastante energético; los de menor energía se colarán sin dejar rastro alguno.
¿Y con esto qué podemos hacer? Pues hoy por hoy, todavía no mucho. Pero sí algunas cosas que nos permiten seguir avanzando con el objetivo último de poder sacar una foto neutrínica a cualquier punto del universo y además saber –por la segunda vía– qué cambios sufrió durante su largo camino hasta aquí. Pues resulta que los neutrinos cambian de sabor durante su recorrido: la misma partícula puede transformarse entre los tres estados (electrón-neutrino, muon-neutrino y tau-neutrino) mediante un fenómeno cuántico conocido como oscilación neutrínica. Este fenómeno, planteado originalmente - 68 -
La Pizarra de Yuri 1
como el problema de los neutrinos solares, se confirmó en 2002: los electrón-neutrinos producidos en el Sol llegan frecuentemente a la Tierra como muon-neutrinos o tauneutrinos, con lo que esta conversión es posible en distancias muy cortas. En todo caso, una vez estas partículas han interactuado de algún modo con nuestros detectores, su presencia puede medirse por una diversidad de vías: centelleadores, tubos fotomultiplicadores para captar la radiación de Cherenkov, detectores de transitorias por radio, calorímetros e incluso captadores de sonido por efecto termoacústico. No obstante, la caza del neutrino sigue presentando en la actualidad varios desafíos de gran calado. Uno de ellos es, por supuesto, que la probabilidad de interacción del neutrino con alguna otra partícula es extremadamente baja incluso vía fuerza débil: hace falta que haya mucho volumen de masa en el detector para aumentar esta probabilidad de tal modo que alguno de ellos tenga a bien decir “¡aquí estoy! ¿De qué quieres hablar?”. Otro problema fundamental es que los rayos cósmicos que caen constantemente sobre la Tierra tienden a imitar el paso de los neutrinos cuando atraviesan estos detectores, de un modo que no se puede distinguir unos de otros. Los grandes telescopios subterráneos que miran hacia abajo.
Los ojos fotomultiplicadores de ANTARES, un telescopio de neutrinos, antes de su inmersión a 2.500 metros de profundidad en el mar Mediterráneo.
Por tanto, las trampas de neutrinos deben reunir varias condiciones singulares. La primera es que deben ser muy voluminosas, para aumentar las probabilidades de interacción. La segunda es que deben estar a gran profundidad, para aislarlas de la radiación cósmica y otros fenómenos relacionados con la radioactividad natural. La tercera es que constituyen un raro tipo de telescopio que, para observar los cielos,
- 69 -
Antonio Cantó
apuntan al centro de la Tierra; puesto que los neutrinos atraviesan el planeta y llegan al detector sin problemas, mientras que la mayor parte de las otras partículas que pueden conducir a engaño son incapaces de penetrar tanta materia. Por decirlo de algún modo, es un gran telescopio que utiliza el planeta entero como filtro. El primer detector de neutrinos operacional del mundo fue construido en 1955 por el físico químico Raymond Davis Jr, a seis metros de profundidad bajo los Laboratorios Nacionales Brookhaven, en el estado de Nueva York (Estados Unidos). Era un recipiente con casi cuatro metros cúbicos de un compuesto clorado, con un método primitivo de detección radioquímica. El mismo Davis no se esperaba que funcionase, pues a esa profundidad había aún demasiada radiación ambiental y además el precario montaje sólo era capaz de detectar neutrinos de muy baja energía, que apenas se delatan. Efectivamente, no encontró ninguno; pero, en el proceso, resolvió muchos de los problemas prácticos implicados en la realización de un equipo de estas características. Sin arredrarse por este fracaso, Davis propugnó la construcción de un detector mucho más grande y capaz. En cooperación con el astrofísico John N. Bahcall, que hizo los cálculos teóricos, activaban en 1970 el experimento HOMESTAKE. HOMESTAKE era esencialmente un gran bidón con 378 metros cúbicos de percloroetileno –un producto de limpieza bastante corriente– enterrado a 1.475 metros de profundidad, en un sector agotado de la mina de oro del mismo nombre (en Dakota del Sur, EEUU). Según su modelo teórico, cuando un neutrino influyera sobre un átomo de cloro este último transmutaría en un isótopo radioactivo del argón. Cada pocas semanas, Davies inyectaba helio en el depósito para recoger el argón que pudiera haberse formado. Y allí estaba. Nacía así la astronomía neutrínica, captando neutrinos procedentes del Sol. Inmediatamente le siguieron un gran número de detectores cada vez más grandes y sofisticados, y cada vez más parecidos a un telescopio que apunta hacia abajo. Además del KGF de India, que fue utilizado por varios equipos internacionales desde 1964, aparecieron Gargamelle (CERN, Francia, 1970), CDHS (CERN europeo, 1976), elObservatorio de Neutrinos de Baksan (Unión Soviética, 1977, fotos recientes), IMB (Estados Unidos, 1980), Soudan-2(Estados Unidos, 1983), KamiokaNDE-II (Japón, 1985), GALLEX (europeo, en Italia, 1991), SAGE (soviético-norteamericano, Rusia, 1991), AMANDA (Antártida, 1996), el Observatorio de Neutrinos de Sudbury (Canadá, 1999) o el experimento DONUT del Fermilab (Estados Unidos, 2000). A todos estos les fue siguiendo una nueva generación de observatorios mucho más complejos que, aunque aún lejos de ser un verdadero telescopio neutrínico (lo que un
- 70 -
La Pizarra de Yuri 1
lego entiende por un telescopio, vamos) van aproximándose constantemente. Algunos de los más importantes son los siguientes: • Concepto del Laboratorio de Neutrinos de Sudbury (Canadá). Los telescopios de neutrinos se instalan a mucha profundidad (bajo la tierra o el agua) y están compuestos por un enorme recipiente de líquido rodeado por los detectores. Todo ello, para aumentar la probabilidad de interacción de algún neutrino, reduciendo a un mínimo otras fuentes análogas de radiación.
El Telescopio de Neutrinos NT-200 del Lago Baikal, en Rusia (BDUNT). Un proyecto soviético completado en 1993, sigue siendo el telescopio neutrínico más grande del mundo en operación permanente. Utiliza un detector de segunda generación con 192 elementos activos, situados a 1.100 metros de profundidad bajo el mayor lago de la Tierra. Debido a su diseño y ubicación, recibe muchos neutrinos atmosféricos pero al mismo tiempo tiene una capacidad única para investigar los monopolos magnéticos. •
•
•
• •
Super-Kamiokande, en Japón. Situado en una mina a mil metros de profundidad, es el sucesor del KamiokaNDE que detectó la primera fuente de neutrinos más allá de nuestro sistema solar: la supernova SN 1987 A. Descubrió en 1988 las primeras evidencias de la oscilación neutrínica. En 2001, una grave averíalo puso fuera de servicio durante cinco años, hasta 2006. Está compuesto por un tanque que contiene 50.000 toneladas de agua ultrapura y 13.000 tubos fotomultiplicadores. También resulta de interés el KamLAND, situado en la misma instalación. Borexino, en el Laboratorio de Gran Sasso (Italia). Se trata de una colaboración internacional entre Italia, Rusia, los Estados Unidos, Alemania y Francia. Su propósito es identificar procesos solares específicos de emisión de neutrinos, lo que exige una precisión extrema. Registró sus primeros neutrinos en 2007. En esta misma instalación también se encuentran otros experimentos importantes como el LVD o el MACRO. EXO, en Nuevo México (Estados Unidos), para determinar si los neutrinos son verdaderamente partículas de Majorana o no (es decir, si un neutrino es su propia antipartícula). MINERvA, en el Fermilab (Estados Unidos), para estudios de dispersión de neutrinos. NEMO del Observatorio de Neutrinos Ettore Majorana. Situado en el túnel de Fréjus, entre Francia e Italia, su objetivo es demostrar el doble decaimiento beta libre de neutrinos (lo que confirmaría que son partículas de Majorana). Hasta el momento, no lo ha conseguido.
- 71 -
Antonio Cantó
•
•
IceCube, sucesor de AMANDA (en construcción). Situado en la Antártida, es un proyecto de la Universidad de Wisconsin. Se trata de un conjunto de detectores por radiación de Cherenkov situados en la superficie y bajo el hielo, hasta casi 2.500 metros de profundidad. Su propósito es investigar las fuentes puntuales de neutrinos de alta energía, la coincidencia entre los grandes brotes de rayos gamma y la emisión de estas partículas, observar las oscilaciones neutrínicas y detectar supernovas galácticas. De manera indirecta, contribuirá a la búsqueda de lamateria oscura y a validar o descartar la predicción de la Teoría de Cuerdas en favor de un neutrino estéril (que únicamente interactuaría con la gravedad). ANTARES, situado en el Mediterráneo francés, es el IceCube del Hemisferio Norte y ambos trabajarán en estrecha cooperación junto con el futuro NESTOR (Grecia) y la actualización del NEMO (Italia). A 2.500 metros de profundidad, ANTARES consta de doce cables verticales de 350 metros de longitud con 75 fotomultiplicadores cada uno. Dado que se trata de una cooperación global, sus objetivos científicos son los mismos que los de IceCube. ANTARES incorpora también elementos de investigación oceanográfica profunda.
Dado que en la actualidad las únicas fuentes constantes de neutrinos extraterrestres positivamente detectadas son el Sol y la supernova SN 1987 A (aunque hay varios cientos de candidatas más), la astronomía neutrínica es esencialmente una forma de astronomía solar. Disparando neutrinos artificiales a través de la Tierra. Uno de los experimentos más interesantes de tiempos recientes ha consistido en utilizar dos grandes aceleradores de partículas para disparar neutrinos generados artificialmente a través de nuestro planeta y detectarlos con un telescopio neutrínico en otro lugar. Así, se puede estudiar de manera controlada cómo estas partículas viajan a través de la materia y de qué manera esto influye en la oscilación entre las distintas variantes. Este experimento se ha realizado en al menos dos ocasiones: •
•
MINOS (Estados Unidos). Un haz de neutrinos disparado desde el NuMI del Fermilab se orientó hacia dos detectores: uno de ellos situado en las proximidades y otro a 735 kilómetros de distancia, el Soudan-2. Los neutrinos viajaron en línea recta a través de la Tierra y fueron detectados en ambos lugares, confirmando así diversas teorías sobre esta materia. OPERA (Europa). Se disparan haces de muon-neutrinos desde el Súper Protón Sincrotrón del CERN –un antecesor del LHC–, situado entre Francia y Suiza, para su detección como tau-neutrinos en Gran Sasso (Italia). El 31 de mayo de 2010,
- 72 -
La Pizarra de Yuri 1
OPERA confirmó la transformación de un muon-neutrino en tau-neutrino, verificando así la oscilación cuántica neutrínica de manera controlada.
Entrada al Observatorio de Neutrinos de Baksan, Rusia, operativo desde 1977.
Otra utilidad peculiar de todas estas investigaciones es la localización de reactores nucleares clandestinos. Los reactores nucleares producen una gran cantidad de antineutrinos, y no se puede evitar porque es una ley física directamente relacionada con la fisión de los núcleos pesados (uranio, plutonio…). Un reactor típico de 4.000 megawatios térmicos (capaz de producir 1.300 megawatios eléctricos) pierde 185 MW en forma de radiación antineutrínica que escapa en todas direcciones sin que pueda bloquearse de ninguna manera (aproximadamente el 4,5% de su producción energética). Vamos: que una central nuclear de 1.000 MW e en realidad produce 1.045, pero los 45 MW restantes desaparecen en forma de antineutrinos: tanta energía como la fabricada por quince aerogeneradores eólicos típicos. Esto no provoca ningún problema porque los neutrinos y antineutrinos, como hemos ya repetido muchas veces, pasan a través de todo y se pierden en el espacio. Sin embargo, abre la posibilidad de detectarlos; de manera muy interesante, una buena detección y análisis de los antineutrinos emitidos por un reactor nuclear permitiría conocer su tasa de producción de plutonio. Lo cual, obviamente, resultaría de gran importancia no sólo para localizar reactores clandestinos, sino también en el control de la proliferación de armas nucleares. La astronomía neutrínica aún está en su infancia: nuestras capacidades en estos momentos no llegan mucho más allá de lo que fueron capaces los primeros observadores con telescopios ópticos, allá a principios del siglo XVII. Pero sus posibilidades para llegar hasta lugares donde jamás antes soñamos con llegar –el corazón de las estrellas y las galaxias, las regiones del universo que nos están veladas
- 73 -
Antonio Cantó
por monumentales barreras cósmicas– son inmensas. Y en el proceso, puede ayudarnos a reducir algunos de los peores peligros de nuestro mundo. Seguramente llegará un día en que las imágenes de los telescopios neutrínicos nos resultarán tan corrientes como ya nos parecen hoy las delHubble, el Spitzer o el Chandra. Todo ello, cosas que a aquellas gentes del pasado les habrían parecido imposibles y destarifadas. Pero ya se sabe cómo progresa la Humanidad.
- 74 -
La Pizarra de Yuri 1
¿Gafas de colores contra la dislexia? Yuri, el 7 de octubre de 2010 @ 12:27 · Categoría: Ciencia popular, Sociedad y civilización
…y contra el autismo, y contra la hiperactividad, y contra el mal comportamiento, y contra las dificultades escolares, y contra las migrañas, y contra… ¿suena a charlatanería, quizás?
"Gafas de colores", supuestamente eficaces contra la dislexia y otros trastornos del aprendizaje y neurocognitivos, vendidas en numerosos países bajo una pluralidad de marcas comerciales.
Como sé que con este post me juego una denuncia de esas de taparte la boca, ahí va el disclaimer o apercibimiento legal: este artículo elabora sobre las lentes oftálmicas, láminas y gafas de colores ofrecidas al público por determinadas marcas y profesionales con el supuesto propósito de solucionar una diversidad de problemas de lectura, aprendizaje y comportamiento infantil; y lo hace a partir de lo expuesto en la declaración clínica conjunta de la Academia Estadounidense de Pediatría, la Academia Estadounidense de Oftalmología, la Asociación Estadounidense de Oftalmología Pediátrica y Estrabismo y la Asociación Estadounidense de Ortoptistas Certificados cuyo resumen (“abstract”), una vez traducido al castellano, dice así: “Las incapacidades de aprendizaje, incluyendo los impedimentos para la lectura, se diagnostican habitualmente en niños. Sus etiologías son multifactoriales, reflejando influencias genéticas y disfunciones de los sistemas cerebrales. Las incapacidades de aprendizaje son problemas complejos que requieren soluciones complejas. […] La mayor parte de los expertos opinan que la dislexia es un trastorno basado en el lenguaje. Los problemas de visión pueden interferir con el proceso de aprendizaje; pero los problemas de visión no son la causa de la dislexia primaria o las
- 75 -
Antonio Cantó
incapacidades de aprendizaje. La evidencia científica NO apoya la eficacia de los ejercicios del ojo, la terapia conductual visual o las lentes o filtros tintados especiales para mejorar el rendimiento educativo a largo plazo en estas enfermedades neurocognitivas pediátricas complejas. Las aproximaciones al diagnóstico y tratamiento que carecen de evidencia científica sobre su eficacia, incluyendo los ejercicios del ojo, la terapia conductual de visión o los filtros o lentes tintados especiales, no se avalan y no deberían ser recomendados.” –Learning Disabilities, Dyslexia, and Vision. En Pediatrics (Revista oficial de la American Academy of Pediatrics) 2009;124;837844; Declaración clínica conjunta de la American Academy of Pediatrics, Council of Children with Disabilities; American Academy of Ophthalmology; American Association for Pediatric Ophthalmology and Strabismus; American Association of Certified Orthoptists. DOI: 10.1542/peds.2009-1445. Copyright © 2009 by the American Academy of Pediatrics. Texto completo en PDF.
Este artículo, por tanto, parte de esta información y se sustenta en ella de buena fe para informar al público sobre estos productos y expresar la opinión personal del autor al respecto, sin presunción de formación médica o análoga. Dicho queda.
Gafas de sol de diversos colores dispuestas para su venta en una tienda de Manhattan. A la luz de la información científica disponible, no está demostrada la diferencia terapéutica entre el uso de las lentes o filtros que se distribuyen como útiles contra la dislexia y unas gafas de sol coloreadas corrientes como estas, con un precio muy inferior.
- 76 -
La Pizarra de Yuri 1
¿De qué va esto? Pues va de que hoy estoy cabreado. Francamente cabreado. Y además, te lo voy a contar. Verás. Tengo una amiga muy querida con una hija de ocho años (no, no es hija mía). Esta niña es una cría muy inteligente y salada, que a mí me cae muy bien, aunque debo matizar que a mí me van las experiencias fuertes; porque la chiquilla en cuestión tiene su carácter, es un terremoto que no para quieta y algunos adultos no acaban de saber cómo manejarse con ella. Adicionalmente, la niña presenta diversos problemas de aprendizaje y entre ellos algunos bastante inespecíficos vinculados con la lectura. Existe alguna posibilidad de que se trate de dislexia o algún trastorno relacionado, aunque también es fácil que se derive tan solo de sus problemas de concentración por ser – simplemente– un puro nervio. Se estaba considerando la posibilidad de llevarla a algún profesional para una evaluación más detallada. Hasta aquí, lo normal con un crío movido que puede tener, o no, un problema de aprendizaje. Entonces, desde hace un par de semanas, mi amiga se ha visto en el centro de una auténtica campaña para que le compre unas ciertas gafas de colores. “¿Gafas de colores?”, te preguntarás, como se preguntó ella. “¿Qué demonios tendrán que ver unas gafas de colores con un potencial trastorno neurocognitivo complejo como la dislexia o similar?” Pues sí, sí, gafas de colores: según sus proponentes, son poco menos que la panacea universal y la solución de todos los problemas para la niña y para la madre. Bueno, o casi todos. ¿Su precio? Unos seiscientos o setecientos euros de nada. Hay trabajadores que no ganan ese dinero en un mes. A mi amiga –una persona también inteligente y hasta cierto punto escéptica, perteneciente a una familia para la que esas cifras representan un esfuerzo económico significativo– el asunto le huele a chamusquina. Consulta con su óptica habitual, con otra que le pilla cerca de casa, con un médico y con un par de amistades que trabajan en el sector. Todos le dicen que es lo mejor que se ha inventado desde la sopa de ajo. Aún desconfiando, le pide a su hermano –persona de mejor formación– que le haga el favor de mirar a ver de qué va eso. Su hermano pregunta en varias ópticas, consulta en Internet, incluso visita una organización local de profesionales de la visión. Todos insisten en que se trata de una maravillosa novedad que le arreglará a su hija la (no diagnosticada) dislexia y lo que sea menester. Avalada por Sanidad y por todos los médicos y no sé cuántas cosas más. Científicamente verificada. ¡Y hasta ha salido en la tele y en los periódicos! Pero a ella, pelín cabezona a fuer de racional, el tema le sigue sonando raro. Así que, casi in extremis y bajo una fuerte presión social, llama a un fulano que conoce y que le
- 77 -
Antonio Cantó
merece cierto crédito personal en estas materias relacionadas con la cosa científica: vuestro seguro servidor, el tío Yuri. El tío Yuri, que es la primera vez que oye hablar del asunto en su vida, parpadea con algún escepticismo y dice aquello de “dame un rato, que voy a echar un vistazo por ahí”. El asunto, claro, apesta a charlatanería por los cuatro costados; pero, habiendo tantas garantías profesionales y presuntamente científicas, sin duda es materia a manejar con precaución y mente abierta. Eso sí, como se dice de viejo, no tan abierta que se te vaya a caer el cerebro. Que luego es una guarrada de recoger, y todo eso. Cuentas de colores curalotodo.
La hipótesis subyacente a las lentes o filtros Irlen se sustenta en la existencia de un cierto "síndrome de sensibilidad escotópica" (síndrome Irlen, síndrome de Meares-Irlen), que provocaría a sus víctimas una serie de distorsiones de lectura como las representadas en la imagen. Sin embargo, la existencia de esta enfermedad tampoco está validada científicamente; y estas distorsiones y síntomas –que son reales y padecidos por quien los sufre– se pueden atribuir a una diversidad de trastornos ya conocidos sin necesidad de recurrir a tal "síndrome".
En el primer vistazo, me encuentro con lo mismo que el hermano de mi amiga: toda clase de garantías, páginas enteras de testimonios favorables, estudios supuestamente científicos avalando el producto y hasta famosetes de medio pelo promocionándolo en las páginas web de los respectivos distribuidores. Todo ello, con un tufo a campaña de marketing de primera para vender un producto milagrero; lo cual, obviamente, no hace más que aumentar mis dudas. ¿Has visto alguna vez a famosetes promocionando un
- 78 -
La Pizarra de Yuri 1
fármaco contra el cáncer, por poner un ejemplo? Y lo de los estudios científicos, así a pelo, qué quieres que te diga: a estas alturas, uno ya ha visto unos cuantos convenientemente cocinados por la industria correspondiente. Así pues, me dedico a husmear con mayor profundidad. El primer progreso se produce cuando logro descubrir el nombre original del producto: se trata de los filtros o lentes Irlen. En España se comercializan, por ejemplo, otras lentes de colores análogas bajo la marca Chromagen. Resulta que el invento, como novedad, no es gran cosa: data de al menos 1980 y sus orígenes, de los inicios del siglo XX. Además, desde el principio, se promocionó a través de los medios de comunicación de masas más que mediante los canales científicos habituales:demostraciones de eficacia en televisión y toda la pesca. Mi particular medidor de charlatanería comienza a vibrar seriamente. El segundo descubrimiento, ya más preocupante, es que la lógica detrás de la lentes coloreadas en cuestión obedece al diagnóstico de una supuesta enfermedad no aceptada por la comunidad científica: el llamado Síndrome de Sensibilidad Escotópica, descubierto por un profesor neozelandés y una psicóloga o algo parecido norteamericana. De nuevo, este presunto síndrome y su solución –los cristales coloreados de marras, ¡qué conveniente!– ha sido popularizado en los países de habla inglesa mediante best-sellers y cosas por el estilo… pero no encuentro nada ni parecido a una validación científica metodológicamente admisible. Con estos datos en la mano y el detector de charlatanes cantando ya por bulerías, renuncio a seguir abriéndome paso entre el barullo para todos los públicos –¿cuántas páginas de testimonios favorables se pueden llegar a escribir?– y me voy directamente a las fuentes de literatura científica seria. Ya que la cosa parece provenir del mundo anglosajón entro en PubMed, el portal de artículos biomédicos científicos de la Biblioteca Nacional de Medicina de los Estados Unidos, organismo público federal de los Institutos Nacionales de Salud. Una breve búsqueda comienza a producir resultados rápidamente. La primera, en la frente; un viejo artículo de 1991 ya nos advierte lo siguiente en su abstract: “Revisamos la investigación relacionada con el uso de lentes tintadas y láminas coloreadas Irlen para alumnos que van retrasados. Muchos de estos estudios no fueron publicados en revistas referenciadas y son metodológicamente pobres. Se discute la debilidad del argumento Irlen, incluyendo la ausencia de evidencia para apoyar la afirmación de que estas lentes deben ser prescritas y fabricadas de manera exclusiva. La sintónica es otra forma de
- 79 -
Antonio Cantó
“terapia de visión por colores” que se ha aplicado a personas con dificultades de lectura. La investigación sobre esto se ha revisado, y también se ha demostrado que presenta irregularidades de procedimiento que impiden alcanzar conclusiones firmes. Debido a la pobre calidad de muchas de estas investigaciones, las afirmaciones de sus proponentes no se pueden demostrar ni dejar de demostrar. […]” –En Ophtalmic and Physiological Optics (Revista del Colegio de Ópticos del Reino Unido), julio 1991; 11(3):206-17:Lentes tintadas y terapias relacionadas en los problemas de aprendizaje – una revisión. Autores: Evans BJ, Drasdo N.; Departamento de Ciencias de la Visión, Universidad de Aston, Birmingham, Reino Unido.
Ups. Bueno, es un artículo antiguo, ¿eh? ¡Casi veinte años! Vamos, vamos, si hay tanta gente profesional recomendándolo, no puede ser tan malo. A ver, sigamos buscando… “Fracaso de las lentes tintadas en azul para cambiar los resultados lectores de individuos disléxicos. Autores: Christenson GN, Griffin JR, Taylor M.; Christenson Vision Care, Hudson, Wisconsin 54016, USA. CONTEXTO: Este estudio fue diseñado para corregir un fallo mayor percibido en estudios anteriores que investigaban las lentes tintadas y la dislexia: la carencia de un método directo y validado científicamente para diagnosticar el tipo y la severidad de la dislexia. MÉTODOS: Dieciséis estudiantes de entre 5º y 8º grado [10-14 años], diagnosticados con dislexia mediante el Test de Determinación de Dislexia (DDT), fueron divididos al azar en dos grupos de ocho. A un grupo se le aplicó la prueba primero con filtros azules y, de 2 a 5 semanas después, sin filtros; utilizando el Test Gates-McGinitie de comprensión lectora. Al otro grupo de ocho se le aplicó la misma prueba, primero sin filtros y de 2 a 5 semanas después con filtros. El nivel escolar del test utilizado para cada individuo era acorde al nivel de decodificación DDT. RESULTADOS: No hubo diferencia significativa en el nivel de comprensión lectora o la velocidad de lectura cuando la condición con filtro azul se comparó con la condición sin filtro.”
- 80 -
La Pizarra de Yuri 1
–En Optometry – Revista de la Asociación Estadounidense de Optometristas (octubre 2001;72(10):627-33).
Esto… eh… “El uso de lentes tintadas como un método para mejorar las habilidades lectoras en niños con dislexia ha sido un asunto controvertido en los últimos años. El propósito del presente estudio fue determinar si las lentes tintadas ocasionan una mejora significativa en la capacidad lectora de los niños disléxicos. […] Los análisis de varianza [estadística] en la capacidad lectora no mostraron ni mejoría ni deterioro atribuible al color o densidad de la lente cuando se [tienen en cuenta] los márgenes de error […]. Adicionalmente, la lente que fue preferida subjetivamente por cada niño [tampoco] se correlacionó con la habilidad lectora real.” –Archivos de Oftalmología, volumen 111, febrero de 1993, pp. 213-218; ¿Las lentes tintadas mejoran la capacidad lectora de los niños disléxicos?, por Sheryl J. Menacker (médica); Michael E. Breton (doctor en medicina); Mary L. Breton; Jerilynn Radcliffe, (doctora en medicina); Glen A. Gole, (médico). División de Oftalmología, Hospital Infantil de Philadelphia (Pennsylvania).
Fragmento de la Declaración conjunta de la Academia Estadounidense de Pediatría, la Academia Estadounidense de Oftalmología, la Asociación Estadounidense de Oftalmología Pediátrica y Estrabismo y la Asociación Estadounidense de Ortoptistas Certificados sobre las "gafas de colores", publicada en Pediatrics (2009;124;837-844).
- 81 -
Antonio Cantó
En el texto resaltado se lee "...los filtros o gafas coloreados especiales no se avalan y no deberían ser recomendados". © 2009, American Academy of Pediatrics. (Clic para ampliar)
A estas alturas, claro, mi medidor de charlatanería y productos milagreros ya berrea cual contador Geiger en Chernóbyl. Y mi cabreo va en aumento al mismo ritmo. Comienzo a pensar seriamente que alguien le quiere tangar a mi amiga una pasta que sólo se puede permitir con un gran esfuerzo, en nombre de la salud y la educación de su hija, mediante un vil cuento chino con todos los parabienes médicos, ópticos y mediáticos de su entorno habitual más los testimonioshabituales en todas las páginas web, revistas y demás. No es de esperar que una madre de familia que no habla inglés y trabaja de sol a sol para sacar adelante a su chiquilla tire horas en el PubMed buscando información científica de alto nivel: tiene que fiarse de lo que le dicen las autoridades de su alrededor. Y resulta que las susodichasautoridades, al parecer, no tienen ni puñetera idea de lo que están hablando; si es que no le están ocultando información para impedirle saber que estas gafas de colores constituyen, como poco, un método terapéutico controvertido y con muy dudosos avales científicos. Eso sí, para hacerle las pruebas colorimétricas a la niña e informarle sobre la pasta que le van a costar las lentes y sus opciones de pago están rápidos y diligentes como el rayo. Para rayo, el que me está saliendo a mí encima de la cocorota junto a una nubecita negra. Porque, entonces, observo que varios de estos artículos que he obtenido en el PubMed hacen referencia a una cierta declaración clínica conjunta de las principales entidades científicas de los Estados Unidos competentes en la materia con respecto a estas gafas de colores. Mediante una rápida búsqueda, me encuentro el texto citado al principio de este artículo, con fecha de 2009. Resulta que la Academia Estadounidense de Pediatría, la Academia Estadounidense de Oftalmología, la Asociación Estadounidense de Oftalmología Pediátrica y Estrabismo y la Asociación Estadounidense de Ortoptistas Certificados… ¡llevan advirtiendo desde al menos 1993 que la efectividad terapéutica de las gafas de colores es, en el mejor de los casos, una conjetura sin validar científicamente! Recordemos: […] los problemas de visión no son la causa de la dislexia primaria o las incapacidades de aprendizaje. La evidencia científica NO apoya la eficacia de los ejercicios del ojo, la terapia conductual visual o las lentes o filtros tintados especiales para mejorar el rendimiento educativo a largo plazo en estas enfermedades neurocognitivas pediátricas complejas. Las aproximaciones al diagnóstico y tratamiento que carecen de evidencia científica sobre su eficacia, incluyendo los ejercicios del ojo, la terapia conductual de visión o los filtros o lentes tintados especiales, no se avalan y no deberían ser recomendados.”
- 82 -
La Pizarra de Yuri 1
–Learning Disabilities, Dyslexia, and Vision. En Pediatrics (Revista oficial de la American Academy of Pediatrics) 2009;124;837-844; Declaración clínica conjunta de la American Academy of Pediatrics, Council of Children with Disabilities; American Academy of Ophthalmology; American Association for Pediatric Ophthalmology and Strabismus; American Association of Certified Orthoptists. DOI: 10.1542/peds.2009-1445. Copyright © 2009 by the American Academy of Pediatrics. Texto completo en PDF.
Uno puede entender, con algún esfuerzo, que hasta al mejor profesional se le pasen por alto unos oscuros artículos publicados en la literatura extranjera. Lo que no tiene ningún sentido es que ignoren declaraciones conjuntas de las principales entidades científicas en su especialidad, repetidas y publicadas insistentemente a lo largo de casi dos décadas, garantizando a un público indefenso la eficacia de un supuesto tratamiento no avalado y no recomendado por estas instituciones. Es como si un electricista doméstico ignorara el Reglamento Electrotécnico de Baja Tensión o un ingeniero atómico desconociese la normativa internacional sobre seguridad nuclear, recomendando a sus clientes en su lugar prácticas sugeridas por una empresa con intereses en el sector (bueno… ejem…). Aún hay más: el mecanismo de acción y la naturaleza específica del producto son esencialmente desconocidos. En ningún lugar se explica de qué manera estas lentes o filtros hacen lo que se supone que hacen (no de manera verificable científicamente, vaya), ni tampoco por qué tienen que ser esas específicamente y no cualquier otro cacho de cristal coloreado (en algún sitio hablan de la supresión de las frecuencias lumínicas perniciosas, pero de nuevo la utilidad de esto está sin validar). En suma: todo lo que rodea a estos cristales de colores parece estar sistemáticamente orientado a la venta de un producto determinado –las gafas, filtros y láminas en cuestión– en vez de al progreso de la ciencia, la medicina, la oftalmología, la óptica o el bienestar público en general. Algo muy característico de la charlatanería.
Existen, naturalmente, numerosas lentes y filtros que permiten aguzar la visión mediante distintas técnicas como la reducción del brillo, el incremento del contraste, etcétera. Por ejemplo, en la imagen vemos cómo un filtro polarizado vuelve visibles las tortugas que hay dentro del agua (las típicas "gafas de pescador"). Pero esto no mejora y no tiene
- 83 -
Antonio Cantó
por qué mejorar ningún trastorno neurocognitivo o conductual subyacente; la sensación de "ver mejor" (o con más confort) y los sesgos de confirmación y atribución típicos en estos casos pueden conducir fácilmente a un efecto placebo.
La respuesta de los (verdaderos) científicos.
Mensaje enviado el martes antepasado a diversos Colegios Oficiales de Medicina y Optica sobre las lentes de colores. (Clic para ampliar)
Empiezo a preguntar por ahí, a amigos y conocidos de varias ciudades. Resulta que el caso de mi amiga no es excepcional ni mucho menos. Las gafas de colores se están vendiendo en un número de comercios y consultas oftalmológicas y ópticas como método terapéutico útil contra la dislexia, la hiperactividad y diversos trastornos del aprendizaje y el comportamiento. Algunos se asombran ante mi pregunta: ¿acaso no lo he visto en la tele, en la prensa? (Bien, la verdad es que no…) Resulta obvio que ha llegado la hora de saltar del mundo virtual (aunque sea referenciado y perfectamente científico) al mundo real. El asunto parece lo bastante grave como para consultar directamente a los máximos representantes de ópticos y oftalmólogos en España, así que el martes antepasado (28 de septiembre) envié una serie de correos electrónicos al Consejo General de Colegios Oficiales de Médicos de España, al Colegio Nacional de Ópticos-Optometristas de España y al Ilustre Colegio Oficial de Médicos de Madrid, así como al Colegio de Ópticos Optometristas de la Comunitat Valenciana y el Ilustre Colegio Oficial de Médicos de Valencia (ciudad donde resido actualmente). En ellos, les informaba del resultado de esta pequeña investigación y les prevenía que este post iba a ser muy crítico contra algunos de sus colegiados, invitándoles a realizar cualquier aclaración que considerasen oportuna. Si
- 84 -
La Pizarra de Yuri 1
quieres ver uno de los mensajes enviados, amplía la imagen de la derecha; todos fueron muy parecidos a ese. La reacción de la mayor parte de estas instituciones fue muy amable y cooperadora. De manera particular, el Colegio de Ópticos-Optometristas de la Comunitat Valenciana me sugiere que me ponga en contacto con dos personas: la doctora Rosa María Borrás, profesora titular de óptica y optometría en la Universitat Politècnica de Catalunya; y el doctor Joaquín Vidal López, óptico-optometrista y psicólogo, profesor en la Universitat Oberta de Catalunya, autor de la tesis doctoral “Estudio de los factores que intervienen en los efectos de las lentes coloreadas sobre la velocidad lectora: análisis de tres modelos teóricos explicativos” (2007). Me pongo a leer la tesis del Dr. Vidal y llamo por teléfono a la Dra. Borrás. Rosa Borrás resulta ser una profesora de lo más afable y accesible; una de esas personas que saben tanto sobre su especialidad que cada una de sus frases constituye un verdadero compendio de conocimientos a diseccionar y analizar con calma. Al final de la conversación, me da pena colgar el teléfono: podría haber seguido aprendiendo de sus palabras mucho más. En el tema que nos ocupa, confirma mis sospechas: la eficacia de las gafas de colores para el tratamiento de trastornos neurocognitivos complejos como la dislexia permanece sin demostrar y es inexistente con toda probabilidad. Lo que ocurre, me dice, es que pueden aumentar el confort visual para algunas personas – disléxicas o no– a las que la proximidad de líneas de color negro sobre un fondo blanco resultan molestas o confusas. Como resultado, también existe la posibilidad de reducir algunos dolores de cabeza y migrañas relacionados con estas molestias; todo lo cual puede provocar efectos en los estudios por resonancia magnética funcional e inducir un efecto placebo al usuario. Pero, en sus propias palabras, “un vidrio óptico no puede hacer otra cosa que esto. Otro tipo de virtud no tiene. Ni va leer mejor, ni nada. Los problemas de comprensión y lectura van a quedarse igual.”
- 85 -
Antonio Cantó
Desde la Escuela Universitària de Óptica y Optometría de Terrassa, perteneciente a la Universitat Politècnica de Catalunya - BarcelonaTech, la Dra. Rosa Mª Borrás nos explica que el único efecto posible de las "gafas de colores" es incrementar el confort visual y no pueden tratar o curar problemas del aprendizaje o del comportamiento.
Mientras tanto, desde el Colegio Nacional de Ópticos-Optometristas de España (donde, por cierto, dentro de tanta amabilidad como me he encontrado mientras investigaba este post fueron especialmente agradables) me hacen llegar copia de un artículo publicado en su revista oficial, la Gaceta Óptica, firmado por el mismo Dr. Vidal y donde puede leerse lo siguiente: “Por lo tanto, los filtros coloreados utilizados en el presente trabajo no parecían ser un método eficaz para tratar los problemas de lectura porque propiciaban la aparición del efecto placebo y, al no estar demostrada su eficacia como tratamiento, se debería desaconsejar a los pacientesporque se desperdicia tiempo y recursos económicos que podrían ser empleados en intervenciones que hayan demostrado su eficacia.” –En Gaceta Óptica, órgano oficial del Colegio Nacional de Ópticos-Optometristas de España; marzo 2008;424:28-29.
- 86 -
La Pizarra de Yuri 1
O sea, que no era un problema de que la gente tenga dificultades con el inglés y las publicaciones extranjeras. La misma conclusión a la que llegaron las instituciones norteamericanas detalladas más arriba estaba disponible en la Gaceta Óptica desde marzo de 2008 como mínimo. He consultado con más personas expertas en óptica y oftalmología pediátricas durante la elaboración de este post. Ninguna de todas ellas defendió que las gafas de colores pudieran ser de alguna utilidad en el tratamiento de los problemas de lectura, aprendizaje o comportamiento infantil con base neurológica, psiquiátrica, psicológica o neurocognitiva. Antes bien al contrario, me encontré con algunas opiniones fuertes sobre las mismas, que se me permite citar sin desvelar quién lo dijo. Preguntada una de estas fuentes deseosas de mantener el anonimato sobre la supuesta especificidad de estos cristales que justificara su elevado precio, respondió: “Ellos [los fabricantes] dicen que es porque retienen unas frecuencias muy específicas, pero esto ni está demostrado ni sirve para nada [en los trastornos del aprendizaje]. Además, el efecto sobre la retina variaría incontrolablemente según las condiciones de iluminación. Ni siquiera llevan antirreflejos, polarización ni nada parecido. No hay ninguna diferencia con un cristal óptico normal.“ Otra concluyó, simplemente: “qué retengan frecuencias ni qué niño muerto… cobrarle a la gente cientos de euros por unos vidrios tintados no se justifica de ninguna manera.” Reconozco públicamente que me esperaba algún tipo de defensa corporativista, intentos de marear la perdiz o introducir confusión o al menos disculpar o justificar el asunto. No ocurrió nada de todo esto. Nadie me hizo la menorsugerencia sobre lo que debía escribir o dejar de escribir. Antes bien al contrario: todo el mundo fue claro, directo y cooperador. A lo más que llegó una persona fue a pedirme “cariño” con aquellos compañeros que pudieran estar en un error de buena fe; petición que me parece de lo más justa. Por haber pensado lo que pensé, pido disculpas de manera igualmente pública: lección aprendida.
- 87 -
Antonio Cantó
Algunas personas presentan molestias visuales al enfocar la vista en patrones de líneas negras sobre fondo blanco (similares a las líneas de texto en un papel), con un efecto de hiperexcitabilidad cerebral que puede llegar a producir confusión y dolores de cabeza durante la lectura. Parte de estas personas encuentran alivio al ver tales patrones a través de un filtro de otro color. Suponer que esto implica una posibilidad de tratamiento de la dislexia, el autismo o cualquier otro problema neurocognitivo o conductual complejo no se sostiene científicamente.
¿Cómo es esto posible? El problema no es tanto si las gafitas de marras sirven para algo por encima del efecto placebo, o no, o todo lo contrario. En principio, si están bien hechas, resultan inocuas para la vista: a nadie se le van a estropear los ojos por llevar unas gafas de colores de mediana calidad. El problema es que, confiados en este método, muchas familias pueden dejar de tratar problemas neurocognitivos o conductuales verdaderos en sus hijos: una consecuencia perversa típica de las pseudociencias. Y que valen una pasta porque se les suponen unas propiedades terapéuticas especiales garantizadas por profesionales, autoridades y medios de comunicación cuya eficacia permanece sin demostrar. Seiscientos o setecientos euros por unas lentes coloreadas de eficacia probablemente nula como tratamiento médico constituyen una cifra abultada y abusiva; las garantías de funcionamiento sin validación científica independiente lo convierten en una simple estafa aunque fuesen la panacea que prometen ser, puesto que esta garantía es engañosa, inexistente y orientada a inducir error en el comprador para sacarle los cuartos.
- 88 -
La Pizarra de Yuri 1
Cometen estafa los que, con ánimo de lucro, utilizaren engaño bastante para producir error en otro, induciéndolo a realizar un acto de disposición en perjuicio propio o ajeno. –Artículo 248.1 del Código Penal español. El delito de estafa será castigado con las penas de prisión de uno a seis años y multa de seis a doce meses, cuando: […] Se cometa abuso de las relaciones personales existentes entre víctima y defraudador, o aproveche éste su credibilidad empresarial o profesional. –Artículo 250.1.7 del Código Penal español.
Pietro Longhi, El Charlatán (1757). Óleo sobre lienzo, 62 x 50 cm. En el Palacio de Ca' Rezzonico, Venecia.
En realidad, no es que todos estos profesionales, medios y autoridades varias que han apoyado o propuesto el uso de las gafas de colores como método terapéutico sean unos - 89 -
Antonio Cantó
estafadores. La mayoría –estoy convencido– actúan de buena fe, por lo que cabría hablar más de desidia y dejación de responsabilidades (la responsabilidad de estar correctamente informado y actualizado para informar y tratar adecuadamente al paciente, ciudadano o cliente). Lo que ha pasado, simplemente, es que alguien se ha asegurado de que los estudios favorables fueran traducidos, publicados y difundidos entre los profesionales y el público; mientras que los discrepantes, al no tener a nadie especialmente interesado en fomentarlos detrás, han permanecido en la oscuridad pese a ser claramente mayoritarios, metodológicamente correctos y adecuadamente validados. Este es un problema común cuando hay una industria y unos intereses empresariales detrás de una proposición pretendidamente científica. Por ejemplo: durante décadas, numerosas empresas tabaqueras pagaron, difundieron y publicitaron hasta el más irrelevante estudio que pareciera decir que fumar no era tan malo para la salud. También durante décadas, varias compañías de hidrocarburos hicieron lo propio con el plomo en la gasolina, y al menos hasta hace poco algunas lo hacían para negar el calentamiento global, apelando siempre a la ignorancia científica de un público desinformado y crédulo al que además hacen creer justo, sabio, mejor informado que sus congéneres y hasta heroico por resistirse a la conspiración estatal-cientista. A veces llegaron a utilizar a las mismas personas sin vergüenza alguna, como Frederick Seitz, negacionista profesional de la relación tabaco-cáncer, de la CFC-capa de ozono y finalmente del cambio climático antropogénico, siempre por cuenta de grandes corporaciones. Un libro imprescindible en ese sentido es Merchants of Doubt (Bloomsbury, 2010; ISBN 978-159691-610-4). Habiendo pasta detrás, siempre hay alguien dispuesto a publicar cualquier cosa. En la medicina, y sobre todo en los servicios médicos populares, esto también ocurre. Y no poco. Es relativamente complicado colocarle a un ministerio de Sanidad un medicamento sin suficientes avales científicos, pero no lo es tanto desarrollar una campaña de marketing para que el público lo demande y en su caso lo pague. Lo hemos visto ocurrir con la homeopatía –me entra una intensa vergüenza ajena cuando veo una farmacia con homeopatía, y desde luego no entro a comprar en ella si puedo impedirlo, como evito pisar cualquiera que no suministre condones o anticonceptivos–; pero también ha sucedido con toda una serie de diagnósticos y tratamientos mucho menos que científicos y poco más que placebos. Entre ellos, los que ya tratamos en psiquiatría delirante. No hace falta carro, mulo ni sombrero de pico para ser un charlatán; los de ahora gastan traje, grandes tarjetones y apoyo mediático tanto generalista como especializado.
- 90 -
La Pizarra de Yuri 1
El caso que nos ocupa es relativamente inocuo; de hecho, es tan, tan inocuo que – siguiendo a las instituciones científicas anteriormente mencionadas– no hace nada, ni bueno ni malo. Pero no está bien. Empuja a personas de recursos económicos limitados a gastar un dinero que no tienen en un producto cuya eficacia por encima del efecto placebo es desconocida; y, de hecho, no parece muy significativa. Por confianza en el producto milagrero, potencia el retraso o la renuncia al tratamiento efectivo real. Lo hace abusando de la confianza y de la autoridad de los profesionales clínicos y los medios de comunicación. Y además, aprovechándose del clásico chantaje emocional a los papás: ¿Y si funciona? ¿Y si privo a mi hijo o hija de algo que necesita? ¿Qué dirán? ¿Seré un mal padre o una mala madre si no le compro esto? Las soluciones simples a problemas complejos resultan siempre muy populares (aunque raramente eficaces y a menudo contraproducentes), lo que refuerza el engaño y el anhelo del cliente: ¡si pudiera arreglárselo sólo con unas gafas…! Señor médico, señor óptico, señor publicista, señor periodista, señor o señora lo que sea: si usted ha estado en un error de buena fe con respecto a este producto, le ruego que acepte mi consejo y se ponga en contacto con su colegio oficial o sociedad profesional para que le proporcionen los detalles correctos sobre el mismo. Ya me han contado que ha pagado usted un dinero importante por el derecho a venderlo, que esto le hace daño y no le viene ni mucho menos bien; me temo que eso tendrá que reclamárselo a las personas oportunas. Yo, por mi parte, apelo a su profesionalidad y honradez. En todo caso, si usted confía lealmente en este producto, supongo que es muy libre de aconsejárselo a su clientela aunque las máximas autoridades en la materia digan que ni lo apoyan ni lo recomiendan para ningún uso terapéutico efectivo. Pero no asegure usted que está validado científicamente, porque después de treinta años sigue sin estarlo (otra característica típica de las pseudociencias); y entonces su consejo bienintencionado se convierte en un engaño, un fraude, incluso aunque el producto fuera la mayor maravilla desde que se inventó el pan de molde. Que, honestamente, no tiene pintas de ninguna clase, más allá de mejorar el confort visual. Vamos a mantener las certezas científicas en un sitio y las ventas comerciales en otro, ¿no le parece? Es que si no, al final del recorrido, los perjudicados serán ustedes y su credibilidad. Y si lo vende o aconseja usted como método terapéutico a sabiendas de todo esto por mero beneficio económico, pues qué le puedo decir. Que no es usted de los míos; ni merece ser considerado científico, sino charlatán, y estaremos enfrentados. Qué le vamos a hacer.
- 91 -
Antonio Cantó
Agradecimientos: Este artículo no se habría podido elaborar sin el excelente servicio PubMed ofrecido por la Biblioteca Nacional de Medicina de los Estados Unidos y, desde luego, sin la colaboración amabilísima e inestimable del Colegio Nacional de Ópticos-Optometristas de España; el Colegio de Ópticos-Optometristas de la Comunitat Valenciana; la Dra. Rosa Mª Borrás, profesora titular de óptica y optometría en la Universitat Politècnica de Catalunya; el Dr. Joaquín Vidal López, óptico-optometrista y psicólogo, profesor en la Universitat Oberta de Catalunya; el Consejo General de Colegios Oficiales de Médicos de España; otros especialistas que han optado por permanecer en el anonimato; y mi amiga I. A. Z., que tuvo a bien confiar en la opinión del tío Yuri para materia tan delicada como los ojos de su hija, y al hacerlo me puso sobre la pista de este tema. Desde aquí, mi agradecimiento a todos ellos y a cualquier otra persona o entidad que se me haya podido pasar por alto. Los errores son míos, los aciertos son suyos.
- 92 -
La Pizarra de Yuri 1
De la muerte Yuri, el 3 de octubre de 2010 @ 20:25 · Categoría: Ciencia popular
…y de la vida. ATENCIÓN: Este post puede contener alguna imagen no apta para personas fácilmente impresionables.
Símbolo oficial de la Unión Europea para las sustancias venenosas (directiva 67/548/EWG del Departamento Químico Europeo). El cráneo humano, solo o acompañado de otros huesos, ha sido un símbolo de la muerte y el peligro mortal en muchas culturas desde tiempo inmemorial debido a los procesos de esqueletización comunes a todos los cuerpos humanos tras su fallecimiento.
Hay una cosa que me llama poderosamente la atención. Con toda probabilidad, el nacimiento, la muerte y las funciones fisiológicas esenciales son las únicas experiencias que vamos a compartir todos los seres humanos que en el mundo somos. Y sin embargo, en las sociedades occidentales de hoy en día parece ser de mal gusto hablar sobre ello. La muerte en particular, casi una obsesión cultural en tiempos antiguos y clave en el pensamiento religioso premoderno, ha desaparecido por completo del discurso público. Parece sersocialmente inadecuado hablar de ella, una cosa macabra, inquietante y de mal rollo. A mí me parece no solo importante, sino algo por completo natural. Hablemos, pues, del morir. Y, necesariamente, del vivir. Una experiencia personal. Como ya te habrás dado cuenta, no suelo hablar mucho de mí mismo por este medio. Bueno, la verdad es que –descontando alguna anécdota– no lo hago en absoluto. Tengo varios motivos para ello, entre los que destacaré dos. El primero es que me siento más
- 93 -
Antonio Cantó
cómodo, más libre y hasta más seguro escribiendo bajo seudónimo. El segundo es que este blog y este avatar Gagarin quieren señalar frecuentemente a las estrellas y, siguiendo al filósofo, no me gusta dar muchas opciones para que nadie se centre inadvertidamente en el dedo. Los dedos de señalar siempre tienen padrastros, algo de mugre bajo la uña y, sobre todo, son esencialmente irrelevantes para los temas que suelo tratar. No vendría a cuento. Sin embargo, hoy voy a hacer una excepción, precisamente porque sí viene a cuento: tengo una experiencia personal extensa con la muerte. Mi madre murió cuando yo tenía cuatro años, mi padre al poco de que alcanzara la mayoría de edad y el resto de la familia más inmediata donde me crié no llegó a ver este nuevo milenio. También han desaparecido otras personas de gran importancia para mí; prefiero reservarme los detalles sobre esto. Por si no fuera suficiente, he tenido algún trabajo relacionado con la muerte; especialmente, cuando se producen determinadas pérdidas colectivas. Vamos que, más allá del tratamiento científico habitual en este blog, hoy hay también una experiencia personal larga y complicada; te confesaré que, a veces, me siento como si hubiera vivido una guerra de esas duras, donde cae todo el mundo a tu alrededor, un mundo entero desaparece y terminas asombrándote de que tú aún sigas en pie (aunque ciertamente tocado). Sí, la vida es a veces un poco perra, pero ahora no vayas a hacerme la guarrada de darte pena o eso: es lo que hubo, tocó apechugar y hay muchos otros que por el mero hecho de nacer en un lugar o de una manera equivocados lo han tenido mucho peor. Si te da mucha penita, puedes hacer una donación a Cruz Roja o a Médicos sin Fronteras o a la UNICEF o algo. Cuando tienes la ocasión de vértelas tantas veces y tan de cerca con la dama de la guadaña, a la fuerza terminas por aprender algunas lecciones; de las científicas y de las otras. Una de ellas es que la muerte es necesaria de muchas maneras distintas y en muchos órdenes de la realidad diferentes. Hace desaparecer lo viejo y permite que surja lo nuevo. Mantiene el control demográfico y esas cosas. Sobre todo, sin muerte no hay vida. Hasta este universo tendrá que morir alguna vez. Y, Grandes Helores aparte, de la muerte siempre nace nueva vida, nuevas existencias, futuros.
- 94 -
La Pizarra de Yuri 1
El Segundo Principio de la Termodinámica parece sugerir que la entropía debe aumentar constantemente hasta la muerte térmica del universo, lo que impediría el surgimiento de estructuras más complejas y organizadas a partir de otras más simples. Sin embargo, evidentemente esto no sucede en la realidad. Y es que, junto a la entropía, existe la fluctuación.
De la vida, de la entropía y de la fluctuación. Para entender la muerte, pues, tenemos que entender primero un poco de la vida. La vida es una de esas fluctuaciones que logran violar localmente el –por demás– invencible principio de entropía: laSegunda Ley de la Termodinámica. Ya sabes que en este universo respetamos por fuerza las leyes de la Termodinámica, pero no necesariamente en todos los momentos y lugares a la vez. A mí me gusta visualizar la entropía como una legión infinita de duendecillos bastante bordes cuya única misión en el cosmos consiste en batirlo para empujarnos constantemente hacia el desorden y el caos –es decir: hacia el equilibrio–, sin que se les escape ni el más ínfimo detalle de la realidad. Imagínate una casa. Una casa recién construida, nueva, recién amueblada y limpia como una patena. Incluso aunque no residan en ella fuerzas caóticas como los niños, incluso aunque lleves muchísimo cuidado, incluso aunque no la ocupes, la casa se va a ir ensuciando y deteriorando. Surge polvo y suciedad por todos los rincones. Aparecen pequeñas averías, y luego cada vez mayores. Los muebles se estropean. Se desarrollan grietas. Algunas bombillas dejan misteriosamente de funcionar. En diez años, la casa ya no parece tan bonita ni tan nueva. En cien años, hay que llevar cuidado de no hacerse daño con algo. En mil años es una ruina. En un millón de años, allí sólo queda un bosque. O un desierto. Entonces, tú intentas evitarlo: la limpias, la mantienes, la reparas, la vigilas. Y lo consigues… temporalmente, pero acto seguido
- 95 -
Antonio Cantó
todo empieza a deteriorarse otra vez. Incluso aunque aportes constantemente trabajo para mantenerla como nueva (lo que ya de por sí indica que hay una fuerza de alguna clase empeñada en lo contrario), la casa seguirá ajándose. Hay un momento a partir del cual ya no es económico ni merece la pena seguir manteniéndola; entonces, decimos que está vieja y la derribamos para construir otra cosa. O, simplemente, la dejamos decaer. A todo el universo le pasa lo mismo, desde las grandes murallas galácticas hasta las uñas de los pies. Este es el efecto de la entropía. La razón es más o menos sencilla: todo sistema organizado está intrínsecamente en desequilibrio con respecto al medio circundante; y cada uno de sus elementos, con respecto al resto de sus propios componentes. En nuestra casa hay cargas mecánicas desiguales. Y concentraciones de sustancias bastante puras, y duras interfases entre unas sustancias y otras (el cristal, el marco y la pared, por ejemplo). Y la densidad de polvo y otros contaminantes en el interior es radicalmente distinta a la que hay en el exterior, separada por delgadas líneas de transición (paredes, puertas, ventanas, tejados). Hay productos muy distintos en contacto entre sí, que tienden a reaccionar químicamente con el tiempo. Está expuesta al sol, a la lluvia, al viento, a los seísmos, a las alimañas, a la humedad, al hielo, a las plantas, a todo; y ella intenta heroicamente separar el exterior del interior, impedir que entre nada de todo esto, mantener un desequilibrio entre lo de fuera y lo de dentro. Pero los duendes de la entropía empujan y empujan y empujan hacia el equilibrio, y siempre, siempre terminan por vencer. Todo intento de luchar contra ellos es una guerra perdida, no te imaginas hasta qué extremo: al final, su triunfo resulta inevitable; es ley cósmica. Y sin embargo, podemos ganarles batallas locales en determinados momentos del tiempo y del espacio. Eso es, en esencia, la vida.
- 96 -
La Pizarra de Yuri 1
Técnicas de imagen médica como la resonancia magnética nos permiten observar las duras interfases físico-químicas entre los distintos órganos y con el exterior. Este es un desequilibrio radical que la entropía siempre está dispuesta a corregir... dispersándolos y, con ello, matándonos.
Pues a un ser vivo le pasa lo mismo. Aunque se podría decir que las cosas vivas están en un cierto equilibriointerno (homeostasis), creo que es más preciso definirlo como un sistema organizado estabilizado dinámicamente y sujeto a constante variación temporal. Desde un punto de vista mecánico, químico o termodinámico, difícilmente se puede decir que la sangre y las células de su alrededor se hallen muy en equilibrio, por ejemplo; ni siquiera todos los órganos se hallan a la misma temperatura. Lo que están es implicados en un sistema complejo que tiende a autoestabilizarse. Pero, a la más mínima (una enfermedad, una lesión, un cambio en el medio, hasta variaciones leves), se desestabilizan rápidamente. Entonces, aparecen una serie de acciones y reacciones cuyo propósito es recuperar la estabilidad, pues tal es la naturaleza de las cosas vivas; todos conocemos las muchas maneras como un organismo vivo se defiende frente a las agresiones y alteraciones del medio (incluso del medio interno: la enfermedad). Cuando la agresión o la alteración del medio es demasiado potente, el sistema agota su capacidad para seguir estabilizándose a sí mismo y la homeostasis fracasa. Entonces, las tenues murallas de vida que mantenían el desequilibrio esencial entre el ser vivo y lo que hay a su alrededor caen y los duendes de la entropía penetran por la brecha en oleada para restablecer el equilibrio termodinámico fundamental. La entropía aumenta rápidamente, los mecanismos de autoestabilización residuales colapsan en cadena también, y el ser vivo pierde por completo su competencia para mantener el interior separado del exterior. Su existencia como sistema organizado más o menos autónomo ha terminado y está ya demasiado deteriorado para poderla recuperar: es la muerte. El
- 97 -
Antonio Cantó
equilibrio con el medio circundante se incrementa rápidamente y prosigue de muchas maneras simples y complejas reduciendo cada uno de sus componentes a sus elementos fundamentales, que se equilibrarán también con lo que hay alrededor: es la putrefacción, el decaimiento, la desaparición. Polvo (de estrellas) eras y en polvo (de estrellas) te convertirás. Pero entonces, si estos duendes universales de la entropía son tan invencibles… ¿cómo es que el cosmos, las estrellas, los planetas, la vida pueden llegar a surgir? Frente a un ejército tan potente, ¿por qué pudimos construir nuestra casa o crear un ser vivo completo en nuestro interior? Si hay una fuerza inconmesurablemente poderosa que empuja toda la realidad hacia el máximo equilibrio termodinámico, hacia la homogeneidad final, ¡no debería surgir nada más complejo que lo anterior, jamás! ¿No…? Entonces, ¿cómo es que llegan a formarse las galaxias, los soles, los mundos, nosotros? ¡Lo impide ni más ni menos que el majestuoso Segundo Principio de la Termodinámica, señor de universos enteros! ¡Ley cósmica, oiga! Aquí es donde acecha de entre los lugares que no ven los ojos otra fuerza poderosa a la que podríamos denominar las hadas rebeldes de la fluctuación: enemigas a muerte del ejército de los duendes de la entropía, siervos del Señor Segundo Principio de la Termodinámica, desde el inicio de los tiempos y para siempre jamás. Blandiendo sobre sus cabellos el Teorema de la Fluctuación y al grito de “¡por la Paradoja de Loschmidt, fluctuación cuántica ytermodinámica!” merodean constantemente el universo y se buscan con los duendes de la entropía para mantenerse enzarzadas contra ellos en una lucha eterna cuanto a cuanto por el dominio de la realidad.
- 98 -
La Pizarra de Yuri 1
Nebulosa de la Cabeza de Caballo, un criadero de estrellas en la Constelación de Orión. En su base se forman constantemente soles y sistemas solares enteros. Si la tendencia a una mayor entropía no pudiera ser violada localmente, este tipo de fenómenos no podrían darse jamás.
Un pelín más técnicamente, la entropía total siempre debe aumentar, pero no tiene por qué hacerlo localmente en todo momento y lugar. De lo contrario, la simetría temporal de las ecuaciones que rigen el movimiento quedaría violada. Por ejemplo: si tú grabas en un video cualquier proceso de estas características que dependa del tiempo, al pasarlo al revés esa imagen “en reversa” no viola las leyes de la mecánica. Se puede decir que para cada “trayectoria hacia adelante” donde aumenta la entropía, existe una “antitrayectoria hacia atrás” donde ésta se reduce. Esto sería imposible si el Segundo Principio de la Termodinámica se diera necesariamente en todo caso local. El problema de derivar un modelo termodinámico irreversiblea partir de leyes universales que funcionan igual de bien hacia adelante o hacia atrás se conoce como la Paradoja de Loschmidt. Pero, paradójico y todo, así funciona el universo que vemos suceder constantemente a nuestro alrededor y dentro de nosotros mismos. En realidad, lo que ocurre es que el Teorema de Fluctuación y el Axioma de Causalidad nos proporcionan una generalización del Segundo Principio de la Termodinámica donde los sistemas pueden revertir localmente su entropía; en ella, el enunciado convencional de este Segundo Principio constituye un caso particular. Además de que nuestros ojos lo ven ocurrir diariamente por todas partes, la demostración del Teorema de Fluctuación sólo requiere que el estado inicial del sistema se pueda describir matemáticamente (como todo en este universo); que posea consistencia ergódica, es decir, que la probabilidad del efecto esté implícita en la existencia de la causa (evidente por sí mismo: un efecto sólo puede ser el resultado de sus causas); y que las leyes físicas que lo rigen seantemporalmente simétricas, o sea, reversibles a lo largo de la flecha del tiempo. Esto de que la entropía de un sistema sea localmente reversible, interpretado en sentido amplio, da lugar a muchos efectos curiosos y al desarrollo de la realidad a la que pertenecemos. Volvamos al ejemplo de la casa. Veíamos que el polvo, por ejemplo, ha empezado a acumularse. Si un día te hartas de limpiarlo, al cabo de un tiempo descubrirás que el polvo ha formado esas bolitas que ruedan por todas partes. Entonces te pica la curiosidad y pones una de tales bolitas al microscopio; y descubres que está constituida por una estructura filamentosa altamente organizada. Lo ha hecho el aire, la electricidad estática, los atractores de los átomos y moléculas que lo componen. Vale. ¡Pero es una violación de la entropía, de la tendencia al máximo desorden!
- 99 -
Antonio Cantó
Estás ante una fluctuación. Un tiempo y lugar donde se ha violado localmente la tendencia a una mayor entropía, y en vez de algo más desorganizado, ha surgido algo más organizado. Se debe al propio funcionamiento de las demás leyes de la realidad, que tienden a generar determinadas estructuras y sistemas. Para que se desarrollen estructuras complejas como las moléculas o las estrellas y no te digo ya sistemas tan sofisticados como la vida, tienen que darse estas fluctuaciones. Lo que viene a decir el Manifiesto Rebelde de las Hadas de la Fluctuación es que, aunque la batalla final contra latiranía entrópica esté irremediablemente perdida dentro de un uno y más de de mil ceros de años, todas y cada una de las batallas hasta entonces se pueden ganar, o cuanto menos empatar. Que hay eones enteros de realidad por los que merece la pena luchar.
Casi todas las culturas han personificado de algún modo a la muerte, siendo muy reconocida hoy en día la "dama de la guadaña". En la imagen, vaso griego clásico que representa a los hermanos mellizos Hypnos (Sueño) y Thánatos (Muerte), hijos de Nyx (Noche) y Erebos (Oscuridad), llevándose a Sarpedon del campo de batalla troyano. Museo Británico, pieza Cat. Vases D56.
Del vivir y del morir. La muerte se produce conforme los persistentes duendes de la entropía vencen a las hadas rebeldes de la fluctuación. No se trata de un instante, sino de un proceso.
- 100 -
La Pizarra de Yuri 1
Me viene aquí ahora una representación sindical de los duendes de la entropía a quejarse, muy dolidos. Dicen que me he pasado siete pueblos con ellos; que ellos sólo son unos buenos currantes acosados constantemente por las iluminadas esas de la Fluctuación. Uno, francamente ofendido, murmura que a buenas horas iba a tener yo metabolismo, bioquímica o incluso existencia si no fuera por su callada labor. Y que como un día de estos se líen la manta a la cabeza y se declaren en huelga, lo vamos a flipar: el universo se quedará paralizado por completo sin remisión alguna. No les falta su parte de razón. Sin entropía o sin fluctuación, nada de lo que conocemos podría existir. Ambas no son sino dos aspectos de lafuerza que empuja al tiempo hacia adelante, y con él al desarrollo y evolución de todo el cosmos. Eso nos incluye, claro, a nosotros. Nuestra vida personal, aunque nos parezca tan importante, no constituye sino una chispita minúscula de los procesos a gran escala que permitieron el desarrollo y evolución del universo. Y esos procesos incluyen numerosas transformaciones entre lo vivo y lo inerte –lomuerto–. Se dice a menudo que, cuando nacemos, comenzamos a morir. Y es verdad. Incluso se puede extender a escalas cósmicas: cuando el universo surgió, comenzó también a morir; y nuestra vida personal es apenas un breve paso en ese proceso inmenso propulsado por la entropía y por la fluctuación. Si me apuras, lo asombroso es que tú y yo y todos los que conocimos alguna vez llegáramos a alentar, a amar, a odiar, a sentir y soñar y pensar; un artefacto tan vistoso de la entropía y las fluctuaciones que empuja a muchos hacia la superstición. Aunque, a decir verdad, sólo parece tan llamativo desde nuestro pequeño punto de vista. En términos cósmicos, por el momento no somos mucho más que un moho raro con muchas ínfulas atrapado en una breve línea de gases tenues entre el abismo y el frío, en un planeta minúsculo de un sol mediocre olvidado en una galaxia cualquiera. Y si cada galaxia del universo costara un céntimo de euro, no habría dinero suficiente en el planeta Tierra para comprarlas todas ni muy de lejos. Quizá cuando logramos hacer algo más que arrastrarnos como un líquen con patas por la superficie de un planetucho perdido podremos comenzar a darnos, con justicia, algo más de pisto. En nuestro descargo cabe decir que, a fin de cuentas, acabamos de empezar como quien dice. La vida y la muerte son, pues, aspectos del mismo proceso. Tú te formaste en el vientre de tu madre a partir de la materia inerte y la energía no-viva que mamá absorbió durante el embarazo mediante la alimentación, el aire, su mera presencia en la superficie de este planeta. Carbono, nitrógeno, oxígeno, hidrógeno, energía variada y un puñado de cosillas más: eso te construyó. La brujería de la vida radica en su habilidad para
- 101 -
Antonio Cantó
organizar todo eso en un sistema complejo capaz de estabilizarse, desarrollarse y reproducirse a sí mismo que encima hace cosas y presenta una entropía menor que todas esas sustancias y energías sueltas por ahí: la fluctuación.
Guerra de Osetia del Sur del verano de 2008. Este soldado georgiano ha sido fatalmente alcanzado por la materia y energía de un arma rusa, de manera suficiente para penetrar o desarticular todas sus protecciones físicas y biológicas como ser vivo organizado. A consecuencia de los efectos de estas fuerzas, su homeostasis y los procesos biológicos que mantenían estabilizados sus desequilibrios internos esenciales y sus funciones superiores han quedado dislocados irreversiblemente. La entropía se apodera de él para restablecer el equilibrio con el medio: decimos que está cadáver, muerto y descomponiéndose. No obstante, sigue habiendo muchas cosas vivas en él; y con sus restos, surgirán muchas más.
Sin embargo, ese es un sistema en desequilibrio radical con el medio circundante e incluso entre las distintas partes que lo componen (o de lo contrario estaríatermodinámicamente muerto y no haría nada en absoluto). Sólo puede durar un tiempo, porque la entropía presiona eternamente para devolverlo a un estado de mayor equilibrio: el desorden, el caos, la desorganización que a partir de cierto punto ya no permite mantener las funciones biológicas y mentales superiores. Aunque lográramos prolongar la vida indefinidamente con medios tecnológicos, tarde o temprano los duendes de la entropía terminarán imponiéndose –aunque sea, estirándolo mucho, al aproximarnos a la muerte térmica del universo–. Entonces sobreviene lo que llamamos la defunción, el óbito, el fallecimiento, el estirar la pata, vaya. No obstante, determinar este momento exacto es asunto discutible, precisamente porque se trata de un proceso y no de un instante. Los antiguos se asombraban de las similitudes entre el sueño, el coma y la muerte, dando lugar a numerosos mitos y leyendas. En general, aprendimos pronto a reconocer algunos signos y síntomas
- 102 -
La Pizarra de Yuri 1
indicativos de que el proceso es ya irreversible. El favorito fue siempre la parada cardiorrespiratoria: el momento en que el funcionamiento del corazón y los pulmones no puede mantenerse ya estabilizado y queda interrumpido. Hoy en día sabemos que este criterio, aunque acertado en la mayoría de los casos, no resulta infalible y condujo a numerosos errores en el pasado: la función cardiorrespiratoria se puede restablecer, bien de manera natural o mediante técnicas médicas ahora comunes como la resucitación cardiopulmonar avanzada. En el estado actual del conocimiento médico consideramos signo de desorganización irreversible la pérdida sostenida de toda actividad cerebral. En caso de duda, todas las culturas han considerado la evidencia de putrefacción como prueba definitiva de muerte. Y con acierto. Esto de la putrefacción no es más que la continuación de los procesos entrópicos o fluctuantes de la vida, pero desde luego al iniciarse pone en evidencia que no hay posible marcha atrás: el ser vivo está demasiado desestabilizado como para mantener gran parte de sus desequilibrios internos básicos. Perdida por completo la homeostasis, la entropía empuja para terminar de esparcir, desorganizar y consumirlo todo, restableciendo así el equilibrio con el medio circundante. Y para ello se vale también de otras fluctuaciones, en forma de bacterias, gusanos, carroñeros y demás. El ciclo de la vida y de la muerte prosigue así. Pronto, los átomos y moléculas que una vez formaron un ser humano terminarán perteneciendo de nuevo al planeta y a otras plantas y animales, incluyendo otros humanos. Como en el reciclaje. Descomposición de un lechón a cámara rápida. Ojo esos estómagos delicados. Los mitos de la muerte.
- 103 -
Antonio Cantó
Sala de urgencias críticas de un hospital moderno. En la actualidad, es posible reanimar y curar a personas que en el pasado se daban por definitivamente muertas.
Para incontables personas a lo largo de toda la historia de la Humanidad, esto de la muerte ha constituído siempre el misterio último y el miedo definitivo. Sin duda, tuvo que ser determinante en el surgimiento de los mitos, las leyendas y las religiones. Este que te escribe, que como ya te dije al principio ha vivido alguna cantidad significativa de muerte a su alrededor, no opina que haya ningún misterio especial más allá de los propios –y fascinantes– de la naturaleza, la entropía y el cosmos en su conjunto. Jamás vi nada que me diera algún motivo fehaciente para cambiar de opinión. Las cosas vivas nacemos, crecemos, nos reproducimos y morimos: eso es todo. El miedo, por su parte, es libre; si te interesa mi punto de vista personal, te diré que la muerte en sí no me inspira mucho temor. Supongo que a estas alturas sería como tenerle miedo a volar, después de todo lo que he viajado en avión. Le tengo miedo –eso sí– a algunas formas de morir, que las hay de bastante perras. Y, sobre todo, a lo que pudiera pasarle después a algunas personas que quiero. Pero para mí y a la luz de todo lo expuesto, la muerte es algo tan natural como la vida y debe ocurrir necesariamente. A mí, también. Entropía, fluctuación: ley cósmica. En Mi visión del mundo, Albert Einstein decía lo siguiente, que yo comparto en su gran mayoría: La experiencia más hermosa que tenemos a nuestro alcance es el misterio. Es la emocíón fundamental que está en la cuna del verdadero arte y de la verdadera ciencia. El que no la conozca y no pueda ya admirarse, y no pueda ya asombrarse ni maravillarse, está como muerto y tiene los ojos nublados. Fue la experiencia del misterio, aunque mezclada con el miedo, la que engendró la religión. La certeza de que existe algo que no podemos alcanzar, nuestra percepción de la razón más profunda y la belleza más deslumbradora, a las que nuestras mentes sólo pueden acceder en sus formas más toscas… son esta certeza y esta emoción las que constituyen la auténtica religiosidad. En este sentido, y sólo en éste, es en el que soy un hombre profundamente religioso. No puedo imaginar a un dios que recompense y castigue a sus criaturas, o que tenga una voluntad parecida a la que experimentamos dentro de nosotros mismos. Ni puedo ni querría imaginar que el individuo sobreviva a su muerte física; dejemos que las almas débiles, por miedo o por absurdo egoísmo, se complazcan en estas ideas. Yo me doy por satisfecho con el misterio de la etemidad de la vida y con la conciencia de un vislumbre de la estructura maravillosa del mundo real, junto con el esfuerzo decidido por abarcar una parte, aunque sea muy pequeña, de la Razón que se manifiesta en la naturaleza.
- 104 -
La Pizarra de Yuri 1
Más allá de las religiones y leyendas, han surgido algunos mitos de la Edad Contemporánea en torno a la muerte. Uno de ellos es que la existencia de un alma hasta cierto punto material u otra cosa análoga habría quedado demostrada mediante su peso, que sería de 21 gramos. Esta fue la conclusión a la que llegó un cierto doctor Duncan McDougall a principios del siglo XX, pesando a diversas personas y animales a lo largo de su agonía y muerte. Según el Dr. McDougall, un ser humano perdería estos 21 gramos de peso en el momento de morir; los perros, no. Sus observaciones nunca han podido ser validadas independientemente o reproducidas bajo circunstancias controladas, la metodología utilizada por McDougall resulta enormemente controvertida (muestra pequeña, método de pesaje incorrecto) y el mero hecho de hablar de un momento de la muerte y no de un proceso de la muerte ya nos sugiere que el buen doctor no acababa de tener claros algunos conceptos. Hoy en día, las conclusiones de McDougall se consideran generalmente pseudociencia. Curiosamente, la imaginería popular tradicional ha creído siempre que las personas ganamos peso al morir, en vez de perderlo como aseguraba este médico. De ahí viene la expresión peso muerto o pesar como un muerto. Los miembros humanos amputados o anestesiados también parecen pesar mucho. Todo esto no es más que un error de percepción, derivado de que no tenemos mucha costumbre de levantar un cuerpo o un miembro adultos que no coopera en absoluto con su propia fuerza. Entonces, nos olvidamos de que una flaca de cincuenta kilos pesa tanto como un saco grande de cemento; y un tipo de cien, más que algunos motores pequeños de coche. En situaciones de emergencia, además, no es raro tener que manipular un cuerpo aplicando cargas y palancas que aumentan aún más la sensación de peso.
- 105 -
Antonio Cantó
"Ascensión al Empíreo" de El Bosco (ca. 1490), parte de la colección de cuatro postigos "Visión del Más Allá". Muchas personas creen reconocer en esta pintura el "túnel de luz" que algunos aseguran ver durante experiencias cercanas a la muerte. Óleo sobre panel, Palacio del Dux, Venecia.
Otro de estos mitos modernos generalizados, cómo no, es el del túnel de luz (que algunos extienden a la visualización de seres de luzydemás). Lo primero que cabe objetar es que esta experiencia, de ser cierta, difícilmente resulta universal: sólo parecen haberlo percibido algunas personas y yo nunca me he encontrado con ninguna. Personalmente, conozco a varias que estuvieron al borde de la muerte o clínicamente muertas; no vieron nada parecido. Una chica que se había dado un fuerte golpe con la moto, teniendo entonces catorce años, me describió que ella sólo había visto como si los cuerpos del personal médico que tenía alrededor en el box de urgencias se estiraran al poco de entrar en parada cardiorrespiratoria aguda, según sus propias palabras, “igual que en un cuadro de El Greco“. Finalmente, “se fue de golpe” y sólo despertó muchas horas después.
- 106 -
La Pizarra de Yuri 1
Un señor de mediana edad que conocí coincidía en esto del “irse de golpe”: entró en varios comas con muerte clínica a consecuencia de un problema cardíaco grave y me contaba que, para él, había una discontinuidad temporal entre el momento de entrar en coma profundo y el de salir del mismo, como cuando te ponen anestesia general: un “clic” instantáneo entre un momento y el otro, sin nada en medio. Doy fe de que a mí me han puesto tres veces anestesia general y, en efecto, tal cual eso fue lo que sentí en todos los casos. Finalmente, un soldado que resultó herido durante una reciente guerra europea me lo contó así: “Estábamos saliendo de un pueblo. Di dos pasos hacia la carretera y al ir a dar el tercero, casi me caigo de la cama del hospital.” Entre una cosa y otra habían pasado tres semanas, un balazo por sorpresa en el cuello disparado desde un bosque cercano y una carrera hasta la puerta de urgencias más próxima a golpe de bolsas de plasma, pinchazos de adrenalina (epinefrina) y desfibrilador militar aplicado de aquella manera. Este efecto de desconexión súbita parece ser común a varias formas de pérdida de conocimiento, coma, anestesia y muerte clínica. No voy a poner en duda el testimonio de las personas que aseguran haber visto el túnel de luz en cuestión, que hasta aparece reflejado en un cuadro de El Bosco. Sí afirmo que no parece ser ni mucho menos una experiencia universal y que, por otra parte, tampoco sería tan raro que algunas personas alucinaran de manera parecida cuando cerebros muy similares (todos los cerebros humanos son muy similares) comienzan a morir de manera semejante por falta de oxígeno y nutrientes. En todo caso, de todas las personas que he visto morir, sólo una me dio la impresión de que estuviera viendo algo; y, por la forma rápida como movía las pupilas, no me pareció que fuera nada fijo en un solo punto. A estas alturas, como dije más arriba, la muerte ya no es el misterio que acostumbraba a ser. Tenemos ya muchos conocimientos sobre las razones por las que vivimos y morimos, algunas de las cuales he comentado a lo largo de este post; y no parece que se trate de ningún suceso extraño o excepcional en el transcurrir del cosmos, la vida, la entropía y la fluctuación. Vivimos y morimos como parte de los fenómenos a gran escala que constituyen este universo; la materia y energía que nos componen va cambiando de estado y situación, permitiendo durante un tiempo el surgimiento de la vida y la mente. Después pasa a otros estados distintos, como cualquier otro proceso físico-químico, y al menos una parte de esa misma materia y energía acaba repartida entre otros seres vivos; o no, según donde caigamos fritos. No veo posible de ninguna manera realista que la conciencia de la propia existencia, resultado de una complejísima organización cerebral extremadamente frágil, pueda mantenerse a lo largo de esos procesos. El resto es ya cosa de la permanencia de la memoria cuántica. En todo caso, sólo lo que está vivo puede morir. Ya que los duendes de la entropía y las hadas
- 107 -
Antonio Cantó
de la fluctuación nos han hecho ese regalo, más vale aprovecharlo, porque muy – muy– probablemente no se repetirá.
- 108 -
La Pizarra de Yuri 1
Cosmos, de Carl Sagan Yuri, el 26 de septiembre de 2010 @ 5:58 · Categoría: Ciencia popular, Historia y cultura, Sociedad y civilización
Desde hoy, con el diario Público Supongo que esto es publicidad, pero me da lo mismo: representa también una buena ocasión para que Cosmosllegue a más hogares, y eso me parece importante.
Carl Sagan en Cosmos
Cosmos, un viaje personal es la obra maestra de Carl Sagan, probablemente el mejor divulgador de la ciencia y de las maravillas que se esconden tras la ciencia, tras la curiosidad, tras la capacidad de maravillarse, tras el pensamiento racional y el humanismo secular. Es la clase de cosa que debería estar en cada hogar, pues resulta imposible ver Cosmos y no empezar a hacerse preguntas, a indagar respuestas, a mirar al cielo y a la tierra con otros ojos, con otra mente y con otro corazón. Hay quien dice que Cosmos ha envejecido, que la ciencia ha avanzado mucho en estos años, que por muy buena que sea es ya un producto antiguo. Yo, la verdad, me la acabo de ver de pe a pa y lo más que podría añadir son unas cuantas notas a pie de página; la mayor parte, para situar el contexto. El resto sigue siendo perfectamente válido, perfectamente actual, e incluso tan adelantado a su tiempo como lo era la primera vez que se emitió. Cosmos sigue hablando del futuro –de nuestro futuro– más aún que del pasado. Ignorando las ropas y peinados ochenteros y con una poca habilidad para leer entre líneas cuando Sagan habla de los peligros y esperanzas para la Humanidad,Cosmos ha envejecido mejor de lo que yo recordaba. Sobre todo, sigue siendo igual de íntegra y veraz. Sigue sin contar mentiras, algo cada vez más raro. Sigue siendo la mejor televisión posible, dedicada a instruir y fascinar mentes inquietas, no a embrutecer mediocridades o adular suficiencias. Sigue hablando de cosas verdaderas con honradez sencilla. - 109 -
Antonio Cantó
Cosmos, un viaje personal.
La Humanidad forma parte indisoluble, indistinguible del cosmos. Todo lo que somos surgió con el mismo universo y en el corazón de las estrellas. En palabras de Sagan, somos polvo de estrellas.
Tú y yo formamos parte indisoluble, indistinguible, del cosmos. Somosmateria y energía, existimos en el espacio y el tiempo, evolucionamos con la entropía, la fluctuación, la luz y el calor. No hay tanta diferencia entre tú y yo y los peces y los diamantes y las estrellas. Nuestra naturaleza es la misma; somos –muy, muy profundamente– la misma cosa. Para ti, para mí y para todo lo que existe, el cosmos es algo personal. Y esta es la auténtica historia más grande jamás contada: la historia de todo y de todos, de lo que fuimos, de lo que somos y de lo que seremos. Comprender el cosmos es comprendernos a nosotros mismos; entender tu ser profundo y el mío. De dónde venimos, dónde estamos, a dónde vamos y qué pintamos aquí, suponiendo que pintemos algo. Acompáñame. Vamos a descubrir, vamos a aprender, vamos a soñar cosas ciertas. Es un muy largo viaje el que nos trajo hasta aquí, iniciado cuando tus primeros quarks y electrones surgieron en un lugar y tiempo de extrema energía. Ahora, vivimos en un universo a escalas inmensas, lleno de realidades asombrosas, desde la materia más minúscula hasta las grandes murallas estelares. Pasando, claro, por la vida: las plantas, los animales, tú, yo.
- 110 -
La Pizarra de Yuri 1
También ha sido un largo viaje de conocimiento, aprendizaje y evolución personal colectiva. Desde que algún retatarabuelo miró a las estrellas y se preguntó qué había allí hasta las naves que surcan el espacio profundo y observan galaxias lejanas, hemos vivido una fascinante aventura de curiosidad, maravilla, imaginación, escepticismo y pensamiento científico. Sobre las cenizas de aquella Biblioteca de Alejandría donde pereció el saber de la Antigüedad, hemos terminado por comenzar a entender. Poco a poco, hemos empezado a aprender. Aprender estas cosas verdaderas es nuestro derecho, pues nos hace más sabios y mejores; y también nuestro deber, porque sin saber qué somos y cómo llegamos hasta aquí difícilmente podremos conocernos bien y empujar hacia un futuro mejor. Así pues, vamos a compartir desde este domingo el viaje personal de Carl Sagan, el astrofísico del pueblo, porque es nuestro propio viaje personal. Sí, el tuyo también. ¿O acaso tú no formas parte del cosmos, de la realidad? En las orillas del Océano Cósmico. El universo al que pertenecemos es un universo de escalas inmensas, que se observa a sí mismo con ojos humanos desde una minúscula cala en las orillas del Océano Cósmico. Y es en esta calita donde Carl Sagan, el astrofísico de la gente sencilla, inicia su viaje personal por el universo que somos; el viaje personal de todos nosotros, el de todo lo que existe.
Carl Sagan se adentra en su Biblioteca de Alejandría
Con En la orilla del océano cósmico, Sagan nos arrastra a un recorrido desde las distancias más grandes hasta las que mejor entiende la gente humana: galaxias, nebulosas, sistemas solares, planetas, la Tierra, el mar donde surgimos, la roca donde
- 111 -
Antonio Cantó
medramos. Así, comenzamos a descubrir nuestro lugar en el cosmos y nuestra verdadera dimensión. Pero Sagan no se detiene aquí, sino que se adentra en otros dos largos viajes. Uno, desde los orígenes de la Humanidad, es el que nos ha permitido llegar hasta aquí, saber lo que sabemos, empezar a entender: la aventura fascinante del conocimiento, de la curiosidad, de la capacidad de maravillarse, del aprendizaje. La aventura de la ciencia, del método científico y del pensamiento racional. Y con el segundo, nos lleva a otra larguísima odisea más: nuestro recorrido por el tiempo. Reduciendo la historia universal a un año –en uno de los muchos clásicos de la divulgación que caracterizan a Cosmos– podemos comprender los abismos temporales que permitieron la evolución del universo, de la Tierra, de la vida, nuestra propia evolución hasta ser lo que somos. Y seremos. Dije al principio que Cosmos se realizó hace ya 30 años y la ciencia ha avanzado mucho desde entonces. Sin embargo, En la orilla del océano cósmico –por ejemplo– no ha envejecido más que estéticamente; y eso, en estos casos, hasta puede ser una virtud. Sólo cabría añadir que ahora no consideramos a Plutón como planeta, que el brazo galáctico de Carina-Cisne donde habitamos se define hoy como Orión-Cisne y que hemos encontrado algunas galaxias más en el Grupo Local. Todo lo demás que Sagan nos cuenta en este capítulo sigue siendo válido, actual, incluso adelantado a su tiempo y al nuestro. Hasta cuando nos habla de los riesgos que acechan a nuestro mundo – refiriéndose a las amenazas de la Guerra Fría que le tocó vivir– ya vislumbra los peligros para la posteridad. Los peligros de hoy.
Cosmos de Carl Sagan
Ah, sí, cada viernes publicaré una columnita en la sección de Ciencias (en papel y ocasionalmente también en la web), presentando el episodio de esa semana. ;-) De hecho, este post es una recopilación y ampliación de los dos primeros. Y no, ya sé lo que estás pensando, pero que conste que yo no me llevo ni un euro con todo esto. Hay cosas en esta vida que se hacen porque crees en ellas y quieres empujar hacia una
- 112 -
La Pizarra de Yuri 1
sociedad, un futuro y unas personas un poquito mejores. Cosmos lo hizo con millones, incluyendo a este que te habla, y puede seguir haciĂŠndolo hoy, aquĂ.
- 113 -
Antonio Cantó
Fuego Yuri, el 23 de septiembre de 2010 @ 20:57 · Categoría: Ciencia popular
Una de las más viejas herramientas tecnológicas de la Humanidad es también un interesantísimo y espectacular fenómeno químico que nos introduce en las leyes de la termodinámica, la física cuántica y la naturaleza de la entropía y el tiempo.
En una vela, la mecha entra en combustión con el oxígeno del aire para formar la llama.
Todos lo conocemos, casi todos nos hemos quedado hipnotizados viéndolo arder alguna vez. Desde la humilde cerilla o el hogar que da nombre a nuestras guaridas hasta las erupciones volcánicas, las tormentas ígneas de los grandes desastres naturales o humanos y las inmensas llamaradas del Sol, monumentales como muchos planetas Tierra, el fuego está ahí desde que hubo un ahí. Hasta cierto punto, se puede decir que este universo surgió con una gran ignición. ¿Qué es el fuego? ¿Por qué calienta e ilumina? Y, ¿de qué modos distintos llegó a sernos tan útil en nuestra evolución final? De la naturaleza del fuego. En realidad, las llamaradas solares o el Big Bang no son fuego en sentido estricto, sino fenómenos físicos de naturaleza distinta que sólo coinciden con él en que son capaces de emitir luz y calor. Hoy vamos a centrarnos en lo que los humanos hemos conocido comofuego desde tiempo inmemorial: esa cosa fantasmal que arde ante nuestros ojos con llamas bailarinas y nos calienta, nos ilumina y nos quema.
- 114 -
La Pizarra de Yuri 1
En principio, el fuego es un fenómeno químico bastante sencillo: rigurosamente hablando, consiste en la oxidación rápida y exotérmica de la materia mediante el proceso denominado combustión, aunque no haya llama ni humo ni ninguna de sus otras características más visibles. Vamos a ver lo que significa esto. Una parte significativa de los átomos y moléculas que componen la realidad material que conocemos pueden combinarse con el oxígeno del aire, del agua o de cualquier otro lugar para producir óxidos. Aquí tenemos que quitarnos una idea preconcebida de la cabeza: la herrumbre u orín que vemos en los metales oxidados no es el óxido, sino sólo un tipo de óxido. Hay muchísimos más, que no tienen ese aspecto ni parecido. El agua, por ejemplo, es un óxido. H 2O, ¿recuerdas? Dos átomos de hidrógeno primordial combinados con uno de oxígeno estelar. De hecho, se puede llamar sistemáticamente al agua monóxido de dihidrógeno (y también ácido hidroxílico y de otras maneras), lo que ha dado lugar a una deliciosa broma pedagógica que aprovecha el temor de mucha gente a todo lo que suene a química. Nuestro propio organismo está lleno de óxidos muy distintos desempeñando un montón de funciones biológicas, como por ejemplo en la respiración de cada una de nuestras células.
El universo está lleno de óxidos producidos como resultado de combustiones; por ejemplo, el agua, una combinación de hidrógeno y oxígeno.
En realidad, la oxidación puede darse con cosas que no son oxígeno; pero la que se da con oxígeno es muy común y la primera que se descubrió, hasta el punto de darle nombre a todo el fenómeno. Hay óxidos naturales y artificiales por todas partes, pues se trata de una de las reacciones más corrientes de la química que nos formó y nos mantiene aquí.
- 115 -
Antonio Cantó
Cuando esta reacción de oxidación produce energía en forma de calor, siguiendo las leyes de la termodinámica química, decimos que esexotérmica y la llamamos combustión. La combustión puede ser muy lenta o muy rápida, y en ella siempre hay una sustancia que actúa decombustible y otra que actúa de oxidante o comburente. Como vivimos en la corteza de un mundo donde el oxígeno está bastante presente hoy en día, este oxígeno resulta ser el comburente más común a nuestro alrededor. El combustible puede ser cualquier materia capaz de combinarse con el oxidante o comburente emitiendo calor en el proceso. Algunos de los combustibles más eficaces que existen se basan en el carbono, también muy abundante en la Tierra. De manera muy significativa, está presente en todo lo que vive (la vida en la Tierra está sustentada completamente en el carbono) o estuvo vivo alguna vez, desde la leña hasta el carbón o el petróleo y el gas natural. No en vano estas últimas sustancias se denominan hidrocarburos; es decir, compuestos de carbono e hidrógeno, que oxidan –se queman– muy bien con el oxígeno. Nuestro propio cuerpo, muy rico en compuestos del carbono, sería un buen combustible si no fuera porque el 45-75% de agua que contiene tiende a detener la combustión (apagarla). El agua tiende a detener la combustión porque ya está quemada (oxidada); por tanto, no puede arder y además se mete por medio, bloquea y enfría la oxidación del resto de las sustancias que impregna. Este es el motivo de que, mal que les pese a muchos, el motor de agua no pueda ser. El proceso de la combustión produce una o varias sustancias que incorporan los componentes del combustible y el comburente, aunque reorganizados de una manera distinta. Estas sustancias pueden ser de muchos tipos, pero las más conocidas son el sólido que llamamos ceniza (aunque, por ejemplo, podríamos considerar también al agua como una ceniza fría de hidrógeno y oxígeno) y una serie de componentes gaseosos que escapan en forma de llama y humo(el humo también suele arrastrar una parte de las cenizas más volátiles). La llama y el humo pueden ser visibles o invisibles por completo al ojo desnudo, según las propiedades de cada combustión en particular. Estas sustancias, si han ardido por completo, ya no pueden volverse a usar como combustible o comburente porque han completado la reacción y no les queda energía química para ceder. En el corazón de la llama. Como dije más arriba, la combustión puede ser muy lenta o muy rápida. Cuando es muy rápida, puede llegar a convertirse en una deflagración; y si es tan veloz que genera una
- 116 -
La Pizarra de Yuri 1
onda de choque supersónica, entonces hablamos dedetonación o explosión (aunque no todas las explosiones son el resultado de este tipo de reacción). Por ejemplo, la combustión muy rápida de un hidrocarburo del tipo de la gasolina con el oxígeno del aire en un motor de combustión interna –como en un coche o una moto– provoca una deflagración que mueve el pistón y con él al resto del motor. Funcionamiento de un motor de combustión interna. La ignición de una mezcla de hidrocarburos y oxígeno atmosférico aporta la energía necesaria para moverlo. Cuando la combustión es moderadamente rápida pero no tanto, entonces nos encontramos con el fuego que conocemos como tal. Y su parte más llamativa y fascinante es, naturalmente, la llama. La llama está compuesta por los gases calientes y las cenizas más volátiles que son resultado de la combustión y se alejan de la misma siguiendo principios físicos corrientes como la convección y las leyes que gobiernan el comportamiento de los gases.
Los objetos muy calientes –como este hierro al rojo vivo o el filamento de la bombilla– emiten luz por incandescencia, un fenómeno cuántico.
Pero, ¿por qué brilla y calienta? Si no quisiéramos profundizar, podríamos decir simplemente que los objetos calientes emiten energía en forma de calor y luz, punto. Lo llamamos calor e incandescencia, y la mayoría de la gente se conforma con eso, pero nosotros no. ¿De qué forma una reacción química como la combustión puede producir luz y calor? Cuando un cuerpo –sólido, líquido, gaseoso, lo que sea– aumenta su temperatura, es porque los átomos y moléculas que lo forman se han excitado. Un átomo desexcitado por completo estaría en estado fundamental y se hallaría a la mínima temperatura posible: aproximadamente 273,15ºC bajo cero, lo que llamamos elcero absoluto. Por eso esta es la temperatura más baja posible en nuestro universo: nada
- 117 -
Antonio Cantó
puede estar más inmóvil que quieto por completo, ni tener menos energía que ninguna energía en absoluto. Sin embargo, el cosmos está lleno de energía capaz de provocar excitación y no hay nada en él que esté o pueda llegar al cero absoluto teórico: lo impide la Tercera Ley de la Termodinámica. Hasta el espacio profundo, vacío casi por completo, viene a estar a unos 270 grados bajo cero. Esos tres grados de diferencia (2’725 para ser exactos) se los aporta la radiación del fondo cósmico, que es resultado del Big Bang que nos fundó y omnipresente a este lado de la realidad. En los laboratorios humanos, con técnicas muy sofisticadas, se ha logrado alcanzar la friolera –literalmente– de cien billonésimas de grado por encima del cero absoluto. Y sin embargo, no es el cero absoluto. Todo lo que existe en este universo está en algún grado de excitación, aunque sea ínfimo. En el momento en que algo está excitado, por poco que sea, decimos que se encuentra a una determinadatemperatura; y además, puede transferir una parte de esa energía que lo mantiene excitado a otros cuerpos. Esta transferencia es lo que llamamos calor, y constituye uno de los mecanismos más esenciales mediante los que funciona la realidad. Sin calor, no habría entropía y este universo permanecería eternamente congelado en un absurdo estado inicial sin posibilidad alguna de variar hacia ningún otro estado; y, por tanto, desprovisto también de tiempo. Estaríamos ante un universo fallido. Por eso la Termodinámica es tan importante. Pero, ¿cómo pasa el calor a estos otros cuerpos, como por ejemplo nuestra piel, para que podamos sentir el calorcito de la hoguera (o el calor del Sol a través del vacío cósmico, de tal modo que la vida pueda existir)? ¡Ah! Aquí ya tenemos que profundizar un poquito más y adentrarnos en los valles extraños de la mecánica cuántica. Calor cuántico.
Imagen infrarroja de una serpiente enrollada en torno a un brazo humano. Al ser un animal de sangre fría, la serpiente emite menos radiación térmica que un animal de sangre caliente como el humano. La radiación térmica es una forma
- 118 -
La Pizarra de Yuri 1
de radiación electromagnética (fotónica), producida por los electrones saltando entre los distintos estados de excitación de los átomos que componen los cuerpos.
Una de las proposiciones más esenciales de la física cuántica dice que, en la escala de lo muy pequeño, la realidad no funciona de manera suave y continua sino abruptamente, a saltos entre distintos estados. Esto es: las cosas no ocurren de manera lineal, sino de cuanto en cuanto. Sí, exactamente por ese motivo se llama física cuántica; imaginativa que es la gente. Entre otras cosas, los átomos que componen la materia están formados por dos partículas cargadas: el protón, con carga positiva, y el electrón, con carga negativa (más el neutrón, que no viene a cuento ahora). Estas partículas son lo bastante pequeñas para comportarse de manera cuántica. Particularmente, el electrón sólo puede existir en unos determinados orbitales alrededor del núcleo atómico (donde están los protones y neutrones). Es decir: o está en uno o está en otro, pero no está en el medio, ni pasa por el medio, ni nada parecido. Sí, ya, no es nada intuitivo eso de que algo pueda ir del punto A al punto B sin pasar por el camino intermedio (aunque, para empezar, el electrón existe como una nube de probabilidad con incertidumbre cuántica, o sea que ya te puedes hacer una idea de cómo va esto…). Cuando un átomo es excitado (se calienta), sus electrones comienzan a saltar de cuanto en cuanto hacia orbitales cada vez más exteriores; si se excita mucho, terminarán por perderse y diremos que está ionizado. Cuando empieza a enfriarse, estos electrones –si no han escapado– retornan hacia los orbitales inferiores. Y aquí está el secreto: cada vez que un electrón salta a un orbital exterior lo hace porque absorbe un fotón, y cada vez que vuelve a uno inferior emite un fotón. Es decir: cuando algo se calienta absorbe fotones (de la radiación térmica circundante), pero en el momento en que empieza a enfriarse los emite hacia el exterior. Habiendo fotones de por medio, estamos ante radiación electromagnética. El calor, la interacción más esencial de este universo, la que permite la entropía y el tiempo, se vehicula mediante esta forma de radiación electromagnética que llamamos radiación térmica, compuesta por estos fotones. Cuando un átomo recibe y absorbe fotones, sus electrones marchan a orbitales exteriores salto fotónico a salto fotónico: así es como se excita, se calienta. Y en cuanto comienza a enfriarse, de vuelta hacia un estado más fundamental, sus electrones (si no se han perdido) regresan también salto fotónico a salto fotónico, emitiendo uno cada vez. Por tanto, cuando un átomo recibe radiación térmica absorbe fotones y se calienta; y cuando se enfría, los vuelve a emitir, lo que calentará a su vez a otros átomos situados a su alrededor. Este fenómeno es uno de los campos de estudio fundamentales de la electrodinámica cuántica.
- 119 -
Antonio Cantó
Por eso el fuego calienta. Por eso el Sol calienta. Por eso el universo está caliente y tiene entropía y tiempo. Por eso, también, tu cuerpo está caliente y es capaz de calentar. Lo hacen estos humildes, minúsculos fotones saltando de átomo en átomo cada vez que un electrón cambia de orbital. Desde el inicio del tiempo y para siempre jamás. De la luz multicolor y la física cuántica.
En gravedad cero, la convección no aleja de la mecha los productos incandescentes que producen la luz, lo que resulta en una llama esférica.
Este fenómeno de la electrodinámica cuántica explica por qué el calor se transfiere de unos cuerpos a otros: es obra de la radiación electromagnética térmica, a una frecuencia situada generalmente en el rango de los infrarrojos. Por eso, las cámaras que pueden ver en el infrarrojo detectan los cuerpos calientes. ¿Y la luz? Bueno, en apariencia la respuesta debería ser fácil: la luz no es más que esta misma radiación electromagnética a mayor frecuencia. Diríamos –y creíamos antiguamente– que, conforme aumenta la temperatura, los electrones brincan cada vez más rápido, los fotones se emiten a frecuencia mayor y la emisión térmica va desplazándose hacia el rango de la luz visible e incluso el ultravioleta –que son también radiación electromagnética, sólo que a una frecuencia superior–. Así, se pasaría de proyectar calor a emitir asimismo luz y… …y tenemos un problema. No te supondrás que iba a ser tan sencillo, ¿no? :D En apariencia debería ser así. Pero ya hemos visto que esto de la cuántica se comporta de maneras extrañas. Cuando un objeto sólido se calienta lo bastante, en efecto, la
- 120 -
La Pizarra de Yuri 1
frecuencia de la radiación electromagnética que emite aumenta y pasa del infrarrojo a las regiones inferiores de la luz visible de color rojo: decimos que está al rojo vivo. Si se calienta aún más, la frecuencia sigue subiendo y va pasando a proyectar luz amarilla, después blanca (cuando decimos que está al blanco) y finalmente azul. Esto estaba ya estudiado a finales del siglo XIX: la Ley de Desplazamiento de Wiendefinía la frecuencia a la que la radiación es mayor para cada temperatura determinada y la potencia total emitida quedaba determinada por la Ley de Stefan-Boltzmann. Todo controlado, ¿eh? Va a ser que no. Porque si la temperatura sigue aumentando, lógicamente la frecuencia tendría que seguir aumentando hacia el ultravioleta. Y en ese momento debería volverse invisible, puesto que el ojo humano no puede ver la radiación ultravioleta. Sin embargo, esto no ocurre: por muy caliente que esté un cuerpo, sigue siendo visible con su brillo blanquiazul hasta que se consume por completo, si es que se consume. ¡Oops! Parece que tenemos un problema aquí. A principios del siglo XX, se intentó resolver este problema mediante la Ley de Rayleigh-Jeans. Y funcionaba bien, pero sólo hasta cierto punto, pues lamentablemente predecía que un cuerpo que estuviera en condiciones de equilibrio térmico con el ambiente circundante emitiría… energía infinita. Ajá, infinita. Como a todas luces esto no sucede en la realidad, sino más bien todo lo contrario (la luminosidad y por tanto la energía emitida por los objetos calientes comienza a reducirse a partir de cierta temperatura, mientras que el color se queda estancado en el azul), significa que toda nuestra comprensión de cómo funciona el mundo estaba mal de alguna manera muy retorcida: estábamos ante una violación mayor de las leyes físicas conocidas en su tiempo, la llamada catástrofe ultravioleta. No te lo vas a creer: hubo que descubrir un nuevo ámbito de comprensión de la realidad para darle explicación. Este es ni más ni menos el origen de la física cuántica, o casi.
- 121 -
Antonio Cantó
La "catástrofe ultravioleta". Según la ley clásica de Rayleigh-Jeans, un cuerpo negro ideal debería emitir cada vez más luz conforme aumenta la frecuencia (o disminuye la longitud de onda) debido al incremento de temperatura, hasta un punto en el que estaría irradiando energía infinita. Como esto evidentemente no sucede en la realidad, hizo falta la ley cuántica de Planck para explicarlo.
Fue el supuestamente poco cuántico Einstein quien propuso aplicar la Ley de Planck, primera de la mecánica cuántica, para resolver este rompecabezas cósmico por fin. Y funcionó. Si la energía térmica emitida no lo hace de manera continua, sino en paquetes discretos –los condenados cuantos– con una energía proporcional a la frecuencia, entonces todo vuelve a tener sentido. Pues en el modelo clásico, esta energía quedaba distribuida uniformemente a lo largo de todo el rango de emisión y terminaba acumulándose hasta el infinito; mientras que en el modelo cuántico sólo lo hace en unos modos específicos, correspondientes a estos estados cuánticos discretos. Dicho de otra manera: la energía electromagnética no sigue la descripción lineal clásica, sino que sólo puede oscilar o emitirse en paquetes discretos (cuantos) de energía proporcional a la frecuencia. Como resultado, el número de modos posibles para una energía determinada en oscilación a alta frecuencia se reduce, y con ella la energía promedio a tales frecuencias. Finalmente, la potencia radiada cae a cero y la potencia total emitida es finita (no infinita, como predecía la física clásica y obviamente no podía ser). Así, la Ley cuántica de Planck describe lo que sucede exactamente en la realidad. Estos paquetes o cuantos de energía radiada se llaman fotones. Y así fue como comenzamos a comprender profundamente no sólo la luz y el calor, sino también la entropía y el tiempo que rigen nuestra existencia y evolución.
- 122 -
La Pizarra de Yuri 1
Fuego sobre la Tierra. Los primeros indicios fósiles del fuego que conocemos en el planeta Tierra surgen con la aparición de las plantas terrestres, fuera del mar, hace unos cuatrocientos setenta millones de años. Antes de eso, no había muchas cosas que pudieran arder fuera del agua; y dentro del agua, las cosas arden fatal. Pero, sobre todo, la presencia de estas plantas aéreas incrementaron enormemente la presencia de oxígeno en la atmósfera. Cuando el oxígeno libre en el aire pasó del 13%, empezaron a producirse los primeros incendios forestales por las causas naturales corrientes, consumiendo parte de esta flora que había salido del mar. Dada su poca densidad y altura, no se piensa que estos incendios fueran muy espectaculares. Sin embargo, su combustión lenta comenzó a producir carbón vegetal; y este carbón vegetal nos informa de la presencia del fuego antiguo sobre la faz de nuestro planeta desde por lo menos el Silúrico. No fue hasta la aparición de los grandes bosques, en el Devónico, cuando comenzaron a ocasionarse importantes incendios forestales. Sin embargo, hay que esperar hasta el Carbonífero –con mucha biomasa terrestre y mucho oxígeno aéreo– para ver fuegos a gran escala capaces de formar relevantes yacimientos de carbón (y hasta el 20% del carbón formado por este procedimiento es carbón vegetal fosilizado, lleno de evidencias y pistas sobre la larga evolución de la vida en el planeta Tierra).
Un incendio forestal en Utah, Estados Unidos, visto desde la Estación Espacial Internacional. Observatorio de la Tierra, NASA.
Hacia finales del Pérmico, durante el Gran Morir, los niveles de oxígeno atmosférico cayeron acusadamente y con ellos el número e intensidad de los fuegos; a principios - 123 -
Antonio Cantó
delTriásico parece haber una significativa carencia de producción de carbones en la Tierra, lo que nos invita a pensar en una biomasa muy reducida tras la gran extinción. El fuego vuelve a hacer aparición con fuerza entre el Jurásico y el Cretácico. No obstante, la imaginería popular sobre un infierno globaldurante la extinción que se cargó a los dinosaurios es infundada: no hay indicios de que los incendios fueran más fuertes o extensos en este periodo que en los inmediatamente anteriores o posteriores. Los custodios del fuego. El fuego, por tanto, era un fenómeno generalizado y corriente cuando los primeros humanos aparecimos por aquí. Y desde el principio, estuvo vinculado a nuestra historia, con hondos significados simbólicos, religiosos, filosóficos y –por supuesto– de orden práctico. Existen indicios de la presencia del fuego en las comunidades humanas, y quizás un cierto dominio del mismo, desde hace aproximadamente un millón y medio de años. En el yacimiento de Chesowanja (Kenia), poblado por homo erectus, se han encontrado restos de una especie de cerámica primitiva cocida a una temperatura de entre doscientos y cuatrocientos grados; no obstante, se trata de pruebas inconcluyentes. Por el contrario, no cabe la menor duda sobre su uso generalizado a partir del rango de los 200.000-400.000 años, y de hecho es uno de los elementos fundamentales para distinguir entre las culturas del Paleolítico Inferior y las del Paleolítico Medio. El control del fuego aportó cambios significativos al comportamiento humano. Su calor y su luz nos permitió adentrarnos en lugares más fríos y en el corazón de la noche, ayudó a espantar animales peligrosos o molestos y mejoró nuestra nutrición mediante la ingesta de proteínas cocinadas. Richard Wrangham, de la Universidad de Harvard, piensa que el cocinado de determinados tubérculos permitió la evolución de dientes más pequeños y cerebros más grandes, junto a un aporte de energía adicional que nos dio alas para salir a cazar más a menudo. En realidad, son incontables las cosas que el dominio del fuego hizo por nosotros, empujándonos constantemente hacia adelante por la senda de la humanidad y la civilización. El fuego es, seguramente, la tecnología estrella de la especie humana. Sin él, nunca habríamos desarrollado la cerámica, la metalurgia o cualquier otra tecnología capaz de sacarnos del Paleolítico, por no mencionar la electricidad, el motor de combustión interna, el vuelo aeroespacial o… la física cuántica, por ejemplo. También ha sido, con frecuencia, un destructor de civilización por vías accidentales o violentas; y hasta de esa destrucción surgieron más cosas nuevas. El fuego viaja con nosotros desde
- 124 -
La Pizarra de Yuri 1
que empezamos a ser lo que somos; y seguirá acompañándonos en nuestro camino, bajo cualquiera de sus formas, por siempre jamás.
- 125 -
Antonio Cantó
Así funciona un arma termonuclear Yuri, el 20 de septiembre de 2010 @ 11:45 · Categoría: Ciencia popular, Sociedad y civilización, Tecnología
De la fusión, lo único que no sabemos hacer aún es contenerla. Si no tenemos la menor intención de contenerla, por supuesto que sabemos encender estrellas. ¿Qué te creías?
Modelo de producción del núcleo de fisión de un arma nuclear clandestina israelí. Fotografía obtenida por el Dr. Mordechai Vanunu mientras trabajaba en Dimona, en 1985.
Te dejamos en el post anterior entre un montón de esferas de metal tibio, con una bolsa de polvo blanco en las manos y un tipo de uniforme o bata blanca sujetando un termo de café pequeño en tu cara. Ya aprendiste la manera de hacer una bomba de fisión, como la de Nagasaki, o en general las primeras que ha realizado cualquier país. Sin embargo, tu acompañante habló de un tipo de arma increíblemente más poderosa. Habló de encender una estrella sobre una ciudad. –Esa no me la voy a creer tan fácil –dijiste, o algo así. –¿Y para qué te crees que es ese polvo blanco que tienes ahí y este termo que tengo yo aquí? –te contestó– Ese polvo es deuteruro de litio, que llamamos liddy. Y en este envase tengo un poquito de tritio. –¿Y eso qué es? –preguntaste. –La materia de la que están hechas las estrellas. –No j*das. –Ajá. Y las pesadillas, también. La materia de la que están hechas las estrellas. Las estrellas son, fundamentalmente, grandes cantidades de hidrógeno comprimido en un solo lugar por atracción gravitatoria entre sus átomos. Cualquier aglomeración de - 126 -
La Pizarra de Yuri 1
hidrógeno lo bastante grande terminará encendiéndose en forma de un sol, aunque sea un sol muy pequeñito y débil, como las enanas marrones. AB Doradus C lo hace con sólo93 veces la masa de Júpiter. ¿Y esto a qué se debe? ¿Por qué se encendieron y se encienden las estrellas? El hidrógeno es el elemento más antiguo y común que hay en este universo, por la sencilla razón de que es el más simple de todos: un solo protón con un electrón dando vueltas alrededor. La inmensa mayoría de la materia que se formó durante el Big Bang era hidrógeno –el Big Bang fue demasiado primario para producir nada más complejo–, y ahí sigue desde entonces. Como el hidrógeno es muy reactivo, a menudo se presenta combinado con otras cosas; por ejemplo, formando agua junto al oxígeno –que apareció junto al resto de elementos dentro de las mismas estrellas–. En realidad, todo y todos somos una mezcla del hidrógeno primigenio y polvo de estrellas, en palabras deCarl Sagan.
Dado que lo que distingue a cada elemento de la materia es el número de protones en su núcleo, con independencia de los neutrones o electrones que contenga, la tabla periódica de los elementos está ordenada secuencialmente por esta cifra: el número atómico. Todo lo que tiene un solo protón en su núcleo es hidrógeno, todo lo que tiene dos es helio, y así sucesivamente hasta las más remotas islas de estabilidad de la materia.
Por otra parte, los elementos de este universo existen bajo la forma de distintos isótopos. Lo que define qué es una cosa es su número de protones: toda materia con un protón en su núcleo es hidrógeno, si tiene dos es helio, si tiene tres es litio y así sucesivamente. Sin embargo, el número de neutrones puede variar dentro de un cierto rango y no por eso deja de ser el mismo elemento. Normalmente existe una combinación más común de protones y neutrones, que constituye cada uno de los elementos básicos que conocemos, y otras más raras hasta que el núcleo se vuelve totalmente inestable y
- 127 -
Antonio Cantó
transmuta en otra cosa. Estas variantes del mismo elemento que tienen idéntico número de protones pero un número variable de neutrones se llamanisótopos. Por eso ordenamos la tabla periódica de los elementos según el número de protones (número atómico), ya que el número de neutrones puede variar para el mismo elemento. Como hemos apuntado, un núcleo con un solo protón es siempre hidrógeno; pero si lleva dos es helio, y si carga tres será litio, sea cual sea su número de neutrones. Un núcleo con seis protones es siempre carbono. Setenta y nueve protones, y será oro. Noventa y dos protones, y tenemos uranio. Noventa y cuatro es plutonio. Y así con todos. Así existen en la naturaleza, así los organizamos en la tabla periódica y sobre esa base creamos elementos nuevos. Como querían –y nunca lograron– los alquimistas. Para distinguir unos isótopos de otros, les añadimos un numerito detrás (o, más técnicamente, un superíndice antes de su símbolo). Este numerito representa la suma total de protones y neutrones en su núcleo. Por ejemplo, el uranio-235 (o 235U) se llama así porque contiene 92 protones y 143 neutrones: total, 235. El uranio-238 ( 238U) tiene 92 protones (esto no puede cambiar o dejaría de ser uranio) y 146 neutrones: total, 238. Así sabemos a qué isótopo nos estamos refiriendo. Los isótopos del mismo elemento tienen un comportamiento químico muy parecido, pero el físico puede llegar a variar bastante. Otro isótopo muy conocido es el carbono-14 ( 14C), ampliamente usado en datación, con seis protones y ocho neutrones. La mayor parte del carbono natural es carbono-12 ( 12C), cuyo núcleo posee seis protones y seis neutrones. Comparando la presencia de uno y otro, podemos descubrir la antigüedad de las cosas (ya hablaremos más a fondo de este asunto). Esto ocurre con todos los elementos de este universo, con todo lo que somos.
Los tres isótopos naturales del carbono: carbono-12 (6 protones y 6 neutrones), carbono-13 (6 protones y 7 neutrones) y carbono-14 (6 protones y 8 neutrones). En los tres casos es carbono, tiene el aspecto de carbono y se comporta químicamente como carbono, por tener seis protones (y forma parte de nuestro organismo, por ejemplo). Sin embargo, sus propiedades físicas varían. Por ejemplo, mientras que el carbono-12 y el carbono-13 son estables, el carbono-14 es inestable y radioactivo: emite radiación beta, uno de sus neutrones "extras" se transforma así en un protón y el núcleo se convierte en nitrógeno-14 (que tiene 7 protones y 7 neutrones), con el aspecto y las propiedades del nitrógeno (por tener 7 protones). Dado que la mitad de la masa del carbono-14 pasa a ser nitrógeno-14 cada 5.730 años aproximadamente (más o menos lo que llevamos de civilización humana), la presencia de este isótopo natural resulta especialmente útil para la datación precisa de objetos históricos.
El hidrógeno no constituye una excepción a todas estas reglas; sólo que, por razones históricas, le pusimos nombres propios a sus distintos isótopos. Con mucha diferencia, el isótopo más común del universo es hidrógeno-1 ( 1H), históricamente denominado protio. Esto es, un protón y ningún neutrón en su núcleo: si 1 + 0 = 1, pues
- 128 -
La Pizarra de Yuri 1
estamos ante hidrógeno-1. Sin embargo, una muy pequeñita parte del hidrógeno que existe tiene un neutrón junto a su protón. Como 1 + 1 = 2, lo denominamos hidrógeno-2 (2H) e históricamente le pusimos el nombre deuterio y el símbolo D; una práctica antigua cada vez más abandonada por poco sistemática.
Los tres isótopos del hidrógeno. El protio y el deuterio son estables, pero el tritio no: uno de sus neutrones emite pronto una partícula beta y se convierte en un protón, dando lugar al helio-3 (2 protones, 1 neutrón). El hidrógeno-4, aunque existe, es en extremo inestable y pierde rápidamente su tercer neutrón para convertirse de nuevo en tritio.
Debido a sus características químicas, la mayoría del hidrógeno del universo está en forma de moléculas de dos átomos juntos (H 2). Cuando uno de estos átomos es de hidrógeno-1 y otro de hidrógeno-2, se le llamahidruro de deuterio y se representa como 1H2H o HD. En la Tierra, en cambio, la mayor parte de este deuterio está combinado con otras cosas, como el resto del hidrógeno. Una de las más comunes es el agua: H2O. La inmensa mayor parte del agua natural es 1H2O, con el hidrógeno corriente. Sin embargo, una minúscula proporción es 1H2HO (óxido de deuterio-protio, a veces representado HDO) o bien 2H2O (óxido de deuterio, también representado como D2O). A estas formas de agua que tienen algún hidrógeno distinto del hidrógeno-1 se les llama agua pesada (porque la pesencia de los neutrones adicionales la hace pesar un pelín más por cada unidad de volumen). Existe aún otro isótopo natural del hidrógeno, en proporciones aún mucho más pequeñas: el hidrógeno-3 (3H), llamado tritio y simbolizado T. Siguiendo la misma lógica, su núcleo continúa teniendo un protón (o dejaría de ser hidrógeno) y dos neutrones; 1 + 2 = 3. Resulta extremadamente raro y, a diferencia de sus hermanos, ya no es estable: uno de sus neutrones tiende a desestabilizarse, emitir un rayo beta y
- 129 -
Antonio Cantó
convertirse en un nuevo protón. ¿Dos protones en el mismo núcleo? Entonces ya no es hidrógeno: ahora es helio. Para ser exactos, helio-3 ( 3He). El tritio es tan raro que incluso el producido en centrales nucleares vale unas mil veces más que el oro. Su suministro está estrictamente controlado y un particular sólo puede adquirirlo en cantidades minúsculas; casi siempre, para iluminadores por fosforescencia o experimentos científicos. Si intentas comprar algo más que microgramos, aunque tengas el dinero para pagarlo, algunas personas de humor muy esaborío van a hacerte una visita y preguntar por tu rollo. El deuterio, en cambio, es de venta casi libre y su precio a peso sólo duplica el del oro y anda cerca del rodio; tiene variadas aplicaciones industriales y científicas. ¿Y todo esto qué tiene que ver con las estrellas y con las armas termonucleares? ¡Todo! Porque el hidrógeno-2 (deuterio) y el hidrógeno-3 (tritio) son los dos isótopos del universo conocido que fusionan con más facilidad. ¿Y qué es fusionar? Núcleos atómicos maniáticos. Los núcleos pequeñitos pueden fusionar entre sí. Bueno, en realidad podría hacerlo cualquier núcleo, pero la cantidad de energía necesaria para lograrlo a partir de determinado tamaño no se concentra en el mismo punto en ningún lugar del universo conocido. Porque esa es una pega esencial de la fusión: hay que aportar mucha energía inicial para que llegue a producirse; lo que pasa es que cuando se produce, entrega un montón de energía aún mayor. La razón de que haya que aportar tanta energía para que se produzca la fusión es bastante sencilla: simple repulsión electromagnética. Dijimos más arriba que los núcleos de los átomos están formados por protones (que tienen carga eléctrica positiva) y neutrones (que no tienen carga eléctrica, y por eso se llaman así); los electrones de carga negativa, por su parte, no están en el núcleo sino en orbitales cuánticos a bastante distancia del mismo. Esto quiere decir que todos los núcleos tienen carga eléctrica positiva (la de sus protones); y cuanto más grandes sean, más (porque tienen más protones). ¿Recuerdas aquello de que polos opuestos se atraen y polos iguales se repelen? Pues eso: a los núcleos no les gusta mucho acercarse entre sí y se mantienen a una respetable distancia, los muy dignos. Para que se animen a arrimarse, hay que ponerlos ciegos de energía. Cuando se ponen bien calientes, se les quitan las manías. Lo que pasa es que eso requiere mucha calentura.
- 130 -
La Pizarra de Yuri 1
Más técnicamente, es preciso acelerarlos a temperaturas termonucleares para que se produzca la unión (y por eso lafusión fría no cuadra… ya hablaremos). Entonces los dos átomos se fusionan en uno solo, liberan un neutrón y con él una cantidad enorme de energía. En realidad, si contamos átomo a átomo, menos que con la fisión que vimos en el post anterior; pero la densidad energética de la fusión es muy superior, lo que se transforma en una liberación de energía mucho más grande por unidad de masa (por cada gramo de material “fusible” empleado, vamos). Si un kilogramo de uranio235 military grade puede soltar 88 terajulios cuando fisiona, un kilogramo de deuteriotritio (2H+3H) entrega 337 terajulios: casi cuatro veces más (ah, sí… la reacción materia-antimateria podría producir cerca de noventa mil terajulios por kilo). Por comparación, los explosivos convencionales más poderosos como eloctanitrocubano generan una energía de 0,0000085 terajulios por kilogramo y el tradicional TNT, poco más que la mitad de este último; y nunca podrían hacerlo con una eficacia, instantaneidad y variedad energética tan grandes, por muchos órdenes de magnitud.
Polos opuestos se atraen, polos iguales se repelen. Los núcleos atómicos están compuestos por neutrones (sin carga) y protones (con carga positiva); como resultado, los núcleos en su conjunto son fuertemente positivos y por tanto se repelen con fuerza entre sí. En condiciones normales, esta repulsión los mantiene separados e impide que puedan llegar a fusionar. Sin embargo, a temperaturas termonucleares (millones de grados), los núcleos vibran violentamente y la inercia de estos movimientos es capaz de vencer a la repulsión electrostática, haciéndolos colisionar y fusionar entre sí con alta liberación de energía. En la imagen, dos núcleos de deuterio (hidrógeno-2) y tritio (hidrógeno-3) colisionan, fusionan y liberan un núcleo de helio-4 y un neutrón altamente energéticos.
- 131 -
Antonio Cantó
Hidruro de litio. En su variante isotópica deuteruro de litio ("liddy") constituye el combustible de fusión de las armas termonucleares.
El hidrógeno-1 fusiona mal, porque sólo tiene protones que tienden a repelerse fuertemente entre sí y carece de neutrones que hagan de mediadores. Sin embargo, el hidrógeno-2 (deuterio) y el hidrógeno-3 (tritio) lo hacen mucho mejor, precisamente porque poseen neutrones. La fusión más fácil de lograr, la que más pronto se produce, es la de deuterio + tritio para transformarse en helio-4 (helio común), un neutrón libre y 17,59 MeV de energía total. –¿El tritio es lo que tienes en esa especie de termo de café? –preguntas entonces a tu guía. –Exacto. –¿Y el deuterio es lo que tengo yo aquí en las manos? –Ajá. Pero combinado con otro elemento: el litio. Específicamente, en su isótopo litio-6. –¿Y eso? ¿Litio, para qué? De todas las reacciones de fusión posibles, la que une deuterio con litio-6 es la más energética de todas: genera dos átomos de helio y 22,4 MeV de energía. Se da la circunstancia de que el hidruro de litio es un viejo conocido de la química; esto es, una
- 132 -
La Pizarra de Yuri 1
molécula compuesta por un átomo de hidrógeno y otro de litio. Sustituyendo el hidrógeno corriente por su isótopo hidrógeno-2 (deuterio) y el litio corriente (litio-7) por su isótopo litio-6, obtenemos una variante isotópica del hidruro de litio convencional que se llama deuteruro de litio-6 cuyo descubridor Igor Kurchatov denominó liddy. Al igual que el hidruro de litio, es un polvo blancuzco y un poco cristalino, no radioactivo, muy tenue y ligero; barato, estable y fácil de manipular. Entonces miras con algún escepticismo la bolsa de polvo terrible al que llaman liddy, apartándotela quizá un poquito de la barriga, y apuntas: –Pues no parece gran cosa. –Eso es porque no lo has magreado bien –te contesta tu guía, con una risita. Fusión. En las estrellas, la energía para superar la repulsión electrostática viene dada por la gravedad, que atrae entre sí grandes masas de hidrógeno con su correspondiente porcentaje de deuterio y tritio. La gravedad va comprimiendo unos átomos contra otros hasta que la temperatura aumenta de tal modo debido al incremento de la presión que sus núcleos –cada vez más próximos y con mayor inercia– comienzan a fusionar y liberar energía. Entonces la estrella se enciende: ha nacido un sol. Y quiere estallar, pues la energía generada es mucha; pero la inmensa gravedad contiene su explosión hasta que alcanza un punto de equilibrio durante los siguientes millones de años (hasta que se va consumiendo el material fusionable). Para encender una estrella con una ínfima fracción de esa masa, teníamos que encontrar una manera de sustituir la gravedad por otra fuerza igualmente capaz de superar la repulsión electrostática entre núcleos, aunque fuera durante un instante; y también de contener la reacción por un momentín mientras se completa. El problema es que la cantidad de energía necesaria para conseguirlo tiene que calentar el material fusionable a unas temperaturas equivalentes a varios cientos de millones de grados centígrados. Pero no hay ningún explosivo ni combustible en este mundo capaz de lograr algo así, por muchísimo.
- 133 -
Antonio Cantó
Los Pilares de la Creación, un criadero de estrellas en la Nebulosa del Águila. La materia molecular de la nebulosa va colapsando sobre sí misma por atracción gravitatoria, formando discos de acreción en torno a esferas de gas, de donde surgen respectivamente los planetas y las estrellas. La esfera central, si es lo bastante grande, seguirá comprimiéndose hasta alcanzar temperaturas termonucleares, permitiendo así la fusión del hidrógeno que contiene. Ha nacido un sol.
Un momento… ¿cómo que no? Pues claro que sí. Tenemos bombas atómicas, ¿no? ¡Lo vimos en el post anterior! Si recuerdas, cuando la energía emitida por la fisión del uranio-235 o el plutonio-239 pasa a la materia circundante, la calienta a temperaturas equivalentes a trescientos millones de grados o más. Tenemos una fuente de energía instantánea capaz de generar esa clase de calentón y transferírselo a un contenedor de materiales fusionables situado en las proximidades. Así pues, sólo tenemos que encontrar una manera de mantener una cierta cantidad de materiales fusionables quieta en un sitio mientras le estalla una bomba atómica al lado. Lamentablemente, la explosión de una bomba atómica no es la clase de suceso que deja las cosas quietas y tranquilitas a su alrededor, y menos aún dentro del radio de aniquilación. Si pones algo al lado de un arma nuclear mientras detona, pasará a estado plasmático y se desintegrará sin importar de qué material esté hecho. Eso incluye al liddy este y a cualquier otra materia del universo conocido. ¿Cómo lo resolveremos?
- 134 -
La Pizarra de Yuri 1
La genialidad diabólica de Teller, Ulam y Sakharov. Las primeras ideas consistieron en inyectar una mezcla de gases deuterio y tritio (que forman el combustible de fusión idóneo) en el centro de la esfera de implosión de un arma nuclear clásica. Esto tiene dos virtudes: la primera, sirve como estupenda fuente neutrónica para iniciar la reacción de fisión, en sustitución de las bolitas anteriores de polonio/berilio y cosas por el estilo. La segunda es que, cuando la fisión del plutonio se produce, va a fusionar una pequeña cantidad de este deuterio y tritio generando una cantidad aún mayor de neutrones y energía. Sin embargo, esta aproximación tiene enormes limitaciones. Una de ellas es que, como vimos más arriba, el tritio sale enormemente caro: mil veces más que el oro. Un arma que use mucho tritio cuesta una fortuna, mucho más de lo que resulta prudente cuando tienes la intención de hacerte un arsenal con esta clase de dispositivos. Otra de ellas es que el tritio es inestable y decae naturalmente en forma de helio-3: si almacenas un kilo de tritio, en doce años y pico se habrá convertido en medio kilo de tritio y otro medio kilo de helio-3, que no nos sirve. Esto es indeseable y obliga a constantes mantenimientos y purificaciones del tritio del arma. Por otra parte, esta disposición básica no permite que las reacciones de fusión se completen eficazmente, pues el material resulta disgregado demasiado pronto. Las armas nucleares en las que se ha inyectado deuterio + tritio en su centro, y/o se ha dispuesto a su alrededor en distintas formas, no son verdaderas armas termonucleares por el sencillo motivo de que la mayor parte de la energía no procede de las reacciones de fusión, sino todavía de las de fisión. Se llaman armas aceleradas por fusión (fusion-boosted), y pueden incrementar hasta un 20% la potencia original del arma de fisión hasta un máximo teórico de un megatón aproximadamente. Vamos, que nos hemos quedado como estábamos. Tenemos un arma sólo un poco más potente, mucho más cara, igualmente limitada por debajo del megatón y aún más complicada y menos flexible. Sobre todo, aún no hemos aprendido a hacer estrellas. No mola. Resulta fascinante descubrir cómo el equipo norteamericano y soviético dieron casi los mismos pasos, sin que hubiera mucho espionaje efectivo entre ambos para el proyecto termonuclear (a diferencia del nuclear). Ya se sabe que los equipos de similar cualificación, enfrentados al mismo problema, suelen alcanzar soluciones muy parecidas. Al final, la solución la encontró primero el equipo estadounidense encabezado por Edward Teller y Stanislaw Ulam: iban más avanzados por haber echado
- 135 -
Antonio Cantó
a andar antes por el camino de las armas atómicas, ya con el Proyecto Manhattan durante la Segunda Guerra Mundial, lo que se saldó con los bombardeos de Hiroshima y Nagasaki.
Diseño básico de Teller-Ulam. La radiación generada por un primario de fisión comprime una etapa secundaria concebida para ultracomprimir y calentar a temperaturas termonucleares un combustible de fusión.
Hay que decirlo: es una genialidad. Diabólica, terrible, lo que quieras, pero una genialidad. Se llama el diseño Teller-Ulam de fusión por etapas, y resuelve elegantemente de un plumazo todos los problemas anteriores (en la URSS fue redescubierto independientemente poco después, y allí se llamó la tercera idea de Sakharov). La idea consiste en situar los elementos de fisión y de fusión en etapas consecutivas, separadas entre sí, de modo que cada una active a la siguiente. Para lograrlo sin que todo resulte destruido antes de llegar a funcionar, se basa en un hecho simple: la energía generada por una bomba atómica está compuesta en gran medida por rayos X avanzando a la velocidad de la luz; mientras que el núcleo se expande a sólounos mil kilómetros por segundo o cosa así (es decir, una tricentésima parte). Vamos a aprovechar esa diferencia de velocidades para utilizar la energía del arma nuclear antes de que ésta destruya el contenedor de productos de fusión. Trataremos de crear un delicadísimo mecanismo de relojería que sólo empieza a funcionar cuando ya ha comenzado a dejar de existir y tiene que funcionar del todo antes de que termine de dejar de existir. Una tontería de nada, vaya. La gran explosión, la gigantesca explosión.
- 136 -
La Pizarra de Yuri 1
Así pues, vamos a situar varios elementos en nuestra arma termonuclear. A un lado, colocaremos una pequeña bomba atómica: se llama el primario, porque es quien lo va a poner en marcha todo. Al otro lado, situamos el contenedor de productos de fusión, que está compuesto fundamentalmente por cilindros o esferas concéntricas de uranio-235 o plutonio-239 rellenas con este polvo que hemos bautizado como liddy –deuterio y litio–; este contenedor es el secundario. Entre ambos colocaremos espuma de poliestireno o un aerogel del tipo del FOGBANK, un disco de metal pesado (frecuentemente uranio238) y un par de cosillas más que me temo que siguen siendo bastante secretas. La idea es sencilla: lograr que la explosión de la bomba atómica normal (el primario) transfiera un porcentaje importante de su energía al contenedor de liddy cebado con plutonio (el secundario); de tal modo que el liddy se vea atrapado entre las reacciones de fisión del primario y las de las esferas de uranio y plutonio que lo contienen. Así se producirá un pico inmenso de energía, suficiente para que el deuterio y el litio que lo forman no sólo estén combinados químicamente sino que pasen a fusionarse físicamente. Pues, al hacerlo, liberarán una inmensa, una monumental cantidad de energía. La energía de las estrellas.
Disposición de las cabezas MIRV/MaRV y la carga termonuclear en un ICBM avanzado (en la fotografía, un RS-24 Yars ruso). El esquema interior del MIRV/MaRV es una estimación a partir de la información pública disponible al respecto. (Clic para ampliar)
- 137 -
Antonio Cantó
Una vez organizado el montaje, la manera de ponerlo en marcha es muy simple. Sólo hay que hacer detonar la bomba atómica del primario y todo lo demás ocurrirá en cadena sin necesidad de ninguna otra intervención. Las fases van como sigue: 1.
El primario de fisión detona como vimos en el post anterior. Al hacerlo, emite grandes cantidades de rayos X y radiación gamma muy energéticos en todas direcciones. Una parte de este frente fotónico comienza a avanzar hacia la etapa secundaria. 2. Entre el primario y el secundario se encuentra un sistema denominado etapa interetapas. La naturaleza exacta de este sistema es uno de los secretos mejor guardados de la historia, y después de medio siglo sigue sin llegar al público. Su función es participar en la contención de la detonación del primario pero, sobre todo, enfocar la energía del frente fotónico hacia el secundario de una manera específica exacta. La idea es que esta radiación caliente la cavidad interior de la bomba (“hohlraum”) de forma homogénea e incida sobre el secundario desde todos los ángulos a la vez. 3. Toda esta energía viaja a la velocidad de la luz, y el equilibrio térmico en el interior del hohlraum se alcanza rápidamente. El material que contiene –espuma de poliestireno, FOGBANK o similar– pasa de golpe a estado plasmático. Ahora la carcasa del secundario se encuentra bombardeada desde todos los ángulos por la radiación que emite el primario, y además está sumergida en un plasma que aumenta su temperatura a gran velocidad. 4. Debido a la elevada temperatura del plasma circundante, se inicia un fenómeno conocido como ablación en la superficie exterior del secundario. Los materiales sometidos a ablación van perdiendo partículas de fuera hacia adentro, lo que provoca una fuerza expansiva-compresiva por acción-reacción. Básicamente, cuando la cantidad de energía es muy alta –y con una bomba atómica estallando a pocos centímetros, la energía es muy alta– la ablación es muy rápida y esta fuerza adquiere todas las características de una explosión que comprime violentamente el combustible de fusión y el núcleo de plutonio-239 que hay en su interior. 5. Cuando el núcleo de plutonio-239 del secundario (la “bujía”, sparkplug) se ve ultracomprimido por las fuerzas de ablación procedentes del exterior… pues se convierte exactamente en el núcleo de plutonio de una bomba atómica de fisión. O sea que fisiona y empieza a estallar como si fuera un segundo primario. Ahora el liddy está atrapado entre dos bombas atómicas detonando a la vez: la del primario y el plutonio fisionando en el núcleo del secundario. 6. La carcasa del secundario (en ablación) suele estar fabricada de uranio-238. El uranio-238 no es fisible en condiciones normales, pero en situaciones de alta temperatura, presión y densidad neutrónica fisiona estupendamente. Y en estos - 138 -
La Pizarra de Yuri 1
momentos está comprimiéndose y desintegrándose entre el plasma de muy alta temperatura generado por la detonación del primario y la avalancha neutrónica procedente de la fisión del núcleo del secundario. Ya te puedes imaginar lo que pasa a continuación: fisiona a su vez, y además muy energéticamente. 7. Con esto, el combustible de fusión está atrapado entre tres bombas atómicas estallando a la vez: dos concéntricas, que lo ultracomprimen, lo calientan a cientos de millones de grados y lo bañan en neutrones de alta energía; y la del primario que sigue suministrando grandes cantidades de energía a todo el conjunto para mantener el proceso. 8. Entonces, ocurre una brujería de estas a las que los físicos son tan aficionados. Resulta que el liddy sería un magnífico combustible de fusión (la fusión deuteriolitio es la segunda reacción más energética de todo el universo, sólo por detrás de la materia-antimateria). Pero presenta dos problemas: su sección eficaz es relativamente pobre y además no produce neutrones. Esto significa que la probabilidad de que suceda es relativamente baja y encima no nos aporta neutrones para algo que va a venir después: tendríamos una bomba termonuclear flojucha. Sin embargo, esto no es problema: las avalanchas neutrónicas que proceden de las dos bombas atómicas entre las cuales el liddy está atrapado ahora fisionan sus átomos de litio y forman tritio. Rápidamente, el liddy –deuteruro de litio– se transforma en triddy –deuteruro de tritio– y eso es deuterio y tritio: exactamente la materia con la que fusionan las estrellas, también muy energética pero además con una sección eficaz altísima y abundante emisión neutrónica. La bomba está fabricando ahora su combustible sobre la marcha, incluyendo el costosísimo tritio, y en el proceso se está convirtiendo en una estrella pequeñita autocontenida por ablación. 9. Fusión. Conforme el litio transmuta en tritio, la sección eficaz aumenta bruscamente y, a cientos de millones de grados y millones de atmósferas de presión, los núcleos de deuterio y tritio fusionan de repente. Eso provoca un rápido embalamiento energético y neutrónico, que dispara hasta otras cinco reacciones de fusión adicionales mediante distintas combinaciones de deuterio, tritio, litio y el helio-3 que se va formando en el proceso también. La estrella acaba de encenderse. 10. La masiva andanada neutrónica instantánea producida por estas reacciones de fusión alcanza rápidamente al resto de metales pesados que aún se encuentran pulverizados en su entorno: el plutonio-239 de los núcleos del primario y el secundario, el uranio-235 o -238 de la carcasa del secundario y el uranio-238 de la funda exterior. Al hacerlo, realimenta enormemente sus reacciones de fisión, aumentando aún más la energía total del dispositivo termonuclear. La bomba
- 139 -
Antonio Cantó
Zar llegó a producir el 1,4% de la potencia de salida del Sol durante 39 nanosegundos. 11. Detonación termonuclear. Las fuerzas de compresión y ablación ya no son capaces de contener este pico de energía monumental por más tiempo. Surge una densa esfera de radiación fotónica que se expande a la velocidad de la luz y otra sólo un poco más lenta de neutrones muy energéticos. La radiación fotónica (fundamentalmente en forma de luz, rayos X y radiación gamma) se transfiere velozmente al aire circundante, calentándolo y dilatándolo de manera explosiva. Los neutrones irradian y vuelven radioactiva la materia circundante. Se produce una gigantesca explosión, que a diferencia de las de fisión no tiene límite teórico. Con las más potentes que se llegaron a construir, no queda nada en decenas de kilómetros a la redonda. No obstante, la ventaja más significativa de las armas termonucleares sobre las nucleares no es sólo su enorme potencia, sino su coste mucho más bajo y su mayor flexibilidad. ¿Coste bajo, con todos estos materiales exóticos? Sí: como la energía producida por unidad de masa es mucho mayor, la cantidad de material necesaria para hacer la misma bomba es significativamente menor. Una bomba de fisión de medio megatón, cerca de su máximo teórico, es un trasto inmenso atiborrado de costoso plutonio que necesita un bombardero pesado para transportarla; la misma bomba, pero en fusión, sale mucho más barata y además caben seis en la punta de cualquier ICBM. Y encima cuesta menos de mantener. También, como hemos dicho, son más flexibles. Aumentar o reducir la potencia de un arma termonuclear es sencillo, lo que ha dado lugar a las armas de potencia variable o dial a yield. Mediante un mando analógico o digital que modifica algunas particularidades de la activación del secundario, es posible modificar la energía producida por el mismo entre la máxima permitida por el diseño y ninguna en absoluto (cerrando el secundario y dejando la detonación del primario a pelo). Otra flexibilidad de los explosivos termonucleares es que se puede variar su diseño para producir armas de propósito especial: bombas de neutrones, bombas exoatmosféricas de pulso electromagnético incrementado, bombas de radiación residual reducida o aumentada (la bomba del juicio final de Szilard) y un largo etcétera. ¿Por qué es tan difícil? Pergeñar un precario petardo nuclear es relativamente fácil; no deja de ser una tecnología con 65 años de antigüedad. Cualquier doctorando en física nuclear de cualquier universidad del mundo debería ser capaz de parir un diseño básico con mayor
- 140 -
La Pizarra de Yuri 1
o menor esfuerzo; cualquier país provisto de centrales nucleares y alguna industria debería poder construirlo con algún tiempo y gasto –mucho tiempo y mucho gasto si se quiere mantener la discreción–. Lo que ocurre es que acabas con un trasto monumental de poca potencia, menor eficiencia y casi nula utilidad militar en el mundo moderno. Es poco más que un juguete físico, a lo mejor capaz de lograr que a tu sector más patriotero y militarista se le ponga durísima, pero cuyas posibilidades prácticas son sumamente limitadas.
Lanzamiento de un SLBM norteamericano Trident II D-5 desde un submarino en inmersión
En realidad, tú no quieres una bomba nuclear. Tú quieres una fuerza nuclear, compuesta por armas nucleares. Y, amigo mío, amiga mía, eso es una liga completamente distinta. Es como querer jugar la final de la Championscon el bravo y mítico Alcoyano C.D. Este es el momento en que la cosa comienza a complicarse. Para empezar, ahora ya no
- 141 -
Antonio Cantó
necesitas una cosa, sino dos: un vector –es decir: una manera de llevarla hasta su blanco– y un arma lo bastante pequeña y ligera como para que quepa en tu vector. Ops. Esto empieza a complicarse. Como no vas a ponerte a trastear conICBMs avanzados desde el primer día –más que nada, porque para eso necesitas un programa espacial de envergadura, o su equivalente– tendrás que apañarte con aviones. Siempre podrías lanzar tu trasto físico del tamaño de un turismo desde unHércules o cosa parecida. Lo que pasa es que, por menos pasta de la que te va a costar todo el proyecto, podrías hincharte a comprar EurofightersTranche Sopotocientos y armamento aire-superficie con una potencia explosiva equivalente a muchas unidades de tu primitiva bomba atómica; lo cual, por cierto, sería bastante más flexible y adaptativo en una guerra real. Quien empieza a adentrarse por el camino de las armas nucleares, debe saber que ese es un camino muy largo, con muchas bifurcaciones sin salida y con un coste inmenso. Para empezar, necesitas un enemigo; es una estupidez meterte en un lío semejante sin un enemigo claro, una estrategia definida y unos usos específicos. Este enemigo debe ser lo bastante poderoso como para que no puedas derrotarlo sin recurrir a las armas atómicas, pero al mismo tiempo no tan poderoso que su represalia te convierta a ti y a tu país entero en contaminación ambiental (a menos que pretendas jugar en la liga de la Guerra Termonuclear Total, claro; en tal caso, te sugiero ingresarte en un psiquiátrico porque tienes algún problema de percepción de la realidad). El caso clásico de entrada tardía razonable en el mundo del armamento nuclear es el de India y Pakistán. India y Pakistán son dos países con muchos motivos para odiarse y muy pocos para quererse, centrados en un severo conflicto sobre partes importantes de su territorio; entre ellas, Bengala, Cachemira y el Punjab. En sesenta años han tenido cuatro guerras y cinco broncas serias. Más o menos desde 1971 India suele ganar estas trifulcas –a pesar del apoyo chino y estadounidense a Pakistán–, pero ambos saben que el día menos pensado el otro les da una sorpresa; mientras que, por otra parte, la victoria final resulta muy poco probable (e incluso indeseable: ¿qué haces tú mañana con ciento setenta y cinco millones de pakistaníes o mil doscientos millones de indios?). Este es el caso paradigmático que justifica un programa nuclear militar: enemigo claro, invencible –en el sentido de levantar la bandera sobre su Parlamento mientras sus últimas tropas huyen– y potencial de conflicto nítido y constante. “Potencial de conflicto” del tipo de cuatro guerras recientes y a la espera de la quinta, no meras paranoias patrioteras o simplemente racistas y xenófobas.
- 142 -
La Pizarra de Yuri 1
Sólo en una situación así, el inmenso coste y esfuerzo de poner en marcha un programa nuclear militar tiene algún sentido razonable. Al principio, porque pueden decantar a tu favor una guerra que de otro modo tendría un resultado incierto; después, porque disuaden al oponente de comenzarlas. En el proceso, porque te otorga palancas negociadoras que no podrías obtener de ninguna otra manera. Eso sí, prepárate a adoptar en tu país la filosofía del pakistaní Zulfikar Ali Bhutto: “comeremos hierba, pero haremos una bomba nuclear”. Si no tienes razones muy buenas (y recursos igualmente buenos) para implantar semejante política, más vale que lo dejes estar. Este es un poder grande, duro y fuerte; quienes lo adquirieron, lo hicieron con presupuestos prácticamente ilimitados y porque temían a otros hombres más que al mismísimo demonio. En cuanto ese miedo cedió un poco, los esfuerzos para reducirlo han sido constantes. Muchos países se han declarado a sí mismos zonas libres de armas nucleares. Ellas siguen ahí, en sus guaridas, acechando día y noche la vida de todos y los destinos de la Humanidad; pero quizá hayamos aprendido algo de tanto miedo y necedad. Las armas termonucleares no se pueden desinventar, y quizás ni siquiera sería juicioso prescindir completamente de la tecnología por si las moscas. Siendo realistas, proporcionan una garantía de seguridad tan inmensa que difícilmente desaparecerán en su totalidad, y hasta es posible que aparezcan nuevos usuarios. Sin embargo, todo avance que reduzca el riesgo de exterminarnos a nosotros mismos será un progreso de la Humanidad; y quizá, en algún futuro hacia el que merecería la pena empujar, no necesitemos de estas ni de ninguna otra clase de armas. Ojalá. La bomba Zar, la más potente de la historia, era una termonuclear de tres etapas y liberó entre 50 y 60 megatones.
- 143 -
Antonio Cantó
Ibéricos extraterrestres. Yuri, el 28 de octubre de 2010 @ 13:09 · Categoría: Ciencia popular, Historia y cultura, Sociedad y civilización
Ciencia hispánica (III)
Una niña mira por un telescopio durante una actividad cultural. Este tipo de telescopio, hoy en día considerado "amateur", es un instrumento muchas veces más potente y preciso que los utilizados por los grandes astrónomos que vamos a mencionar más abajo.
En el post anterior, dije que en ese momento sólo recordaba a un nacido en la Península Ibérica que diera nombre a un lugar extraterrestre: el del sabio andalusí y precursor de la aeronáutica Abbás ibn Firnás. Pero me quedé con el runrún y cuando un amable lector llamó mi atención sobre otro posible nombre (aunque al final no resultara ser oficial), decidí dejarme de recuerdos y hacer la búsqueda que debería haber hecho desde el principio: por supuesto, en el Diccionario Geográfico de Nomenclatura Planetaria de la Unión Astronómica Internacional, disponible en Internet gracias a un acuerdo con el Estudio Geológico de los Estados Unidos y la NASA. Y… bueno, no son muchos, pero algunos más hay. Menos da una piedra. Aunque sólo sea por vergüenza torera, intentaremos aprender algo sobre ellos. ¿Cómo se bautiza a los objetos astronómicos? Además de sus designaciones sistemáticas (Bayer, Messier, NGC, etc), a las cosas notables del cielo les ponemos nombre. Más allá de los grandes objetos, que suelen bautizarse con denominaciones universales originadas en la mitología, quien descubre algo nuevo en los cielos tiene una especie de derecho consuetudinario a proponerle un nombre. Como es de esperar, a menudo estos nombres son el del descubridor o el de alguna persona, lugar o hecho que desee honrar y perpetuar en la memoria colectiva de la Humanidad. - 144 -
La Pizarra de Yuri 1
En ambos casos, se produce un sesgo cultural inevitable: los nombres que tienen en mente esas personas suelen ser representativos de la cultura donde se encuentran. A veces hay un elemento de chauvinismo, pero ni siquiera resulta necesario: cada uno se ha criado donde se ha criado y tiene los referentes intelectuales y emocionales que tiene. Cuando escribí el post sobre lo que ocurriría si un agujero negro se acercara al sistema solar, prácticamente sin pensar bauticé a este objeto imaginario como Abaddón. ¿Por qué? Pues porque Abaddón es el puñetero ángel exterminador de la cultura cristiana occidental, donde surgió la sociedad en la que vivo. También podría haberlo llamado Tánatos, de la cultura helénica donde ambas se originaron, pero estaba muy visto y no reflejaba el concepto igual de bien. Incluso podría haber buscado alguna keres chula. Sin embargo, debido a mi contexto cultural, ni se me pasó por la cabeza bautizarlo Yama; y eso que resultaría de lo más apropiado. Por la misma razón tampoco se me ocurrió llamarlo Azrael, el arcángel de la muerte en el Islam. O Hinenui-te-pō, de la mitología maorí.
La estrella más próxima al Sol es el sistema triple conocido como Alfa o Proxima Centauri, con el nombre propio Rigil Kentaurus ("el pie del centauro", en árabe). Observatorio Europeo del Sur. (Clic para ampliar)
Incluso los nombres aceptados internacionalmente para los grandes objetos mencionados proceden de las culturas abrahámicas occidentales, por la sencilla razón de que éstas eran dominantes en materia científica conforme tales denominaciones se iban normalizando. Los nombres de todos los planetas solares, por ejemplo, vienen de la mitología romana:Mercurio, Venus, Marte, Júpiter, etcétera. Los de las lunas, de la griega, como Ganímedes, Ío, Europa, Fobos, Titán, Mimas,Encélado y demás. Y una buena parte de las estrellas más conocidas se conocen por su denominación árabe: Rigil Kentaurus(Rijl al-Qantūris, “el pie del centauro”), Altair (de an-nasr aṭ-ṭā’ir, “el águila voladora”), Fomalhaut (fam al-ħūt al-janūbī, “la boca de la ballena del sur”) o Betelgeuse (cuya primera sílaba está disputada, pero “elgueuse” es al-Jauzā‘, “…del
- 145 -
Antonio Cantó
centro”). Y, por supuesto, Aldebarán: al-dabarān, “el seguidor” (porque parece seguir a las Pléyades). Lógicamente, otras culturas otorgan nombres distintos a todos estos astros; no obstante, para su uso internacional y científico, estos son los nombres que han cuajado. Por otra parte, los descubrimientos más recientes se van dando en un mundo cada vez más globalizado e interconectado, con lo que la misma denominación se extiende a todos los países rápidamente. Tanto para los unos como para los otros, el organismo que se encarga de limpiar, fijar y dar esplendor a todos estos apelativos es la Unión Astronómica Internacional. Con el surgimiento y desarrollo de la revolución científica, el número de objetos extraterrestres a bautizar se ha multiplicado enormemente y cada vez lo hace más. No resulta extraño que cualquier nuevo instrumento (un telescopio, una sonda, lo que sea) produzca una avalancha de cosas nuevas y fascinantes a las que prestar atención. Por ejemplo: las primeras naves que pasaron por detrás de la cara oculta de la Luna revelaron la existencia de un montón de accidentes geográficos selenitas a los que hubo que poner nombre. Con las primeras naves interplanetarias, lo mismo. Cada vez que a un Gran Observatorio le ajustan las gafas, aparecen millones de estrellas y galaxias nuevas. Y así constantemente. Son tantos que muchos se quedan con su designación sistemática, pendiente de que alguien se tome el trabajo de bautizarlos.
- 146 -
La Pizarra de Yuri 1
La presidenta de la Unión Astronómica Internacional, Catherine Cesarsky, abre el Año Internacional de la Astronomía en la UNESCO (2009).
En la actualidad, cuando se obtienen las primeras imágenes de un nuevo objeto extraterrestre, es normalmente el correspondiente grupo de trabajo de la Unión Astronómica Internacional quien selecciona unas cuantas de las más significativas y sugiere posibles nombres. Conforme se consiguen datos más detallados, los investigadores que estudian el objeto pueden proponer denominaciones adicionales. En general, cualquier persona (incluso del público en general) puede proponer un nombre para un objeto recién descubierto. Ni en un caso ni en el otro, la Unión Astronómica Internacional garantiza que este nombre será reconocido. No se admite pago económico, a pesar de la existencia de listillos que cobran dinero a sus clientes por poner nombre a una estrella(sin reconocimiento oficial alguno, claro). Aquí se detalla el proceso, por ejemplo, para dar nombre oficial válido a los planetas menores (en ingles). Los nombres aceptados en principio por este grupo de trabajo se remiten a otro dentro de la misma división, que se encarga exclusivamente de realizar estas catalogaciones. Por ejemplo, en el caso de los planetas y lunas, éste es el Grupo de Trabajo para la Nomenclatura de Sistemas Planetarios (WGPSN), de la División III. Si este grupo también valida la propuesta, entonces el nombre queda aceptado y entra en las bases de datos oficiales de la Unión. A partir de ese momento, este nombre puede ser utilizado válidamente para cualquier aplicación. En la práctica, vuelve a producirse un inevitable sesgo cultural. Salvo de manera anecdótica, será raro que estos nombres procedan por ejemplo de la cultura aborígen australiana o de la yanomami, básicamente porque no hay muchos aborígenes ni yanomamis en los grandes observatorios terrestres o satelitarios, en los comités de investigación de las sondas espaciales o en los grupos de trabajo de la Unión Astronómica Internacional. A decir verdad, si no fuera porque existe una cierta tendencia en estos ámbitos para intentar que todas las culturas de la Humanidad aparezcan representadas, raro sería que apareciese alguno. Bueno, pues por estas viejas tierras de Iberia no andamos mucho mejor. Realizada una búsqueda exhaustiva en la base de datos de la Unión Astronómica Internacional, sólo hay catorce que se correspondan con científicos o personajes que tuvieran que ver directamente con la astronomía. Todos excepto dos son anteriores a la Edad Contemporánea. Y la mayor parte, anteriores a la Edad Moderna. No, no es culpa de la Unión Astronómica Internacional. Es culpa nuestra. La magra cosecha de la astronomía hispánica.
- 147 -
Antonio Cantó
En total, salen 109 nombres relacionados con la cultura ibérica. Pero la mayor parte son designadores sin relación ninguna con la astronomía, la astronáutica o en general las ciencias que condujeron a estos descubrimientos. Al final del post veremos una lista, por ejemplo, de localidades hispánicas extraterrestres cuyo único mérito efectivo para estar ahí es simplemente… su existencia.
Observatorio del Roque de los Muchachos, en las Islas Canarias. Tras siglos de tinieblas y atraso secular, durante las últimas décadas han ido surgiendo en España algunas instalaciones científicas dignas de tal nombre. En julio de 2009 entró aquí en servicio el Gran Telescopio Canarias, el más grande y potente del mundo con un espejo de 10,4 m. Casi nadie se enteró.
Más notablemente aparecen en la Luna los nombres de cuatro exploradores (Balboa, Colón, Magallanes yVasco de Gama), un gran científico de la Edad Contemporánea sin relación con la astronomía (Cajal) y un médico del siglo XVI (Cristóbal Acosta). En Mercurio encontramos algunos pintores y escritores (Camões, Cervantes, Dalí, Echegaray, Goya, March,Mena, Mendes Pinto y Velázquez), porque se decidió nombrar a los cráteres de Mercurio usando una lista de artistas de fama mundial (aunque el premio Nobel de Literatura José Echegaray fue también ingeniero y matemático, su presencia se debe a esta última razón). Más una referencia a la carabela Santa María y al navío Victoria de Magallanes y Elcano. En Venus, donde por convención se usan nombres femeninos, hallamos a la escritora Rosalía de Castro, la pintora Josefa de Ayala, la cantante Malibrán o la actrizFernández, tan conocida que ni siquiera he logrado identificarla. Hay también –no faltaba más– un Don Quijote y unaDulcinea en Eros, asteroide cuyos accidentes suelen nombrarse recordando parejas o amantes famosos en la literatura de ficción. Más un cierto número de nombres genéricos como “José” o “Juanita” elegidos más o menos al azar.
- 148 -
La Pizarra de Yuri 1
Se comprende fácilmente que la mayor parte de estos topónimos extraterrestres con resonancias hispánicas son de cortesía, parte de esta voluntad de lograr que todas las culturas humanas queden representadas en los astros. En serio: por supuesto que se puede llamar Velázquez a un puente, un polideportivo o un avión de pasajeros, pero eso no implica ningún mérito en obra civil, deportes o aeronáutica. De gente que se ganara a pulso con sus aportaciones a la astronomía o la cosmonáutica un lugar en los cielos, únicamente tenemos catorce. A estas alturas, puede que te estés preguntando por qué hablo todo el rato de personajes ibéricos, en vez de hablar de españoles o portugueses. Sencillo: como apunté más arriba, casi todos ellos vivieron antes de que existieran los dos estados modernos con el nombre oficial de España o Portugal. En realidad, la inmensa mayoría se contaron –cómo no– entre los siempre mezquinamente olvidados sabios de Al-Ándalus. Abenezra, el Doctor Admirable. Vayamos por orden. El cráter Abenezra de la Luna recibe su denominación gracias al astrónomo, filósofo y escritorsefardita Abrahám ben Meir ibn Ezra; un nombre latinizado como Abenezra, cuyo propietario fue conocido por sus apodos el Sabio, el Grande o el Doctor Grande y Admirable.
El cráter Abenezra de la Luna (borde superior), situado en el centro de la cara visible y un poco al sur, llamado así por el astrónomo judeo-andalusí Abrahám ibn Ezra (1092-1167). Imagen tomada a 2.722 km de altitud sobre nuestro satélite.
Abrahám nació en Tudela, entonces perteneciente a lataifa de Zaragoza, en torno a 1092. Cuando los cristianos de Alfonso I el Batallador tomaron su ciudad, huyó hacia el sur junto a muchos otros de sus vecinos andalusíes. Así se convirtió por primera vez en un a modo de refugiado itinerante, viviendo en la Córdoba, Lucena, Granada y Sevilla musulmanas antes de cruzar el estrecho al norte de África. Entonces se encontró con con los almohades, que por aquella época perseguían a los judíos. Huyó de nuevo, ahora en dirección a Roma, y residió en diversos puntos del sur y centro de la Europa cristiana - 149 -
Antonio Cantó
hasta su muerte en 1167. No se sabe exactamente dónde murió, pero al parecer había regresado a la judería de Calahorra, entonces ya bajo dominio cristiano. Por tanto, Abrahám ibn Ezra puede considerarse uno de los máximos exponentes de las tres culturas… y también de sus complejas convivencias y conflictos. Abenezra escribió fundamentalmente en hebreo, destacándose en una diversidad de disciplinas que van desde la exégesis bíblica hasta la filosofía de la religión, la gramática hebrea e incluso la poesía. Pero lo que le aseguró su lugar en la Luna fueron sus trabajos en matemáticas, astronomía y astrología (en aquellos tiempos aún una ciencia): tablas de posiciones estelares como el Lukhot, estudios sobre el calendario (Sefer ha-‘Ibbur) y el astrolabio (Keli ha-Nejoshet), textos aritméticos como el Sefer haEkhad o el Sefer ha-Mispar, las traducciones del astrólogo judeo-persaMashallah y su obra traducida al latín Fundamentos de las Tablas Astronómicas (1154). Por todo esto y más cosas el judeo-andalusí Abrahám ibn Ezra, el Doctor Admirable, se ganó a pulso un rincón en los cielos; este lugar está ahora situado en las escabrosas serranías inmediatamente al sur del ecuador lunar, casi en el centro de la cara visible de nuestro satélite (21,0°S 11,9°E).
Cráter de Al-Bakri, en una imagen obtenida desde la nave lunar tripulada estadounidense Apolo 15 en 1971. (NASA)
Abu Abdullah Al-Bakri, el geógrafo. Abu Abdullah al-Bakri fue un geógrafo hispano-árabe que nació en Huelva alrededor de 1014, estudió en Córdoba con Al-Udri eIbn Hayyan, trabajó en Almería y Sevilla y murió en esta última ciudad siendo el año 1094. Aunque evidentemente no había salido en toda su vida de Al-Ándalus, creó numerosos trabajos de gran objetividad y precisión sobre la geografía, la botánica y la historia de Europa, el norte de África y la Península Arábiga basándose en lo que le contaba la gente que sí había estado allí. - 150 -
La Pizarra de Yuri 1
Uno de estos trabajos, el Libro de los Caminos y los Reinos(Córdoba, 1068), constituye el único estudio completo y de confianza sobre África Occidental durante la Edad Media. Incluye datos únicos sobre el Imperio de Ghana, la Dinastía Almorávide y el comercio transahariano. Junto a su Descripción geográfica del mundo conocido, el Diccionario de los nombres indecisos (uno de los primeros diccionarios geográficos) y laDescripción del África Septentrional, le convierte en un geógrafo clásico de referencia y le dan derecho a su cráter en la cara visible lunar: uno pequeñito pero cuco, en la orilla noroccidental del Mar de la Tranquilidad (14,3°N 20,2°E). El cráter de Alfonso X el Sabio.
Cráter Alphonsus (derecha), en la cara visible de la Luna (NASA). Recibe su nombre por Alfonso X el Sabio, no en tanto que rey sino en tanto que astrónomo.
Uno de los cuatro objetos extraterrestres de nombre hispánico ganado a pulso que no tira de apellido andalusí es el complejo de cráteresAlphonsus. Situado en la cara visible de la Luna, al este del mar Nubio, recibe su nombre por el rey de Castilla Alfonso X el Sabio. Pero no por rey, sino por astrónomo. La vida de Alfonso X de Castilla (Toledo 1221-Sevilla 1284) resulta fascinante y está llena de éxitos, reveses y legados a las generaciones posteriores. Sobre todo, Alfonso fue un hombre sediento de conocimientos, respetuoso por la cultura y autor intelectual de numerosas obras. SuEscuela de Traductores de Toledo reunió a los mayores sabios cristianos, musulmanes y judíos de aquella Iberia a la que él empezaría a llamar con éxito España. La parte de su legado que le asegura un lugar en la Luna es, fundamentalmente, las Tablas Alfonsíes (1252-1270). Sobre las observaciones originales del andalusí AlZarqali (a quien nos encontraremos a continuación) y bajo la supervisión de los
- 151 -
Antonio Cantó
judíos Ben Moshe y Ben Sid, estas Tablas Alfonsíes recogen la posición exacta de los astros vistos desde Toledo desde el año de la coronación de nuestro rey; y permiten calcular la posición del Sol, la Luna y los planetas conocidos en su tiempo según el complicado modelo geocéntrico de Ptolomeo. La versión original de las Tablas Alfonsíes, escrita en castellano antiguo, se ha perdido. Pero la edición francesa en latín de 1320 sobrevivió, convirtiéndolas en la referencia astronómica más importante de Europa hasta bien entrado elRenacimiento. Sólo se dejaron de utilizar tras la publicación de las Tablas Rodolfinas de Kepler en 1627, casi cuatro siglos después que ya incorporaban el modelo heliocéntrico. Por esta y otras aportaciones como los Libros del saber de astronomía, el Rey Sabio de Castilla se ganó un antiquísimo cráter, muy llano, de respetable tamaño, provisto con doce subcráteres; sus coordenadas son 13,4°S 2,8°W, Luna.
Tablas Alfonsíes de Alfonso X el Sabio (arriba), en una traducción al latín del siglo XIII, basadas en las Tablas Toledanas de Azarquiel (debajo).
Estampilla postal de España con la efigie del astrónomo toledano Abú Ishaq Al-Zarqali, Azarquiel.
Azarquiel, el más grande de los astrónomos ibéricos.
- 152 -
La Pizarra de Yuri 1
El toledano Abū Isḥāq Ibrāhīm ibn Yaḥyā al-Naqqāsh al-Zarqālī (o al-Zarqālluh), latinizado Azarquiel o Arzachel, está considerado por muchos como el más grande de los astrónomos ibéricos y uno de los más importantes de la historia mundial. Ya hable de él en este blog, y hasta comenté lo de su cráter… y se me había olvidado. :-( Nació en la Taifa de Toledo siendo el año 1029, descendiente de una familia visigótica convertida al Islam siglos atrás. Formado como herrero, se dedicaba a elaborar instrumentos de precisión para los astrónomos árabes y judíos que allí residían al servicio del cadí Said al-Andalusí, científico e historiador a su vez: una especie de Alfonso X musulmán. De esta forma Abú Ishaq entró en contacto con las ciencias de la noche; por su parte, los científicos toledanos de la noche se percataron pronto de que Abú Ishaq poseía una brillantez intelectual fuera de lo común, captando al vuelo sus necesidades e incluso anticipándose a ellas, por lo que comenzaron a protegerle. Tras dos años de formación en las maqtab de la ciudad patrocinadas por Al-Mamún, el joven herrero se convirtió en matemático y astrónomo, pasando a formar rápidamente parte de este reducido círculo de estudiosos. Y, pronto, destacándose sobre todos ellos como astrónomo teórico, geómetra e inventor de sus propios instrumentos.
El cráter Azarquiel, Luna.
- 153 -
Antonio Cantó
La aportación de Azarquiel al saber humano es difícil de percibir en toda su enormidad. Entre otras muchas cosas, junto a su equipo de extraordinarios colaboradores elaboró las Tablas Toledanas, de las que bebería Alfonso X para crear las Alfonsinas. Pero no sólo el rey de Castilla se inspiró en su trabajo: el mismo Laplace, siete siglos después, seguía utilizando los datos de Abú Ishaq para sus cálculos astronómicos. Y su modelo para explicar los movimientos del Sol y de Mercurio fue aprovechado por Copérnico para desarrollar la teoría heliocéntrica, tal como el propio astrónomo polaco declara en su Sobre el movimiento de las esferas celestiales. Sus obras, al llegar traducidas a la Europa cristiana, permitieron el surgimiento de la astronomía matemática moderna.
La azafea de Azarquiel o astrolabio universal. Sin un instrumento astronómico de estas características, verdadero computador analógico, la navegación oceánica resulta imposible por completo.
Además, creó varios instrumentos nuevos. Uno de ellos, la azafea o astrolabio universal, fue esencial para la navegación durante los siglos siguientes; sin él, difícilmente habría sido posible la Era de los Descubrimientos. Al mismo tiempo, se desplazaba a Córdoba con frecuencia para dar clases, lo que sentó una escuela propia que está en la raíz de la astronomía árabe occidental. Por todo ello, los nombres de la Luna tendrían menos mérito si no incluyeran al complejo de cráteres Arzachel(18,2°S 1,9°O), situados al sur de Alphonsus, también en la cara visible. Está igualmente compuesto por un cráter principal y once secundarios, con una estructura muy bien definida y un pico en el centro de 1.500 metros de elevación. Cuando Alfonso VI de León conquistó Toledo en 1085, un casi anciano Azarquiel tuvo que huir junto con otros colegas en dirección a Córdoba. No se sabe si llegó o si pereció
- 154 -
La Pizarra de Yuri 1
en algún campo de refugiados por el camino. Convencionalmente se considera que murió en 1087. El cráter Catalán, menos mal. El único que nos salva la cara: aunque chiquitín y no muy relevante, el cráter Catalán del sudoeste lunar (45,7°S 87,3°O) y sus tres subcráteres son los únicos que llevan un nombre ibérico contemporáneo. Este es el del físico-químico maño especializado en espectroscopia Miguel Antonio Catalán Sañudo. Nacido en Zaragoza siendo 1894, se licenció en Ciencias Químicas por la universidad de esta ciudad aragonesa y a continuación desempeñó su profesión durante un tiempo en una fábrica de cementos. De ahí marchó a Madrid, en 1915, para realizar su tesis doctoral con Ángel del Campo. Don Ángel del Campo y Cerdán era el encargado de espectroscopia en el Laboratorio de Investigaciones Físicas de la Junta de Ampliación de Estudios e Investigaciones Científicas; años después, se convertiría en asesor científico de la II República.
Fotografía del pasaporte y firma de Miguel Catalán, junto a su esposa Jimena Menéndez-Pidal, hija del historiador y filólogo Ramón Menéndez-Pidal.
Bajo la tutela de Del Campo, Catalán se pasó definitivamente a la espectroscopia. Con una beca de la Junta, se mudó a Londres para proseguir sus estudios en el Royal College of Science; allí descubriría los multipletes espectrales, un fenómeno cuántico que le valió el reconocimiento internacional. De ahí viajó a Munich para trabajar con Sommerfeld, uno de los fundadores de la mecánica cuántica. A su regreso a España, ya catedrático, fundó el Instituto Nacional de Física y Química de la Junta de Ampliación de Estudios junto a Blas Cabrera y Enrique Moles.
- 155 -
Antonio Cantó
Tras la Guerra Civil, los franquistas disolvieron la atea y antiespañola Junta para la Ampliación de Estudios e Investigaciones Científicas; muchos de sus miembros fueron fusilados, tuvieron que huir al exilio o resultaron depurados. Miguel Catalán, que había pertenecido a Izquierda Republicana sin señalarse mucho, se contó entre estos últimos. Estuvo siete años en el exilio interior, realizando trabajos menores para la industria química e incluso para Mataderos de Mérida, hasta que gracias a las gestiones del astrofísico estadounidense Henry Russell y otros colegas norteamericanos recuperó su cátedra en 1946 (cuentan que empezó su primera clase con un “decíamos ayer…”, a lo Fray Luis de León). Como en España casi no quedaban científicos de alto nivel, en 1950 las autoridades franquistas le nombraron jefe del Departamento de Espectros del nuevo Consejo Superior de Investigaciones Científicas, por mediación del Marqués de Hermosilla. Habían pasado once años desde el final de la Guerra Civil. A partir de ese momento, los científicos norteamericanos que le habían protegido desde el otro lado del charco comenzaron a invitarle a toda clase de conferencias y reuniones en los Estados Unidos; en 1952, lo hicieron asesor de la Joint Commission for Spectroscopy. En 1955, la Real Academia de Ciencias de Madrid logró vencer las desconfianzas políticas que generaba aún y le eligieron académico de número. Pero todas estas desventuras le habían afectado a la salud: Miguel Catalán, el único ibérico contemporáneo que da nombre a un objeto extraterrestre por sus méritos científicos, falleció en 1957. Habría que esperar hasta 1970 para que, a propuesta de todos esos amigos estadounidenses, la Unión Astronómica Internacional pusiese su nombre a este cráter lunar.
- 156 -
La Pizarra de Yuri 1
El grupo de cráteres Catalán, Luna, en el registro de la Unión Astronómica Internacional. Al hallarse en la zona de ocultamiento por libración, ayuda a observar este fenómeno aunque a veces resulte difícil de distinguir o invisible desde la Tierra por completo.
Cráteres Geber y Abenezra, Luna.
Geber, el que corrigió a Ptolomeo. Como este post se está alargando mucho, lo voy a dividir en dos partes. Así pues terminaremos esta primera hablando del Geber, otro cráter complejo lunar, que recibe su nombre por un cuarto andalusí: el astrónomo y matemático Abū Muḥammad Jābir ibn Aflaḥ. Abú Mohamed Jabir nació, vivió y murió en Sevilla allá por los años 1.100-
- 157 -
Antonio Cantó
1.150; su obra maestra, la Corrección delAlmagesto (Iṣlāḥ al-Majisṭi), influyó a varias generaciones de estudiosos musulmanes, cristianos y judíos. Tanto, que casi toda la parte de trigonometría esférica en la obra deJohann Regiomontano constituye un plagio del sevillano, tal como mostró Gerolamo Cardano. Este trabajo representa la primera corrección importante a Ptolomeo en Occidente. Adicionalmente, Abú Mohamed inventó el torquetum, otro computador analógico de observación astronómica que sirve para registrar y convertir medidas tomadas en tres sistemas de coordenadas: el horizontal, el ecuatorial y el eclíptico.Maimónides trasladó sus trabajos al resto del mundo islámico y Gerardo de Cremona los tradujo al latín, dándole ese nombre Geber que designa también al cráter lunar. El cráter Geber en memoria del sevillano Abú Mohamed se encuentra en las serranías escabrosas centrales de la cara visible de Luna, un poco hacia el sur (19,4°S 13,9°E), y presenta nueve subcráteres. Está justo al noreste del cráter en memoria del judío andalusí Abrahám ibn Ezra que mencionamos al principio. Próximamente: Ibéricos extraterrestres (y 2).
- 158 -
La Pizarra de Yuri 1
Un viaje interplanetario relativista. Yuri, el 24 de octubre de 2010 @ 14:45 · Categoría: Ciencia popular
Si no te importara hacer un viaje sólo de ida en el tiempo, podrías circunnavegar todo el universo conocido en tu tiempo de vida. Para ello, no necesitarías superar la velocidad de la luz: es suficiente con aproximarte a ella.
Si no meto la pata con nada, hasta podría ser que el doctor Einstein aprobara el post de hoy.
La semana pasada, hicimos un viaje a la velocidad de la luz desde el Sol hasta los ojos con dispensa del doctor Einstein. Tengo que confesarte una cosa: no contaba con la dispensa del doctor Einstein. :-( Así que hoy me propongo desagraviarle. Para ello, vamos a estudiar cómo podríamos hacer un verdadero viaje interplanetario respetando escrupulosamente suTeoría de la Relatividad y viendo lo que sucedería durante el mismo. Y la facilidad con que, una vez alcanzada esa tecnología, tal viaje interplanetario podría convertirse en un viaje intergaláctico e incluso de circunnavegación universal… que podrías completar en tu tiempo de vida. Eso sí: el billete es sólo de ida. Sólo de ida en el tiempo, quiero decir. La Teoría de la Relatividad y la nave espacial Abbás ibn Firnás. ¿Qué clase de vehículo podríamos utilizar en este viaje? Es obvio que hoy no existen las tecnologías necesarias para diseñarlo, aunque el estado actual de la ciencia ya permite postular algunas posibilidades. Así pues, vamos a crear una nave especulativa –pero
- 159 -
Antonio Cantó
científicamente rigurosa– a la que me permitiré bautizar con el nombre del compatriota andalusí Abbás ibn Firnás; uno de los pocos nacidos en la Península Ibérica que da nombre por sus propios méritos aun objeto extraterrestre notable. Cosas de este país. Y a fin de cuentas, resulta bastante probable que su primer vuelo acabase igual que los del viejo químico rondeño. :-D Próximamente te contaré los detalles tecnológicos de la Abbás ibn Firnás, pero por el momento confórmate con saber que se trata de una nave a propulsión constante, con enorme empuje total e impulso específico, correctamente blindada, equipada y capaz de alcanzar 0,999c. Oséase, el 99,9% de la velocidad de la luz. Con ella, nos encontramos establecidos en una órbita de estacionamiento alrededor de la Tierra. Y para situarnos en su cabina de mandos vamos a utilizar la aplicación Real Time Relativity, desarrollada por el equipo del profesor Craig Savage, del Departamento de Ciencia Cuántica, Facultad de Ciencias Físicas y Matemáticas, Universidad Nacional de Australia. Esto viene a ser un simulador especializado en expresar correctamente los efectos relativistas a bordo de un vehículo que viaje a velocidades próximas a las de la luz. Puede que tengas que ajustar un poco tu monitor o la iluminación ambiental para ver bien las siguientes imágenes, que he preferido conservar sin retocar para mantener el realismo.
Vista desde la nave especulativa Abbás ibn Firnás, en una órbita de estacionamiento próxima a la Tierra. Nuestro punto de partida.
- 160 -
La Pizarra de Yuri 1
Fíjate en los siguientes instrumentos básicos. En la primera fila, "speed" indica la velocidad como una fracción de la velocidad de la luz en el vacío (0.5c sería la mitad de la velocidad de la luz). En la última fila, "location" indica nuestra posición con respecto a un punto de referencia en el Sol, expresada en segundos-luz (al hallarnos cerca de la Tierra estamos a 499 segundos-luz del Sol, ¿recuerdas?). En la fila de en medio, "world time" indica el tiempo en segundos transcurrido para el resto del mundo y "proper time" el que ha pasado a bordo de nuestra propia nave. Como ahora estamos esencialmente detenidos, ambos son iguales.
¿Y qué es esto de los efectos relativistas? Bueno, vamos a ver. En primer lugar, rompamos una concepción equivocada que se tiene a veces: eso de que hay una física relativista o una mecánica cuántica contra una física clásica o algo parecido. Esto no va así y nunca lo ha hecho. En realidad, la Relatividad es una generalización de la clásica o, si lo prefieres, la física clásica (newtoniana y tal) constituye unsubconjunto de la Teoría de la Relatividad (y también de la mecánica cuántica). No son opuestas ni contradictorias: una engloba a la otra, mejorándola y haciéndola más exacta. Por ejemplo: la física clásica estudia bien los fenómenos que suceden a velocidades bajas y nos apañamos muy bien con ella durante algunos siglos. Pero es incapaz de explicar los que ocurren a velocidades altas. Con la Teoría de la Relatividad, se estudian más exactamente tanto los fenómenos que suceden a velocidades bajas como los que suceden a velocidades altas; lo que ocurre es que a velocidades bajas los resultados aportados por la Teoría de la Relatividad coinciden a grandes rasgos con los aportados por la física clásica. Entonces, por simplicidad, se usa la física clásica, que es más sencilla. Pero la Relatividad está ahí detrás, agazapada. Dicho en términos sencillos: a bajas velocidades, los resultados obtenidos por la física newtoniana y la relativista coinciden esencialmente. A altas velocidades, sin embargo, difieren. La observación y la experimentación nos permiten concluir que es la Relatividad quien lleva razón en esa diferencia: por ejemplo, incluso a velocidades tan lejanas de la lumínica como las que caracterizan a los satélites artificiales del presente, resulta necesario sincronizar a menudo sus relojes debido a la dilatación temporal. Por eso decimos que la Relatividad incluye y mejora a la clásica. Cuando estas diferencias se tornan evidentes a los sentidos e instrumentos humanos, hasta el punto de constituir un orden de fenómenos totalmente distinto al clásico, hablamos de la aparición de fenómenos relativistas (como la mencionada dilatación temporal). Pero, estrictamente hablando, esos fenómenos relativistas estuvieron siempre ahí; sólo que no eran evidentes. Desde una perspectiva más amplia, sería mejor decir que aparecen fenómenos clásicos (los corrientes que estamos acostumbrados a ver) en un subconjunto de resultados de la Teoría de la Relatividad: por ejemplo, a baja velocidad. - 161 -
Antonio Cantó
Una nota sobre la palabra ‘teoría’. A todo esto, quisiera recordarte algo sobre la palabra teoría. En español, teoría tiene varios significados distintos, y dos de ellos sí que son contrapuestos. Uno, en lenguaje vulgar o tradicional, equivale a “conjetura”, o “especulación” o “suposición”: como cuando alguien dice “¡eso sólo son teorías!”. El otro, en lenguaje riguroso y científico, significa exactamente lo contrario: una teoría científica constituye el nivel superior del conocimiento, superior incluso a la ley; de hecho, una teoría científica es un conjunto de leyes y conceptos organizados en un orden mayor del conocimiento verificado o al menos verificable experimentalmente. Por ejemplo, partes sustanciales de la Teoría de la Relatividad han sido demostradas más veces y más a fondo que la mismísima Ley de la Gravitación Universal. En palabras de la Academia Nacional de Ciencias de los Estados Unidos, “La definición científica formal de ‘teoría’ es muy diferente del sentido cotidiano del término. Se refiere a una explicación detallada de algún aspecto de la naturaleza que se apoya en un vasto cuerpo de pruebas. Muchas teorías científicas están tan bien establecidas que pocas evidencias nuevas podrían alterarlas sustancialmente. Por ejemplo: ninguna evidencia nueva demostrará que la Tierra no gira alrededor del Sol (teoría heliocéntrica), o que las cosas vivas no están compuestas de células (teoría celular), que la materia no esté compuesta de átomos (teoría atómica) o que la superficie terrestre no esté dividida en placas sólidas que se han desplazado a lo largo de periodos de tiempo geológicos (teoría de la tectónica de placas). Al igual que estas otras teorías científicas fundacionales, la teoría de la evolución está apoyada por tantas observaciones y experimentos confirmadores que los científicos tienen la confianza en que sus componentes básicos no serán revocados por nuevas pruebas.”
Por su parte, la Asociación Estadounidense para el Avance de la Ciencia nos lo explica así: “En las novelas detectivescas, una ‘teoría’ es poco más que una conjetura, a menudo basada en unos pocos hechos circunstanciales. En ciencia, la palabra ‘teoría’ significa mucho más. Una teoría científica es una explicación bien sustentada de algún aspecto del mundo natural, en base a un conjunto de hechos que se han confirmado repetidamente mediante la observación y la experimentación. Tales teorías apoyadas en hechos no son ‘conjeturas’ sino descripciones fiables del mundo real.”
Es cierto que a veces se ha abusado de la palabra teoría para dar unte a hipótesis en distintos estados de verificación o refutación. Pero esto es la excepción, no la norma. - 162 -
La Pizarra de Yuri 1
También existen algunos flecos epistemológicos sobre los límites de la teoría como orden superior del conocimiento. A efectos prácticos, en la inmensa mayoría de los casos que te encontrarás a lo largo de tu vida puedes considerar la expresión teoría científica como sinónimo de conocimiento demostrado sin mucho temor a equivocarte (siempre que esté correctamente estudiada y referenciada). Como ocurre, por ejemplo, con la Teoría de la Relatividad. En términos generales, puedes permitirte una sonrisa a costa de quienes digan “¡eso sólo son teorías!” refiriéndose a una teoría científica. No olvides sacarles de su error. ¿Un ejemplo de teoría científica a la que difícilmente se puede considerar teoría verdadera? Pues la Teoría de Cuerdas, por ejemplo, pese a su popularidad. ¿Por qué? Porque algunos de sus aspectos más importantes no sonfalsables ni han sido demostrados (ni es probable que ocurra en un largo periodo). Con la única excepción de algunas cuestiones vinculadas a la correspondencia AdS/CFT, no realiza ninguna predicción verificable. Se trataría más bien de un modelo o una hipótesis compleja, que puede ser verdadera o falsa, pero desde luego no reúne todavía la clase de confirmación exigible a una auténtica teoría científica. Por otra parte, todas las llamadas ciencias blandas permiten en sus teorías un grado mayor de especulación, a diferencia de los estrictos criterios utilizados en las duras (física, química, astronomía, geología y biología). Esto no quiere decir que las teorías blandas sean necesariamente falsas o exclusivamente especulativas: sólo que sus conclusiones rara vez gozan de la misma exactitud y certeza. Una diferencia sustancial entre ambas es que las blandastienden a preferir el análisis cualitativo, mientras las duras se apoyan sobre todo en el cuantitativo. Planeando nuestro viaje en la Abbás Ibn Firnás.
- 163 -
Antonio Cantó
El sistema solar tal como estará a las 00:00 UTC del 6 de agosto de 2020, en vista superior. Simulador del sistema solar, NASA. (Clic para ampliar)
Hecha esta aclaración, sigamos adelante. Nos proponemos realizar un viaje desde la órbita de la Tierra hasta la de Plutón, lo más cerca que podamos de la velocidad de la luz. Después, regresaremos a la Tierra para almorzar. Cuando pasemos por Saturno, nos detendremos unos momentos para tomar algunas mediciones. Puesto que a altas velocidades maniobrar resulta muy complicado y se viaja fundamentalmente en línea recta, y dado que con la clase de empuje que nos gastamos podemos obviar en gran medida las órbitas habituales, realizaremos nuestro recorrido en tres tramos rectos: Tierra-Saturno, Saturno-Plutón y Plutón-Tierra. ¿El motivo del viaje? ¡Aprendizaje y placer, claro! Para ahorrar algo de combustible, hemos elegido un día en que estos tres planetas se hallen bien dispuestos: el 6 de agosto de 2020. En ese momento, Venus, Tierra, Júpiter, Saturno y Plutón estarán en una magnífica alineación. Sí, quizás es un poco pronto para que pueda existir algo como la Abbás ibn Firnás, pero por optimismo que no quede. A fin de cuentas, la semana pasada lo hicimos con trajes de cuero de unicornio translumínico y visores de la isla de San Borondón. ;-) Esto de la dilatación temporal, que ya mencionamos más arriba, va a producir un fenómeno curioso. Para el resto del mundo, nuestro viaje de ida y vuelta a Plutón va a durar cerca de once horas (la distancia dividida por la casi-velocidad de la luz), con lo que si salimos a las 00:00 UTC, regresaríamos a la Tierra más o menos a la hora del almuerzo (lo que en España llamamos almuerzo, lector latinoamericano ;-) ). Sin embargo, este efecto relativista va a contraer el tiempo a bordo de la Abbás ibn Firnás, con lo que para nosotros habrá transcurrido apenas una hora: regresaremos justo a tiempo para un resopón de madrugada. Lo iremos viendo sobre la marcha. ¡Allá vamos! La Dirección Global de Tráfico ha establecido una velocidad máxima de un 20% de la velocidad de la luz en las cercanías de los planetas habitados. Y no sabes las multas que clavan, por no mencionar que los puntos del carné de pilotar se te quedan en números imaginarios (imagina que algún día lo recuperas, tralará…). Así que vamos a respetar escrupulosamente esta limitación: aunque hemos dotado a la Abbás ibn Firnás con un impulsor experimental que posee una capacidad de aceleración asombrosa (de hecho, también imaginaria, al igual que el mecanismo para que no nos aplaste…), saldremos poquito a poco. Además, esto nos permitirá observar el primer fenómeno relativista curioso, que se vuelve evidente incluso a velocidades tan bajas. Поехали!
- 164 -
La Pizarra de Yuri 1
Le damos un poquito de gas a los impulsores y pronto comenzamos a alejarnos del sistema Tierra-Luna. Entonces, al mirar hacia atrás, vemos que está ocurriendo algo extraño. ¿No parece todo ahora como… como oscuro y rojizo?
Partimos en dirección a Saturno, a poco menos del 20% de la velocidad de la luz. Al mirar hacia atrás para despedirnos de la Tierra, observamos que todo parece como más oscuro y rojizo.
Este corrimiento al rojo a nuestra espalda es el primer fenómeno relativista notable que vamos a observar. Si tuviéramos un objeto delante, veríamos que éste se ha corrido al azul. Pero ahora, frente a nosotros, sólo hay ya espacio interplanetario; así que por el momento no te lo puedo enseñar (lo veremos más adelante, cuando nos estemos aproximando a Saturno). Esta transformación de colores obedece al efecto Doppler, ese que hace que oigamos el ruido de un vehículo más agudo cuando se acerca y más grave cuando se aleja; sólo que bajo la forma deefecto Doppler relativista. La razón es bastante sencilla: cuando se mueve un emisor de ondas (de sonido, de luz, las que sean), estas ondas tienden a quedar comprimidas en el sentido de la marcha (lo que equivale a una menor longitud de onda, o sea una frecuencia mayor) y a quedar expandidas hacia atrás (con mayor longitud de onda, es decir, a frecuencia menor).
- 165 -
Antonio Cantó
Efecto Doppler
Por tanto, cuando estamos delante de un objeto que viene hacia nosotros percibimos las ondas que emite a una frecuencia superior. Y cuando se aleja, a una frecuencia inferior. El efecto Doppler aplicado a la luz provoca el corrimiento al rojo estelar que nos permitió descubrir que este es un universo en expansión, y también nos permite calcular las distancias a estrellas y galaxias remotas (porque la longitud de onda aumenta de manera conocida, y eso se puede medir). Si alguna parte del cosmos visible no estuviera expandiéndose o estuviéra contrayéndose, no observaríamos corrimiento al rojo u observaríamos corrimiento al azul (es decir: la longitud de onda percibida se reduciría). Pero tal cosa no sucede en ningún lugar observado jamás. Y es que el efecto Doppler se produce tanto si se mueve el objeto emisor de ondas como si se mueve el receptor(nosotros). Da igual si el emisor se aleja de nosotros o nosotros de él: la longitud de onda percibida aumentará, desplazándose hacia los graves (si es un sonido) o hacia los rojos (si es luz). Lógicamente, tanto si el emisor se acerca a nosotros como si nosotros nos acercamos a él, la longitud de onda percibida se reduciría, desplazándose hacia los agudos (si es un sonido) o hacia los azules (si es luz). Miremos de nuevo hacia adelante. Como ya nos hemos alejado lo suficiente de la Tierra, la Dirección Global de Tráfico ya nos permite acelerar a velocidades muy superiores. Conforme nos acercamos a la mitad de la velocidad de la luz, parece como si toda la luz y las estrellas que hay delante de nosotros se comprimieran hacia un lugar brillante, directamente al frente:
- 166 -
La Pizarra de Yuri 1
Vista hacia adelante a la mitad de la velocidad de la luz.
Mientras que, si miramos hacia atrás, ese oscurecimiento que ya habíamos observado junto con el corrimiento al rojo aumenta más y más. Las estrellas parecen haberse desplazado hacia el frente. La Tierra se distingue a duras penas ahora, negruzca y tan rojiza que su luz se corre rápidamente hacia el infrarrojo, invisible para nuestros ojos:
- 167 -
Antonio Cantรณ
Vista hacia atrรกs a la mitad de la velocidad de la luz. Quizรกs tengas que ajustar el monitor o la luz ambiente para distinguir la Tierra, fuertemente corrida al rojo por efecto Doppler relativista y oscurecida por aberraciรณn estelar.
Cuando alcanzamos el 80% de la velocidad de la luz, este efecto es ya clamoroso:
Vista hacia adelante al 80% de la velocidad de la luz.
Mientras que, si miramos ahora hacia atrรกs, ya no se ve absolutamente nada y seguiremos sin verlo mientras prosiga el viaje a estas velocidades:
- 168 -
La Pizarra de Yuri 1
Vista hacia atrás al 80% de la velocidad de la luz.
Este fenómeno de “distorsión de la luz hacia el sentido de la marcha” se llama aberración estelar, que en su variante relativista es directamente proporcional a la velocidad con que nos movemos hacia estas estrellas. Se entiende muy bien con el famoso ejemplo del tren que viaja en un día lluvioso pero sin viento; supongamos que nos subimos a este ferrocarril y tomamos asiento de ventanilla. Mientras el tren permanezca detenido en la estación, veremos caer la lluvia así:
Caída de la lluvia a velocidad 0.
En cuanto el tren se ponga en marcha, nos parecerá que las gotas de agua comienzan a caer con un cierto ángulo. Cuando la velocidad del tren iguala a la velocidad de caída de la lluvia (imagen central, abajo), este ángulo es de 45º exactos. Cuanto más rápido vayamos, más observaremos este efecto; y a gran velocidad, se nos antojará que caen casi horizontales aunque en todo momento la lluvia está cayendo directamente hacia abajo: - 169 -
Antonio Cantó
Caída de la lluvia a distintas velocidades
Por su parte, al maquinista le parecerá que la lluvia cae hacia él, cada vez más y más horizontal, procedente de un punto central en el cielo. Y el factor que se ha escaqueado un ratillo en la cabina del final, mirando hacia atrás, tendrá la impresión de que ninguna gota de agua cae hacia el tren. Sustituyendo las gotas de agua por haces de luz, empezaremos a comprender por qué si miras hacia atrás ya no se ve nada (ningún haz de luz alcanza tus ojos); mientras que en el puesto de conducción frontal, toda la luz parece proceder más y más de un solo punto central. Conforme seguimos acelerando, este efecto se va volviendo más evidente. La aberración óptica clásica, que parece desplazar la posición de las estrellas en el cielo, funciona igual que estas gotas de lluvia. Pero la aberración relativista requiere algo más. Como nada puede viajar más rápido que la luz en el vacío, incluso viajando a la velocidad de la luz (si fuera posible) tendríamos la sensación de que la luz se inclina en un ángulo de 45º (nuestra velocidad sería igual a la “velocidad de caída” de la luz). Sin embargo, en Relatividad hay que aplicar la llamada transformación de Lorentz. Entonces, el ángulo de incidencia aparente de la luz vuelve a reducirse, aproximándose a cero: exactamente igual que pasa con las gotas de lluvia cuando nuestro ferrocarril circula a alta velocidad. El resultado final, combinado con el efecto Doppler que vimos más arriba, viene a ser como sigue:
Resultado combinado del efecto Doppler y la aberración relativista en un objeto que se aproxima a la velocidad de la luz. El punto azul es nuestra nave espacial.
- 170 -
La Pizarra de Yuri 1
Instrumentos de la Abbás ibn Firnás al 80% de la velocidad de la luz. Va observándose la dilatación temporal: el tiempo de a bordo ("proper time") ya no se corresponde con el "tiempo del mundo" ("world time").
Ahora vamos a fijarnos por un instante en el panel de instrumentos de la Abbás ibn Firnás, que podemos ver a la izquierda. Hemos recorrido los primeros cien segundosluz, unos treinta millones de kilómetros, pero esto no es lo más notable. Lo más notable es que el tiempo de a bordo ya diverge claramente del tiempo exterior. En la Tierra han transcurrido 188 segundos desde nuestra partida, pero para nosotros han pasado sólo 149. Ya apuntamos este asunto más arriba: estamos ante la dilatación temporal. Y también ante la compresión espacial: si alguien nos viera pasar desde fuera, le daría la impresión de que estamos como achatados o comprimidos en el sentido de la marcha. ¿Cómo es esto posible? Venga, va, esta es la rayada padre de la Relatividad, que mucha gente acepta porque le dicen que es así pero no se lo acaba de creer aunque –como te conté más arriba– obligue a estar ajustando constantemente los relojes de los satélites. Hasta en aviones se ha llegado a medir. Bien, tenemos un problema aquí: esto no se puede explicar, ni siquiera contar el porqué, sin introducir todo el aparato matemático de la Teoría de la Relatividad. Por suerte, para al menos relatárnoslo, contamos con nuestro añorado amigo Carl Sagan; no voy a tratar yo de repetir torpemente en unas pocas líneas lo que él narró genialmente:
Carl Sagan hablando sobre la Relatividad en Cosmos (ve siguiendo las partes consecutivas). De paseo por el sistema solar. Hemos seguido acelerando la Abbás ibn Firnás hasta su velocidad de crucero, que es el 99,9% de la velocidad de la luz. Todos los efectos mencionados anteriormente se han magnificado muchísimo y lo que podemos ver ahora desde nuestro puesto de mando es esto:
- 171 -
Antonio Cantó
Vista hacia adelante al 99,9% de la velocidad de la luz.
La aberración relativista resulta ahora enorme y la dilatación temporal es tal que por cada segundo a bordo transcurren unos 23 en la Tierra. Este efecto túnel de luz se debe fundamentalmente a la aberración. A esta pavorosa velocidad, de unos 299.500 kilómetros por segundo, nuestro sistema solar se convierte en un sitio pequeño. Estamos dando un paseo por el barrio para abrir el apetito, como si dijéramos. Enseguida tenemos que empezar a frenar, porque nos estamos acercando ya a Saturno… y frenar una cosa que avanza al 99,9% de la velocidad de la luz requiere tanto tiempo y energía como acelerarla. ¡Ahí está! Qué bonito es, ¿verdad? Como te dije, lo vemos fuertemente corrido al azul debido al efecto Doppler, puesto que aún nos estamos aproximando a él al 41% de la velocidad de la luz:
- 172 -
La Pizarra de Yuri 1
AproximaciĂłn a Saturno al 41% de la velocidad de la luz.
Seguimos frenando para sobrepasarlo a una velocidad inferior al 1% de la lumĂnica, con objeto de tomar esas medidas que querĂamos hacer. Al reducir la velocidad, los efectos relativistas van desapareciendo y Saturno se nos presenta en todo su esplendor y con su color habitual:
- 173 -
Antonio Cantó
Llegada a Saturno al 0,001 % de la velocidad de la luz, es decir, unos 10.800 km/h (3 km/s).
Fijándonos en los instrumentos, observamos que –incluyendo la aceleración, el frenado y alguna otra pequeña maniobra– en la Tierra han transcurrido 4.500 segundos desde nuestra partida: una hora y cuarto. Sin embargo, a bordo sólo han pasado 701 segundos, poco más de once minutos. Este es el efecto de la dilatación temporal, que nos permitiría circunnavegar el universo conocido en pocas décadas utilizando una nave sólo un poco más rápida que laAbbás ibn Firnás, aunque la Tierra, el sistema solar, la galaxia y el universo conocido se hubieran reducido a polvo cósmico mientras tanto. ¿Más rápida que la Abbás ibn Firnás, capaz de viajar al 99,9% de la velocidad de la luz en el vacío? Sí. Como hemos dicho, al 99,9%, cada segundo a bordo equivale a unos 23 segundos exteriores. Y, por tanto, y un año a bordo son veintitres años para el resto del mundo. Bien: pues al 99,99%, un decimal más, cada año nuestro equivaldría a 71 años en el exterior. Al 99,99999999%, a setenta mil años. Y al 99,9999999999999%, a dos millones y medio de años. Es decir: con esta última velocidad, podríamos llegar a la galaxia Andrómeda en menos de un año de viaje para nosotros, aunque en el resto del universo hubieran pasado los dos millones y medio enteros. Esto de la dilatación temporal relativista lo vamos a ver aún mejor conforme completemos nuestro viaje. Muy bien: ya hemos medido lo que queríamos medir aquí y aceleramos de nuevo para seguir hacia Plutón. Al alejarnos, igual que sucediera cuando salimos de la Tierra, miramos hacia atrás y vemos cómo Saturno se corre al rojo mientras la luz vuelve a distorsionarse hacia el sentido de la marcha:
- 174 -
La Pizarra de Yuri 1
Partida de Saturno al 15% de la velocidad de la luz, mirando hacia atrás.
También observamos cómo se oscurece, debido a la aberración óptica que tiende a concentrar la luz hacia el sentido de la marcha. Muy bien, pues ahora viene un tramito largo. Nos vamos hasta Plutón, que está a unos 5.750 millones de kilómetros de la Tierra y 4.470 millones de nuestra posición actual. Lo recorreremos al 99,9% de la velocidad de la luz, teniendo de nuevo como único paisaje el túnel de luz que observamos más arriba. Como vamos a tardar un ratito en llegar, aprovecharé para mencionarte otro efecto óptico relativista que no vamos a ver durante este viaje, porque ya me he encargado de que no nos cruzáramos con nada por el camino. Este fenómeno es la rotación de Terrell, que se produce cuando un objeto pasa ante nuestros ojos a velocidades relativistas. En este caso, debido a fenómenos muy parecidos a los que estamos observando, el objeto aparece distorsionado, girado con respecto a nuestra posición y oscurecido:
- 175 -
Antonio Cantó
La rotación de Terrell. En la imagen superior, un tranvía pasa ante nuestros ojos a velocidades lentas comunes; no se observa ninguna distorsión notable. En la imagen inferior, el mismo tranvía se desplaza a velocidad relativista: la rotación de Terrell hace que nos presente "girado" con respecto a nuestra posición. La contracción espacial, el efecto Doppler y la aberración óptica, además, lo distorsionan y oscurecen.
Fin del inciso. El trayecto Saturno-Plutón dura diecisiete minutos para nosotros; en la Tierra, sin embargo, han transcurrido otras cuatro horas y cuarto largas. Bien, ahí lo tienes, arriba a la derecha:
- 176 -
La Pizarra de Yuri 1
En Plutón
Ya, es un planetoide eternamente congelado en los confines del sistema solar. ¿Qué te esperabas? Bueno, venga, vámonos de vuelta para la Tierra, que se hace tarde. Pon a cero los cronómetros para calcular los tiempos del viaje de regreso. Y… ¡adelante!
- 177 -
Antonio Cantó
Los límites del universo observable se encuentran establecidos actualmente en unos 46.500 millones de años luz. Una nave espacial capaz de mantener una aceleración constante de 1g podría circunnavegarlo entero durante la vida de sus ocupantes humanos.
¿Son posibles estas velocidades? Posibles, en sentido estricto, sí: matemáticamente, no hay ningún problema en acelerar un objeto de manera constante. Si yo acelero una nave espacial a una ge (9,81 m/s2), para que la tripulación vaya cómoda y ni se entere, en cinco años de a bordo (84 para los demás) estaré al 99,9% de la velocidad de la luz. En diez años y pico, al 99,9999999%. En menos de doce, puedo estar al otro lado de la galaxia. En diecisiete y algún mes, al 99,9999999999999%, y habré recorrido más de veinte millones de años luz (en todos los casos, luego necesitaré otro tanto para frenar). En 52 años, aproximadamente una vida adulta humana, podríamos recorrer 439.070 millones de años luz (26 años acelerando y 26 frenando). Esto conduce a una conclusión curiosa. El radio del universo observable, en estos momentos, es de unos 46.500 millones de años-luz. Y por tanto, aplicando la elemental ecuación P = 2πr, su perímetro es de 292.169 millones de años luz. Esto es: en algo menos de cincuenta y dos años, efectivamente, se puede circunnavegar el universo observable actual entero. Y cuanto mayor es la distancia, más eficaz resulta esta forma de viajar. El universo entero está a nuestro alcance si conseguimos construir una nave capaz de mantener una aceleración sostenida de una ge durante unas décadas. Y, por supuesto, si no nos importa hacer un viaje sólo de ida en el tiempo: para el resto del cosmos, habrían pasado todos esos miles de millones de años. Como ni conocemos ni sospechamos forma posible alguna de viajar hacia atrás en el tiempo, en el siglo que lleguemos nos quedamos. Por esas fechas, haría ya mucho que nuestro Sol se habría convertido en una enana blanca, pero estaríamos aún muy dentro de la Era Estelífera: en un universo todavía ocupable y utilizable, por mucho. ¿Es realizable una nave espacial así? Puesss… no lo sabemos. :-D Como te dije al principio, con la tecnología actual, desde luego que no. Sin embargo, la ciencia actual ya viene planteando algunas posibilidades muy interesantes, que te contaré cuando hablemos más en profundidad de la Abbás ibn Firnás. Preguntarnos ahora mismo si algún día habrá naves espaciales de empuje constante capaces de aproximarse a la velocidad de la luz sería como preguntarle a un señor del siglo XVII si sería posible construir aviones supersónicos. Bueno, no tanto. Nosotros empezamos a teneralgunas aproximaciones. Esto es, pues, algo que pertenece al reino del ya veremos. Ah, sí, como en el camino de vuelta tenemos que volver a pasar muy cerca de Saturno, vamos a aprovechar para observar la acción de todos estos efectos ópticos relativistas
- 178 -
La Pizarra de Yuri 1
cuando sobrepasamos un objeto próximo. Prepara la cámara y mucha atención, porque el sobrevuelo va a ser muy breve, yendo como vamos de nuevo al 99,9% de la velocidad de la luz. Atención… atención… ¡ya!
Sobrevuelo de Saturno al 99,9% de la velocidad de la luz (toma 1).
- 179 -
Antonio Cantó
Sobrevuelo de Saturno al 99,9% de la velocidad de la luz (toma 2).
Extraño, ¿eh? El tramo Plutón-Tierra dura diecinueve minutos y medio a bordo de la Abbás ibn Firnás, aceleraciones y frenazos incluidos, pero en la Tierra transcurren otras cinco horas y media largas. Así pues, nuestro viaje hasta los confines del sistema solar se está tomando casi once horas terrestres; y sin embargo, aquí a bordo sólo han pasado cincuenta minutos. Ahora ya estamos llegando a casa y hay radares de la DGT, o sea que reducimos la velocidad por debajo del 20% de la lumínica y nos aproximamos con cuidadito. Podemos ver la Tierra, la Luna y hasta el Sol corridos al azul, pues nos estamos acercando a ellos:
- 180 -
La Pizarra de Yuri 1
Llegando a la Tierra al 19% de la velocidad de la luz.
Y, finalmente, nos establecemos de nuevo en una órbita de aparcamiento alrededor de la Tierra. Los fenómenos ópticos relativistas dejan de ser evidentes (aunque siguen ahí). Ya nos podemos ir a almorzar (según el tiempo terrestre) o a recenar (según nuestro tiempo de a bordo). A tu criterio. El resto del domingo, te lo dejo libre.
- 181 -
Antonio Cantó
La Abbas ibn Firnás se halla estacionada en órbita alrededor de la Tierra.
Continuará: La nave espacial Abbás ibn Firnás
- 182 -
La Pizarra de Yuri 1
La bomba del juicio final. Yuri, el 21 de octubre de 2010 @ 15:32 · Categoría: Ciencia popular, Sociedad y civilización, Tecnología
Autoextinción humana. En este blog ya te he contado cómo funciona un arma nuclear. Y un arma termonuclear. Y un misil balístico intercontinental. Y unas cuantas cosas más, como las posibilidades reales de los satélites espías, los aviones sin piloto o las armas láser. Hasta hemos hablado del HAARP y la bomba del arco iris, para acabar con la civilización moderna en menos de un segundo, aunque tenga poco que ver con las especulaciones de los conspiranoicos. ¿Qué nos falta? Bueno, pues aún nos faltan cosas, claro. En esto de aplicar el ingenio para joder al prójimo (en ambos sentidos del término, el bueno y el malo), los seres humanos hemos resultado ser un bicho excepcionalmente brillante. Claro que, por otro lado, también fuimos capaces de erradicar la viruela y otras muchas enfermedades, realizarviajes interplanetarios, crear elementos nuevos, empezar a comprender el cosmos del que formamos parte y otras mil cosas que nos permitieron abandonar un pasado de mierda. Sí, los seres geniales siempre son así de contradictorios. Un delfín jamás construiría un Treblinka nazi, ni podría organizar a los jemeres rojos, ni perpetraría lacolonización imperialista del Congo, ni funda tiranías teocráticas, ni se dota de dioses vengativos; pero tampoco es capaz de traer niñas pequeñas desde más allá de la muerte o preguntarse con quién más comparte la realidad. En suma, colectivamente y a pesar de todos los pesares, según mi personal opinión no nos ha ido del todo mal desde que echamos a andar por los caminos de la ciencia.
Leó Szilárd a los 18 años de edad.
Hablando de seres muy geniales y muy contradictorios, permíteme presentarte al físico de origen húngaro Leó Szilárd, discípulo de Einstein y Von Laue. Hay distintas maneras de describir al doctor Szilárd, todas ellas a medio camino entre “el jodío genio” y “el - 183 -
Antonio Cantó
puto amo”, pero elevado al cubo y multiplicado por alguna potencia de diez. Resulta difícil sobreestimar su inteligencia, capacidad y visión de futuro. Entre sus aportaciones a la humanidad se cuentan el motor de Szilárd, el refrigerador por absorción y la reacción nuclear en cadena que abrió el paso a la Era Atómica. Junto con Enrico Fermi, es el inventor del reactor nuclear. Desafortunadamente, sus creaciones también incluyen la bomba atómica (solicitó la patente en fecha tan temprana como 1934) y una hipotética bomba del juicio final capaz de acabar con la humanidad entera, que vamos a comentar en este post. A tenor de estas dos últimas invenciones se podría pensar que el doctor Szilárd, por muy genial que fuese, era también un pelín hideputa. Nada más lejos de la realidad. Leó Szilárd, un judío secular de ideas izquierdistas y esencialmente pacifista, estaba considerado por todos los que le conocieron como un tipo estupendo, una bellísima persona y un trabajador nato: la clase de hombre con el que cualquiera se iría a tomar cañas y no te importaría si le tirara los trastos a una hija tuya aunque fuese algo extravagante. Se decía sobre él que de tan bueno y cariñoso y currante y genial, casi daba miedo. Aunque era el padre de la bomba atómica y el verdadero redactor de la carta de Einstein a Roosevelt para recomendar su construcción, fue también el impulsor de la carta de los 155 para pedir que no se usara contra poblaciones civiles, sino que se realizara una demostración disuasoria en lugar despoblado. Obviamente, en esto último no le hicieron ni caso. Persistente, fundó junto a gente como Einstein o Linus Pauling la primera organización pacifista y antinuclear del mundo: el Comité de Emergencia de los Científicos Atómicos. Más tarde, el Council for a Livable World. Y en cuanto llegó a la conclusión de que este nuevo tipo de armamento devastador había llegado para quedarse, no quiso tener nada más que ver en el asunto y cambió de profesión: se hizo biólogo molecular. Sí, hablamos de la clase de inteligencia que es capaz de saltar de la física atómica a la biología molecular como quien se cambia de pantalones y continuar realizando contribuciones valiosas. ¿Qué es lo que empuja a un tipo tan listo y tan majo para convertirse en el padre de las armas nucleares y en el teórico de la bomba del juicio final? Sencillo: el miedo. Además de todas estas capacidades, Szilárd era un brillante analista político que supo predecir el advenimiento de la Primera Guerra Mundial, el ascenso de los nazis al poder y su conquista de Europa. Esto le empujó, judío y rojillo como era, a residir en hoteles con la maleta siempre preparada. En 1933, el mismo año en que Hitler se convertía en canciller de Alemania, dijo aquello de “estos aquí no me pillan de pardillo” y se marchó a vivir en el Reino Unido para trabajar con Ernest Rutherford. En 1936, entregaba al
- 184 -
La Pizarra de Yuri 1
Almirantazgo Británico la patente de la bomba atómica que poseía con el propósito de garantizar su secreto.
Leó Szilárd con Albert Einstein.
Aún le debió parecer que no había puesto suficiente océano por medio entre su persona y el régimen de Herr Hitler. En 1938, un año antes de que empezara la Segunda Guerra Mundial, aceptó una propuesta de la Universidad de Columbia y se mudó a Nueva York. Durante este proceso se fue encontrando con otrosrefugiados atómicos huídos de los nazis como Enrico Fermi, Edward Teller, Eugene Wigner, Lise Meitner,Hans Bethe o el propio Albert Einstein (y posteriormente con Niels Bohr): la más magnífica colección de cerebros reunida jamás, todos con un miedo y un enemigo común. Desde allí, Szilárd seguía con atención los avances alemanes en física nuclear hasta que éstos fueron clasificados. Entonces, temiendo que la Alemania nazi pudiera construir una bomba atómica y apoderarse del mundo con ella, sugirió a Einstein que firmara la cartita de marras a Roosevelt. El resto es historia. Y, derrotados ya los nazis y sus aliados euroasiáticos excepto Franco, ¿a qué vino el puntito de la bomba del juicio final, postulada en febrero de 1950? Pues a una razón un poco más retorcida, pero también sustentada en el temor: observando cómo la Humanidad se deslizaba hacia una posible guerra nuclear, Szilárd quiso advertir a todo el mundo de los peligros de seguir semejante camino por el procedimiento de meterles el miedo en el cuerpo. Quiso decir que por esa vía íbamos propulsados a la
- 185 -
Antonio Cantó
autodestrucción de la humanidad, a la extinción, y que lograrlo de manera absoluta sería tan sencillo como… como esto: Destrucción mutua asegurada por la vía de la extinción. Lo que vino a decir Szilárd es que cualquier potencia nuclear sometida al terror absoluto de la devastación atómica, incluso ya derrotada, podía garantizar la destrucción mutua asegurada mediante una última y definitiva represalia total sin salir siquiera de su propio territorio por el expeditivo procedimiento de matar a todo el mundo literalmente; con lo que no tenía sentido intentar vencer en una guerra así, ni gastar recursos para prepararla, porque estaba empatada a cero de antemano. A población cero, quiero decir. En aquellos momentos de principios de la Era Atómica, esta idea le parecía exageradísima a los políticos, a los militares y a buena parte de la sociedad. En 1950 faltaba casi una década para el desarrollo del primer misil balístico intercontinental, la URSS acababa de detonar su primera bomba nuclear, el número de núcleos explosivos en todo el mundo ascendía a unas pocas decenas y aún iba al colegio buena parte de la gente que se apuntaría entre sí con decenas de miles de cabezas termonucleares veinte o treinta años después. El invierno nuclear ni se sospechaba todavía. Por lo que respectaba a los presidentes y generales, las armas atómicas eran aún sólo una bomba gorda (en el sentido explosivo, pero también por su peso) que había que transportar trabajosamente hasta sus blancos con bombarderos emergidos de la Segunda Guerra Mundial. Sin embargo, científicos de la talla de Szilárd ya preveían lo que se avecinaba y quisieron dar la alarma. Pero los políticos, militares, periodistas y el público estaban muy cegados con sus delirios atómicos de grandeza, poder, éxito y falsa seguridad.
Gráfico en la patente original de Leó Szilárd para una cierta "bomba atómica" (1934)
- 186 -
La Pizarra de Yuri 1
Así que Szilárd quiso hacerles ver la realidad. Y el hombre tan bondadoso que daba miedo se sentó y pergeñó un arma capaz de exterminar a la especie humana entera con una sola explosión o un número muy reducido de explosiones en cualquier parte del mundo. Quizá así toda aquella gente poderosa se aviniera a razones. No podían estar tan locos, ¿no? Quizá la gente escucharía. Incluso usando bombas termonucleares, por aquellos tiempos aún en el tablero de diseño, causar un daño directo a la Tierra tan grande que condujera a la extinción humana completa resultaba impracticable –y en gran medida sigue siéndolo, en ausencia de tecnologías de la antimateria y sin tener en cuenta el invierno nuclear o los efectos sinérgicos de una gran cantidad de detonaciones durante el transcurso de una guerra termonuclear a gran escala–. Así que Szilárd fue por otro camino: dado que todos los seres humanos dependemos de la estrecha franja vertical de aire respirable que rodea a la Tierra y los primeros metros de mar, si esta capa (y/o el suelo) resultara contaminada con dosis mortíferas de radiación por todo el globo durante el tiempo suficiente, entonces la bomba del juicio final sería posible. Tendría que ser una bomba sucia o, más técnicamente, un arma de radiación residual incrementada. Sin embargo, esto resulta más fácil de decir que de hacer. Por un lado, no hay isótopos que sean al mismo tiempo muyradioactivos y muy duraderos: cuanto más activo es un isótopo, antes se consume. O, dicho más técnicamente, menor es su vida media y antes transmuta en otras cosas que no son radioactivas o son poco radioactivas. Por otro, cubrir cada kilómetro cuadrado de la Tierra con suficiente cantidad de isótopos radioactivos como para cargarse a todo bicho viviente requiere una notable cantidad de material. En consecuencia, esta sustancia aniquiladora no puede ser muy cara y el mecanismo de dispersión debe ser extremadamente eficaz. A favor juegan los vientos, que tienden a repartir la contaminación por todo el planeta, como podemos ver en estas simulaciones de 2007 que contemplan distintos escenarios de dispersión de los humos en una guerra nuclear tradicional:
- 187 -
Antonio Cantó
Animación con la diseminación de 5 Tg de humos en caso de guerra nuclear entre India y Pakistán, a partir de un 14 de mayo, utilizando todo su arsenal disponible en 2007. Realizada por Luke Oman, NASA, sobre las conclusiones del estudio de la Universidad de Colorado, la Universidad Rutgers y la Universidad de California en Los Angeles: Climatic Consequences of Regional Nuclear Conflicts (en Atmospheric Chemistry and Physics, 7, 2003–2012, 2007). El modelo computacional utilizado es el ModelE del Centro Goddard de la NASA. Esta diseminación provocaría fuertes alteraciones climáticas y problemas agrícolas pero probablemente no un invierno nuclear global.
- 188 -
La Pizarra de Yuri 1
Animaci贸n con la diseminaci贸n de 50 Tg de humos en caso de guerra nuclear entre Estados Unidos y Rusia, a partir de un 14 de mayo, utilizando un tercio de su arsenal disponible en 2007. Realizada por Luke Oman, NASA, sobre las conclusiones del estudio de la Universidad John Hopkins y la Universidad Rutgers: Nuclear winter revisited with a modern climate model and current nuclear arsenals: Still catastrophic consequences (en Journal of Geophysical Research, Vol. 112:2007, D13107, doi:10.1029/2006JD008235.). El modelo computacional utilizado es el ModelE del Centro Goddard de la NASA. Esta diseminaci贸n provocar铆a con bastante probabilidad un invierno nuclear global.
- 189 -
Antonio Cantó
Animación con la diseminación de 150 Tg de humos en caso de guerra nuclear entre Estados Unidos y Rusia, a partir de un 14 de mayo, utilizando todo su arsenal disponible en 2007. Realizada por Luke Oman, NASA, sobre las conclusiones del estudio de la Universidad John Hopkins y la Universidad Rutgers: Nuclear winter revisited with a modern climate model and current nuclear arsenals: Still catastrophic consequences (en Journal of Geophysical Research, Vol. 112:2007, D13107, doi:10.1029/2006JD008235.). El modelo computacional utilizado es el ModelE del Centro Goddard de la NASA. Esta diseminación provocaría con gran probabilidad un invierno nuclear global fuerte y prolongado.
Esta acción de los vientos es clave para el diseño de la bomba del juicio final: si se consigue propulsar a la alta atmósfera suficiente cantidad de material fuertemente irradiado y capaz de mantener la radioactividad durante un periodo prolongado, en vez de un invierno nuclear nos hallaríamos ante un verano radiológico… y muy calentito. Pero, ¿qué clase de material puede ser este? ¿Y cómo aseguraremos su diseminación de semejante modo?
- 190 -
La Pizarra de Yuri 1
Cobalto natural (cobalto-59) refinado electrolíticamente, con una pureza del 99,9%. Mediante activación neutrónica se transforma en cobalto-60, un isótopo radioactivo con 5,26 años de vida media, potente emisor de radiación gamma.
La bomba-C. Szilárd consideró varios isótopos posibles para su bomba del juicio final y finalmente se centró en cuatro: el cobalto-59, el oro-197, el tantalio-181 y el zinc-64. Para la propulsión, lo tuvo claro: una bomba termonuclear de alta potencia, muchos megatones, sobradamente capaz de proyectar el material a la estratosfera y más allá. Ninguno de todos estos isótopos es radioactivo en condiciones normales: se trata de elementos corrientes bajo su forma más normal en la naturaleza. El oro es raro y caro, así como el tantalio, pero zinc hay a patadas y el cobalto se extrae a razón de más de 50.000 toneladas anuales. La idea radica en que, sometidos a la intensa radiación neutrónica generada por un explosivo termonuclear, estos cuatro elementos absorben un neutrón y pasan a convertirse –respectivamente– en cobalto-60, oro-198, tantalio-182 y zinc-65. Y, mi estimado lector, mi estimada lectora, eso no es la clase de cosa que quisieras ver en el aire que respiras. Los cuatro son inestables y virulentamente radioactivos. Si prescindimos del oro y el tantalio por caros, el zinc-65 tiene una vida media de 244 días y el cobalto-60, de cinco años y cuarto antes de que 1/e del material vuelva a estabilizarse. Así pues, la bomba del juicio final de Leó Szilárd, el pacifista bondadoso, sería una bomba de cobalto. Existe un dispositivo médico para radioterapia llamado comúnmente bomba de cobalto, con gran utilidad en el tratamiento del cáncer. Sin embargo, la bomba de cobalto de Szilárd tiene poco que ver: sólo se parecen, de forma
- 191 -
Antonio Cantó
bastante paralela, en su mecanismo de acción a nivel nuclear. La cuestión en ambos casos es que el cobalto-60 emite dos rayos gamma para convertirse en níquel corriente, con una energía 320 veces superior a la del radio; y sigue haciéndolo durante mucho tiempo. En su potencial aplicación militar, asegura una notable cantidad de fuentes de radiación gamma repartiéndose por toda la atmósfera y permaneciendo en ella o en el suelo y el mar a lo largo de años. Para que nos hagamos una idea: en una bomba termonuclear de fisión-fusiónfisión corriente, la contaminación producida por la funda exterior o el tamper interior de uranio-238 es muy intensa al principio pero decae rápidamente. Una hora después de la explosión de un arma termonuclear normal, la radiación emitida por los productos derivados del U-238 es 15.000 veces más intensa que la ocasionada por el cobalto-60. Una semana después, 35 veces más. Un mes después, cinco veces. A los seis meses, son iguales. Pero en un año la radiación generada por el cobalto-60 es ocho veces superior a la de los productos resultantes de la fisión del uranio-238, y a los cinco años, 150 veces más intensa. El cobalto asegura que la radiación producida por una explosión atómica perdurará durante tiempo prolongado. Toda vida expuesta a esta radiación irá deteriorándose y ocasionalmente mutando, en una especie deHiroshima interminable que puede extenderse a lo largo de décadas antes de que la radioactividad retorne a cifras sensatas. Si se consigue cubrir todo el planeta con cobalto-60, las probabilidades de supervivencia para la especie humana son francamente limitadas: vendría a ser algo así como someter a toda la humanidad a radioterapia permanente.
Disposición especulativa de una posible "carga del juicio final". 1.- Acceso / control. 2.- Operaciones / mantenimiento. 3.- Generador eléctrico autónomo. 4.- Controlador automático (posible "mano del hombre muerto"). 5.- Carga termonuclear de alta potencia. 6.- "Balsa" de cobalto. - Esta disposición provocaría también que, si alguien atacara la instalación con un arma nuclear, ocasionaría parcialmente el efecto que pretende evitar. (Clic para ampliar)
Dicen que Szilárd bautizó su creación como bomba-C. C, de cobalto. Estimó que, por el sencillo procedimiento de sustituir la funda de uranio por otra de cobalto en
- 192 -
La Pizarra de Yuri 1
cuatrocientas de los miles de bombas atómicas que se llegarían a construir, bastaría para cepillarse a la humanidad entera. O, alternativamente, se podría construir un solo gran dispositivo en cualquier lugar. O unos pocos. Y se dedicó a hablar de ella abiertamente, incluso en la radio, buscando provocar la reflexión a través del temor. Inmediatamente, surgieron partidarios del armamento nuclear tratando de demostrar que tal cosa no resultaba posible. James R. Arnold, del Instituto de Estudios Nucleares de Chicago, intentó rebatir su idea sacando los cálculos matemáticos para semejante arma de extinción… y concluyó que era posible, sin duda, con una masa de unas 110.000 toneladas de cobalto. Caro y poco practicable, pero no imposible. Otros estudios redujeron la cifra significativamente. En principio, para cubrir cada kilómetro cuadrado de la superficie terrestre con un gramo de cobalto-60, sólo se requieren 510 toneladas; pero esto supone una dispersión perfecta imposible de obtener. En algún punto entre las 510 y las 110.000 toneladas se encuentra la verdad. Si uno se conforma con asegurar el exterminio en un área determinada, o con hacerle la vida muy difícil al mundo entero aunque no llegue a ocasionar la extinción, la cantidad desciende mucho más. Utilizando cargas múltiples, la eficiencia en la dispersión aumenta enormemente. Pero no fueron estos detractores conversos los que horrorizaron a Szilárd, sino descubrir que le estaban tomando en serio. El geoquímico nuclear Harrison Brown, que se había destacado aislando plutonio para el proyecto Manhattan, declaraba triunfalmente a quien le quisiera escuchar: “las potencias occidentales podrían hacer estallar bombas de hidrógeno-cobalto en una línea norte-sur sobre la longitud de Praga, que destruiría toda vida en una franja de mil quinientas millas de ancho, extendiéndose desde Leningrado a Odessa; y tres mil millas de profundidad, desde Praga hasta los Montes Urales. Este ataque producidía una tierra quemada sin precedentes en la historia.” Diversas autoridades políticas y militares comenzaron a ponerse en contacto con él para considerar las posibilidades de su nueva arma. La gente que tomaba las decisiones no sólo no se había asustado, sino que se estaban interesando en construir esas temibles bombas de cobalto. Quizás fue en este momento cuando el bueno de Leó, que ya era el padre de un arma devastadora y no quería serlo de dos, decidió abandonar definitivamente la física atómica –cosa que ya había empezado a hacer en 1947– y pasarse con armas y bagajes a la biología molecular. No le faltaron acusaciones de traidor, comunista, perroflauta y prosoviético por negarse a seguir desarrollando la bomba del juicio final.
- 193 -
Antonio Cantó
Hasta la más poderosa de las armas termonucleares actuales cabe muy sobradamente en un contenedor estándar de 20 pies, con o sin tamper o funda de cobalto. Incrementar su capacidad contaminante sería tan sencillo como introducir más cobalto común en los contenedores de alrededor, sin ningún límite específico. Un arma así ni siquiera necesitaría entrar a puerto para provocar inmensa mortandad de alcance regional y graves problemas debido al arrastre de la contaminación por los vientos. Una tonelada de cobalto vale actualmente unos 33.000 euros; usando zinc en su lugar, el precio cae a aproximadamente 1.700 euros por tonelada.
¿Pero es realmente practicable? Todos los indicios apuntan a que ni EEUU ni la URSS ni nadie más llegaron a construir realmente una de estas armas de hidrógeno-cobalto. Sin embargo, resulta evidente por sí mismo que no existe ningún motivo por el que no se pueda envolver un arma nuclear o termonuclear en una cantidad mayor o menor de cobalto común. Se ha postulado recientemente de modo muy insistente la posibilidad de que un grupo terrorista pudiera optar por una bomba sucia, recurriendo a explosivos convencionales con residuos nucleares en vez de un arma atómica verdadera: esto no tendría ni una fracción del efecto de una bomba de cobalto y su alcance sería eminentemente local. La posibilidad de que un grupo terrorista consiga y opere un arma nuclear se ha demostrado francamente remota: son equipos tecnológicos complejos cuyas exigencias de mantenimiento y operación pegan mal con la naturaleza clandestina de estas organizaciones. En todo caso, una bomba del juicio final digna de tal nombre es asunto de estados modernos o entidades de similar poder y sofisticación. ¿Y por qué no la crearon? Básicamente, porque su utilidad militar es reducida y existen maneras más flexibles y selectivas de llevar la devastación total al enemigo sin necesidad de cargarse a media humanidad… o la humanidad entera. ¿Sería verdaderamente capaz de cargarse a la humanidad entera? Es difícil de decir. Con el suficiente cobalto, sí. ¿Pero cuánto es ese cobalto? Aparentemente, según los estudios mencionados más arriba, harían falta unas decenas de miles de toneladas. ¿Cuánta
- 194 -
La Pizarra de Yuri 1
radiación hace falta para matarnos? También resulta complicado de asegurar. En general, se considera que una absorción de cuerpo entero superior a ocho grays es prácticamente letal, y una de treinta, mortífera con toda seguridad. Sin embargo, estos estudios contemplan una absorción puntual, en un solo episodio (una explosión, un accidente, etc.) del que normalmente somos rescatados y evacuados; por su parte, los pacientes de radioterapia pueden absorber fácilmente treinta grays en lugares localizados del organismo a lo largo de un tratamiento. En general, somos más resistentes a la radiación cuando la absorción se produce por partes (en episodios separados en el tiempo y/o en puntos determinados del cuerpo).
Diseño esquemático de una bomba termonuclear de hidrógeno-cobalto. Para entender el funcionamiento de un arma de esta clase, lee el post "Así funciona un arma termonuclear". (Clic para ampliar)
No parece haber mucha información pública disponible sobre los efectos de una irradiación sostenida en el tiempo como la que podría ocasionar una de estas bombas de cobalto. En principio la absorción se acumularía rápidamente, conduciendo a la muerte con celeridad. Sin embargo, los seres humanos también somos notablemente capaces en la habilidad de salir por patas, ponernos a cubierto y buscarnos la vida en condiciones extremas. Aunque la mortandad sería enorme y la calidad de vida empeoraría radicalmente (por no mencionar el nivel de vida, que se iría a paseo de hoy para mañana), tengo mis dudas de que no pudiera sobrevivir una fracción significativa de la especie humana a menos que la diseminación sea abismalmente alta (imprácticamente alta, de hecho). Si estas explosiones atómicas de hidrógeno-cobalto se produjeran durante el transcurso de una guerra nuclear, en combinación con el efecto invernadero provocado por la misma, entonces sí considero bastante probable que nos viésemos abocados a una situación Toba.
- 195 -
Antonio Cantó
Como te digo, parece que al final la idea de Szilárd tuvo algún efecto parcial y este tipo de arma no se llegó a construir. Realmente, es que no tiene mucho sentido: a pesar de esas organizaciones extrañas que crean los guionistas para las pelis, no conozco ninguna idea política, doctrina económica o dogma religioso digno de mención que proponga el exterminio total de la especie humana (incluyendo el suicidio completo, claro). Militarmente, tampoco tiene demasiada lógica: los soldados quieren alcanzar la victoria y derrotar al enemigo, o en su caso disuadirle, no erradicar toda vida animal del planeta Tierra. En términos generales, todo el mundo tiene hijos, sobrinos, ahijados o a sí mismos; la mayoría de personas –incluidos quienes detentan algún cargo de poder– quiere dejar alguna clase de herencia positiva para el futuro a título individual o colectivo, sobre unas convicciones más acertadas o más equivocadas. Como Leó Szilárd, por ejemplo, el hombre bueno que inventó la manera de matarnos a todos. Y para eso, tiene que haber un futuro.
- 196 -
La Pizarra de Yuri 1
¿Por qué ya no tenemos aviones civiles supersónicos? Yuri, el 17 de octubre de 2010 @ 12:50 · Categoría: Historia y cultura, Tecnología
Hace treinta años, había más de veinte aviones civiles supersónicos surcando los cielos. Hoy, no queda ninguno y no se prevé que vuelva a suceder pronto. ¿Por qué?
Este Tupolev Tu-144, matrícula CCCP-68001, fue el primer avión civil supersónico del mundo. Todavía un prototipo, realizó su vuelo inaugural el 31 de diciembre de 1968 desde la base aérea de Zhukovsky (URSS), dos meses antes que el prototipo inicial del Concorde F-WTSS. La primera ruta comercial supersónica fue establecida con Tu-144 entre Moscú y Almá-Atá el 26 de diciembre de 1975, seguida por las del Concorde a partir del 21 de enero de 1976.
Los últimos segundos de la historia del vuelo civil supersónico: el Concorde matrícula G-BOAF de British Airways aterriza en Filton (Reino Unido) a las 14:08 del 26 de noviembre de 2003, completando así el último viaje de este tipo de transporte hasta la actualidad.
- 197 -
Antonio Cantó
Siempre se dice que es por el dinero. Sin embargo, varias líneas supersónicas resultaron ser rentables, al menos marginalmente. British Airways, por ejemplo, le sacaba veinte millones de libras anuales a sus vuelos Londres-Nueva York y Londres-Barbados en Concorde; y se diceque al final recuperaron mil setecientos millones en total frente a una inversión de mil millones. Ya en 1984, algunos mediosafirmaban que el avión supersónico anglo-francés había logrado romper la barrera del beneficio(aunque Air France no se enteró mucho). Pero las ganancias intangibles en forma de prestigio, desarrollo de tecnologías avanzadas y oportunidades empresariales fueron mucho mayores: se puede decir que difícilmente Airbus habría salido adelante si el Concorde no hubiese despegado jamás (sobre todo teniendo en cuenta el fracaso del Mercure y la precaria situación política que rodeaba al A300 en aquellos momentos). Fue el Concorde quien demostró que la cooperación intereuropea podía funcionar y crear grandes innovaciones frente a gigantes como Boeing; su emblemática silueta surcando los cielos fascinó a millones de personas, atrayendo incontables clientes a las compañías que los operaban y elevada reputación a sus países durante muchos años. El Tu-144, aún más ambicioso (entre otras cosas, volaba significativamente más rápido y podía llevar más carga, aunque con menor alcance), estuvo plagado de problemas que limitaron enormemente su operación comercial y finalmente lo conducirían a una temprana cancelación. Sin embargo, las tecnologías derivadas permitieron a la URSS el desarrollo de grandes aviones supersónicos militares como el bombardero nuclear estratégico Tu-160, así como un número de avances de gran interés para otros aparatos militares, lanzadores espaciales mejorados en su tramo atmosférico y distintos tipos de misiles aéreos. Por no mencionar su reutilización como laboratorio volante para Rusia y la NASA norteamericana. Por otra parte, los aparatos civiles supersónicos también se cobraron algunas vidas: 113 en el caso del Concorde (elúnico desastre de toda su carrera) y 16 en los dos accidentes del Tu-144 (los siniestros del Tupolev ocurrieron durante un vuelo de pruebas y otro de exhibición, con lo que el número de víctimas fue reducido). Cabe reseñar aquí un dato frecuentemente olvidado a la hora de evaluar sus posibilidades: tanto el Concorde como el Tu-144 representaban la primera generación de aviones comerciales supersónicos (y última por el momento). En mi opinión, juzgar al transporte comercial supersónico por los resultados de estas dos aeronaves se parece mucho a juzgar las posibilidades de los aviones a reacción por los resultados del De Havilland Comet o el Avro Jetliner: una tragedia y un fracaso, respectivamente. Si
- 198 -
La Pizarra de Yuri 1
después del Comet y el Avro no hubieran llegado el Tupolev Tu-104 (el primer avión comercial a reacción con éxito) o el Boeing 707, quizá ahora mismo pensaríamos que eso de los aviones a reacción es un fiasco. Y si el Tupolev Tu-124 no hubiera demostrado la eficacia de los turboventiladores frente a losturborreactores para limitar el consumo de combustible, igual hoy estaban también todos retirados del servicio por insostenibles económica y ecológicamente. Pero detrás del Tu-144 y del Concorde no vino nadie; y por tanto nunca hubo una segunda generación de aviones comerciales supersónicos que superara los problemas y limitaciones de la primera, abriendo así la posibilidad de reducir significativamente los costes operacionales. La URSS retiró del servicio activo al Tu144 debido a sus deficiencias, mientras British Airways y Air France operaban su reducida flota de Concordes casi como una reliquia de otros tiempos; lo que por supuesto encarecía enormemente el mantenimiento, no permitía reducir el coste por economía de escala y no dejaba beneficios que pudieran ser reinvertidos en I+D para esta segunda generación.
Cabina de pasajeros del Tu-144 (izda.) y el Concorde (dcha.)
Los Estados Unidos, por su parte, ni siquiera lograron construir un transporte civil supersónico de ninguna clase, ni bueno ni malo: tras años de trabajo y unas inversiones económicas que casi acaban con Boeing (junto a otras cancelaciones), el B-2707 fue descartado en 1971 a pesar de que ya tenía 115 pedidos de 25 aerolíneas. Es la época del famoso cartel pagado por los sindicatos que decía “por favor, la última persona en Seattle, que apague la luz”, en referencia a la catástrofe que esta cancelación representaba para el mercado laboral local. ¿Y por qué nunca hubo una segunda generación?
- 199 -
Antonio Cantó
Sólo el Reino Unido, Francia, la URSS y los Estados Unidos (estos últimos en el ámbito exclusivamente militar) han sido capaces de crear aeronaves supersónicas pesadas, lo que ya nos da una idea de la enormidad del problema al que nos enfrentamos. La construcción de esta clase de aviones es una labor extremadamente difícil que exige importantes inversiones económicas y un plazo de tiempo suficiente para cometer errores y corregirlos antes de prometer alguna rentabilidad. En el estancado estado actual de la tecnología necesaria y con un mercado potencial tan inmaduro, por tanto, el riesgo empresarial es muy alto. Demasiado para que se sientan cómodos los accionistas de las empresas privadas, hoy en día dominantes en las actividades creativas y productivas de una mayoría de países. Digamos que ninguna de esas agencias de calificación que fallan más que una escopeta de feria –excepto cuando se dedican al negocio de la profecía autocumplida– concedería a esta inversión alguna “A”. Tanto el Concorde como el Tu-144 fueron proyectos esencialmente estatales o de financiación estatal, al igual que elvuelo espacial, la energía nuclear o los de exploración y ciencia muy avanzadas, por poner otros ejemplos. Para la empresa privada, es muy difícil –cuando no directamente inviable– realizar semejantes inversiones, correr tales riesgos y además con un plazo indeterminado de rentabilización; a menos, claro, que disponga de acceso extensivo al dinero de todos garantizado por el estado. Conforme los modelos económicos sustentados fundamentalmente en la iniciativa privada, el crédito y la reducción del gasto público fueron ganando terreno a lo largo de las últimas décadas, toda una serie de desarrollos científico-técnicos entre los que se encuentra el transporte civil supersónico fueron alejándose cada vez más. No es sólo una cuestión de capitalización, sino también de riesgo, expectativas de los mercados y plazos de rentabilización. Para ser justos, lo cierto es que las dificultades a las que se enfrenta quien pretenda desarrollar un transporte comercial supersónico son varias, y complejas; si yo fuera uno de esos inversores, no creo que me metiese sin ponderar mucho la cuestión. Pero mucho. La primera de estas dificultades está, por supuesto, en los motores. Desarrollar un motor para velocidades supersónicas que sea ecológicamente sostenible y económicamente competitivo (resumiendo mucho: que sea de moderado mantenimiento, gaste poco combustible y así de paso contamine poco) representa un desafío formidable. Adicionalmente, el diseño de un motor supersónico varía notablemente con respecto al de uno subsónico, con lo que una parte sustancial de la experiencia existente para mejorar la eficiencia en motores de aviación civil no resulta aplicable.
- 200 -
La Pizarra de Yuri 1
Cabinas de pilotaje del Tu-144 (izda.) y el Concorde (dcha.)
No obstante, hay aproximaciones posibles. Una característica poco conocida de los motores supersónicos es que, aunque su consumo específico de combustible es mayor cuando operan a altas velocidades, en realidad son más eficientes que los motores subsónicos por kilómetro recorrido. Esto se debe a un hecho sencillo: sin tener en cuenta los demás condicionantes, podrían recorrer más distancia en menos tiempo, con lo que la cifra de litros por kilómetro debería ser mejor que en los subsónicos hasta bastante por encima de Mach 2. Dicho de una manera simplificada: aunque gastan más combustible por segundo, tienen que estar muchos menos segundos en el aire para completar el mismo viaje. Sin embargo, en la práctica esto no ocurre así: las aeronaves supersónicas son enormemente tragonas en comparación con las subsónicas. El Concorde, por ejemplo, consumía hasta 166 mililitros de combustible por pasajero y kilómetro recorrido. Esta es una cifra sólo levemente superior a la de un jet privado subsónico de largo alcance como el G-550 (148 ml por pasajero y kilómetro), pero se halla a enorme distancia de los grandes jetliners intercontinentales: entre 26 y 44 ml, según las distintas fuentes, para modelos como el Airbus A330, el Boeing-747 o el Airbus A380. El abismo competitivo resulta, a todas luces, importante. Y sin embargo, el problema principal no está en los motores. El problema radica en lo que tienen que mover esos motores. Más técnicamente: en la aerodinámica general, en laresistencia aerodinámica en particular, en el rendimiento aerodinámico máximo (“lift-to-drag ratio”), el peso en vacío por pasajero, el coste extra de I+D y el coste de los materiales y procesos productivos especiales para la construcción del aparato, junto a otros asuntos menos técnicos pero también relevantes. Veámoslo.
Despegue del Tupolev Tu-144 con sus característicos canards desplegados.
- 201 -
Antonio Cantó
Las fuerzas aerodinámicas básicas: peso, sustentación, empuje y resistencia. A velocidades supersónicas se reduce la sustentación y aumenta la resistencia, con lo que el empuje debe ser mucho mayor para mantener la altitud y velocidad.
Los desafíos de construir un avión supersónico. El comportamiento aerodinámico de una nave supersónica resulta radicalmente distinto al de un aparato subsónico. En todo objeto que se mueva por dentro del aire, la fuerza de resistencia aerodinámica (que se opone al avance del aparato) es directamente proporcional al coeficiente de resistencia aerodinámica Cd, a la densidad del aire y al cuadrado de la velocidad. Esto significa que en cuanto la velocidad aumenta, la resistencia aerodinámica aumenta mucho más, lo que tiene el efecto de frenar el aparato (y, con ello, reducir la sustentación). Como esto es una ley física inevitable, los diseñadores de aviones muy rápidos tienen que jugar con los otros dos factores: la densidad del aire y el coeficiente de resistencia aerodinámica. Es decir, hay que crear un avión que vuele lo más alto posible (para reducir la densidad del aire circundante) y que tenga un coeficiente de resistencia aerodinámica lo más bajo posible. Esto obliga a darle una forma muy determinada y unas características muy específicas, que limitan el resto del diseño.
- 202 -
La Pizarra de Yuri 1
Lamentablemente, cuando el aparato se aproxima a la velocidad del sonido, surge otro fenómeno: la resistencia de onda. Entre Mach 0.8 y Mach 1.2, el coeficiente de resistencia aerodinámica C d llega a multiplicarse por cuatro. Después, a velocidades claramente supersónicas, esta resistencia de onda desaparece y C d es ya sólo un 30% a 50% más elevado que durante el vuelo subsónico. Sin embargo, este paso por la región transónica obliga a diseñar la aeronave con la potencia motriz y las características aerodinámicas necesarias para vencerla, aunque ambas sólo se vayan a usar durante unos momentos: de lo contrario, nunca lograría superarla. Tal exigencia constriñe aún más el diseño del aparato y sus motores. A velocidades supersónicas, el rendimiento aerodinámico (lift to drag ratio) cae muy significativamente y con él la sustentación generada por las alas. Típicamente, a Mach 2 se reduce a la mitad: el Concorde, por ejemplo, presentaba un rendimiento aerodinámico de 7,14 mientras que el Boeing 747 lo tiene de 17. Esto obliga a diseñar unas alas muy especiales, con características muy distintas a las alas corrientes en los aviones subsónicos, que se comportan peor durante el vuelo a baja velocidad (sobre todo, en los despegues y aterrizajes); y, al mismo tiempo, hay que dotar al aparato de mayor empuje para que logre mantener su velocidad y altitud cuando está supersónico. O sea: más limitaciones al diseño y más potencia (y consumo) en los motores. Además, debido a todas estas razones el alcance queda reducido. El vuelo a esas velocidades produce otro problema adicional: un enorme incremento de temperatura en las superficies y bordes de ataque por rozamiento y debido a la compresión adiabática del aire frente a la aeronave. Cuando volaba a Mach 2, el pico del Concorde se ponía a 127 ºC y el borde de ataque de las alas, a unos 105 ºC. En este rango de temperaturas, algunos materiales comúnmente usados en aviación por su coste y conveniencia como el aluminio comienzan a perder su templado y debilitarse. No ocurre de inmediato, pero sí con el uso. Por encima de estas temperaturas, hay que recurrir necesariamente a otros metales como el titanio, más pesados y con un coste mucho mayor. Como el Concorde estaba hecho con duraluminio, usando aleaciones de acero al titanio únicamente en algunos puntos, su velocidad efectiva quedaba limitada a Mach 2.02. El Tu-144, equipado con componentes de titanio en todas las zonas críticas, llegó a alcanzar Mach 2.26. Una curiosidad bastante famosa es que, debido a estas temperaturas, el Concorde se alargaba por dilatación hasta veinticinco centímetros; cosa que también hay que tener en cuenta durante el diseño.
- 203 -
Antonio Cantó
Temperaturas estructurales del Concorde a Mach 2.
Otra peculiaridad menos conocida es que el color predominantemente blanco del Concorde y el Tu-144 no obedecía a una razón caprichosa: era para evitar el sobrecalentamiento adicional de la estructura en unos 10 ºC. Es decir, la misma razón por la que las casas suelen ser blancas en las regiones cálidas. Los aviones supersónicos pintados de negro por razones militares (como el SR-71 Blackbird) lo hacen a cambio de pagar una penalización térmica. Estos regímenes térmicos obligan a una refrigeración adicional del avión y sus sistemas. El Concorde lo hacía utilizando el combustible almacenado en los depósitos y el Tu-144 mediante un sistema específico. Además, fuerzan a proteger las áreas interiores frontales –como la cabina de mandos– contra el calor. Como consecuencia de todo esto, las aeronaves supersónicas exigen diseños más afilados y estrechos, motores más potentes, sistemas adicionales de refrigeración y otras peculiaridades de diseño, lo que en su conjunto eleva el peso en vacío por asiento, antes incluso de considerar la carga de combustible. Es decir: hay que mover más avión para desplazar a un pasajero. En el Concorde, el peso en vacío por asiento era de 655 kg y en el Tu-144, de 607 (lo que daba al avión soviético una mejor capacidad de carga). Pero en aviones subsónicos, esta masa por asiento es muy inferior: 341 kg para el Boeing 747-400, 296 para el Airbus A380 y apenas 220 para el Airbus A321-200. Esto es: para transportar a un pasajero en Concorde hay que mover casi el triple de avión que para hacerlo en un Airbus A321. Eso, de manera prácticamente automática, significa que el coste va a ser como mínimo tres veces más caro. En la práctica, un billete en Concorde de ida y vuelta para el vuelo Londres-Nueva York a finales de los años ’90 venía a estar en torno a los diez mil dólares, aunque a veces había ofertas y promociones (y en otras ocasiones te clavaban algo más). Eso equivale a unos trece o catorce mil dólares de hoy. En estos momentos, British Airways cobraexactamente eso mismo por un billete de primera clase en Boeing 747. Air France pide más de diez mil euros por el mismo viaje desde París en la première: casi quince - 204 -
La Pizarra de Yuri 1
mil dólares. Y se venden, al menos algunos, a pesar de que ahora cada vuelo dure siete u ocho horas en vez de tres. (Como curiosidad, el vuelo I/V Moscú-Almá Atá en business –no hay imperial para esa ruta– cuesta hoy unos 1.300 euros.)
Torpedo-cohete ruso VA-111 Shkval. Provisto con un sistema de supercavitación, que genera una capa de burbujas de aire a su alrededor y lo convierte en una especie de "avión submarino", puede alcanzar más de 370 km/h bajo el agua. Un sistema análogo para su uso en el aire, posiblemente usando tecnologías magnetohidrodinámicas, convertiría a un avión o un misil en una "nave espacial aérea" capaz de volar a velocidades hipersónicas.
Las dos soluciones hipotéticas para liberarse radicalmente de un buen número de estos problemas son un nuevo tipo de motor y/o combustible junto a una nueva aproximación aerodinámica. En este segundo caso, hay diversos estudios en curso en torno a la magnetohidrodinámica (que podría producir en el aire un fenómeno análogo a la supercavitaciónutilizada en el agua por el torpedo-cohete VA-111 Shkval); entre las instituciones que estudian esta cuestión se encuentran el Centro Marshall de la NASA
- 205 -
Antonio Cantó
(Estados Unidos), MBDA-France (antes Aerospatiale Matra Missiles, Francia), el Instituto de Investigación de Sistemas Hipersónicos (San Petersburgo, Rusia) y el Instituto de Investigación de Hidrodinámica Aplicada (NII-PGM, Rusia). En Rusia, además, existe un proyecto de testbedtecnológico llamado Ayaks (Ajax), dependiente del Instituto de Investigación de Sistemas Hipersónicos y construido por Leninets. Se cree que saben cómo crear el efecto de “supercavitación aérea”, mediante el uso de unos inyectores de spray catalítico sobre un sistema de generación de ondas termohidrodinámicas (¡yeah!), pero aún no han logrado solventar el problema de control de flujo del mismo. El aparato iría propulsado por un cohete o unestatorreactor scramjet y alcanzaría el rango de Mach 6 a 10 en la primera fase y de 12 a 20 en la segunda sin necesidad de abandonar la estratosfera. Como ocurriera con el Shkval, es muy probable que su primera aplicación sea misilística. El proyecto francés se llama PROMETHEE, y su sistema de propulsión PREPHA (un ramjet avanzado de modo doble y geometría variable). Está a cargo de MBDA-France (Chatillôn) y ONERA (Palaiseau), con fondos del Ministerio de Defensa. Públicamente, empezaron en 1999 y muy probablemente tengan estrechas relaciones con el proyecto ruso: se sabe que utilizan el concepto Ayaks. Su pimer objetivo es el Mach 12. Pratt&Whitney (EEUU) y Snecma (Francia) colaboran en tecnología de materiales. La fase de propulsión está muy avanzada, pero no se sabe cómo andan en el control de flujo magnetohidrodinámico que parece traer locos a los rusos (si es que no dependen de ellos para resolverlo). En cuanto a los norteamericanos, es posible que se haya estado trabajando en un concepto del que el X-41, el X-43, elX-51 y el recientemente fallido HTV serían prototipos tecnológicos diseñados para operar a velocidades entre Mach 6 y 20. Su sistema de propulsión estaría constituido por diversos tipos de scramjet o cohetes y no parece utilizar el efecto magnetohidrodinámico inducido activamente del Ayaks o el PROMETHEE, sino aprovechar eficientemente el efecto que se produce de manera natural a velocidades superiores a Mach 7. Esto limitaría el concepto tecnológico a velocidades máximas en torno a Mach 15 o lo obligaría a permanecer fuera de la estratosfera. Los australianos tienen un proyecto llamado HyShot, conceptualmente similar al norteamericano. Vamos, que aproximaciones aerodinámicas revolucionarias no faltan… aunque, de momento, todas ellas están orientadas al uso militar. Otro problema notorio de las aeronaves supersónicas (e hipersónicas, vaya) es el estampido sónico, que obligaba al Concorde a acelerar únicamente cuando ya se hallaba sobre el océano (con la consiguiente ralentización de las operaciones y también
- 206 -
La Pizarra de Yuri 1
su encarecimiento, pues como ya hemos dicho los aviones supersónicos vuelan poco eficientemente por debajo de la velocidad del sonido). Este es asunto de mucha enjundia para las organizaciones ciudadanas y ecologistas, lo que se traduce en fuertes presiones políticas y termina convirtiéndose en otra cuestión técnica a resolver. La NASA ya ha logrado reducir este problema a la mitad, y se sabe que ciertas formas del fuselaje producen ondas sonoras que tienden a cancelarse entre sí, con el resultado de ocasionar un estampido mucho más leve o ninguno en absoluto. Finalmente, cabe considerar que los aviones supersónicos –por su propia sofisticación y singularidad tecnológica– son más costosos en general de desarrollar, construir, mantener y operar.
Concorde volando a velocidad supersónica y gran altitud sobre el mar. Se puede distinguir el característico estampido doble. ¿Y entonces…? Seguramente, tras leer todo este post estarás pensando –como he hecho yo muchas veces– que, eh, bueno… pues después de todo, esas empresas y estados tienen buenos motivos para no invertir en una segunda generación de transporte comercial supersónico. Ya te lo dije más arriba: así es, los tienen. Bajo la lógica económica actual, yo mismo pondría de patitas en la calle a quien se le ocurriera meter mi dinero en aventuras semejantes. El problema es que, bajo esa lógica económica, nada tiene sentido a menos que proporcione un beneficio a corto plazo y venza los miedos de los siempre temerosos inversores. Si se hubiera trabajado pensando en la cuenta de resultados del próximo trimestre, seguiríamos anclados a principios del siglo XX y aparatos como un TAC serían pura ciencia-ficción. A ver si nos entendemos: yo no estoy proponiendo meter dinero público o privado a lo loco en la primera chaladura que se nos pase por la cabeza. Pero el extremo contrario, que es donde estamos ahora y además con visos de profundizarse, nos estanca. Si todo ha de ser rentable a pocos meses o años vista y razonablemente seguro, mientras al mismo tiempo se siguen recortando los presupuestos públicos en I+D, entonces los avances revolucionarios nos están vedados porque éstos son intrínsecamente impredecibles, inseguros y arriesgados. Y, a menudo, caros.
- 207 -
Antonio Cantó
Diseño conjunto de Sukhoi y Gulfstream para un jet privado supersónico totalmente exclusivo: el S-21.
Estoy tratando de imaginarme ahora mismo a Enrico Fermi y Léo Szilárd intentando convencer a un banco de inversiones de que es posible crear una cosa llamada reactor nuclear que producirá grandes cantidades de energía y puede que algún día llegue a ser rentable (cosa que sigue siendo dudosa). O a Sergei Korolev explicando a una empresa de capital-riesgo que necesita una montaña de dinero para –no se rían, señores, por favor– poner a un hombre en el espacio, mandar varias naves a Venus y quizás – en algún indeterminado futuro– lograr que todo eso tenga algún sentido económico. Tampoco parece muy probable que los inversores hagan cola en la puerta para financiar Grandes Observatorios, aceleradores de partículas, reactores de fusión, estaciones espaciales o en general ninguna de las ciencias y desarrollos de donde luego emergen las tecnologías que las empresas usarán. Ni tampoco aviones supersónicos de segunda generación. Y sin embargo, si no fuera por todo esto –que fue sentando y decantando las bases de la tecnología actual– a buenas horas estarías tú ahora leyéndome por Internet o gozando de medicina avanzada en los hospitales, entre otras mil cosas. La verdad, cada día tengo más la sensación de que este siglo XXI vive de las rentas del siglo XX… y que estas rentas se están agotando a toda velocidad. Pero no será por falta de propuestas. En el tema que nos ocupa, ahí están –o estuvieron– prototipos experimentales como el Sukhoi-Gulfstream S-21, el Tupolev Tu-444, el Aerion SBJ o el QSST; todos ellos concebidos como jets privados (más que nada porque algunas personas muy ricas podrían estar dispuestas a pagar por esta clase extraordinaria de exclusividad) pero también con una función evidente como bancos de pruebas tecnológicos. Con dinero público, la NASA mantiene un pequeño programa de investigación llamado Quiet Spike, dirigido a reducir el estampido sónico; y antes de - 208 -
La Pizarra de Yuri 1
eso, mantuvo otro que equipaba Tu-144, pero fue cancelado en 1999. Hay incluso algunos proyectos más ambiciosos como el hipersónico A2 de Reaction Engines. Aquí ya no estamos hablando de construir naves interplanetarias tripuladas ni nada por el estilo, sino de actualizar un tipo más rápido de avión que ya poseíamos hace cuarenta puñeteros años. Tampoco tengo claro que, en un mundo cada vez más globalizado, no exista un mercado (a medio plazo, eso sí) para reducir la duración de todos esos larguísimos viajes Londres-Nueva York, Nueva York-Tokyo, Los Angeles-Seúl, San Francisco-Tokio o Hongkong-Seúl, por no mencionar cosas como Nueva YorkSingapur (el famoso vuelo SQ-21, actualmente operado mediante Airbus A340), DubaiLos Angeles, Atlanta-Johannesburgo o Vancouver-Sydney. Estas son, respectivamente, algunas de las rutas intercontinentales más transitadas y más largas del mundo; que podrían ser mejoradas y abreviadas mediante una nueva generación de aviones supersónicos con alcance extendido (¡hasta haciendo escalas sería mucho más rápido!). ¿Realmente no hay público al que le vendría bien hacer Nueva York-Singapur en menos de ocho horas, en vez de las casi diecinueve actuales? (Sobre todo si tenemos en cuenta que este vuelo, por ejemplo, ya es íntegramente premium: sólo hay business, no dispone de asientos en clase económica). El chiste de todo esto es que aquí ni siquiera se propone una aventura revolucionaria, sino meramente actualizar, rentabilizar y hacer económica y ecológicamente sostenible algo que ya existe hace décadas, que operó durante largos años y que se usa con normalidad en el ámbito militar. Pues ni por esas, oiga.
Aeropuerto de "París-Disney". ¿Dónde está París? ¿Y Eurodisney? Yo te lo diré: a 150 y 176 km, respectivamente. Estamos en medio del campo, entre Reims y Troyes.
- 209 -
Antonio Cantó
Es que el mantra en el mundo de la aviación, ahora mismo, es low cost. Pero low cost a saco matraco, al centimeo mezquino y navajero. Desde bastante antes de que llegara la crisis, se viene diciendo que el público lo que quiere es pagar menos aunque vuele más incómodo, más despacio y entre aeropuertos remotos con nombres que dan risa como Londres-Stansted (que podría llamarse Cambridge-Sur: está más cerca), ParísDisney (más exactamente,Reims-Sur o Troyes-Norte), Fráncfort-Hahn(que también podríamos denominarLuxemburgo-Este) y el cachondísimoDüsseldorf-Weeze (más bien Eindhoven-Weeze o Arnhem-Weeze, ¿por qué no?). Si tal cosa es cierta aunque sea sin llegar a esos extremos, y según algunos números parece que sí, desde luego no queda espacio ninguno para fomentar avances revolucionarios desde el ámbito privado. (Por cierto: en último término, ¿hasta dónde se puede seguir abaratando costes? ) Otra afirmación común es que los trenes de alta velocidad asfixian al sector aéreo. Pero esto sólo vale para las rutas regionales, por debajo de quinientos o como mucho mil kilómetros (y, por cierto, demuestra que la gente paga dinero por viajar más rápido mientras la diferencia no sea desmesurada). Las propuestas de transporte supersónico se ven tan afectadas por estos ferrocarriles como el superjumbo A380: nada en absoluto. Estos tipos de aeronaves son para largas distancias, no para vuelo regional. Finalmente, podríamos citar como desmotivador definitivo la crisis generalizada del sector aéreo, que no está para aventuras de ninguna clase. Si el colapso de Pan Am en 1991 y la lenta agonía de TWA entre 1992 y 2001 ya representaron un cambio radical de modelo (mis lectores con alguna veteranía recordarán que esas compañías eran enormes, “las alas de los Estados Unidos”), a lo largo de la última década han quebrado aerolíneas emblemáticas a porrillo: Sabena (2001); Swissair (conocida como “el banco volante” por su tradicional fortaleza financiera, en 2002);United Airlines (2002, fusionada posterioremente con Continental); US Airways (2004, fusionada con la también quebrada America West); Alitalia (2009); Mexicana de Aviación (2010); Japan Airlines (2010) o la compleja doble bancarrota y fusión de Northwest y Delta (2005-2010). Todo esto sin mencionar a cientos de compañías pequeñas y medianas. El mal no acaba ahí: actualmente, varios monstruos de la industria aérea anuncian grandes pérdidas. Por ejemplo: British Airways (casi 13.000 millones de euros de pérdidas en 2009-2010), Air France-KLM (1.550 millones de euros) o Delta (1.240 millones de dólares). Más allá de la crisis económica occidental, los factores que afectan a esta crisis de la industria aérea son complejos y profundos. Muchas veces se achaca la culpa a los atentados del 11-S, pero eso es una simpleza: tuvo su influencia, y su influencia ya pasó. Los problemas de este sector vienen de antes y se han ido ahondando con el paso
- 210 -
La Pizarra de Yuri 1
de los años, en forma de ciclos de expansión y contracción que se remontan a los inicios de la desregulación.
Tabla de horarios y precios para el Concorde, en torno a 1980.
El incremento de los precios del combustible a partir de la crisis de 1973 y sobre todo en el periodo 2003-2008 suele citarse como el elemento de mayor importancia. Veámoslo. En 1970, un barril de petróleo costaba 3,18 dólares, que en dólares ajustados a la inflación para 2010 equivale a $8,43. Ayer sábado, el Brent Spot se cotizaba a $82,35. Bien, ciertamente es un incremento enorme: unas diez veces más. El incremento del precio del petróleo no es algo que vaya a detenerse con facilidad, por lo que cabría plantearse el problema desde el otro lado: desarrollar sistemas de propulsión que consuman mucho menos. Sin embargo, el consumo específico de los motores de aviación apenas ha descendido en estos treinta años. Uno de los primeros turboventiladores de alto índice de derivación, el CF6-6D fabricado en 1971 por General Electric para el DC-10 original,tenía un consumo específico de 0,624 lb/lbf h - 211 -
Antonio Cantó
en vuelo de crucero . Del mismo fabricante, el GE90-85B de 1995 para el Boeing 777 presenta un consumo específico en crucero de 0,52 lb/lbf h: apenas un 20% mejor, casi un cuarto de siglo después. Motores de reciente desarrollo como el GEnx o el Trent 1000 aseguran mejorar el consumo en “un 15%” sobre la generación precedente. Evidentemente, ninguna de estas cifras se acerca ni remotamente a compensar el incremento de los costes de combustible en este mismo periodo. La industria aérea necesita con urgencia un avance revolucionario en sistemas de propulsión si quiere regresar a algo siquiera remotamente parecido a los “buenos tiempos”. Ya dijimos que existe otra forma de combatir contra estos costes del combustible: las mejoras aerodinámicas. Como vimos más arriba, cuanto mejor sea la aerodinámica de una aeronave, menor es su resistencia al avance y menor será su consumo total. Por ejemplo: determinadas formas de las wingtips (esas aletitas que hay en la punta de las alas) reducen el consumo total entre en un 3,5 y un 5,5%. Ciertas modificaciones en las góndolas de los motores hacen lo propio, y así con todo. Sin embargo, de nuevo, las cifras son enormemente inferiores a lo necesario para compensar el incremento de los precios del combustible. Sin avances revolucionarios en aerodinámica, como los explicados para el desarrollo del vuelo hipersónico u otros análogos, la industria aérea tampoco hallará ninguna forma de minimizar el impacto de estos precios. El conjunto de los costes operacionales, y no sólo el del combustible, se mencionan como otros factores coadyuvantes a la crisis del sector aeronáutico. Sin embargo, estos costes ya están extremadamente estirados a la baja, con las conocidas consecuencias laborales y sociales. Preguntaba arriba cuánto más se pueden rebajar. El de Ryanair habla de quitar al copiloto y no hace mucho sugerían la posibilidad de embutir pasajeros de pie como en un autobús en hora punta. Sin llegar a estos extremos, toda la industria del aire trabaja en un estrechísimo margen que cualquier novedad desafortunada puede tirar por tierra. Para disponer de márgenes más amplios, se necesitan más avances revolucionarios en automatización, economía de materiales y nuevos materiales para la construcción de piezas y repuestos, mil cosas. En el contexto presente de crisis internacional, con la consiguiente reducción de la demanda (especialmente de la demanda premium) y una fuerte presión para bajar precios, las únicas soluciones que se proponen a las compañías aéreas son la reducción de costes y la reducción de capacidad. Es decir: hacerse más pequeñas y baratas, menospotentes. Esto es muy realista en la lógica económica presente, pero también un circulo vicioso. En ausencia demilagritos del tipo de un repentino periodo de expansión económica unido a un descenso radical del precio de los combustibles (una combinación extremadamente improbable: si la economía se recuperara con fuerza, es de suponer que
- 212 -
La Pizarra de Yuri 1
el precio de los combustibles lo haría también), se trata de una senda que conduce a la decadencia.
Proyecto de avión hipersónico A2 de Reaction Engines.
Y sin embargo, todas estas cosas –avances radicales en la propulsión, en la aerodinámica, en materiales, en procesos fabriles, en mantenimiento, en automatización, en tecnologías aeroportuarias y de control de tráfico aéreo– son exactamente las mismas cosas que permitirían una segunda generación de aviones supersónicos . La posibilidad de construir nuevos aviones supersónicos y el despegue del sector aeronáutico más allá del estancamiento presente constituyen dos caras de la misma moneda, con los evidentes beneficios –también– para la clientela. Tiendo a pensar que un programa Apolo para la creación de nuevas aeronaves comerciales más rápidas que el sonido constituye una de las pocas posibilidades que permitirían el desarrollo rápido de estas tecnologías aunque fracasara. Sin un revulsivo de ese o similar alcance, algo parecido al surgimiento del reactor, me cuesta imaginarme a la aviación saliendo de su estancamiento actual. Esta es la situación exacta en que o una industria encuentra la manera de reinventarse a sí misma, o está condenada a languidecer lentamente entre miserias y estrecheces cada vez mayores hasta su reducción a unos nichos irrelevantes. O el sector aeronáutico halla maneras de desarrollar tecnologías radicalmente nuevas con recursos públicos o privados como hacía en el pasado, que le permitan recuperar un amplio margen de acción, o ahí se queda y ya nunca volverá a despegar por mucho coste y capacidad que reduzca. Así, al menos, opino yo; el tiempo me dará o me quitará la razón.
- 213 -
Antonio Cant贸
Un Tu-144 (CCCP-77112) y un Concorde (F-BVFE) en el Auto & Technik Museum Sinsheim, Alemania. Hubo un tiempo, cada vez m谩s remoto, en que estas dos naves supers贸nicas surcaban los cielos a la vez.
- 214 -
La Pizarra de Yuri 1
Desde el Sol hasta los ojos Yuri, el 14 de octubre de 2010 @ 17:15 · Categoría: Ciencia popular
Cabalgamos sobre la luz desde que surge en el corazón del Sol hasta que llega a tus ojos y contribuye a formar tus pensamientos, tus emociones y tu visión del mundo.
Don Alberto "el Pelanas" no aprobaría este post. O, al menos, nuestro traje y el visor de nuestro casco. (Monumento a Albert Einstein en su ciudad natal de Ulm, Alemania)
Embútete el casco a fondo y agárrate bien fuerte a mi barriga, que hoy vamos a hacer un viaje curioso a una velocidad más curiosa todavía. Va a ser una carrera breve: sólo dura 499 segundos. Pero no va a ser una carrera corta, porque nos vamos a montar en un fotón de luz a su paso por la fotosfera solar y lo cabalgaremos hasta que llegue a la Tierra y grabe algo en un cerebro humano; o sea, un poco menos de ciento cincuenta millones de kilómetros. Sí, a la velocidad de la luz, este tramito se recorre en ocho minutos y diecinueve segundos exactos. Comparado con nosotros, el Dani Pedrosa ese va a ser un pringao. Para nuestro viaje, nos vamos a dotar de dos objetos mágicos; esto es, dos quimeras, fábulas o como quieras llamarlo que violan las leyes fundamentales de la física y muy especialmente la Teoría de la Relatividad Especial de don Alberto, el Pelanas. El primero es un traje de cuero deunicornio translumínico, con botas, capucha y guantes y todo, que nos va a proteger del calor, la aceleración y las radiaciones y nos permitirá agarrarnos al fotón para avanzar con él a la velocidad de la luz; esto último, poseyendo
- 215 -
Antonio Cantó
masa como poseemos, jamás podríamos hacerlo en la realidad (aunque sí acercarnos mucho). El segundo va a ser un visor de cristal de la Isla de San Borondón para nuestros cascos; enseguida verás por qué. Recuerda: estas son cosas enteramente mágicas que no existen ni pueden existir en nuestro universo. Además, la física cuántica introduciría algunas objeciones a eso de localizar y agarrarse a un foton en particular; vamos a ignorarlas también. Ah, sí, y la distancia indicada al Sol es la distancia media. Que luego me dirán que si soy poco riguroso y que si os meto en la cabeza fantasías que no son y tal.;) Preparados. La luz del Sol –una estrella corriente, de tipo G2V, situada en el Brazo de Orión– se origina en su núcleo. Ahí ocurren las grandes reacciones termonucleares donde también se forma el polvo de estrellas que nos compuso junto al hidrógeno primordial. Estas reacciones termonucleares de fusión son resultado del incremento de presión y temperatura provocado por la gravedad que atrae entre sí a los átomos de los soles (en su mayor parte, hidrógeno); y es esta misma gravedad la que contiene normalmente toda esta energía en un único lugar, impidiendo que se disperse por ahí sin llegar a formar un solecito ni nada. El problema fundamental para el desarrollo en la Tierra de la energía nuclear de fusión radica, precisamente, en que aquí no tenemos (ni deseamos…) una enorme gravedad para garantizar la contención y nos tenemos que buscar otras maneras. Esta energía de fusión se expresa esencialmente bajo la forma de fotones, que viajan a la velocidad de la luz y tienden a salir despedidos en todas direcciones. Sin embargo, como en el interior de las estrellas hay mucha masa a gran densidad, pronto chocan con algún átomo y son absorbidos y re-emitidos. Es decir: los fotones permanecen rebotando por dentro del Sol durante largo tiempo hasta que logran alcanzar su superficie. Tradicionalmente se dice que les cuesta millones de años, pero según la NASA esto no es cierto: sería más bien entre un mínimo de diez mil y un máximo de ciento setenta mil años. También se podría discutir si se trata del mismo fotón. A fin de cuentas, un fotón absorbido se convierte en otras cosas, y el emitido poco después no tiene por qué ser el mismo. Por otra parte, como todos los miembros de cada tipo de partículas subatómicas son idénticos entre sí, podríamos decir que nos da lo mismo. En fin. El caso es que nuestro fotón o el linaje de nuestro fotón procede del núcleo solar, ha atravesado la zona radiante y la zona convectiva y ahora se está aproximando a la fotosfera, desde donde podrá emitirse por fin hacia el espacio exterior.
- 216 -
La Pizarra de Yuri 1
Estructura simplificada del Sol. 1.- NĂşcleo solar. 2.- Zona radiativa. 3.- Zona convectiva. 4.- Fotosfera. 5.Cromosfera. 6.- Corona (se extiende a gran distancia). 7.- Manchas solares. 8.- GrĂĄnulos. 9.- Anillos coronales.
DisposiciĂłn de los planetas interiores del sistema solar el 14 de abril de 2017 a las 00:00 UTC. Simulador del sistema solar, NASA. (Clic para ampliar)
Listos.
- 217 -
Antonio Cantó
El día más idóneo de los próximos años para hacer nuestro viaje sería el 14 de abril (¡qué casualidad!) de 2017: Mercurio y Venus se hallarán estupendamente dispuestos a ambos lados y bastante cerca de la línea imaginaria que une el Sol y la Tierra, en lo que vendría a ser casi una alineación Sol-Mercurio-Venus-Tierra. Sin embargo, el 11 de febrero de 2014 tampoco está tan mal y cae más pronto. Otras fechas posibles para tener una vista razonablemente buena de los planetas interiores rocosos de nuestro Sistema Solar (hasta la Tierra) serían a finales de septiembre de 2016 o, ya un poco peor, a mediados de julio de 2012. Una vez elegida la fecha, nos situamos en las cercanías del Sol con nuestro traje de unicornio translumínico y nuestro visor de cristal de la Isla de San Borondón para agarrarnos a un fotón. Digamos que nos hemos teletransportado hasta la fotosfera, que es el lugar donde se emite la luz de las estrellas; o, más rigurosamente, la región donde los fotones ya pueden escapar libremente al exterior. La fotosfera es una capa solar relativamente fresquita, a sólo un poquito más de 5.500 ºC (5.800 K), compuesta por gases muy tenues. Nuestro traje y nuestro visor mágicos empiezan a actuar, protegiéndonos del calor, de la radiación y de la intensísima luz que nos dejaría ciegos en un instante, por no mencionar el brutal tirón gravitatorio. Todo a nuestro alrededor tiene el aspecto de un plasma brillante, turbulento e indistinguible, una especie de bruma increíblemente luminosa. La bola que vemos de una estrella es su fotosfera, pues de ahí emerge su luz. Eso significa que aquí hay trillones de fotones escapando hacia el espacio exterior. Podemos agarrarnos a cualquiera de ellos, pues como ya hemos dicho, todos son exactamente idénticos entre sí. ¿Cuál te gusta más? ¿Ese que viene por ahí? No, mejor ese otro, que es de onda más larga y se viaja más cómodo. Pues venga, tres, dos, uno… ¡Ya!
- 218 -
La Pizarra de Yuri 1
El factor de Lorentz (γ) indica la contracción de la longitud espacial y la dilatación temporal en función de la velocidad. Conforme la velocidad se aproxima a la de la luz, la dilatación temporal tiende a infinito. Especulativamente, en un objeto que viaje a la velocidad de la luz, la dilatación temporal es infinita y el tiempo no pasa en absoluto. Sólo las ondapartículas sin masa, como los fotones, son capaces de viajar a la velocidad de la luz; y nada que contenga materia o información (ni siquiera los fotones) puede superarla. Así pues, para "cabalgar un fotón" tendríamos que perder totalmente la masa y el tiempo no transcurriría para nosotros.
¡Móntalo! ¡Muy bien, ya estamos sobre el fotón, disparados a la velocidad de la luz hacia el espacio exterior! Eso son casi trescientos mil kilómetros por segundo, compi; ya tienes algo para vacilar por ahí, pero cuidado con no despeinarte. O soltarte. En el mundo real, ahora mismo el tiempo se detendría instantáneamente para nosotros por compresión temporal relativista. Quedaríamos algo así como comocongelados y no podríamos hacer nada más a menos que algo nos descabalgara del fotón; entonces, pensaríamos que nuestro viaje ha sido instantáneo aunque hayamos acabado por la parte de A1689-zD1. De hecho, lo habría sido para nosotros: eltiempo de a bordo en un ente viajero a la velocidad de la luz sería siempre cero y su reloj nunca avanzaría ni una minúscula fracción de segundo. Sería como la vida eterna y la eterna juventud, sólo que en una parálisis total… si no fuera porque tal cosa no puede suceder en absoluto. No en este universo, no en esta realidad. Pero nuestrotraje de cuero de unicornio translumínico nos mantiene en una… eh… bueno, eso, que es mágico, ¿no? Así pues, el tiempo sigue corriendo exclusivamente para nosotros con normalidad según el marco de referencia terrestre (¡sí, ya…!).
- 219 -
Antonio Cantó
¿Que ahora tampoco ves nada, dices, como si la realidad hubiera desaparecido por completo? Bueno, es normal: al ignorar la Relatividad, nos acabamos de cargar como un centenar de leyes esenciales de la naturaleza, nuestro marco de referencia es absurdo y estamos en un no-lugar donde las matemáticas que rigen este universo dan noresultadoscomo divisiones por cero, infinitos sobre infinitos y límites asintóticos a mogollón. Una vez más: la realidad no tiene sentido ninguno si hay un objeto con masa desplazándose a la velocidad de la luz. Y nosotros somos dos. El no-lugar donde nos hemos no-metido al cabalgar el fotón no es ni siquiera la nada. O incluso la no-nada. Por tanto, activa tuvisor mágico de cristal de la Isla de San Borondón para observar el mundo como si estuviéramos viajando a velocidades sublumínicas corrientes. ;) ¿Mejor así? Ya te dije yo que eso que le soplan al cristal los elfos de San Borondón es la caña. No, no te voy a contar en qué consiste: estamos viajando sobre un fotón a la velocidad de la luz en el vacío, así que este es un muy mal momento para que te pongas a vomitar con grandes arcadas. ¿Que sigue sin verse gran cosa? Un poco de paciencia: es que estamos aún muy cerca del Sol. En la primera centésima de segundo-Tierra hemos atravesado la cromosfera y la región de transición, dos delgadas capas gaseosas de la periferia solar compuestas por hidrógeno, helio y metales que brillan tenuemente. La temperatura ha subido desde los cinco mil y pico grados al millón de grados. ¿Te cuento una cosa intrigante? Nadie sabe realmente por qué. Lo llamamos el problema del calentamiento coronal y se cotillea por ahí que hay un premio Nobel calentito esperando a quien logre darle solución. Merece la pena detenerse un instante en él, porque es un asunto sorprendente. Lo lógico sería que la temperatura descendiese conforme nos alejamos más y más del Sol, de la misma manera que el calor de una hoguera se percibe cada vez menos al apartarnos del fuego. Sin embargo, en las capas exteriores del sol la temperatura es cientos de veces más elevada que en la fotosfera –la bola de luz– y casi tanto como en las profundidades de la zona de convección por donde pasó nuestro fotón o su linaje antes de salir: entre uno y dos millones de grados.
- 220 -
La Pizarra de Yuri 1
Lazos o anillos coronales en el Sol, de naturaleza electromagnética. Imagen obtenida por el telescopio espacial TRACE de la NASA.
Hay varias hipótesis al respecto, y una de ellas está relacionada con los inmensos campos electromagnéticos de la corona, donde nos hallamos tras el primer segundoTierra de viaje sobre nuestro fotón. ¿Ves esos monumentaleslazos brillantes que nos rodean? Son de naturaleza electromagnética, y en torno a ellos se forman las prominencias solares. Las grandes erupciones solares se generan también por aquí. Estamos, pues, atravesando la corona: una extensa región, muy caliente, de gases en estado plasmático cada vez más tenues conforme nos adentramos en el espacio interplanetario. Tres segundos-Tierra después de que abandonáramos la fotosfera, nuestros alrededores ya tienen el aspecto cósmico corriente –cielo negro, estrellas y todo eso– aunque con una intensísima luz a nuestras espaldas y respetable calor. Hemos recorrido el primer millón de kilómetros. Aprovechando que la temperatura está descendiendo muy rápidamente, vamos a relajarnos un poquito. Nos estamos dirigiendo hacia la órbita de Mercurio, que se encuentra más o menos a cincuenta y ocho millones de kilómetros del Sol. Cabalgando nuestro fotón a la velocidad de la luz, llegaremos en tres minutos-Tierra.
- 221 -
Antonio Cantó
Esto del espacio interplanetario resulta sorprendente. No es espacio vacío, como mucha gente piensa, y menos tan cerca aún del Sol. Para encontrar algo que se parezca al espacio vacío verdadero –y aún así con muchos matices– habría que irse al espacio intergaláctico profundo, a lugares inconmensurablemente inhóspitos y misteriosos como elSupervacío de Eridanus; que, según cosmólogos como la física teórica Laura Mersini de la Universidad de Carolina del Norte, podría incluso ser la firma de otro universo dentro de este. Toma ya. Un garabatito de nada, quinientos millones de añosluz sin apenas materia o energía: como cinco mil veces nuestra galaxia entera. Pero en los sistemas solares, el supuesto vacío interplanetario está lleno de cosas. Lo único que pasa es que su densidad es baja, no se reflejan en los sentidos humanos comunes y nos da la sensación de que no hay nada. A la velocidad a la que estamos viajando, podríamos sacar la mano y nuestro guante de cuero de unicornio translumínico recogería enseguida un montón de medio interplanetario: gas, polvo cósmico y un intenso viento solar compuesto por partículas cargadas que se extiende a lo largo de todo el sistema solar y mucho más allá. Esta corriente de partículas (en su mayor parte, protones de alta energía) constituyen una levísima atmósfera solar exterior de unos cuarenta mil millones de kilómetros de diámetro: la heliosfera. La presencia de todas estas cosas en el espacio supuestamente vacío ha permitido postular algunos proyectos especulativos para naves interplanetarias o interestelares futuras como el ramjet de Bussard (aunque presenta algunos problemas: en vez de propulsión, podría producirse un frenado); y también para velas solares ya existentes hoy en día del tipo de IKAROS.
Mercurio en falso color. Imagen tomada por la sonda MESSENGER. NASA/Jet Propulsion Laboratory.
- 222 -
La Pizarra de Yuri 1
Mercurio. ¡Mira, mira, Mercurio! Ahí está, el pobre, atrapado entre el fuego y el hielo y con la cara partida a golpe de meteoritos. Tan cerca del sol, la temperatura en su punto subsolar llega a 427 ºC por irradiación directa, mientras que en sus polos cae hasta –183 ºC. Sí, ciento ochenta y tres grados bajo cero, a sólo cincuenta y ocho millones de kilómetros del Sol (en realidad, tiene la órbita más excéntrica de todo el sistema solar: varía entre 46 y 70 millones de kilómetros). Es un planeta rocoso, de tipo terrestre, que no posee lunas. Probablemente lo estudió por primera vez un desconocido astrónomo asirio, hace unos tres mil cien años; sus observaciones nos llegaron a través del MUL.APIN babilónico. ¿Cómo sabemos que fue hace ese tiempo, y no otro? Sencillo: para que las observaciones registradas en el MUL.APIN cuadren, Mercurio tenía que estar en su posición correspondiente al 1.130 aC, con un error máximo de ochenta años arriba o abajo. Es lo que tiene la astronomía: puedes saber dónde estuvo, está o estará cualquier cuerpo celeste con extrema precisión, incluso aunque la observación fuera tan primitiva. Para los griegos, era Apolo cuando se veía al amanecer y Hermes cuando aparecía al anochecer. Fueron los romanos quienes le pusieron su nombre moderno en la mayoría de idiomas, por el dios Mercurio, equivalente latino del Hermes de los helenos. Mercurio es el planeta más pequeño del sistema solar, muy denso y con una atmósfera extremadamente tenue compuesta por oxígeno molecular, sodio, hidrógeno, helio y algunas otras cosas en poca cantidad. En el fondo de los cráteres polares, que nunca quedan expuestos al cercano Sol, parece haber una cierta cantidad de agua en forma de hielo según las observaciones radáricas. Posee un núcleo ferroso desproporcionadamente grande, fundido y denso, rodeado por un manto de silicatos y una corteza bastante gruesa. Se cree que el planeta está contrayéndose por enfriamiento de su núcleo. Tuvo actividad volcánica en el pasado. Ninguna potencia espacial se ha planteado seriamente la exploración o colonización de Mercurio, que ocupa un lugar menor en la literatura. La tecnología necesaria sería muy parecida a la utilizada en la Luna; el geólogo especialista en Ciencias Planetarias Bruce C. Murray, que cofundara la Sociedad Planetaria junto a Carl Sagan y Louis Friedman, ha definido a este planeta como una Tierra vestida de Luna. Por desgracia, viajar hasta allí con los medios presentes de la Humanidad resulta francamente problemático: está tan metido en el pozo de potencial gravitatorio del Sol que –además de exigir un montón de delta-V– obligaría a permanecer seis años dando vueltas a su alrededor antes de poder aterrizar. Pero en él, podrían encontrarse cantidades significativas de helio-3
- 223 -
Antonio Cantó
para las tecnologías de fusión nuclear y diversos minerales valiosos; además, se ha sugerido que debe ser un buen sitio para construir grandes velas solares, lo que a su vez sería útil en la terraformación de Venus. A donde, por cierto, estamos llegando ya: han pasado seis minutos desde que abandonamos la fotosfera solar, Mercurio ha quedado a nuestras espaldas y nos aproximamos al lucero del alba: Venus, Hesperus, Lucifer. Venus. ¿Qué podemos decir de Venus que no hayamos dicho ya? Bueno, pues muchas cosas, la verdad. La hermana de la Tierra es otro planeta rocoso, como ya sabemos cubierto por una densa atmósfera muy rica en dióxido de carbono, lo que le hace mantener una temperatura superficial capaz de fundir el plomo; los estudios sobre la atmósfera venusiana, con la muy significativa participación de nuestro astrofísico favorito, fueron los primeros en hacernos entender que el incremento de dióxido de carbono de origen antropogénico representaban un peligro grave para el clima terrestre. Así comenzó a investigarse el calentamiento global. Por su distancia al Sol, Venus debería ser un planeta tórrido pero perfectamente habitable. Sin embargo, esa catástrofe carbónica en su atmósfera lo convierte en un verdadero infierno al que sólo las navesVenera lograron vencer, en lo que fueron los primeros viajes interplanetarios de máquinas creadas por esta especie nuestra. Las órbitas de los planetas son elípticas, pero la de Venus es circular casi por completo y se toma algo más de 224 días terrestres y medio para describir una vuelta completa alrededor del Sol. Además, su rotación resulta bastante extraña. Por un lado, es la más lenta entre los planetas grandes del sistema solar: un día venusiano equivale a 243 días terrestres, con lo que este día venusiano resulta más largo que el año venusiano. Por otro, gira sobre sí mismo en sentido contrario a la mayoría de planetas, incluída la Tierra. Se cree que estas anomalías obedecen a un complejo blocaje de marea con el Sol y a fenómenos relacionados con su densa atmósfera. Pero como estamos viajando tan deprisa, Venus ya queda atrás y nos acercamos a la Tierra. Sí, es ese mundo azul de ahí delante. Me han dicho que hay en él algunas cosas curiosas. Llevamos ahora mismo unos ocho minutos de viaje.
- 224 -
La Pizarra de Yuri 1
Tierra en color real. Earth Observatory, NASA.
Tierra. Tierra es un planeta rocoso, aunque la presencia de agua líquida, hielo y aire en su superficie le otorga ese aspecto peculiar como de canica azul. Si te fijas bien, sobre algunos puntos de sus continentes se distinguen zonas verduzcas. Eso es porque hay vida en ella, ¿te lo puedes creer? Vida terrestre vegetal, sustentada en la clorofila, lo que le otorga esa tonalidad. Algunas investigaciones aseguran que hay también animales, incluído uno que camina sobre dos patas y sabe encender luces en la oscuridad como si se creyera una especie de luciérnaga artificial. Qué bichejo más gracioso, ¿verdad? ¿Verlo desde aquí? No, por supuesto que a esta distancia resulta invisible. Además, no tiene mayor importancia, es un animalejo muy primitivo. Fíjate tú que se pasa la vida tirando líneas en el mapa a las que llama “fronteras” y luego las marca con orina, no, perdón, con trapos de colores, creo, ¡y hasta se mata por defenderlas! En un lugar tan pequeño, ¿no es cosa de risa? Nada, un bichejo irrelevante, ya te digo. Tierra da una vuelta al Sol cada 365 días terrestres y un cuarto, aproximadamente. Quitando esas curiosidades de su superficie, es un planeta de lo más normalucho; sólo destaca por ser el más denso del sistema solar y por poseer una Luna bastante aburrida y muerta. Ah, sí, y porque tiene tectónica de placas: esos continentes que ves se mueven, muy lentamente, a lo largo de los eones. Vamos directos a ella. Sujétate fuerte: existe un 25% de probabilidades de que choquemos con algún átomo o molécula durante nuestro recorrido hasta la superficie. En ese caso, contribuiríamos a formar parte del color del cielo terrestre mediante dos fenómenos llamados dispersión de Rayleigh y difusión de Mie. ¡Mira cómo se la pegan esos! Cuando la luz alcanza una molécula del aire, una parte de ella tiende a ser - 225 -
Antonio Cantó
absorbida y después irradiada en una dirección distinta. La luz de onda corta (correspondiente a un color azulado, con aportación de verdes y violetas) resulta más absorbida e irradiada que la de onda larga (rojos, amarillos, naranjas). Es decir: la fría luz azul sufre mucha más dispersión de Rayleigh que la de los colores más cálidos. De hecho, le afecta tanto que se dispersa por toda la atmósfera y, mires adonde mires, te llega algo de ella. Este es el motivo de que el cielo sea normalmente azul. Cuando miras hacia el horizonte, da la impresión de que el cielo tiene una tonalidad más pálida. Esto se debe a que la luz dispersada se dispersa y mezcla aún más, muchas veces, antes de alcanzar tus ojos (hay mucha más masa de aire si miras en horizontal que si miras hacia la vertical). Esta es también la razón de que parezca que el sol brilla menos cuando sale o cuando se pone. Y hace que los atardeceres y amaneceres tengan tonos rojizos: toda la luz de onda más corta resulta dispersada (azules, verdes) y sólo la de onda más larga (rojo, naranja) logra atravesar la atmósfera hasta tu retina. Este espectáculo de colores es el resultado de la dispersión de Rayleigh para los fotones de luz.
Puesta de sol a través de la atmósfera terrestre, tomada desde la Estación Espacial Internacional. Debido a una combinación curiosa de los fenómenos de dispersión y difusión mencionados en el texto, cada uno de los colores se corresponde a grandes rasgos con las distintas capas de la atmósfera (troposfera en amarillos y naranjas; estratosfera en blancos y grises; mesosfera, termosfera, ionosfera y exosfera en azules). La región negra inferior es la superficie terrestre y la superior, el espacio exterior. En esa estrecha franja de colores, que tratamos con tan enorme irresponsabilidad, alienta casi todo lo que amamos en este cosmos.
Sin embargo, si la luz se encuentra con partículas de mayor tamaño que los átomos y moléculas de la atmósfera (por ejemplo, las gotas de agua que forman las nubes), la dispersión de Rayleigh no puede producirse porque depende de la relación entre la
- 226 -
La Pizarra de Yuri 1
amplitud de onda de la luz y el tamaño del objeto interpuesto. Cuando el tamaño de estas partículas alcanza un 10% aproximadamente de la longitud de onda de la luz incidente, el modelo de Rayleigh colapsa y deja paso a la difusión de Lorenz-Mie (no confundir con Lorentz). Siguiendo a Mie, la luz de todas las frecuencias (y no sólo la azul) resulta dispersada de manera muy parecida. Por tanto, no se produce una selección de un color específico (salvo debido a las propiedades físico-químicas de la materia donde esté incidiendo la luz). Y ese es el motivo de que las nubes sean blancas o grises. En general, la luz de onda más larga (correspondiente a los colores cálidos) atraviesa la atmósfera y llega a la superficie sin muchos problemas. Como nosotros elegimos un fotón de onda larga, no hemos topado con nada, no hemos sufrido dispersión y por tanto estamos llegando ya al duro suelo. Ops, creo que vamos a dar contra esa mesa de ahí: esa a la que está sentado uno de esos bichejos de dos patas leyendo no sé qué en uno de sus ordenadores. Como hemos viajado a la velocidad de la luz (ejem…), hace 499 segundos que salimos del Sol, hemos recorrido unos ciento cincuenta millones de kilómetros y ahora vamos a… Ojo. …¡chocar! En realidad, lo que ocurre es que hemos caído dentro del radio de influencia de uno de los átomos que componen la mesa. Ahora pueden ocurrir dos cosas: que seamos absorbidos o que seamos rebotados. Los átomos que componen la mesa, por su naturaleza químico-física, tienden a absorber la luz en determinadas frecuencias y a reflejarla en otras. La luz reflejada puede entonces alcanzar los ojos e instrumentos que se encuentren alrededor, excitándolos; por lo que tales ojos e instrumentos (como el sensor de una cámara) verán la mesa (o cualquier otro objeto) gracias a la luz que ésta ha rechazado (reflejado). Es decir: vemos las cosas por la luz reflejada en las frecuencias (colores) que sus átomos no quieren y por tanto expulsan. Por esto decimos que las cosas son de todos los colores menos del color que las vemos . Como viajábamos sobre un fotón de onda larga y luz cálida (rojos, naranjas, amarillos), y al menos algún elemento de la mesa tiene esa tonalidad, sus átomos nos han rechazado y hemos salido rebotados en dirección a… ¡bueno, pues parece que hacia el ojo del bichejo! Como le dé por parpadear ahora mismo, igual salimos reflejados otra vez (hacia cualquier otro lugar como, por ejemplo, una cámara que le estuviera haciendo una foto de la cara: entonces, contribuiríamos a formar la imagen del párpado cerrado).
- 227 -
Antonio Cantó
Ojo humano (sección)
Al penetrar en su córnea –la envoltura transparente delantera del ojo, compuesta por tres capas y dos membranas que las separan– vamos a sufrir un fenómeno llamado refracción. Es decir, un cambio brusco de dirección; tanto que la imagen se va a invertir por completo. Debido a la forma del ojo, la córnea actúa como una lente y concentra la mayor parte de los fotones de luz incidente hacia un punto en el interior; costó muchos cientos de millones de años deevolución biológica e incontables callejones sin salida llegar a algo así. Por fortuna, como hay tantos ojos en la naturaleza y han ido apareciendo a lo largo de tanto tiempo, laevolución del ojo es una de las mejor conocidas. Y sin embargo, el ojo humano tiene varias imperfecciones, una de ellas traducida en un punto ciego, que las sepias por ejemplo no sufren. En realidad, nuestro ojo dista de ser perfecto en comparación con el de otros animales. Aún cabalgando nuestro fotón absorbido-reemitido por la mesa, atravesamos la cámara anterior –llena de humor acuoso– y pasamos por la pupila: la apertura circular en el centro del iris, esa membrana que cada persona tiene de un color distinto. El iris es básicamente un esfínter fotosensible, que se contrae o distiende según la cantidad de fotones incidentes para ajustar la iluminación total en el interior del ojo. Cuando hay poca luz se abre, permitiendo que entre toda la posible; y cuando hay mucha se cierra, evitando el deslumbramiento hasta cierto límite. Cruzamos así laspuertas del iris y nos adentramos en el cristalino. El cristalino es una lente autoajustable bajo el control del sistema nervioso que permite enfocar objetos a distintas distancias, fenómeno conocido como acomodación; esto provoca una segunda refracción (cambio de dirección de los fotones) que ajusta con
- 228 -
La Pizarra de Yuri 1
más finura la causada por la córnea. Así, atravesamos ya el gel transparente que rellena la esfera del ojo –llamado humor vítreo– y nos precipitamos hacia el fondo de la retina. Este es ya un tejido nervioso complejo, conectado directamente al cerebro mediante el nervio óptico, hasta tal punto que casi casi se podría denominar una proyección especializada del cerebro dentro del ojo. La retina está compuesta por grandes cantidades de neuronas interconectadas mediante sinapsis. Entre estas neuronas se encuentran unas muy especializadas en captar la luz. Son las células fotorreceptoras, típicamente conos y bastones. La disposición de estas células y de las otras neuronas que las conectan al nervio óptico conduce a otro divertido debate con los partidarios del diseño inteligente (creacionismo bajo tapadera pseudocientífica). Resulta que en el ojo humano las células conectoras están dispuestas por delante de las células fotorreceptoras, con lo que muchos fotones quedan absorbidos en ellas sin efecto alguno, obstruyendo el paso de la luz y reduciendo así la agudeza visual; evidentemente, cabe preguntarse qué clase de diseñador hace pasar el cableado de una cámara por delante del sensor CCD. De nuevo, son las sepias quienes tienen dispuestas las células de la retina a la manera lógica; quizá ellas sean el pueblo elegido.
- 229 -
Antonio Cantó
Estructura de la retina según la dibujó D. Santiago Ramón y Cajal (ca. 1900). En el Instituto Cajal del CSIC, Madrid.
Aquí acaba el recorrido de nuestro fotón, bien atrapado estúpidamente en una de estas células interconectoras o bien logrando actuar un fotorreceptor, tras su viaje de ocho minutos y diecinueve segundos desde el Sol. Si logra superar ese fallo de diseño de la retina, excitará uno de estos conos o bastones. Los bastones son extremadamente sensibles, capaces de detectar un solo fotón, permitiendo así la visión en condiciones de baja visibilidad (visión escotópica); a cambio, no pueden detectar colores. Sonmonocromáticos, con una sensibilidad óptima en torno a las frecuencias verdeazuladas. Por eso, cuando la iluminación desciende, seguimos siendo capaces de ver sombras pero perdemos la mayor parte de la visión en color.
- 230 -
La Pizarra de Yuri 1
Los conos, por el contrario, necesitan mucha más energía lumínica para excitarse. Sin embargo, en el ojo humano están presentes en tres sabores, cada uno de ellos más sensible a las frecuencias correspondientes a un color: verde, roja y azul. Así, nos proporcionan la visión fotópicatricromática: lo que llamamos ver en colores. La mayor parte de los mamíferos sólo son capaces de ver en dos colores, o carecen por completo de la capacidad para ver en color. Sin embargo, la mayor parte de las aves y algunos peces y anfibios poseen visión tetracromática: pueden ver un cuarto color, invisible para nosotros. ¿Y cuál es ese cuarto color? Pues a menudo la luz ultravioleta, que se difunde en una frecuencia indetectable por los fotorreceptores humanos (aunque no por sus instrumentos, claro). Parece ser que ciertas hembras humanaspodrían tener una tenue visión tetracromática, pero esto no está demostrado todavía. Algunas mariposas, lampreas y aves como las palomas son pentácromas. Esto es: poseen conos especializados en distinguir cinco colores básicos (e incluso más). Como resultado, pueden ver unos cien mil millones de colores distintos, mucho más allá de lo que constituye luz visible para la gente humana. Esa es una experiencia inimaginable. Aunque nosotros –por supuesto– seamos capaces de observar en todas esas frecuencias y muchas más a través de nuestros aparatos, la experiencia de ver realmente un mundo tan multicolor nos está vedada por completo: es como tratar de imaginarse la cuarta dimensión. No existen tales fotorreceptores en nuestros ojos y nuestro cerebro no ha podido evolucionar con ellos, por lo que estaríamos de todos modos incapacitados para interpretar sus señales. Dependemos de los datos instrumentales y las imágenes sintéticas en falso color para acceder a esa parte de la realidad; cualquier paloma la ve con un simple vistazo. Los fotones incidentes excitan estas células fotorreceptoras estimulando algunas moléculas que se encuentran en su interior: la rodopsina y las yodopsinas, un conjunto de proteínas sensibles a la luz denominadas opsinas. Aquí se da otro fenómeno curioso. Todas estas células están activadas constantemente. Cuando resultan excitadas por la luz, entonces se inhiben y dejan de transmitir señales electroquímicas. Es esta desconexión la que activa las células transmisoras (las que están por delante) y entonces se emite una señal visual hacia el cerebro por el nervio óptico. Esto es, funciona al revés de como uno se podría imaginar en un principio: los fotorreceptores quedan inhibidos y eso es lo que dispara la señal visual hacia el cerebro en los transmisores. O sea, que esto ya se asemeja a uno de esos bromazos a los que Mamá Naturaleza es tan aficionada: vemos las cosas de todos los colores menos de los colores que son (que admiten); las vemos boca abajo debido a la refracción en sus lentes (es nuestro cerebro
- 231 -
Antonio Cantó
quien se encarga de ponerlas boca arriba otra vez); y además las vemos porque detienen (en vez de activar) la acción de las células fotorreceptoras, lo que a su vez activa (en vez de detener) al sistema neurotransmisor. El mundo al revés, vaya. Para acabar de arreglarlo, aproximadamente la mitad de las fibras de cada nervio óptico se cruzan en el quiasma óptico y van a parar al lado opuesto del cerebro. Así las señales que viajan por ellas llegan finalmente a la corteza visual, que se encuentra (¡cómo no!) en la parte posterior de la cabeza, encima de la nuca. Es en esta corteza donde se construye el mapa de toda la información captada a través de los ojos, constituyendo así –literalmente– nuestra visión del mundo y contribuyendo decisivamente a formar nuestros pensamientos y emociones. Y la energía que mueve todo esto procede también del Sol. Además de la radiación solar directa que mantiene viva la biosfera terrestre, los animales somos parásitos de las plantas a través de la cadena alimentaria; plantas que dependen a su vez de la fotosíntesis (propulsada por energía solar). Hijos e hijas del Sol y de la lluvia, polvo de estrellas, desde siempre y para siempre jamás. Escrito sobre una idea original de Orlando Sánchez Maroto al que, por tanto, dedico este post. ¡Gracias, Orlando!
Premio Experientia Docet a la excelencia en la divulgación científica.
Este post ha recibido el premio Experientia Docet a la excelencia en la divulgación científica. Con mi agradecimiento. :-)
- 232 -
La Pizarra de Yuri 1
No verás muchos objetos como este sobre la faz de la Tierra Yuri, el 11 de octubre de 2010 @ 20:15 · Categoría: Historia y cultura
Desde luego, no tan de cerca. Te ruego que hagas una pausa. Que cierres los ojos durante un instante. Y después, que los vuelvas a abrir y mires con profundidad la siguiente fotografía:
El casco de Chernóbyl - The Chernobyl helmet. © César Toimil. Todos los derechos reservados. All rights reserved.
Es, efectivamente, un casco de bombero. Un casco de bombero soviético de 1986. Un casco de bombero soviético que estuvo en Chernóbyl la noche del accidente y que ahora yace olvidado en un armario del hospital abandonado de Pripyat, adonde llevaban a los heridos y enfermos durante las primeras horas. La radiación natural normal suele variar entre veinte y treinta millonésimas de roentgen por hora. El límite máximo de seguridad en la Unión Europea para los trabajadores de la industria nuclear más expuestos equivale aproximadamente a medio roentgen al año (más rigurosamente, 50 milisieverts/año con - 233 -
Antonio Cantó
un máximo de 100 mSv durante cinco años consecutivos). Una exposición a quinientos roentgens en cinco horas se considera generalmente mortal de necesidad. En Hiroshima, una hora después del bombardeo atómico, hacían mil roentgens por hora (Laboratorio Nacional de Oak Ridge, DWG 78-265). Este casco, y el hombre que se cubría con él, estuvo expuesto a una radiación de veinte mil roentgens por hora durante un periodo de tiempo difícil de determinar pero sin duda prolongado. Muchas decenas de minutos. Puede que más de una hora. No verás muchos objetos sobre la faz de la Tierra que hayan estado expuestos a semejante radioactividad. No tan de cerca, al menos. Aún hoy, casi un cuarto de siglo respués, este casco sigue siendo un objeto radioactivo peligroso al que no resulta nada conveniente acercarse demasiado. Si alguien va a robarlo, tiene bastantes números para llevarse la penitencia con el pecado y seguirá teniéndolos durante una larga temporada. Ahora, por favor, vuelve a mirar la foto. César Toimil se acercó, un poquito, para conseguir esta fotografía. César es un lector de este blog, fotoperiodista para la Voz de Galicia, que ha estado tres veces en Chernóbyl con objeto de realizar un libro fotográfico aún inédito sobre el lugar y se lo conoce ya como la palma de su mano. Nos lo cuenta así: un día, paseando por Pripyat con un amigo de fiar… …me dice: “te voy a enseñar algo que lo ha visto muy poca gente” y me lleva a una habitación del hospital de la ciudad. Un sitio especialmente tétrico y bastante poco fotografiado. Coge un palo largo y con él saca de un armario un casco de bombero. “Este casco pertenece a uno de los bomberos que llegaron primero al incendio del reactor. No encontrarás muchas cosas que hayan estado a más de 20.000 roentgens”.
Yo quiero darle las gracias a César por compartirlo con nosotros autorizándome a reproducirla en la Pizarra de Yuri; y recordar a todo el mundo que esta fotografía le pertenece y está protegida por copyright y los demás derechos aplicables en estos casos. César gastó mucho tiempo, trabajo, dinero y algún riesgo para conseguirla, junto al resto de su extraordinaria colección; este esfuerzo no merece que se la pasen al dominio público sin al menos pedirle permiso. Escrito en memoria del hombre que fue con este casco a protegernos a todos, y sus camaradas.
- 234 -
La Pizarra de Yuri 1
Monumento a los liquidadores en Kovel, Ucrania. (Del dominio pĂşblico)
- 235 -
Antonio Cantó
PD: Sí, con la ayuda de César y alguna persona cualificada más, estoy preparando una. Una gorda. Permanezcan atentos a sus pantallas, aunque no necesariamente de manera inminente. ;-)
- 236 -
La Pizarra de Yuri 1
El rayo, ¿sube o baja? Yuri, el 18 de noviembre de 2010 @ 15:22 · Categoría: Ciencia popular
El fenómeno que conocemos comúnmente como “rayo” no “cae”, sino que asciende desde la tierra al cielo durante el transcurso de un complejo vaivén de inmensa energía.
La sonda Cassini-Huygens registra relámpagos en una nube de la atmósfera superior de Saturno. Observación de 16 minutos comprimida en este video de 10 segundos; audio sintético creado con las señales electromagnéticas recibidas por la nave. (Jet Propulsion Laboratory – NASA) Es uno de los fenómenos planetarios más notorios, allá donde haya una atmósfera gaseosa con la suficiente densidad. El rayo, ese viejo miedo y asombro de la humanidad desde que pudimos sentir, constituye el prodigio más espectacular de los muchos que se encuentran en la atmósfera terrestre. Y desde siempre, hemos dicho que el rayo cae. Que cae de los cielos sobre nosotros, vamos, como lanzado por algún Zeus. Pero, ¿es esto verdad? ¿Realmente el rayo cae, o hay algo aún más sorprendente esperándonos también detrás de este fleco de la realidad? De las cosas que caen. Los seres humanos somos un bicho fuertemente antropocéntrico. Esto tiene sus cosas buenas, como por ejemplo elhumanismo. Y sus cosas menos buenas, porque el antropocentrismo no deja de ser una forma colectiva deegocentrismo y etnocentrismo, a menudo con rasgos profundamente narcisistas y chauvinistas. En general, los seres humanos tendemos a pensar que todo lo que hay en el universo está para favorecernos o fastidiarnos a nosotros personalmente, como individuo, como grupo o como especie. La idea de que el universo va a su bola y nosotros no hacemos mucho más que correr de acá para allá tratando de seguir su ritmo o huir de sus peligros nos resulta inquietante, indeseable. La mayoría de la gente prefiere pensar que estamos aquí por algo, que las cosas suceden por alguna razón más allá de sus causas físicas inmediatas. Adoramos suponer que las cosas vienen hacia nosotros. Que si nos parte un rayo, nos partió por algo, y no sólo porque estábamos en medio cuando saltó sin preocuparse por nosotros ni un poquitín. Este es uno de los orígenes de la religión.
- 237 -
Antonio Cantó
Zeus con el águila y el rayo en un ánfora griega del 470-460 aC. Museo del Louvre (pieza G204), París.
Además, a falta de información y análisis de buena calidad (y a veces hasta teniéndolo…) las personas tendemos a interpretar la realidad según nuestras preconcepciones, prejuicios, miedos, deseos, creencias y anhelos: nuestra cosmovisión. En la cosmovisión común, todo lo que sube, baja; y si algo sucede en el cielo y afecta a cosas que están en la tierra –nosotros, por ejemplo– entonces es que viene del cielo o cae del cielo. Pensar de otra manera nos resulta confuso e incómodo. Con estos antecedentes, parece de sentido común decir que el rayo cae del cielo, viene sobre nosotros desde el cielo. Sin embargo, lo cierto es que este fenómeno sucede demasiado deprisa para que nuestros ojos puedan percibir en qué sentido viaja: buena parte de él se desplaza a la velocidad de la luz, y ninguna parte de él va más lento que una tercera parte de la velocidad de la luz. Nuestro cerebro y nuestros ojos reaccionan mucho más despacio. En realidad, cuando pasa el rayo, lo único que llegamos a percibir es un destello instantáneo; por autosugestión, percibimos que cae hacia abajo. Pero en realidad no lo hemos visto caer hacia abajo, porque no somos capaces de tal cosa. Por fortuna, ahí está la ciencia –esa aguafiestas– y los instrumentos tecnológicos que produce para echarnos una manita.
- 238 -
La Pizarra de Yuri 1
En general, la lógica de todo lo que está en el cielo tiene que caer sólo resulta válida cuando la fuerza preponderante en el fenómeno es la gravedad. Sin embargo, en el rayo y el relámpago la gravedad no juega ningún papel significativo: se trata de un fenómeno esencialmente electromagnético. Un rayo no es otra cosa que una gran chispa saltando entre dos superficies con carga eléctrica: la tierra y la nube. Por tanto, en principio, no tiene ningún sentido de circulación preferente. La mitad inferior del rayo debería subir hacia arriba y la superior, caer hacia abajo hasta encontrarse en algún punto intermedio. Sin embargo, el fenómeno es más complejo e interesante. Veámoslo. ¿Cómo se foman los rayos? Para responder a esta pregunta correctamente, primero debemos aprender cómo se forma una tormenta eléctrica. Las tormentas eléctricas se originan en un tipo particular de nubes: los cumulonimbos. En el planeta Tierra, la inmensa mayoría parte de los rayos y relámpagos se producen durante estas tormentas; aunque también se observan ocasionalmente en las nubes de ceniza causadas por los volcanes o por grandes incendios (como los forestales) y en ciertas tormentas de arena. Todos ellos son sitios donde el rozamiento entre una miríada de partículas en suspensión puede generar carga eléctrica y electricidad estática. En el planeta Tierra, más del 95% de los rayos y relámpagos suceden en los cumulonimbos; el 20% alcanzan el suelo y el 80% circulan de nube a nube. En todo momento, hay unas mil ochocientas tormentas eléctricas sucediendo a la vez, lo que totaliza unos dieciséis millones de ellas al año.
Un cumulonimbo.
Los cumulonimbos son nubes convectivas densas y pesadas, con notable desarrollo vertical, lo que les da la forma de una montaña o de grandes torres en el cielo. Su parte superior tiende a ser plana (lo que en ocasiones les hace parecer un yunque) y a menudo suave, aunque también puede aparecer como fibrosa o estriada. Bajo la base, muy
- 239 -
Antonio Cantó
oscura, aparecen nubes desiguales. Los cumulonimbos traen lluvia y granizadas fuertes y breves, a veces en forma de virga. Si hay granizo, truenos o relámpagos, estamos sin duda ante una de estas nubes. Aunque no todos los cumulonimbos traen tormentas eléctricas. Con frecuencia, se limitan a provocar precipitaciones intensas pero de corta duración. Cuando ocasionan tormentas eléctricas, éstas suelen tener una duración máxima de media hora; si dura más, es que hay varios. Dentro de estas nubes se forman un montón de gotitas de agua, que salen propulsadas hacia arriba debido a sus corrientes ascendentes internas (updraught). Así se enfrían con un mecanismo de sobrefusión; unas se van acumulando en forma de granizo blando y otras permanecen como minúsculas partículas heladas. Cuando el granizo es lo bastante grande y pesado, cae a través de la nube y desciende chocando y rozando contra las partículas pequeñas que viajan hacia arriba. Durante estas colisiones, algunos electrones de las partículas resultan capturados por el granizo, con lo que éste adquiere una carga negativa (mientras que las partículas que siguen subiendo a lo alto, desprovistas de esos electrones, presentan carga positiva). Así se van generando acumulaciones de carga eléctrica estática en la parte inferior y superior del cumulonimbo. Una parte del granizo descendente con carga negativa se ha vuelo ahora tan pesado que las corrientes ascendentes no pueden propulsarlo de nuevo hacia arriba, con lo que queda durante un tiempo entre dos aguas, sin llegar a caer aún a tierra pero concentrado en las regiones inferiores de la nube. Así, la base de la nube se va volviendo fuertemente electronegativa. Como consecuencia, el trozo de tierra que hay debajo se va haciendo fuertemente electropositivo por inducción electrostática (explicado un poco a lo bruto: los electrones presentes en la parte inferior de la nube repelen a los que se encuentran sobre la superficie terrestre y los separan de sus átomos, dejando a éstos con carga positiva) Conforme el fenómeno se desarrolla, dos intensísimas cargas eléctricas se van acumulando –una negativa en la base de la nube y la otra positiva en la superficie terrestre– separadas por una capa de aire. El aire es un poderoso aislante eléctrico, lo que impide que estas cargas se reequilibren poco a poco. Así se va formando un gigantesco condensador natural, que a cada segundo aumenta más y más su carga. En un determinado momento, esta carga es ya insoportablemente alta y se inicia un proceso de reequilibrio. El mecanismo exacto que lo dispara sigue siendo objeto de disputa, pero lo que ocurre a continuación es bien conocido. Básicamente se trata de un proceso en tres etapas, que crea canales conductores en el aire aislante. En cuanto estos canales se establezcan, una violenta descarga casi-instantánea circulará por uno de ellos
- 240 -
La Pizarra de Yuri 1
para igualar las cargas entre la base de la nube y la superficie de la Tierra, con gran energía en forma de luz y calor: el rayo. La formación de los canales conductores.
Formación del rayo.
La formación de estos canales conductores en el aire aislante constituyen una especie de “pre-rayo” o “relámpago preliminar”. El proceso comienza con la generación de los llamados líderes escalonados(stepped leaders), de energía relativamente baja (decenas a cientos de amperios) y luz tenue, que a veces llega a ser percibida por el ojo pero más a menudo resulta invisible por completo. Estos líderes surgen cuando la atracción entre la base electronegativa de la nube y la superficie terrestre electropositiva supera un cierto umbral. Entonces, los electrones excedentes de la base nubosa comienzan a salir despedidos hacia la superficie a notable velocidad: unos 120 kilómetros por segundo. Estos líderes no pueden viajar mucho: apenas unos cincuenta metros, con algunos llegando al centenar. Pero como siguen bajando electrones desde la nube en gran cantidad, se supera de nuevo el umbral y los líderes dan otro salto de cincuenta o cien metros, y así sucesivamente, extendiéndose en diversas direcciones como el delta de un río. Cada uno de estos saltos o escalones dura unas cincuenta millonésimas de segundo. Por donde pasan, van dejando “canales” o “riachuelos” de aire fuertementeionizado, que se vuelve conductor de la electricidad. En unas veinte milésimas de segundo se están acercando a la superficie, con unos cinco culombios de carga. Cuando uno de estos líderes escalonados se aproxima al suelo, provoca chispas positivas ascendentes que parten de la tierra y “salen a interceptarlo”. Estas chispas se llaman gallardetes positivos (positive streamers) y surgen típicamente de los objetos - 241 -
Antonio Cantó
conectados al suelo más próximos a la nube: la parte superior de los árboles, los edificios, las colinas o lo que sea. Cuando los gallardetes positivos entran en contacto con los líderes escalonados, la conexión eléctrica entre la nube y la tierra queda establecida a través de estos “canales”, “riachuelos” o “cables” de aire fuertemente ionizado y por tanto conductor. Necesariamente, uno de estos caminos tendrá una resistencia más baja que los demás. Entonces, los electrones situados en la región inferior del canal se precipitan violentamente hacia el suelo velocidades próximas a las de la luz. Esto provoca una intensísima corriente eléctrica en dirección a la superficie, ocasionando un potente destello inicial en las cercanías del suelo, con fuerte emisión de calor. El rayo acaba de comenzar.
Un rayo filmado a 7.200 FPS y reproducido a cámara lenta. Se observa perfectamente el desarrollo de los líderes escalonados, estableciendo la conexión entre la nube y la tierra, seguido por el intenso destello del rayo principal. (Tom A. Warner / ZT Research)
- 242 -
La Pizarra de Yuri 1
Desarrollo del rayo. (Clic para ampliar)
El rayo. Sin embargo, esta “apertura de canal” no se traduce en una avalancha instantánea de electrones circulando desde la nube hacia el suelo. Nos lo explica el Dr. Martin A. Uman, uno de los mayores expertos mundiales en fenómenos relacionados con el rayo: Cuando el líder queda conectado al suelo, las cargas negativas en la parte inferior del canal se mueven violentamente hacia el suelo, haciendo que fluyan hacia éste grandes corrientes y provocando que el canal se vuelva muy luminoso en esta zona.
- 243 -
Antonio Cantó
Pero dado que las señales eléctricas (o cualquier otra señal, para el caso) tienen una velocidad máxima de 300.000 km/s –la velocidad de la luz–, el canal líder situado por encima del suelo no tiene ninguna maera de saber, durante un breve periodo de tiempo, que el líder de abajo ha tocado el suelo y se ha vuelto muy luminoso. Así, la luminosidad del canal –el golpe de retorno (return stroke)– se propaga continuamente hacia arriba del canal y por los ramales laterales a una velocidad de entre 30.000 y 100.000 km/s. El viaje desde el suelo hasta la nube dura unas cien millonésimas de segundo. Conforme la luminosidad del golpe de retorno se mueve hacia arriba, con ella asciende también la región de alta corriente. –Martin A. Uman, “All about lightning”, Dover Publications, Nueva York, 1986.
Vamos a explicarlo de otra manera, por si se no ha entendido bien. Lógicamente, en un rayo común los electones van a viajar desde la base nubosa (electronegativa, con electrones excedentes) hacia el suelo (electropositivo, con déficit de electrones); esto es, hacia abajo. Pero el “fenómeno rayo”, lo que los humanos entendemos habitualmente como “un rayo” –la luz, el calor, la generación del trueno, técnicamente el golpe de retorno–, se forma hacia arriba. Por esto decimos que el rayo “asciende” en vez de “caer”. La razón radica en que la velocidad de la luz en el vacío es el límite absoluto de rapidez para todo ente con masa o información. La información de que el canal conductivo ha quedado establecido no puede viajar hacia la base de la nube más deprisa de lo que van cayendo los electrones situados en las regiones inferiores del canal hacia abajo, puesto que éstos ya lo hacen a la velocidad de la luz. En la práctica, hacen falta unas cien millonésimas de segundo para que la base de la nube “se entere” de que el canal con el suelo ha quedado establecido y empiece a lanzar el resto de los electrones hacia abajo. Durante ese periodo el “golpe de retorno” sube hacia arriba y, con él, la región de alta corriente. Los rayos más potentes pueden transportar corrientes de hasta 120.000 amperios y 350 culombios, aunque normalmente suelen andar por los 30.000 amperios y quince culombios. No es raro que produzcan temperaturas de hasta 30.000 ºC; este calor, al transferirse al aire, ocasiona las ondas de choque que forman el trueno (que, lógicamente, también se crea de abajo arriba). Surgen señales de radiofrecuencia de gran longitud de onda. En los últimos años se ha descubierto que los rayos generan
- 244 -
La Pizarra de Yuri 1
también notables emisiones de radiación ionizante, los destellos terrestres de rayos gamma (TGF). Completado el golpe de retorno primario, pueden producirse otros secundarios; entonces, el rayo parece “centellear”. Este fenómeno se produce de manera análoga al primero: surgen de la base nubosa los llamados líderes dardo (dart leaders) que recorren de nuevo el canal en dirección al suelo, seguidos por los nuevos golpes de retorno ascendentes. Al finalizar el fenómeno, la diferencia de carga entre la base de la nube y el suelo ha desaparecido. Rayos positivos.
Distintos tipos de descargas eléctricas atmosféricas, en función de la altitud. (Clic para ampliar)
Existen diversos tipos de rayos, desde el electronegativotroposférico común que acabamos de ver hasta rarezas como los duendes rojos que se dan en las capas superiores de la atmósfera o los posibles rayos globularesque habrían causado el espanto más de una vez. Hay uno en el que merece la pena detenerse de modo especial: el rayo positivo. Como hemos visto, el rayo común está ocasionado por la presencia de una fuerte carga electronegativa en la parte inferior de los cumulonimbos. Pero, ¿qué pasa con la carga electropositiva igualmente intensa que ha ido a parar a su parte superior? Pues que también puede formar rayos, muchos menos (apenas el 5% de los rayos son positivos) pero aún más potentes: hasta ¡300.000 amperios y mil millones de voltios, diez veces
- 245 -
Antonio Cantó
más que un electronegativo común! Debido a su elevada potencia y alcance, suelen causar habitualmente importantes incendios forestales, daños a las redes eléctricas y se cree que en alguna ocasión, catástrofes aéreas. El rayo positivo resulta especialmente inquietante porque parece “salir de la nada”. Ya hemos dicho que los líderes escalonados son prácticamente invisibles al ojo, sobre todo durante el día. Su problema es que, al originarse en la parte superior de la nube, los líderes recorren una larga distancia en rumbo general horizontal antes de “inclinarse” hacia el suelo. Así, puede surgir un rayo de enorme potencia en un lugar donde aparentemente no hay nubes, ni lluvia ni nada. Los rayos positivos emiten, además de los efectos habituales, cantidades importantes de ondas de radio de muy baja frecuencia: VLF y ELF. El pararrayos. La tendencia de los rayos a conectarse con el punto más alto de un terreno determinado fue observada desde tiempos antiguos. Solía ocurrir con frecuencia que este punto más alto fuera la torre de un templo –el campanario de una iglesia, el minarete de una mezquita, la punta de una estupa–, lo que generaba ciertas contradicciones sobre la supuesta protección divina para aquellos que se acogían a sagrado durante una tormenta eléctrica. Si los edificios de la antigüedad ardían continuamente como teas debido a sus técnicas constructivas en madera y paja, los templos iluminaban al pueblo cada dos por tres por efecto del rayo. Al parecer, algunas estupas budistas de Sri Lanka ya incorporaban algo parecido a un primitivo pararrayos. La torre inclinada de Nevyansk, en Rusia, fue construida entre 1725 y 1732 e incluye una estructura aparentemente concebida para actuar como pararrayos: una esfera con puntas en lo alto directamente conectada a una trama metálica que se hunde en los cimientos. En Occidente, la invención de este dispositivo se atribuye generalmente al estadounidenseBen Franklin, en 1749.
- 246 -
La Pizarra de Yuri 1
La torre inclinada de Nevyansk (Rusia), con lo que parece ser un primitivo pararrayos compuesto por una esfera con púas superior y una conexión metálica estructural al subsuelo. De ser así, precedería en 20 años al pararrayos de Franklin.
La función de un pararrayos es canalizar la corriente del rayo a través de un conductor seguro, impidiendo así que atraviese destructivamente la estructura protegida. Por tanto, consiste en un mástil conductor situado en el punto más alto conectado a un cable que se hunde profundamente en el suelo. Debido al comportamiento parcialmente caótico del rayo, la eficacia del pararrayos resulta variable; las instalaciones críticas suelen contar con varios para asegurar su protección. En las torres eléctricas, hay un cable superior desempeñando esta misma función; las centrales y estaciones de transformación cuentan con sofisticadas defensas contra este fenómeno natural. Los barcos utilizan un sistema muy parecido, con el conductor puesto en contacto con el agua. Más intrigante resulta la protección contra el rayo en los aviones, que no mantienen contacto con el suelo. En general, por esta misma razón, las aeronaves no “atraen” al rayo (actúan un poco como “un pájaro posado sobre el cable de alta tensión”); aunque, en ocasiones, las cargas estáticas propias de cualquier aparato que avanza por el aire provocan el efecto inverso. Además, siempre puede ocurrir que un rayo conectando con el suelo atraviese casualmente a una aeronave que se encuentre en su camino,
- 247 -
Antonio Cantó
especialmente durante las operaciones a baja altitud o debido a los rayos positivos ya mencionados. Los efectos del rayo sobre las aeronaves son generalmente menores. Por un lado, el fuselaje metálico exterior actúa como jaula de Faraday, lo que impide el paso al interior de buena parte de la descarga (los aviones modernos con gran cantidad de composites son intrínsecamente más débiles contra el rayo, pero llevan mejores protecciones). Sin embargo, siempre es posible que algo llegue a penetrar, con la posibilidad de dañar sistemas críticos. En la práctica, muy pocas veces un avión ha sido derribado por el rayo sin duda de ninguna clase. Desde 1945 hasta aquí, sólo constan dieciséis pérdidas atribuidas al rayo en todo el mundo… y es cosa sabida que esta atribución se realiza a veces como cajón desastre cuando no se puede identificar otra causa. La más notoria, y una de las pocas difícilmente discutibles, es el accidente del vuelo 214 de Pan American el 8 de diciembre de 1963: un Boeing 707. Mientras permanecía en el patrón de espera para aterrizar en Filadelfia (EEUU), durante una fuerte tormenta eléctrica, un rayo causó la explosión de los gases combustibles en el depósito del extremo del ala de babor. El ala resultó destruida y la aeronave se precipitó a tierra, muriendo sus 81 ocupantes. Cosa parecida le pasó en Perú al LANSA 508, un Lockheed Electra que se estrelló de manera parecida en 1971, con una única superviviente entre sus 92 ocupantes. Uno que nos afectó directamente fue la pérdida de un carguero Boeing 747 de la Fuerza Aérea del Irán del Shá, en Madrid, el 9 de mayo de 1976 (17 bajas). Mucho más incierto resulta el caso delAir France 117 (1962), con 113 víctimas, o el TWA 871 en Italia (1959). El resto son aeronaves de porte menor y/o casos más que dudosos. Fabricantes notables como Airbus, la antigua McDonell Douglas, Tupolev, Antonov o Ilyushin, con decenas de millares de aviones volando durante décadas por los lugares más insólitos en toda clase de condiciones meteorológicas, no han sufrido nunca ninguna pérdida ocasionada por el rayo. Como puede verse, el riesgo mayor en estos casos consiste en la detonación de los gases en algún depósito de combustible, seguido por la sobrecarga de los equipos eléctricos y electrónicos de a bordo (especialmente los de navegación). Para evitarlo, las aeronaves modernas incorporan tramas o mallas de conductores, conectadas a los descargadores de estática, que en caso de contacto con el rayo actúan como canales de derivación de la energía hasta disiparla a través de estos dispositivos. También llevan barreras dieléctricas, concebidas para impedir que el rayo acceda a lugares críticos, así como sistemas eléctricos y electrónicos específicamente diseñados para derivar los pulsos de corriente generados por el rayo sin que dañen los componentes. El resultado es que, en
- 248 -
La Pizarra de Yuri 1
los últimos treinta años, no se ha perdido ningún avión de gran porte debido a este motivo. Rayos de otros mundos.
Relámpagos en Júpiter. Imagen obtenida por la nave espacial Galileo. (NASA)
Además de la Tierra, se han registrado rayos en Marte, Júpiter, Saturno y Urano. Probablemente también en Titán y Neptuno, y se discuten en Venus. En general, como dijimos al principio, todo lo que tiene una atmósfera de densidad suficiente parece producir tormentas eléctricas. Como hemos visto, estos fenómenos electromagnéticos emiten muchas cosas además de luz y calor: especialmente, radiofrecuencia y radiación gamma con niveles de energía superiores a 20 MeV (y posiblemente también rayos X). Esto último resulta muy interesante porque esta radiación puede viajar grandes distancias por el cosmos, en lo que constituye la base de la astronomía de rayos gamma. Aunque nuestros instrumentos aún no son lo bastante sensibles, esto abre la posibilidad de detectar y analizar atmósferas planetarias remotas en el futuro. La emisión en radio de baja frecuencia causada por las tormentas eléctricas resulta todavía más intrigante. Estas emisiones son breves pero extremadamente poderosas: un rayo terrestre puede llegar a emitir con una potencia de 100.000 millones de vatios. Esto es perfectamente detectable desde las proximidades de la Tierra (por ejemplo, desde la cara oculta de la Luna) incluso con radiotelescopios sencillos. Una señal de un megavatio procedente de Epsilon Eridani, a 11 años luz de aquí, se puede detectar sin problemas con un plato de doscientos metros de diámetro: menos que Arecibo. Y hablamos de emisiones cien mil veces más potentes. Es más chulo aún. Resulta que las características de la atmósfera donde se genera el rayo determinan las características de la señal. Las tormentas eléctricas de las atmósferas ricas en oxígeno, como la terrestre, emiten con un pico característico entre 5 - 249 -
Antonio Cantó
y 7 kHz. Por tanto, aunque los desafíos técnicos y económicos son relevantes, no resulta imposible concebir un radiotelescopio especializado en la detección de atmósferas extrasolares del tipo de la terrestre mediante las emisiones de radio producidas por sus tormentas eléctricas. El principal problema provendría de las interferencias causadas por nuestros propios rayos. Por ese motivo, este radiotelescopio estaría mejor situado en el espacio y a ser posible “blindado” frente a la Tierra (¿dijimos la cara oculta de la Luna?). Por su parte, un telescopio en órbita solar a 7,4 horas-luz de distancia podría utilizar al Sol como lente gravitacional para enfocar las ondas de radio. Hay un estudio bastante interesante sobre todo esto aquí. Durante milenios, el rayo fue objeto de temor y veneración supersticiosa. Quizás en un tiempo no tan lejano, de la mano de la ciencia, sirva para indicarnos los rumbos futuros de la humanidad: el mundo, aún ignoto, que nos espera para convertirse en nuestro segundo hogar. Si es que no está ocupado ya, lo cual sería más interesante aún.
- 250 -
La Pizarra de Yuri 1
Así funciona una central nuclear Yuri, el 14 de noviembre de 2010 @ 8:50 · Categoría: Ciencia popular, Tecnología
Energía nuclear de fisión.
La película El Síndrome de China (1979) sigue conteniendo una de las mejores explicaciones sencillas del funcionamiento de una central nuclear. Sin embargo, hoy intentaremos profundizar un poquito más. Pues… que me he dado cuenta de que aquí hemos hablado con detalle sobre armas nucleares, termonucleares e incluso del juicio final. Y sobre las perspectivas de la fisión y de la fusión, sobre los héroes y mitos de Chernóbyl, sobre la central nuclear más grande del mundo, mil cosas… pretendo incluso elaborar un todavíafuturo post sobre lo sucedido de verdad en Chernóbyl (ya te dije, resulta más difícil distinguir la paja del grano de lo que parece, y ese quiero que sea riguroso y documentado hasta el extremo)… pero aún no he explicado cómo funcionarealmente una central nuclear y el ciclo de su combustible. Yo, que soy así de chulo. :-/
La central nuclear de Cofrentes (Valencia) vista desde el pueblo. Contiene bajo la cúpula un reactor de agua en ebullición (BWR) que produce 1.092 MWe. (Clic para ampliar)
- 251 -
Antonio Cantó
Producción, demanda y balance importador/exportador de la Red Eléctrica de España, 1995-2010. Datos tomados de los informes mensuales en www.ree.es/operacion/balancediario.asp (Clic para ampliar)
Seguramente sabrás, y si no ya te lo cuento yo, que una central nuclear es una fábrica deelectricidad. Cualquier día típico en España, las centrales nucleares producen uno de cada cinco vatios que consumimos para mover nuestras vidas (¿te imaginas un mundo sin electricidad?). Esta cifra del 19%, que antes era mayor (hace quince años era del 35%), es ahora similar a la de los Estados Unidos o el Reino Unido. Por el momento, vamos servidos: España es, desde hace más de un lustro, exportador neto de electricidad (sí, exportador; y sí, desde mucho antes de la crisis: si te han dicho otra cosa, te han mentido. Observa que en los informes de la REE el saldo importador aparece en positivo y el exportador en negativo). Una central nuclear es, además, un tipo particular de central térmica. Es decir: la energía eléctrica se produce generando calor. En las centrales térmicas corrientes se utilizan grandes quemadores a carbón, gas natural o derivados del petróleo como el gasoil, bien - 252 -
La Pizarra de Yuri 1
sea en ciclo convencional o enciclo combinado, con o sin cogeneración. En todo caso se trata, básicamente, de calentar agua en unas calderas hasta que ésta se convierte en vapor con fuerza suficiente como para hacer girar una turbina según los ciclos de Carnot y Rankine. El eje rotativo de la turbina impulsa a su vez el de uno o varios alternadores, que son los que producen la energía eléctrica en sí. Cuando hablamos de estos grandes generadores instalados en las centrales eléctricas y conectados a potentes turbinas de vapor, se suelen denominarturboalternadores. La pura verdad es que no resulta un método muy eficiente: se pierde aproximadamente entre una tercera parte y las dos terceras partes de la energía térmica producida (y por tanto del combustible consumido) debido a las ineficiencias acumulativas de estos mecanismos y a las limitaciones teóricas del ciclo de Carnot. Toda central térmica del presente, nuclear o convencional, necesita producir entre dos y tres vatios térmicos para generar un vatio eléctrico. Esto es: uno o dos de cada tres kilos o litros de su valioso combustible –petróleo, gas natural, carbón, uranio– se malgastan en estropear cosas caras dentro de la instalación y ocasionar contaminación térmica en el exterior. Típicamente, una central nuclear capaz de generar mil megavatios eléctricos debe producir tres mil térmicos. Es lo que hay. Si se te ocurre alguna manera de mejorarlo, no dejes de comentármelo, que tú y yo tenemos que hablar de negocios. :-D Así pues, la clave de toda central térmica consiste en calentar agua para producir vapor que haga girar unas turbinas y con ellas unos alternadores eléctricos. En el caso particular de una central nuclear, este calor se origina por medios… eso, nucleares. :) Específicamente, hoy por hoy, mediante la fisión de átomos pesados e inestables como algunosisótopos del uranio. Veámoslo.
Cualquier cosa capaz de hacer girar el eje de un alternador producirá energía eléctrica. Arriba, un alternador manual; abajo, el eje de un gigantesco generador hidroeléctrico en la Presa Hoover, Estados Unidos.
Fisión nuclear y reacción en cadena. Ya te conté un poquito de cómo va esto de la fisión y la reacción en cadena en Así funciona un arma nuclear. Vamos a repasarlo por encima, centrándonos en esta aplicación civil. Como sabes, existen algunas sustancias en la naturaleza que
- 253 -
Antonio Cantó
son radioactivas. ¿Qué quiere decir esto? Bueno, su propio nombre nos da una pista: radio-activas. O sea: no son totalmente inertes desde el punto de vista físico, como cualquier otro piedro, líquido o gas. Por el contrario, los núcleos de sus átomos presentan una actividad física que se expresa en forma de radiación; para ser más exactos, en forma de radiaciones ionizantes. Estas radiaciones son más energéticas y pueden causar más alteraciones en la materia que las no ionizantes, como las que emite una televisión de tubo, una antena de radio o un teléfono móvil. ¿Por qué se produce esta radioactividad? Para contestar a eso hay que responder primero a otra pregunta: ¿por qué algunos núcleos atómicos no son estables? Esto se debe a que la configuración de protones y neutrones en su núcleo es anómala y tiende a un estado de menor energía. Veámoslo con un ejemplo, que ya introdujimos en Así funciona un arma termonuclear. La mayor parte del carbono que nos compone (a nosotros y a otro buen montón de cosas en este universo) es carbono-12 (12C). Se llama así porque tiene en su núcleo seis protones y seis neutrones: en total, doce partículas. Este es un núcleo estable, que no tiende espontáneamente a un estado de menor energía bajo condiciones corrientes. El hecho de tener seis protones en su núcleo es lo que hace que sea carbono; este número no debe variar o pasará a ser otra cosa.
Algunos isótopos del carbono: carbono-12, carbono-13 y carbono-14.
Sin embargo, su número de neutrones sí que puede variar, y seguirá siendo carbono. Por ejemplo, cuando tiene seis protones y siete neutrones (total, trece partículas) estamos ante el carbono-13 (13C). El carbono-13 es también estable en condiciones estándar y, de hecho, aproximadamente el 1,1% del carbono natural (incluyendo el que forma nuestro cuerpo) pertenece a esta variante. Como sigue siendo carbono, sus propiedades químicas (y bioquímicas) son prácticamente idénticas; las físicas varían un poquito, pero muy poco.
- 254 -
La Pizarra de Yuri 1
Si este núcleo presenta un neutrón más, entonces estamos ante el carbono-14 (14C), que constituye una billonésima parte del carbono natural y está compuesto por seis protones y ocho neutrones. ¡Ah! Aquí cambia la cosa. Esta combinación ya no es estable: tiende a perder energía (y algún neutrón) para transformarse en otra cosa. Sus propiedades químicas y bioquímicas siguen siendo las mismas, pero las físicas difieren sustancialmente. Entre estas diferencias, de manera muy notoria, surge la radioactividad. Con el paso del tiempo, estos núcleos de carbono-14 van a sufrir transmutación espontánea para convertirse en otra cosa. Por ejemplo, en una muestra de carbono-14, la mitad de sus átomos transmutarán en 5.730 años aproximadamente. Cualquiera de ellos puede hacerlo en cualquier momento, por mero azar. El carbono-14 lo hace por desintegración beta negativa: uno de sus neutrones se reajusta, pierde una carga negativa (en forma de un electrón) y con eso deja de ser neutrón (sin carga) y pasa a tener una carga positiva, con lo que ahora es un protón. Dicho en términos sencillos: un neutrón (neutro, como su nombre indica) “expulsa un negativo” para “quedarse en positivo”. Y al “quedarse en positivo” ya no es un neutrón, porque ya no es neutro: se ha convertido en protón (que es positivo). Con lo que ahora tenemos en el núcleo siete protones y siete neutrones. ¿Hemos dicho siete protones? ¡Entonces ya no puede ser carbono! Acaba de transformarse en nitrógeno, un gas en condiciones estándar con propiedades físico-químicas totalmente distintas; para ser exactos, en nitrógeno-14 (14N), el nitrógeno común. Sí, como en la transmutación que soñaban los alquimistas y que finalmente resolvió la física nuclear. (Observa que durante este último proceso el número de partículas en el núcleo no ha cambiado. Lo que ha cambiado es su naturaleza y configuración.)
- 255 -
Antonio Cantó
Uranio-235 altamente enriquecido. Rebajado con uranio-238 y dispuesto en forma de pastillas, constituye el combustible más frecuente de las centrales nucleares.
¿Y qué pasa con el electrón (“el negativo”) que ha emitido? Pues que escapa hacia el exterior, y además lo hace con una cierta energía: 156.000 electronvoltios. Estamos ante la radiación beta. Ya tenemos nuestra radioactividad. Los núcleos atómicos pueden decaer y desintegrarse de distintas maneras, lo que ocasiona los distintos tipos de radioactividad. Pueden hacerlo en forma de un pequeño grupo de dos protones y dos neutrones (o sea, un núcleo de helio-4), que se llama partícula alfa y constituye la radiación alfa. O como acabamos de ver, emitiendo un electrón o un positrón, lo que forma la radiación beta. O en forma defotones muy energéticos, de naturaleza electromagnética, que da lugar a la radiación gamma y X. O lanzando neutrones libres, en lo que viene a ser la radiación neutrónica. Cada una de ellas tiene unos efectos y una peligrosidad diferentes, pero todas son distintas manifestaciones del mismo fenómeno: la radioactividad. Todas estas emisiones son capaces de desarrollar trabajo, hacer cosas; entre otras, producen calor. Este calor es el que vamos a utilizar para calentar el agua que moverá las turbinas y con ellas los generadores de electricidad. Algunos núcleos resultan tan inestables que además son fisionables. Es decir: no se conforman con hacerse retoquesaquí y allá, sino que se parten en otros núcleos más pequeños. Al hacerlo, despiden una notable cantidad de energía en forma de energía cinética de los fragmentos, fotones (radiación gamma) y neutrones libres. De manera espontánea, esto sólo ocurre con núcleos muy grandes y pesados, que pueden contener - 256 -
La Pizarra de Yuri 1
unas configuraciones de lo más raro. Entre estos se encuentra el torio-232 (232Th) o el uranio-238 (238U). Unos pocos núcleos fisionables son además fisibles. Es decir: la energía que emiten cuando se rompen es tan alta, su estabilidad resulta tan pobre y su sensibilidad al impacto de los neutrones libres es tan elevada que pueden fisionarse entre sí muy rápidamente, intecambiando neutrones una y otra vez. Cuando esto sucede, estamos ante la reacción en cadena: la fisión espontánea de un solo núcleo puede romper varios más, que a su vez rompen muchos más, y así hasta que se agote el material fisible. Hay muy pocos isótopos que reúnan estas condiciones; en la práctica, sólo dos sirven para producir energía de fisión a gran escala. Uno está presente en la naturaleza: el uranio235 (235U). El otro hay que producirlo artificialmente: se trata del plutonio-239 (239Pu). Hay algunos más, todos ellos sintéticos, como el uranio-233 ( 233U).
La reacción en cadena. Un neutrón fragmenta un núcleo fisible, lo que produce más neutrones que fisionan los de alrededor, y así sucesivamente hasta que se agota el material o la reacción se contamina demasiado. Cada una de estas fisiones produce energía que se plasma, entre otras cosas, en forma de calor. Es posible que hayas oído también hablar del torio como combustible para la fisión nuclear. Hablaré de ello con más detalle próximamente, pero ya te adelanto que no es ni con mucho la “solución mágica” que algunos pretenden.
- 257 -
Antonio Cantó
La Pila Chicago-1, en Estados Unidos, donde Enrico Fermi y Leó Szilárd consiguieron la primera reacción en cadena autosostenida de la historia.
Masa crítica. Hecho este inciso, sigamos. ¿Cómo se consigue la reacción en cadena? Pues es muy sencillo: simplemente acumulando el suficiente material fisible. Sí, sí, si echas el suficiente uranio-235 enriquecido o plutonio-239 en un cubo, él solito se activará y comenzará a producir energía. De hecho, así ocurren losaccidentes de criticidad, como los dos del famoso núcleo del demonio en el Laboratorio Nacional Los Álamos. ¿Cómo es esto posible? Sencillo. En cualquier masa de material fisible hay siempre algún átomo sufriendo fisión espontánea, que vimos más arriba. Si no hay mucho material, los neutrones generados escapan al medio exterior y la reacción en cadena no se produce. Pero cuando se alcanza cierta cantidad de material fisible, la probabilidad de que estos neutrones alcancen a otros núcleos durante su fuga se incrementa; entonces, estos núcleos fisionan y producen más neutrones. Ya tenemos la reacción en cadena. En consecuencia, por el simple hecho de echar suficiente material fisible en una piscina de agua, éste sufrirá una reacción en cadena y el agua se calentará. Usando uranio-235 puro, bastaría con unir las dos mitades de una esfera de 52 kg dentro de una balsa y tendrías tu reactor nuclear. Claro, la cosa no es tan sencilla. Para empezar, tú no quieres
- 258 -
La Pizarra de Yuri 1
hacer eso; porque si lo haces, obtendrás una excursión instantánea de energía nuclear y con ella uno de esos bonitos accidentes de criticidad abierta que se parecen a una bomba atómica floja aunque no sean realmente una bomba atómica. Y luego, ¿cómo lo paras? El primer reactor nuclear de la historia fue la Pila Chicago-1, creada por Enrico Fermi y Leó Szilárd: un precario montaje de madera que soportaba capas alternas de grafito mezclado con seis toneladas de uranio puro junto a otras 34 de óxido de uranio. El grafito es un potente moderador neutrónico capaz de ralentizar los neutrones rápidosproducidos por la fisión y transformarlos en neutrones térmicos (los alemanes tuvieron un error con el grafito y por eso no pudieron completar nucna un reactor operativo). Esto tiene dos efectos. El primero es que facilita la fisión entre todo ese material disperso: los neutrones rápidos son demasiado energéticos y tienden a escapar al exterior, mientras que los térmicos están en su punto justo para mantener la reacción en cadena. El segundo es que lo puedes utilizar para acelerar y decelerar la reacción a tu gusto. Sin embargo, la Pila Chicago-1 sólo usaba el grafito para la primera función; la segunda quedaba asegurada mediante unas barras de cadmio, que absorbe los neutrones. Esto dio lugar al peculiar puesto de trabajo del hombre del hacha, quien debía cortar la cuerda para que estas barras cayeran de golpe si todo saliera mal. A las 3:25 de la tarde del día 2 de diciembre de 1942, esta Pila Chicago-1 situada en la ciudad estadounidense del mismo nombre produjo la primera reacción en cadena sostenida de la historia de la humanidad. Comenzaba así la Era Atómica.
- 259 -
Antonio Cantó
Gráfica de intensidad neutrónica de la Pila Chicago-1, el 2 de diciembre de 1942. Puede observarse el momento en que la reacción en cadena neutrónica se dispara por sí misma y no deja de aumentar hasta que se insertan las barras de control.
Las centrales nucleares modernas. Tomemos como ejemplo la Central Nuclear de Cofrentes (Valencia), que me pilla cerca de casa. Cofrentes es un diseño estadounidense, desarrollado por General Electric, que se llama de reactor de agua en ebullición (BWR). Es el segundo diseño más popular entre los utilizados comúnmente en Occidente, sólo por detrás del reactor de agua a presión (PWR). Veamos una representación esquemática de este BWR:
Diseño esquemático BWR de la Central Nuclear de Cofrentes (Valencia). (Iberdrola) (Clic para ampliar)
Vamos a concentrarnos en la parte central derecha de la imagen anterior, que es donde se genera la energía y se halla distribuida del siguiente modo:
- 260 -
La Pizarra de Yuri 1
Distribución general de los edificios de reactor, combustible y turbinas en la Central Nuclear de Cofrentes. (Iberdrola) (Clic para ampliar)
…y específicamente en el reactor, donde se produce la energía térmica que luego convertiremos en eléctrica. Ya dijimos que las centrales térmicas son muy poco eficientes: este reactor en particular genera 3.237 megavatios térmicos; sin embargo, la potencia final resultante es de 1.092 megavatios eléctricos. Eso es un 33,7%, apenas un pelín más de la tercera parte. Expresado de otra manera, el 66,3% de la producción (o sea, del valioso combustible nuclear) se pierde por las vías ya mencionadas (sin contar la emisión neutrínica que se funde casi el 5% antes incluso de empezar a producir energía térmica).
- 261 -
Antonio Cantó
Detalle esquemático del reactor nuclear de Cofrentes. 1.- Venteo y rociador de la tapa. 2.- Barra para izado del secador. 3.- Conjunto del secador de vapor. 4.- Salida de vapor. 5.- Entrada para rociadores del núcleo. 6.- Conjunto de separadores de vapor. 7.- Entrada de agua de alimentación. 8.- Distribuidor de agua de alimentación. 9.- Entrada de la inyección de refrigerante. 10.- Tubería de rociadores del núcleo. 11.- Distribuidor para rociadores del núcleo.
- 262 -
La Pizarra de Yuri 1
12.- Guía superior. 13.- Bombas de chorro. 14.- Envolvente del núcleo. 15.- Elementos combustibles. 16.- Barra de control. 17.- Placa soporte del núcleo. 18.- Entrada de agua de recirculación. 19.- Salida de agua de recirculación. 20.- Soporte de la vasija. 21.- Blindaje del reactor. 22.- Accionadores de las barras de control. 23.- Tuberías de accionamiento hidráulico de las barras de control. 24.- Detectores internos de neutrones. (Iberdrola)
El reactor es una vasija de acero SA-533 GrB con revestimiento interior inoxidable, de 21,3 metros de altura por 5,53 de diámetro; el grosor mínimo del acero asciende a 13,6 cm, para soportar una presión máxima de 87,5 kg/cm 2 (unas 84,7atmósferas). Los reactores BWR utilizan agua destilada corriente como refrigerante y como moderador, por lo que aquí no nos encontramos con grafito ni agua pesada ni nada de eso; pero, por esta razón, requiere para funcionar uranio ligeramente enriquecido en el isótopo fisible 235U. En el caso particular de Cofrentes, utiliza uranio enriquecido al 3,6% (el llamado uranio natural tiene un 0,7% de 235U). Este combustible está organizado en forma de pequeñas esferas o perdigones de dióxido de uranio, introducidos en varillas y ensamblajes de un material que se llama zircaloy. El zircaloy es una aleación compuesta en su gran mayoría por zirconio. El zirconio, un metal, tiene una característica peculiar: es muy transparente a los neutrones. O sea: los neutrones que aseguran el sostenimiento de la reacción en cadena pueden pasar libremente a su través, saltando de barra en barra. Para el uranio natural, el agua corriente (agua ligera) es un absorbente neutrónico y bloquea la reacción en cadena. Sin embargo, con este uranio enriquecido al 3,6%, la radiación neutrónica es lo bastante intensa para mantenerla y entonces el agua ligera actúa de moderador como si fuera grafito o agua pesada. Esto presenta varias ventajas significativas. La primera es que el agua ligera destilada sale enormemente más barata y accesible que el agua pesada. Al mismo tiempo, no presenta el riesgo de incendio del grafito (en Chernóbyl, el incendio principal fue un incendio de grafito). Sirve para transportar el calor producido. Y, adicionalmente, el flujo y temperatura del agua se pueden utilizar en el control de la reacción. Pero el control principal corre por cuenta de 154 barras decarburo de boro, un poderoso absorbente neutrónico con poca tendencia a crear isótopos raros como resultado de esta absorción. Cuando se insertan estas barras entre las de combustible, atrapan los neutrones producidos por la fisión del uranio presente en estas últimas y deceleran o interrumpen la reacción en cadena. Al extraerlas, permiten la circulación de los neutrones y el reactor se acelera. La lógica del invento resulta bastante sencilla. Hemos quedado en que la mera acumulación de un material fisible como el uranio-235 inicia espontáneamente una reacción en cadena, cuya intensidad depende fundamentalmente del enriquecimiento y - 263 -
Antonio Cantó
de la densidad; esta reacción se produce porque los neutrones emitidos en cada fisión espontánea pueden alcanzar otros átomos de uranio-235, haciéndolos fisionar a su vez, y así sucesivamente. En un reactor recién cargado pero aún parado tenemos las barras de combustible introducidas en el agua, lo que debería iniciar de inmediato esta reacción en cadena espontánea; sin embargo, hemos metido por entre medias las barras de control, el absorbente neutrónico, con lo que los neutrones no pueden saltar de barra en barra y por tanto la reacción no se produce o lo hace con una intensidad muy pobre. Entonces, para poner en marcha la central comenzamos a extraer las barras de control (de absorbente neutrónico). Las fisiones espontáneas en los núcleos de uranio-235 (o, para el caso, plutonio-239) comienzan a lanzar neutrones en todas direcciones, y específicamente hacia las demás barras de combustible. Estos neutrones producidos por la fisión son mayoritariamente neutrones rápidos. Los neutrones rápidos tienen una capacidad relativamente pobre de provocar nuevas fisiones; ya dijimos que, por explicarlo de algún modo, pasan demasiado deprisa para tener un efecto. Pero entonces se encuentran con el moderador, que tradicionalmente era grafito o agua pesada y aquí es agua destilada corriente. Cuando el uranio está poco enriquecido, el agua actúa como absorbente neutrónico –igual que si fuera una enorme barra de control– y los detiene por completo, interrumpiendo la reacción. Pero cuando el uranio está algo más enriquecido (como en este caso, al 3,6%), el agua actúa como moderador neutrónico: es decir, los ralentiza hasta convertirlos en neutrones térmicos, óptimos para provocar nuevas fisiones. Así que al extraer las barras de control y dejar a las de combustible envueltas en agua, la reacción en cadena comienza a acelerar, calentando este agua de su alrededor. Mediante una compleja combinación de barras de control y flujo del agua, se puede ajustar la reacción en cada zona exacta del núcleo con gran precisión. De este modo, la temperatura del agua circundante aumenta rápidamente. En la gran mayoría de los reactores nucleares, esta agua moderadora-controladora-transportadora se encuentra contenida en un circuito cerrado con circulación forzada que nunca entra en contacto directo con el exterior (o no debe hacerlo, vamos). Este circuito cerrado que pasa por dentro del reactor se llama circuito primario. En un reactor de agua en ebullición, el agua de este circuito primario se halla a unas 70 o 75 atmósferas de presión (en Cofrentes está a 70,1). Esto permite que entre en ebullición cuando la temperatura alcanza unos 285ºC (los reactores de agua a presión se - 264 -
La Pizarra de Yuri 1
mantienen a casi 160 atmósferas, lo que no deja que haya ebullición). Así se forma rápidamente vapor en la parte superior de la vasija, que circula por unas canalizaciones hacia la turbina de alta presión. Ya tenemos energía. Ahora hay que convertirla en electricidad.
La central nuclear de Cofrentes vista desde una loma cercana, con las torres de refrigeración proyectando los característicos –e inocuos– penachos de vapor.
Cuando este vapor a elevada presión y temperatura llega a la turbina de alta presión, la hace girar sobre su eje siguiendo las leyes de Carnot y Rankine que mencionamos más arriba. Y con ello hace girar un alternador que produce energía eléctrica, exactamente como cualquier otra clase de central térmica y la inmensa mayoría de los generadores. De ahí, el vapor –que aún mantiene una cantidad importante de energía aprovechable– pasa a las turbinas de baja presión, cuyos alternadores producen más electricidad. Toda esta corriente es remitida a los transformadores exteriores y de ahí a la red de 400.000 voltios para su distribución comercial. Ahora ya sólo queda asegurarnos de que el agua vuelve al reactor para mantener el ciclo sin fin, más fría y de nuevo en estado líquido. Esta es la función de los condensadores, que son, en esencia, cambiadores de calor. Los condensadores se mantienen fríos con agua procedente de algún río o mar próximo, que viaja por su propio circuito: el circuito - 265 -
Antonio Cantó
secundario. Así, cuando el agua del circuito primario pasa por estos condensadores, pierde temperatura suficiente como para volver al estado líquido por completo y regresar al reactor. Ambos circuitos no entran nunca en contacto, garantizando que la contaminación radioactiva ocasionada al pasar por el reactor permanezca contenida en el primario. Finalmente, el agua del secundario –que se ha calentado al pasar por los condensadores– es enfriada en las torres de refrigeración. Así se forman esas características nubes de vapor blanco que podemos ver en la imagen de la izquierda. En mi opinión, las centrales nucleares de fisión son una buena manera de producir la muy necesaria electricidad. Lo que pasa es que tienen sus limitaciones. En realidad, no son ni la pesadilla que creen unos ni la panacea que creen otros. Ya apunté las razones en el post El renacimiento nuclear, en la incubadora. De manera muy resumida, es cara, es incierta, tiene sus riesgos y resulta poco flexible en los mercados liberalizados. Resulta tremendamente significativo que el 89% de los reactores que se construyen en la actualidad pertenezcan a empresas monopolísticas estatales o paraestatales, mientras sólo seis unidades representan una apuesta privada. De hecho, la energía nuclear de fisión ha sido la más subvencionada de toda la historia: sólo en los Estados Unidos,representó el 96% de los subsidios totales al desarrollo energético entre 1947 y 1999. El coste de instalación por kilovatio es varias veces mayor que el de, por ejemplo, una central de ciclo combinado a gas natural. El precio en el mercado del kilovatio final no sale tan ventajoso. Y tampoco garantiza la independencia en tecnologías energéticas: por razones de liberalización y deslocalización de los mercados, existen componentes esenciales de las centrales nucleares que únicamente se fabrican en Japón, China y Rusia. Las mayores minas de uranio sólo están en Canadá, Australia, Kazajstán, Rusia, Namibia y Níger: muchos menos países que productores de petróleo o gas. Si se opta por combustible reprocesado, únicamente quedan reactores regeneradores a gran escala en Rusia. (Los datos de todo esto están en el post mencionado sobre el renacimiento nuclear) En suma: después de décadas de cultura de la seguridad, ni milagro ni diablo. Sólo una fuente de energía más, al menos en el presente orden socioeconómico, que nos obliga a seguir investigando otras maneras de extraerle a la naturaleza la energía que necesitamos. Y necesitaremos. Otra explicación básica del funcionamiento de una central nuclear. Próximamente: El ciclo del combustible nuclear. - 266 -
La Pizarra de Yuri 1
Así te persigue un misil. Yuri, el 11 de noviembre de 2010 @ 12:07 · Categoría: Historia y cultura, Tecnología
¿Cómo lo hace una máquina para perseguirte con la furia gélida de los robots?
Un UAV georgiano Hermes 450 de fabricación israelí graba el instante en que fue derribado por un caza ruso MiG-29, el 20 de abril de 2008, durante los prolegómenos de la última guerra entre ambos países. El derribo, probablemente con un misil R-73 “Arquero”, se produjo frente a la costa de la disputada Abjasia. Ministerio del Interior de Georgia, Reuters
El bífaz Excalibur, un hacha de 400.000 años de antigüedad hallada en Atapuerca. ¿Una ofrenda, un utensilio, un arma...? En todo caso, una herramienta.
A ojos extraterrestres, probablemente el rasgo más distintivo de la especie humana con respecto a los demás animales sería nuestra capacidad para construir herramientas. Somos mucho más capaces de construir herramientas –materiales e intelectuales– que cualquier otro de los terrestres, y encima sabemos utilizarlas para crear herramientas aún más complejas, en una carrera sin fin llamada tecnología. La historia de la
- 267 -
Antonio Cantó
humanidad es, sobre todo, la historia de su tecnología y del conocimiento acertado o equivocado que hay detrás: la filosofía, la religión, la ciencia. Desde el principio, aplicamos esta capacidad a la construcción de armamento. Como cualquier otra especie biológica, la gente humana necesitamos cazar, defendernos, atacar. En esto no nos diferenciamos en absoluto de los demás vivientes: la violencia forma parte sustancial de nuestra naturaleza. Eso no es ni bueno ni malo; simplemente, es. Toda la historia de la civilización es la historia de cómo aprendimos a ir contra natura; a limitar, articular e incluso suprimir nuestra naturaleza en favor de un bien percibido mayor –la colectividad, el progreso, la justicia, la ley, el orden social, la prosperidad–, que a su vez forman parte de estas herramientas intelectuales con las que sabemos dotarnos. Así, los actos de violencia adquieren en las sociedades humanas una dualidad extraña. Matar por razones individuales, egoístas, se convierte en un crimen: el homicidio, el asesinato. Matar por razones colectivas –la tribu, la nación, la religión, la clase, la política, la ley– pasa a ser un acto de heroísmo. El mismo individuo al que las turbas gritan “¡asesino!” durante su camino al juzgado para ser condenado por matar a veinte personas es llamado “héroe” durante el desfile de la victoria, por esas mismas masas, si sus veinte víctimas pertenecían al enemigo. Por lo que hoy es un espantoso crimen, mañana dan medallas. En ausencia de una ética universal, los actos humanos carecen de sentido y de valor moral por sí mismos: todo depende del contexto, de la ética local, de la narrativa, de la propaganda. De este modo los creadores de armas nuevas –herramientas nuevas para la violencia– se suelen considerar geniales y magníficos cuando son de los nuestros o pérfidos y diabólicos cuando son de los ellos. Esto se observa desde que existen registros escritos, y sigue viéndose en la actualidad sin cambio alguno; por ejemplo, en las condenas a los países que intentan crear armas de destrucción masiva… por parte de países que poseen decenas de miles de armas de destrucción masiva. El argumento es siempre igual: lo nuestro está justificado (por nuestro contexto, nuestra ética local, nuestra narrativa, nuestra propaganda); lo de ellos no. Y viceversa, claro. Siendo un poco más eclécticos, se comprende que el afán de crear armas nuevas capaces de aportarnos una ventaja decisiva contra ellos ha sido una constante en todas las sociedades humanas. Con alguna perspectiva histórica, la verdad es que a estas alturas nos importan bien poco los valores que defendía el bífaz Excalibur de Atapuerca, suponiendo que defendiese alguno. Los viejos lamentos de que la reintroducción de la ballesta en Occidente iba a acabar con la nobleza medieval, al permitir al plebeyo
- 268 -
La Pizarra de Yuri 1
infante perforar la coraza del caballero montado, se nos antojan hoy anticuados y hasta risibles; entre otras cosas, porque los valores de la aristocracia feudal –que la ballesta, en efecto, contribuyó a destruir– ya no nos parecen dignos de mantener. Y qué decir de la pólvora. O la dinamita. O la industrialización de la guerra, que nos llevó al concepto moderno de guerra total. La historia de las armas es la historia de la tecnología, de la ciencia y del pensamiento de las sociedades que las crearon. La literatura está llena de referencias a toda clase de anheladas armas mágicas a caballo entre la religión, la ciencia, la filosofía y la leyenda. Por ejemplo, las distintas espadas con nombre propio capaces de derrotar a incontables ellos: Tizona, Colada, Zulfiqar, Durandarte, Kladenets, Taming Sari, Kusanagi, la Excalibur artúrica. O las defensas mitológicas: Égida, Svalinn, los escudos de Ajax y Lancelot, el baño de Aquiles en el río Estigia. Y, por supuesto, lanzas y flechas que jamás fallaban su blanco: Gungnir, Gandiva, Gáe Bulga, el arco de Hércules. Inevitablemente fue la ciencia, y su hija la tecnología, quienes terminaron por crearlas. O al menos, cosas parecidas.
Soldados alemanes preparan una "bomba volante" o misil de crucero V-1 para su lanzamiento. Probablemente la V-1 nazi fue el primer misil operacional verdadero de la historia. Deutsches Bundesarchiv.
La flecha que nunca falla. O eso se pretende. La idea de crear una especie de flecha capaz de perseguir a su blanco por sí sola habría puesto sin duda los ojos como platos a cualquier guerrero antiguo. Si además le hubiéramos contado que esa flecha se propulsaría a sí misma y destruiría el más grande de los barcos, la más resistente de las murallas y la más impresionante máquina bélica
- 269 -
Antonio Cantó
de ellos en un destello de fuego deslumbrador, o nos habría tomado por locos o nos habría pedido que siguiéramos contándole esa leyenda tan chula. Durante milenios, lo más parecido que tuvo la humanidad a un arma autoguiada fueron los perros de caza y combate y otros animales de uso militar. Las primeras armas capaces de guiarse a sí mismas aparecieron durante la Primera Guerra Mundial. Se trataba, básicamente, de complicados mecanismos de relojería capaces de hacer que un avión o torpedo describiese una trayectoria prefijada antes de precipitarse sobre su blanco. Entre estos intentos primitivos se cuentan el torpedo volantedel inventor estadounidense del piloto automático Lawrence Sperry, el Kettering Bug de este mismo país –a caballo entre lo que hoy en día llamaríamos un misil de crucero y un UAV– o los blancos aéreos británicos guiados por radio. Parece que los alemanes también intentaron alguna clase de torpedo guiado para su lanzamiento desde zepelines. Durante el periodo de entreguerras fueron surgiendo conceptos cada vez más sofisticados, pero aún insuficientes para ser tomados seriamente en consideración por los militares. Entre estos se encuentran el Larynx británico y el GIRD-06 soviético de Sergei Korolev, que además de un autopiloto giroscópico incorporaba ya un pequeño cohete como impulsor. Pero no fue hasta mediados de la Segunda Guerra Mundial cuando las armas autopropulsadas y autoguiadas encontraron definitivamente su camino al frente de batalla. Sucedió en 1943, de modo casi simultáneo, con el torpedo alemán G7e/T4 Falke y el Mark 24 FIDO estadounidense. Ambos seguían el ruido subacuático emitido por sus blancos –buques y submarinos– y se demostraron tan eficaces que ya no hubo marcha atrás. Al año siguiente, 1944, la Alemania nazi ponía en servicio el primer misil de crucero real: la V-1. Y en septiembre de ese mismo año, el primer misil balístico eficaz: la V-2. Tanto la V-1 como la V-2 utilizaban pilotos automáticos para alcanzar un punto determinado del territorio enemigo, por lo que no seguían al blanco, sino que atacaban objetivos estáticos (los misiles de crucero y los ICBM actuales siguen haciendo exactamente lo mismo, si bien con ayudas mejoradas a la navegación y mucha mayor precisión y eficacia). Su enorme visibilidad hizo que otros inventos alemanes capaces de perseguir a su blanco pasaran bastante desapercibidos en el imaginario colectivo. Así, pocos recuerdan al Fritz X, que hundió al acorazado Roma –buque insignia de la flota italiana– cuando ya se estaba pasando a los aliados; sin embargo, el Fritz X era un arma de telecomando, que seguía a su blanco gracias a las acciones de un operador humano, no de un sistema de guía autónomo.
- 270 -
La Pizarra de Yuri 1
Durante la Guerra de los Seis Días, el 21 de octubre de 1967, la Armada Egipcia hundió al destructor israelí Eilat con tres misiles P-15 Termit (SS-N-2 Styx). El lanzamiento fue realizado por dos corbetas Komar, sin salir del puerto de Port Said, a 17 millas de distancia. Fue la primera vez en que un buque resultaba hundido por misiles completamente autopropulsados y autoguiados, cambiando así la historia de la guerra naval. En la imagen, una corbeta Komar lanza un misil P-15 Termit. (Mały okręt rakietowy, Wydawnictwo MON, Varsovia, 1974)
El Ruhrstal X-4, que no llegó a entrar en servicio, pretendía derribar bombarderos también bajo el comando de un ser humano. Lo mismo cabe decir del Hs 293, que consiguió algunos éxitos antes de que los aliados aprendieran a interferir la señal de telecomando. Los antiaéreos Wasserfall yFeuerlilie también eran teleguiados, no autoguiados; ninguno de los dos estaba terminado cuando acabó la guerra. Más interesante resulta el Enzian. Aunque aún telecomandado, iba provisto con una guía final infrarroja denominada Madrid que dependía igualmente de la acción humana pero ya empezaba a apuntar hacia el futuro. Ninguno de todos estos conceptos llegó a tiempo para tener una influencia significativa en la Segunda Guerra Mundial. Resulta difícil decir cuál fue el primer misil moderno verdadero, pues fueron el resultado de una evolución progresiva durante la Guerra Fría. También depende del tipo de misil del que hablemos. Se puede afirmar que la V-2 alemana ya era un misil balístico moderno verdadero; aunque le faltaban algunas características de los actuales (etapas y cabezas múltiples, guía astroinercial…), ya “hacía lo que tenía que hacer” y era dispara-y-olvida por completo. En sentido estricto, la V-1 también entraría en esta clasificación, como misil de crucero. Entre los misiles aire-aire, probablemente el honor corresponda a alguna versión del estadounidense AIM-9 Sidewinder. Los tierra-aire, en cambio, tardaron más en desprenderse del telecomando humano; sistemas legendarios de la Guerra Fría como el SA-2 soviético o los Nike norteamericanos dependían por completo de sus operadores. Incluso las primeras versiones del S-300 y el Patriot utilizaban teleguiado parcial, que sigue
- 271 -
Antonio Cantó
usándose actualmente en algunos modos de operación. La mayor parte de misiles genéricamente llamados antitanque, contra blancos móviles terrestres, siguen dependiendo de algún sistema de puntería manejado por una persona. Los antibuque, en cambio, se independizaron desde por lo menos el P-15 Termit soviético (SS-N-2 Styx, en denominación OTAN). Y entre los aire-superficie hubo y hay una diversidad de soluciones, dependiendo de su función exacta. Veámoslo. Misilística básica. En sus idiomas originales –francés e inglés– la palabra missile viene del latín missilis (“lanzable”) y puede referirse a cualquier proyectil, incluso una piedra, arrojado deliberadamente o no. Sin embargo, hoy en día decimos que un misiles un tipo de arma aeroespacial autopropulsada y autoguiada. Así, se distinguen de los torpedos guiados (que no son aeroespaciales, sino submarinos), de las bombas guiadas o inteligentes (que carecen de propulsión autónoma), de los cohetes no guiados (artillería de cohetes, cohetes sin guía como los RPG, los LAW, los Zuni o las series S rusas) y de los lanzadores espaciales (aeroespaciales, autopropulsados y autoguiados, pero no armas en sí mismos). Por centrar el post, vamos a estudiar los misiles que son capaces de seguir autónomamente a un blanco. Es decir, eso de las pelis: apuntas a algo, le lanzas un misil y te olvidas mientras el otro tipo hace lo que puede por evitarlo. ¿De qué manera puede una máquina perseguir a su oponente cual Terminator con trastorno obsesivocompulsivo? Bien: todas ellas lo hacen husmeando sus emisiones. Todo lo que existe, emite. Y además, emite radiación electromagnética. Tu cuerpo, por ejemplo, emite calor debido a sus procesos metabólicos; es decir, radiación térmica, en la banda del infrarrojo. También refleja la luz visible procedente del sol, la luna, las estrellas o cualquier fuente de iluminación artificial. Por eso se nos puede ver: los ojos son receptores de radiación electromagnética en la banda de la luz visible. Esta es, de hecho, la manera más antigua de localizar al enemigo utilizada por la humanidad: verlo.
- 272 -
La Pizarra de Yuri 1
Guía Avtomatika L-112E para el misil anti-radiación ruso Kh-31P de 1988. Actualmente han sido reemplazadas por las L-130. (MAKS 2009)
Empecemos con uno de los conceptos más fáciles: el misil anti-radiación. Los misiles anti-radiación se usan para atacar objetivos que están emitiendo voluntariamente, como los radares o los transmisores de radio y radiotelefonía. Los ejércitos modernos y las sociedades modernas en general dependen de una montaña de emisiones, desde los grandes radares de alerta temprana hasta los teléfonos móviles. Y todo lo que emite se delata a sí mismo. Usando tecnología similar a la de tu oponente, tú puedes detectar una emisora enemiga como mínimo al doble de distancia a la que esa emisora es eficaz, y por lo tanto atacarla desde el doble de distancia si tienes un arma con ese alcance. ¿Cómo puede ser esto? Veámoslo con un ejemplo sencillo. Supongamos que tú vienes en un avión a atacarme a mí y yo quiero detectarte con un radar; ambos tenemos un nivel tecnológico similar. Yo enciendo mi radar, tú vienes hacia mí. Como las señales de radio (el radar usa señales de radio) reducen su intensidad con el cuadrado de la distancia, al principio estamos demasiado lejos y la señal pierde potencia hasta el punto en que no puede excitar un receptor a ninguno de los dos lados: ninguno detecta al otro. Tú sigues acercándote. A una distancia dada, mi señal mantiene intensidad suficiente para excitar los receptores que llevas a bordo: tú acabas de detectarme a mí. Pero la señal aún tiene que rebotar sobre ti y hacer el viaje de vuelta hasta mi radar, con lo que pierde demasiada intensidad durante el retorno y sigo sin detectarte: tú me estás detectando a mí, yo no te estoy detectando a ti. Me estoy delatando yo solito y tú puedes utilizar técnicas de radiogoniometría para ubicarme con gran precisión, y yo aún no te veo. Tendrás que acercarte mucho más, al menos a la mitad de distancia, para que mi señal rebote sobre ti y vuelva a mi radar con la intensidad suficiente para excitar mis receptores: sólo - 273 -
Antonio Cantó
entonces te detectaré. Mientras te mantengas en la “segunda mitad” de la distancia que nos separaba en el momento en que me detectaste por primera vez, estás a salvo por completo salvo que mis receptores fueran mucho más sensibles que los tuyos.
El cazador cazado: con receptores iguales, un blanco puede descubrir al radar antes de que el radar lo descubra a él. Teóricamente, aplicando la ley del inverso del cuadrado, al doble de distancia exacta. El blanco puede aprovechar esa diferencia para atacar al radar desde una distancia de seguridad donde no está siendo detectado. Si el avión encendiera su radar, perdería esta ventaja de inmediato. (Clic para ampliar)
Misil antirradiación estadounidense AGM-88 HARM, aire-superficie. La Fuerza Aérea Española equipa estos proyectiles con los cazabombarderos EF-18.
Evidentemente, desde esa “segunda mitad” de distancia puedes dispararme un arma con toda la tranquilidad del mundo. Y yo seguiré sin detectarte. Lo primero que veré de ti
- 274 -
La Pizarra de Yuri 1
será… tu misil, directamente hacia mi posición. En un caso como este, decimos que mi radar está en modo activo(porque emite y recibe) mientras que tu avión está en modo pasivo (porque sólo recibe); mientras la cosa se mantenga así, tu avión tendrá una ventaja decisiva sobre mi radar. Para ti, sería idóneo llevar ahora un misil anti-radiación de alcance suficiente para atacar mi radar sin entrar en su zona de detección. Un misil anti-radiación, en sus modelos más básicos, es un cohete con un receptor de radio que tiende a volar hacia el punto en que la radiación electromagnética (o sea, la emisión de radio o radar) es más intensa. Si siempre se dirige hacia el punto donde la radiación es más intensa, pues al final se encontrará… con la antena del radar, lógicamente. Bum. Hay cosas que yo puedo hacer para evitar que tu misil anti-radiación me alcance. Por ejemplo, cambiar de frecuencia, a alguna que su receptor no logre captar. O simplemente apagar el radar unos minutos, con lo cual ya no podrá seguirme y se perderá. Debido a eso, los misiles anti-radiación modernos llevan receptores mejorados y sistemas de guía adicionales; por ejemplo, una segunda guía de tipo infrarrojo que “se enganche” al calor residual disipado por los equipos electrónicos del radar aún cuando ya esté apagado. E incluso un sencillo navegador inercial que mantenga la dirección de vuelo hacia las coordenadas donde detectó mayor emisión antes de que el radar se apagara. Pero en términos generales, el ejemplo del misil anti-radiación nos sirve muy bien para entender el principio en el que se sustentan todos los misiles que persiguen al blanco: viajan hacia el punto donde la radiación característica emitida (o reflejada) por su objetivo es más intensa. Por simple teoría de campos, ese punto es el propio objetivo: un radar, una radio, un teléfono celular o satelitario, su estación base, cualquier cosa que emita de manera identificable. El misil anti-radiación básico es también un buen ejemplo de un sistema de guía completamente pasivo. Esto es: la guía del misil no emite nada para localizar a su objetivo. Es el objetivo quien lo emite todo, delatándose así y ofreciéndole en bandeja una trayectoria al misil.
- 275 -
Antonio Cantó
Misil aire-aire anti-AWACS ruso R-37. Fue desarrollado para destruir aviones-radar AWACS y otros C4ISTAR desde largas distancias (supuestamente hasta 400 km), tras detectar sus emisiones.
Quiero tu calor. Este es el principio de funcionamiento de todos los misiles (y torpedos) provistos con guías pasivas: aprovechar una emisión inherente al blanco para localizarlo y perseguirlo. Desde el principio, se observó que las emisiones inherentes más interesantes desde el punto de vista militar eran el calor y el sonido. Todo lo que lleva un motor a bordo emite necesariamente calor y sonido; los equipos eléctricos y electrónicos también disipan calor.
Perfil de emisión térmica de un avión táctico MiG-27 de 1975. La luz solar incidente es reflejada y re-emitida por la estructura y el material de la cabina, con intensidad dependiente de sus acabados. La parte posterior de la estructura, calentada por el motor, hace que el fuselaje trasero emita en banda de 4μ y la tobera en torno a 2μ. La "pluma" del reactor se expande y enfría detrás de la aeronave, absorbiendo algunas de las longitudes de onda más cortas emitidas
- 276 -
La Pizarra de Yuri 1
por la tobera pero emitiendo en banda infrarroja más larga (de 4 a 8μ). La intensidad de la emisión viene generalmente definida por la temperatura, que a veinte metros detrás de la cola viene a ser de unos 100ºC sin posquemador y de 300ºC con posquemador. (Clic para ampliar)
Las ondas sonoras se transmiten mucho mejor en el agua que en el aire, y esa es la razón de que la mayor parte de los torpedos con guía pasiva se apoyen sobre todo en el sonido emitido por el blanco para alcanzarlo. La radiación térmica del calor, una forma de radiación electromagnética, se difunde mucho mejor por el aire que por el agua; y ese es el motivo de que un gran número de misiles aéreos aprovechen las emisiones infrarrojas del objetivo para atacarlo en el cielo o en la superficie. Casi todos los misiles pasivos aire-aire y una parte significativa de los aire-superficie utilizan guías infrarrojas para perseguir a sus blancos. Las máquinas de volar son grandes emisores de radiación infrarroja. Un motor a reacción militar, por ejemplo, desprende mucho calor durante el vuelo; algunas partes del mismo alcanzan más de 1.000 ºC. A los ojos de una guía infrarroja, esto es un “destello en el cielo” casi tan brillante como el sol. Al igual que ocurre con los misiles anti-radiación en la banda de radio, un misil básico de guía infrarroja tiende a volar hacia la fuente de emisión electromagnética en la frecuencia infrarroja más intensa dentro de su cono de detección. Uno de los trucos más antiguos para despistar a un misil de guía infrarroja fue posicionar tu avión contra el sol, de tal modo que el arma tendiese a buscar el punto más caliente (con más emisión térmica) del cielo: el astro rey. Así, el misil se olvidaba de tus reactores y se iba a perseguir un punto imposible del espacio exterior, quedándose sin energía rápidamente. En buena lógica, una de las primeras mejoras que se aplicaron a las guías infrarrojas de los misiles fue diseñarlas de tal modo que ignoraran al sol como fuente de radiación infrarroja. Un misil aire-aire moderno de guía infrarroja pasiva está compuesto por cinco secciones principales. La sección de empuje es un motor-cohete de alta aceleración; los más avanzados disponen de tobera vectorizada para multiplicar su maniobrabilidad. La sección aerodinámica está compuesta por diversas aletas, canards y alerones móviles más sus mecanismos de control, encargadas de orientarlo constantemente en la dirección precisa; algunos disponen de desestabilizadores, con el propósito de incrementar la velocidad de reacción en maniobras ultrarrápidas. La cabeza explosiva consta de un cartucho detonante envuelto en metralla, normalmente provista con una espoleta de impacto convencional. También tenemos la espoleta de proximidad, que se encarga de hacer estallar la cabeza explosiva cuando no hay impacto directo, en el
- 277 -
Antonio Cantó
instante en que la distancia al blanco deja de reducirse. Y, por supuesto, el sistema de guía, con su sensor infrarrojo y toda la electrónica de control.
Esquema del misil aire-aire ruso con guía infrarroja pasiva todo-aspecto Vympel R-73 (llamado en Occidente AA-11 Arquero). La versión original de 1982 tenía 20 km de alcance, mientras que la más moderna R-73M2 es efectiva hasta a 40 km de distancia, con una velocidad de Mach 2.5; cada unidad cuesta entre 50.000 y 60.000 dólares (por el Sidewinder norteamericano, con 18 km de alcance, cobran $85.000). Este fue, probablemente, el misil empleado en el video que abre este post por el MiG-29 para derribar al UAV georgiano; los UAV, con su minúsculo motor a hélice, dejan una traza infrarroja muy débil y resulta conveniente acercarse para asegurar el tiro.
- 278 -
La Pizarra de Yuri 1
Buscador infrarrojo de un misil europeo Iris-T de 2005. Puede observarse el montaje en cárdan.
Los sensores infrarrojos modernos suelen ir montados en un cardán (gimbal) para incrementar su capacidad de detección fuera de eje (off-boresight). Así no es preciso que el misil o el avión lanzador estén apuntando en la dirección general del blanco todo el tiempo, sino que pueden desviarse para optimizar la aproximación o atacar desde un lateral o desde altitudes muy distintas. El R-73 original de 1982 tenía una capacidad offboresight de 60º, el Sidewinder AIM-9X de 2003 la mejora a 90º y el R-73M2 llega hasta 120º. Esto les permite también mejorar sunavegación proporcional, aumentando las posibilidades de derribar blancos en alcances extremos o ángulos difíciles. Las guías infrarrojas del presente son también todo-aspecto. Antiguamente, la guía tenía que apuntar directamente a la fuente de calor para “engancharse” (blocar) adecuadamente al blanco; esto significaba que era preciso lanzar el misil desde un estrecho cono detrás del objetivo, donde la emisión térmica de sus motores resulta más intensa. Las actuales, mucho más sensibles, pueden ver el calor del blanco desde cualquier ángulo; esto permite, por ejemplo, disparos frontales de gran alcance o realizados durante fuertes maniobras donde el ángulo relativo al eje del blanco varía brutalmente. Para lograrlo, han sustituido los tradicionales sensores infrarrojos de sulfuro de plomo (PbS) por otros fabricados con antimoniuro de indio (InSb) o telururo de mercurio-cadmio (HgTeCd, MerCad), refrigerados con nitrógeno líquido u otros gases comprimidos. Junto a una aerodinámica y un cobertor frontal mejorados, que reducen el calentamiento del propio misil al acelerar a velocidades supersónicas, estos nuevos sensores les permiten ver señales más tenues y/o a mayor distancia.
- 279 -
Antonio Cantó
La mejor manera de engañar a un misil de guía infrarroja es enfrentándolo a otras fuentes de calor que se confundan con las del blanco. Además del truco solar mencionado más arriba, la más clásica era instalar una rejilla desprendible en la tobera, que se separaba durante la aproximación de un misil mientras el avión realizaba un brusco viraje para salirse de su campo de búsqueda. Así, el misil tendía a seguir persiguiendo la rejilla caliente, en vez de al avión. Poco después llegaron las bengalas, que arden a miles de grados y por tanto ofrecen al buscador una fuente térmica mucho más intensa que el blanco.
Dos cargueros C-130 Hércules de la Fuerza Aérea Estadounidense disparan bengalas durante una exhibición, con su característica forma de “alas de ángel”. El propósito de estas bengalas es ofrecer fuentes de calor alternativas a los misiles de guía infrarroja para confundirlos. Los avances en las cabezas buscadoras infrarrojas han ido convirtiendo progresivamente estas defensas en obsoletas. Por ejemplo: los sensores antiguos eran monocromáticos, esto es, ajustados para ver en una sola frecuencia; típicamente en torno a la longitud de onda de 4,2 μm, correspondiente a la emisión característica del CO 2 caliente a la salida de un reactor. Esto era relativamente sencillo de confundir con bengalas que emitían calor en una frecuencia muy parecida. Después aparecieron los sensores bicromáticos, que ven también en la longitud de onda entre 8 y 13 μm, donde la absorción del aire es menor y por tanto la radiación llega más lejos. En la actualidad, claro, ya los haypolicromáticos: observan en estas dos bandas y en otras donde las bengalas responden peor, por lo que se distinguen mejor de los gases y el fuselaje caliente del blanco.
- 280 -
La Pizarra de Yuri 1
Contramedida infrarroja direccional (DRCM) AN/AAQ-24(V) "Nemesis" de Northrop Grumman, para inducir confusión en los misiles con guía infrarroja mediante el uso de señales direccionales láser. Se suele equipar en cargueros, aviones ligeros y helicópteros, especialmente frágiles a esta amenaza.
Otro problema tradicional con estas guías se producía al aproximarse al objetivo. Los buscadores antiguos utilizaban modulación por amplitud para determinar la posición angular del blanco con respecto a la del misil, y por tanto indicar a éste cuánto debía virar para echársele encima. Durante el tramo final, esta técnica daba problemas porque el mayor tamaño percibido del blanco provocaba una señal más fuerte, conduciendo a errores de cálculo que además podían utilizarse para engañar al proyectil con bruscas maniobras que cambiaban el aspecto del objetivo. Este problema se resolvió cambiando a frecuencia modulada, que permite discriminar correctamente la distancia sin dejarse confundir por el tamaño aparente. En cuanto a la manera como el sensor busca, del barrido por giro se pasó al barrido cónico y hoy en día a la composición digital; en estas guías de última generación, el sensor es una especie de cámara CCD infrarroja-ultravioleta que compone constantemente un mapa tridimensional de la posición del misil y la de su blanco en el ordenador de a bordo del primero. El perfil de vuelo de un avión o un helicóptero es muy distinto al de una bengala, por lo que el misil puede distinguir entre ambos y atacar al correcto. Más allá de las bengalas, existen perturbadores para inducir errores en el análisis de la señal infrarroja del misil. Estos sistemas, llamados genéricamente contramedidas infrarrojas o IRCM, constan de una fuente de radiación infrarroja modulada con una intensidad mayor que la de los motores y superficies del blanco. Esta señal de modulación alterada introduce confusión en la cabeza buscadora y puede provocar un desblocaje; entonces, es más probable que el misil vuelva a blocarse contra una de las - 281 -
Antonio Cantó
bengalas que se disparan simultáneamente. El problema es que, si este truco no sale bien, la guía del misil tiene una fuente infrarroja inmejorable en la propia contramedida, típicamente fijada al objetivo. Los misiles modernos están diseñados para hacer un blocaje contra el perturbador (lock-on-jam) en cuanto detectan esto, conduciendo a un derribo prácticamente seguro.
Otra DRCM: la Sukhogruz, montada en la cola de un Sukhoi Su-25T.
Para mejorar esto se están creando nuevas contramedidas, lasDRCM y CRCM, que utilizan a su vez un sensor infrarrojo para detectar el calor del misil en aproximación y un láser para inducirle directamente las señales espurias en el sensor. Y los diseñadores de guías infrarrojas para misiles disponen ya de nuevas técnicas con el propósito de suprimirlas e incluso aprovecharlas. En general, el más mínimo cambio o error puede transformar una de estascontramedidas por emisión (IRCM, DRCM, CRCM) en una estupenda baliza infrarroja que atraiga al misil con mucha más eficacia que si no se estuviera usando; por ello, el uso de estas contramedidas debe medirse cuidadosamente, caso por caso y situación por situación. Guías activas. Como hemos visto, las guías pasivas dependen de las emisiones inherentes al blanco para perseguirlo hasta su destrucción. Son extremadamente eficaces y, más importante todavía, no se delatan de ninguna manera hasta que ya están prácticamente encima del objetivo. Sin embargo, tienen sus limitaciones. Aunque resultan óptimas para atacar blancos que emiten intensamente (como un radar terrestre o áereo, tipo AWACS), presentan más problemas a la hora de perseguir objetivos que no emiten tan intensamente de manera natural. Por ello, los misiles infrarrojos más avanzados y de mayor alcance pueden atacar a un máximo de 40 km aproximadamente. A distancias superiores, las emisiones inherentes al blanco se disipan demasiado como para poderse detectar.
- 282 -
La Pizarra de Yuri 1
La solución resulta obvia: forzar al blanco a emitir con más intensidad o al menos de una manera que se pueda localizar a mayor distancia. Esto se consigue realizando nosotros una emisión que rebote en el blanco y retorne a nuestros receptores: el radar en el aire (aprovechando la mejor difusión aérea de las ondas electromagnéticas), elsonar bajo el agua (aprovechando la mejor difusión submarina de las ondas sonoras). Ya dijimos más arriba que todo lo que emite voluntariamente está en modo activo; y, en el momento en que lo hace, se puede detectar a su vez.
Componentes de un sistema antiaéreo ruso Almaz-Antey S-400, que entró en servicio en 2007. De izquierda a derecha, vehículo de mando 55K6E, radar móvil de adquisición 96L6, radar móvil de tiro 92N2E y vehículo TEL lanzamisiles 5P85TE2. Además de este "set básico", hay otros componentes adicionales, entre ellos el radar pasivo ucranio Kolchuga. El S-400 podría atacar blancos hasta a 400 km de distancia con el misil hipersónico 40N6.
Los sistemas de telelocalización y seguimiento activos presentan una ventaja sustancial: yo controlo las características de la señal, lo que incrementa enormemente el alcance y precisión a largas distancias. Todas las guías pasivas tienen que pelearse con un montón de incertidumbres sobre la naturaleza del blanco y las señales que emite bajo una multitud de circunstancias distintas; por ello, sólo se aclaran bien a una distancia relativamente corta, donde esas señales llegan ya con mucha nitidez e intensidad. Usando un radar o un sonar, en cambio, obligo al objetivo a reflejar y re-emitir una señal conocida y bien determinada cuyas alteraciones puedo estudiar para mayor información. Y la desventaja ya mencionada: todo sistema activo se delata a sí mismo al menos al doble de distancia de la que puede detectar y/o atacar. En el campo de batalla moderno, encender un radar (o cualquier otro transmisor) equivale a chillar: “¡estoy aquí!”. En la actualidad existen los llamados radares de baja probabilidad de intercepción (“radares furtivos”), como los que equipan el caza norteamericano F-22 Raptor (el AN/APG-77) o los antiaéreos rusos S-300PMU2 y S-400. Estos “radares furtivos” utilizan una diversidad de técnicas para reducir la posibilidad de que los detecten, localicen o ataquen, como el uso de onda continua con ancho espectral ampliado mediante rápidos saltos de frecuencia, reducir la potencia al mínimo imprescindible, usar un haz - 283 -
Antonio Cant贸
muy estrecho con gran control sobre los l贸bulos laterales y posteriores o introducir los llamados radares pasivos (que no son un verdadero radar porque no emiten nada, pero pueden detectar se帽ales emitidas por otros a grandes distancias).
- 284 -
La Pizarra de Yuri 1
Guía por radar activo del R-77 (RVV-AE, AA-12 Adder) original de 1994 (MAKS 2009).
Existen dos grandes categorías de misiles con guía radar: los activos y los semi-activos. Los misiles activos son del tipo “dispara y olvida” por completo: van provistos de su propio radar y lo usan para localizar y perseguir al blanco. Normalmente van equipados con un sistema adicional de navegación inercial, para recorrer partes de su trayectoria sin delatarse encendiendo el radar. Entre estos se encuentran algunos de los misiles más conocidos: los aire-aire de alcance medio AMRAAM y R-77 o antibuques como el Exocet, el Harpoon o el Raduga Kh-15. Estos misiles tan chulos y famosos tienen un problema: son pequeños. Más exactamente: sus antenas son pequeñas para que quepan en ese diámetro, y tampoco pueden cargar una enorme cantidad de electrónica, al menos en comparación con sus blancos. Por ello, cuando el “dispara y olvida” no resulta estrictamente necesario, se utilizan guías semiactivas. En una guía semiactiva, la señal principal es suministrada por un radar grande (un radar terrestre, naval o aéreo; por ejemplo, el radar del avión lanzador o un AWACS) y el misil se limita a captar el rebote y dirigirse hacia él. Así son, por ejemplo, los famosos antiaéreos Patriot y S-300/S-400. Ambos utilizan diversas combinaciones de modos semiactivos y activos; en la más básica, el misil es guiado hacia su blanco por una señal semiactiva emitida por sus potentes emisores terrestres o áereos y usa su propio radar sólo para la aproximación final (homing). La contramedida más antigua frente a este tipo de sensores es el chaff, ya utilizado contra los primeros radares, durante la Segunda Guerra Mundial. Sigue siendo sorprendentemente eficaz, y hasta los ICBM más avanzados lo incorporan tal cual o en forma gaseosa. Básicamente, se trata de cintas o hilillos metálicos que producen una miriada de rebotes en el radar, haciendo desaparecer la imagen en una neblina de incertidumbre. O, cuando se usa en un vehículo, generando un “segundo blanco” producido por los reflejos de la nube de chaff detrás del auténtico. Casi setenta años después, sigue sin existir un método totalmente seguro para contrarrestar la eficacia del chaff. El más básico es medir la velocidad de los blancos detectados: la nube de chaff tiende a decelerar rápidamente detrás del blanco, lo que ayuda a distinguirla. Esto funciona bien con aviones pero mal con objetivos más lentos, como los barcos. Otro método consiste en hacer que el buscador del misil reaccione sólo ante las señales que proceden de un pequeño espacio alrededor del blanco, ignorando así el chaff que queda detrás; pero esto, además de reducir las capacidades todo-aspecto del buscador, se puede confundir utilizando lo que se llama un gate-stealer, que desplaza la señal rebotada por el blanco hacia la nube de chaff.
- 285 -
Antonio Cantó
Este gate-stealer (¡es que no hay forma de traducirlo!) es una de las varias contramedidas posibles contra un misil guiado por radar. Casi todas ellas se basan en inducir señales falsas en el radar atacante y adolecen del mismo problema que ya vimos en los infrarrojos: cuando funcionan bien, funcionan muy bien; pero cuando funcionan mal, constituyen una emisión adicional que regala al misil un blanco perfecto (home-onjam). Y, claro, no es posible predecir cuándo va a salir bien y cuándo va a salir mal. En los años ’80 del pasado siglo, el misil francés Exocet se labró una fama curiosa atacando con éxito diversos buques civiles y militares; estos últimos iban equipados, obviamente, con numerosas contramedidas. Durante la Guerra de las Malvinas (1982), el destructor británico HMS Sheffield resultó destruido por uno de estos misiles y el HMS Glamorgan, gravemente dañado a manos de otro. También destruyeron al portacontenedores MV Atlantic Conveyor, cargado hasta las antenas con material militar, y los argentinos juran y perjuran que lograron al menos un impacto parcial en un portaaviones. Sea cierto esto último o no, el Exocet fue la única arma verdaderamente eficaz para la Argentina durante este conflicto. Tanto el Sheffield como el Glamorgan y los portaaviones estaban provistos con lanzadores de chaff, contramedidas electrónicas diversas y primitivos misiles anti-misil Sea Dart. Durante la Guerra entre Irán e Iraq (1980-1988) Saddam era aún uno de nuestros chicos y estaba provisto con gran cantidad de armamento occidental. Sus misiles Exocet causaron una pesadilla en la navegación del Golfo Pérsico que vino a conocerse como la Guerra de los Petroleros; entre otros, hundieron al buque más grande jamás construido, un superpetrolero ULCC entonces llamado Seawise Giant. El 17 de mayo de 1987, un Mirage F1 iraquí –aparentemente por error– le endiñó dos de estos Exocets a la fragata estadounidense USS Stark, matando a 37 ocupantes. El gringo no se hundió por el sencillo hecho de que le arrearon bastante por encima de la línea de flotación y sus tripulantes lograron hacerse con los incendios y las vías de agua, pero el buque había quedado inutilizado por completo y la chapa y pintura costó 142 millones de dólares. La USS Stark iba provista con un sistema de defensa terminal Phalanx, un módulo de chaff y contramedidas automatizadas SRBOC, así como misiles Standard con posible uso marginal como defensa antimisil. Le sirvieron de lo mismo que al Sheffield y al Glamorgan: de nada.
- 286 -
La Pizarra de Yuri 1
La fragata estadounidense USS Stark escora a babor tras ser alcanzada por dos misiles iraquíes Exocet de fabricación francesa, el 17 de mayo de 1987. (US Navy)
¿Cuál fue la clave del éxito del Exocet? Fácil: ninguno de sus blancos lo vio llegar. En todos los casos, el único preaviso fue un marinerito berreando despavorido aquello de “¡misil por babor!”. Bueno, en todos no: el Glamorgan pudo detectarlo por radar en el último momento, lo que le permitió ejecutar un brusco viraje para ponerle la popa. Así, el Exocet sólole atizó en el hangar de helicópteros, haciendo estallar al Westland Wessex que estaba dentro, provocando un fuerte incendio y matando a trece tripulantes. Pero logró alejarse, renqueando. ¿Cómo es posible que no lo vieran llegar? Bueno, es que el Exocet es un misil rozaolas (sea-skimming). Y, diga lo que diga la propaganda habitual, los misiles rozaolas eran y siguen siendo muy difíciles de detectar con tiempo suficiente para hacer algo. Es que la Tierra es curva, sabeusté. Cuando algo vuela a muy poca altitud, queda por debajo del horizonte según se ve desde su objetivo, y eso vale tanto para los ojos como para el radar. Al aproximarse por debajo del horizonte radar, el Exocet simplemente no es detectado hasta que está ya encima como quien dice. Y si ya está encima, como recitamos en román paladino, te queda el tiempo justo para besarte el trasero y decirle adiós. Lo que nos conduce a la defensa más eficaz en guerra moderna: que no te vean, ve tú al enemigo antes que el enemigo a ti. Esto ha sido efectivo desde siempre, pero en la actualidad es ley e incumplirla se castiga con la muerte. Atrás quedaron los tiempos de andar buscándose las vueltas con clarines, trompetas y banderones. Si puedes ver al enemigo antes de que el enemigo te vea a ti, puedes dispararle antes de que te disparen a ti. Y si tu arma hace lo que tiene que hacer, es probable que ellos sólo la vean llegar cuando ya estén a punto de comérsela sin patatas ni nada.
- 287 -
Antonio Cantó
Para que no te vean, lo más eficaz es mantenerse disimulado en el ruido de fondo hasta que llegue el momento de atacar. Con las tecnologías de detección contemporáneas, mantenerse oculto por completo resulta casi siempre muy difícil e incluso imposible. Pero un buen camuflaje, una buena maskirovka, puede obrar efectos asombrosos. Disimularse en el ruido suele ser mucho mejor que pretender absurdamente que no estás allí en absoluto. La otra alternativa es, obviamente, mantenerse a distancia suficiente e ir recopilando pacientemente la información necesaria para lanzar un buen ataque por sorpresa desde fuera del alcance del enemigo. En general, la espada ha demostrado históricamente ser mucho más poderosa que el escudo. La espada elige arma, táctica, espacio y tiempo; el escudo tiene que permanecer ahí todo el rato, gastando energía y recursos, esperando a ver si viene alguien o no, siempre expuesto a discreta observación y análisis para hallar sus puntos débiles. Los misiles, la última evolución de la flecha o la lanza, se acoplan perfectamente a este papel de espada. La única defensa segura es inutilizarlos antes de que lleguen a atacar, o mantenerse lejos de su radio de acción. Una vez en el aire, resultan muy difíciles de detener y su efecto es devastador. Por eso y por lo que decía al principio, los veremos cada vez más, durante mucho tiempo más.
Ejercicios de tiro con antiaéreos S-300 (ca. año 2000).
- 288 -
La Pizarra de Yuri 1
Superbacterias: enfermedades resistentes a los antibióticos. Yuri, el 7 de noviembre de 2010 @ 15:45 · Categoría: Ciencia popular
El abuso y mal uso de los antibióticos durante el último siglo ha conducido a la evolución de enfermedades resistentes a los mismos. Actualmente, se considera ya un grave problema de salud pública.
Cultivo de "superbacteria" SARM resistente a la mayoría de los antibióticos. Esta cepa ya sólo puede atacarse con tigecilina y colistinas.
Esta semana se celebraron en Barcelona las V Jornadas de la Red Española de Investigación en Patologías Infecciosas (REIPI), que reúne a algún centenar de médicos especialistas en cosas que se pegan bajo el amparo del Instituto de Salud Carlos III (el Instituto Carlos III alberga también al Centro Nacional de Epidemiología, lo que vendría siendo nuestro CDC castizo, o al menos parte de él). Al finalizar el encuentro, los señores doctores y señoras doctoras allí reunidos han emitido uncomunicado de prensa donde inciden en un asunto que ya viene circulando tiempo ha: La situación es que España es uno de los países con tasa de resistencia a antibióticos más alta de Europa, en concreto en E. coli. El problema radica fundamentalmente en que, en los últimos años, han empezado a aparecer unas cepas de este agente, que tienen un mecanismo de multirresistencia muy importante. Tanto es así, que las infecciones provocadas por E. coli han pasado a constituir un importante problema, tanto en el ambiente hospitalario como en la comunidad, ya que han desarrollado mecanismos de resistencia a muchos antibióticos a la vez, y son pocas las alternativas terapéuticas de las que disponemos para su tratamiento.
El E. coli, como nos recuerda el Dr. Álvaro Pascual del Hospital Virgen de la Macarena de Sevilla, es “un microorganismo que produce una gran cantidad de infecciones, y que reside en nuestra propia flora intestinal, por lo que produce infecciones endógenas. Es - 289 -
Antonio Cantó
causante de infecciones urinarias, de sangre, invasivas, neumonías y abdominales, entre otras”. No es el único microorganismo con resistencia a los antibióticos que preocupa a las autoridades sanitarias internacionales. Entre estos se encuentran diversos tipos de estreptococos y enterococos, la muy comúnpseudomonas aeruginosa, el clostridium difficile o la acitenobacter baumanii. Recientemente, uno de estos bacilos provocó cierta preocupación entre las familias de España: el neumococo resistente, que causa neumonía pero también otro gran número de infecciones como otitis, sinusitis, artritis séptica, osteomielitis e incluso meningitis y distintas afecciones cardíacas. La razón fundamental de que hayan surgido estos superbacilos multirresistentes durante las últimas décadas no radica en oscuros experimentos, como creen los más conspis. Ni mucho menos en la inmigración, que ha venido a ocupar el lugar de las brujas o los judíos en la misma clase de mentes que antes echaban la culpa de todo a las brujas o los judíos (en su día, a los inmigrantes les echaron también la culpa de la polio). La razón es más sencilla, y a la vez más incómoda y de solución más difícil: nos hemos pasado setenta pueblos con los antibióticos. Durante décadas, en los países desarrollados y también en los que no lo están tanto le hemos estado echando antibióticos a todo lo que se movía bajo un microscopio. El comunicado de la REIPI indica: •
•
El tratamiento de los pacientes afectados por infecciones bacterianas se complica por la aparición de clones multirresistentes, que se diseminan rápidamente y pueden ocasionar verdaderas epidemias. Las resistencias bacterianas a los antibióticos han pasado a constituir un importante problema para los sistemas de salud de nuestro país. El uso adecuado de los antibióticos disponibles ya no es una recomendación, sino una urgencia.
- 290 -
La Pizarra de Yuri 1
Colonia de E. coli, un bacilo habitualmente presente en el intestino de los animales, incluyendo a los humanos. Algunas cepas pueden ocasionar enfermedades graves. La resistencia del E. coli a los antibióticos se ha multiplicado preocupantemente en los últimos años.
La preocupación es generalizada en el mundo entero. Los mencionados CDC estadounidenses ya advierten, en unas respuestas divulgativas para el público en general: La resistencia a los antibióticos se ha denominado como uno de los problemas de salud pública más acuciantes del mundo. Casi todos los tipos de bacterias se han vuelto más fuertes y menos sensibles al tratamiento con antibióticos cuando éste resulta realmente necesario. Estas bacterias resistentes a los antibióticos pueden diseminarse rápidamente a otros miembros de la familia y los compañeros de clase y trabajo, amenazando a la comunidad con nuevas cepas de enfermedades infecciosas más difíciles de curar y más caras de tratar. Por esta razón, la resistencia a los antibióticos se encuentra entre las preocupaciones principales de los CDC. La resistencia a los antibióticos puede ocasionar un peligro significativo y sufrimientos para niños y adultos con infecciones comunes, que antes se trataban fácilmente usando antibióticos. Los microbios pueden desarrollar resistencia a medicinas específicas. Un error común es que el cuerpo de las personas se vuelve resistente a estos fármacos. Pero son los microbios, no la gente, quienes se vuelven resistentes a estos fármacos. Si un microbio es resistente a muchos fármacos, el tratamiento de las infecciones que provoca puede ser difícil e incluso imposible. Una persona con una infección que es
- 291 -
Antonio Cantó
resistente a un cierto medicamento puede pasar esa infección resistente a otra persona. De esta manera, una enfermedad difícil de tratar puede contagiarse de persona a persona. En algunos casos, estas enfermedades pueden causar discapacidades importantes e incluso la muerte. El uso de antibióticos promueve el desarrollo de bacterias resistentes a los antibióticos. Cada vez que una persona toma antibióticos, las bacterias más sensibles mueren, pero los gérmenes más resistentes pueden sobrevivir para crecer y reproducirse. Los usos repetidos e inadecuados de antibióticos son causas primarias del incremento de las bacterias resistentes a los medicamentos.
¿Cuál es, entonces, el problema con los antibióticos? Bueno, con los antibióticos, ninguno en particular; ellos hacen lo que tienen que hacer, matar microbios, cada día de manera más selectiva. El problema radica en el abuso y mal usoque hemos hecho de ellos, olvidando en el proceso un pequeño detalle: el mecanismo transformador más poderoso de este universo, la evolución. Eso que los creacionistas quisieran ocultar u oscurecer, a pelo o bajo tapaderas como el llamado diseño inteligente. Para su desgracia y fortuna de todos –hasta la de ellos–, la evolución ocurre constantemente, persistentemente, en cada rincón de la realidad; y seguirá haciéndolo hasta que el cosmos entero se apague por lo menos, porque está indisolublemente vinculada a la entropía y la fluctuación. Evolución y supervivencia.
El Clostridium difficile, un viejo conocido de los hospitales. Es naturalmente resistente a la mayor parte de los antibióticos; cuando la flora intestinal del paciente resulta eliminada por las terapias basadas en estas sustancias, el Clostridium difficile se apodera del colon con facilidad, causando diarreas e incluso la muerte.
- 292 -
La Pizarra de Yuri 1
Todo en este universo está sujeto a evolución constante. De manera muy particular, los seres vivos están –estamos– sometidos a un tipo especial de evolución extremadamente sofisticado que llamamos evolución biológica. En toda población de seres vivos, hay unos más frágiles y otros más resistentes a una determinada amenaza. Pongamos el ejemplo tradicional de la gacela y el león. Por motivos obvios, las gacelas que corren más y reaccionan más rápidamente ante la presencia de depredadores tienden a incrementar sus probabilidades de supervivencia cuando aparece el león. Eso significa que vivirán más tiempo y tendrán más oportunidades de reproducirse, con lo que el carácter genético “correr más – reaccionar más deprisa” tiende a perpetuarse . Si hay muchos leones acosando a las gacelas –es decir, si hay mucha presión evolutiva–, las gacelas lentas desaparecerán pronto y se verán sustituidas por nuevas generaciones más veloces y despabiladas. Esto es la selección natural. No hay mucho que una gacela pueda hacer por superarse a sí misma o evolucionar personalmente, rollo libro de autoayuda. En la naturaleza, estas características favorables o desfavorables son de índole genética: la gacela que nació con la capacidad de correr más corre más, la que nació con la capacidad de correr menos corre menos. Esto no se puede trasladar a las sociedades humanas, porque las sociedades humanas dependen enteramente de factores que no tienen más que un tenue origen genético, cuando lo tienen; la historia de la civilización es la historia de cómo aprendimos a ir contra natura. Pero en la natura, en la naturaleza, esto va así: la resistencia de un ser vivo frente a una amenaza le viene dada de manera fundamentalmente genética. Quedó determinada en el instante de la gestación, fruto de una organización específica del ADN de papá gacela y mamá gacela a través de sus óvulos y espermatozoides, más las mutaciones que se producen en el proceso. Por decirlo de alguna manera, la gacela estápredestinada a correr más o correr menos cuando llega el león y no puede hacer gran cosa para cambiarlo. Así, en las gacelas, los genes y mutaciones que favorecen la rapidez tienden a prevalecer frente a los que favorecen la lentitud. Cuando la presión evolutiva se incrementa –y con ella la selección natural– las gacelas portadoras de genes o mutaciones lentas tienden a extinguirse muy deprisa, mientras que las dotadas con genes o mutaciones rápidostienden a sobrevivir y multiplicarse. Al final, sólo quedan gacelas veloces que producen gacelas más raudas todavía, y así una y otra vez, a lo largo de millones de años.
- 293 -
Antonio Cantó
La evolución en marcha: las mariposas del abedul (biston betularia) han cambiado su color desde inicios de la Revolución Industrial. Su camuflaje original (arriba) se volvió inútil cuando la contaminación oscureció las cortezas de los árboles donde se posaba. Las variedades más oscuras resultaron favorecidas por este fenómeno y así, en pocas décadas, la mutación y la selección evolutiva convirtieron a la biston betularia en una mariposa de color... carbón.
Sin embargo, cuando la amenaza es distinta, la velocidad puede resultar contraproducente. Si, por ejemplo, no hay muchos leones pero sí mucha sequía y hambruna, los metabolismos rápidos tienden a consumir sus recursos más rápidamente y perecer antes. Por otra parte, si el problema es una epidemia, tenderán a sobrevivir las gacelas más resistentes a esa enfermedad en particular. No existe una única característica de supervivencia que valga para todos los casos; dependiendo del momento y las circunstancias, que son variables en el tiempo y en el espacio, pervivirán y se multiplicarán unas u otras. Así se produce la radiación evolutiva, ocupando los distintos nichos ecológicos disponibles a lo largo de los eones.
- 294 -
La Pizarra de Yuri 1
Los microbios evolucionan muy deprisa; a veces, en cuestión de horas. A lo largo de miles de millones de años, bacilos y bacterias medraron y evolucionaron sin tener que enfrentarse a una amenaza significativa procedente de los antibióticos clínicos, que surgieron en fecha tan tardía como 1927. Por eso, durante las primeras décadas, los microorganismos carecían de defensas significativas frente a estas sustancias y resultaban muy eficaces. Se parece al problema que tuvieron las poblaciones nativas americanas con la viruela cuando se la pegó el conquistador. Sin embargo, siempre hay algún organismo más resistente a una determinada amenaza que sus congéneres (y si no lo hay o no resulta lo bastante resistente, entonces la especie se extingue). Los microorganismos, que se reproducen y mutan con velocidad asombrosa, tienen la capacidad de aprovechar el resquicio más improbable para permitir la supervivencia de algunos individuos más resistentes a esa amenaza. Y a continuación se reproducen, con lo que ya tenemos una cepa resistente. Cuando este proceso se repite una y otra vez, se van destilando cepas de altísima resistencia, hasta que la amenaza deja de ser amenazadora por completo. En la naturaleza, las amenazas evolucionan constantemente junto a sus víctimas. Cuando las gacelas se vuelven más rápidas y ágiles, los leones más lentos mueren de hambre; eso significa que sólo los leones más rápidos sobreviven y se reproducen, y así sucesivamente, en una carrera evolutiva sin fin. Sin embargo, los antibióticos fabricados por el ser humano evolucionan artificialmente mucho más despacio de lo que los fulgurantes microorganismos pueden mutar por vías naturales. Si un tratamiento con antibióticos no extermina por completo a toda la población microbiana, algunos de ellos sobrevivirán (¡obvio!) y serán los más resistentes al antibiótico quienes tiendan a hacerlo en mayor medida. Y, por tanto, los que se reproducirán para formar nuevas cepas. Tras unas décadas de evolución (o unos meses de evolución acelerada en un laboratorio de guerra biológica, ejem, no he dicho nada…), no quedarán cepas sensibles al antibiótico y se habrán visto todas reemplazadas por cepas resistentes al antibiótico. Y así una y otra vez. Veámoslo con un ejemplo. El día del flemón. Hace unos meses, me levanté una mañana de muy mal café. Tenía el lado derecho de la cara como un pan de payés, con un estupendo flemón originado en una caries que me había pasado inadvertida bajo una muela. Sobre el mediodía interrumpí lo que estaba haciendo, pues ya rabiaba de dolor, y llamé al dentista para decirle que iba para allá. La conversación fue más o menos como sigue:
- 295 -
Antonio Cantó
–Doc, tengo un flemón como una naranja, dame hora para ya y prepara las tenazas o lo que sea porque no aguanto esto. –¿Pretendes que te saque una muela con la encía inflamada, gilip*llas? –Uh… pues… eso es lo que hacéis los sacamuelas, ¿no? –Pues hombre, no si podemos evitarlo. Anda, tómate una caja de Augmentine y llámame cuando te haya bajado un poco la inflamación.
Cápsulas de amoxicilina en una presentación norteamericana.
Claro. Cómo no. Idiota de mí, suena lógico, ¿no? Primero se reduce la inflamación y luego se saca la muela o lo que sea; ¡menuda carnicería, si no! Así que, como yo ya sé que andan por ahí los muy histéricos esos de la salud pública tratando de coartar la libertad de comprar antibióticos a los buenos ciudadanos que pagamos impuestos y respetamos la ley, o eso decimos, me voy a la farmacia de confianza. Puesto que soy grandote y peludo y cuando ando rabiando de dolor tengo poca paciencia, pido a la farmacéutica artillería pesada: –Hola. ¿Tienes algo más gordo que el Augmentine 875? –Pues… el de 1.000 –responde ella, no muy convencida. –Coj*nudo. Dame una caja de eso. –Pero… –Venga, ¿qué no ves cómo llevo la boca o qué? Dame una caja de eso y ya lo arreglo yo luego con la jefa. ¿Qué se debe? Así, salgo de la farmacia armado con mis veinticuatro obuses de amoxicilina calibre mil y en el mismo bar de enfrente me arreo el primero ayudado por una Coca-cola. La amoxicilina es un potente antibiótico, derivado de la penicilina, queGlaxo vende en España y otros países combinado con metralla extra de nombre ácido clavulánico bajo la marca comercial Augmentine. Mano de santo, oiga: al día siguiente, el flemón se ha - 296 -
La Pizarra de Yuri 1
rebajado de manera significativa. A los dos días, ya casi no molesta nada. Al tercer día, ha desaparecido por completo. Sé que hay que tomarse la caja hasta el final. Lo sé. He leído las recomendaciones, salió por la tele, he atendido a las campañas de los histéricos de la salud pública. Al cuarto día, vuelvo a llamar a mi dentista, con menos humos: –Hola, doc. Mira, que soy yo, que a ver si me puedes dar hora para arreglarme la muela esta. –¿Ya se te ha bajado la inflamación? –Sí. Me estoy tomando el Augmentine, como dijiste. –Muy bien. Pues vente mañana a las cinco y así me das tiempo para preparar las tenazas. –Eh, que eso era… uh… una forma de hablar, jejeje… un pour parler como si dijéramos… que yo creo que con un empastito bastará, ¿no? –Gallina. Oye, ya sabes que te tienes que tomar el antibiótico hasta que se acabe la caja, ¿no? –¡Claro, hombre! ¿Por quién me tomas?
Una tira de antibiótico inhibe el crecimiento de las bacterias en un cultivo.
Estoy mirando ahora mismo la caja, olvidada en un cajón. De los veinticuatro comprimidos, quedan quince. Ni siquiera recuerdo cuándo dejé de tomármelo exactamente; supongo que algún día en que andaba muy liado y se me pasó. ¡Como ya
- 297 -
Antonio Cantó
no me molestaba…! Así, he contribuido a la Humanidad con otra potencial cepa de microorganismos infecciosos resistentes a los antibióticos, que podrían afectarme a mí o a cualquier persona a la que se los pase. Con un beso, por ejemplo. ¿Por qué? Pues porque al no completar el tratamiento, seguramente sobrevivieron algunos bacilos. Típicamente, los más resistentes a la amoxicilina. Esos son los microorganismos que conservo por ahí dentro y, por tanto, los que se reproducirían para tomar el control si se produjera un nuevo acceso inflamatorio. Durante unos días, me convertí a mí mismo en un reactor biológico que aplicó una enorme presión evolutiva sobre mis bacilos bucales, eliminando a los más sensibles a la amoxicilina y permitiendo la supervivencia y multiplicación de los más resistentes. Eso significa que mi próximo flemón puede ser mucho más intratable, y los de las personas a las que se los pegue, también. Pero no sólo eso: he contribuido también (y sobre todo) a que en cualquier otra parte del organismo (por ejemplo, el intestino, donde se encuentra el E. coli) este proceso evolutivo se produzca igualmente; esto es especialmente cierto de los antibióticos de amplio espectro. Como no soy el único idiota que hace cosas así, los microorganismos permanecen sometidos a constante presión evolutiva en millones de estos reactores biológicos con ojos repartidos por todo el mundo. Con el mal uso y el abuso de antibióticos, provocamos constantemente la evolución de cepas resistentes dentro de nuestros propios cuerpos. En los países subdesarrollados o en vías de desarrollo, esto sucede también porque la calidad de los antibióticos que consumen es desconocida y muchas veces no pueden permitirse completar el tratamiento; en los países desarrollados, lo hacemos nosotros solitos por pura desidia, cabezonería y estupidez. Solomillo de estreptococos con foie reducido al antibiótico. Luego, fregamos con bactericida. El mal uso y abuso de antibióticos en humanos no constituye la única posibilidad de que aparezcan cepas bacterianas resistentes. Durante muchísimas décadas, la industria cárnica ha usado antibióticos masivamente para prevenir la aparición de enfermedades en el ganado y para favorecer su crecimiento. Es decir: no sólo le daban antibióticos al ganado cuando caía enfermo, sino también cuando estaba sano. Esto tuvo varios resultados positivos, entre ellos la mejora de la seguridad alimentaria; la carne ya no nos liquida como chinches, cosa frecuente en el pasado. Otro efecto positivo, pero sólo desde el punto de vista de los ganaderos y las industrias cárnicas, es que los animales tratados con ciertos antibióticos crecen más y por tanto aportan más
- 298 -
La Pizarra de Yuri 1
beneficio a peso. Ya en los años ’40 se descubrió que si se alimentaba al ganado con micelios secos de streptomyces aureofaciens –una fuente de antibióticos tetracíclicos– éste engordaba más debido a ciertas interacciones intestinales. Así quedó abierta la veda del antibiótico en la ganadería, que sólo en tiempos recientes ha empezado a cerrarse. Vamos, que todos los carnívoros nos hemos tirado años y más años atiborrándonos de antibióticos sin apenas control veterinario y fomentando la aparición de cepas bacteriológicas extremadamente resistentes por todas las cabañas ganaderas del mundo. En realidad, seguimos haciéndolo (sobre todo en la carne de ave). Ya decía yo que mi amiga vegeta tenía que llevar algo de razón en lo suyo. El SARM, el campylobacter y el propio E. coli, todas ellas multirresistentes a estas alturas, campan por sus respetos. También ha despertado preocupación el surgimiento durante los últimos años de diversos detergentes bactericidas como novedad comercial de venta al público. Aunque aún no se ha podido establecer todavía una relación directa entre estos limpiadores y la proliferación de bacilos resistentes, parece una consecuencia lógica. En general, la FDAnorteamericana desaconseja su utilización por inútiles para prevenir ninguna clase de infección, a pesar de lo que digan o den a entender en los anuncios. ¿Y ahora qué hacemos? Esta es otra de las cosas del planeta Tierra que los seres humanos hemos estropeado ya irreversiblemente. Después de décadas cultivándolos tan cuidadosamente, no podían fallarnos: los microorganismos resistentes a los antibióticos han llegado para quedarse. La pregunta es: ¿y ahora qué hacemos? A estas alturas, existe un arsenal farmacológico para tratar muchas de estas infecciones con otro tipo de medicamentos. El problema es que estos fármacos son menos eficaces, más caros, más tóxicos y con mayores efectos secundarios, algunos de ellos graves. Por tanto, se refuerza la importancia de la prevención y especialmente de las vacunas: una correcta vacunación evita las enfermedades infecciosas, incluso si éstas se originan en cepas resistentes a los antibióticos. Sin embargo, ni hay vacunas contra todo ni parece juicioso vacunarnos contra todo.
- 299 -
Antonio Cantó
Estructura de un bacteriófago. Estos virus infectan a las bacterias y algunos de ellos las destruyen.
Una alternativa prometedora a los antibióticos parece ser la terapia basada en bacteriófagos, extensivamente desarrollada en la Unión Soviética a partir de los años ’20 del siglo pasado pero poco conocida en Occidente debido a las barreras de la Guerra Fría y al hecho simple de que los antibióticosresultaban mucho más eficaces –cuando aún eraneficaces, claro–. Como su nombre indica, losbacteriófagos son parásitos naturales de las bacterias: generalmente se trata de virus muy específicos, que sólo atacan a una cepa bacteriana determinada y que se pueden cultivar sobre la marcha según las necesidades específicas. Algunos de ellos son capaces de destruirlas, por lo que tienen utilidad como tratamiento alternativo. Lo que no ayuda en absoluto es seguir abusando de los antibióticos como si no pasara nada, pues hace el problema aún mayor y evoluciona cepas aún más resistentes. Por ejemplo: sólo el 10-15% de las bronquitis están ocasionadas por bacterias; el resto son virales, y a los virus los antibióticos no les dicen ni buenos días. Tomar antibióticos para la bronquitis, a menos que haya sido diagnosticada como bronquitis bacteriana, es mal uso. Lo mismo ocurre con la irritación de garganta y algunos casos de otitis. Y no digamos con la gripe y el resfriado común, causados por dos estupendos virus que pasan de los antibióticos como si no estuvieran ahí; salvo que haya infecciones bacterianas coadyuvantes, cosa que debe determinar un médico, tomarse antibióticos para el catarro es como tomarse aspirinas para el cáncer. Lo que pasa es que si nos los tomamos, su uso se solapa con la evolución natural de la enfermedad yparece que nos han curado. En realidad, lo único que hacen en la mayoría de estos casos es molestar al organismo. En muchos países se considera que algunos médicos no son lo bastante cuidadosos a la hora de recetar antibióticos, en general cuando les presionan los pacientes. Y todos, todos y todas deberíamos renunciar a la carne que haya sido criada con antibióticos como factor de engorde. Esa no es una práctica correcta. Sí resulta admisible, en cambio, su uso veterinario para tratar enfermedades diagnosticadas del
- 300 -
La Pizarra de Yuri 1
ganado… cuando aún sirven de algo. Todo esto no es ninguna cosilla de poco más o menos: una de las más poderosas herramientas que la ciencia nos proporcionó contra la enfermedad está volviéndose cada día más inútil por abusar de ella, y eso es algo de lo que nos arrepentiremos muy, muy profundamente. No lo empeoremos más. La resistencia a los antibióticos en un video elaborado por la FDA, EE.UU. (En inglés) Ver también: Antibióticos para la vida
- 301 -
Antonio Cantó
Qantas y Rolls Royce: Segundo incidente grave de motor en 65 días (A380 y B747) Yuri, el 4 de noviembre de 2010 @ 22:12 · Categoría: Actualidad, Tecnología
Hoy, un Airbus A380 de la aerolínea australiana Qantas ha sufrido un grave fallo de motor, obligándole a realizar un aterrizaje de emergencia. El pasado 30 de agosto, ocurrió exactamente lo mismo en un Boeing-747 de esta misma compañía, equipado también con un motor Rolls-Royce. Breve nota preliminar. Hoy, el Airbus A380 ha sufrido su primer incidente grave en la unidad matrícula VHOQA de la aerolínea australianaQantas. Tras unos primeros momentos en que las principales agencias de noticias hablaban de accidente, la situación se ha saldado con un regreso de emergencia al aeropuerto de partida: Singapur. Esto es inevitable: toda máquina fabricada por el ser humano, por extraordinaria que sea, tendrá algún fallo tarde o temprano. En las primeras imágenes del incidente se observa una desintegración probablemente explosiva del motor Rolls-Royce Trent 900. También hay una rotura de menor importancia en el ala de babor, aparentemente por proyectil producido durante esta desintegración.
Desintegración parcial del motor RR Trent 900 en un Airbus A380 de Qantas, matrícula VH-OQA, el 4 de noviembre de 2010. (Público TV)
- 302 -
La Pizarra de Yuri 1
Cabe reseñar que, pese a las enormes fuerzas implicadas en una desintegración de esta clase, no se observan más daños significativos. En una prueba realizada antes de su puesta en servicio, Rolls Royce ya demostró que la probabilidad de que un fragmento proyectado durante la desintegración parcial de un Trent 900 escapara y causase daños mayores en los sistemas de alrededor era baja; podemos verlo en el siguiente video:
Prueba de contención en desintegración parcial de un motor Rolls Royce Trent 900 para el Airbus A380. Aunque en el incidente de hoy se ha producido claramente una pérdida completa de contención en la parte trasera de la góndola, aparentemente esto sólo se ha traducido en la perforación moderada del borde de ataque que se observa en las imágenes; lo que viene a reforzar la idea de que esta clase de incidente en un A380 no compromete gravemente la seguridad del vuelo.
Desintegración parcial del motor RR RB211 en un Boeing 747 de Qantas, matrícula VH-OJP, 30 de agosto de 2010.
- 303 -
Antonio Cantó
Más peculiar resulta que este es el segundo motor de envergadura que le revienta a Qantas y a Rolls Royce en apenas 65 días. El pasado 30 de agosto de 2010sucedió un incidente muy parecido en un Boeing-747Jumbo de la misma compañía, matrícula VHOJP, también tras despegar de su aeropuerto de partida; en este caso, San Francisco. Se trataba igualmente de un motor Rolls Royce, modelo RB211-524, número de serie 13247: un modelo de motor antiguo, muy distinto al Trent 900, cuyo desarrollo le costó la ruina a esta empresa británica. En esta ocasión nadie se planteó aterrizar la flota de Boeing-747, ni siquiera los equipados con motores Rolls Royce RB211. La agencia australiana de seguridad aérea ATSB ha publicado ya un informe preliminar sobre lo sucedido en este incidente de agosto, donde también hubo afectación menor del ala, pero los fragmentos tampoco alcanzaron ningún otro elemento de importancia. El informe aún no establece una causa del incidente, aunque realiza las siguientes observaciones: • • • • •
El cojinete de la turbina de baja presión resultó destruido, junto con la rueda fónica y las sondas de velocidad adyacentes. El eje de la turbina de presión intermedia estaba partido en su segmento posterior. Todos los álabes se habían separado del disco de la turbina de presión intermedia. Los álabes de las tres etapas de la turbina de baja presión se habían separado del disco o estaban fracturados. Los álabes guía del inyector de la primera etapa de baja presión estaban destruídos y los restantes, sustancialmente dañados.
Según los testigos, estos daños en el motor del B747 se produjeron en forma de detonación, al igual que parece haber sucedido en el Trent del A380. En ambos casos, a primera vista, los daños parecen concentrarse en su parte posterior. Dos incidentes tan similares ocurridos en dos motores del mismo fabricante operados por la misma compañía aérea, pero en aviones radicalmente distintos, sugerirían concentrar la atención preliminar en Rolls Royce y Qantas más que en el Boeing 747 o el Airbus A380. Esta singular coincidencia ha conseguido despertar mi interés, por lo que iremos viendo en este blog lo que vaya saliendo al respecto de ambos sucesos. Por cierto, que hace
- 304 -
La Pizarra de Yuri 1
tiempo que no sale gran cosa sobre el accidente del avión presidencial polaco, que también seguimos aquí. Poco a poco. (Continuará)
- 305 -
Antonio Cantó
El error de un Nobel que condenó el proyecto atómico nazi Yuri, el 31 de octubre de 2010 @ 13:36 · Categoría: Ciencia popular, Historia y cultura, Tecnología
Una demostración palmaria de lo importante que resulta la verificación independiente en ciencia.
Para este post contamos con los documentos secretos originales del programa nuclear de la Alemania nazi, que no fueron desclasificados por sus posteriores propietarios hasta muchos años después. En el Deutsches Museum, Munich.
Fueron muchas las razones científicas, políticas, materiales y humanas por las que la Alemania nazi no produjo nunca una bomba atómica. Entre ellas, que no creyeron poder alcanzarla antes del fin de la Segunda Guerra Mundial y por tanto dedicaron sus esfuerzos a otras cosas más perentorias. Vamos, que no llegaron a proponérselo en serio y la historia siguió adelante por los caminos que ya conocemos. Sin embargo, el asunto tiene aguijón: parte de esta dejadez en materia atómica obedeció a un error científico crucial, pero fácilmente subsanable con una mera verificación independiente. Tal verificación no se produjo y el error, cometido por un futuro premio Nobel, les hizo creer que la energía nuclear estaba mucho más lejos de lo que quizá podría haber estado. ¿Pudo ser diferente? ¿Existió alguna posibilidad de que el Tercer Reich consiguiese la bomba atómica y con ello cambiara el curso de la historia?
- 306 -
La Pizarra de Yuri 1
El submarino U-202 de la Marina de Guerra nazi. El 12 de junio de 1942, este navío desembarcó con éxito a un equipo de saboteadores en Long Island, Nueva York. Seis días después, el U-584 hizo lo propio cerca de Jacksonville, Florida. Aunque los saboteadores fueron traicionados antes de alcanzar sus objetivos, ambos buques habían cumplido su misión y regresaron sin novedad a su base en Brest. Durante 1942 y 1943 hubo más de veinte submarinos alemanes operando en el Golfo de México hasta la misma boca del Mississippi. Y en fecha tan tardía como el 5 de mayo de 1945, dos días antes de la rendición, el U-853 torpedeó aún a un último mercante norteamericano enfrente de Rhode Island antes de ser hundido a su vez. Cualquiera de ellos podría haber transportado a bordo una primitiva bomba atómica con destino a la Costa Este de los Estados Unidos.
El club del uranio.
Werner Heisenberg, premio Nobel de física 1932, en una fotografía de 1933. Heisenberg, como director del Instituto de Física Kaiser-Wilhelm de Berlín durante la Segunda Guerra Mundial, fue la cabeza más visible de las investigaciones nucleares en la Alemania nazi.
- 307 -
Antonio Cantó
El 3 de julio de 1967, veintidós años después de que terminara la Segunda Guerra Mundial, el físico teórico alemán Werner Heisenberg concedía una entrevista a un profesor de universidad estadounidense en la que hizo varias declaraciones sorprendentes para muchas mentalidades: Ya al principio, sospechamos que si era realmente posible hacer explosivos [atómicos], tomaría tanto tiempo y requeriría un esfuerzo tan enorme que había una muy buena probabilidad de que la guerra terminase antes de lograrlo. Cuando tuvimos éxito en el experimento L-4, cuando supimos que podíamos hacer reactores y, gracias al trabajo de Weizsacker, que así se podía hacer plutonio o algo parecido, supimos que en principio éramos capaces de crear bombas atómicas. Pero aún así no hicimos ningún esfuerzo serio en ese dirección. Hablemos en serio: si queríamos fabricar el agua pesada necesaria, nos costaría de uno a tres años conseguir suficiente cantidad. Producir plutonio bastante se tomaría otros tres años. Así que, con la mejor conciencia del mundo, le dijimos al gobierno: “no será posible hacer una bomba hasta al menos dentro de cinco años.” Ya sabíamos que prohibirían cualquier nuevo desarrollo que no pudiera usarse durante el año siguiente o así. Estaba claro que iban a decir: “¡No, no! ¡No dediquemos esfuerzos a la bomba atómica!”. Y eso fue lo que pasó.
El líder más destacado del programa atómico alemán nos está diciendo que, básicamente… no hubo un proyecto atómico alemán digno de tal nombre. Que en la carrera por la bomba, Estados Unidos estuvo esencialmente solo a pesar de todos los temores geniales emigrados allí huyendo del nazifascismo. Y además, apostilla: La decisión de no hacer bombas [atómicas] tomada por nuestro gobierno fue muy sensata. Habría sido muy sensata incluso para el gobierno de ustedes, porque podrían haber ganado antes la guerra contra Alemania si no se hubieran puesto a hacer bombas. No hay ninguna duda sobre esto: si ustedes hubieran dedicado todo ese esfuerzo a hacer aviones y tanques y demás, la guerra habría terminado antes. Esto puede no ser cierto en el caso de Japón, porque la guerra contra Japón era distinta; pero si hablamos sólo de la guerra contra Alemania, esto es un hecho.
Uno podría pensar que Heisenberg trata de limpiar su biografía con estas palabras. Nosotros no hacíamos nada malo,nosotros no sabíamos nada de lo que pasaba y todo ese rollo. Lo que pasa es que las pruebas hablan fehacientemente en su favor. O, mejor dicho, la ausencia de pruebas. Por toda la Alemania derrotada, tanto - 308 -
La Pizarra de Yuri 1
la misión Alsos norteamericana como su versión soviética sólo encontraron indicios de unas investigaciones dispersas, poco decididas, apenas dotadas de recursos y orientadas fundamentalmente a la construcción de reactoresexperimentales… ninguno de los cuales logró alcanzar masa crítica. Los documentos, los testimonios, las pruebas materiales: todo indica que Alemania en ningún momento se planteó seriamente el desarrollo de armamento nuclear. La carrera por la bomba no existió. ¿Cómo puede ser tal cosa? Vamos, en serio, los nazis no eran precisamente unos pacifistas ni gente tiquismiquis ante el derramamiento de sangre ajena. Resulta francamente dudoso que los fundadores de Auschwitz, Treblinka oSobibor, los autores del Generalplan Ost que quiso exterminar a los infrahombres del este tanto como a los judíos, los gitanos o los comunistas, hubieran dudado mucho a la hora de volar por los aires a algún millón de personas con bombas atómicas. Heisenberg ya nos apuntaba un motivo de los dirigentes nazis para descartar esta opción: la muy dudosa posibilidad de construir un arma nuclear antes del fin de la guerra. Este premio Nobel alemán, en la entrevista mencionada, aún sugiere alguna más: Había, por supuesto, una intención muy clara por nuestra parte: teníamos que impedir que nos implicaran en un gran esfuerzo para hacer bombas atómicas. Lo que queríamos era conseguir el dinero justo para seguir adelante con nuestro proyecto de reactor, pero nada más. Teníamos mucho miedo de que, en otro caso, alguien dijera: “Ahora, vamos a por la bomba atómica.” […] Esto salió como esperábamos. Definitivamente, no queríamos que nos metieran en este asunto de la bomba. No quiero idealizar esta cuestión: lo hicimos también por nuestra seguridad personal. Pensábamos que la probabilidad de que esto condujera al desarrollo de bombas atómicas durante la guerra era casi cero. Si no hubiéramos actuado así, y si se hubiese puesto a trabajar a miles de personas en ello sin resultados… podría haber tenido consecuencias extremadamente desagradables para nosotros.
- 309 -
Antonio Cantó
Experimento con el que Lise Meitner, Otto Hahn y Fritz Strassmann descubrieron la fisión del núcleo atómico en Alemania, 1938. Deutsches Museum, Munich. (Clic para ampliar)
¿Y la dirigencia nazi no se olió nada? Es decir, numerosos científicos y algunos políticos y militares venían hablando ya del advenimiento de la energía nuclear desde antes de la guerra. ¡Pero si Otto Hahn y Lise Meitner habían descubierto lafisión nuclear en la misma Alemania nazi, siendo 1938! El 22 de abril de 1939 Georg Joos y Wilhelm Hanle comunicaron a Abraham Esau –director de la división de física del Consejo de Investigaciones del Reich– las posibles aplicaciones militares de la fisión del átomo. Apenas dos días después Paul Harteck, asesor científico de la Oficina de Municionamiento del Reich, hacía lo propio dirigiéndose al estamento militar. El 29 del mismo mes, un montón de físicos se reunieron en el Ministerio de Educación para considerar todas estas cuestiones, fundando así el primerUranverein: el club del uranio. Tenían a Hans Geiger, el del contador Geiger. Manfred von Ardenne iba por su cuenta, investigando la separación de isótopos con el apoyo entusiasta del ministro de Correos nazi Wilhelm Ohnesorge. Todo en el más riguroso secreto… pero, en los ámbitos del poder nazi, un secreto a voces. Evidentemente, el Führer y sus lugartenientes tanto políticos como militares tenían que estar al tanto de lo que se cocía en materia atómica; aunque fuera por encima. Es más. En junio el químico nuclear Nikolaus Reihl, director científico de la empresa Auergesellschaft, se puso también en contacto con la Oficina de Municionamiento del Reich para comunicarles que la compañía estaba en posesión de una respetable cantidad de basura de uranio como resultado de su producción de radio. Y que si estaban interesados, podían ponerse a procesar este uranio, obtenido en las minas de la Checoslovaquia ocupada. Estuvieron interesados y pronto abrían la planta
- 310 -
La Pizarra de Yuri 1
de Oranienburg, al norte de Berlín, que produciría óxido de uranio y otros metales de interés hasta casi el final de la guerra. El 1 de septiembre de 1939 estalló la Segunda Guerra Mundial, sin pillar por sorpresa a casi nadie: desde años atrás, estaba cantado que se avecinaba algo gordo. Ese mismo día se fundaba el segundo Uranverein bajo los auspicios del Consejo de Investigaciones del Reich, ahora en manos militares. El 19 de este mes, mientras las últimas tropas polacas caían ante la Wehrmacht en la Batalla de Buzra, los científicos atómicos alemanes del segundo club se reunían en secreto por primera vez. Poco después el Instituto de Física Kaiser-Wilhelm y el Instituto Max Planck, las dos instituciones más relevantes de Alemania en asuntos relacionados con la física avanzada, pasaban también a la jurisdicción militar. Sabían que el isótopo uranio-235 era la clave de todo aquel asunto y que había otro aún más prometedor, no presente en la naturaleza pero descubierto igualmente en Alemania: un cierto eka-osmio, al que hoy en día llamamos plutonio.
Werner Heisenberg en 1940, poco antes de descubrir que podía construir un reactor nuclear. Deutsches Bundesarchiv.
En el mes de diciembre, el profesor Heisenberg –por entonces, aún en la Universidad de Leipzig– descubrió con gran emoción que era posible construir un reactor nuclear de uranio-235, que se estabilizaría a sí mismo en torno a 800ºC de temperatura operacional. En los últimos días de 1939, Heisenberg escribía una carta a la Oficina de Guerra del Reich que terminaba así: Conclusiones: Según las evidencias actuales, el proceso de fisión del uranio descubierto por Hahn y Strassmann puede utilizarse para la producción de energía a
- 311 -
Antonio Cantó
gran escala. El método más seguro para construir un reactor capaz de hacer esto sería enriquecer el isótopo uranio-235. Cuanto más alto sea el grado de enriquecimiento, más pequeño se puede hacer el reactor. El enriquecimiento de uranio-235 es la única manera de conseguir que el volumen del reactor sea pequeño, comparado con un metro cúbico. Es, además, el único método de producir explosivos varios órdenes de magnitud más potentes que los explosivos más poderosos conocidos ahora. De todos modos, para la generación de energía se puede usar incluso uranio ordinario, sin enriquecer ei isótopo 235, si se utiliza en conjunción con otra sustancia que ralentice los neutrones del uranio sin absorberlos. El agua no es apropiada para esto. Por el contrario, el agua pesada y el grafito muy puro podrían bastar según las evidencias actuales. Las impurezas más minúsculas siempre pueden impedir la generación de energía.
Vaya. Cualquiera diría que en esos momentos de finales de 1939, el buen doctor Heisenberg no tenía tan claro eso de omitir las posibilidades explosivas del invento. Por otra parte, también especifica claramente la necesidad de unmoderador neutrónico y las mejores opciones para obtenerlo: el carbono ultrapuro en forma de grafito y el agua pesada. A mediados de 1940 se realizaron varios intentos de construir pequeños reactores en Berlín-Dahlem, demasiado primitivos para funcionar (llegaron a intentar el uso del papel como moderador). En la siguiente carta de Georg Joos a la Oficina de Municionamiento del Reich, fechada en marzo de 1940, ya se plasman las necesidades de pureza del carbono para su uso en reactores nucleares. Pero, ¿qué es esto de un moderador neutrónico?
- 312 -
La Pizarra de Yuri 1
Carta de Georg Joos a la Oficina de Municionamiento del Reich explicando los detalles de pureza del carbono para constituir grafito de uso nuclear. Se especifican con detalle las proporciones máximas de boro, un poderoso absorbente neutrónico que altera las propiedades de la reacción en cadena. Deutsches Museum, Munich. (Clic para ampliar)
Moderadores neutrónicos.
Reacción en cadena por fisión del núcleo atómico. Para sostenerla con uranio poco enriquecido, hay que reducir la energía de los neutrones rápidos y convertirlos en neutrones térmicos. Esto lo hace el moderador. (Clic para ampliar)
En la reacción en cadena, los neutrones producidos durante la fisión del núcleo atómico provocan nuevas fisiones en los átomos de alrededor. Si hay suficiente masa de material fisible para que estos neutrones se encuentren con algo útil –lamasa crítica–, entonces la reacción es capaz de sostenerse a sí misma, generando más energía y más fisiones. En
- 313 -
Antonio Cantó
los explosivos nucleares esta reacción es muy rápida, utilizando uranio-235 o plutonio239 muy enriquecidos sin moderación de ninguna clase, buscando un pico de energía instantánea. Sin embargo, en un reactor nuclear ocurre lo contrario: se desea una reacción en cadena eficiente, económica y progresiva, que funcione con una proporción baja de material fisible y a ser posible usando uranio natural (uranio refinado y concentrado, pero con la misma proporción isotópica que se da en la naturaleza). En aquellos tiempos resultaba aún más importante: la cantidad de uranio disponible era baja y las posibilidades de enriquecerlo, endiabladamente difíciles y costosas usando la tecnología de la época. Resulta que durante la fisión la mayor parte de los neutrones se emiten en forma deneutrones rápidos, muy energéticos. Se podría pensar que esto es estupendo para provocar nuevas fisiones que aseguren la reacción en cadena, pero… resulta que no va así. La fisión del núcleo atómico se produce mejor cuando es alcanzado por neutrones térmicos, menos energéticos. Dicho en términos sencillos, los neutrones rápidos “pasan demasiado deprisa” para producir una reacción eficaz, mientras que los térmicos lo hacen a la velocidad adecuada. Por tanto, la construcción de un reactor nuclear eficiente exigedecelerar estos neutrones rápidos; la sustancia encargada de tal cosa es el moderador. Entre los mejores moderadores neutrónicos se encuentran, como predijeron Heisenberg y otros, el grafito y el agua pesada. Sin embargo, esta sustancia no debe ser tan efectiva que tienda a frenarlos por completo, porque en ese caso ya no tenemos un moderador sino un absorbente neutrónico que captura los neutrones e interrumpe la reacción. Entre estos tenemos, por ejemplo, al cadmio o el boro. Esta “resistencia al paso de los neutrones” se puede medir de varias maneras. Una de ellas es la longitud de absorción, difusión o atenuación, que indica la probabilidad de que una partícula no sea absorbida durante su paso por estas sustancias. Para construir un reactor con uranio natural, sinenriquecimiento alguno, la longitud de difusión en el moderador debe estar aproximadamente entre cuarenta centimetros y un metro y pico. Si es mayor, no provocará la atenuación necesaria y la reacción en cadena no llegará a producirse. Si es menor, la sustancia actuará como absorbente neutrónico y la detendrá por completo. La longitud de difusión mínima para un moderador básico de uranio natural está en 37 cm.
- 314 -
La Pizarra de Yuri 1
Agua pesada de Norsk Hydro al 99,6%. En toda Europa no había ninguna otra instalación donde se produjera en las cantidades industriales precisas. (Clic para ampliar)
El agua pesada es H 2O con los átomos dehidrógeno corriente sustituidos por átomos de deuterio; es decir, 2H2O (o D2O, óxido de deuterio). Con una longitud de difusión de 116 cm, constituye un excelente moderador neutrónico. Pero presenta varios problemas de orden práctico. Fundamentalmente es difícil, costosa y complicada de producir; y no te digo ya con el grado de pureza necesario (más del 99%), por lo que en último término sale cara de narices y llega con cuentagotas. Tanto, que en tiempos de los nazis sólo había una fábrica en Europa que la produjese, y eso gracias a un acúmulo de casualidades y rarezas: la planta de Norsk Hydro en Vemork, Noruega. Desde 1927 Norsk Hydro mantenía una sociedad con el inmenso consorcio químico alemán IG Farben y además Noruega fue invadida por los nazis en abril de 1940, con lo que gozaban de libre acceso a este recurso. Pero eso no hacía que el agua pesada resultase más económica, fácil o rápida de producir. Además, había que transportarla en un complicado viaje hasta los laboratorios atómicos alemanes. El grafito, en cambio, es básicamente carbono y hay por todas partes. Al principio cuesta un poco de producir con el grado de pureza exigido, que es puñetero, pero después sale por toneladas en forma de bloques económicos fáciles de manejar, transportar y utilizar. Por ello, todos los primeros reactores construidos por todas las potencias nucleares fueron de uranio natural moderado por grafito. Cuando partes de cero, ese es el camino más rápido, barato y directo para obtener energía nuclear y armas atómicas. ¿Y el reactor, para qué?
- 315 -
Antonio Cantó
A todo esto, ¿para qué necesitamos un reactor si queremos hacer bombas? Pues por dos motivos fundamentales. El primero es que sin un reactor operativo hay una serie de detalles sobre el funcionamiento íntimo del núcleo atómico que no se pueden aprender; y sin esos detalles, tendrás que construir tu arma nuclear a ciegas en una montaña de consideraciones técnicas importantes. Y el segundo, para producir plutonio en cantidad fácil y rápidamente. Hay, esencialmente, dos aproximaciones para fabricar tu primera bomba atómica. Una es pillar mineral de uranio yenriquecerlo una y otra vez hasta que obtienes decenas de kilos del preciado isótopo uranio-235 para hacer una bomba del tipo de la de Hiroshima. Esto es un lío, cuesta una fortuna y encima ese tipo de bomba es un rollo, un arma muy limitada. Hubo un momento en que, para realizar este proceso, la planta norteamericana de Oak Ridge consumía la sexta parte de toda la energía eléctrica producida en los Estados Unidos. La Alemania nazi no podía permitirse semejante cosa ni por casualidad, ni en Oranienburg ni en ninguna otra parte.
El reactor B de Hanford, donde se produjo el plutonio estadounidense para Trinity, Nagasaki y numerosas armas de posguerra, era de uranio natural moderado por grafito.
Ni falta que hace. Los americanos es que fueron por las dos vías a la vez, pero la gente que sabe lo que quiere y cómo conseguirlo a un precio justo opta siempre por el plutonio. El plutonio resulta enormemente más práctico como arma que el uranio; cuesta mucho menos de producir y separar; permite más fácilmente el diseño de armas más avanzadas; y no necesitas instalaciones tan grandes, caras y conspicuas. Por eso la primera bomba atómica fue de plutonio, la de Nagasaki fue de plutonio, la primera de los soviéticos fue de plutonio y hoy en día todas son de plutonio total o parcialmente.
- 316 -
La Pizarra de Yuri 1
Hágame caso, joven: para jugar a los soldaditos atómicos, uranio kk, plutonio mola. Y de buen grado o a la fuerza, a Alemania no le quedaba otra que ir por la vía del plutonio. El plutonio sólo tiene un par de pejiguerías, y una de ellas es que no se da en la naturaleza. Estamos ante unelemento sintético que hay que producir por completo. Sólo hay una manera de hacerlo a escala industrial: con un reactor nuclear. Es muy sencillo. Bueno, bastante sencillo. Metes uranio natural, que está compuesto fundamentalmente por uranio-238 con una pequeña proporción de uranio-235. El uranio-235 es fisible, el 238 no (en condiciones normales). Entonces le das mecha al reactor. El -235 empieza a fisionar en cadena y una parte de sus neutrones alcanzan al -238. Pero ya hemos dicho que el -238 no puede fisionar, así que los va absorbiendo y al hacerlo se convierte en uranio-239. El uranio-239 es virulentamente inestable y en cuestión de minutos decae a neptunio-239, que tampoco está muy p’acá y transmuta en… ¡tachán! ¡Nuestro deseado plutonio-239! Todo esto ocurre en cadena, sin ningún esfuerzo adicional. De lo único que tienes que llevar cuidado es de que no se te desmande el reactor (por la acumulación de un nuevo material fisible, el propio plutonio-239) y de no acumular mucho plutonio240, que a este nivel sólo sirve para tocar las narices. Yendo por el camino del plutonio consigues una bomba mejor, antes y con más posibilidades. Todo son ventajas. Pero necesitas un reactor. Aunque sea un reactor experimental del año de la picor. Sin reactor no hay plutonio (ni electricidad, en las aplicaciones civiles de la energía nuclear). A todos los efectos prácticos de la Alemania nazi, sin reactor no hay bomba, ni programa nuclear ni nada. Así pues, no quedaba otra que construir un reactor. Tenían los conocimientos, tenían los especialistas, tenían las materias primas (no muchas, pero tenían) y dos opciones para el moderador: el agua pesada, difícil, remota y cara; y el grafito, fácil, cercano y barato (¡será por carbón en Alemania!). ¿Con cuál te quedarías tú? Exacto: a diferencia de todos los demás, eligieron el agua pesada. Pero, ¿por qué?
- 317 -
Antonio Cantó
Opciones tecnológicas para el desarrollo de las primeras armas nucleares 1940-1960. (Clic para ampliar)
Walther Bothe durante una reunión de físicos en Stuttgart, 1935.
Un pequeño error para un hombre, un gran golpe para el proyecto atómico nazi. Aunque Heisenberg estaba convencido por motivos teóricos de que tanto el grafito como el agua pesada valían de moderador neutrónico, resultaba preciso verificarlo experimentalmente y determinar cuánto con absoluta precisión. Con exactitud germánica, como si dijéramos. Del agua pesada se encargó él mismo, en colaboración con el matrimonio Robert y Klara Döpel. Debido a la importancia de este estudio, el grafito lo estudiaría otro físico prestigiosísimo distinto, con quien Heisenberg sustentaba alguna rivalidad: el doctor Walther Bothe de Heidelberg, director de la unidad de física del Centro de Investigaciones Médicas Kaiser-Wilhelm, padre del primer acelerador de partículas alemán digno de tal nombre y futuro premio Nobel. Si te crees más capaz que él, siempre puedes levantar la mano y ofrecerte voluntario, kamerad.
- 318 -
La Pizarra de Yuri 1
La esfera de Bothe para medir la longitud de difusión neutrónica en el electrografito, a finales de 1940. En Walther Bothe, “La Longitud de difusión de los neutrones térmicos en el electrografito”, fechado el 20 de enero de 1941, Kernphysikalische Forschungsberichte (G-71). Deutsches Museum, Munich.
Además, el doctor Bothe tenía experiencia en la materia. Entre otros trabajos relativos al uranio como combustible para obtener energía nuclear, el 5 de junio de 1940 ya había realizado el correspondiente estudio sobre una muestra de carbono común, concluyendo que su longitud de difusión ascendía a 61 cm. Esto es: bien por encima del límite mínimo de 37 cm y más de la mitad que el agua pesada, situada convencionalmente entre 100 y 116 cm. Pensaba que esa cifra de 61 cm aún podía mejorarse, porque su muestra de carbono estaba bastante contaminada con calcio, magnesio y otras cosas que alteran el resultado; según sus estimaciones, al usar grafito ultrapuro podría llegarse a 70 cm. Así lo plasmó en sus conclusiones:
- 319 -
Antonio Cantó
…siguiendo [el dato] G1.(3) la absorción es del 6% con una longitud de difusión de 61 cm. Esto se acerca bien al valor de 70 cm, donde Heisenberg ha demostrado que es posible la Máquina [el reactor] […]. Con el límite de error estimado, queda determinada en el límite mínimo de la longitud de difusión (37 cm). […] Usando carbono puro, la longitud de difusión podría ser mayor que 70 cm, con una sección eficaz de captura inferior a 0,003 x 10 -24. En todo caso, se precisan más experimentos con el carbono. Parece que la idea es ensamblar inmediatamente una Máquina juntando Preparado 38 [uranio] y carbono. El carbono puro podría obtenerse, por ejemplo, mediante las vías propuestas por Joos, para después llevarlo al método del electrografito hasta una densidad de 1,5. –Walther Bothe, “La Longitud de difusión de los neutrones térmicos en el carbono”. Fechado el 5 de junio de 1940, Kernphysikalische Forschungsberichte (G-12).
Así pues, durante las últimas semanas de 1940 el doctor Bothe de Heidelberg se puso a la labor junto con Peter Jensen y algunos estudiantes universitarios de confianza reclutados como ayudantes. Con el máximo secreto, montaron en un sótano del Centro de Investigaciones Médicas un apparat para realizar la medición usando electrografito de la máxima calidad suministrado por Siemens-Plania: el mejor grafito que se podía conseguir en la Alemania del periodo. Este dispositivo era básicamente una esfera de 110 cm de diámetro formada por bloques de este electrografito con una funda exterior de caucho, que se sumergía en un tanque de agua. La esfera estaba provista con una estructura de aluminio en la parte inferior, montada sobre una base de hierro y madera encerada, pero por lo demás era autoportante; en la parte exterior había cintas de cadmio. Por arriba dejaron un canal libre para introducir las sondas y la fuente neutrónica, un preparado de radón-berilio con una actividad de setenta milicurios; este canal se cerraba a continuación introduciendo más grafito en bloques cilíndricos. En un determinado momento del informe que escribiría con posterioridad, Bothe se queja de no tener medios para hacer un montaje más elaborado. El 20 de enero de 1941, el futuro premio Nobel da a conocer sus resultados entre los miembros del segundo club del uranio con un informe ultrasecreto titulado La longitud de difusión de los neutrones térmicos en el electrografito (W. Bothe y P. Jensen, Die Absorption thermischer Neutronen in Elektrographit, en Kernphysikalische ForschungsberichteG-71). Las mediciones obtenidas hacen empalidecer a más de uno: […] se calcula la longitud de difusión:
- 320 -
La Pizarra de Yuri 1
L = 36 ±2 cm.
El error de Bothe que condenó al programa atómico alemán en su documento secreto original “La Longitud de difusión de los neutrones térmicos en el electrografito”, fechado el 20 de enero de 1941. Kernphysikalische Forschungsberichte (G-71), Deutsches Museum, Munich. La verdadera longitud de difusión neutrónica para el grafito son 54,4 cm, no 36 cm.
Así, destacadito, porque el resultado es de lo más sorprendente, contrario a la teoría y un verdadero jarro de agua helada para el programa atómico alemán. Treinta y seis centímetros resultaban radicalmente insuficientes, uno por debajo del mínimo absoluto de 37. Y un gravísimo error: la verdadera longitud de difusión neutrónica en el grafito es de 54,4 cm, muy correcta para un moderador, cosa que en los Estados Unidos midió Szilárd con éxito. Inmediatamente a continuación, Bothe afirma: Con los [valores] sobre los que se basan los cálculos de Heisenberg se esperaría una longitud de difusión L0 = 61 cm. La longitud de difusión medida es mucho menor y la absorción mucho más fuerte, por lo que el carbono estudiado aquí difícilmente debería tomarse en consideración como un material moderador para la Máquina [el reactor].
- 321 -
Antonio Cantó
La conclusión derivada del error de Bothe: el grafito no sirve como moderador para un reactor nuclear. Esta creencia errónea no desaparecería hasta los últimos meses de la guerra.
Con todas las letras. Por cierto, que el buen doctor Bothe se nos antoja un poco listillo a la hora de quitarse marrones de encima: cabría recordar que esos “valores sobre los que se basan los cálculos de Heisenberg” son los mismos que él dedujo siete meses antes. Pero da igual: es una catástrofe de todos modos. Tras un cuidadoso análisis de impurezas obtenido quemando una cantidad del carbono para estudiar sus cenizas, determina en las conclusiones: En todo caso, se puede juzgar a partir del estado presente de la teoría que el carbono [grafito], aunque haya sido manufacturado con los mejores métodos técnicos conocidos y esté libre de impurezas, probablemente no sirve como material moderador para la Máquina en cuestión a menos que se acumule [enriquezca] el isótopo 235.
La conclusión final de Bothe, en el mismo documento: el grafito sólo serviría como moderador neutrónico si se usara uranio enriquecido, que Alemania no podía producir en cantidades suficientes y de hecho ningún país utilizó en sus primeros intentos.
- 322 -
La Pizarra de Yuri 1
Cénit y ocaso del proyecto atómico alemán. Estas conclusiones fueron devastadoras. Si para Alemania el grafito no servía como moderador y enriquecer uranio resultaba inviable económicamente, entonces la vía del plutonio debía discurrir necesariamente por el camino del agua pesada, largo, caro y complicado. A partir de este momento, el pesimismo comienza a instalarse poco a poco en la comunidad de los científicos atómicos nazis, lo que se va traduciendo en un progresivo desinterés por parte de los dirigentes políticos. Siguiendo a Werner Heisenberg: [No hubo más interés en el grafito, a pesar de saber que el agua pesada era muy escasa] debido a que el experimento de Bothe no era correcto. Bothe había hecho esta medida del coeficiente de absorción del carbono puro y se le deslizó un error en el experimento. Sus valores eran demasiado altos [en absorción; bajos en difusión] pero asumimos que eran correctos y no creíamos que el grafito se pudiera usar.
Atención de nuevo a las fechas. Las fechas son muy importantes:
Fecha y firma del documento erróneo de Bothe “La Longitud de difusión de los neutrones térmicos en el electrografito”. Kernphysikalische Forschungsberichte (G-71), Deutsches Museum, Munich.
- 323 -
Antonio Cantó
Adolf Hitler en París con Albert Speer (izda.) y Arno Breker (dcha.), 23 de junio de 1940; Francia se había rendido el día anterior. A principios de 1941, casi toda Europa estaba controlada directa o indirectamente por los nazis. Las grandes batallas contra los Estados Unidos y la Unión Soviética no habían comenzado aún. Todas las opciones políticas y militares permanecían abiertas en esas fechas.
Estamos todavía en enero de 1941. La Europa continental entera, desde el Vístula y el Danubio hasta el Atlántico, está en manos nazis o de amigos de los nazis a excepción de un par de países neutrales: una buena posición para atrincherarse. Aún no han invadido la Unión Soviética, con la que mantienen una paz precaria. Pearl Harbor no ha ocurrido tampoco todavía: los Estados Unidos siguen fuera del conflicto. En estos momentos, sólo el tropezón de la Batalla de Inglaterra empaña los éxitos alemanes. La guerra se lucha ahora mismo en África, lejos de la Fortaleza Europa. Los grandes bombardeos que más adelante aniquilarían las ciudades e industrias alemanas caen de momento principalmente sobre el Reino Unido, a manos de la Luftwaffe. Faltaba más de un año para que el Proyecto Manhattan se pusiera en marcha en serio. Von Braun y los suyos seguían en Alemania. Todas las posibilidades estaban abiertas aún.
- 324 -
La Pizarra de Yuri 1
¿Qué habría sucedido si Bothe no se hubiera equivocado y alguien hubiese dicho a la dirigencia nazi durante la primavera de 1941: “podemos construir un reactor de grafito y fabricar plutonio, podemos hacer bombas atómicas, consígannos algo de tiempo y uranio; es cosa de cuatro o cinco años, puede que menos si nos dotan con la mitad de los medios que harían falta para invadir la URSS el próximo verano”? Por supuesto, resulta imposible saberlo. Sí conocemos, en cambio, lo que sucedió en realidad. En estas mismas fechas de 1941, la empresa Auergesellschaft que mencioné más arriba ya había fabricado varias decenas de toneladas de óxido de uranio y Degussa de Fráncfort, los primeros 280 kg de uranio metálico para el reactor de Heisenberg (en parte con mineral capturado durante la conquista de Bélgica). Los norteamericanos no empezarían a disponer de este material hasta 1942, cuando los científicos alemanes ya contaban con siete toneladas y media. En diciembre de 1942, la Pila Chicago-1 de Fermi y Szilárd necesitó 6 toneladas de uranio puro y 34 de óxido de uranio para convertirse en el primer reactor operativo de la historia. Pero no estamos en 1942: estamos aún en 1941, y el Tercer Reich tiene ya casi todo el uranio necesario. En Alemania había (y hay) grandes minas de carbón; con él, compañías como SiemensPlania, IG Farben, Degussa y otras podrían haber producido grafito de calidad nuclear a poco que sus científicos atómicos les hubieran dicho cómo hacerlo. Esto, evidentemente, no sucedió. En vez de eso, el agua pesada se convirtió en un recurso estratégico de primer orden, la única posibilidad. A partir de estas fechas, se realizaron numerosas actuaciones para asegurar el agua pesada noruega de Norsk Hydro, y también para empezar a producirla en Alemania, esto último con reducido éxito. Hacia finales del verano de 1941, encargaban a Norsk Hydro 1.500 kilos de agua pesada. Para fin de año, ya habían recibido los primeros 361. Durante el mismo 1941 hubo diversos intentos para enriquecer uranio de manera más eficiente, lo que habría despertado un interés renovado en el grafito (posiblemente sacándoles de su error). Pero a pesar de que alguno tuvo éxito, no se vieron capaces de continuar por ese camino debido a las limitaciones económicas. Así, les quedó definitivamente vedada la vía del uranio. Sólo era posible la vía del plutonio, como concluyera el singular Fritz Houtermans en agosto de este año, lo que exigía construir un reactor sí o sí. A partir de finales de 1941, todos los intentos de los científicos atómicos alemanes estuvieron orientados a crear este reactor de uranio natural-agua pesada. En palabras de Heisenberg, fue en septiembre de 1941 cuando vimos ante nosotros un camino abierto que conducía a la bomba atómica.
- 325 -
Antonio Cantó
En octubre, un atribulado Heisenberg se reunía en Dinamarca con Niels Bohr para conversar sobre la moralidad de que los científicos contribuyeran a esta clase de invenciones terribles; Bohr malinterpretó la conversación por completo y transmitió que Alemania estaba cerca de conseguir la bomba atómica a los norteamericanos (adonde Bohr huiría también poco después). Puede imaginarse la alarma que despertaron estas palabras, reforzando la reciente decisión de Roosevelt de iniciar el desarrollo de esta nueva clase de arma (en esos momentos y durante unos meses más, el proyecto Manhattan aún se compondría de investigaciones aisladas).
El 22 de junio de 1941, Alemania invadió la Unión Soviética. Comenzaba así la mayor batalla de la historia de la Humanidad, que se cobraría decenas de millones de víctimas civiles y militares y culminó con el colapso total del régimen nazi. Esto provocó enormes tensiones en la economía alemana desde el invierno de 1941, obligándoles a concentrarse en aquellos proyectos que pudieran ofrecer resultados militares de manera más inmediata. Deutsches Bundesarchiv.
En diciembre de 1941, con las fuerzas alemanas detenidas a las puertas de Moscú, el ministro de Armamento y Municiones Fritz Todt comunicaba a Hitler que la economía de guerra alemana estaba próxima a su punto de ruptura. Desde ese momento, cualquier incremento de gasto en un ámbito debía conducir necesariamente a una reducción en otros o el país colapsaría. Así pues, se cursaron órdenes para evaluar todos los programas armamentísticos y concentrar los recursos en aquellos que pudieran obtener resultados antes de que acabase la guerra. El profesor Schumann, director de investigaciones militares, escribió a los distintosinstitutos del uranio transmitiéndoles estas instrucciones. Hubo una primera reunión evaluadora a principios de 1942. Durante esa reunión se vio que sus expectativas militares eran demasiado remotas: pasaría un largo tiempo antes de
- 326 -
La Pizarra de Yuri 1
que se pudiera construir un reactor de uranio natural – agua pesada capaz de producir plutonio en cantidad. No habría bomba atómica en breve. Así pues, se decidió sacar este proyecto del ámbito militar y devolverlo al civil, bajo control del Ministerio de Educación. En ese momento, el cénit del programa atómico nazi, apenas había un total de setenta personas implicadas directamente en el mismo. El 26 y 27 de febrero de 1942 se convocaron dos reuniones simultáneas para tratar el asunto en mayor profundidad, con la participación de todos los científicos nucleares principales. Se invitó a Himmler y Keitel pero, debido a una equivocación administrativa, ambos declinaron su asistencia (les mandaron el programa de conferencias científicas por error, en vez de los encuentros de interés político-militar, lo que les hizo pensar “¿qué demonios pintamos nosotros en unas jornadas de físicos?”). A pesar de esto las reuniones resultaron satisfactorias y se aceleró la construcción de una planta de agua pesada en Leuna por cuenta de IG Farben. Pero seguían dependiendo de Norsk Hydro, que ahora producía unos 140 kg de calidad superior al 99% cada mes; la planta de Leuna no estaría lista hasta finales de la guerra… fabricando agua pesada a apenas el 1%. De todos modos, el programa atómico no regresó al ámbito militar.
- 327 -
Antonio Cantó
La pila atómica L-IV de Leipzig, el primer intento serio de construir un reactor nuclear en la Alemania nazi. Fue activada en mayo de 1942 y produjo más neutrones de los que gastaba, un 13%, aún lejos de lo necesario para sostener una reacción en cadena.
En mayo, Degussa había manufacturado ya tres toneladas y media de uranio para la pila atómica de Heisenberg. Hacia finales de mayo realizaron el primer intento en Leipzig: el reactor L-IV, con 750 kilos de uranio puro y 140 de agua pesada. Produjo neutrones, un 13% más de los que consumía, pero aún estaba muy lejos de sostener una reacción en cadena. Sin embargo, era un éxito: simplemente aumentando su tamaño, conseguirían un reactor nuclear efectivo. Heisenberg calculó que con diez toneladas de uranio metálico y cinco de agua pesada bastaría. El 28 de mayo, Degussa enviaba la primera tonelada a sus talleres de Fráncfort para cortarla en piezas del tamaño adecuado. Pero el agua pesada seguía llegando desde Noruega a un ritmo exasperantemente lento. ¡Si hubiera algo para sustituirla…! Alrededor, las fábricas germanas producían constantemente miles de toneladas de carbono purificado y grafitos elaborados con buen carbón alemán, para múltiples usos civiles y militares, ignorando que tenían en sus manos la clave de la bomba atómica. El 4 de junio llegó el momento más decisivo del programa atómico alemán. Heisenberg viajó a Berlín para entrevistarse con el poderoso ministro del Reich Albert Speer, íntimo de Hitler. En la reunión, celebrada en el Instituto Kaiser-Wilhelm de Berlín-Dahlem, estaban también presentes otros pesos pesados de la ciencia, la política y el ejército. Heisenberg les explicó que era posible construir una bomba del tamaño de una piña capaz de aniquilar una ciudad. Pero, a continuación, anunció que Alemania no podría construirla en muchos meses; y, de hecho, representaba una imposibilidad económica con las tecnologías disponibles. Los asistentes, que se habían excitado mucho con la primera afirmación, quedaron decepcionados tras la segunda. El día 23, Speer se reunía con Hitler. En el transcurso de una larga conversación sobre múltiples temas, apenas mencionó el asunto de la bomba atómica, y de manera poco entusiasta. Así, el programa nuclear nazi perdió definitivamente el interés de los políticos y los soldados. A pesar de ello siguieron financiándolo y prestándole asistencia hasta el final de la guerra, aunque como un proyecto civil de orden secundario para la futura producción de energía eléctrica. En torno a esas fechas, los aliados identificaron el interés nazi en el deuterio noruego y pusieron en marcha una campaña de sabotajes y bombardeos contra la instalación de Norsk Hydro en Vemork, conocida por la historia como labatalla del agua pesada. Hubo grandes actos de heroísmo y famosas películas… pero en realidad, a esas alturas, Alemania ya estaba fuera de la carrera por la bomba atómica. Lo único que lograron
- 328 -
La Pizarra de Yuri 1
estas acciones bélicas fue retrasar aún más la investigación civil. En torno a 1944, la instalación estaba tan dañada que ya sólo producía agua pesada al 1%. Aún así, siguieron avanzando. Cada vez más despacio, conforme la guerra en el Este demandaba más y más de la sociedad alemana, los bombarderos del Oeste aniquilaban sus ciudades e industrias, el agua pesada llegaba cada vez más despacio y más impura. Varias instalaciones esenciales resultaron destruídas durante los bombardeos de alfombra. El suministro de corriente eléctrica era a cada día más azaroso, los recursos más raros y caros. Hacia el otoño de 1944 los cohetes balísticos V-2 de Von Braun comenzaron a atacar las ciudades enemigas… con componentes realizados en un grafito de alta calidad muy similar al que habría salvado el programa atómico tres años y medio antes. También fue en esa época cuando, por el propio avance de la ciencia, los científicos alemanes adquirieron consciencia de que habían estado equivocados todo ese tiempo. De que las mediciones de Bothe estaban mal: el grafito era un extraordinario moderador neutrónico que habría permitido a la Alemania nazi crear rápidamente reactores generadores de plutonio. Pero a esas alturas ya no tenía arreglo. Aún llegaron a construir un último reactor en marzo de 1945, el B-VIII de Haigerloch, utilizando una solución mixta de agua pesada y grafito. Tenía las características tecnológicas para alcanzar la reacción en cadena autosostenida, pero aún resultaba demasiado pequeño debido a las carencias de agua pesada. A esas alturas, los Estados Unidos ya estaban produciendo plutonio industrialmente enHanford. Con uranio natural y grafito, por supuesto.
Soldados norteamericanos y británicos desmontan el reactor nuclear nazi B-VIII de Haigerloch tras su captura. Archivo Gubernamental del Reino Unido.
- 329 -
Antonio Cantó
A finales de abril de 1945, las tropas anglonorteamericanas conquistaban Haigerloch y otras instalaciones esenciales para el programa nuclear alemán, mientras el Ejército Rojo hacía lo propio por el este. El día 30, Hitler se suicidaba en su búnker. El 2 de mayo, el comandante de Berlín rendía la capital del Tercer Reich al general soviéticoVasily Chuikov. Cinco días después, los restos de la Alemania nazi se rendían incondicionalmente a los aliados. Las misiones Alsos norteamericana y soviética hicieron su particular agosto. La historia aún tuvo un último coletazo: el 14 de mayo, un buque estadounidense capturaba al submarino U-234. Iba cargado con materiales nucleares y otros componentes tecnológicos avanzados, en dirección a Japón. Algunos de estos productos llegarían a su destino tres meses después… como parte de las bombas de Hiroshima y Nagasaki. ¿Qué fue lo que falló? Aún hoy se discute por qué un físico tan extraordinario como Walther Bothe, que ganaría el premio Nobel en 1954, cometió ese error fatal en sus mediciones del grafito. Algunos creen que el electrografito purísimo suministrado por Siemens-Plania para el experimento estaba contaminado con boro, un poderoso absorbente neutrónico capaz de alterar los resultados: un solo gramo de boro captura tantos neutrones como cien kilos de carbono. En aquella época era común que el proceso de elaboración industrial del grafito incorporase carburo de boro, un hecho que Szilárd sabía y tuvo en cuenta durante sus experimentos análogos en los Estados Unidos. Pero Bothe, aparentemente, no estaba al tanto de este detalle. A pesar del cuidadoso análisis de la pureza del grafito realizado por este último, incluso cantidades minúsculas de boro bastarían para reducir la longitud de absorción de la muestra por debajo del mínimo exigible en un moderador neutrónico. Otros deducen que los bloques de grafito utilizados no encajaban perfectamente entre sí y, al sumergirlos en el agua, mantuvieron burbujas de aire en su interior. En este caso, el nitrógeno del aire podría haber producido un efecto parecido. Esta era la opinión del propio Werner Heisenberg. Hay incluso quien piensa que Bothe saboteó los resultados. Walther Bothe despreciaba profundamente a los nazis por el asunto de la física aria, estaba casado con una rusa y – a diferencia de lo ocurrido con sus colegas– los vencedores no le molestaron tras el fin de la Segunda Guerra Mundial. En este caso Bothe, perfecto conocedor de las fortalezas y debilidades de Alemania, habría bloqueado deliberadamente el único camino practicable por los nazis para conseguir la bomba atómica. Al cortar el paso al grafito, sabiendo de las dificultades relacionadas con el enriquecimiento de uranio y con el agua pesada, cerraba también de hecho la vía del plutonio al Tercer Reich. O al menos se lo ponía muy difícil. Bothe jamás reconoció esta posibilidad, aunque sin duda le habría
- 330 -
La Pizarra de Yuri 1
hecho quedar como un héroe tras la victoria aliada. Lo único que dijo respecto a sus resultados erróneos fue que Heisenberg no había tenido en cuenta los márgenes de error (aunque, como hemos visto en el texto original, eran unos márgenes muy ajustados).
Soldados soviéticos en el hotel Adlon de Berlín, frente a la Puerta de Brandemburgo, en mayo de 1945. Algunas de las principales instituciones científicas, situadas en el área de Berlín, caían así en manos de la URSS. Deutsches Bundesarchiv.
En realidad el fallo esencial de la ciencia alemana en el programa nuclear fue no contar con un mecanismo de verificación independiente. Así lo reconocía Heisenberg, en la entrevista mencionada al principio: Había tan pocos grupos [de investigación] que nunca repetíamos un experimento dos veces. Cada grupo tenía alguna tarea asignada. Nosotros, en Leipzig, hicimos las mediciones para el agua pesada y a partir de ese momento todo el mundo aceptó nuestro resultado; nadie lo comprobó. Y nadie comprobó tampoco las medidas de Bothe.
Si hubiera existido un mecanismo de verificación independiente que comprobara los datos de sus colegas, el error de Bothe se habría tornado evidente en el mismo 1941 y Alemania habría podido usar el grafito como moderador desde el principio. En ausencia de verificaciones independientes, toda afirmación tiene que darse por buena sin garantía alguna, incluso aunque vaya en contra de todo lo que se sabe hasta el momento (como en este caso: la teoría no predecía una longitud de difusión tan corta, ni tampoco las mediciones preliminares anteriores del propio Bothe). Por eso se insiste tantas veces: todo experimento debe ser reproducible y reproducido, todos los resultados deben verificarse independientemente. Esto es esencial para el método científico. Cuando no se respeta, ya vemos las consecuencias, en este o en cualquier otro ámbito. Pero, ¿habría sido realmente posible?
- 331 -
Antonio Cantó
El error de Bothe no fue, ni con mucho, el único problema que plagó al programa atómico de la Alemania nazi. Uno de los más fundamentales fue el volumen económico total del Tercer Reich, al menos en comparación con el de los Estados Unidos. Durante la mayor parte de la guerra, el producto nacional bruto alemán era superior al británico, el francés o el soviético; pero entre dos y tres veces más pequeño que el estadounidense. Este abismo económico explica por sí solo la relativa facilidad con que la potencia norteamericana pudo desarrollar el proyecto Manhattan. No obstante, los Estados Unidos recorrían simultáneamente la vía del plutonio y la del uranio, mucho más cara. Yendo sólo por la del plutonio, un programa nuclear resulta notablemente menos costoso; puede que incluso hasta el punto de igualar estas diferencias en poderío económico total.
Comparación del volumen económico de los principales contendientes en la Segunda Guerra Mundial. Datos tomados de Mark Harrison (1998), “The economics of World War II: Six great powers in international comparison”, Cambridge University Press. Clic para ampliar.
Otro problema notable fue la llamada generación perdida de científicos alemanes. Debido a las persecuciones políticas y raciales, un gran número de científicos europeos y específicamente alemanes huyeron a los Estados Unidos, donde terminarían constituyendo la columna vertebral del proyecto Manhattan. Estupideces racistas como el asunto de la Física aria, junto a las distintas ciencias patrióticas o la depuración política del profesorado, no hicieron nada por mejorar el estado de la ciencia que quedó en la Europa controlada por el nazifascismo y sus aliados. Y sin embargo, como hemos visto, Alemania mantenía un número significativo de científicos destacados pertenecientes a la generación anterior.
- 332 -
La Pizarra de Yuri 1
Un tercer problema significativo fue la dificultad de acceso a algunos productos esenciales. Europa no es un continente que se caracterice por la abundancia de recursos naturales; incluso conquistando la mayor parte, como había logrado el Tercer Reich a finales de 1940, sigues necesitando un montón de cosas. El mismo uranio –aunque suficiente– hubo que rebuscarlo por varias fuentes distintas, desde las minas de Checoslovaquia a las reservas belgas. No tenían helio. El petróleo y los combustibles fueron un quebradero de cabeza para los nazis durante toda la guerra. Y así, mil cosas. En general, a Alemania todo le salía mucho más caro y trabajoso de obtener, porque debía conseguirlo fuera de Europa. Esto produjo también importantes carencias entre la población. A pesar de ello, no hay ningún motivo claro por el que estas carencias hubieran podido detener o retrasar significativamente la vía del plutonio, si no hubiera sido por ese asunto del agua pesada. Y, por supuesto, conforme avanzaba la guerra los bombardeos y las derrotas constreñían la economía alemana cada vez más y les iban privando de industrias y recursos fundamentales. Hacia el final del conflicto, algunas instalaciones clave para el programa atómico resultaron destruidas o severamente dislocadas. Pero para cuando eso ocurrió, la guerra ya estaba perdida y el camino al arma nuclear, abandonado tiempo atrás en favor de aquellos últimos reactores de juguete. El error de Bothe fue el único factor determinante que cerró decisivamente el único camino practicable hacia la bomba atómica para el Tercer Reich. Precisamente por todas estas limitaciones, Alemania debía haber tomado desde el primer momento y sin dudarlo la vía del plutonio producido en reactores de uranio natural-grafito. Así lo consiguieron casi todas las potencias nucleares. Como hemos visto, gozaban de uranio y grafito suficiente para intentarlo, así como de un número de científicos muy destacados que ya habían alcanzado muchos de los conocimientos necesarios en fecha tan temprana como 1941. Quizá no tuvieran gente con la talla de Einstein o Szilárd o Fermi u Oppenheimer, pero los científicos atómicos alemanes eran muy brillantes sin duda alguna. No obstante, al obligarles a ir por el camino del agua pesada, el error de Bothe retrasó y encareció absurdamente el programa nuclear nazi hasta tornarlo impracticable por completo en el escaso tiempo de que disponían.
- 333 -
Antonio Cantó
Walther Bothe en 1954, tras obtener el premio Nobel. Fundación Nobel, Suecia.
Fueron estos retrasos y encarecimientos los que desmotivaron a la dirigencia política y militar del Tercer Reich, así como a los propios científicos. Si en Alemania no hubo una acción política decidida para unificar el proyecto atómico y dotarlo de medios abundantes fue precisamente porque el largo camino del agua pesada lo hacía poco atractivo de cara al desenlace de la guerra. Si hubiera habido una vía rápida –el reactor de grafito–, seguramente se habrían tomado mucho más interés. Opino que sin el error de Bothe, y con un programa atómico decidido y bien dotado, la Alemania nazi podría haber completado su primer reactor de uranio natural-grafito al mismo tiempo que los estadounidenses o poco después: finales de 1942, principios de 1943. Incluso algo antes, mediando cierta genialidad. Tampoco veo ningún motivo claro por el que no hubieran podido empezar a producir plutonio a escala industrial hacia finales de 1943 o principios de 1944 (los norteamericanos lo lograron a mediados de 1943). Y una bomba primitiva entre 1945 y 1946. Para ser de utilidad, obviamente, la Segunda Guerra Mundial tendría que haber durado un poco más; pero no debemos olvidar que las decisiones científicas principales se tomaron a principios de 1941, cuando todas las opciones políticas y militares estaban abiertas aún. No era estrictamente preciso invadir la URSS en junio de 1941, sobre todo si piensas que pronto tendrás bombas atómicas para devastarla a tu gusto. Tampoco era totalmente necesario que Japón atacara Pearl Harbor en diciembre de 1941, propiciando - 334 -
La Pizarra de Yuri 1
así la entrada de Estados Unidos en la guerra y la activación final del Proyecto Manhattan durante 1942. Todo eso era en gran medida inevitable y habría terminado por suceder de una manera u otra, pero no tenía por qué ocurrir tan deprisa como sucedió. Si los nazis hubieran sustentado la convicción íntima de que sus científicos andaban detrás de algo importante, unawunderwaffe como jamás vio la Humanidad, habrían tenido una motivación clara para enfriar la evolución del conflicto en vez de acelerarla como hicieron. Un 1941-1942 de moderada intensidad (parecida a lo que fue el periodo agosto de 1940 – junio de 1941, con enfrentamientos eminentemente periféricos y un reforzamiento de la Defensa del Reich) habrían sido suficientes con alguna probabilidad. Pues si Alemania hubiera podido seguir la vía del plutonio usando reactores de uranio natural-grafito, creo –creo– que habría bastado con retrasar las cosas catorce o dieciocho meses para asegurarse una bomba atómica como la de Nagasaki antes del final de la guerra. Dado que no había ningún motivo por el que retrasarlas, dado que el programa nuclear alemán se había convertido en poco más que una curiosidad científica irrelevante a partir del error de Bothe en enero de 1941 y sobre todo desde la reunión con Speer de junio de 1942, las cosas sucedieron como sucedieron. El Tercer Reich invadió a la URSS en junio de 1941, Japón atacó Pearl Harbor en diciembre, Estados Unidos y la Unión Soviética entraron en modo overkill, y el resto de la historia resulta sobradamente conocido. Para bien.
El último intento nazi por alcanzar la criticidad: la pila atómica B-VIII de Haigerloch, capturada por los aliados en abril de 1945. Nunca pudo alcanzar la reacción en cadena autosostenida: debería haber sido un 50% mayor para lograrlo. Réplica en el Museo Atómico de Haigerloch, Alemania.
- 335 -
Antonio Cantó
Vida arsénica Yuri, el 3 de diciembre de 2010 @ 2:02 · Categoría: Actualidad, Ciencia popular
Habrá quien sufra una decepción. Pero si se confirma, es un descubrimiento muy, muy notable.
Convocatoria a la conferencia de prensa de la NASA para "comentar un hallazgo en astrobiología que tendrá impacto en la búsqueda de pruebas de vida extraterrestre". A pesar del ruido generado, eso no son "pruebas de vida extraterrestre". (NASA) (Clic para ampliar)
Como es bien sabido, hace unos días la NASA anunció una conferencia de prensa en su sitio web y en notas dirigidas a los medios de comunicación, donde se decía lo siguiente: La NASA ofrecerá una conferencia de prensa a las 2 p.m. EST el jueves, 2 de diciembre, para comentar un hallazgo en astrobiología que tendrá impacto en la búsqueda de pruebas de vida extraterrestre. La astrobiología es el estudio del origen, evolución, distribución y futuro de la vida en el universo.
Sobre esta base, como suele resultar inevitable, pronto surgieron las primeras especulaciones sobre el hallazgo de vida extraterrestre; e inmediatamente a continuación, toda clase de suposiciones amplificadas por Internet, incluyendo los delirios habituales en estos casos.
- 336 -
La Pizarra de Yuri 1
A pesar de tanto ruido, la redacción de la nota de prensa –bastante común entre las que proporciona la NASA a menudo– parece cuidadosamente formulada para rechazar estas especulaciones: “un hallazgo en astrobiología que tendrá impacto en la búsqueda de pruebas de vida extraterrestre” no son “pruebas de vida extraterrestre”. El embargo sobre su contenido terminó por alimentar aún más el bombo del asunto; no obstante, este embargo venía impuesto porScience –que es quien publica el paper– y constituye una práctica habitual para proteger la exclusiva. No voy a decir que la NASA ignore la clase de efecto que un texto así tiene en la sociedad, e incluso que lo utilice para atraer atención, pero, honestamente… ¿de qué otra forma lo podrían decir? ¿Utilizando lenguaje abstruso que sólo entiendan los iniciados? Yo creo que esa sería una solución peor. Uno dice lo que tiene que decir, y lo que digan los demás ya es asunto de ellos. Nadie puede actuar pensando constantemente en quién sacará una conclusión inoportuna o exagerada de lo que hace; por ese camino, nunca se haría nada.
Arsénico.
Del fósforo, del arsénico, de la vida y de la muerte. Dicho esto, vamos al asunto, que tiene miga. Aunque a muchos pueda resultarles decepcionante (al menos en comparación con las expectativas generadas por gente que NO es de la NASA ni del equipo investigador), el descubrimiento de vida arsénica tiene un alcance extraordinario en “la búsqueda de pruebas de vida extraterrestre” y también en nuestra comprensión de la vida terrestre. ¿Por qué? En primer lugar, porque el arsénico es un conocido veneno. Dicho en términos sencillos, un antagonista de la vida, y además uno de los más poderosos (no mezclar con el concepto bioquímico de antagonista). Se supone –se suponía hasta hace un rato– que allá donde hay mucho arsénico y no hay nada de fósforo, no puede haber vida. ¿A qué se debe esto? Fundamentalmente, a que el arsénico tiene un comportamiento bioquímico muy parecido al fósforo; tanto como para confundir a los seres vivos.
- 337 -
Antonio Cantó
En palabras de la doctora Felisa Wolfe-Simon, una de las participantes en la conferencia de prensa de la NASA: Toda la vida que se conoce requiere fósforo (P), en forma de fosfatos inorgánicos (PO43– o Pi) y moléculas orgánicas que confienen fosfatos. El P i sirve como columna vertebral de los ácidos nucleicos que constituyen el material genético y como el mayor almacén de energía química para el metabolismo, en los enlaces de polifosfatos. El arsénico (As) se encuentra inmediatamente por debajo del fósforo en la tabla periódica, y por ello ambos elementos comparten muchas propiedades químicas, aunque la diferencia es lo bastante grande como para que el arsénico no pueda reemplazar directamente al fósforo en la bioquímica moderna. El arsénico es tóxico porque resulta lo bastante parecido al fósforo como para que los organismos intenten esta sustitución. –Wolfe-Simon, Felisa; Davies, Paul C.; Anbar, Ariel D. (2009), “Did nature also choose arsenic?”, en International Journal of Astrobiology, Volumen 8, Número 2, págs. 69-74.
Incluso en cantidades bajas, la presencia de arsénico en los alimentos o el agua constituye un grave problema de salud pública. En la foto, un paciente bangladesí muestra los efectos de la intoxicación por esta sustancia en el agua de boca durante la reciente "crisis del arsénico" ( http://bicn.com/acic/ ). El desarrollo de agentes biorremediadores es de gran interés para combatir estos desastres.
En otras palabras: el cuerpo de los seres vivos absorbe arsénico creyendo que es fósforo, lo incorpora y entonces se encuentra con que el arsénico no le sirve para seguir desempeñando sus funciones biológicas. Como resultado, la actividad biológica queda interrumpida o alterada, la homeostasis se desarticula rápidamente y el ser vivo muere.
- 338 -
La Pizarra de Yuri 1
Suele decirse que la vida terrestre está basada en el agua, o en el carbono. O en el ADNARN. Pero, de la misma manera, podríamos afirmar que la vida terrestre está basada en el fósforo. Este no-metal con quince protones en su núcleo (y normalmente dieciséis neutrones, lo que suele resultar en el isótopo estable 31P) se presenta en varios alótropos de propiedades muy diferentes: fósforo blanco, fósforo rojo, fósforo violeta, fósforo negro, difósforo y nanopolímeros. Por su gran reactividad y su capacidad de interactuar agradable o desagradablemente con las cosas vivas, el fósforo blanco es muy conocido en la industria armamentística. El fósforo forma parte esencial de la estructura del ADN y el ARN. Los fosfolípidos constituyen la sustancia fundamental de las membranas celulares activas. Por tanto, estamos ante uno de los materiales estructurales de la vida. Pero no sólo eso. Prácticamente todos los procesos celulares que consumen energía lo hacen a través de una molécula llamada adenosín-trifosfato (ATP), el vehículo de la energía vital. La fosforilación es, con mucha probabilidad, el mecanismo de regulación enzimática y metabólica más importante de todos. Sin fósforo, nunca habríamos llegado a ser. Sin fósforo, tú y yo no existiríamos. Y cuando el fósforo se ve reemplazado por el arsénico o cualquier otra cosa parecida, morimos sin remisión. O, al menos, eso pensábamos hasta ayer. Vida extraña. Postulamos la hipótesis de que sistemas bioquímicos antiguos, análogos pero distintos a los conocidos hoy en día, podrían haber utilizado arseniatos en un papel biológico equivalente al de los fosfatos. Los organismos que utilizaran estos caminos bioquímicos de “vida extraña” podrían haber sustentado una “biosfera en la sombra” durante los tiempos del origen y la evolución temprana de la vida en la Tierra o en otros planetas. Estos organismos podrían incluso mantenerse en la Tierra hoy en día, no detectados, en nichos inusuales. –Wolfe-Simon, Felisa; Davies, Paul C.; Anbar, Ariel D. (2009), “Did nature also choose arsenic?”, en International Journal of Astrobiology, Volumen 8, Número 2, págs. 69-74.
- 339 -
Antonio Cantó
Pteris vittata, un hiperacumulador de arsénico.
Se conocían ya algunos organismos capaces de absorber arsénico e incluso incorporarlo parcialmente a sus funciones biológicas. Por ejemplo, el helecho Pteris vittata es un hiperacumulador del arsénico presente en algunos suelos (incluyendo suelos contaminados), lo que permite su uso en fitorremediación. Algunas bacterias y archaeas, como la Sulfurospirillum arsenophilum o varias crenarqueotas, pueden obtener energía de compuestos arsénicos mediante unas enzimas conocidas comoarseniatoreductasas (Arr), reduciendo los arseniatos a arsenitos en lo que viene a constituir un mecanismo respiratorio. Hace un par de años se descubrieron otras bacterias capaces de realizar algo muy parecido a la fotosíntesis en ausencia de oxígeno, utlizando arsenitos como donantes electrónicos y generando arseniatos en el proceso (exactamente igual que, en la fotosíntesis “normal”, el agua actúa como donante de electrones para producir oxígeno); entre estas, parece encontrarse la cepa PHS-1 relacionada con la gammaprotebacteria Ectothiorhodospira shaposhnikovii. Por su parte, el moho Scopulariopsis brevicaulis puede metabolizar cantidades significativas de arsénico inorgánico mediante metilación y algunos peces, crustáceos del tipo del marisco, algas y hongos procesan el arsénico ambiental de forma parecida para dar lugar a la arsenobetaína (que constituye una parte significativa del arsénico presente en la sangre humana, sobre todo después de zamparse una cierta cantidad de estos seres). Lo que nunca se había manifestado es lo que aparece en el escrito para Science que se ha dado a conocer con esta conferencia de prensa:
- 340 -
La Pizarra de Yuri 1
La vida está fundamentalmente compuesta por los elementos carbono, hidrógeno, nitrógeno, oxígeno, azufre y fósforo. Aunque estos seis elementos forman los ácidos nucleicos, las proteíanas y los lípidos, y por tanto constituyen el grueso de la materia viva, es teóricamente posible que otros elementos de la tabla periódica puedan desempeñar las mismas funciones. Describimos una bacteria, la cepa GFAJ-1 de las Halomonodaceae, que sustituye el fósforo por arsénico para mantener su crecimiento. Nuestros datos muestran pruebas de arseniatos en macromoléculas que habitualmente contienen fosfatos, y muy notablemente en los ácidos nucleicos y las proteínas. El intercambio de uno de los bio-elementos principales podría tener un significado evolutivo y geoquímico profundo. […] Notificamos el descubrimiento de un microbio inusual, la cepa GFAJ-1, que excepcionalmente puede variar la composición elemental de sus biomoléculas básicas sustituyendo fósforo por arsénico. La manera en que el arsénico se incorpora a la estructura de estas biomoléculas no está clara, y los mecanismos mediante los que operan las mismas son desconocidos. –Wolfe-Simon et al. (2010), “A bacterium that can grow by using arsenic instead of phosporus”, en Science Express, 2 de diciembre de 2010.
El Lago Mono es un lago alcalino (pH =10) de muy alta salinidad situado en el extremo oriental del estado norteamericano de California, en la Sierra Nevada estadounidense. Aunque el lago en sí no debe alcanzar el millón de años de antigüedad, y seguramente se formó durante la erupción volcánica de Long Valley, la estructura geológica bajo la capa de cenizas apunta a fechas muy anteriores; podría tratarse de uno de los lagos más antiguos de los Estados Unidos. Aunque el nombre Mono también se nos antoja español –y sería exquisitamente adecuado–, en realidad procede de los anteriores habitantes de esas tierras.
- 341 -
Antonio Cantó
El lago Mono, en la Sierra Nevada de California (EEUU), presenta una elevada concentración de sales de arsénico. Este ha sido el lugar del descubrimiento.
Forma parte de una cuenca endorreica, es decir, sin salida al mar. Esto significa que todos los materiales arrastrados por la lluvia y demás quedan concentrados en el lago, mientras el agua se va evaporando lentamente. Esto forma lagos con gran densidad de sales, que en el caso del Mono tienen un importante componente de arsénico. A pesar de ello, se trata de un espacio de alto valor ecológico, clave para la migración de numerosas aves. No obstante, como vivir, en él sólo viven algunas especies muy especialitas como el crustáceo de aguas salobres Artemia monica, las “moscas alcalinas” Ephydra hians y una serie de algas y bacterias de rasgos extremófilosadaptadas a semejante ambiente. Lo que han hecho la Dra. Wolfe-Simon y su equipo ha sido tomar una bacteria de características extremófilas que ya había demostrado su resistencia al arsénico en este Lago Mono y cultivarla artificialmente en distintas etapas, con una cantidad cada vez menor de fósforo y mayor de arsénico en los nutrientes. El propósito de estas acciones era provocar tanta sustitución de fósforo por arsénico como fuera posible en el microorganismo. Cuando finalmente lo introdujeron en un medio sin ningún fósforo añadido, sino sólo con un arseniato (AsO 43–) y glucosa, ocurrió lo siguiente: GFAJ-1 creció a un promedio μmax de 0,53 días–1 bajo +As/–P, multiplicando el número de células más de veinte veces después de seis días. Crecía más deprisa y más extensamente al añadirle [fosfato] […] Pero de todos modos, cuando no se añadió [ni arsénico ni fósforo], no se observó ningún crecimiento. Incluímos tanto la densidad
- 342 -
La Pizarra de Yuri 1
óptica como el recuento de células para demostrar sin ambiguedad alguna el crecimiento utilizando dos métodos independientes.
Dicho en cristiano: GFAJ-1 seguía reproduciéndose en el arsénico, sin fósforo alguno (aunque al añadir fósforo lo hacía más rápido y mejor). Según la doctora Wolfe-Simon y sus colaboradores, esto significaría que esta bacteria es capaz de utilizar el arsénico como sustitutivo del fósforo para una diversidad de sus estructuras y procesos biológicos: Aproximadamente el 96% del fósforo está presumiblemente distribuido entre las fracciones “lípidas” y “proteínicas”. Si el AsO 43– reemplaza el papel biológico del PO 43–, entonces el [arsénico] debería estar actuando en muchos papeles bioquímicos análogos, incluyendo el ADN, la fosforilación de las proteínas […] y los fosfolípidos.
La cepa bacteriana GFAJ-1, cultivada en arsénico (NASA TV).
O sea: que por primera vez tendríamos un microorganismo funcionando con un elemento distinto de los seis constituyentes básicos de la vida conocidos hasta ahora; elemento que, en otras condiciones, resulta un poderoso enemigo de la vida. Es decir: no se trataría de un extremófilo corriente que tolera la presencia del arsénico o incluso lo incorpora en algún proceso biológico, sino de un organismo capaz de abandonar el fósforo para pasar a constituirse con arsénico. Llevamos décadas especulando con posibles formas de vida extraterrestre no sustentadas en los bioelementos de la vida terrestre; esta sería la primera prueba de que tal cosa resulta verdaderamente posible. Nos hallaríamos al principio de una nueva bioquímica, de un nuevo ámbito de la vida. La cosa tiene sus críticos (aparentemente minoritarios), que afirman que el experimento no ha demostrado fehacientemente (aún) la sustitución integral o mayoritaria del fósforo por arsénico en la GFAJ-1. Sin embargo, los autores del experimento han dado varios pasos significativos para demostrar este reemplazo; y aunque ciertamente no son
- 343 -
Antonio Cantó
definitivos por completo, sí apuntan con claridad a un descenso muy notable del fósforo y un incremento igualmente importante del arsénico en las biomoléculas del microorganismo. A falta de los siguientes estudios –que, visto el revuelo y la relevancia, seguramente no tardarán mucho– no resulta imprudente afirmar que se ha hallado unavida distinta de como la conocíamos. Las implicaciones. Si estos resultados se confirman, la importancia y el alcance del experimento anunciado ayer es colosal. Como ya he mencionado, nos hallaríamos ante una nueva bioquímica, algo muy distinto de lo conocido hasta ahora. Mil preguntas se agolpan: ¿cómo es un ADN que incorpora arsénico en vez de fósforo? ¿Cómo funciona la transferencia de energía, considerada hasta ahora competencia exclusiva del ATP? ¿Qué sustituye a la fosforilación, y de qué manera? ¿Qué otras sustituciones resultan posibles, y en qué combinaciones? Hay curro para generaciones enteras de biólogos y bioquímicos. :-D Y, por cierto, habrá que empezar a plantearse las posibles tecnologías derivadas, en medicina, en farmacología y en una multitud de campos. ;-)
Una fumarola hidrotermal submarina. Desde hace tiempo se postula que la vida pudo surgir en torno a ellas; este descubrimiento podría reforzar esta hipótesis.
Por otra parte, tal y como prometió la NASA, el impacto sobre la astrobiología es muy profundo. Si esto es lo que parece ser, estaríamos ante la demostración palmaria de que son posibles otras formas de vida no sustentadas en los bioelementos tradicionales, ampliando enormemente las posibilidades en otros mundos; hasta ahora sólo teníamos especulaciones, pero ahora comenzamos a disponer de hechos probados (siempre dependiendo de las correspondientes verificaciones). Si es posible una vida que utiliza arsénico en vez de fósforo… pues compi, entonces casi todo es posible. Silicio en vez - 344 -
La Pizarra de Yuri 1
de carbono. Metano en vez de agua. Vete tú a saber. (Insisto: sí, ya sé que sobre todo esto se haespeculado mucho. Pero una cosa es la especulación y otra muy distinta las pruebas.) También se abren otras posibilidades fascinantes en el ámbito de la abiogénesis, es decir, la manera como surgió la vida; otro campo estrechamente relacionado con la astrobiología. Si son posibles otras formas de vida no sustentadas en los bioelementos tradicionales, ¿se dieron? ¿Pudo haber un segundo génesis (o un tercero, o un cuarto…) de cosas hasta ayer inimaginables, aunque sólo sobreviviera la vida terrestre que conocemos ahora? ¿Realmente sólo sobrevivió la vida que conocemos, o queda algo de esos “otros génesis” en algún rincón de la realidad? Incluso podríamos estar ante una expresión moderna de la forma de vida original, quizás surgida en las fumarolas hidrotermales submarinas ricas en arsénico y otras sustancias antiguamente consideradas “no prebióticas“. A falta aún de verificar y explorar todo esto, la enseñanza profunda de lo sucedido ayer es que la ciencia ha hecho una vez más lo que mejor sabe hacer: desafiarse, corregirse, ampliarse a sí misma bajo el poder del estudio y la razón. No tenemos ninguna otra vía de adquisición del conocimiento capaz de hacer semejante cosa, constantemente. Por eso la ciencia es tan poderosa y nos ha dado tantas cosas en tan poco tiempo. Mañana, aunque no genere tanto impacto mediático, volverá a ocurrir. Y pasado. Y el día después de pasado. Y así sucesivamente, en un camino siempre ascendente, siempre mejor que difícilmente se acabará. La ciencia no contiene la verdad absoluta, pero sí nos proporciona lo más próximo a la verdad que la especie humana puede alcanzar en cada instante de su historia, ayer, hoy y por siempre jamás.
- 345 -
Antonio Cantó
¿…y sólo sobrevivirán las cucarachas y las ratas…? Yuri, el 28 de noviembre de 2010 @ 9:51 · Categoría: Ciencia popular
Los extremófilos no sólo constituyen una asombrosa demostración de la tenacidad de la vida terrestre, sino que también abren posibilidades extraordinarias en el campo de la vida extraterrestre.
Esta Eosphaera de Gunflint (Minnesota-Ontario, Norteamérica) tiene unos 2.000 millones de años y es uno de los fósiles indisputados más antiguos que se conocen en la actualidad. Se trataría de un alga primitiva emparentada con las modernas Volvocaceae. Los estromatolitos contienen indicios notables de actividad biológica mucho más antiguos, remontándose al menos a unos 3.000 millones de años y quizás hasta 4.250. (H. Hoffmann, Universidad McGill)
La vida en la Tierra surgió hace unos 3.500 millones de años, ha sobrevivido a cataclismos extraordinarios y no se rendirá con facilidad. Las formas de vida sí desaparecen a menudo, en el proceso que llamamosextinción, pero la vida como tal ha demostrado ser asombrosamente tenaz. Hay una línea continua desde su aparición hasta el presente, sin interrupción alguna, derrotando a todos los algos que intentaron acabar con ella para regresar con más fuerza aún. Tiene cierto mérito eso de haber vencido a todo, medrando y evolucionando para sobrevivir ocupar todos los espacios disponibles a continuación,durante una puñetera cuarta parte de la edad del universo. Existe incluso una hipótesis, todavía sin demostrar, que dice que la vida es aún más antigua –unos 4.250 millones de años, la tercera parte de la edad del universo– y sobrevivió incluso al último Bombardeo Intenso Tardío en el fondo de los mares y quizás en el mismísimo espacio exterior. Sea cierto esto último o no, no cabe ninguna
- 346 -
La Pizarra de Yuri 1
duda de que la vida es muy antigua y sobre todo muy persistente. Con frecuencia se ha dicho que, si fuéramos tan imbéciles de aniquilarnos a nosotros mismos en una guerra nuclear, sólo sobrevivirían las cucarachas y las ratas. Sin embargo, esto dista mucho de ser una afirmación rigurosa. Las cucarachas y las ratas, aunque más resistentes a la radiación que los humanos, no lo son tanto. Pero hay seres en nuestro mismo planeta capaces de resistir niveles espectaculares de radiación y otras condiciones extremas. Esto es muy interesante, porque rompe radicalmente algunas imposibilidades relativas al surgimiento y desarrollo de la vida, incluso de la vida basada en el agua y el carbono, tanto terrestre como extraterrestre. Y, por ello, resulta de gran importancia en astrobiología. Veámoslo. Radiación y vida. Esto de la radiación es importante, porque junto a la presencia de materia y a la temperatura constituye una de los grandes aguafiestas a la hora de pensar en vida extraterrestre. Una radiación elevada de cualquier clase mata todo lo que pilla, por el sencillo procedimiento de alterar o cargarse los átomos o moléculas necesarios para sustentar cualquier forma sensatamente imaginable de vida (por ejemplo, una radiación excesiva pasa la materia a estado plasmático, en el cual la vida resulta difícilmente posible). De manera muy particular, interfiere en los procesos reproductivos, dislocando los mecanismos biológicos de replicación. Las radiaciones ionizantes (empezando por el alto-ultravioleta y continuando por la radiación gamma y X) se usan habitualmente como una técnica de esterilizacióncontra los microorganismos. Por otra parte, un nivel demasiado bajo de radiación parece también incompatible con la vida y su evolución. Sin radiación, no hay transferencia significativa de energía a grandes distancias (por ejemplo: la luz y calor de un sol a un planeta) y un nivel saludable de radiaciones ionizantes facilita la mutación, y por tanto la evolución. La pregunta, por tanto, se centra en delimitar los límites de la radiación para que la vida siga siendo razonablemente posible.
- 347 -
Antonio Cantó
La zona habitable de los sistemas solares se define como la región en torno a la estrella donde el agua puede permanecer en estado líquido. (Nueva ventana o pestaña para ampliar)
En general, un nivel de radiación tan bajo que mantenga congelados todos los solventes habituales –como el agua– dificultará enormemente el surgimiento y desarrollo de la vida porque ralentiza y en la práctica impide la interacción a gran escala entre los átomos y moléculas que la constituyen. En condiciones de presión más o menos normales, esto son 0ºC para el agua, 77ºC bajo cero para el amoníaco, 84ºC bajo cero para el fluoruro de hidrógeno y 183ºC bajo cero para el metano. Estos son los solventes más referenciados como posible medio para la vida, y los alternativos no se van mucho tampoco. Un lugar sin suficiente radiación para mantener una temperatura mínima en este rango está, muy probablemente, muerto. Por el extremo contrario, estos solventes pasan a estado gaseoso y pierden su función biológica en una banda de temperaturas igualmente limitada: 100ºC para el agua, 20ºC para el fluoruro de hidrógeno, el amoníaco se evapora a 33ºC bajo cero y el metano lo hace a 161ºC bajo cero. A niveles mucho mayores, nos vamos al estado plasmático. Esto nos deja un rango francamente estrecho de temperatura operacional para la vida: 104ºC para el fluoruro de hidrógeno, 100 ºC para el agua, 44 ºC para el amoníaco y apenas 22ºC en el caso del metano. Todo nivel de radiación que produzca una temperatura fuera de estos rangos, por exceso o por defecto, tiene muy pocos números para ser compatible con la vida. La radiación es un fenómeno eminentemente electromagnético (aunque también puede ser corpuscular, como laneutrónica, por ejemplo). Distinguimos entre radiaciones ionizantes y radiaciones no-ionizantes por la manera como interactúan con la materia y específicamente con sus electrones. Como su nombre indica, la radiación ionizante es la que puede ionizar átomos; dicho en plan sencillo, la que lleva energía suficiente para arrancarles los electrones. Esto, lógicamente, provoca una grave alteración del comportamiento químico (y por tanto bioquímico) de la materia. Las radiaciones
- 348 -
La Pizarra de Yuri 1
ionizantes constituyen buena parte de lo que conocemos como radioactividad (junto a algunas no-ionizantes, como las corpusculares).
Los núcleos galácticos son potentes emisores de radiación, lo que puede esterilizar el espacio circundante hasta decenas de miles de años-luz de distancia. En la imagen, el centro de nuestra Vía Láctea en el infrarrojo. (Telescopio Espacial Spitzer, NASA)
La radioactividad se considera peligrosa porque es capaz de alterar significativamente la estructura y comportamiento de las cosas vivas a niveles relativamente bajos de energía total. Provoca con facilidad quemaduras, mutaciones y otros daños que pueden matar con facilidad a un ser vivo. Por ello, un nivel excesivamente elevado de estas radiaciones ionizantes se considera incompatible con la vida, aunque la suma total de irradiación recibida se encuentre en el rango del agua o cualquier otro solvente. Debido a esta razón, las zonas próximas al centro de las galaxias se creen esencialmente muertas (próximasvienen a ser unos 25.000 años-luz en el caso de nuestra Vía Láctea): en los núcleos galácticos se ha detectado una cantidad enorme de radiaciones tanto ionizantes como no-ionizantes. ¿Cuánta radiación ionizante es demasiada radiación? En la vida terrestre, depende de cada organismo en particular. El efecto de la radioactividad sobre los seres humanos está muy estudiado por motivos bien conocidos, con lo que tenemos una idea bastante clara de nuestros límites en este respecto. En general, una dosis inferior a 0,1 millonésimas de gray por hora se considera segura indefinidamente para las radiaciones ionizantes electromagnéticas, y cinco millonésimas por hora durante un año resulta probablemente aceptable. La radiación natural de fondo en España viene a estar entre 0,1 y 0,2 millonésimas de gray por hora (aplicando la conversión 1 sievert = 1 gray
- 349 -
Antonio Cantó
utilizada usualmente para la radiación gamma y X; deben aplicarse factores correctores, por ejemplo, en la alfa y de neutrones). Aunque cifras relativamente bajas pueden ocasionar cáncer y otras enfermedades, los efectos perniciosos de las radiaciones ionizantes en el ser humano comienzan a evidenciarse claramente con exposiciones mucho mayores, aproximadamente a partir de un gray. Hasta el 5% de una población humana expuesta a uno o dos grays morirá durante las siguientes seis u ocho semanas. Una cifra de cinco grays puede matar a la mitad de la población expuesta en un mes más o menos, y diez grays nos aproximan al 100% de mortalidad en dos o cuatro semanas. Hay muy pocas personas que hayan sobrevivido a más de diez grays de radiación ionizante; entre estas, se encuentran algunosliquidadores de Chernóbyl, que en todos los casos resultaron expuestos de manera fraccionaria (en dosis menores separadas en el tiempo). En Hiroshima, algunas personas situadas a 21 kilómetros de la explosión recibieron doce grays; todas murieron. Por ello, consideraremos esta cifra de diez grays en una sola exposición como el límite de resistencia para los seres humanos. Las dosis superiores a treinta grays se consideran totalmente letales en cualquiera de sus formas, con las víctimas pereciendo en menos de dos días.
Las ratas son mamíferos euarcontoglires como nosotros, los primates, y por tanto acusan la radiación y otras agresiones ambientales de manera muy parecida. Se necesitan 7,5 grays de radiación ionizante para matar a la mitad de una población de ratas, apenas un 50% más de los cinco necesarios para hacer lo mismo con una humana.
Ratas, cucarachas, escarabajos de la harina y ositos de agua.
- 350 -
La Pizarra de Yuri 1
Las ratas no resisten la radiación ionizante mucho mejor que nosotros. Ambos somosmamíferos euarcontoglires, con un montón de similitudes biológicas. Allá donde la radiación esté matando a la gente como chinches, el resto de mamíferos morirán pronto también, y entre ellos las ratas. Para matar a la mitad de una población de pollos hacen falta seis grays, 7,5 para las ratas, 9 para los ratones y la mitad de una población de peces necesita veinte grays. En general, mamíferos, aves, anfibios y peces estamos mal adaptados a la radioactividad. Los crustáceos, que son artrópodos como los insectos, aguantan mejor: cargarse a la mitad de una población requiere doscientos grays, cuarenta veces más de lo que hace falta para liquidar a la mitad de una población humana. Las cucarachas son asunto distinto. Pero no por cucarachas, sino por insectos; de hecho, hay insectos muchísimo más resistentes a la radiación ionizante que estas molestas compañeras de la humanidad sedentarizada. Estos bichejos con superávit de patas son tipos realmente duros. Veámoslo. Diversos estudios habían establecido la resistencia a las radiaciones ionizantes de la cucaracha americana en un máximo de 675 grays; y entre 900 y 1.050 para la “cucaracha rubia” o alemana (sin embargo, sólo hacen falta 64 para matar al 93% de una población inmadura). Estas son, sin duda, cifras impresionantes: hasta ciento cinco veces la radiación máxima que podemos soportar los humanos. Las cucarachas parecen, pues, buenas candidatas para sobrevivir elegantemente a nuestra estupidez: con casi total seguridad, no tenemos armamento capaz de asegurar esos niveles de radiación en todas las tierras emergidas del planeta Tierra donde estos animalitos pueden medrar. Para su temporada de 2008, la popular serie de televisión estadounidense Cazadores de mitos se propuso comprobar si esto era verdad. Y, ya metidos en materia, comparar a las cucas con otros insectos: la mosca de la fruta y elescarabajo de la harina (de quien ya les habían chivado algo…). Así pues, prepararon una serie de poblaciones de estas tres especies y se dirigieron al Laboratorio Nacional Pacific Northwest para enseñarles una fuente de cobalto-60 capaz de producir 550 grays por hora de radiación beta y gamma; como hemos visto, eso enferma de muerte a un ser humano en diez minutos.
- 351 -
Antonio Cantó
El escarabajo del gusano de la harina (Tenebrio molitor) es uno de los insectos más resistentes a la radiación, mucho más que las cucarachas. En la prueba mencionada en el texto, sobrevivieron el doble que ellas a 100 grays y fueron los únicos en resistir 1.000 grays (cien veces más de lo necesario para matar a un ser humano).
Primero les arrearon diez grays, el límite máximo de supervivencia para las personas. Dos días después, habían muerto treinta de cada cien moscas de la fruta, una de cada diez cucarachas (alemanas) y dos de cada cien escarabajos de la harina; en el grupo de control no había perecido ningún individuo de las tres especies. A los quince días habían fallecido todas las moscas de la fruta, tanto en el grupo expuesto como en el de control (las moscas de la fruta sólo viven de dos a tres semanas). Pero de las cucarachas, sólo murieron el 30% (frente al 10% de control) y entre los escarabajos, apenas el 10% (contra el 6% de control). En un mes, la mitad de las cucas estaban difuntas (el 30% en el grupo de control), pero sólo el 26% de los escarabajos (10% en el grupo de control). Así que decidieron preparar más grupos y meterles más caña: cien grays. Esa fue más o menos la radiación gamma en el aire durante los primeros momentos del ataque contra Hiroshima. En los primeros dos días, habían caído cuatro de cada diez moscas de la fruta, dos de cada diez cucarachas y… seis de cada cien escarabajos. Las mosquitas de la fruta se murieron pronto como es de natural en ellas, pero a los quince días quedaban la mitad de las cucas y el 87% de los escarabajos (90% y 94% de supervivientes, respectivamente, en los grupos de control). Y al mes seguían tan campantes el 30% de las cucas y el 60% de los escarabajitos (70% y 90% en los grupos de control). Vaya, sí que son duras y duros. En el último intento, les sacudieron con mil grays. No se ha visto muchas veces semejante radiación en nuestro planeta, y todas ellas fue por causa humana. Para hacernos una idea, eso son cuatro veces más que el máximo alcanzado por hora en el entorno del reactor Chernóbyl-4 durante el accidente o en la
- 352 -
La Pizarra de Yuri 1
primera hora después del bombardeo de Nagasaki; y más o menos lo que cabría esperar a unos cien metros de una cabeza termonuclear de un megatón estallando ante nuestros ojos. Ciento nueve minutos enteros de cobalto-60 a saco matraco, oiga. Con mil grays, todas las cucarachas estaban muertas en dos días. Pero sólo el 60% de las moscas de la fruta. Y apenas el 10% de los escarabajos de la harina. A las dos semanas, no quedaba ninguna cucaracha ni mosca de la fruta (que, recordemos, se mueren de muerte natural en este plazo), pero aún vivían la mitad de los escarabajos (frente al 94% del grupo de control). Y al mes, sobrevivían todavía el 10% (90% en el grupo de control). Dicho de otra manera, uno de cada diez escarabajos de la harina podrían haberse paseado durante cuatro horas en torno al reactor reventado de Chernóbyl y sobrevivir durante al menos un mes. Desafortunadamente, el estudio de Cazadores de mitosno incluye información sobre lo que ocurrió después, ni especifica si fueron capaces de reproducirse y en su caso qué pasó con la descendencia.
El ¿simpático? osito de agua es un poliextremófilo capaz de sobrevivir a 6.000 atmósferas de presión, en el espacio exterior y a más de 5.000 grays de radiación, quinientas veces más de lo necesario para aniquilar a los humanos. Se trata del animal más resistente conocido.
El escarabajo de la harina es uno de los insectos más resistentes a la radiación, pero tiene competencia. Por ejemplo, de una avispita llamada Habrobracon: necesitas 1.800 grays para asegurarte de que las matas a todas (Wharton y Wharton, 1959). Eso son 180 veces más de lo preciso para matar a todos los humanos de una población expuesta. Existen otros animalitos que no son insectos capaces de sobrevivir a estas dosis monumentales de radiación ionizante. Los Bdelloidea, unos bichitos invertebrados acuáticos de la familia de los rotíferos, pueden resistir 1.120 grays manteniendo una décima parte de su capacidad reproductiva (y produciendo descendencia sana).
- 353 -
Antonio Cantó
Sin embargo, estos no son los animales más resistentes. El animal más resistente a la radiación que se conoce es un pequeño protóstomo, el tardígradou osito de agua. Este animalín de apenas un milímetro es un durísimopoliextremófilo capaz de sobrevivir a un grado por encima del cero absoluto durante unos minutos, diez días deshidratado por completo, o lo que le de la real gana a seis mil atmósferas de presión (¡seis mil atmósferas de presión, como seis veces en el fondo de la fosa de las Marianas, o sea como en la recámara delcañón de un tanque T-80 durante el disparo!). De hecho, es que puede sobrevivir en el espacio exterior, a presión casi cero y temperaturas bajísimas, expuesto directamente a l0s rayos cósmicos y la radiación solar ultravioleta: después de su viaje de doce días en la nave rusa FOTON-M3, el 12% consiguieron seguir reproduciéndose con normalidad. Este humilde y probablemente simpático osito de agua se ha encontrado en el Himalaya, a 4.000 metros de profundidad, en el Polo Norte, en el Ecuador… y puede aguantar la friolera de 5.000 grays de radiación gamma y hasta 6.400 de iones pesados , aunque pierde la capacidad de reproducirse. Cuando la mantiene, a veces se reproduce por partenogénesis pero más a menudo por vía sexuada, en ambos casos mediante huevos. De entre los que somos pluricelulares, no se conoce a ningún hijo de madre más duro que él. Pero en materia de supervivencia nadie, nadie puede competir con las bacterias. Deinococcus radiodurans, thermococcus gammatolerans. Los hongos y las bacterias son francamente duros de pelar. Muy, muy duros de pelar. Para cargarte a la mitad de una población típica de cualquier bacteria de andar por casa, necesitas esos mismos mil grays que sólo algunos animales logran soportar. La popular Candida, un hongo que se pega mucho si no usas condón, pide 24.000 grays para morirse de una buena vez: 2.400 veces más de lo necesario para aniquilar a la gente humana. Pero los más tenaces de entre todos los vivientes se encuentran en el reino casi infinito de las bacterias y sobre todo de las archaeas.
- 354 -
La Pizarra de Yuri 1
Deinococcus radiodurans mantiene el 37% de su viabilidad a 15.000 Grays, mil quinientas veces más de lo que mata a un ser humano.
Deinococcus radiodurans, también conocida como Conan the Bacterium, para por ser la más dura entre las duras de todos los vivientes que medramos en esta Tierra vieja; y como tal aparece en el Libro Guiness de los Récords. Pertenece al phylum Deinococcus, no parece ocasionar ninguna enfermedad y suele agruparse de cuatro en cuatro. Es como una esfera rosada de tamaño respetable para una bacteria (1,5 a 3,5 micras) y se cultiva con facilidad. Su presencia produce mal olor, como a repollo podrido. Tiñe en grampositivoaunque presenta algunas características de las gram-negativas, no forma endosporas y carece de movimiento propio. Es unquimioorganoheterótrofo aeróbico, o sea que necesita oxígeno para producir su energía a partir de compuestos orgánicos presentes en el entorno; en ese sentido, se nos parece mucho. Por ello, se halla en lugares ricos en estos compuestos orgánicos, como la tierra, las heces, la carne o el alcantarillado, aunque también se ha encontrado en el polvo, la comida deshidratada, los instrumentos quirúrgicos y los tejidos. Sería un microorganismo como cualquier otro si no fuese por su resistencia a las agresiones del medio. Y esa resistencia es extraordinaria: estamos ante un poliextremófilo radical. Pero donde destaca es, sobre todo, en su capacidad para soportar las radiaciones ionizantes. Deinococcus radiotolerans resiste 5.000 grays sin inmutarse, mantiene el 37% de su capacidad de crecer y reproducirse a 15.000 (es decir, 1.500 veces lo necesario para matar a toda una población humana) y algunas logran sobrevivir por encima de 30.000 (fuente 1, fuente 2). Estas son cifras fabulosas de radiación, cien veces superiores a lo que se llega a ver en un gran accidente o explosión nuclear. También resulta muy - 355 -
Antonio Cantó
resistente a las variaciones de temperatura, a la deshidratación y a la presencia de contaminantes químicos tóxicos. Por ello, se están usando –con algunos retoques de ingeniería genética– paraprocesar los residuos resultantes de la fabricación (y desmantelamiento) de las armas nucleares y otros residuos radiológicos. No es la única. Algunas especies de rubrobacter y chroococcidiopsis –una de las cianobacterias más primitivas que se conocen– rivalizan con Deinococcus radiodurans en tenacidad ante la radiación; la segunda se ha propuesto para laterraformación de Marte. Sin embargo, la más resistente de todas es una archaea llamada Thermococcus gammatolerans, un heterótrofo estrictamente anaeróbico con movilidad propia. Adquiere la forma de una esferaflagelada de una micra de diámetro y, como ocurre con todas las arqueas, no causa enfermedades ni se constituye en parásito.
Thermococcus gammatolerans recupera su viabilidad y puede seguir reproduciéndose y medrando después de ser sometida a 30.000 grays (cepa EJ3), tres mil veces más de lo que podemos soportar nosotros.
Ya las archaeas tienden a ser duritas: se descubrieron como extremófilos, en lugares como lagos de sal o las aguas termales volcánicas, aunque ahora sabemos que están por todas partes. Pero Thermococcus gammatolerans es una cosa excepcional. Se siente cómoda en los respiraderos hidrotermales submarinos, a temperaturas de entre 55 y 95 ºC, o sea apenas cinco grados por debajo del punto de ebullición del agua; aunque se lo - 356 -
La Pizarra de Yuri 1
pasa pipa en torno a 88 ºC. Prefiere una acidez pH 6, con presencia de azufre, y medra a 2.000 metros de profundidad frente a la costa de Guyana. Es decir, a 200 atmósferas de presión. Esas son unas condiciones parecidas a las que hay en la caldera de una locomotora a vapor (algo menos de temperatura y bastante más presión). Pero su resistencia a las radiaciones resulta difícil de asimilar. El límite de esta archaea, que se descubrió no hace mucho, aún no está bien estudiado. Pero se sabe esto: Thermococcus radiotolerans no se inmuta ante 3.000 grays y recupera su capacidad reproductiva (cepa EJ3) después de haber sido tratada con 30.000 grays. O sea, tres mil veces lo necesario para matarnos a ti o a mí con toda seguridad. Treinta kilograys es como… ¡cómo te lo diría yo! :-D Si no fuera por los efectos explosivos, sería como estar sentado a horcajadas sobre una bomba de hidrógeno cuando explota, en plan Teléfono Rojo: volamos hacia Moscú. Como pasarse cinco días enteros residiendo junto al reactor reventado de Chernóbyl. Qué quieres que te cuente. ¿Cómo puede ser esto? ¿Cómo pueden aguantar estos organismos semejantes niveles de radiación? La mayor parte de ellos, porque no gastan médula ósea ni un tracto intestinal como el nuestro, que son especialmente frágiles ante la acción de las radiaciones ionizantes. Pero, para adentrarse en el ámbito de la resistencia ante miles de grays, hace falta algo más. Este algo más es la capacidad de regenerar rápidamente su ADN. El ADN acusa mucho los efectos de la radiación: la luz ultravioleta (no-ionizante en frecuencia inferior, ionizante en superior) afecta seriamente a la citosina y la timina formando dímeros de pirimidina, mientras que las radiaciones ionizantes ocasionan fusión entrecruzada entre el ADN y las proteínas, desplazamiento tautomérico y radiólisis del agua circundante. Esto último crea agua oxigenada y radicales libres, más mutágenos aún que la misma radiación (la presencia de agua oxigenada en el citoplasma –o el núcleo, cuando lo hay– ocasiona hasta 2.600 veces más lesiones en el ADN que la radioactividad a pelo). Cuando la radiación es muy elevada, estas lesiones ocurren en avalancha y el ADN (o el ARN) resultan destruidos por completo, resultando en numerosos fragmentos severamente alterados. Seres como el osito de agua, Deinococcus radiodurans, Thermococcus gammatolerans o los demás resistentes a la radiación mencionados en este post parecen tener un ADN más resistente a estos efectos, y sobre todo una capacidad excepcional para regenerar rápidamente el dañado. El mecanismo exacto aún no se comprende bien, aunque por ejemplo Deinococcus radiodurans presenta un genoma organizado en anillos toroidales
- 357 -
Antonio Cantó
estrechamente empaquetados, lo que ayudaría a los pedazos de ADN a mantener su posición original, favoreciendo así su recomposición. Thermococcus gammatolerans tiene el ADN organizado en forma circular, pero parece gozar de unamultitud de mecanismos regeneradores a nivel metabólico y enzimático. Una pregunta intrigante es por qué estos seres han desarrollado semejante resistencia a la radiación, si en la naturaleza terrestre no hay tales niveles de radioactividad y por tanto no hay presión evolutiva en ese sentido. Aún no se sabe, pero una de las hipótesis más fuertes es que se trata de un efecto secundario de su resistencia a otras agresiones ambientales: si puedes reconstruir tu ADN después de una pasadita por el agua oxigenada, por ejemplo, en principio no deberías tener problemas para hacerlo después de un repaso radiológico de similar violencia. Por ello, todos estos organismos son poliextremófilos.
Resistencia a la radiación de diversos microorganismos seleccionados entre 0 y 10.000 grays, incluyendo Thermococcus gammatolerans y Deinococcus radiodurans. En Jolivet, E et al. 2003, "Thermococcus gammatolerans sp. nov., a hyperthermophilic archaeon from a deep-sea hydrothermal vent that resists ionizing radiation", Int J Syst Evol Microbiol 53 (2003), 847-851. De los supervivientes a estas dosis de radiación surge la cepa Thermococcus gammatolerans EJ3, que soporta 30.000 grays regenerando su viabilidad. (Clic para ampliar)
Extremófilos: en los límites de la vida terrestre. El estudio de los extremófilos, es decir los seres vivientes que pueden seguir siéndolo bajo condiciones extremas, resulta de lo más interesante en una diversidad de campos
- 358 -
La Pizarra de Yuri 1
que van desde la astrofísica hasta la medicina: incluso una mejora menor en la capacidad del ADN humano para resistir este tipo de agresiones –digamos, un pequeño retoquecon ingeniería genética en base a estos conocimientos– se traduciría inmediatamente en una mayor resistencia a la radiación, a los contaminantes ambientales, al cáncer y a las enfermedades hereditarias.
Sin considearse estrictamente extremófilos, algunos animales son conocidos por hacer acto de presencia en lugares extremos. El 29 de noviembre de 1973, un buitre de Rüppel (arriba) fue ingerido por el reactor de un avión a 11.000 m de altitud, ya en plena estratosfera (temperatura típica a 11.000 m: –51 ºC; presión: 0,25 atmósferas). La estrella de mar (abajo) ha sido observada en lo más profundo de las fosas hadalpelágicas, donde la presión es de 1.100 atmósferas y la temperatura, de 2 a 4 ºC.
Los extremófilos tienen la capacidad de sobrevivir, reproducirse y medrar en condiciones que matarían a la inmensa mayoría de las cosas vivas, pasándoselo de lo - 359 -
Antonio Cantó
más bien. Según el conocimiento actual, los límites absolutos para la vida terrestre parecen ser estos: •
Temperatura. o Límite superior (termófilos): al menos 122 ºC (la
o
o
archaeaMethanopyrus kandleri, cepa 116) o 121 ºC (Archaea 121). El osito de agua puede resistir temporalmente hasta 151 ºC. Límite inferior (psicrófilos, manteniendo la actividad metabólica): El agua puede permanecer líquida muy por debajo de 0 ºC si está mezclada con sales u otras sustancias; se cree que, mientras haya un solvente líquido, no hay un límite de temperatura inferior para la vida (Price, B., y Sowers, T. 2004. Temperature dependence of metabolism rates for microbial growth, maintenance, and survival. Proceedings of the National Academy of Sciences, EEUU. 101:4631-4636.). Se ha observado actividad fotosintética en líquenescriptoendolíticos a –20ºC (Friedmann, E.I., y Sun, H.J. 2005. Communities adjust their temperature optima by shifting producer-toconsumer ratio, en Lichens as models: 1. Hypothesis. Microb. Ecol. 49:523527). Hay indicios de transferencia electrónica y actividad enzimática a –80 ºC(Junge, K, Eicken, H., Swanson, B.D., y Deming, J.W. 2006. Bacterial incorporation of leucine into protein down to –20°C with evidence for potential activity in subeutectic saline ice formations. Cryobiology 52(3):417429.). Se ha registrado actividad enzimática en una mezcla de agua, metanol y glicol a –100 ºC (Bragger, J.M., Dunn, R.V., y Daniel, R.M. 2000. Enzyme activity down to -100°C. Biochim. Biophys. Acta 1480:278-282.). Preservación: Existen numerosos seres capaces de preservarse en temperaturas extremadamente bajas. Además de los mencionados ositos, que parecen capaces de aguantar unos minutos a apenas un grado por encima del cero absoluto (en torno a –273 ºC), numerosas especies adoptan mecanismos de conservación indefinida en el frío intenso.
•
Presión. o Límite superior (piezófilos): El popular microorganismo E. coli soporta presiones de al menos 16.000 atmósferas manteniendo activo su metabolismo. El experimento se realizó en una prensa para fabricar diamante artificial (Sharma et al. 2002, Diamond anvil cells used to demonstrate bacterial metabolism up to 1.6 Gpa, Science 295:1514-1516). Entre los pluricelulares eucariotas, el osito de mar aguanta al menos 6.000 atmósferas (Seki, Kunihiro y Toyoshima, Masato, 1998. Preserving tardigrades under pressure. Nature 395: 853–854). Los seres hadales viven
- 360 -
La Pizarra de Yuri 1
o
•
la conservación de la humedad (ver más abajo). o Preservación: No parece haber un límite inferior de preservación. Incontables organismos se deshidratan y conservan en condiciones de presión próximas al vacío absoluto. Humedad (de agua). o Límite superior: Sin límite superior: la vida acuática es omnipresente en o
o
•
rutinariamente a presiones en torno a 1.100 atmósferas (de hecho,necesitan estas presiones para sobrevivir). Límite inferior (manteniendo la actividad metabólica): Relacionado con
el planeta Tierra. Límite inferior (xerófilos): Normalmente las bacterias detienen su crecimiento con una actividad acuosa inferior a 0,91 y los hongos, a 0,7. Sin embargo, microorganismos como Psychrobacter arcticus se pueden cultivar en entornos de actividad acuosa mucho más baja, en torno a 0,3. Eso es mucho más seco que el más seco de los desiertos terrestres. Numerosos mohos y levaduras son xerófilos. Preservación: Gran cantidad de organismos se preservan en condiciones de deshidratación. El osito de aguapuede sobrevivir una década sin contacto con la misma.
Acidez /alcalinidad. o Acidez (acidófilos): Muchos seres vivos sobreviven en pH inferior a 2. La archaea Ferroplasma acidiphilumpuede vivir en ácido sulfúrico con pH próximo a cero. Por tanto, no hay límite de acidez para la vida terrestre. o Alcalinidad (alcalífilos): De la misma manera, muchos otros seres medran en pH entre 9 y 11. Bacillus alcalophilus TA2.A1 tiene un pH interno de 9 y medra en pH 11,5 (Olsson, K et al. 2003, Bioenergetic Properties of the Thermoalkaliphilic Bacillus sp. Strain TA2.A1, J Bacteriol. Enero 2003; 185(2): 461–465.). Esa es más o menos la alcalinidad del agua jabonosa.
•
•
Radiación. o Límite superior: Como ya hemos visto, la archaea Thermococcus gammatolerans (cepa EJ3) soporta 3.000 grays sin enterarse y 30.000 grays recuperando su viabilidad. Entre los pluricelulares, el osito de agua resiste 5.000 grays, aunque pierde su viabilidad. (Fuentes citadas) o Límite inferior: Sin límite inferior. Otros.
- 361 -
Antonio Cantó
o
o
Salinidad (halófilos): Numeros microorganismos sobreviven y se reproducen sin problemas en entornos de alta salinidad. Algunas archaeas requieren 1,5M NaCl para mantener su integridad y reproducirse. Resistencia a los azúcares (osmófilos). El hongo Saccharomyces rouxii requiere una actividad acuosa relativa a los azúcares de 0,61 y Monascus bisphorus crece en 0,62.
Impresión artística de un hipotético Venus terraformado. El uso de extremófilos se ha propuesto insistentemente para la modificación biótica de mundos muertos.
Como ya hemos apuntado, algunas de estas resistencias están relacionadas entre sí. Es por ello que existen numerosos organismos poliextremófilos, es decir, resistentes a varias de estas condiciones simultáneamente. Por ejemplo, tenemos termoacidófilos, que se desempeñan bien a temperaturas de 70-80 ºC y pH 2 a 3. Muchos xerófilos son también halófilos (u osmófilos) y psicrófilos. Ya hemos visto la cantidad de barrabasadas distintas que se le pueden hacer a nuestro osito de agua o a Deinococcus radiodurans antes de que se mueran. Otrospoliextremófilos extremos, valga la redundancia, son elgusano de Pompeya, el Paralvinella sulfincola, laPyrococcus furiosus, las bacterias del fango de las cavernas y muchos más. Todos estos seres demuestran la feraz tenacidad de la vida y desafían nuestra comprensión tradicional sobre sus límites, incluso ciñéndonos a la terrestre basada en el carbono, el ADN/ARN y el agua. Desconocemos hoy por hoy cuáles son los límites para el surgimiento de la vida, pero obviamente es capaz de sobrevivir en condiciones asombrosas. Si un ser tan complejo como el osito de agua es capaz de sobrevivir diez - 362 -
La Pizarra de Yuri 1
días en el espacio exterior y seguir reproduciéndose, eso significa que las posibilidades son enormes. Los poliextremófilos sugieren planteamientos realistas de vida extraterrestre, de terraformación y de aumento de nuestra propia resistencia a todas estas agresiones por vías artificiales. Nos enseñan lo que es posible como mínimo, y lo que es posible como mínimo parece llegar mucho más lejos de lo que osábamos soñar.
- 363 -
Antonio Cant贸
- 364 -
Debemos saber. Sabremos. --En la tumba de David Hilbert, matemรกtico.