ANONIO CANTÓ
LA PIZARRA DE YURI 3
Este libro es una edici贸n NO AUTORIZADA de la web La Pizarra de Yuri http://www.lapizarradeyuri.com Todos los meritos del libro se deben al autor de la web. Todos sus errores, al editor.
Antonio Cantó
INDICE
Una perspectiva sobre relativismos y absolutismos 5 O, quizá, no. 7 Así le tomamos la medida al tiempo 8 Air France 447: Buscando cajas negras a 4.000 metros de profundidad (y 2) 41 Air France 447: Buscando cajas negras a 4.000 metros de profundidad (1) 80 25 kilómetros 96 El apocalipsis improbable 113 La anomalía de L’Atalante 133 No, Majestad, aquí no cabemos todos. Pero tiene arreglo. 143 Park Ji-young, la heroína del MV Sewol 146 BIG’95: El gran tsunami del Mediterráneo español 154 Cuando Suiza quiso su bomba atómica y tuvo un siniestro nuclear 167 El inquietante superbólido de Chelyábinsk 196 Verneshot: Entrevista al Dr. Jason P. Morgan 210 En busca del vacío y la nada 229 De amigos derribados 242 Brotes de rayos gamma 260 Tina en el bosque de Charnia, la vida que no podía existir 275 Las ciudades que se salvaron y las gentes que no 291 Viviendo en un planeta joven de un universo bebé 329 100.001 galaxias y ni una inteligencia avanzada evidente. 342 La máquina a bobinas magnéticas del joven sargento Lavréntiev 352 Jovencitas con collar (electrónico) 365
-4-
La Pizarra de Yuri 3
Una perspectiva sobre relativismos y absolutismos Yuri, el 1 de septiembre de 2011 @ 18:28 · Categoría: Sociedad y civilización
En estos días del final del verano a uno se le ocurren pensamientos tontos.
Catón el Viejo (234 aC - 149 aC) hablaba y no paraba contra la penetración de los valores helenizantes en la cultura romana tradicional.
En mil o dos mil años no quedará casi ninguno de los valores del presente como ahora mismo no queda casi ninguno de los valores que se consideraban muy importantes cuando César conquistó la Galia. (¿Cuándo fue la última vez que oíste a alguien quejarse de que los jóvenes ya no respetan la mos maiorum o los derechos de los propietarios de esclavos?) En dos o tres mil años no quedará casi ninguna de las creencias del presente como ahora mismo no queda casi ninguna de las creencias que se consideraban muy importantes cuando la dinastía Zhou depuso a la dinastía Shang.
-5-
Antonio Cantó
(¿Cuándo fue la última vez que diste un óbolo para Asherah, Enlil, Bastet o destinado al culto de la Luna y el Sol?) En tres o cuatro mil años no quedará ninguna de las naciones del presente como ahora mismo no queda casi ninguna (¿ninguna?) de las naciones que se consideraban importantes cuando los elamitas destruyeron Ur. En cuatro o cinco mil años no quedará casi nada de lo que hoy consideramos importante como ahora mismo no queda casi nada de las cosas que se consideraban importantes cuando Narmer unificó el Alto y el Bajo Egipto.
La referencia más antigua que se conserva de un dios llamado Yahvéh (YHWH) es esta estela moabita del rey Mesha (aprox. 840 aC). Museo del Louvre, París (Sección de Antigüedades Orientales, pieza AO 5066) (Clic para ampliar)
(En la batalla de Uruk, ¿tú ibas con Sargón el Grande o eras más de los sumerios?) Y eso es bueno. Lo que quede será seguramente en lugares donde no merezca la pena vivir, pudrideros míseros y atrasados equivalentes a los peores agujeros del Tercer Mundo presente si es que aún tenemos sitios así.
-6-
La Pizarra de Yuri 3
Añade otros mil o dos mil años más si quieres (o menos, pues el progreso hace que las sociedades se recombinen y transformen cada vez más deprisa) pero casi todo aquello por lo que la gente vive, muere y mata hoy serán notas a pie de página o lo que usen entonces para los historiadores del año diez mil. (¿Quién se acuerda de Çatalhöyük?) Lo único que pervivirá mientras haya humanos son nuestras emociones más elementales, nuestra naturaleza y la herencia del conocimiento que leguemos a las generaciones futuras. Pitágoras de Samos, Demócrito de Abdera, Kidinnu el Caldeo, los ingenieros y científicos del mecanismo de Anticitera, los astrónomos del MUL.APIN y el genio desconocido que se puso a contar con los dedos una vez siguen teniendo tanta razón hoy, su obra continúa siendo tan cierta y tan válida como la noche en que tuvieron aquella ocurrencia genial.
El hueso de Lebombo, con unos 35.000 años de antigüedad, encontrado en la actual Suazilandia (cueva Border, cordillera Lebombo). Sus 29 marcas, similares a las encontradas en otros lugares más tardíos, podrían corresponderse con un calendario lunar. En ese caso, se trataría del artilugio científico más antiguo de la Humanidad.
Y ni siquiera eso es realmente para siempre (al menos, en su formato actual). Algún día la humanidad desaparecerá o se transformará en otra cosa que quizá mire nuestros huesos viejos y rotos como nosotros miramos ahora los delneandertal.
O, quizá, no. -7-
Antonio Cantó
Así le tomamos la medida al tiempo Yuri, el 27 de marzo de 2014 @ 16:25 · Categoría: Ciencia popular, Historia y cultura, Sociedad y civilización
Estas fechas son muy curiosas.
Que el termómetro y su escala sean una invención humana no significa que el calor no exista. Pues con el tiempo pasa igual. Imagen: Wikimedia Commons.
Me sigo encontrando con personas que no captan a la primera la diferencia entre el tiempo y la medida del tiempo. O sea, entre el tiempo como hecho físico y la manera como lo contamos: años, días, segundos, etcétera. En consecuencia, algunas opinan que el tiempo es una invención humana y no existe de verdad.
-8-
La Pizarra de Yuri 3
Bien, pues esto es como confundir el espacio con los kilómetros, o el calor con los grados centígrados. O los números con las cosas que cuentan. Por ejemplo, por mucho que el número 8 con sus dos cabecitas una encima de la otra sea una invención humana, si nos dan ocho bofetones en vez de uno o dos pillaremos enseguida la diferencia entre hecho físico (las bofetadas), medida (8) y la relación entre ambas. :-PUna cosa son los hechos físicos y otra distinta la manera como nosotros los humanos los medimos. Que es de lo que va este post. El tiempo es un hecho físico real, que Aristóteles definió como la medida del cambio (Física, libro IV, partes 10-13.) Aunque Aristóteles esté bastante superado en estos temas, y aunque hubo otros que defendieron que el tiempo no existe con mejores argumentos, va a ser que sí existe, o algo que se le parece mucho. Si no existiera el tiempo, o algo que se comporta exactamente como el tiempo, este sería un universo estático, congelado en su mismísimo momento inicial. El tiempo y la entropía están estrechamente relacionados. Tanto, que hay quien los considera dos avatares del mismo hecho físico: el que obliga al universo a cambiar constantemente (por ejemplo, creando, desarrollando y destruyendo a cosas como tú o yo o las estrellas) y lo empujairreversiblemente hacia adelante (o sea, hacia donde apunta la flecha del tiempo) sin parar. La flecha del tiempo, a su vez, quedó determinada por la bajísima entropía del universo inicial. En realidad el tiempo no es sino una de las cuatro dimensiones delespaciotiempo. El doctor Sergéi Krásnikov de Púlkovotuvo a bien aclararnos un poco todo esto para este blog aquí. La capacidad de medir el espaciotiempo tuvo que comenzar con la humanidad. Es difícil imaginar que en cuanto surgió una inteligencia intelectiva no comenzáramos a calcular cuántos pasos hay hasta aquella montaña, y si lograremos llegar antes del anochecer. Y si no, ya te enterarás, ya, cuando los tengas que caminar. Parece que desde el principio nos aclaramos bastante mejor con el espacio que con el tiempo. Probablemente porque, al igual que los demás animales, tenemos una percepción intuitiva de la distancia. Un gato sabe cuánto tiene que saltar para cazar al ratón. Una araña, cuánto debe moverse para tejer su tela. Una abeja, por dónde anda su panal. El tiempo, en cambio, se nos hace un poquito más difícil de aprehender. Intuitivamente sabemos que está ahí, pues tenemos una percepción clara de pasado, presente y futuro; lo que se suele llamar el tiempo psicológico. Pero se presta mal a tocarlo con los dedos, o pasarle los ojos por encima (a decir verdad con el espacio en sí nos pasaría lo mismo, pero como podemos ver y tocar las cosas que se hallan en él, nos parece que lo controlamos mejor.) Amedirlo, vamos.
-9-
Antonio Cantó
Del sol y la luna, del día y el mes. Básicamente sólo podemos medir el tiempo observando ciclos, y sólo hay dos ciclos obvios a primera vista para una inteligencia terrestre. El primero es el periodo de luz y oscuridad al que llamamos día. Este ciclo día/noche requiere muy poca inteligencia para captarlo y es incluso posible que algunos animales no humanos tengan alguna clase de consciencia del mismo, más allá de los ritmos circadianos y el mero seguimiento del entorno en general. El segundo es el ciclo lunar (lunación) y para ser exactos su periodo sinódico: el que va de luna llena a luna llena (o de nueva a nueva o como prefieras). Darse cuenta del periodo sinódico lunar ya requiere un poquito más de inteligencia, de memoria y de atención para al menos fijarse y llevar la cuenta.
El eje de rotación terrestre está inclinado con respecto al plano de la Eclíptica (por así decirlo, la “línea Sol-Tierra”, representada en rojo en este gráfico.) Esto hace que tengamos estaciones y que las horas de luz y oscuridad varíen a lo largo del año. No está claro cuándo supimos con certeza que la suma de ambas dura siempre lo mismo. Imagen: 1718.wikispaces.com (Clic para ampliar)
En primera instancia, para medir el tiempo, la luz del sol no es un indicador muy preciso. A menos que estemos cerca del ecuador, las horas de luz (y oscuridad) varían notablemente a lo largo del año. A la latitud de España, por ejemplo, se van más de un 23%, que es muchísimo. En latitudes donde luego surgirían cosas curiosas como los lugares ahora llamados Cairo, Bagdad, Mbabane o Stonehenge, puede oscilar entre el 13,5% y el 36%. Esto es extraño, confunde. Nuestra cueva está siempre a los mismos pasos de distancia del río, pero cuando hace calor llegamos antes de que se haga de noche y cuando hace frío, no. No parece muy confiable, sobre todo si nos va la vida en ello. A un nivel muy primitivo, el día sólo nos sirve para contar ciclos luz-oscuridad, marcar momentos como el amanecer o el anochecer y hacer estimaciones genéricas.
- 10 -
La Pizarra de Yuri 3
No se sabe cuándo nos dimos cuenta de que la suma de luz y oscuridad dura siempre lo mismo y lo llamamos un día, porque la medida psicológica del tiempo es fuertemente subjetiva: hay ratos que se nos pasan volando y otros que no parecen acabar nunca, por no mencionar que mientras dormimos no nos enteramos. No es evidente por sí mismo. Para asegurarnos de que los días siempre duran lo mismo hace falta un reloj que no sea de sol, y aún faltaban muchos milenios para que tuviéramos esa clase de relojes. Intenta demostrar que un día completo dura lo mismo que el anterior sin un reloj o algo que desempeñe su función y enseguida me comprenderás.
Las fases de la luna, tal como se ven desde el Hemisferio Norte terrestre. El periodo transcurrido entre dos puntos cualquiera de sus fases siguiente varía relativamente poco, en torno a los 29,53 días. Por cierto, el bamboleo aparente se conoce como “libración”. Imagen: Wikimedia Commons.
La luna, en cambio, es más de fiar. El número de ciclos luz-oscuridad que transcurren entre luna nueva y luna nueva varía poco. Son siempre algo menos de treinta; convencionalmente, veintinueve (la media exacta son 29,5306). Como máximose va de siete horas, apenas un 1%, en la práctica imperceptible a simple vista. Además, probablemente por mera coincidencia pese a lo mucho que se dice lo contrario, cuadra bastante con otro ciclo natural. Uno que, aunque suele irse bastante más, difícilmente nos pasaría desapercibidos a los humanos y sobre todo a las humanas: la menstruación, con sus 28 días de media pero a menudo 29. Que no en vano se llama también regla en
- 11 -
Antonio Cantó
numerosas lenguas latinas (español regla, francés règles, catalán regla, portugués regras, gallego regra, rumanoregulă, occitano règla, etc.) e incluso en algunas muy poco latinas, como el ruso: регулы, transcrito reguly. Sí, como la de medir espacio (es. regla, fr.règle, ca. regle, pt. régua, ro. riglă, etc.) La regla de medir y la regla de sangrar vienen del latín regŭla, o sea, un bastón o palo recto. Por ahí se origina también la palabra regular (del latín regulo, dirigir, guiar, seguramente con el susodicho bastón), que en numerosos idiomas modernos hace referencia a lo que es uniforme, lo que cambia poco, lo que siempre funciona igual. Y resulta que las cosas regulares van extraordinariamente bien para medir. No otra cosa es una regla de medir (distancias) o la dilatación y contracción del mercurio en un termómetro (temperatura) o las marcas de un transportador (ángulos.) Y cada vez que una jovenzuela de las que en el mundo son aprende a llevar la cuenta de su regla de sangrar mientras se le agitan las hormonas, está aprendiendo una nueva manera de medir el tiempo. Para medir cosas necesitamos una referencia regular absoluta, algo que siempre mida lo mismo, o al menos parecido. En el caso del tiempo, nos hacía falta un ciclo regular y Luna vino a regalárnoslo con su periodo sinódico.
Arriba: el hueso de Lebombo (Swazilandia) con sus 29 marcas, de 35.000 años de antigüedad, un palo de cómputo como los que se siguen usando en la zona hasta la actualidad. Eso lo convierte en el primer instrumento matemático y por tanto científico conocido de toda la historia de la humanidad. Si además se usó para contar el ciclo sinódico lunar de 29 días, también sería el primer calendario. Abajo: el superordenador Tianhe-2 (Vía Láctea-2) del Centro Nacional
- 12 -
La Pizarra de Yuri 3
de Supercomputación en Cantón, China. En el momento en que escribo esto, aparece en el Top500 como el más potente del mundo con 3.120.000 núcleos, 33,82 Pflops/s de Rmax (Linpack) y 54,9 Pflops/s de Rpeak teórica. Pese al abismo de tiempo, conocimiento, ciencia y tecnología entre ambos, en su esencia son lo mismo: instrumentos para computar.
Puede que por todo esto, los primeros calendarios de la humanidad fueron lunares. Los más antiguos se remontan a la prehistoria. Tenemos, por ejemplo, el calendario de Aberdeenshire, hallado en ese concejo de Escocia, con unos 10.000 años de edad. Sin embargo, hay algún otro objeto muy, muy anterior que resulta de lo más intrigante. Por ejemplo, elhueso de Lebombo (entre Sudáfrica y Swazilandia), un peroné de babuino con 35.000 años de antigüedad usado comopalo de cómputo; losbosquimanos de la región siguen usando objetos similares para contar y calcular hasta la actualidad. Eso lo convierte en el instrumento científico más antiguo que se conserva, porque el hecho de contar es un acto matemático y por tanto científico. No hay ninguna diferencia obvia entre la lógica de fondo subyacente al hueso de Lebombo y al superordenador Tianhe2 de los chinos, el más potente del mundo en estos momentos. Esencialmente, ambos sirven para lo mismo: para computar. Y el hueso de Lebombo tiene… veintinueve marcas. Naturalmente, existen muchos motivos distintos por los que un ser humano quisiera contar veintinueve unidades de algo. Muchísimos. Pero igual de naturalmente, entre esos motivos se incluye la posibilidad de que alguien estuviese contando los días del ciclo lunar, o los de su ciclo menstrual, o ambos. En este caso, ese sería además el primer calendario conocido de la humanidad. Permíteme ensoñar por un instante: nuestro primer matemático, nuestro primer científico, al menos el primero que nos dejó una anotación, pudo ser una muchacha curiosa contando los días de su regla y comparándolos con las fases de la luna y maravillándose ante semejante prodigio hace treinta y cinco milenios tal noche como hoy, en plena Edad de Piedra. Lo que también la convertiría en el primer astrónomo, el primer astrofísico y el primer biólogo conocido. Por qué demonios no. Bajo sus cabellos tenía todo lo necesario para poder. Bueno, ya. Sea Aberdeenshire o Lebombo o cualquiera de los otros que hay por ahí, no cabe duda: nuestros primeros calendarios fueron lunares, para contar días y meses. A decir verdad, lunisolares, puesto que establecen una relación entre el periodo sinódico lunar y el ciclo de luz-oscuridad al que llamamos “día”, regido por el sol. Y así, la humanidad comenzó a medir el tiempo por fin. Del año, las estaciones y las horas. Hay otra observación que tampoco pudo pasarnos desapercibida durante mucho tiempo. El día será poco de fiar a lo largo del año porque las horas de luz y oscuridad cambian - 13 -
Antonio Cantó
mucho, pero ese cambio es en sí mismo regular. Por ejemplo, en Europa, cuando el clima es frío el sol se levanta menos en el cielo y durante menos tiempo que cuando es cálido. Es más: la altura máxima que el sol alcanza en el cielo desde el punto de vista terrestre va aumentando durante algo más de 180 días, desde la temporada fría a la temporada cálida. Luego, se reduce durante otros tantos, de la temporada cálida hasta la fría. Entre ambos, suman trescientos sesenta y pico. Y así una y otra vez. Es una regla. Además, este hecho viene acompañado por toda otra serie de fenómenos cíclicos de gran importancia para nosotros los humanos desde tiempos prehistóricos: las migraciones de los animales que cazamos o carroñeamos, la maduración de las frutas y bayas que recolectamos, la necesidad o no de preparar pieles o tejidos para abrigarnos, la disponibilidad de agua en ríos y lagos, los vientos, las tormentas y las inundaciones. Mil cosas. Sin embargo, no nos consta que los paleolíticos tuvieran una idea clara de esto, que ahora llamamos año. Sin duda tuvieron que observar estos hechos, pero parece que más bien se dejaban llevar junto con el resto de la naturaleza, probablemente con la ayuda de leyendas y tradiciones ancestrales. Si tenían una concepción intelectual clara del año solar, no nos han dejado ningún rastro. Pero entonces inventamos el Neolítico, con la agricultura y el pastoreo. Para las sociedades agrícolas y ganaderas, el conocimiento del año y sus estaciones es vital. No es posible la agricultura sin una percepción clara de los tiempos de siembra y cosecha, de las heladas, de la crecida de los ríos, de las épocas de riego, de los propios ciclos anuales de las plantas, de todo. Lo mismo ocurre con la ganadería. Además, el dominio del año facilita las operaciones militares y la organización de sociedades cada vez más y más complejas. El problema, o uno de los problemas, es que el año solar es un proceso más lento y difícil de centrar. Por ejemplo, no hay nada evidente a la primera que delimite el final de un año y el principio de otro, como sí lo hay para el día solar y el mes lunar, que sólo requieren abrir los ojos y fijarse un poco para reconocerlos. Las estaciones tampoco están bien definidas en la experiencia cotidiana: no hay nada que separe claramente el último día del otoño y el primer día del invierno, por decir algo, y además hay un montón de veranillos de San Martín, de San Miguel, de San Juan y demás santoral, que pueden darse o no cada año. Resulta difícil establecer reglas precisas porque no acaba de ser muy regular. Un lío.
- 14 -
La Pizarra de Yuri 3
El Círculo de Goseck (4900 – 4700 aEC), actualmente en Alemania, tal y como ha sido reconstruido por el Depto. de Arqueología Prehistórica de la Universidad Martín Lutero de Halle-Wittenberg y el Gobierno del Estado Federado de Sajonia-Anhalt. Se trata de un lugar arqueoastronómico y un cementerio prehistórico en cuyos alrededores se han hallado huesos descarnados de ganado y humanos colocados cuidadosamente, lo que puede indicar rituales de enterramiento, sacrificios de animales o humanos y/o canibalismo ritual. Dos de sus tres entradas apuntan en la dirección por donde sale y se pone el sol durante el solsticio de invierno, mientras que la tercera está próxima al meridiano astronómico. Otros huecos en la empalizada parecen señalar hacia los mismos puntos para el solsticio de verano y las tradicionales fiestas de primavera. Está “ajustado” para las posiciones del sol de hace 6.800 años, con una precisión de unos 4 días. Dos mil años más antiguo que el popular Stonehenge, manifiesta un notable conocimiento de diversos fenómenos astronómicos como el año, las estaciones y su regularidad. Fotos: E. Schütze vía Wikimedia Commons | © M. Grimm (Clic para ampliar)
Sin embargo, muy poco a poco, comienzan a surgir instrumentos como el círculo de Goseck (hoy en Alemania, 6.900 años de antigüedad), el complejo megalítico deMnajdra (actual Malta, a partir de hace 5.600 años), el conocidísimo Stonehenge(actual Reino Unido, entre 5.100 y 3.600 años) y puede que algo de la estructura circular de Nabta, Egipto, entre otros. Sobre estas construcciones se han contado tantas tontadas, algunas de ellas magufadas evidentes pero otras con peer
- 15 -
Antonio Cantó
review, que resulta muy difícil separar el grano de la paja. Lo que es una pena, porque son creaciones absolutamente fascinantes que habrían merecido mucho mejor trato. A pesar de todo, estas estructuras parecen evidenciar un conocimiento cada vez más profundo de fenómenos anuales y estacionales como los solsticios, los equinoccios, las posiciones del sol y de ciertas estrellas a lo largo de todo el año y quizá algún rudimento sobre ciclos plurianuales más complejos. Si otras culturas lo lograron también en el mismo periodo, no nos lo dejaron saber. Lamentablemente, ninguno de esos pueblos sabía ni siquiera escribir. Probablemente funcionaban por observación, prueba y error, lo que tiene su mérito, ¿eh? Pero seguir avanzando exige alta tecnología: escritura, geometría, astronomía, matemáticas. Como en aquella época no tenían un CERN ni un DARPA ni nada parecido para agilizar un poco las cosas, hubo que esperar a que fuéramos inventándolo todo. Se duda de si los primeros en lograrlo fueron los astrónomos egipcios o los sumerios, después babilonios, en lo que hoy día es Iraq. Probablemente fueron los dos, durante un largo proceso de aprendizaje que pudo extenderse durante algún que otro millar de años. Allá por los albores de la historia, crearon muy poco a poco los primeros calendarios modernos, muchas de cuyas características seguimos utilizando en la actualidad, como la semana de siete días o los doce meses del año.
Lo que queda de la ciudad de Eridu (actual Iraq), convencionalmente considerada la cuna de la cultura sumeria y por tanto de la escritura, la civilización y la ciencia que la caracterizaron. Floreció hace algo más de 6.000 años, llegando a alcanzar una población superior a los 4.000 habitantes (puede que hasta 10.000, una enormidad para su época). Inició su declive hace aproximadamente cuatro milenios pero no quedó abandonada del todo hasta hace unos 2.500 años. Foto: Wikimedia Commons. (Clic para ampliar)
Los sumerios, después babilonios, o más generalmente mesopotámicos, comenzaron con un calendarioprimordialmente lunar de 354 días dividido en doce meses alternos de 29 y 30 días. Como se les descuadraba debido a la diferencia entre esos 354 días y los 365,25 días que hay aproximadamente en un año solar, cada cierto tiempo intercalaban
- 16 -
La Pizarra de Yuri 3
por decreto un mes adicional para reajustarlo, dando así lugar a los primeros años bisiestos. Los meses empezaban siempre al primer avistamiento de la luna nueva (en la práctica, el inicio del cuarto creciente), con el primero en primavera, originando el día de Año Nuevo. A partir de ahí contaban tres semanas de siete días más una de 8 o 9, con el último día considerado maligno, o sea inhábil para hacer cosas y por tanto de descanso. ¿Te suena de algo esto de los doce meses alternos con en torno a treinta días, la intercalación de bisiestos, y las semanas de siete días con el último sacralizado para descansar? (Puede que a estos respectos también te interese el origen de Dios) Sin embargo, a los meticulosos escribas sumerios no les gustaba demasiado este año tan irregular y allá por el 2.400 antes de nuestra era ya estaban usando un año con 12 meses de 30 días, que suman 360. Sigue sin ser muy exacto pero es más sencillo de llevar, más regular, y además permite cálculos rápidos y fáciles. Ahí se originan también los 360 grados de un círculo y el sistema sexagesimal en general. Aprendiendo a medir el tiempo, aprendieron y nos enseñaron a medir muchas cosas más. Hasta aproximadamente el 500 aEC, este calendario era fundamentalmente observacional; esto es, miraban el sol, la luna y lo reajustaban trabajosamente acorde a los mismos. Pero a partir de ahí se percataron del ciclo metónico, que luego Metón el Ateniense les piratearía (o redescubriría) y ahora conocemos bajo su nombre. Y ese fue el primer ciclo combinado complejo de tiempo que descubrió la humanidad. Resulta que 19 años solares suman 6.940 días, al igual que 235 meses (sinódicos) lunares. Sólo se van de unas pocas horas. Desde ese momento fue posible computar los años, los meses y sus bisiestos de manera regular, sin tener que estar mirando a los cielos todo el rato, sino sólo de vez en cuando. Además, el ciclo metónico también sirve para predecir los eclipses. No veas qué poder.
Dos de las Grandes Pirámides de Egipto vistas desde el río Nilo, a las afueras de El Cairo. Foto: © AP. (Clic para ampliar)
- 17 -
Antonio Cantó
Para los egipcios, el dominio del año era absolutamente esencial. Toda la civilización del Antiguo Egipto dependía de las crecidas anuales del Nilo. Parece ser que al principio empezaron con un calendario lunisolar, como todo el mundo. Pero ya vemos lo rápido que se descuadra, y un año descuadrado es un año de cosechas fallidas, hambre y revueltas. Así que enseguida se pusieron a buscar, yo diría que a la desesperada, algo más regular. Como suele pasarnos a los humanos cuando buscamos cosas verdaderamente importantes, lo encontraron en las estrellas. Para ser exactos, en el orto helíaco (sin coñitas) de la estrella Sirio. Que al estar directamente vinculado a la órbita terrestre alrededor del Sol se produce, claro, coincidiendo con el año real. Y además, se correspondía también con la inundación del Nilo. Así que, al menos desde tiempos del faraón Shepseskaf (c. 2486 – 2479 aEC), los egipcios se saltaron el magreo y pasaron directamente al año moderno de 365 días, con tres estaciones llamadas inundación, siembra y cosecha. Una tablilla vinculada a Dyerpodría remontar la fecha hasta el 3.000 aEC o por ahí, aunque esto no es seguro; pero probablemente ya lo usaban cuando hicieron las pirámides (a partir de aprox. 2.670 aEC.) Los egipcios también dividieron el año en 12 meses de 30 días y al final del año añadían cinco más, llamadosepagómenos. En cambio, usaban tres semanas de diez días en vez de las cuatro de siete o siete y pico que nos legaron los ahora iraquís. Pese a tanta brillantez, no estuvieron finos a la hora de intercalar un día bisiesto para corregir la diferencia entre los 365 días del año egipcio y los 365,25 del real. Así que, aunque mucho más lentamente, también se les descuadraba hasta tal punto que las fiestas de verano comenzaban en invierno y cosas así; la reforma de Canopo, en el 238 aEC, fracasó debido a broncas entre clérigos. Sin embargo, mirando ortos, acabaron por descubrir otro ciclo complejo: el ciclo sótico o sotíaco (Sothis es el nombre en griego de Sirio.) Este es el tiempo que tarda un calendario de 365 días en descuadrarse tanto como para que vuelva a empezar en el mismo momento del año. Este ciclo sotíaco (también llamado canicular) es de aproximadamente 1.460 años (365 x 4). En la práctica, la precesión de los equinoccios y otros fenómenos lo hacen variar un poco. Pero tuvieron que ser ya los griegos y en particular el primer señor que dijo que era la Tierra la que giraba alrededor del Sol, un cierto Aristarco de Samos (c. 310 – 230 aEC), quienes establecieron con claridad la diferencia entre el año aparente de 365 días, el año tropical y el año sideral.
- 18 -
La Pizarra de Yuri 3
Reloj de sol en los Jardines Botánicos de Singapur. Dado que Singapur se encuentra casi en el ecuador, su diseño está adaptado para reflejar el hecho de que el sol de mediodía brilla prácticamente desde el Norte en verano y desde el Sur en invierno. Foto: Wikimedia Commons (Clic para ampliar)
Al mismo tiempo, hay otro fenómeno obvio que o bien nos pasó desapercibido, o no le dimos importancia o no se nos ocurrió que sirviera para gran cosa durante mucho tiempo. Y mira que es evidente: el sol se mueve por el cielo a lo largo del día de manera regular y por tanto proyecta sombras que se desplazan sobre la tierra de modo igualmente regular. Por el sencillísimo procedimiento de clavar un palo en el suelo y hacer unas marcas arbitrarias pero también regulares entre la primera sombra de la mañana y la última sombra de la tarde, es posible dividir el día en periodos mucho más exactos y delimitados que el tradicional al amanecer, al atardecer o cuando el sol esté alto en el cielo. Es decir, un reloj solar que dé lashoras. Da igual que sean 12, 24 o 60: son horas. O no se nos ocurrió o no nos hizo gracia la idea de vivir colgados del reloj o yo qué sé, porque los primeros relojes solares –es decir, los primeros relojes, punto– tardaron muchísimo en surgir. Se ha dicho muchas veces que los obeliscos, las escalinatas de los templos y cosas así desempeñaban la función, pero no hay absolutamente ninguna prueba al respecto, como por ejemplo unas marquitas en el suelo. Que algo se pudiera hacer no significa que se hiciera, o incluso que se conociera. Desde luego, si lo hacían, no era algo generalizado. De hecho, algunos de los propios obeliscos prevén en sus grabados que las generaciones futuras se preguntarán para qué fueron levantados, y lo explican: para el culto religioso. Ni una sola mención a la medida del tiempo.
- 19 -
Antonio Cantó
Las mismas civilizaciones que construyeron Stonehenge, las pirámides de Egipto o los ziggurats babilónicos pasaron olímpicamente de las horas o les dieron una importancia mínima hasta fecha tan tardía como el 1.500 aEC, que es cuando empiezan a aparecer los relojes solares propiamente dichos. Llevo años preguntándome el porqué, pero claro, no tengo a nadie de hace cuatro milenios a mano para consultárselo. No es hasta el reinado de Tutmosis III, hace unos 3.500 años, cuando aparece en Egipto el primer reloj solar verdadero: el sechat. Al menos, que conozcamos. En la web de la Asociación de Amigos de los Relojes de Sol tienen un estudio interesante sobre la manera como se usaba (yaquí). Las horas que da un reloj de sol son desiguales. Me refiero a que su duración va variando a lo largo del año según el día se alarga o se acorta. Pero aún así, lo hacen dentro de una regularidad y permiten un control mucho más sofisticado sobre las actividades diurnas que no tenerlo. En la práctica se siguieron utilizando hasta bien entrada la Edad Media europea, cuando los relojes mecánicos comenzaron a desplazarlos.
Funcionamiento del reloj estelar de Ramsés VI (1145-1137 aEC), Egipto Antiguo. Imagen: Wikimedia Commons (Clic para ampliar)
- 20 -
La Pizarra de Yuri 3
Fueron también los egipcios quienes inventaron la manera de contar las horas nocturnas, cuando no hay sol para tu reloj solar. Para ello crearon el merjet o instrumento del saber, básicamente una doble plomada que permite tomar referencias con respecto a las estrellas. Así, marcaron 36 constelaciones decanas (una por cada 10º del círculo de 360º) y las usaron para dividir la noche en diez horas, más otras dos adicionales para el amanecer y el anochecer. En total, doce. Y de este modo, sumando otras tantas para el día, surgió el día de veinticuatro horas, que aún hoy seguimos contando en dos grupos de doce; en lenguaje común (y en los relojes comunes) después de las doce del mediodía viene la una de la tarde, nolas trece, que es cosa más de militares, científicos, marinos, aviadores y asimilados. En realidad, todas estas civilizaciones usaban un mezcladillo de calendarios, cada uno para una cosa distinta. Solía haber un calendario civil común, otro más científico para calcular lasefemérides, uno religioso con las festividades, y muchos más, que podían coincidir o no entre sí. Por ejemplo, a mediados del primer milenio anterior a nuestra era, los atenienses utilizaban el sistema de calendarios áticos, con uno lunar de doce meses para las festividades, otro estatal de diez meses arbitrarios y uno agrícola que mayormente contaba estaciones. Un jaleo, vamos, pero es que la idea de establecer unas fechas y tiempos precisos para el conjunto de las actividades humanas tardó en desarrollarse. De los cumpleaños, la corrupción de los políticos y el calendario unificado. En la práctica, los años se contaban diciendo aquello de “en el tercer año del reinado del Rey Fulano…”. Ni siquiera los romanos usaban normalmente el famoso ab urbe condita, o sea, “desde la fundación de la ciudad”, muchísimo más común entre quienes luego escribieron sobre ellos. Era mucho más habitual decir (y escribir) “en el año del cónsul Tal” o “en el cuarto año del emperador Cual.” Esto ocurría en todas las culturas de su tiempo, incluyendo a los egipcios, con lo cual aparece el concepto de cumpleaños. En la Antigüedad, la gente no sabía cuántos años tenía más que de una manera muy aproximada. El concepto de adolescencia era desconocido y se pasaba de niño a hombre, o de niña a mujer, con el inicio de la pubertad. Luego, si llegabas, te convertías en viejo. Y punto. La pregunta “¿cuántos años tienes?” habría desconcertado a la mayoría de la gente antigua. Sin embargo, había una excepción: el monarca, gobernante, o mandamás en general. Por el mero hecho de contar el tiempo desde el año de su acceso al poder, la sociedad en su conjunto estaba contándole cumpleaños, se celebraran o no.
- 21 -
Antonio Cantó
Otro reloj de la antigüedad: la clepsidra o reloj de agua. Esta es griega, del siglo V aEC (la de arriba, la de abajo es una reproducción contemporánea) pero parece ser que los babilonios ya las usaban hace cuatro mil años. La de esta imagen es muy sencilla (es simplemente un chorrito de agua que va escapando a un ritmo determinado), pero sus versiones más sofisticadas podían llegar a ser notablemente precisas y fueron los relojes más comunes y exactos que tuvimos hasta el siglo XVII. En torno a ellas se desarrollaron gran parte de los mecanismos que luego permitirían la aparición de los relojes mecánicos (como el escape relojero, el que hace “tic tac”.) Objeto: Museo de la Antigua Ágora, Atenas, Grecia. Imagen: Wikimedia Commons.
En algún momento del primer milenio antes de nuestra era varias culturas comenzaron a celebrar también los aniversarios de distintos eventos, templos e incluso dioses, como por ejemplo el de la diosa griegaArtemisa, a la que le ponían velitas (¿te suena esto también?). Parece ser que fueron los romanos quienes empezaron a celebrar los aniversarios de las personas en sus dies natalis, debido a una combinación de factores culturales, políticos y supersticiosos. Por supuesto, sólo entre las clases altas; al pueblo de a pie ni se le ocurría hacer semejantes gastos (salvo por una casta proporcionalmente muchísimo más reducida que la actual, eran pobres como ratas y bastante tenían con ingeniárselas para comer a diario.) Y sólo se celebraba el de los hombres adultos; para que se celebrase el cumpleaños de las mujeres hay que esperar al siglo XII de nuestra
- 22 -
La Pizarra de Yuri 3
era y el de los niños (y niñas) al XVIII, cuando los críos van dejando de ser una boca inútil que alimentar llevada a palos para convertirse en los reyes y reinas de la casa. Cosas del pasado. Fueron también los romanos quienes primero vieron la necesidad de tener un calendario único, o al menos dominante. Empezaron con el calendario de Rómulo, lunar y agrícola, que sumaba 304 días divididos en diez meses de 30 y 31 más un periodo invernal que no se asignaba a ningún mes. El año nuevo coincidía con el equinoccio de primavera y a partir de ahí se contaban los diez meses, llamados martius (por el dios Marte, con 31 días), aprilis (origen desconocido, probablemente relacionado con Afrodita/Venus, 30 días), maius (seguramente por Maia, la diosa buena, 31 días), iunius (por Juno, 30 días) y el resto derivado de sus ordinales: quintilis (de quintus, quinto, con 31 días), sextilis (sexto, 30 días), september (séptimo, 30 días), october (octavo, 31 días), november (noveno, 30 días) y december (décimo, 30 días), gran parte de lo cual te sonará también. Sin embargo, las semanas obedecían a un ciclo nundinal (de mercado) de ocho días. Ya en fechas muy tempranas, allá por el 713 aEC, el rey (probablemente legendario) Numa Pompilio modificó este calendario inicial con criterios supersticiosos (los romanos eran extremadamente supersticiosos). Como pensaban que los números impares daban buena suerte (y los pares, mala), cambiaron el número de días de cada mes a 29 o 31. Ya que estaban, aprovecharon para convertir ese periodo invernal indefinido en dos meses nuevos: ianuarius (seguramente por Jano, con 29 días) y un februarius (vinculado a las februa), necesariamente con 28 días y por tanto de malísimo fario. Tanto era así que en la práctica lo dividían en dos periodos de 23 y 5 días, antes y después de lasterminalias, y además se convirtió en un mes de ritos de purificación y demás. Que si no, lagarto, lagarto. Curiosamente, la Cuaresma de purificación de los cristianos también suele empezar en febrero (y su celebración más importante, la Pascua, cae en el primer día sagrado del año pagano tradicional, que comenzaba con la primera luna llena tras el equinoccio de primavera.)
- 23 -
Antonio Cantó
Reconstrucción del calendario de la República Romana “Fasti Antiates Maiores” hallado en una villa de Anzio (aprox. 60 aEC). Los nombres abreviados de los doce meses “normales” y el mes intercalar se encuentran en la fila superior. En la fila inferior, podemos leer el número total de días. Los días, mostrados en la primera columna de cada mes, se representan mediante las ocho letras A a H (pues aún usaban la semana nundinal de ocho jornadas de mercado). La segunda columna muestra la K de “kalendas” para el primer día del mes, la N de “nones” para el quinto y la E de “eidus” (idus) para el 13º. El resto de días están indicados por su función: F de “fasti” (“laborables”), N de “nefasti” (“no laborables”), C de “comitiales” (se podían celebrar asambleas públicas), EN de “endotercisi” (mitad fasti y mitad nefasti) y “nefastus publicus” (festividades públicas). Las palabras en letras grandes hacen referencia a festivales importantes y las de letra más pequeña, a otros festejos y deidades menores. Fuente: Universidad de Chicago. (Clic para ampliar)
Esto totalizaba un año de 355 días, bastante menos preciso que el de egipcios y mesopotámicos. Para reajustarlo, el Sumo Pontífice (pontifex maximus) intercalaba unmes bisiesto de 27 días tras los primeros 23 del febrero de mal rollo cada dos o tres años. Al principio lo llevaban relativamente bien pero luego se convirtió en una juerga de corrupción política y clerical. Metían el mes bisiesto cuando les convenía para extender o abreviar el periodo en el poder de sí mismos o sus amiguetes, y también para alargar o acortar el plazo de pago de las deudas según les interesase. Esta no era una práctica exclusiva de los romanos; resultaba bastante común en la Antigüedad. En la comedia Las Nubes del griego Aristófanes (423 aEC), la luna en persona baja a quejarse del cachondeo con los meses, a fuerza de manipularlos. Tres siglos después, las cosas no habían mejorado: los calendarios venían en dos versiones, una “según el dios” (la luna) y otra “según el arconte” (el jerarca de turno). Pues para el siglo I antes de nuestra era, a los romanos les estaba pasando lo mismo. Y además, por lo visto, de una forma bastante acusada y con notable mala leche, vinculada al desorden y la violencia de los últimos años de la casi cinco veces centenaria República Romana. Vamos, que iban a saco. El caos era tal que fuera de la ciudad de Roma nadie sabía muy bien cuándo empezaban y terminaban los meses y años oficiales; y dentro de Roma, sólo podían predecirlo quienes estaban en el ajo. Entonces uno de los últimos cónsules republicanos, que también desempeñaba las
- 24 -
La Pizarra de Yuri 3
funciones de sumo pontífice, decidió hacer algo al respecto en el año 46 aEC. Este señor era ni más ni menos queJulio César.
Cayo Julio César (100 – 44 aEC), general, cónsul y sumo pontífice romano, creador del calendario juliano que con unas pocas modificaciones usamos hoy día en todo el mundo. Busto en el Museo dell’Opera del Duomo, Pisa. Imagen: Wikimedia Commons.
El jefazo Julio reunió a sus astrónomos, filósofos y matemáticos. En particular, a un experto greco-egipcio llamado Sosígenes de Alejandría. Y crearon el calendario juliano. Estaba compuesto por 365 días divididos en doce meses de 30 y 31 días, salvo febrero, que siguió siendo de 28. Pero abolió el mes intercalar que se había convertido en un cachondeo para sustituirlo por un único día bisiesto que se añadía al final de febrero cada cuatro años. Es decir, muy parecido a lo que seguimos haciendo ahora. El calendario juliano es ya nuestro calendario moderno, salvo por un par de arreglos que - 25 -
Antonio Cantó
vendrían después. Y con ello, al forzar un calendario unificado de duración regular, solventó el problema de un plumazo. Bien es cierto que, ya que estaba, César aprovechó el ajuste para extender su propio año de consulado hasta un total de 445 días. Casi tres meses por la cara que se arrogó el colega. O sea, como si ahora alguno de nuestros amados líderes saliese diciendo que su mandato de cuatro años en realidad dura cinco. Poco después, la semana romana pasó a ser de siete días, como la de los griegos y babilónicos, en vez de los ocho tradicionales. Con el calendario juliano, el principio del año quedó también fijado en el 1 de enero. No está claro cuándo el mes de enero pasó a ser el primero del año en la civilización (greco-)romana, sustituyendo así a marzo con su equinoccio de primavera. En todo caso es anterior al año juliano y puede que sea algo muy antiguo. Al menos desde el 153 aEC, el año consular (el año de mandato de los cónsules republicanos) comenzaba el 1 de enero. Pero desde luego, no fue algo generalizado en el mundo (ni siquiera en el mundo occidental) hasta mucho después. En civilizaciones alejadas de la cultura occidental, que tienen sus propios calendarios con su propia historia, sigue sin serlo (como el Año Nuevo Chino.) En general, casi todo el mundo mantuvo el principio del año en torno al equinoccio de primavera o algo después hasta siglos relativamente recientes (como por ejemplo continúa ocurriendo con el Año Nuevo Persa o el Indio). Es decir, que deberíamos haberlo celebrado esta semana pasada (este año 2014 cayó en 20 de marzo.) Aquí en Valencia tuvimos las Fallas, ¿y en tu casa?
- 26 -
La Pizarra de Yuri 3
Cremà (quema) de una falla valenciana, uno de los incontables festivales del fuego celebrados en torno al equinoccio de primavera desde la más remota antigüedad. Foto: Wikimedia Commons.
Voy a detenerme un instante en esto. No es casual en absoluto que tantas civilizaciones distintas hayamos concedido tanta importancia al equinoccio de primavera. Dentro de la arbitrariedad de las maneras humanas de contar el tiempo, el equinoccio de primavera ha demostrado un poder excepcional sobre nuestra imaginación desde antes de la historia. El Año Nuevo de decenas de culturas, la Pascua judeocristiana, el Akitu babilónico, el Shunbun-no-Hi japonés, el Sham-el Nessin egipcio, el Holi hinduista, cientos de festivales del fuego paganos repartidos por todo el mundo y mil cosas más están directamente vinculadas al también llamado equinoccio vernal. Al menos en el Hemisferio Norte nos gusta este equinoccio vernal, el momento en el que muere el invierno para dejar paso a la primavera. Nos gusta, claro, el instante en que se acaba el frío, la austeridad y el hasta el hambre para permitirnos otra vez cultivar, cazar, jugar a pleno sol. Cautivó nuestro misticismo religioso, nuestra imaginación
- 27 -
Antonio Cantó
popular y nuestra curiosidad científica. Muchas de nuestras civilizaciones son hijas, al menos en parte, del equinoccio vernal. Los calendarios precolombinos. En otro orden de cosas, las culturas precolombinas de América me resultan especialmente fascinantes porque se separaron de las Afroeuroasiáticas mucho antes del Neolítico. Por ello, aunque partían de unas “bases comunes mínimas”, crearon modelos de civilización humana alternativos sin conexión alguna con la de los viejos continentesdurante más de 15.000 años. Un poco como si fuesen alienígenas, o nosotros para ellos, o viceversa, ya me entiendes.
Detalle de la estela C de Tres Zapotes, Veracruz, México, una de las anotaciones en Cuenta Larga (el mal llamado “calendario de los mayas”) más antigua que se conserva. De arriba abajo, indica la fecha 7(hallada después).16(fragmentaria).6.16.18, correspondiente al día 5 de septiembre del 32 aEC según nuestro calendario moderno. Objeto: Museo Nacional de Arqueología, México.
Así, hicieron cosas fascinantemente diferentes y otras sobrecogedoramente idénticas, pues humanos somos todos. Por ejemplo, las estructuras sociales piramidales. Y las propias pirámides, de las que tanto se ha hablado. No es que vinieran los extraterrestres a hacérselas, sino que para todo humano es la manera más sencilla de construir un edificio grande, la que menos arquitectura exige: apilar piedras más o menos bien - 28 -
La Pizarra de Yuri 3
cortadas hasta levantar una montañita con algunas grutas interiores (pasadizos) y tal. Y al contrario: también hicieron cosas misteriosamente marcianas que aún hoy en día no entendemos bien. Algunos de sus secretos se los llevaron las tinieblas de la jungla, el tiempo y la viruela y no los sabremos jamás. Los calendarios precolombinos se encuentran un poco a caballo entre ambos extremos. Cuando el último cazador-recolectorsiberiano quedó aislado al lado americano del estrecho de Bering, es dudoso que llevara más ciencia encima que uno de esos palos de computar. A partir de ahí, tuvieron que crearlo todo prácticamente de cero. La escritura, la astronomía, las matemáticas, todo. Algunas de sus elecciones son bastante obvias: por ejemplo, tomaron la base 20 para sus números, igual que muchos otros pueblos del mundo, como los vascos antiguos. Claro, esto no tiene nada de raro: salvo amputaciones y tal, todos tenemos veinte dedos aptos para contar. Sin embargo, su calendario más común, para usos tanto civiles como religiosos, tenía años de 260 días desde tiempos de los olmecas y así siguió siendo con los aztecas, los mayas y demás. No es obvio por qué eligieron esa cifra. Aunque hay quien lo ha querido vincular con el cultivo del maíz o el periodo de gestación humana, no acaba de cuadrar muy bien. Y no es que ignorasen que el año solar tiene en torno a 365 días. Lo sabían y lo utilizaban (aztecas: xiuhpohualli; mayas: haab’, en ambos casos de 18 x 20 días más otros cinco que se consideraban maléficos). Pero no le daban mucha importancia. Les gustaba mucho más el de 260, que en el caso azteca se ha bautizado posteriormente como tonalpohualli y para el maya, tzolkin. 260 es el producto de 20 x 13 y por lo visto el 13 era un número importante en la numerología mística mesoamericana. A lo mejor sólo se trata de eso. Hablamos de calendarios con unas implicaciones religiosas muy fuertes, que se extendían a cada detalle de sus culturas. El calendario de 260 días sigue usándose en algunos lugares hasta la actualidad para practicar la adivinación, la magia popular y otras cosas por el estilo. Ambos calendarios coinciden cada 52 años solares de 365 días o 73 de esos raros de 260 (18.980 días). A esto se le suele llamar el “ciclo redondo” o “completo.” Y sin embargo, sobre esas bases crearon auténticos monstruos matemáticos con pocos parangones en ningún otro lugar. El más impresionante y conocido, o desconocido de todos ellos es la Cuenta Larga. Conocido, porque hace poco tuvimos una de esas tontadas milenaristas en torno a ella: sí, es el famoso calendario maya que ni siquiera es propiamente maya, sino de toda la Mesoamérica precolombina. Desconocido, porque ninguno de quienes hablaban de fines del mundo o cambios de era o cosas de esas tenía más que una vaga idea sobre él y el público en general, pues todavía menos. Impresionante, porque hasta tiempos muy recientes a pocos más se les
- 29 -
Antonio Cantó
había ocurrido o habían sido capaces de desarrollar semejante cosa. Hace falta un notable ejercicio de imaginación, de astronomía y de matemáticas para crear un calendario capaz de contar “automáticamente” largos periodos de tiempo sin repetir un solo día. Parece más propio de la ciencia moderna que de algo que pudo empezar antes de nuestra era.
Funcionamiento de la Cuenta Larga mesoamericana (el mal llamado “calendario de los mayas”). Fuente: Wikimedia Commons. (Clic para ampliar)
Matemáticamente, la Cuenta Larga funciona de manera muy parecida al odómetro de un coche. No es un calendario lunar ni estrictamente solar, sino que va sumando días, uno detrás de otro, y en principio podría seguir haciéndolo hasta el infinito. Comienzas contando los primeros veinte días en la posición más a la derecha (k’in), numerados del 0 al 19 (por cierto, uno de los primeros usos del número cero propiamente dicho.) Cuando has llegado al 19 y quieres contar otro más, subes un uno a la segunda posición de la derecha (uinal) y vuelves al cero en la primera. Así, te queda 1.0, lo que significa “veinte”. Pero con el uinal sólo puedes contar hasta 18 (es decir, de 0 a 17). En 360 días (20 x 18), o sea un año haab’ sin sus cinco “días maléficos”, tienes un 17.19: esto es, 17 en la posición uinal y 19 en la posición k’in. Si quieres añadir otro día más (el primero del segundo año haab’), tienes que poner de nuevo un cero en ambas posiciones de la derecha (uinal y k’in) y un uno en la tercera (tun), que también es de base 20. Vamos, que se te queda: 1.0.0. A partir de ahí, vuelves a sumar k’in (en base 20) y uinal (en base 18) hasta llegar al 19.17.19 que, como contamos empezando por el cero, equivale a 20 x 18 x 20 días. Eso son 20 años “mesoamericanos” de 360 días.
- 30 -
La Pizarra de Yuri 3
Y así sucesivamente, ya siempre en base 20 excepto con los uinal, donde mantenemos la base 18. Se sigue por loskatun (lo que permite contar hasta 400 años mesoamericanos) y luego por los baktun (hasta 8.000 años mesoamericanos). Para aumentar otro día más, tendríamos que poner un 1 en la sexta posición (pictun) y un cero en todas las demás. Lo que pasa es que la posición pictun y las de orden superior son ya invenciones de los mayanistas modernos. Los mesoamericanos antiguos sólo usaban cinco posiciones. Es decir, que la Cuenta Larga original habría dado para un máximo de 8.000 años de los suyos. Teniendo en cuenta que comenzaban a contar desde una fecha mítica de la creación establecida en el año 3.114 aEC, aún queda Cuenta Larga para más de dos mil años a partir de hoy. Lo único que ocurría el famoso 21 de diciembre de 2012 es que pasábamos del baktun 12 al baktun 13. Sólo con eso, algunos se inventaron sus historias. Puedes ver qué día es hoy en Cuenta Larga aquí. Por supuesto, si las civilizaciones mesoamericanas hubiesen seguido existiendo y utilizando la Cuenta Larga (en realidad, ya estaba olvidada cuando llegó el colonizador europeo), nada les habría impedido seguir añadiendo posiciones a la izquierda cuando se les acabasen los baktun, tal como hacen los mayanistas modernos con el pictun y demás. Así, la Cuenta Larga tiene el potencial para contar cualquier periodo del tiempo, hasta el infinito. ¡Hey, un momento! Eso es exactamente lo que hacemos con nuestros números, sólo que en base 10 pura: del 9 pasamos al 10. Del 99, al 100. Del 999, al 1.000. Y así una y otra vez, hasta el infinito. La gracia de la Cuenta Larga es que los mesoamericanos antiguos se dieron cuenta muy pronto de que podían usar eso para contar días, y derivar a partir de ahí las fechas “normales” (como las del tzolkin). Bueno, y su rollo jeroglífico, que impresiona un montón. De los meses modernos y los días de la semana. Volvamos al calendario romano de Julio César, porque es el que ha acabado imponiéndose como referencia común en todo el mundo, con algunas pequeñas variaciones. La primera es que a la muerte de César se le honró cambiando el nombre del mes quintilis por iulius, o sea Julio (había nacido el 12 o 13 de julio del 100 aEC.) Después, el primer emperador del Imperio Romano, César Augusto, llamó al mes sextilis… pues cómo lo iba a llamar, augustus, o sea agosto, en honor a sí mismo.
- 31 -
Antonio Cantó
Estatua del dios Jano, una deidad romana sin equivalente griego, caracterizada por sus dos caras mirando eternamente en sentidos contrarios. Como era el dios del mes de enero (ianuarius), se cree que éste pasó progresivamente a ser el primero del año por asociación a su figura, que miraría así al año pasado y al futuro. Estatua: Museos Vaticanos, Roma.
Así ya tuvimos todos los meses del calendario moderno: enero (ianuarius, por Jano, 31 días), febrero (por las februa, 28 días o 29 cuando carga el bisiesto), marzo (por Marte, 31 días, antiguamente el primero del año), abril (seguramente por Afrodita/Venus, 30 días), mayo (por la diosa buena, 31 días), junio (por Juno, 30 días), julio (por Julio César, 31 días), agosto (por Augusto, 31 días, no iba a ser menos el hombre…) y el resto siguiendo su antiquísimo ordinal romano, de cuando sólo tenían diez: septiembre (“el séptimo” después de marzo, 30 días), octubre (“octavo”, 31), noviembre (“noveno”, 30) y diciembre (“décimo”, 31). El nombre de nuestros días de la semana merece párrafo aparte. La idea es también mesopotámica (jodó con los iraquís), pero su origen moderno es griego, correspondiente a los siete dioses / astros mayores del sistema solar conocidos en aquellos tiempos: hêméra Hêlíou (día de Helios / Sol), Selénês (de Selene / Luna), Áreôs (de Ares / Marte), Hermoú (de Hermes / Mercurio), Diós (del padre de los dioses Zeus / Júpiter), Aphrodítês (de Afrodita / Venus) y Krónou (de Cronos/ Saturno). Los romanos, que eran unos multiculturetas de postín (en eso radica gran parte del éxito de la civilización romana: absorbían, asimilaban y asumían todo lo que les molaba), simplemente los tradujeron: dies Sōlis, Lūnae,Martis, Mercuriī, Iovis, Veneris y Saturnī. Seguro que al menos cinco de ellos los conoces: lunes, martes, miércoles,jueves (la letra J es una variación de la I inventada en el siglo XVI) y viernes. - 32 -
La Pizarra de Yuri 3
En muchos idiomas, como el inglés, el sábado sigue siendo también el día de Saturno (Saturday – Saturn day) y el domingo, el día de Sol (Sunday – Sun day). Monday continúa siendo el día de Luna (Moon day) y los demás se corresponden con las versiones locales de los mismos dioses: Tuesday de Tiw/Týr, Wednesday de Wōden, Thursday de Thor y Friday de Frigg. En cambio, por estos lares del Sur, adoptamos ya en tiempos de la Cristiandad las versiones judeocristianas sabbat (sábado) y dies dominicus (día del Señor, domingo.) ¿Antes y después de Cristo? Va a ser que no…
(San) Dionisio el Exiguo (c. 470 – c. 544 aEC) en un icono ortodoxo rumano. Quiso determinar la fecha de nacimiento de Cristo para contar los años a partir de ahí como Anno Domini, y la estableció en el 754 desde la fundación de Roma. Esto daría lugar posteriormente a la conocida fórmula “antes de Cristo / después de Cristo”. Pero se equivocó. Dando por buenos los Evangelios, Jesús no pudo nacer en ese año, y si no se dan por buenos, pues no sabemos cuándo fue, si fue.
En torno al año 525 de nuestra era, un monje llamado Dionisio el Exiguo sentó las bases para cristianizar el calendario. Su logro más notable y conocido fue la creación del Año del Señor (Anno Domini, AD), según el cual los años empiezan a contarse a partir del nacimiento de Cristo: la fórmula tradicional actual. A todos los que peinamos ya alguna cana y a algunos de quienes aún sólo tienen pelo en la cabeza nos enseñaron y les enseñan que ahora mismo contamos los años desde el nacimiento del Nazareno y dividimos la historia en antes de Cristo (aC) y después de Cristo (dC). Según esto, hoy viviríamos en el año 2014 después de Cristo, como todos sabemos, ¿no?
- 33 -
Antonio Cantó
Pues no. Y no es una cuestión de fe religiosa o lo contrario. El problema es que el buen Dionisio metió la pata. Tras muchos cálculos, hizo coincidir el año 1 de nuestra era, el primer año del Señor, con el 754 ab urbe condita (AUC, desde la fundación de Roma.) Esta forma de contar los años se generalizó a partir del siglo IX europeo: la historia se dividía en ab urbe condita para los años anteriores al 1 y Anno Domini para el 1 y siguientes (en ambos casos contando hacia adelante). Pero en el siglo XVII se extendió la fórmula “antes de Cristo” (contando hacia atrás a partir del Anno Domini -1) y “después de Cristo” (contando hacia adelante a partir del Anno Domini +1). Esa es la que seguimos oyendo hoy. Está mal. La fecha dada por Dionisio el Exiguo es imposible. Los propios académicos cristianos de hoy en día lo aceptan: si existió Jesus de Nazaret tal como lo cuentan en la Biblia, o de manera parecida, no hay forma ninguna de que pudiese nacer en el 754 ab urbe condita. En primer lugar: para que el Rey Herodes el Grande pudiese instigar la famosa matanza de los Santos Inocentes tal como afirmó el evangelista Mateo (Mt 2:1618), tuvo que ser antes del 750 AUC porque ese es el año en el que Herodes murió. (En el 754 reinaba en Judea otro Herodes distinto, Herodes Arquelao, al que nadie ha atribuido jamás la autoría de lo de los Santos Inocentes ni nada de eso.)
- 34 -
La Pizarra de Yuri 3
Tal como afirma el evangelista Lucas, el emperador César Augusto (en la imagen) ordenó un censo en los territorios romanos durante los albores de nuestra era. Lucas dice que Jesús de Nazaret nació durante el mismo, y de ahí la historia del Portal de Belén. Pero en Judea este censo, realizado por el gobernador Publio Sulpicio Quirinio, se llevó a cabo en el año 6 “después de Cristo”. Con lo que, para que cuadre la Biblia, el año 1 de Dionisio el Exiguo no pudo ser el de nacimiento de Jesús. Si decimos “antes o después de Cristo” para referirnos a los años modernos, estamos contando mal. Estatua: Museos Vaticanos, Roma.
En segundo lugar, y aún más contuntente: si Jesús nació durante el censo realizado por el gobernador romano de Siria y Judea llamado Publio Sulpicio Quirinio, como asegura el evangelista Lucas (Lc 2:1-2), y de ahí toda la temática sobre el Portal de Belén… bien, pues tal censo existió, pero se realizó seis o siete años después del Anno Domini 1 (según Flavio Josefo, fue “37 años después de que Octavio derrotó a Antonio en la batalla naval de Accio“, lo que se correspondería con el año 6 “después de Cristo”.) No hubo ningún otro censo en la región en ese periodo. Existen otras posibilidades que alejan aún más la fecha de nacimiento de Jesús del “año 1”, y ninguna a favor. Pero estas dos son las más aplastantes: por esa época Herodes I el Grande ya estaba muerto y no hubo censo alguno en Judea hasta seis años después. O
- 35 -
Antonio Cantó
sea: el problema no es que decir “antes de Cristo” y “después de Cristo” sea algo religioso o deje de serlo. El problema es que es erróneo. Aceptando los Evangelios, Cristo no pudo nacer en el 754 ab urbe condita convertido en el Año del Señor nº 1 por Dionisio el Exiguo. No cuadra. O fue antes del 4 “antes de Cristo” (muerte de Herodes el Grande) o fue en el 6 “después de Cristo” (censo de Quirinio, también conocido como Quirino o Cirino.) Y si no damos por buenos los Evangelios, pues entonces, claro, no hay referencia alguna. Por un lado o por el otro, estamos contando mal. Por este motivo (y también porque el calendario occidental ha sido asimilado por culturas que tienen muy poca relación con el cristianismo), en todos los ámbitos mínimamente rigurosos utilizamos ahora las expresiones “Era Común” (EC) y “antes de la Era Común” (aEC) en lugar de “antes de Cristo” y “después de Cristo”. En contra de lo que parecen creer algunos, no es una conspiración anticristiana, sino la mera corrección del error histórico cometido por Dionisio el Exiguo y un resultado del éxito global del calendario occidental. De los relojes, el minuto, el segundo y más allá.
El Papa Gregorio XIII (1502 – 1585) promulgó la bula Inter gravissimas (1582) para dar los últimos retoques al calendario juliano, convirtiéndolo así en el calendario moderno. Por eso lo conocemos como “calendario gregoriano.” En muchos lugares del mundo no fue adoptado hasta el siglo XX. Retrato realizado por Lavinia Fontana (1552 – 1614).
- 36 -
La Pizarra de Yuri 3
Durante los siguientes siglos, fue volviéndose evidente que el calendario juliano se descuadraba también. Esto se debe a que la duración real del año trópico no es exactamente 365,25 días, sino más bien 365,242, con una pequeña variación interanual. En el año 1582, se había ido unos diez días desde los tiempos de Julio César. Entonces el Papa Gregorio XIII ordenó el último cambio notable: saltaron esos diez días y los años bisiestos dejaron de ser uno de cada cuatro. En su lugar, lo fueron aquellos que son divisibles por cuatro, excepto los que también son divisibles por cien, pero no por cuatrocientos. Esto crea un año efectivo de 365,2425 días, mucho más parecido al real, que es el que seguimos usando ahora: el calendario gregoriano, hoy en día ya más conocido como el calendario occidental o el calendario internacional (pues sólo quedan cinco países que no lo usen de manera oficial: Afganistán, Arabia Saudita, Etiopía, Irán y Nepal, e incluso éstos lo utilizan en sus relaciones con el exterior y la gran mayoría de sus aplicaciones tecnológicas e industriales. Hay algunos otros que lo simultanean con algún calendario local, pero lógicamente éstos se van viendo cada vez más desplazados por la pujanza global del internacional.) Es más o menos en la época de este Papa Gregorio XIII cuando empiezan a aparecer los primeros relojes con precisión suficiente para contar segundos. La idea del minuto como sesentava parte de la hora es bastante antigua (seguramente se origina también en los babilonios), y la del segundo como sesentava parte del minuto ya fue utilizada por científico persa Al Biruni en torno al año 1.000 de la Era Común. Pero no había ninguna manera práctica de medir tiempos tan precisos hasta el siglo XVI y de hacerlo con exactitud, hasta el XVII. Ni relojes solares, ni clepsidras ni los primeros relojes mecánicos eran capaces. Hubo que esperar al reloj de péndulo inventado por el matemático, astrónomo y físico holandés Christiaan Huygens en 1656 para que esto fuese posible.
- 37 -
Antonio Cantó
Ilustración en el libro “Horologium Oscillatorium sive de motu pendulorum” publicado por Christiaan Huygens en 1673, donde se define el primer reloj de péndulo realmente funcional. Los relojes de péndulo fueron por fin capaces de medir segundos, dándonos un control mucho más avanzado sobre la medida del tiempo.
La gracia del reloj de péndulo es que está construido en torno a un oscilador armónico: el péndulo en cuestión. Esto significa que siempre oscila en un periodo exacto de tiempo (o tan exacto como permitan las imperfecciones del mecanismo), dependiendo de su longitud. Es decir, que sus movimientos son isócronos. O sea, una de esas reglas lo más regulares posible que nos gustan tanto para medir cosas. Y el péndulo resultó ser notablemente regular. Tanto que pasó a ser la clave del tiempo durante los siguientes 270 años, hasta bien entrado el siglo XX. Sólo la invención del reloj electrónico de cuarzo en 1927 comenzaría a desplazarlo, pero no del todo hasta después de la Segunda Guerra Mundial. En el reloj de cuarzo, el péndulo queda reemplazado por un oscilador piezoeléctrico de cristal mucho más pequeño y preciso. Y veloz, lo que permite medir fracciones mucho más breves de tiempo, a millones de ciclos por segundo. Poco después llegó el reloj atómico, más exacto todavía. De pronto, resultó que nuestros relojes comenzaban a ser enormemente más regulares que la inmensa mayor parte de los fenómenos naturales que medían, como la órbita de la Tierra alrededor del Sol, la de la Luna alrededor de la Tierra o casi cualquier otra cosa que antes constituyese la referencia mejor de tiempo. Y ya sabes, lo regular, la regla, es lo que mola para medir. Entonces hicimos algo nuevo: invertimos la referencia. Es decir, el sol y la luna y las estrellas dejaron de ser la referencia última para nuestros relojes y fueron nuestros relojes, cada vez más precisos y prácticos, los que nos sirvieron para medir el resto de fenómenos naturales. Incluyendo al sol, la luna y las estrellas. Hoy en día la referencia
- 38 -
La Pizarra de Yuri 3
absoluta de tiempo ya no está en los cielos, sino en la tierra, en nuestros relojes atómicos (bueno, algunos hay en el espacio…). Ahora decimos que la unidad básica de tiempo en el sistema internacional es el segundo, y en estos momentos lo definimos así, en el lenguaje cuántico de estos relojes atómicos: “El segundo es la duración de 9.192.631.770 periodos de la radiación correspondiente a la transición entre los dosniveles hiperfinos del estado fundamental del átomo de cesio-133.” [A una temperatura de 0 K]
El reloj más preciso del mundo en la actualidad: el atómico de estroncio del Joint Institute for Laboratory Astrophysics (JILA), formado por la Universidad de Colorado y el Instituto Nacional de Estándares y Tecnología de los Estados Unidos (NIST). Necesitaría por encima de cinco mil millones de años, más que la edad del sistema solar, para “irse” un solo segundo. Foto: Ye group and Baxley/JILA
…lo que es una regla exacta como el demonio y además muy práctica, porque no tenemos que andar dando tantas vueltas a que si el sol, la luna o las estrellas cada vez que queremos contar el tiempo con precisión, ni depender de susimperfecciones cósmicas. Cosa que hoy en día es totalmente necesaria en todas partes. Toda nuestra ciencia y tecnología modernas, las claves de nuestro nivel y calidad de vida, dependen por completo de la regularidad de nuestros relojes. Me he saltado necesariamente muchas cosas, porque esta fue una historia muy larga y compleja, llena de acelerones y paradas y marchas adelante y atrás. Pero quiero añadir que nuestra historia, la historia de la humanidad, está indisolublemente vinculada a las maneras como aprendimos a medir el tiempo. Exigió lo mejor y lo más brillante de nosotros. A cambio, nos premió con una clase de dominio sobre nuestro mundo que de otro modo jamás habríamos podido soñar. La agricultura, la navegación oceánica, la electrónica moderna o la astronomía, entre otro millón de cosas más, son en parte hijas - 39 -
Antonio Cantó
de nuestro afán por medir el tiempo de manera cada vez más y más precisa. Sin ese afán, sin esa capacidad, seguiríamos anclados allá por el Epipaleolítico. Y, te lo aseguro, eso no te iba a gustar. (Quizá te interese también: La computadora de Anticitera, en este mismo blog.)
- 40 -
La Pizarra de Yuri 3
Air France 447: Buscando cajas negras a 4.000 metros de profundidad (y 2) Yuri, el 10 de marzo de 2014 @ 14:52 · Categoría: Actualidad, Sociedad y civilización, Tecnología
He estado dudando sobre si era el momento más adecuado para publicar esta segunda parte, porque la casualidad es mucha casualidad. Me refiero, por supuesto, a la pérdida del Malaysia 370 en el mar este fin de semana. Hasta se parecen la hora y el número de ocupantes; la principal diferencia es que el MH370 parece estar en una región de poca profundidad. Al final me he decidido, dado que es educativo y enseña un poco lo que puede venir a continuación. No obstante, he cambiado un poco el tono, que en la anterior versión era demasiado ligero para mi gusto dadas las circunstancias. En todo caso, este post va a la memoria del pasaje y la tripulación del vuelo Malaysia Airlines 370, perdido en el mar sobre las dos de la madrugada hora local del 8 de marzo de 2014 con 239 personas a bordo. Sit vobis mare levis.
“Mi corazón comparte la tristeza y la impotencia de los familiares de los pasajeros del Malaysian Airlines.” Firma: la mamá de un pasajero del 447 de Air France, que leyó estas líneas. — Ir a la primera parte —
- 41 -
Antonio Cantó
Recopilemos: el vuelo Air France 447 había partido de Río de Janeiro – Galeão a las 19:29 (local) del 31 de mayo de 2009 y se le esperaba en París – Charles de Gaulle sobre las 09:10 del 1 de junio. Sobrevoló las playas del Brasil antes de adentrarse en la noche atlántica con toda normalidad. Entre las 02:11 y las 02:14 de la madrugada UTC, cuando se encontraba atravesando una región turbulenta de convergencia intertropical fuera del alcance de los radares, se produjo una ráfaga de mensajes ACARS de alerta y ya no se volvió a saber de él. Gráfico: Wikimedia Commons modificado por la Pizarra de Yuri. (Clic para ampliar)
Durante la mañana del 1 de junio de 2009, tres continentes fueron alcanzando poco a poco tres conclusiones. La primera, que al vuelo Air France 447 de Río de Janeiro a París con 228 personas a bordo ya no podía quedarle ni una gota de combustible. La segunda, que el avión, un moderno Airbus A330-200, no se hallaba en ningún lugar de las tierras emergidas. Y por tanto la tercera: que había desaparecido en el mar. Como en los viejos tiempos. A las 11:04 UTC salió la primera aeronave en su busca, de la Fuerza Aérea Brasileña. En torno a las 12:15 se le sumó un Breguet Atlantique-2desde la base que Francia todavía conservaba en Senegal, antigua colonia suya. Después acudieron también un CASA 235 de la Guardia Civil Española y un P-3 Orion perteneciente a laArmada Estadounidense. Luego, muchos más, todos ellos buscando frenéticamente alguna pista del vuelo desaparecido y sus ocupantes a lo largo y lo ancho de miles de millas de mar. A primera hora de la tarde, Air France comunicó oficialmente al mundo que habían perdido un avión. Uno grande. Durante un día entero, no encontraron nada. Fue a las 15:20 del día dos de junio cuando un Embraer R99 de la Fuerza Aérea Brasileña divisó la primera mancha de combustible en el océano. Aunque en un primer momento se les ocurrió que podía ser un sentinazo de algún barco, enseguida comenzaron a avistar otros fragmentos flotantes.
- 42 -
La Pizarra de Yuri 3
Unos pocos al principio y luego algunos más, incluyendo restos humanos. El 6 de junio, la corbeta brasileña Caboclorescataba los dos primeros cadáveres junto a un asiento, una mochila con un ordenador portátil y una cartera con una tarjeta de embarque para el AF447. Sin embargo lo más llamativo, o simbólico, fue la deriva que la gente llama “timón de cola” (el timón en sí es la parte móvil), cuya foto dio la vuelta al mundo. Su estructura es de fibra de carbono (CFC) y puede flotar. Un gran timón con los colores de Air France, o sea de Francia, por mucho que esté privatizada, flotando en medio del mar.
La imagen que dio la vuelta al mundo: la Armada del Brasil recupera la deriva (“timón de cola”) del Air France 447 en medio del Océano Atlántico, el 7 de junio de 2009. Foto: Fuerza Áerea del Brasil vía Associated Press. (Clic para ampliar)
Ay, la grandeur. Y encima mandando el Sarkozy y con la crisis ya en marcha. Y Airbus, con sede en Toulouse, acusándola como todo el mundo. Mira, no estuve yo atento a contar los minutos que tardó lo que era un accidente aéreo en convertirse en una cuestión de estado y orgullo nacional. Pero no fueron muchos.
- 43 -
Antonio Cantó
El submarino nuclear de ataque S604 Émeraude, la primera ocurrencia del gobierno francés para buscar los restos del AF447. Foto: Armada Nacional de Francia. (Clic para ampliar)
La primera que se les ocurrió fue sacar un submarino atómico. Cuál si no. Para un buen chauviniste ofendido en su orgullo patrio, cualquier excusa es buena para sacar a los submarinos atómicos. En menos de cuatro días, el submarino nuclear Émeraude se hizo a la mar a toda máquina para localizar las cajas negras con sus “sonares ultrasensibles” (así los definieron), y de paso el resto del avión. Le precedían la fragata Ventôse y el portahelicópteros Mistral. Eso, para empezar. Los profesionales empezaron a encogerse con esa cara de velocidad que se nos pone a todos cuando vemos una catástrofe a punto de ocurrir, y ya iban a ser dos esa semana. Hay muchas, muchas maneras de destrozar una búsqueda y una investigación que prometían contarse entre las más delicadas de la historia de la aviación. Gracias aNeptuno, no rompieron nada. Pero sólo por la sencilla razón de que ni hallaron las cajas negras, ni los restos del avión y si encontraron el Océano Atlántico yo creo que fue porque ya estaban en él. Parecía un happening muy caro ilustrando aquello tan viejo de que al que sólo tiene un martillo, todos los problemas le parecen clavos. Con toda esa gente muerta, de un tono bastante macabro, la verdad.
El cilindro horizontal es la baliza de localización subacuática (underwater locator beacon, ULB), en este caso del modelo Dukane DK-120. Estas balizas son capaces de sobrevivir a un accidente aéreo en más del 90% de las ocasiones (según estudio de la BEA) y seguir transmitiendo desde 6.000 metros de profundidad (más del 97% de los mares y océanos terrestres son menos profundos). Emiten un pulso ultrasónico (ping) cada segundo a 37 kHz de frecuencia durante aproximadamente un mes antes de agotar la pila. Actualmente se estudia bajarlas a 8,8 kHz para mejor recepción. Foto: Dukane Seacom Inc. / Radiant Power Corp. (Clic para ampliar)
Verás. Para empezar, cuatro días son radicalmente insuficientes para diseñar una búsqueda tan compleja como la que era fácilmente previsible. Por expeditivo y machote - 44 -
La Pizarra de Yuri 3
que quede de cara al electorado, el submarino salió con lo puesto, sin preparación, formación ni equipamiento específico alguno. Sólo disponían de sus sonares pasivospara detectar el pulso ultrasónico (ping) a 37,5 kilohercios que emiten una vez por segundo las balizas subacuáticas de las cajas negras. Estas balizas (underwater locator beacon, ULB) son el cilindro pequeño que suele verse al extremo de las mismas, capaces de seguir haciendo pinghasta a 6.000 metros de profundidad durante aproximadamente un mes. Pero es que además resulta que tanto el Émeraude como cualquier otro submarino de combate en general son herramientas totalmente inapropiadas para esa función. Este en particular sólo podía barrer 34 km2 por día con alguna exhaustividad y encima, mal. De entrada, el área de búsqueda profunda ascendía a más de 17.000 km 2 y terminó superando los 25.000. O sea, entre dieciocho meses y dos años y pico para hacer un barrido preliminar, sin parar ni un solo segundo y con más rendijas que la casa de la Familia Monster. Porque sus sensores, por “ultrasensibles” que fuesen, no eran los correctos para detectar una señal cada vez más débil y posiblemente apantallada por los restos del avión que tuviesen encima, menos aún en ese rango de frecuencias, y viniéndole desde muy abajo (los sensores de los submarinos son bastante mejores detectando a sus alrededores, en busca de otros submarinos o buques de superficie, que justo encima o debajo; y además están especializados en captar las frecuencias y señales más características de esos navíos). Por si fuera poco, los submarinos de combate sólo se sumergen hasta unos cientos de metros. Supongamos que elÉmeraude llegue hasta los 500, que ya es mucho suponer (los datos reales de profundidad máxima de los submarinos son secretos, pero para uno de ese tipo, por ahí puede ir la cosa; salvo algunos bichos extraños, ninguno llega ni cerca de mil). Y resulta que ahí hay entre 2.500 y 4.000 metros de profundidad. Es decir, una capa adicional de dos a tres kilómetros y medio de agua entre el fondo y el submarino (y sus sensores). Aún más: esa es una región con abundante ruido biológico, que tiende a confundir a estos sensores (o sus operadores). En suma, era como limpiar el agua radiactiva de Fukushima con un cubo, sin cuerda y encima agujereado. Adicionalmente, la presencia de un submarino nuclear en el área obligó a crear una extensa zona de seguridad a su alrededor que no podía ser utilizada por los barcos con sensores remolcados. Hasta el informe oficial de la BEA francesa al respecto es sutilmente crítico cuando afirma que “el uso de un submarino genera constricciones operacionales significativas y dificultades de coordinación con los buques de superficie. La limitada capacidad de inmersión de los submarinos no representa una ventaja decisiva con respecto a los buques de superficie y es incluso menor que la de un
- 45 -
Antonio Cantó
hidrófono sumergido. Un submarino podría ser útil para explorar áreas de profundidad limitada, siempre que esté equipado con los sensores apropiados.” Naturalmente los profesionales de la Armada Francesa, que son gente inteligente y capaz, pidieron ayuda ante semejante marrón. Acudió en su auxilio, por un lado, el buque Pourquoi Pas? del IFREMER con el batiscafo Nautile, capaz de llegar hasta el fondo del mar. Lo que también tenía algo de tufillo patriotero, porque aunque la gente del IFREMER son auténticos profesionales de las profundidades, y además de primera categoría (hace poco escribí algo sobre ellos), un batiscafo de limitada autonomía como todos los batiscafos tampoco parece la herramienta más apropiada para barrer decenas de miles de kilómetros cuadrados de mar. Por su parte, el américain ese del que hay que defender al cine francés les prestó algo bastante más útil: dos sensores de arrastre especializados en detectar esta clase de balizas a gran profundidad. Francia contrató otros dos barcos para remolcarlos: el Fairmount Glacier y elFairmount Paramount.
El localizador remolcado de balizas subacuáticas (towed pinger locator) TPL-25 de la Armada de los Estados Unidos. Está especializado en detectar los pings de las ULB a gran profundidad, y fue el primer equipo adecuado a la función que se llevó al lugar del desastre. No obstante, la búsqueda inicial fue tan inadecuada que no sirvió de nada, pese a que pasaron al menos en dos ocasiones por encima de los restos. Foto: SEA OOC – Armada de los Estados Unidos. (Clic para ampliar)
Daba igual. Toda la operación obedecía a criterios tan absurdos que no sirvió de nada. Hacia finales del mes el Émeraude, el Pourquoi Pas?, la Ventôse, el Mistral y los dos Fairmount se retiraron muy discretamente sin haber encontrado un solo tornillo del Air France 447. Luego se supo que habían pasado dos veces prácticamente por encima de los restos, con al menos una baliza subacuática aún viva, emitiendo pings sin cesar. Pues ni por esas. El informe oficial de la BEA vuelve a clavar otra puyita al decir que “el uso de recursos sin probar no es deseable. Por ejemplo, los recursos acústicos del submarino nuclear y el Pourquoi pas? no se habían probado con señales de [balizas subacuáticas] ULB antes de ser desplegados en el sector. Ajustar los sistemas una vez en el lugar es difícilmente compatible con el cumplimiento de la misión.”
- 46 -
La Pizarra de Yuri 3
Mientras tanto, los buques y aviones de rescate brasileños recuperaban todo lo que se podía recuperar en superficie muy profesionalmente, sin alharacas pero con gran efectividad, cubriendo un millón de kilómetros cuadrados de mar. Rescataron 50 cuerpos humanos de los 288 ocupantes, incluyendo el del comandante Marc Dubois, y 640 fragmentos del avión; algunos, bastante grandes. Sin embargo, los elementos más importantes para la investigación, como los motores, los ordenadores, los instrumentos o las cajas negras, seguían en el fondo del océano. La tontada, como todas las tontadas a ese nivel, tuvo consecuencias. Ya te digo, fue tan ineficaz que no rompieron nada porque no toparon con nada que romper. Pero se había perdido un tiempo precioso: exactamente los treinta días que tardan en agotarse las pilas de las balizas subacuáticas. Ahora, los restos críticos del Air France 447 no sólo permanecían en el fondo del mar, sino que además habían perdido la voz y se hallaban en el más completo silencio. El silencio de la gran profundidad. Mientras tanto, mil Airbus A330 seguían volando por todo el mundo cargados de gente, más todos los demás aviones equipados con sistemas muy parecidos, y seguía sin saberse con ninguna certeza qué los podía matar. Lo único que se pudo hacer por el momento fue cambiar los tubos Pitot del modelo Thales AA, como los que llevaba el AF447, por otro modelo distinto, dado que ese era un problema conocido y además los mensajes ACARS que vimos al final del post anterior parecían apuntar en tal dirección. Pero sin saber lo que pasó, eso y nada es básicamente lo mismo. Podían ser los tubos Pitot o cualquier otra cosa. Sin restos y sin cajas negras y sin investigación técnica, en cualquier momento podía volver a ocurrir y matar a otras doscientas o trescientas o más personas de nuevo. Es lo que tienen la ignorancia y la estupidez, que son peligrosísimas. Con poder, para echarse a temblar. Y mira que había antecedentes, ¿eh? El antecedente. Los genios que idearon lo de mandar al submarino ni siquiera pueden alegar la novedad, porque no era la primera vez que se intentaba. Muchos años atrás, un Jumbo sudafricano acabó en el fondo del Océano Índico con 159 personas a bordo. Fue el vuelo South African 295 de Taipei a Johannesburgo con escala en Isla Mauricio, un Boeing 747244BCombi mixto de carga y pasaje, una de esas cosas de entonces (aunque aún quedan algunos por ahí, si bien en versiones muy modernizadas).
- 47 -
Antonio Cantó
El Boeing 747-244B Combi matrícula ZS-SAS (South African 295) desaparecido en el Océano Índico el 27 de noviembre de 1987. Tras dos meses de búsqueda infructuosa mediante sonar pasivo y otros métodos tradicionales, la compañía Steadfast Oceaneering localizó los restos a 4.900 m de profundidad en apenas 48 horas mediante magnetómetros y sonar de barrido lateral. Foto tomada dos años antes del accidente en Oporto por: Pedro Aragao / airliners.net vía Wikimedia Commons.
El 27 de noviembre de 1987, este vuelo South African 295 declaró una emergencia por humo en cabina y fallo eléctrico a los controladores de Mauricio que se extendió durante 16 minutos. Después, dejó de comunicar. Se había estrellado en el mar unos 250 km al Noreste de Isla Mauricio y mil al Este de Madagascar. Ahí el Océano Índico tiene casi 5.000 metros de profundidad. Como en aquellos tiempos Sudáfrica se hallaba bajo sanciones internacionales por el apartheid, muchas veces se ha dicho que el avión transportaba una carga ilegal de productos químicos militares que se incendió. Lo cierto es que no se sabe con seguridad. Los sudafricanos intentaron primero localizar las cajas negras y con ello los restos del avión mediante sonar pasivo, exactamente igual que Francia 22 años después. Con el mismo éxito: ninguno. Tras dos meses de búsqueda, cuando ya era evidente que las balizas no podían seguir transmitiendo (de hecho, es posible que esas balizas antiguas ni siquiera funcionasen tan hondo), pagaron un pastón para contratar a la empresa Steadfast Oceaneering (ahora Oceaneering International), expertos en rescates de material a gran profundidad.
- 48 -
La Pizarra de Yuri 3
Una avioneta Cessna en el fondo marino tal como se ve con un sonar de barrido lateral bastante antiguo. (Clic para ampliar)
Oceaneering tardó exactamente dos días en localizar buena parte de los restos, a 4.900 metros de profundidad, utilizandomagnetómetros y un primitivo sonar de barrido lateral. A diferencia del sonar pasivo, básicamente hidrófonos que se dedican aescuchar el agua a su alrededor buscando alguna señal en las siempre inciertas condiciones de propagación submarinas, el sonar de barrido lateral es un sistema activo que sirve exactamente para ver el fondo marino. Es decir, la herramienta adecuada para buscar los restos de un avión (o de cualquier otra cosa) cuyas balizas subacuáticas no estás detectando a la primera. O sea, el destornillador para el tornillo. Como te digo, les costó poco más de 48 horas hallar lo que quedaba del South African 295, su carga y sus ocupantes. Pese a que los restos estaban bastante dañados, en dos campos separados entre sí, el 6 de enero de 1988 Oceaneering rescató la grabadora de voces en cabina ( CVR) utilizando unvehículo submarino a control remoto y así la investigación en serio pudo comenzar. Por el contrario, la grabadora de datos (FDR) nunca se encontró. No obstante, entre el análisis de la CVR y el estudio de los demás restos que hallaron pudieron descubrir lo ocurrido con bastante precisión. Muy resumido, el incendio se inició en el compartimiento de carga –no se pudo determinar el punto exacto, debido al grado de desintegración de los restos, pero sí el palé: el primero de estribor–, alcanzando los 600ºC necesarios para fundir una raqueta de tenis de fibra de carbono que se halló derretida. Debido a unas separaciones inadecuadas, el fuego se extendió rápidamente al área de pasaje y terminó dañando tantos sistemas que el avión no pudo más y se estrelló.
- 49 -
Antonio Cantó
Los restos del South African 295 filmados por Oceaneering tras su hallazgo a 4.900 metros de profundidad, en enero de 1988. (Clic para ampliar)
El caso es que podían recuperarse los restos de un avión a gran profundidad desde 1988 por lo menos, incluso mil metros más hondo. Se sabía cómo hacerlo. Sin embargo, esta vez iba a ser más difícil. Mucho más difícil. Vuelven los profesionales. Con material. El IFREMER regresó a mediados de julio de 2009, de nuevo con el Pourquoi Pas?, pero esta vez en mejores condiciones. Es decir, con material más adecuado: un sonar de barrido lateral como el que utilizó Oceaneering para encontrar al South African 295 casi un cuarto de siglo atrás, aunque mucho más moderno. El problema fue que no sabían muy bien dónde buscar. Con las balizas subacuáticas de las cajas negras definitivamente muertas, no tenían ninguna pista. Comenzaron a partir de la última posición conocida del Air France 447 y durante las tres semanas siguientes fueron cubriendo trabajosamente un círculo de 75 kilómetros a su alrededor. Levantaron excelentes mapas del fondo marino… pero no encontraban ni una sola astilla del avión.
- 50 -
La Pizarra de Yuri 3
Contenedores de oxígeno de emergencia para pasaje del AF447 (los que van encima de todos los bloques de asientos). Arriba: Contenedor recuperado en posición cerrada, con deformación coincidente en tapa y cubeta, indicando que no llegó a abrirse. Abajo: Contenedor recuperado en posición abierta, debido al impacto, pero con los tres seguros enclavados. Tal cosa significa que las máscaras de oxígeno no se desplegaron en ningún momento. Esto aporta el dato fundamental de que la cabina no se despresurizó antes del impacto, y permite deducir que no se produjo desintegración en el aire, sino que al menos el fuselaje llegó de una sola pieza y sin peforaciones al mar. Suele ser un fuerte indicador de que un avión no ha sufrido daños estructurales graves antes de estrellarse. Imágenes: BEA, Francia. (Clic para ampliar)
Mientras tanto, gracias al análisis de los restos recuperados en superficie por la Armada Brasileña, empezaban a saberse algunas cosas. Una de ellas, fundamental, es que no hubo despresurización de la cabina antes del impacto: ninguna máscara de oxígeno estaba desplegada. Esta es una de las primeras cosas que se buscan en una investigación, porque indica muy bien si el avión resultó dañado en el aire (en cuanto hay perforación o fractura del fuselaje, hay despresurización y se disparan las máscaras) o por el contrario llegó más o menos de una sola pieza al suelo. Esto es importantísimo, dado que excluye un conjunto enorme de posibles causas. Entre ellas, los tipos más comunes de atentado o derribo: las explosiones e impactos de proyectiles tienden a abrir boquetes en el fuselaje, con la consiguiente despresurización y despliegue de las máscaras. También excluye, por ejemplo, la posibilidad de una gran explosión interna en vuelo como la que mató al TWA800 en 1996. O fallos estructurales severos como el del Aloha 243. Y un montón de cosas más.
- 51 -
Antonio Cantó
El análisis de los restos flotantes recuperados permitió descubrir varias cosas importantes más. En particular, el estudio de los cuerpos practicado por los forenses brasileños. Los cuerpos humanos son magníficos testigos de lo que les ha pasado antes, durante y después de la muerte. Por ejemplo, ninguna de las víctimas (ni de los restos del avión) presentaba quemaduras. Cuando viajas junto a 140.000 litros de combustible de aviación, de los que en ese momento debían quedar aún en torno a 100.000, eso significa que difícilmente se produjo explosión o incendio alguno antes del impacto contra el mar. Todo empezaba a apuntar a que el Air France 447 y sus ocupantes permanecían en buen estado hasta que se estrellaron, un dato esencial. El estudio forense aportó más datos aún. Todas las víctimas murieron instantáneamente o casi, debido a lesiones muy parecidas: fracturas compresivas de pelvis, tórax y columna vertebral con ruptura masiva de los órganos internos por deceleración súbita en el eje vertical, con algo de ángulo hacia atrás y un pelín hacia un lado. O sea: estaban sentadas en sus asientos y cayeron de culo con la espalda inclinada unos 15º hacia atrás. Los pedazos recuperados del avión contaban la misma historia: deformaciones por frenazo repentino de arriba abajo con cabeceo positivo y algo de alabeo. Es decir, que el Air France 447 se estrelló de panza con el morro levantado y un poquito de inclinación lateral. Aunque esto no es determinante, porque el ángulo de impacto puede deberse al azar, insinúa que el avión conservaba alguna clase de control. En caso contrario, suelen caer de cualquier modo: en picado, de cola, con un ala por delante, boca abajo, como sea. Es relativamente raro que un avión incontrolado por completo caiga de panza con el morro levantado como si estuviese aterrizando, si bien a un ángulo y velocidad brutal. Más bien sugiere pérdida de control sobre la altitud, la velocidad y el ángulo de ataque, entre otras cosas, pero no tanto sobre la actitud (de alabeo, cabeceo y guiñada). Sugiere que los pilotos, humanos o automáticos, seguían al mando aún. En estos dos videos podemos ver lo que suele pasarle a un avión cuando hay pérdida total de control: El Tatarstan 363, un Boeing 737-500 procedente de Moscú, se estrella en Kazán (Rusia) el 17 de noviembre de 2013 con 50 personas a bordo. Puede observarse que lo hace en un fuerte picado, a consecuencia de una entrada en pérdida aerodinámica por mala configuración durante un aterrizaje frustrado, que derivó en una pérdida total de control. Accidente del carguero militar estadounidense National Airlines 102, un Boeing 747-428BCF Jumbo con 7 tripulantes a bordo, a la salida de Bagram (Afganistán). Estaba llevándose vehículos militares pesados de vuelta a Dubai. Cinco de ellos se soltaron durante el despegue, dando lugar a un corrimiento de carga con sobredesplazamiento hacia atrás del centro de gravedad y pérdida total de control. Puede
- 52 -
La Pizarra de Yuri 3
observarse que, aunque en este caso viene a caer “de panza”, la actitud de descenso es totalmente incontrolable y podía haber caído en cualquier otra posición.
Áreas barridas durante la 1ª y 2ª fase de la búsqueda del Air France 447 entre el 10 de junio y el 17 de agosto de 2010, sin resultados. Imagen: BEA, Francia. (Clic para ampliar)
Todas estas fueron informaciones muy interesantes y útiles para descartar una montaña de posibilidades. Pero no para saber lo que ocurrió. Y sin saber lo que ocurrió, la seguridad aeronáutica continuaba en entredicho. El 17 de agosto, el Pourquoi Pas? se tuvo que retirar por segunda vez, sin haber encontrado nada. Todos los días, a todas horas, miles de aviones seguían surcando los cielos sin saber si lo que mató al Air France 447 podía matarlos a ellos en cualquier momento también. A la tercera… Y pasaron los meses. Tras la segunda intentona del Pourquoi Pas?, ya nadie sabía muy bien dónde buscar o qué hacer. ¿Podía ser que el AF447 se hubiera desviado enormemente de su ruta antes de estrellarse? ¿O quizá estaría encajonado en el fondo de alguno de los profundos valles submarinos que habían detectado en el sector, a cubierto de los haces del sonar de barrido lateral? ¡Porque todo aquello resultó ser una especie de escarpada cordillera sumergida a miles de metros de profundidad! No estaba fácil, no. Conforme pasaba el tiempo, todo el mundo iba poniéndose más y más nervioso. El gobierno francés, porque lo que convirtieron en asunto de orgullo nacional se había transformado en humillación. Air France-KLM, porque en un contexto de crisis global donde muchas compañías aéreas estaban quebrando, miraba a sus aviones preguntándose cuál de ellos les daría un puntillazo de los malos. Airbus, porque en el peor año de ventas de la industria aeronáutica en década y media, tenía que explicar a - 53 -
Antonio Cantó
sus clientes que bueno, que en fin, que no, que no sabemos por qué se estrelló nuestro avión, ¿cuántos dijo que quería comprar? Sus tripulantes, porque sabían que podían ser los próximos. Y eso sin mencionar a las familias y amistades de las víctimas, que iban pasando de la resignación a la furia, y con sobrada razón. En abril de 2010, diez meses después del accidente, lo intentaron otra vez. La cosa estaba tan caliente que se dejaron por fin de patrioterismos y contrataron a empresas de talla mundial expertas en rescate submarino. Por un lado, a la estadounidense Phoenix International, que acudió con el buque Anne Candies, un sonar avanzado de barrido lateralORION y un vehículo submarino a control remoto (ROV) CURV-21, ambos propiedad de la Armada de los Estados Unidos. Por otro, a la noruega Swire Seabed, con el navío especializado Seabed Worker, tres vehículos submarinos autónomos (AUV) del modelo REMUS-6000 y otro ROV más. Además, consultaron las áreas de búsqueda con oceanógrafos no sólo franceses, sino también británicos, norteamericanos y rusos. Esta vez iban en serio de veras.
El Seabed Worker, un buque noruego especializado en rescate a gran profundidad que se utilizó durante la tercera fase de la búsqueda del Air France 447. Foto: Swire Seabed. (Clic para ampliar)
- 54 -
La Pizarra de Yuri 3
Áreas cubiertas en la 3ª fase de la búsqueda del Air France 447 entre el 2 de abril y el 24 de mayo de 2010, una vez más sin resultados. Imagen: BEA, Francia. (Clic para ampliar)
Ambos buques partieron de Recife (Brasil) el 29 de marzo e iniciaron la búsqueda el 2 de abril, en un área de 4.500 km 2 al Norte de la última posición conocida del avión. Pese a todos sus medios, tampoco encontraron nada. La cosa empezaba a ser desesperante. Para acabar de arreglarlo, cuando regresaron a hacer una parada técnica en Recife el 28 de abril, se encontraron con que la Armada de los Estados Unidos necesitaba que les devolviesen el sonar ORION y el vehículo CURV-21 para una de sus operaciones militares. Y a los dueños de uno de los REMUS-6000, los alemanes del IFM-GEOMAR, también les hacía falta el suyo. La tercera intentona parecía condenada a acabar como las dos anteriores antes siquiera de terminar. Entonces, Airbus y Air France salieron por fin al quite. Vamos, que se sacaron la chequera para financiar otras tres semanas de búsqueda con el material restante y otro sonar lateral. En total, barrieron un área de 6.300 km 2 en distintos sectores al Norte y alrededor de la última posición conocida. Pero una vez más, sin éxito. ¿Dónde demonios estaba ese maldito avión? Y llegaron los científicos. Transcurrió otro año, que se dice pronto. Durante ese tiempo, una de las empresas a las que habían consultado,Metron Scientific Solutions de Estados Unidos, propuso una aproximación innovadora. Bueno, en realidad no tan innovadora, porque era un método que ya se había utilizado para localizar el naufragio del submarino nuclear USS Scorpion, hundido en 1968, o la bomba termonuclear que cayó frente a Almería en 1966.
- 55 -
Antonio Cantó
Metron sugirió un nuevo juego de patrones de búsqueda basado en un método matemático teórico conocido comobusqueda bayesiana, utilizando datos de la BEA francesa y la MAK rusa. Simplificándolo mucho, este es un método estadístico que permite asignar distintas probabilidades a cada cuadrícula de un mapa y dirige la búsqueda de mayor a menor probabilidad, retroalimentándose constantemente a sí mismo. Sobre esta idea, volvieron a intentarlo otra vez más. Y, con algunas lecciones ya aprendidas, en esta ocasión encargaron directamente el trabajo a la Woods Hole Oceanographic Institution de Massachusetts, una universidad y centro de investigación que se cuenta entre los líderes mundiales en ciencias marinas. La WHOI se puso a ello con el yate M/V Alucia y tres vehículos autónomos submarinos REMUS-6000, estudiando un área inicial de 10.000 km 2 en las zonas sin barrer o peor barridas durante las expediciones anteriores. Se hicieron a la mar desde Suape (Brasil) el 23 de marzo. Iniciaron la búsqueda siguiendo esas técnicas bayesianas el 25. Y apenas nueve días después, el 3 de abril de 2011, el Air France 447 apareció por fin:
Campo de restos del Air France 447 tal como fue detectado por uno de los vehículos autónomos REMUS-6000 de la Woods Hole Oceanographic Institution mediante sonar de barrido lateral, el 3 de abril de 2010, utilizando técnicas de búsqueda bayesiana propuestas por Metron Scientific Solutions. Foto: BEA. (Clic para ampliar)
- 56 -
La Pizarra de Yuri 3
Posici贸n de los restos del Air France 447. Puede observarse que los sumergidos se encontraban a apenas 12 km de su 煤ltima posici贸n conocida y 8 km a la izquierda de su ruta de vuelo prevista. Imagen: BEA. (Clic para ampliar)
Mientras la BEA y Air France y todo quisqui convocaban ruedas de prensa y dem谩s, profesionales de todo el mundo se agolparon a mirar. Y se miraron un poco raro, porque la primera sorpresa fue que los restos del Air France 447 no se encontraban entre todas
- 57 -
Antonio Cantó
aquellas montañas submarinas, sino en una suave llanura de limo a unos 3.900 metros de profundidad; a apenas doce kilómetros de su última posición conocida y justo al lado de su ruta de vuelo prevista, un poquito a la izquierda. Habían pasado un montón de veces por encima. Estuvo ahí todo el tiempo, a la vista de cualquiera que mirase bien.
Vista frontal de un reactor del Air France 447 tras su rescate del fondo del mar. Puede observarse a la perfección cómo los álabes de la turbina están fuertemente torcidos, indicando que el motor giraba a toda potencia cuando impactó contra el mar. Foto: BEA. (Clic para ampliar)
La segunda cosa que llamó la atención fue que, salvo por unos pocos fragmentos que habían ido a parar algo más lejos, el campo de restos era muy pequeño: apenas 600 x 200 metros, después de estrellarse con gran violencia y hundirse cuatro kilómetros. Esto confirmó que el Air France 447 hizo impacto contra la superficie de una sola pieza, sin ninguna desintegración significativa en el aire. El avión estaba entero cuando golpeó contra el océano. No sólo eso. La primera inspección visual de los motores, gracias a las imágenes proporcionadas por los vehículos submarinos de la Woods Hole Oceanographic Institution, evidenció que las turbinas giraban a gran velocidad cuando se produjo la colisión. Sus álabes están torcidos de una manera que sólo puede explicarse si los reactores seguían en marcha a toda potencia cuando penetraron en el agua. En cuestión de horas, quedó prácticamente confirmado que el Air France 447 permaneció vivo y peleando hasta el último momento. No era un avión que hubiese sufrido algun gravísimo problema en el aire para luego caer como un ladrillo inerte al mar. Era un avión que continuó operativo, en marcha y al menos parcialmente controlado hasta el instante final. Todo lo cual no hizo sino engordar todavía más el misterio. ¿Qué hace que un avión perfectamente funcional se caiga del cielo así? Francia envió inmediatamente al buque cablero Île de Sein con un vehículo submarino a control remoto Remora-6000para iniciar la recuperación de los restos. Llegó el 26 de - 58 -
La Pizarra de Yuri 3
abril y ya durante la primera inmersión encontró el chasis de la registradora de datos (FDR), pero sin la cápsula de memoria, que hallaron el 1 de mayo. Y al día siguiente, a las 21:50 UTC del 2 de mayo de 2011, apareció la registradora de voz (CVR). Estaba en relativo buen estado, parcialmente hundida en el limo, pero de una sola pieza y con su baliza subacuática, sin nada encima que hubiera podido apantallar la señal. Después se comprobó que estuvo emitiendo pings como debía hasta agotar la pila. Que la primera búsqueda con el submarino y demás no fuera capaz de localizarla sólo evidencia la chapuza que fue.
La “caja negra de voz” (CVR) del AF447 tal como fue localizada en el fondo del mar. Puede observarse que está en bastante buen estado y con su baliza subacuática, que estuvo emitiendo “pings” hasta agotar la pila al menos un mes después del accidente. Imagen: BEA. (Clic para ampliar)
Toda la información de ambas cajas negras se pudo recuperar. Finalmente, todas las partes sustanciales del AF447 fueron localizadas con la siguiente distribución, y rescatadas del fondo del mar junto a (creo que) todos los cadáveres restantes, o lo que quedase de ellos casi dos años después:
- 59 -
Antonio Cantó
Mapa de restos del Air France 447. Imagen: BEA. (Clic para ampliar)
Bueno, y… al final, ¿qué les pasó? Pues como siempre, varias cosas. Prácticamente ya no quedan accidentes aéreos que obedezcan a una sola causa. Este, además, tiene algo de Chernóbil: se origina en un problema de diseño, pero conocido y hasta tenido en cuenta en los manuales y procedimientos, que de modo casi incomprensible resulta agravado por los humanos a los mandos hasta que ya no les salva ni la caridad. Y digo casi incomprensible porque en realidad es muy comprensible, demasiado comprensible, como vamos a ver.
- 60 -
La Pizarra de Yuri 3
Ubicación de los tubos Pitot en un Airbus A330 como el Air France 447. Imagen: BEA. (Clic para ampliar)
El problema de diseño estaba en el sistema detubos Pitot. Los tubos Pitot son un dispositivo que, en combinación con las sondas de presión estática, permiten calcular la velocidad con respecto al aire a la que va un avión: su referencia fundamental de velocidad, la que vale. En el caso particular del Airbus A330, hay tres tubos Pitot (llamadoscomandante, copiloto y standby) más seis sondas de presión estática. La presión registrada en cada uno de estos tubos y sondas es digitalizada por los ADM (Air Data Modules) y procesada por los ADR (Air Data Reference) de unos dispostivos llamados ADIRU (Air data inertial reference unit). Estos ADIRU, en combinación con otros sensores como la unidad de referencia inercial (IR o IRU), proporcionan a los ordenadores del avión y sus pilotos las medidas esenciales de velocidad, ángulo de ataque, altitud, actitud y posición. De los ADIRU dependen un montón de sistemas críticos: los ordenadores de control de vuelo y el fly-by-wire, los de gestión de los motores, los de gestión de vuelo y orientación, el sistema de aviso de proximidad al suelo, eltranspondedor y el sistema de control de flaps y slats. Y, por supuesto, los pilotos, que ya me dirás tú qué van a hacer si no saben su velocidad, ángulo de ataque, altitud, actitud y demás. Como puede comprenderse fácilmente, esto es algo muy importante y en el caso del Airbus A330 va todo por triplicado. Si falla uno o incluso dos, siempre queda uno más. Además, existe otro dispositivo llamado ISIS (integrated standby instrument system) que utiliza sus propios sensores para proporcionar información de respaldo sobre velocidad, altitud y actitud, pero aún depende del tubo Pitot 3 (“standby“) y su correspondiente par de sondas estáticas. De algún sitio tiene que tomar las referencias de presión exterior, no se las puede inventar.
- 61 -
Antonio Cantó
No es ningún misterio que este es un sistema bastante complejo, pero necesario para los ordenadores volantes que son los aviones de hoy en día. En realidad es mucho más seguro y eficiente volar así que a la manera tradicional. Sin embargo, da problemas cuando uno o varios sensores suministran información inconsistente con los demás, normalmente debido a algún fallo técnico. Los ordenadores tienen problemas para saber qué datos son los buenos y cuáles son los malos, así que pueden inducir comportamientos anómalos. Esto había ocurrido varias veces en aviones tanto de Airbus como de Boeing (como por ejemplo el Malaysia 124 en 2005, un Boeing 7772H6ER como el que se ha estrellado este fin de semana, y esto no quiere decir nada por el momento).
- 62 -
La Pizarra de Yuri 3
Da帽os en el interior del vuelo Qantas 72 de Singapur a Perth (Australia), el 7 de octubre de 2008, tras una de estas descoordinaciones del ADIRU que provoc贸 la desconexi贸n del autopiloto y dos fuertes cabeceos no controlados. Se trataba de otro Airbus A330. Hubo 115 personas heridas entre pasaje y tripulaci贸n, con 12 de ellos presentando
- 63 -
Antonio Cantó
lesiones graves en cabeza y columna. La mayoría de esos agujeros que ves en el techo los hicieron las cabezas del pasaje que no llevaba abrochado el cinturón de seguridad. Fotos: Qantas. (Clic para ampliar)
No obstante, parece como si la implementación específica en el Airbus A330 hubiese sido especialmente delicada. Casi todos los problemas “menos leves” se habían dado en aviones de este modelo. Hasta lo del Air France 447 el peor incidente se produjo en el Qantas 72, otro A330, el 7 de octubre de 2008. Durante un vuelo de Singapur a Perth, un fallo en el ADIRU nº 1 provocó la desconexión del piloto automático, falsas alarmas de entrada en pérdida ysobrevelocidad y, lo más grave, dos bruscos cabeceos que hirieron a 115 de los 315 ocupantes, 12 de ellos graves. Más a menudo, el tema se saldaba con una simple desconexión del piloto automático y un rato de datos erróneos hasta que los pilotos humanos se aclaraban. Normalmente, cuando los ordenadores no saben a qué atenerse, lo que hacen es desactivar el piloto automático y pasar el control a manos humanas. El problema era tan común que, salvo en algún caso extremo como el del Qantas 72, no hacía mucho más que levantar alguna ceja. Es llamativo observar cómo cuando el centro de operaciones de Air France en París recibió el chorro de mensajes ACARS del Air France 447 informando de problemas con los Pitot, los ADIRU y demás –lo que vimos al final del post anterior–, simplemente pasó de ellos. Ocurría tan a menudo que no disparó ninguna alerta. Y esta es una de las primeras causas del accidente del AF447: la normalización de una anomalía evidente. El problema no es tanto que si los tubos Pitot hacen tal o el ADIRU deja de hacer cual, sino un “ecosistema humano” que asume y normaliza una anomalía conocida y obvia pero potencialmente muy peligrosa hasta el punto de emitir directivas de aeronavegabilidad(como la FAA 200817-12 y la 2009-0012-E) o redactar procedimientos específicos para cuando se dé el caso. Los problemas del Air France 447 se inician a las 02:10’03” de la madrugada UTC. Ese es el momento en el que sus tubos pitot se congelan, la instrumentación se altera, los ordenadores del avión empiezan a recibir datos contradictorios y hacen lo de costumbre: desactivar el piloto automático (anunciado con una alarma sonora) y reconfigurar el modo de control de vuelo manual a ley alterna. Este es un modo que reduce las limitaciones (protecciones) del piloto, permitiéndole así actuar con mayor libertad. Ni qué decir tiene que eso le da también mayor libertad para meter la pata mucho más a fondo. Y la mete. Nadie sabe muy bien lo que pasó por la cabeza del piloto al mando en ese momento, pero hay dos cosas que están claras. Una que, mentalizados como iban para un tranquilo vuelo transoceánico, este incidente súbito les tomó totalmente por sorpresa,
- 64 -
La Pizarra de Yuri 3
induciéndoles un alto grado de confusión. La segunda, que sobrerreaccionó. La desconexión del autopiloto provocó un alabeo (inclinación lateral) de +8,4º, pero él, al intentar compensarla, levantó excesivamente el morro del avión. Es posible que le confundieran las falsas indicaciones delsistema director de vuelo, también dependiente de los ADIRU. A gran altitud, levantar mucho el morro no es una buena idea. Te elevas rápidamente –el AF447 ascendió a 6.500-7.000 pies por minuto (1.980-2.130 m/min), una barbaridad– pero a costa de la velocidad en una región del aire donde la velocidad es extremadamente crítica, provocando una inmediata entrada en pérdida aerodinámica (stall). Con eso, el avión pierde la capacidad de sustentarse en el aire. La primera alarma de entrada en pérdida suena a las 2:10’10”, apenas siete segundos después de la desconexión inicial del piloto automático. Con eso podemos hacernos una idea de lo rápido y sorpresivo que fue todo. El caso es que ahora el avión se hallaba en una senda y actitud incompatibles con la seguridad del vuelo. Que después de subir se caía, vaya. Sin embargo, aún no estaban ni siquiera cerca de un accidente. La solución habría sido tan sencilla como agachar el morro (picar) para recuperar velocidad y sustentación y reestabilizarse a una altitud inferior. Esto lo sabe cualquiera que haya echado dos partidas al Flight Simulator. Y así lo indica en el informe técnico final: en este momento y durante al menos dos minutos más, habría bastado con descender en actitud morro-abajo de manera sostenida hasta salir de la pérdida y volver a estabilizar el vuelo. El hecho de que dos pilotos profesionales no realizaran una maniobra tan obvia evidencia hasta qué punto quedaron confundidos desde los primeros segundos (hay que recordar que no tenían visibilidad exterior.) De hecho, es posible que pensaran que tenían el problema contrario, de exceso de velocidad, cuyos síntomas se parecen a los de la entrada en pérdida (recordemos también que habían perdido las indicaciones de actitud y velocidad). Existe incluso un procedimiento para esto: el de vuelo con velocidad indicada dudosa, que los pilotos entrenan y practican. Pero claro, en Chernóbil también había decenas de procedimientos y limitadores para impedir que un reactor nuclear con un alto coeficiente de reactividad positiva sufriera, precisamente, un embalamiento por reactividad positiva. Y eso fue exactamente lo que ocurrió, tras muchas horas de manipulaciones insensatas. Si los humanos no siguen los procedimientos, o deciden saltárselos a la torera, o simplemente están demasiado confundidos y desorientados para comprender que se encuentran en esa situación (cosa esta última que pasó tanto en Chernóbil como aquí), pues entonces no sirven para nada porque ni siquiera llegan a ponerse en marcha.
- 65 -
Antonio Cantó
Cuando un avión empieza a irse, no se suele disponer de muchas horas, sino sólo de unos pocos minutos en el mejor de los casos. Es crítico que los pilotos reconozcan la condición de inmediato para poder adoptar el procedimiento que la corrige antes de que todo esté perdido. Normalmente, lo hacen. Por eso casi nunca pasa nada. Sin embargo, en esta ocasión no fue así. Ninguno de los tres pilotos que había en la cabina en ese momento, incluyendo a un veterano comandante de amplia experiencia como Marc Dubois (58 años, 10.988 horas de vuelo, que entró en la cabina poco después), supo reconocer la condición de velocidad indicada dudosa y entrada en pérdida aerodinámica. Me resulta escalofriante, entre otras cosas porque si se hubieran dado cuenta, como te digo, habría sido facilísimo de resolver.
Parámetros seleccionados de la “caja negra de datos” (FDR) del Air France 447 durante los últimos cinco minutos y medio de vuelo. Puede observarse cómo la velocidad computada queda alterada bruscamente al principio del suceso (a las 02:10’10”) y acto seguido se produce un fuerte ascenso que incrementa el ángulo de ataque hasta los 40º, disparando la alarma de entrada en pérdida aerodinámica. Pese a las constantes maniobras de cabeceo, los pilotos nunca fueron capaces de entender lo que sucedía y el ángulo de ataque se mantuvo consistentemente por encima de los 35º hasta estrellarse en el mar. Fuente: BEA. (Clic para ampliar)
El caso es que el avión siguió cayendo, cabeceando con fuerte ángulo de ataque, la panza por delante y una embarullada interacción entre ambos pilotos. La sorpresa, la confusión y los nervios no sólo deterioraron su capacidad para comprender la situación,
- 66 -
La Pizarra de Yuri 3
sino que desestructuraron rápidamente la coordinación en cabina. Un minuto y medio después el comandante que se había ido a descansar regresa alertado por los bruscos movimientos (con aceleraciones verticales de hasta 1,6 g y alabeo) que deben haber despertado y aterrorizado a todo el pasaje. Les pregunta qué hacen, qué pasa. La contestación del piloto no-al mando (Robert) resume el accidente a la perfección: 02:11:43,0 – Qu’est-ce qui se passe? Je ne sais pas, je sais pas ce qui se passe. (…) On a tout perdu le contrôle de l’avion, on comprend rien, on a tout tenté.
¿Qué pasa? No sé, no sé lo que pasa. (…) Hemos perdido totalmente el control del avión, no entendemos nada, lo hemos intentado todo. No entendemos nada. Esa es la explicación (que no la causa) primaria del accidente. Ese es el motivo por el que no hicieron cosas tan obvias que sabe cualquier jugador de videojuegos de aviones. Aparentemente, sin indicaciones de velocidad, no creen que la alarma de entrada en pérdida sea real. Y el retorno del comandante a la cabina no lo arregla en absoluto. Por el contrario, parece inducir aún más nerviosismo y confusión. Hay que decir que en ese momento el avión, después del veloz ascenso provocado por la sobrerreacción inicial del piloto al mando, se encuentra más o menos a la misma altitud a la que estaba cuando él se marchó a descansar. Así que, como no ha visto la secuencia previa de acontecimientos, tampoco tiene motivos para creer que estén en una situación de pérdida aerodinámica (“si estamos en pérdida, ¿cómo es que seguimos a la misma altitud que cuando me fui?”). Saben que están cayendo, saben que llevan los motores acelerados a potencia de despegue (TO/GA), saben que cabecean con un ángulo de ataque letalmente alto pero en apariencia no se les ocurre en ningún momento querealmente están en pérdida completa a pesar de que las alarmas de stall y otras más no paran de sonar (se ha sugerido que el exceso de alarmas sonoras en la cabina incrementó la confusión) y que el avión batanea (se sacude) sin cesar. En realidad, parecen mucho más concentrados en impedir que les alabee (que se les incline de lado). El avión está yéndose a estribor y describiría casi tres cuartos de vuelta antes del impacto. Ahora con los tres pilotos en cabina, el Air France 447 cae por debajo del nivel 315 (31.500 pies, 9.600 m) sobre las 02:12. En ese momento el ángulo de ataque es de 40º, descendiendo muy deprisa, y eso ya no tiene tan fácil solución. En palabras del informe final de la BEA, a partir de ahí “sólo una tripulación extremadamente resuelta con una buena comprensión de la situación podría haber realizado una maniobra que quizá hubiera permitido recuperar el control de la aeronave. En la práctica, la tripulación
- 67 -
Antonio Cantó
había perdido casi por completo el control de la situación” y así siguió siendo durante otros dos minutos y dieciocho segundos más. El avión es una batidora que cabecea sin parar. El ángulo de ataque ya jamás volvió a bajar de 35º. Las penúltimas palabras registradas en la CVR, pronunciadas por el copiloto Pierre Cédric-Bonin, dejan poco margen a la duda: 02:14:23,7 – (!) On va taper. C’est pas vrai. Mais qu’est-ce qui se passe?
Memorias de la registradora de voces en cabina (CVR) del AF447, recuperadas del fondo del mar, tras retirarles los blindajes y protecciones. Toda la información se pudo recuperar. Foto: BEA. (Clic para ampliar)
¡Nos vamos a estrellar! Esto no puede ser verdad. ¿Pero qué está pasando? Continuaban sin comprender nada. Pierre apenas había acabado de decir estas palabras cuando el Air France 447 con todas sus 228 vidas se estrelló violentamente contra el océano, de panza y con la cola por delante, siendo exactamente las 02:14:28,4 de la madrugada del 1 de junio de 2009. Fin de la grabación. El informe final de la BEA lo explica así (las negritas y corchetes son míos, el resto es traducción directa del original):
- 68 -
La Pizarra de Yuri 3
3.2. Causas del accidente. La obstrucción con cristales de hielo de los tubos Pitot era un fenómeno conocido pero poco comprendido por la comunidad aeronáutica en el momento del accidente. Desde una perspectiva operacional, la pérdida total de información sobre la velocidad con respecto al aire que resultó de este suceso era un fallo clasificado [previsto] en el modelo de seguridad. Tras unas reacciones iniciales que dependen de habilidades de pilotaje básicas, se esperaba que [la situación] fuese diagnosticada rápidamente por los pilotos y gestionada en lo que fuese preciso mediante medidas de precaución sobre la actitud de cabeceo y el empuje, tal como se indica en el procedimiento asociado. Cuando se produjo este fallo en el contexto de un vuelo en fase de crucero, sorprendió por completo a los pilotos del AF447. Las dificultades aparentes con el manejo del avión a gran altitud entre turbulencias condujeron al piloto al mando a levantar el morro bruscamente y alabear en exceso. La [subsiguiente] desestabilización ocasionada por la senda de vuelo ascendente y la evolución en la actitud de cabeceo y la velocidad vertical se añadió a las indicaciones de velocidad erróneas y los mensajes ECAM, lo que no ayudó con la diagnosis. La tripulación, desestructurándose progresivamente, probablemente nunca comprendió que se enfrentaba a una “simple” pérdida de tres fuentes de información sobre la velocidad con respecto al aire. En el minuto que siguió a la desconexión del autopiloto, el fracaso de los intentos por comprender la situación y la desestructuración de la cooperación entre tripulantes se realimentaron hasta alcanzar la pérdida total del control cognitivo de la situación. (…) El avión entró en una pérdida sostenida, señalada por la alarma de entrada en pérdida y un fuerte bataneo [sacudidas]. Pese a estos síntomas persistentes, la tripulación nunca entendió que habían entrado en pérdida y en consecuencia nunca aplicaron la maniobra de recuperación. La combinación de la ergonomía de diseño de las alertas, las condiciones en las que los pilotos de aerolínea son entrenados y expuestos a pérdidas durante su formación profesional y el proceso de entrenamiento recurrente no genera el comportamiento esperado con ninguna fiabilidad aceptable. En su forma actual, dar por buena la alarma de entrada en pérdida, incluso cuando está asociada al bataneo [sacudidas], supone que la tripulación otorga un mínimo nivel de “legitimidad” [credibilidad] a la misma. Esto presupone una experiencia previa suficiente con las entradas en pérdida, un mínimo de disponibilidad cognitiva y de compresión de la situación, conocimiento de la aeronave (y sus modos de protección) y
- 69 -
Antonio Cantó
su física de vuelo. Un examen del entrenamiento actual para los pilotos de aerolínea, en general, no aporta indicaciones convincentes de que se formen y mantengan las habilidades asociadas.
La tormenta convectiva en la Zona de Convergencia Intertropical que atravesaba el Air France 447 cuando se le congelaron los tubos Pitot, poniendo así en marcha el accidente. No obstante, esto es algo habitual y de hecho en ese mismo momento volaban por la zona otros doce aviones más que no tuvieron ningún problema, entre ellos el Air France 459, que venía detrás. Imagen: BEA. (Clic para ampliar)
Más generalmente, el doble fallo de las respuestas procedimentales planeadas pone de manifiesto los límites del modelo de seguridad actual. Cuando se espera que la tripulación actúe, siempre se supone que serán capaces de tomar inicialmente el control de la senda de vuelo y realizar una rápida diagnosis que les permita identificar el epígrafe correcto en el diccionario de procedimientos. Una tripulación puede verse enfrentada a una situación inesperada que les lleve a una pérdida de comprensión momentánea pero profunda. En este caso, su supuesta capacidad para dominar [la situación] al inicio y después realizar la diagnosis se pierde, y el modelo de seguridad queda entonces en “modo de fallo general.” Durante este accidente, la incapacidad inicial para dominar la senda de vuelo les hizo también imposible entender la situación y acceder a la solución planeada. Por tanto, el accidente fue el resultado de:
- 70 -
La Pizarra de Yuri 3
•
• • • • •
Una inconsistencia temporal entre las mediciones de velocidad con respecto al aire, a consecuencia de la obstrucción de los tubos Pitot con cristales de hielo que, en este caso particular, causaron la desconexión del piloto automático y la reconfiguración del [control de vuelo] a ley alterna; [La aplicación de] acciones de control inapropiadas que desestabilizaron la senda de vuelo; La incapacidad de la tripulación para establecer un vínculo entre la pérdida de las velocidades indicadas y el procedimiento apropiado; La identificación tardía por parte del piloto no-al mando del desvío de la senda de vuelo, y la insuficiente corrección aplicada por el piloto al mando; La incapacidad de la tripulación para identificar la aproximación a la entrada en pérdida, su falta de respuesta inmediata y el abandono de la envolvente de vuelo; La incapacidad de la tripulación para diagnosticar la entrada en pérdida y, como resultado, la ausencia de las acciones que les habrían permitido recuperarse de la misma;
- 71 -
Antonio Cantó
Arriba: recuperación de la grabadora de voces en cabina (CVR) del Air France 447 por el cablero Île de Sein y un robot subacuático Remora-6000 el 2 de mayo de 2011. Abajo: preparación para su transporte al laboratorio de análisis. Puede observarse cómo la conservan en agua salada, de tal modo que sufra las mínimas alteraciones adicionales posibles hasta su llegada al laboratorio. Fotos: BEA (Clic para ampliar)
Estos sucesos pueden explicarse mediante una combinación de los siguientes factores: •
Los mecanismos de retroalimentación [de información] por parte de todos los implicados [el conjunto del sistema humano, no sólo los pilotos] que hicieron imposible:
- 72 -
La Pizarra de Yuri 3
Identificar que, repetitivamente, no se estaba aplicando el procedimiento para la pérdida de información sobre la velocidad con respecto al aire y remediarla. o Asegurar que el modelo [de gestión] de riesgos para tripulaciones incluía la congelación de los tubos Pitot y sus consecuencias. La ausencia de entrenamiento para el pilotaje manual a gran altitud y en el o
• •
•
•
procedimiento de “vuelo con velocidad indicada dudosa.” Una [coordinación] de tareas debilitada por: o La incomprensión de la situación cuando el piloto automático se desconectó. o La pobre gestión del efecto sorpresa que indujo un factor de alta carga emocional en ambos copilotos. La ausencia de un indicador claro en cabina que mostrase las inconsistencias en la velocidad con respecto al aire identificadas por los ordenadores. La tripulación que no tuvo en cuenta la alarma de entrada en pérdida, lo que pudo deberse a: o Incapacidad para identificar la alarma sonora, debido al poco tiempo de exposición durante el entrenamiento a los fenómenos de entrada en pérdida, alarmas de entrada en pérdida y bataneo [sacudidas]. o La aparición al principio del suceso de alertas transitorias que pudieron considerarse espurias. o La ausencia de ninguna información visual que confirmase la aproximación a entrada en pérdida tras la pérdida de los límites de velocidad. o La posible confusión con una situación de exceso de velocidad, para la que el bataneo también se considera un síntoma. o Indicaciones del sistema director de vuelo que pudieron conducir a la o
tripulación a creer que sus acciones eran apropiadas, aunque no lo eran; y La dificultad para reconocer y comprender las implicaciones de una reconfiguración [del modo de vuelo] a ley alterna sin protección de ángulo de ataque.
O sea (y esto ya lo digo yo): 1.
El diseño e implementación del sistema de tubos Pitot/ADR/ADIRU en el Airbus A330 era problemático, un hecho conocido y normalizado. Tanto es así, que el centro de operaciones de Air France en París ignoró los mensajes ACARS transmitidos automáticamente por los ordenadores del AF447 desde el Atlántico porque sucedía a menudo sin mayores consecuencias. - 73 -
Antonio Cantó
2.
3.
4.
5.
6.
7.
El avión se encontraba fuera del alcance de los radares terrestres y en la práctica sin servicio de control de tráfico aéreo, o con el mismo reducido a un mínimo, pero esto era el procedimiento estándar en ese tramo de su ruta. No tuvo ningún efecto sobre los acontecimientos. La noche y el estado de la meteorología degradaban severamente o impedían la orientación natural de los pilotos (con sus ojos, vamos). Operaban por completo bajo condiciones de vuelo instrumental (“a ciegas”) y por tanto dependían totalmente de la fiabilidad de los instrumentos del avión. Pese a ello, las condiciones no eran peligrosas y de hecho había otros vuelos circulando con normalidad por la misma ruta u otras próximas. El Air France 447 operaba de manera estándar sin violar ninguna norma de seguridad aérea, orientado instrumentalmente, por su ruta, altitud y velocidad previstas. Ni la aeronave, ni la tripulación ni sus procedimientos presentaban ningún problema específico. Súbitamente, al congelarse los tubos Pitot, se produjeron diversos acontecimientos simultáneos (desconexión del piloto automático, reconfiguración del control de vuelo a ley alterna con la consecuente pérdida de protecciones y limitaciones, indicaciones anómalas en los instrumentos…) que tomaron completamente por sorpresa a los pilotos, mentalizados en ese momento para un largo vuelo de crucero a gran altitud. El avión no sufrió ningún otro problema técnico. Todos sus demás sistemas siguieron operando perfectamente hasta el momento del impacto final. Sus ordenadores comenzaron a transmitir automáticamente mensajes ACARS notificando las anomalías al centro de operaciones de Air France en París y siguieron haciéndolo hasta los momentos anteriores a la colisión. La tripulación técnica (los pilotos) no estaba bien formada para el vuelo manual a gran altitud en este tipo de circunstancias anómalas, sobre todo bajo el efecto de la sorpresa. El entrenamiento al respecto era inadecuado, insuficiente y no cubría
numerosas posibilidades realistas. 8. La instrumentación de cabina no incluía ningún indicador claro que permitiera a los ordenadores comunicar a los pilotos la pérdida de sincronía entre los datos procedentes de los tubos Pitot, lo que habría clarificado bastante la situación. 9. Debido a la sorpresa y al entrenamiento inadecuado, la pobre reacción inicial del piloto al mando llevó al avión a una actitud anómala incompatible con la seguridad del vuelo a gran altitud. 10. La veloz sucesión de estos hechos indujo a los pilotos un intenso estado psicológico de confusión y ofuscación con fuerte carga emocional. El rápido regreso del comandante a la cabina desde el área de descanso, aunque sin duda inspirado por un recto sentido de la responsabilidad, no tuvo ninguna utilidad
- 74 -
La Pizarra de Yuri 3
práctica y sólo sirvió para aumentar aún más la confusión, en la que él también cayó. 11. Este estado de ofuscación degradó rápidamente sus capacidades cognitivas y la coordinación entre ellos, llegando al extremo de no reconocer o reaccionar a algunas indicaciones obvias y tomar acciones contradictorias, mientras creían seguir actuando racional y coordinadamente. 12. Debido a todo esto, cuando el avión entró en pérdida aerodinámica (“comenzó a caerse”) por causa de su actitud de vuelo anómala, los pilotos no creían que estuviese sucediendo realmente pese al disparo de la alarma sonora de entrada en pérdida y las características sacudidas (bataneo) que la acompañan, pero que también pueden darse en otras condiciones como el exceso de velocidad. 13. Durante los cuatro minutos y veinticinco segundos que transcurrieron desde la desconexión inicial del piloto automático hasta el impacto final contra el mar, el estado de confusión y ofuscación de los pilotos no hizo sino incrementarse con el nerviosismo. Ninguno de ellos mostró indicios de comprender la situación real del avión o la severa degradación de su propio estado cognitivo. Todos creían estar haciendo lo correcto en un estado psicológico tenso pero bien ajustado y normal. Aparentemente en ningún momento se sintieron compelidos a sobreponerse, pues no percibieron que hubiera nada a lo que sobreponerse, sino que tan solo debían resolver la situación técnica a la que se enfrentaban. 14. Como consecuencia de todo lo anterior, los pilotos nunca llegaron a entender lo que estaba sucediendo, el conjunto de sus reacciones fue inadecuado y el avión acabó por estrellarse en el mar, matando a todos sus ocupantes de manera instantánea o prácticamente instantánea. La mayor parte de sus restos acabaron sumergidos a gran profundidad. 15. El “ecosistema humano” que envolvió al accidente no permitía la identificación y resolución eficaz de estas deficiencias y de hecho era bastante pasivo con las mismas.
- 75 -
Antonio Cantó
El primer oficial Pierre Cédric-Bonin con su esposa. Esta es su verdadera foto y cualquier otra “graciosilla” que hayas podido ver por ahí, además de no ser él, es cosa de mamarrachos ignorantes como piedras. Foto: © Associated Press.
Así que ya ves. Ni un piloto idiota, como pretendieron algunos desalmados, incluso con fotitos de pésimo gusto (además de falsas) que me niego a enlazar; ni un comandante entretenido con una azafata como dijeron otros –claro, un comandante francés, qué iba a estar haciendo, jiji, jaja>:-( –, ni ninguna otra simpleza por el estilo. Como siempre en el mundo real, fue todo mucho más complejo y difícil. Desde mi punto de vista, de todas las causas del accidente definidas por la investigación técnica, doy la mayor importancia a dos: las notables deficiencias en el entrenamiento de los pilotos de Air France (y probablemente de muchas otras compañías) en esos momentos y la inexistencia de mecanismos eficaces para detectar numerosos problemas humanos y técnicos y corregirlos. En mi opinión, el problema con los tubos Pitot fue secundario por mucho que iniciara la secuencia de acontecimientos que condujo al accidente. Como cualquier otra máquina fabricada por manos humanas, un avión en vuelo puede tener un problema con los tubos Pitot o con cualquier otra cosa. Precisamente para eso están los pilotos. Hoy en día o en breve plazo, el estado de la técnica permitiría tener aviones totalmente automáticos, sin pilotos, como los UAVmilitares. Mantenemos y con bastante seguridad mantendremos pilotos durante mucho tiempo justamente por si la técnica falla, por si la situación se sale de la envolvente de diseño concebida por los ingenieros. Para cuando todo sale mal, porque aún no sabemos hacer máquinas que reaccionen igual o mejor que un humano en tales circunstancias. Se dice a veces que un piloto (o un conductor de cualquier otro transporte público) se gana todo el sueldo de su carrera en diez segundos malos, y es
- 76 -
La Pizarra de Yuri 3
verdad. Diez segundos, o cuatro minutos y medio, pueden ser la diferencia entre la vida y la muerte para decenas o cientos de personas.
Arriba: Simulador de vuelo CAE 7000 con control en todos los ejes para el Boeing 747-8F Jumbo. Abajo: Interior de un simulador de la misma compañía para el Airbus A320. Este tipo de formación puede llegar a ser costosa y consumir mucho tiempo de trabajo, pero es totalmente fundamental porque permite entrenar al piloto para situaciones extremas que difícilmente se dan en la realidad… hasta que se dan. Fotos: CAE Inc. (Clic para ampliar)
Pero para eso tienen que estar bien entrenados, y los pilotos del Air France 447 no habían sido bien entrenados. El “ecosistema” les traicionó. Tal entrenamiento, sobre todo cuando se realiza con simuladores realistas y ya no te digo con vuelo real, es caro y consume mucho tiempo durante el que el piloto “no está produciendo.” Así que siempre existe una presión para recortarlo o rebajarlo de cualquier otra manera. Es fundamental para la seguridad aérea que estas presiones no tengan éxito, por muy nerviosos que se pongan los contables. - 77 -
Antonio Cantó
Porque un personal insuficientemente entrenado, como los pilotos del AF447 o los operadores de Chernóbil, puede provocar el efecto opuesto: convertir un problema técnico conocido y documentado, y en el caso del AF447 relativamente menor, en una catástrofe. El accidente del AF447 no se inicia cuando se congelan los tubos Pitot, sino cuando el piloto al mando queda totalmente sorprendido y reacciona mal, sacando rápidamente al avión de la envolvente de vuelo seguro. Pero aún en ese momento podrían haberse salvado. Tuvieron casi cuatro minutos y medio antes de estrellarse. Al igual que en Chernóbil, la causa esencial del accidente fue la inmediata degradación cognitiva y la desestructuración rápida de la coordinación que se produjo como resultado de la sorpresa, la confusión y los nervios, a su vez consecuencia de un entrenamiento inadecuado. Incluso aunque hubiesen hecho algo bien, habría sido por casualidad, como en “…sonó la flauta por casualidad.” Resulta imposible acertar si no sabes lo que está ocurriendo, si estás totalmente confundido y obcecado y ni siquiera eres consciente del hecho. Los seres humanos reaccionamos fatal ante la sorpresa y la acumulación rápida de tensión. Desde tiempo inmemorial, todo soldado sabe lo eficaces que son los ataques por sorpresa, cuanto más violentos mejor, precisamente porque confunden y obcecan al enemigo de tal modo que para cuando quiere reaccionar, ya ha sido derrotado. La única forma de evitarlo es, precisamente, un entrenamiento estricto, minucioso, motivador y eficaz que prevea el caso. El entrenamiento que no tuvieron los pilotos del Air France 447. Así, sufrieron un ataque por sorpresa de las circunstancias y ya no fueron capaces de reaccionar, atrapados entre el cielo y el mar. Más que ninguna otra cosa, eso fue lo que se los llevó y a las otras 225 personas que iban con ellos, también. Pues como es sabido desde muy viejo, del cielo y del mar no cabe esperar piedad. *** NOTA IMPORTANTE: El accidente del Air France 447 y el del Malaysia Airlines 370 ocurrido este fin de semana, pese a todas sus similitudes aparentes, pueden obedecer a causas y circunstancias radicalmente distintas. Extrapolar conclusiones del uno al otro es una mala idea, al igual que formular conjeturas u opiniones antes de que se complete la investigación técnica. Nadie sabe todavía lo que le ha pasado al MH370, tardará algún tiempo en saberse y quien pretenda lo contrario, o miente o desconoce la profundidad de su ignorancia. Esta misma regla es aplicable a cualquier otro accidente de aviación y a todos los siniestros tecnológicos complejos en general. Muchas veces, incluso a los aparentemente simples, que luego resulta que no lo eran tanto. ***
- 78 -
La Pizarra de Yuri 3
A la pregunta: ¿Es seguro volar en un Airbus A330? Yo diría que sí, y de hecho yo mismo lo elijo si se da el caso. Precisamente, el éxito de la investigación técnica permitió introducir los cambios necesarios tanto en sus sistemas ADIRU como en la formación de los pilotos, de tal modo que es muy difícil que el mismo tipo de accidente pueda repetirse en este modelo. Me atrevería a decir que ahora antes sucedería en cualquier otro avión que en un A330, por lo demás una aeronave excelente. Justamente para eso sirven las buenas investigaciones técnicas: para corregir los problemas y así salvar incontables vidas futuras.
- 79 -
Antonio Cantó
Air France 447: Buscando cajas negras a 4.000 metros de profundidad (1) Yuri, el 2 de marzo de 2014 @ 7:48 · Categoría: Sociedad y civilización, Tecnología
Y con montañas submarinas, y tiburones, y de todo. Quizá recuerdes que el 1 de junio de 2009 ocurrió una catástrofe aérea que nos dejó helados a todos. Quiero decirespecialmente helados, porque los grandes aviones de hoy en día no se caen de los cielos sin más. Que no, que no, que ni en broma. Que un gran avión de pasajeros desaparezca por las buenas es cosa de los viejos tiempos. Y sin embargo, eso fue exactamente lo que le pasó al vuelo regular Air France 447 de Río a París, un moderno Airbus A330-203 con apenas cuatro años y pico de antigüedad y 228 personas a bordo. Así, tal cual.
El avión del vuelo Air France 447, un Airbus A330-203 con matrícula F-GZCP. Fotografía tomada en el aeropuerto París – Charles de Gaulle dos años antes de su desaparición. Foto: Pawel Kierzkowski vía Wikimedia Commons.
A ver, lo primero para los puristas (como yo): sí, ya sé que caja negra se pone en cursiva, porque en realidad se llaman grabadoras o registradoras de vuelo y tal. Pero es que esto no permite poner cursivas en el título y me sobraban las comillas. En los aviones suele haber dos, como mínimo: la grabadora de voz en cabina de vuelo (cockpit voice recorder, CVR) y la grabadora de datos de vuelo (flight data recorder, FDR). La
- 80 -
La Pizarra de Yuri 3
última vez que lo miré eran obligatorias, por EU OPS, en todas las aeronaves multiturbina, con capacidad para más de 9 pasajeros o con peso máximo al despegue superior a 5.700 kg, y deben cumplir la norma EUROCAE ED-112.
Arriba: una grabadora de voz de cabina de vuelo (“caja negra de voz”, CVR). Registra las comunicaciones con el exterior y todos los sonidos de cabina a través de un sistema de micrófonos y una derivación de las radios. Al medio: una grabadora de datos de vuelo (“caja negra de datos”, FDR). Según modelos, almacenan entre decenas y cientos de parámetros del avión, desde la altitud hasta la configuración de los motores, a través de las unidades de adquisición de datos de vuelo (FDAU). Antiguamente grababan en cinta, pero ahora lo hacen en memorias de estado sólido (abajo, una SSFDR -solid state FDR-) con protecciones adicionales de extrema resistencia. Resisten impactos de 3.400 g, incendios de 1.100ºC durante 1 hora seguido de otro de 260ºC durante 10 horas, pueden permanecer sumergidas en agua o cualquier otro medio hasta 6.000 metros de profundidad durante 30 días y muchas otras cosas. Las “cajas negras” son en realidad de color naranja chillón para facilitar su localización entre los restos de un accidente. Fotos: NTSB / Meggar vía Wikimedia Commons y BAE. (Clic para ampliar)
Esto quiere decir que la gran mayoría de avionetas y pequeños helicópteros, por ejemplo, no suelen llevar (las grabadoras son caras y pesadas, así que resultan
- 81 -
Antonio Cantó
difícilmente compatibles con las aeronaves ligeras). Por el contrario, todos los jetliners de pasajeros cargan ambas y en ocasiones, también cosas más avanzadas como las QAR. En aviones de combate y eso, lo que mande la superioridad para cada país. Normalmente se montan en la cola, lejos de los puntos de impacto primarios más típicos, de los grandes depósitos de combustibles situados en las alas y protegidas por las fuertes estructuras que sujetan los timones y otras cosas sólidas. Este hecho y alguna evidencia estadística circunstancial (basada únicamente en accidentes investigados por la NTSBestadounidense) hace pensar a algunos que la mítica parte más segura de un avión es exactamente esa, la cola. Claro que cada vez que alguien dice esto, sale un accidente a desmentirle. En el mundo real, la diferencia es mínima. Tus (y mis) probabilidades de supervivencia en caso de accidente aéreo dependen sobre todo de la naturaleza del mismo y la manera como esté construida tu aeronave en particular. Una de las leyes de hierro de la aviación dice que, desde que una persona acompañó a otra a los cielos, a bordo de las máquinas de volar vamos todos juntos desde el señor comandante hasta el último bebé y o volvemos todos juntos, o sólo vuelven quienes decida el azar. Desde hace ya muchos años, las cajas negras no sólo van a bordo de los aviones. También se encuentran, por ejemplo, en gran cantidad de instalaciones terrestres, como los centros de control de tráfico aéreo. Y en muchos otros sitios que no tienen nada que ver con la aviación, desde los trenes hasta instalaciones críticas como las centrales nucleares (cada cual según sus propias necesidades, como es de suponer). La idea de que en el peor de los casos siempre quede un testigo objetivo, insobornable e inconfundible para contarnos lo que pasó y evitar así que vuelva a ocurrir es ciertamente brillante. Resulta imposible saber cuántas vidas se han salvado gracias a eso pero yo no tengo la menor duda de que son millones. Es por eso que las personas que trabajan bajo su ojo implacable no oponen mucha discusión. Bueno, y porque va con el curro, claro. No te creas, representa una grave cesión de la privacidad personal. ¿A ti te haría alguna gracia que tus hijos, o tus padres, o quien te importe en esta vida pudieran oírte morir maldiciendo porque algún hideputa le ha filtrado la grabación a un Murdoch cualquiera?
- 82 -
La Pizarra de Yuri 3
Grabadoras recuperadas del avión presidencial 101 de la Fuerza Aérea de Polonia, un Tupolev 154M, que se estrelló en Smolensko (Rusia) el 10 de abril de 2010 con la muerte de todos sus ocupantes. Como puede verse, estas eran todavía grabadoras soviéticas antiguas de cinta. La práctica totalidad de las voces y datos datos fue recuperada en las instalaciones del MAK de Moscú. Foto: Comité Interestatal de Aviación MAK, Rusia. (Clic para ampliar)
Que a veces ha ocurrido, ¿eh? Que una cosa es la transcripción, que en muchos países es un documento público de la investigación y a veces ya son duras, ya, pero tira que te vas, no se puede evitar y son útiles para aprender. Y otra muy distinta, la grabación. Imagínate a tu abuelo favorito, ese que está tan delicado de salud, o a tu hija pequeña escuchándola porque anda por ahí subida por Internet y no se han podido resistir, que son las últimas palabras de su papá adorado o su nieto favorito o su mejor amigo, joder, a ver quién no se obsesiona con eso. Este que te escribe opina que una vez finalizadas las investigaciones deberían destruirse todas las copias del audio por ley salvo que las familias de quienes salgan en ellas quieran una. Ya no le sirven a nadie para nada ético y sólo pueden causar dolor. Al grano. A decir verdad las cajas negras también resultan un poquito inquietantes para muchos otros porque, claro, cada vez que una aeronave aterriza en más de un trozo hay otra caja que empieza a sumar. Es una caja registradora. Y no sabes –bueno, a lo mejor sí– lo muy deprisa que pueden empezar a acumularse los ceros a la derecha. Para empezar, el avión, que puede costar desde unos pocos millones para los más viejos y pequeños hasta varios cientos en el caso de los más grandes y nuevos. Por ejemplo, unAirbus A330 como era el Air France 447 no baja de 165 millones de euros, nuevo. Cualquier 320 de estos de ir a por el pan se te puede poner en 68 millones. Y un 380 gigantón, de los que no se ha estrellado nunca ninguno, y esperemos que jamás lo haga, se te puede subir a la parra hasta los 300 millones. Boeing anda con unos precios muy parecidos para lo que ofrece. Ya sabes, es un mercado, hay competencia.
- 83 -
Antonio Cantó
Arriba: Una de las legendarias suites de Primera Clase en los Airbus A380 de Emirates. Sí, eso es un avión y se puede viajar así si tienes la pasta. Abajo: Un bebé duerme en la clase única de una low-cost, en este caso Ryanair, con este que te escribe sentado detrás. En los aviones volamos gentes de todo pelaje, algunas muy, muy humildes y otras que pueden llegar a costar muchísimos millones hasta después de muertas. Pero la ley de hierro de la aviación viene a decir que a los cielos subimos todos juntos y o bajamos todos juntos o de ahí arriba no vuelve ni Dios. Fotos: Emirates / La Pizarra de Yuri (Clic para ampliar)
Por ahí andan también los seguros de vida de quienes van a bordo, que puede oscilar desde el mínimo obligatorio de la inmigrante que iba a ver a su primer nieto con el pasaje de clase turista más económica hasta los múltiples y multimillonarios de ese financiero tan importante que viajaba en primera tomando Dom Pérignon, pasando por
- 84 -
La Pizarra de Yuri 3
mucha gente como tú y como yo. Que quien más y quien menos, además del obligatorio de viaje, ha pagado el billete con la Visa (lo que muchas veces incluye un seguro de viaje adicional), tiene el personal de la hipoteca por ahí y una cosita que se hizo para los hijos una vez, por si las moscas. En un país desarrollado, cada difunto cuesta como poco medio millón de media, más los gastos. Y si quedan heridos o inválidos o eso, pues a pagar atención médica e indemnizaciones varias para los restos. Luego están los seguros de equipaje y carga, que pueden subir otro pico, y eso suponiendo que el avión no transportase algún objeto realmente valioso. Cosa que no es tan rara. Cuando un objeto es muy valioso y no muy pesado o voluminoso, sale muy a cuenta y muy seguro mandarlo por avión, o incluso que un segurata de fiar lo lleve encima. Yo me sé de algún paquete de diamantes de los buenos que acabó en una marisma con los piedros esparcidos por el cieno a lo largo de varios kilómetros junto con el resto del avión y quienes iban dentro, en pleno Tercer Mundo. Porque claro, entre dos paraísos de primerísimo Primer Mundo muchas veces hay subcontinentes enteros de Tercer Mundo. En ocasiones, hasta las mismísimas alambradas de la frontera esa desde donde los de siempre defienden a los de siempre contra los de siempre. A veces pasa que a tus diamantes como bellotas les da por acabar al otro lado de la alambrada. Ve y busca. Otras veces hay océanos y cosas así. El caso es que ya te puedes imaginar cuántos se recuperaron. Me han dicho que al del seguro diamantífero le entró como una risa tonta cuando vio la nota. Así como con un tic, ¿sabes o qué? Ahora suma las indemnizaciones por daños en tierra, si los ha habido. La investigación, que algunas se te pueden poner en treinta millones o más. Los costes jurídicos, porque va a haber juicios, y muchos y muy caros. Las pérdidas de rentabilidad futura. Los intangibles. Y alguien va a tener que pagar todo eso. Imagínate qué facturón. Alguna vez en que las cosas se complicaron y hubo años de juicios intercontinentales, demandas tejidas y fuertes indemnizaciones, pasó de mil millones. Sí, de euros, claro.
- 85 -
Antonio Cantó
Un go-team brasileño recupera la grabadora de datos del vuelo 1907 de Gol Transportes Aéreos, un Boeing 737-8EH que se estrelló en la selva del Mato Grosso el 29 de septiembre de 2006, tras una colisión aérea con un jet privado Embraer Legacy. El Boeing se desintegró en el aire y cayó a plomo sobre la selva desde 37.000 pies de altitud, pereciendo las 154 personas que iban a bordo. No obstante, puedes observar que la “caja negra” sólo presenta unas abolladuras en la cubierta exterior. Así de duras son. Foto: Alessandro Silva / Força Aérea Brasileira vía Wikimedia Commons. (clic para ampliar)
Pack de memoria interno de una grabadora de vuelo con sus protecciones puestas. Foto: Jeffrey Milstein – www.jeffreymilstein.com
- 86 -
La Pizarra de Yuri 3
Por cierto, una cosita. Que vamos, que supongo que sobra decirlo, y más a ti, ¡qué tonterías tengo! Pero si alguna vez por una de aquellas que pasan en la vida te encuentras una cosa de estas por ahí, no se te vaya a venir ninguna idea rara a la cabeza. Lo de NE PAS OUVRIR – DO NOT OPEN, o sea NO ABRIR, o sea no manipular de ninguna manera, va en serio. Serio como una cárcel. Llamas a la autoridad pública que te merezca más confianza y se lo comunicas sin tocarla. Si puede ser y no hay peligro, te quedas al lado cuidándola para que nadie le meta mano. Y si no hay ninguna autoridad pública disponible, pero ninguna, tipo área blanca en zona de guerra, entonces, y sólo entonces, la llevas con mucho cariño a un lugar donde la haya lo antes posible. Cuando la tengas en las manos, recuerda que ahí dentro van muchas vidas futuras en juego. Que yo ya sé que tú no vas a hacer nada raro, vamos, ni de coña. Está claro que tú no eres la clase de miserable hideputa o la piedra ignorante que hay que ser para andar jodiendo con una caja negra. Fijo que tú eres buena gente y con cabeza y estarás diciendo “el Yuri este, que cósas tiene” con toda la razón. Pero por si no habías caído y eso. Si por ejemplo tienes hijos o alumnos o esas cosas, también se lo puedes contar. Bien. Idealmente, la investigación técnica no puede usarse para establecer responsabilidades (Art. 3.1 del Anexo 13 de la OACI; Art. 4.3 de la Directiva Europea 94/56/CE; Art. 12.2 de la Ley española). Sólo y únicamente para saber lo que pasó y corregirlo. Es eso lo que ha salvado tantas vidas. Porque claro, en el momento en que empezamos a determinar responsabilidades, la investigación se convierte en persecución y la gente deja de buscar la verdad para ponerse a salvar el culo. Pero si quieres salvar vidas futuras, la investigación técnica necesita descubrir la verdad o lo más parecido que sea posible. Si no se sabe lo que ha fallado realmente, no se podrá corregir. Y si no se corrigen los fallos, otra ley de hierro dice que el accidente puede volver a ocurrir en cualquier momento, cobrándose decenas o cientos de vidas más. En ocasiones, una y otra vez.
- 87 -
Antonio Cantó
Grabadora extremadamente dañada del vuelo 93 de United Airlines, el “cuarto avión” de los atentados del 11 de septiembre de 2001. El avión, un Boeing 757-222, se estrelló en un área rural del estado de Pennsylvania a alta velocidad (906 km/h), 40º de picado y boca abajo, desintegrándose por completo. Formó un cráter de 12 metros de diámetro y sus 44 ocupantes resultaron pulverizados. Arriba puede verse lo que queda del cuerpo y abajo, la cápsula con los datos, arrancada de cuajo. La práctica totalidad de los datos fue recuperada. Fotos: Departamento de Justicia de los Estados Unidos de América.
En la práctica, las investigaciones judiciales –las de cargar culpas– se apoyan a menudo en la investigación técnica, directa o indirectamente, lo que constituye un verdadero problema que suele acabar matando a más gente. La actual tendencia a criminalizarlo todo y endurecer las penas de todono hace sino empeorar las cosas. (Ver aquí, aquí , aquí oaquí también) En el momento en que un profesional se ve obligado a responder a otro profesional “lo siento, pero para contestarte a eso tengo que hablar primero con mi abogado” tú ya sabes que va a morir más gente. Este es un dilema de difícil solución porque bien, obviamentehay que establecer las responsabilidades. Entre otras cosas, para determinar qué compañía de seguros y sus reaseguradoras van a pagar esa factura monumental. Y los tribunales no suelen tener ni la capacidad científico-técnica ni la proclividad a realizar complejas investigaciones aeronáuticas, tanto más cuanto menos recursos tienen. Cuando la cosa degenera a considerar las aportaciones de los peritos de las partes, ya puedes contar con que nadie está buscando la verdad. Sólo están viendo a ver quién se come el marrón. Y tú te vas a - 88 -
La Pizarra de Yuri 3
hacerte un cubatita con un sentimiento de fatalidad de lo más molesto, pensando en si irán muchas criaturas en el próximo avión. Sin embargo, mal que bien, el sistema funciona por una diversidad de razones. Una de ellas, y lo siento por los más cínicos, es que cuando hay vidas en juego mucha gente tiende a comportarse honorablemente, aunque sea recurriendo a algún subterfugio. Va en serio, la gente normal no suele sen tan perra y los profesionales que lo son siempre dejan algún huequecito libre para pasar un dato esencial. Otra es que los profesionales del vuelo saben que su propia seguridad depende de que se corrijan los fallosverdaderos. Una más, que para los fabricantes de aeronaves y las aerolíneas un accidente no resuelto o mal resuelto es pésima publicidad, sobre todo si se repite. No sería la primera vez que un accidente o una serie de accidentes han acabado con una línea aérea. Cuando tienen algún estado detrás, la misma credibilidad y prestigio de ese estado pueden verse afectados. Air France o British Airways estarán privatizadas, pero nadie ha quitado las palabras France oBritish de sus aviones. Y no hace falta decir lo que representan Boeing o Airbus para Estados Unidos y la Unión Europea, respectivamente. La misteriosa desaparición del Air France 447. Hablando de Air France y Airbus, como te dije al principio, durante la madrugada del 1 de junio de 2009 les pasó algo espantoso. Y a las 228 personas que iban a bordo del vuelo AF447 desde Río de Janeiro a París, ni te cuento. Lo impensable. Lo que a estas alturas ya no puede suceder. Que no, que no, que te lo dice el tío Yuri, que los grandes aviones de pasajeros modernos no desaparecen en la noche y el mar en plan Madagascar. Qué va.
Clase turista de un Airbus A340-300 de Air France (configuración 2-4-2 nº2, parecida a la del A330-200). Foto: Mr. Guillaume Grandin vía www.seatplans.com
- 89 -
Antonio Cantó
De sus 228 ocupantes, tres eran tripulantes técnicos (2 pilotos a los mandos y 1 de reserva), nueve tripulantes de cabina y el resto pasaje, incluyendo a siete menores de 12 años (1 infant y 6 children). Como curiosidad, entre los pasajeros adultos se encontraba el príncipe Pedro Luís de Orléans-Bragança, tercero en la línea de sucesión al desaparecido trono imperial del Brasil; los músicos de fama internacionalSilvio Barbato y Fatma Ceren; y el activista contra el tráfico ilegal de armas Pablo Dreyfus, acompañado por su esposa. 228 personas son un pueblo medianín entero de gente. Más o menos como Villasrubias oVillaherreros o Alba, todos bien juntitos y apretados en una máquina de volar junto con 140.000 litros de combustible Jet A1 para reactores de aviación.
La última tierra que pisaron los ocupantes del Air France 447: Terminal 1 de salidas internacionales del aeropuerto internacional de Galeão, Río de Janeiro, Brasil (GIG / SBGL). Imagen: Google Street View. (Clic para ampliar)
- 90 -
La Pizarra de Yuri 3
Ruta prevista del vuelo Air France 447, 31 de mayo – 1 de junio de 2009. Gráfico: Wikimedia Commons modificado por la Pizarra de Yuri. (Clic para ampliar)
Toda esa humanidad pisó tierra por última vez una tarde magnífica de primavera tropical, con una temperatura de 26ºC, visibilidad total, el sol brillando en un cielo muy azul con pocas nubes y suavísima ventolina del Norte (METAR SBGL 312200Z 34002KT 9999 FEW035 SCT100 26/18 Q1009=). Con un peso al despegue de 233 toneladas, el vuelo AF447 partió de la gran metrópoli brasileña en torno a las siete y media del 31 de mayo, hora local (22:29 UTC). Comandaba el capitán Marc Dubois, de 58 años, con 10.988 horas de vuelo y 1.747 en ese tipo de Airbus. Su copiloto era el primer oficial Pierre-Cédric Bonin (32 años, 2.936 horas de vuelo, 807 en el tipo). El otro primer oficial, David Robert (37 años, 6.547 horas de vuelo, 4.479 en el tipo), descansaba en el área de reposo situada detrás. Enseguida ascendieron por encima de las nubes hacia los 35.000 pies de altitud, lo que vienen siendo unos 10,7 kilómetros, bajo la blanca luz del sol estratosférico. No pudo ser un despegue mejor, sin turbulencia alguna a pesar de unos cumulonimbos lejanos en el cielo azul profundo. Tras activar el piloto automático nº 2, la autotransferencia de combustible y el autoempuje, tomaron rumbo Norte-Noreste (028º) hacia Recife y el Atlántico para el largo viaje oceánico de 9.200 kilómetros hasta París-Charles de Gaulle. Ahí les esperaban sus familias y amistades diez horas y media después, de buena mañana. Vamos, como el viaje de Marco Polo, pero en línea recta, en apenas una noche, viendo pelis, tomando algo y echando una cabezadita en una burbuja de aire acondicionado de alta tecnología con el mundo a tus pies. El progreso. Conforme atardecía, la tripulación de cabina de pasajeros empezó a servir las cenas. Todo iba bien.
- 91 -
Antonio Cantó
Un amanecer estratosférico. Gélido, bellísimo, despiadado, letal, si no fuese por esas máquinas de volar tan cojonudas que los humanos sabemos hacer. En este caso, un Boeing 737-800. Algo muy parecido tuvo que ser la última visión del mundo de las 228 personas que viajaban en el Air France 447, sólo que al anochecer. Foto: La Pizarra de Yuri. (Clic para ampliar)
Sobre las 21:30 hora local (00:30 del 1 de junio UTC), aún sobrevolando las playas del Brasil, los pilotos recibieron un mensaje del centro de control de operaciones de Air France. Les indicaban que iban a encontrarse con tormentas convectivas vinculadas a la Zona de Convergencia Intertropical. Esto ocurre normalmente en las regiones ecuatoriales y no se le dio más importancia. De hecho, el informe procedía de uno de los otros doce vuelos que circulaban por la misma ruta u otras cercanas en esos momentos. El avión puede agitarse un poco, pero se atraviesa sin problemas y no pasa nada. Así pues, siguieron adelante. Desde las playas de Recife, una mulata guapa vio pasar una estela muy alta, muy blanca, muy lejos. Pero ni se fijó, claro. Por ahí pasan aviones constantemente. Qué te vas a fijar.
Cabina de vuelo de un Airbus A330-200 de Swiss. Foto: © C. Galliker. (Clic para ampliar)
Los ocupantes del AF447 divisaron tierra por última vez mientras se ponía el sol sobre Natal, a las 21:54 hora local (00:54 del 1 de junio UTC, METAR SBNT 010100Z 00000KT 9999 FEW018 24/24 Q1012=). Después, el avión se adentró en el Océano Atlántico, hacia el punto INTOL y la noche. Sobrepasaron INTOL a las 22:35 (01:35 UTC), a Mach 0,82 de velocidad. Ahí se pusieron en contacto por alta frecuencia con el control brasileño de laFIR Atlántico para notificar sus intenciones y hacer una prueba de comunicacionesSELCAL que salió bien. Sin embargo, no dio resultado un intento de conectar porADS-C con su siguiente destino, la FIR Dakar-Oceánica. ya en el lado africano del Charco. Pero esto no tiene mayor importancia y continuaron su camino.
- 92 -
La Pizarra de Yuri 3
Los controladores brasileños de FIR Atlántico fueron los últimos humanos que oyeron la voz de otro humano a bordo del Air France 447. Tal como les avisaron, el tiempo empeoraba, con una tormenta eléctrica bastante espectacular. Los pilotos constataron que estaban penetrando en las nubes y tuvieron que oscurecer las luces de cabina para ver mejor los instrumentos. Pero sólo hallarían algo de turbulencia a las 22:45 (01:45 UTC), que cesó siete minutos después. En realidad, no ocurría nada anormal en esa clase de vuelos intercontinentales entre hemisferio y hemisferio donde las comunicaciones son inciertas y la meteorología, difícil. Tanto era así, que poco después el comandante Dubois fue a despertar al primer oficial Robert para que ocupase su puesto como piloto al mando e irse él a descansar. Tras conversar los tres sobre la mejor manera de atravesar la tormenta, así lo hizo. Quedaron, pues, David Robert al mando y Pierre-Cédric Bonin de copiloto. Eran las dos de la madrugada UTC, y el Air France 447 se aproximaba al puntoTASIL, muy océano adentro. A las 01:49, salieron del alcance de los radares de FIR Atlántico, alejándose aún más mar adentro, hacia las tinieblas durante unos veinte minutos más.
La famosa última ráfaga de mensajes ACARS transmitida automáticamente por los ordenadores del vuelo Air France 447 entre las 02:11 y las 02:14 del 1 de junio de 2009 UTC. Texto completo y significado por orden de recepción: AUTO FLT AP OFF – Desactivación automática del autopiloto | AUTO FLT REAC W/S DET FAULT – Perdida la detección y corrección automática del viento en cizalladura | F/CTL ALTN LAW – Conmutación automática del control de vuelo de ley normal a ley alterna | FLAG ON CAPT PFD SPD LIMIT, FLAG ON F/O PFD SPD LIMIT – Las pantallas principales de ambos pilotos han perdido la indicación de límites de velocidad | AUTO FLT A/THR OFF – Desactivación automática del autoempuje | NAV TCAS FAULT – El sistema anticolisiones TCAS ha dejado de operar | FLAG ON CAPT PFD FD, FLAG ON F/O PFD FD – Las pantallas principales de ambos pilotos han perdido las indicaciones del sistema director de vuelo (flight director) | F/CTL RUD TRV LIM FAULT – El sistema de control de vuelo no puede limitar las acciones de los pilotos sobre el timón | MAINTENANCE STATUS EFCS 2,
- 93 -
Antonio Cantó
MAINTENANCE STATUS EFCS 1 – Notificación de mantenimiento para ambos sistemas de control electrónico de vuelo (EFCS) | EFCS2 1,EFCS1,AFS,,,,,PROBE-PITOT 1X2 / 2X3 / 1X3 (9DA),HARD – Los sensores de velocidad con respecto al aire presentan discrepancias superiores a 30 nudos entre sí en menos de un segundo | EFCS1 X2,EFCS2X,,,,,,FCPC2 (2CE2) / WRG: ADIRU1 BUS ADR1-2 TO FCPC2,HARD – El ordenador de control de vuelo (FCPC) ha dejado de aceptar datos de los sistemas de tubos pitot (ADR) | FLAG ON CAPT PFD FPV, FLAG ON F/O PFD FPV – Las pantallas principales de ambos pilotos han dejado de mostrar las indicaciones del vector de ruta de vuelo (FPV, “bird”) | NAV ADR DISAGREE – Datos contradictorios en los sistemas de tubos pitot (ADR); el sistema electrónico de control de vuelo no los está aceptando | ISIS 1,,,,,,,ISIS(22FN-10FC) SPEED OR MACH FUNCTION,HARD – Datos de velocidad en el sistema de instrumentos combinados ISIS fuera de límites durante al menos 2 segundos | IR2 1,EFCS1X,IR1,IR3,,,,ADIRU2 (1FP2),HARD – La unidad de referencia de navegación inercial nº 2 considera que todos los datos de los sistemas de tubos pitot son inválidos | F/CTL PRIM 1 FAULT, F/CTL SEC 1 FAULT – Los ordenadores de control de vuelo primario y secundario han dejado de funcionar | MAINTENANCE STATUS ADR 2 – Notificación de mantenimiento para el sistema de tubos pitot (ADR) nº 2 | AFS 1,,,,,,,FMGEC1(1CA1),INTERMITTENT – Inconsistencias entre los canales del ordenador nº 1 de gestión, guiado y envolvente de vuelo (FMGEC) | ADVISORY CABIN VERTICAL SPEED – Aviso de velocidad vertical: cambio de altitud de más de 1.800 pies/minuto durante al menos 5 segundos. Pese a su tono ominoso, este tipo de transmisiones ocurrían a veces por problemas con los tubos pitot, se resolvían fácilmente y no dispararon ninguna alarma. Sin embargo, esta vez era una última transmisión. La máquina, que se lamentaba al morir. Imagen: Air France. (Clic para ampliar)
De pronto, algo ocurrió. Algo muy malo. Entre las 02:11 y las 02:14 UTC, los ordenadores de a bordo transmitieron automáticamente una ráfaga de mensajes de alerta a Air France por el sistema de telecomunicaciones ACARS, una especie de SMS aeronáutico que se recibe desde prácticamente todo el planeta. Fueron un total de 26 mensajes, indicando una serie de fallos y alertas en sistemas diversos, pero casi todos ellos relacionados con inconsistencias entre los sensores y las computadoras del avión que condujeron a una desactivación anómala del piloto automático. Dicho a lo sencillo: por una causa entonces desconocida los ordenadores están recibiendo datos contradictorios de los sensores, no saben a qué atenerse y devuelven el control a los pilotos humanos para que se aclaren. Sin embargo, el centro de mantenimiento de Air France donde se recibieron estos mensajes tampoco les dio demasiada importancia. Al parecer, sucedía a veces cuando los aviones atravesaban tormentas, por problemas con los tubos Pitot. Ya hablaremos de esto. Así que no se activó ninguna alarma en ese momento. Pasó un poco más de media hora. Noche en el Atlántico. A las 02:48 UTC los controladores de Dakar (Senegal) llaman a los de Sal (Archipiélago de Cabo Verde) para comunicarles que el Air France 447 debería estar llegando a su lado del océano, pero no tienen noticias. A las 03:54 Sal devuelve la llamada a Dakar. Dicen que tampoco está entrando a su zona a la hora prevista, ni se han puesto en contacto para modificar el horario. A las 04:07 Dakar y Sal vuelven a conversar, porque en sus pantallas están viendo llegar al siguiente vuelo (otro Air France, el AF459) pero no al AF447. Dakar pide al AF459 que intente contactar con sus compañeros a las 04:11. El
- 94 -
La Pizarra de Yuri 3
AF459 lo intenta, pero no lo consigue, y a las 04:20 se lo notifica a Dakar y también a Air France, para que prueben ellos. Durante la siguiente hora, las llamadas empiezan a multiplicarse entre Dakar-Oceánico, Sal, Canarias, Madrid, Francia y Brasil, cada vez más preocupadas. Air France lanza numerosos mensajes ACARS al AF447 y luego prueba a entrar en contacto con ellos por vía satélite. Los sistemas rechazan todos sus intentos. El receptor está offline. Ni personas ni máquinas saben nada del avión. Sobre las 05:20, Brasil-Atlántico dispara la primera alarma y pone en prealerta a suServicio Aéreo de Rescate. Poco a poco, la verdad sencilla se va volviendo evidente: el vuelo AF447 con sus 228 vidas ha desaparecido. Un escalofrío recorre tres continentes al amanecer. Lo impensable, que se esfume sin más un moderno jetliner lleno de gente dormida plácidamente, viendo pelis en sus sistemas de entretenimiento personal o llevando al baño a Clarita Eccard, de dos años de edad, acaba de suceder. Y nadie sabe ni dónde, ni cómo, ni por qué. Próxima: Air France 447: Buscando cajas negras a 4.000 metros de profundidad (2)
- 95 -
Antonio Cantó
25 kilómetros Yuri, el 22 de febrero de 2014 @ 13:03 · Categoría: Ciencia popular, Sociedad y civilización, Tecnología
Toda la vida compleja que conocemos se concentra en un tenue manto alrededor del planeta Tierra.
Fotografía tomada desde la Estación Espacial Internacional sobre el Océano Índico, al atardecer del 25 de mayo de 2010 (hora local en tierra). Debido a un efecto óptico, pueden distinguirse perfectamente las distintas capas de la atmósfera: de abajo arriba, troposfera (roja-naranja-amarilla), estratosfera (blanca), atmósfera superior (azul claro) y espacio exterior (azul oscuro a negro). Todo lo que somos existe en esa delgada franja de colores cálidos entre el barro y el cosmos. Y no conocemos ningún otro sitio adonde ir. Foto: NASA.
Y de la misma forma que la semana pasada te contaba que yo no veo ese apocalipsis profetizado una y otra vez, hoy quiero dar la de arena. ;-) La de arena es que, por difícil que sea extinguirnos, hay cosas que nos pueden hacer muchísimo daño a nosotros y a quienes nos acompañan en esta nave espacial que llamamos el planeta Tierra. Porque, ya lo he comentado alguna vez, casi todo lo que amamos, casi todo lo que nos importa, se concentra en una levísima franja entre el fuego y la nada, o casi nada. Hoy por hoy y durante al menos algún siglo más, no tenemos absolutamente ningún otro sitio adonde ir.
- 96 -
La Pizarra de Yuri 3
Si la imagen anterior nos muestra todo nuestro espacio disponible “hacia arriba”, esta otra nos muestra todo nuestro espacio disponible “hacia abajo”. Entre ambas, suman menos de 25 kilómetros. La vida compleja terrestre no puede existir normalmente fuera de estos dos delgados mantos. Imagen: Wikimedia Commons
Me refiero, naturalmente, a esos escasos veinticinco kilómetros de hidrógeno, oxígeno, nitrógeno y poco más que toleran la vida compleja. Es decir, las aguas y el aire hasta más o menos el borde de la estratosfera. Hay algunos animalitos capaces de vivir por el fondo de la Fosa de las Marianas, el punto natural más profundo de la Tierra (10.911 metros), a algo más de mil atmósferas de presión. Por el otro extremo, el 29 de noviembre de 1973 un avión se tragó a un buitre de Rüppel a unos 11.000 metros de altitud sobre Costa de Marfil, donde la temperatura es de unos 50 grados bajo cero y la presión, de 0,25 atmósferas. Eso suman unos 22 kilómetros. Vamos a redondearlo a 25, para dejar un poco de margen, por si esas sorpresas que siempre nos da la vida.
- 97 -
Antonio Cantó
Dije en el post anterior que veo difícil que los destrocemos tanto como para que nadie pueda sobrevivir, pero basta con empobrecerlos significativamente para ocasionar enorme sufrimiento y mortandad. Empezando, por supuesto, por los más pobres y los más débiles. Los más pobres y los más débiles van siempre los primeros en la lista mala. Eso nos incluye también a unos cuantos habitantes del llamado Primer Mundo. Como dije la semana pasada, yo no no creo que la supervivencia de la humanidad o incluso de su civilización estén amenazadas en el esquema grande de las cosas. Pero en el pequeño, pequeño como tú y como yo, el tema puede llegar a ponerse muy chungo. Esos 25 kilómetros de hidrógeno, oxígeno y nitrógeno contienen nuestro aire, nuestra agua, nuestra comida, nuestra vida. Incluso alteraciones menores pueden provocar, por ejemplo, graves crisis alimentarias. Si te parece que la comida está cara, te asombrarías de lo mucho que puede llegar a subir, digamos, con un fallo grave de las cosechas de arroz. El arroz es el alimento básico de buena parte de la humanidad, que inmediatamente se verían obligadas a buscar (y pagar, los que puedan) otras alternativas, encareciendo todos los demás. Si ya tenemos los bolsillos como los tenemos, imagínate las consecuencias. Ahora imagínatelas para esos 2.400 millones de personas que viven con menos de dos dólares diarios. Dije también en los comentarios del post anterior que antes me asustaban mucho más los peaks, como en peak oil, que ahora. Y no porque discuta el concepto en sí: es obvio que todos los recursos no renovables que se consumen y no se reponen acabarán enrareciéndose –encareciéndose– hasta agotarse por completo. No obstante, por todos los indicios que yo puedo colegir, veo más un aterrizaje suave con mucho tiempo de adaptación que los crash de que se hablaba cuando yo estaba aún tiernecito en vez de correoso como ahora, por la época en que se rodó Mad Max. Sin embargo, hay una escasez que me preocupa mucho más, porque ya está afectando a millones de personas y hasta la tenemos presente aquí en España: la del agua potable.
- 98 -
La Pizarra de Yuri 3
Efectos cutáneos del envenenamiento por arsénico en el agua de boca de Bangladesh, ocasionado al tener que excavar pozos más y más profundos para extraerla. Todas esas personas dependen de sus manos y sus pies para sobrevivir. Foto: Mr. Manzurul Hassan.
El agua potable es, por fortuna, un recurso renovable. Pero la presión sobre el mismo que ejercemos los siete mil y pico millones que somos es extrema. En países como la India ya han ocurrido crisis del arsénicocuando la población tuvo que excavar pozos mucho más profundos para sacar agua, que resultaron estar contaminados por este veneno. Aquí en España todos conocemos las broncas que hemos tenido a estas alturas por los recursos hídricos. En extensas regiones del mundo, el agua potable económicamente accesible es un bien escaso. La menor alteración puede empujar a millones más hacia la sed. Y así con muchas cosas más. En todos los casos, con los más pobres y los más débiles encabezando la marcha esa hacia las tinieblas. Una dislocación grave de esa tenue película de agua y aire y sus mecanismos puede causar enorme sufrimiento, enfermedad, miseria y muerte a partes significativas de la población, no todas las cuales están dispuestas a aceptar sumisamente su suerte mientras otros gastan decenas, cientos o hasta miles de dólares en sus botellas de agua mineral premium. Puede causar conflictos, guerras, genocidios. Del buen estado de esos 25 kilómetros depende, dependemos gran parte de la humanidad. Y no hay más. Todavía no conocemos ningún otro sitio donde haya más, en cantidades suficientes y accesibles. Si nos los cargamos, la liamos. Atmósferas planetarias
- 99 -
Antonio Cantó
En nuestro sistema solar hay muchos planetas y lunas que tienen atmósfera. Los gigantes gaseosos como Júpiter o Saturno, por ejemplo, son casi por completo una enorme atmósfera de densidad variable, con un núcleo rocoso muy pequeño. Venus tiene su conocido infierno que tanto nos costó atravesar. Una luna de Saturno, Titán, posee una densa atmósfera de nitrógeno, metano e hidrógeno, con posibles mares superficiales de hidrocarburos líquidos. Otros cuerpos celestes las tienen más débiles y algunos carecen prácticamente de ella, como el planeta Mercurio o nuestra propia Luna.
Europa de Júpiter (Júpiter-II). Su superficie visible está compuesta de hielo de agua y probablemente debajo hay un océano de agua líquida. Pero aún nos resulta francamente difícil acceder a ella. Imagen tomada por la sonda espacial Galileo. Foto: NASA / Deutsche Forschungsanstalt für Luft- und Raumfahrt e.V., Berlin.
Pero todas tienen algo en común: nosotros no podemos vivir ahí, al menos sin hábitats artificiales o terraformación extensiva, algo que está actualmente fuera del alcance de nuestra tecnología y, sobre todo, de nuestra economía. Y tampoco nos sirven para traernos, por ejemplo, agua. El agua no es rara en nuestro sistema solar, pero sí difícilmente accesible. Por ejemplo, no podemos echar una manguera desde el océano submarino deEuropa de Júpiter hasta aquí. No sabemos aún. El resto de posibles destinos están fuera del sistema solar, demasiado lejos para nuestra capacidad actual. Los exoplanetas confirmados más próximos de tipo terrestre andan por Gliese 876, en la constelación de Acuario, a 184,5 billones de kilómetros de aquí (sí, con B). Con algunas de las naves más veloces que hemos construido hasta ahora, suponiendo que fuésemos en linea recta –lo que es mucho suponer, esto no va como en las pelis sino por órbitas y cosas de esas–, tardaríamos 67.075 años en llegar. Incluso cuando dominemos la tecnología para construirnaves relativistas, el viaje se nos pone en
- 100 -
La Pizarra de Yuri 3
un mínimo de quince años y pico (aunque puede ser considerablemente menos para quienes vayan a bordo, si es que va alguien, debido a la dilatación temporal.) Pero ni siquiera estos exoplanetas parecen contar con buenas urbanizaciones para montarnos el chalé. Por lo poco que sabemos todavía de ellos, no reúnen buenas condiciones para la vida compleja terrestre aunque hiciéramos adaptaciones importantes. El primer candidato bueno podría ser Gliese 667 Cc, a 223 billones de kilómetros, lo que vienen siendo 23,6 años-luz. Los siguientes andan bastante más lejos, en el orden de los cientos o miles de años-luz. Por otra parte, si tuviésemos la tecnología para mudarnos a 223 billones de kilómetros, seguramente nos resultaría bastante más sencillo adaptar o adaptarnos a algún otro planeta o luna de nuestro propio sistema solar. Por desgracia y por maldito atraso, todo esto está aún mucho más allá de lo que somos capaces de hacer. De momento, vamos a permanecer una buena temporada encerrados como ratas en la Tierra y sus alrededores. Una Tierra que sólo tiene para nosotros, eso, 25 kilómetros de espacio vital. Prisioneros entre el abismo y el fuego
Estructura interna de la Tierra. 1. Corteza continental; 2. Corteza oceánica; 3. Manto superior; 4. Manto inferior; 5. Núcleo externo; 6. Núcleo interno; A. Discontinuidad de Mohorovičić; B. Discontinuidad de Gutenberg; C. Discontinuidad de Wiechert-Lehmann. Esquema: Wikimedia Commons
Bajo nuestros pies, está la corteza terrestre. Que, como su nombre indica, es eso: una cortecita, vamos a decir que sólida, que en algunos puntos de la corteza continental se extiende hasta los 70 kilómetros de profundidad. La oceánica, en cambio, no pasa de
- 101 -
Antonio Cantó
diez. Además, es una corteza hecha migas: junto con las capas más rígidas del manto superior, lo que en su conjunto constituye la litosfera, está dividida en grandes pedazos a los que llamamos placas tectónicas. Esto son como islas que rozan entre sí y flotan sobre casi tres mil kilómetros de unos silicatos tan viscosos que también los consideramos sólidos: el manto. Y éste, a su vez, sobre una capa líquida de unos 2.250 kilómetros de espesor: la parte exterior del núcleo. Luego, más para adentro, ya está el núcleo interno. Teniendo en cuenta que todo esto se mueve a distintas velocidades y con diferentes rumbos, eso detierra firme no pasa de bonita fantasía. Bueno, ¿y qué? Pues verás, sucede que la temperatura aumenta con la profundidad. Al principio, no mucho, pero luego acelera rápidamente. La mina más honda del mundo, la de oro deTauTona en Sudáfrica, alcanza los 55-60 ºC a 3.900 metros de profundidad y hay que instalar aire acondicionado para que los mineros puedan trabajar, no con poco peligro. Es decir, aproximadamente 8 ºC por kilómetro sobre el ambiente local. En la perforación más profunda de todas, la científica soviética de Kola, tuvieron que parar cuando la temperatura ascendió a 180 ºC llegando a los 12.262 metros: unos 14,7 ºC por kilómetro. Ese es el punto más bajo que hemos alcanzado los humanos. Proyectaron que aumentando a ese ritmo, alcanzaría los 300 ºC a 15.000 metros. A esto le pusimos el nombre de gradiente geotérmico. Sabemos que más abajo la temperatura continúa subiendo hasta alcanzar unos 6000 ºC en la región de transición entre el núcleo exterior y el interior; tanto como en la superficie del Sol. ¿Y de dónde sale todo este calor? Bueno, pues de varias fuentes, pero sobre todo del calor residual de acreción de cuando el sistema solar estaba formándose yespecialmente de la gran cantidad de isótopos radiactivos naturales que hay ahí bajo nuestros pies. Sí, estamos sentados sobre una especie de gigantesca piscina de Fukushima a la temperatura del Sol, en islotes de piedra que se mueven, aquí leyendo tranquilamente. Por el momento, no hay nada para nosotros ahí debajo. Ni tierra hueca ni ningún otro de esos cuentos tan raros; sólo un infierno ardiente. Mirando hacia el otro lado, hacia donde siempre nos ha gustado más mirar, hacia arriba, ya sabemos lo que hay: abismales distancias de la casi-nada que llamamos medio interplanetario o la casi-casinada delmedio interestelar, salpicada muy aquí y allá por algún pedrusco o bola de gas, encendida en forma de estrella o no, más nebulosas y tal. Todo está muy lejos, muy muy lejos o sobrecogedoramente lejos, al menos hasta que construyamos la nave esa relativista de la que te hablaba antes.
- 102 -
La Pizarra de Yuri 3
(A todo esto, sigo pensando que no sería totalmente estúpido irnos currando algún refugio de emergencia sostenible en algún cuerpo celeste próximo, en este mismo sistema solar. Por mucho que opine que no nos vamos a extinguir en ningún momento imaginablemente próximo, yo podría estar estupendamente equivocado como todo hijo de vecina. Y en ese caso, tener todos los huevos en la misma cesta, o sea en un solo planeta, resulta ciertamente inquietante. Buena parte de las tecnologías necesarias están ya disponibles. No digo que tengamos que hacerlo justamente ahora, con la que está cayendo y todo ese rollo, pero sí mantener la idea viva e ir trabajando poco a poco en esa dirección. Por muy seguro que sea tu barco, disponer de un bote salvavidas es siempre una buena idea.) Remediación planetaria
Desastre de Sandoz (hoy Novartis), Suiza, 1986. Un incendio en un almacén agroquímico y su subsiguiente extinción vertieron cantidades masivas de sustancias extremadamente tóxicas al río Rin, ya muy deteriorado por la gran cantidad de industria a su alrededor. Este vertido provocó gravísimos daños ecológicos y un colapso generalizado de sus ecosistemas. Esta imagen fue tomada en Holanda, 800 km río abajo. Se dijo que “el Rin estaba muerto.” Hoy en día el Rin, sin ser el río más limpio del mundo, está razonablemente regenerado.
Los barcos, además de no estropearlos, se pueden reparar. A este ya le hemos puesto algunos parches y no han ido mal del todo: desde la regeneración del Rin, al que casi matamos una vez, hasta la recuperación de Hiroshima y Nagasaki o lareforestación de Europa, en parte accidental y en parte voluntaria. Los humanos, igual que sabemos romper cosas, también sabemos repararlas; al menos, a veces, cuando hay ganas o necesidad de trabajar y gastar dinero. Suele salir bastante más caro que no haberlas roto en primer lugar, pero qué le vamos a hacer. A este proceso de regenerar entornos naturales que hemos estropeado antes se le suele llamar remediación. En los países más o menos serios, es ya obligatorio por ley apartar dinero para arreglar al menos parte de lo que rompas. Quizá el más conocido de todos sea el Superfund estadounidense, pero no es el único, ni mucho menos. En general es
- 103 -
Antonio Cantó
una práctica, por fortuna, cada vez más extendida. Hasta en lugares con tan mala fama medioambiental como China –en buena parte justificada, si bien últimamente ya no hay ninguna localidad china en la lista de las diez peores– la remediación es incluso un negocio en alza. Sitios contaminados hasta extremos legandarios como Linfen, que muchos consideraban un lugar más tóxico para vivir que el mismísimo Chernóbil, han mejorado bastante últimamente. Linfen todavía no es un ejemplo de remediación, porque remediar, lo que se dice remediar, apenas han empezado. Pero el mero hecho de prohibir las peores prácticas – como el paso de camiones cargados del carbón que se produce allí a través de la ciudad– , cerrar las cien industrias más contaminantes, apercibir a otras 150 y establecer ayudas estatales para instalar filtros en las fábricas, así como pasar el 85% de la calefacción urbana a gas natural, la cosa se ha arreglado un poco. Poco a poco, en algunos de los puntos más guarros, han comenzado a limpiar. Y eso ya es el principio de la remediación. Lo idóneo, naturalmente, sería no tener que remediar. Nada permanece más limpio que aquello que no se ensucia. Por desgracia, nuestro nivel de desarrollo socio-tecnoeconómico actual aún no permite nada parecido en numerosos procesos que nos son esenciales como civilización. En estos casos, la remediación es lo mejor que se puede hacer.
Deforestación por tala y quema vista desde el espacio, Mato Grosso, Brasil. Esta práctica se remonta al momento en que aprendimos a usar el fuego y es uno de los más viejos y peores desastres ecológicos ocasionados por la humanidad, alterando por completo los ecosistemas de continentes enteros. Así desaparecieron los bosques de Europa en su práctica totalidad. Imagen: Tripulación de la Estación Espacial Internacional.
- 104 -
La Pizarra de Yuri 3
Los daños al medio ambiente causados por el ser humano no son ninguna novedad. Uno de los más graves de nuestra historia fue la invención de la agricultura, hace ya unos cuantos miles de años. ¿Y cómo es eso? Pues porque una de las formas más fáciles de obtener nuevas tierras de cultivo es meterle fuego a los bosques, sabanas y praderas que las ocupen. Esta práctica se llama agricultura de tala y quema, y viene usándose desde antes de la historia. Conllevó la destrucción sistemática delbosque ancestral en extensas regiones del planeta, como por ejemplo Europa, donde desapareció casi por completo. Sin embargo, hoy en día, el abandono de la agricultura pero también los programas de reforestación han hecho que el bosque en Europa no pare de crecer, como te conté más arriba. Esto podría considerarse una forma de remediación continental tardía. Lógicamente, a algunas personas de las que piensan por alto se les ha ocurrido el concepto de remediación planetaria. La idea en sí es sencilla: si le estamos causando daños globales al medio ambiente, podemos plantearnos remediarlos a la misma escala. Por ejemplo, se han apuntado varias técnicas para limpiar masivamente todo ese carbono que le echamos a la naturaleza sin parar, que en su forma de CO 2 ya ronda e incluso ha superado algún día las 400 partes por millón. Esto no había ocurrido en varios millones de años y, si seguimos al ritmo actual de añadirle una más cada seis meses, en menos de dos siglos andaremos por las 750. Esta cifra es la concentración mínima que pudo darse durante el Máximo Térmico del Paleoceno-Eoceno, hace 55 millones de años, cuando aparentemente se disparó elfusil de clatratos y la temperatura de la Tierra subió unos 6ºC a lo largo de varios milenios (puede que alcanzando las26.000 ppm).
Incremento del CO2 atmosférico 1958-2013. NOAA / Scripps Institution of Oceanography / NASA.
En el peor escenario de los que yo he visto publicados con una cierta credibilidad científica, se habla de unas 1.000 ppm en el año 2100, con un incremento de
- 105 -
Antonio Cantó
temperatura máximo en torno a los 4,5ºC sobre la actual. Un aumento de 4,5 – 6ºC no nos extinguirá, pero puede causar graves daños a los ecosistemas, incluyendo el ecosistema humano, especialmente los ecosistemas humanos más frágiles. Eso es, los pobres y los débiles, que ya se verá a ver cómo andamos de eso por entonces. En cualquier caso, es una maldita cochinada y una herencia envenenada por la que nuestros nietos, muy justamente, nos repudiarán. Entre otras cosas, porque les tocará pagar la factura de la que sus abuelos nos estamos escaqueando, pagándonos los vicios con su carbono. Una factura carísima de remediación planetaria. Pero puede hacerse. En parte, incluso con nuestra tecnología actual. Por ejemplo, todo submarino y toda nave espacial tripulada lleva sus correspondientes depuradores de CO2, precisamente para que no se acumule el generado por sus ocupantes al respirar. Lo único que impide hacer esto a mucha mayor escala, como con este que financia Bill Gates, es el coste. Otra técnica ya existente es la bio-energía con captura y almacenamiento de carbono, de las que existen un puñado de plantas en operación y construcción. Este sistema permitiría capturar sosteniblemente 10.000 millones de toneladas de carbono al año y los 36.000 millones de toneladas que emitimos anualmente quemando combustibles fósiles a un coste adicional de entre 50 y 100 euros por tonelada. Entre las propuestas aún en estudio se encuentra la fertilización oceánica, con posibles efectos secundarios sobre los ecosistemas marinos, el biochar, ciertas bacterias modificadas por ingeniería genética o la simple reforestación. Una combinación de estas técnicas y las que vayan surgiendo por el camino pueden mitigar o incluso remediar eldesastre carbónico que estamos organizando. ¿A qué coste? Pues ese es el tema: alto, al menos en la situación actual. A lo mejor dentro de cien años nos parece tan normal como producir ordenadores, o penicilina, ambas cosas poco menos que ciencia-ficción hace ahora un siglo.
- 106 -
La Pizarra de Yuri 3
Evolución del radiocarbono atmosférico (12C/14C) 1955-1994. Puede observarse cómo aumenta hasta el Tratado de Prohibición Parcial de Pruebas Nucleares (atmosféricas) y el descenso del mismo desde entonces. En su época también hubo propagandistas diciendo que no, que en realidad eso no era por los bombazos atómicos en plena atmósfera, sino por la actividad solar o “tormentas de rayos cósmicos” (al igual que pasaría con el peligro del tabaco y la gasolina con plomo). Fuente de los datos: Manning, M; Melhuish, W.H. (1994), Atmospheric 14C record from Wellington. In Trends: A Compendium of Data on Global Change. Carbon Dioxide Information Analysis Center, Oak Ridge National Laboratory, U.S. Department of Energy, Oak Ridge, USA. Imagen: Wikimedia Commons
Hay formas de polución que tienden a remediarse solas, por simple degradación o reabsorción natural del agente contaminante. En realidad, por ejemplo, bastaría con dejar de emitir carbono y otros gases de efecto invernadero al ambiente como tarados para que ese problema se arreglase solo en un tiempo. Otra forma de contaminación que tiende a remediarse por sí misma, al menos en parte, es la radiactiva. Los isótopos más radiactivos y peligrosos agotan su energía rápidamente, con lo que su capacidad de hacer daño se desploma a toda velocidad. Los menos radiactivos tardan mucho más en irse, pero claro, son mucho menos peligrosos. Con el tiempo todos ellos van suavizándose más y más hasta que al final se vuelven indistinguibles de la radiación natural de fondo, dejando “sólo” un problema de contaminación química convencional (algunas de esas sustancias, además de radiactivas durante un tiempo, son muy tóxicas.) De hecho, en este planeta ya hemos tenido una gran guerra atómica a cámara lenta, con cientos de detonaciones, no pocas de ellas extremadamente potentes y sucias. Me estoy refiriendo, por supuesto, a la época de las pruebas nucleares atmosféricas entre 1945 y 1963: 215 estadounidenses, 219 soviéticas, 21 británicas, 50 francesas y 23 chinas. Algunas fueron enloquecidamente poderosas, como el mítico Emperador de las Bombas (Bomba Zar), una chulería sin ninguna utilidad militar práctica. Otras, errores que generaron inmensas cantidades de contaminación radiactiva, como la no menos mítica Castle Bravo. Sí, estamos hablando de petar grandes cargas nucleares al aire libre, en algunos casos a menos de ciento cincuenta kilómetros de la gran ciudad más
- 107 -
Antonio Cantó
próxima como Las Vegas (USA) o Semipalatinsk (URSS). En otras palabras: como si yo ahora mismo hiciera estallar varias bombas atómicas anticuadas y sumamente contaminantes sobre el Polígono de Tiro de las Bardenas Reales y luego dijese que maños, vascos, riojanos, navarros y sorianos son todos unos histéricos por quejarse.
Absorción de yodo-131 en tiroides por condados a consecuencia de las pruebas nucleares atmosféricas en los EEUU continentales. Imagen: National Cancer Institute, USA.
Hubo downwinders, hubo evacuaciones a la carrera, hubo daños, miserias y enfermedades jamás cuantificados, hubo abundantes materiales radiactivos que se diseminaron por todo el planeta… pero, con el tiempo, la radiación que emitió esta guerra atómica de 18 años de duración y medio millar de explosiones (más que los arsenales modernos completos de Francia, India y Pakistán juntos, con cargas mucho más potentes y guarras) se ha ido suavizando y diluyendo hasta que ahora es sólo detectable con algunos instrumentos específicos de gran sensibilidad. Como no estallaron en un periodo breve de tiempo, no hubo invierno nuclear. Por cierto que con los fenómenos de invierno nuclear (o volcánico, o meteorítico, etcétera) pasa un poco lo mismo. Al principio es muy intenso, pero desde el día uno los humos y cenizas se van posando y en unos años o décadas se disipa totalmente por sí mismo, como ha ocurrido muchas veces en la larga historia de la Tierra. Sin embargo, hay otras fuentes de contaminación mucho más persistentes. Por ejemplo, los metales pesados no-radiactivos. Estos metales son básicamente estables y, por sí mismos, no desaparecen nunca. Como mucho se diluyen, en parte pasando a la cadena alimentaria. Al papeo, vamos. Pero, normalmente, sólo al de los pobres. Hay otros agentes químicos a los que les cuesta mucho degradarse. Y luego hay cosas que hacen cisco ciertos ecosistemas frágiles, como las bolsas de plástico. No obstante
- 108 -
La Pizarra de Yuri 3
todo ello, al menos una parte de la pupa que le hacemos al planeta se puede remediar. Sólo hace falta la pasta, la conciencia y las ganas de trabajar. Habrá a quien le parezca que esto es jugar a los dioses, violar a la Madre Tierra y todas esas cosas frankensteinianas que al final habrán de costarnos caro. Pero mira, llevamos jugando a los dioses desde que inventamos el fuego, o antes. Esa es una de las características esenciales del ser humano como especie: más que adaptarse al medio, adaptamos el medio a nuestra conveniencia. Desde que nos pareció oportuno clarear el primer bosque, seguramente allá por el Paleolítico, le metimos antorcha y santas pascuas. Ahora que vamos siendo un poquito más conscientes de las consecuencias de hacer el animal como si no hubiera mañana, hablamos de mitigación y remediación. Es un avance. Y aún así…
- 109 -
Antonio Cantó
El famoso “punto azul pálido”, en la banda marrón de la derecha, un poco hacia abajo del centro. Esa es nuestra Tierra vista desde 6.000 millones de kilómetros por la nave espacial Voyager-1. Ahí está, hoy por hoy, todo lo que somos. Foto: NASA.
…aún así, son sólo 25 kilómetros. Los recorro con el metro de mi ciudad por dos euros con ochenta céntimos, billete sencillo. Uno con cuarenta si me pillo el bono. A decir verdad, en nuestro estado de desarrollo actual es, en la práctica, mucho menos. Si de algún modo estropeamos gravemente los primeros tres kilómetros de aire, donde vivimos algo así como el 99% largo de la humanidad, tenemos un problema. Gordo. Tres kilómetros es la longitud de una avenida mediana puesta de pie. Si te asomas a la ventana, a menos que vivas entre edificios como yo, vas a ver más de tres kilómetros a tu alrededor. ¿Has viajado en avión? Bueno, pues esa es la altitud a la que sueles estar unos tres o cuatro minutos después de separar las ruedas del suelo. Y eso que los
- 110 -
La Pizarra de Yuri 3
aviones de pasajeros suben tranquilitos. Si fueses en un cohete Soyuz-2, lo harías enunos treinta segundos, antes de acelerar en serio. No tenemos muchas bases de operaciones a más de tres kilómetros de altitud. Está La Paz, Bolivia, y luego una serie de pueblos cada vez más pequeños e infértiles hasta llegar a una localidad minera muy contaminada que se llama La Rinconada, en Perú (interesante). A partir de ahí, ya sólo puedes encontrar algunos templos y puestos militares por la parte del Himalaya, cada vez soportando menos y menos población. Salvo aclimatación extrema, a esas altitudes ya andamos midiendo cosas como los tiempos de conciencia útil y engorros así. Mar abajo, está claro: una persona inconsciente puede ahogarse en pocos centímetros de agua. Según el Guinness, un tipo puede resistir 22 minutos sin respirar, hiperventilándose primero con oxígeno y manteniéndose muy quieto. Pero no más. Para sumergirnos bajo el mar, necesitamos máquinas. Hay unas máquinas estupendas llamadas submarinos, algunos de los cuales pueden operar varios años a cientos de metros de profundidad con entre 60 y 150 personas a bordo. Como dije en el post anterior, aquellos que funcionan a propulsión nuclear e incluyen hombres y mujeres en su tripulación pueden convertirse en excelentes cápsulas de supervivencia de la humanidad. Lamentablemente, no disponen de muchas plazas y casi todas ellas están reservadas para tripulantes con una formación en extremo exigente. Seguro que siempre encontrarán algún hueco donde embutir a Su Excelencia y algún Excelentísimo Pariente, pero incluso los grandes submarinos atómicos no se caracterizan por disponer de mucho espacio libre o medios para mantener a mucha más gente que su tripulación. Por debajo del primer kilómetro pasamos ya a los batiscafos y cosas por el estilo, cuya autonomía (cuando son autónomos) suele medirse en decenas de horas. Pero el tremendismo en estos temas es casi tan perjudicial como la acción perniciosa, las excusas ridículas y la perezosa inacción. Si hablamos de los grandes problemas planetarios, si hablamos de los grandes daños al medio ambiente, cualquiera de estas cosas importantes, y lo planteamos en términos de ¡vamos a morir todoooos!… bien, pues le estamos haciendo el juego a quienes la lían a conciencia y a quienes pasan de todo. Esto funciona como aquel cuento tan viejo del lobo. Si te pasas la vida avisando de que llega el día y el día nunca llega, porque no era realista, al final todo el mundo pasa de tu cara y, ya puestos, de las cuestiones incómodas verdaderamente graves. Llevo oyendo hablar de escenarios cataclísmicos, tormentas perfectas, el colapso de esta civilización decadente, esa guerra que supuestamente nos tenía que tocar a cada generación, días del juicio varios y lobos que vienen desde que sólo tenía pelo en la
- 111 -
Antonio Cantó
cabeza. Y no, al final resultó que esto no va así. Por supuesto que hay lobos, pero se comen mayormente a los pobres y los débiles, como toda la santa vida. Hay muchas cosas que pueden llevarse por delante a un bebé mísero de los deltas de Bangladesh, que duerme a un metro de altura sobre el nivel del mar. Hay muy pocas cosas que puedan hacer lo mismo con un señor que desayuna en Nueva York y cena en Hong Kong tras un agradable viaje en su jet privado, como no sea que se estampe con él. Por no mencionar una vez más a los chicos, y chicas, del submarino. Esto no va de novedosos e improbabilísimos apocalipsis globales. Esto va de agravar o no injusticias viejas perfectamente reales hoy por hoy. En último término, es que resulta que esos veinticinco kilómetros no son nuestros. Apenas tenemos ningún derecho sobre ellos; tan solo una minúscula parte proporcional, casi infinitesimal. Quien los estropea por la cara no sólo es un indeseable y un guarro a escala planetaria por mucho desodorante que se eche; es además un ladrón, porque está saqueando algo que no es suyo, y posiblemente un homicida. Esos veinticinco kilómetros pertenecen a todos los vivientes y a todas las generaciones futuras, no a ninguno de nosotros. Aquí no hay nada gratis. Todas las cochinadas y estupideces que cometamos, ellos las pagarán. Al menos, hasta que encuentren la manera de largarse a sitios mejores y olvidar a sus patéticos antepasados para siempre jamás.
- 112 -
La Pizarra de Yuri 3
El apocalipsis improbable Yuri, el 15 de febrero de 2014 @ 9:53 · Categoría: Ciencia popular, Sociedad y civilización
No me parece que vayamos a irnos de aquí fácilmente, como no sea a otros sitios mejores.
Los cuatro jinetes de Apocalipsis 6:1-8 en grabado de Vasili Koren’ (siglo XVII). Museo Estatal de Bellas Artes A. Pushkin, Moscú.
A la tercera copa o la tercera conversación, no me resulta raro oír hablar a la gente en términos de un modo u otro apocalípticos. Desde los absolutistas más devotos hasta el ecosocialismo más sandía, pasando un poco por todo el mundo, me he encontrado con personas, muchas personas, convencidas de que por una vía o por otra la humanidad está condenada y el fin de los tiempos está próximo. En estos tiempos de crisis, el número de personas esperando que ocurraalgo gordo parece haberse multiplicado. Yo mismo he utilizado expresiones como “hasta que nos vayamos de aquí” y otras por el estilo, un poco a la ligera. Cosas de haberse criado durante el periodo más crítico de la Guerra Fría. Y sin embargo, una vez he reflexionado sobre el asunto, vengo a opinar que esto es muy improbable. Extremadamente improbable. Al menos, en un plazo que nos pueda causar algún temor. Lo primero, vamos a centrar los términos. Obviamente, no me estoy refiriendo a catástrofes corrientes de mayor o menor calibre. Por supuesto que un desastre natural o
- 113 -
Antonio Cantó
causado por la mano humana puede hacernos un saco de megamuertos y heridos, inmensas colas de refugiados y ocasionar enorme miseria y devastación. Pero luego, ocurre lo de costumbre: que en la otra punta del mundo lo ven por la tele comiendo palomitas, que en unas horas o días se presentan los aviones con ayuda humanitaria internacional –esos malditos mundialistas– y, si es muy gordo, que en un par de generaciones la juventud lo estudia en clase de historia rancia como eso que les pasó a los antiguos porque va para el examen. Menudo rollo. Eso ni es un fin de los tiempos ni es ná. Al hablar de apocalipsis normalmente nos referimos a… bien, eso, algo más parecido al Apocalipsis de San Juan que, pese a su oscuro lenguaje, parece profetizar un exterminio generalizado de la humanidad salvo por unos 144.000 elegidos destinados a vivir en una paradisíaca Nueva Jerusalén, rigurosamente cristiana, por supuesto. Para los musulmanes tenemos también la tercera fase del Qiyamah, con una temática muy parecida y un divertido periodo en el que la gente “fornicará en las calles como burros”, signo seguro del fin. Curiosamente, los judíos no parecen tener unArmagedón tan bien definido, aunque siempre pueden echar mano de algunas partes del Antiguo Testamento. Por su parte, las religiones del Oriente Asiático suelen ser más cíclicas, si bien los budistas no se privan de su propia profecía apocalíptica en el Sermón de los Siete Soles del Canon Pali.
- 114 -
La Pizarra de Yuri 3
Por su rapidez y potencial, el impacto de un gran meteorito ha sido un tema favorito en el arte apocalíptico contemporáneo. Sin embargo los distintos sistemas de detección de objetos próximos a la Tierra no han encontrado ninguno de tamaño superior a un kilómetro de diámetro que se encuentre en trayectoria de colisión. Ahora van a buscarlos hasta los doscientos metros, a ver. Dibujo: Don Davis / NASA.
Para herejes, escépticos, ateos y demás escoria como este que te habla, tenemos lo que bien podríamos denominarapocalipsis laicos. Hay cantidad: guerras termonucleares totales, catástrofes ecológicas o climáticas singularmente veloces, neoplagas tecnológicas, epidemias de diseño, grandes impactos astronómicos, supervulcanismo repentino, la explosión de hipernovas próximas y demás eventos a nivel de extinción. Para los más crédulos, cada pocos años tenemos pánicos como la reciente profecía de los mayas, esos supuestos agujeros negros que se iban a formar en el Gran Colisionador de Hadrones o las chorradas sobre el planeta Hercóbulus – Nibiru. Entre los menos tremendistas circulan las tesis de colapsos socioeconómicos globales que extinguirnos, no, pero destruirán los modelos de civilización presentes para crear otras realidades peores o mejores segun el magín de cada cual. De todo y para todos los gustos, vamos. Ciertamente, algunas de estas cosas podrían hacernos una degollina de mil pares. Pero, ¿extinguirnos total o casi totalmente? E incluso, ¿destruir por completo la llamada civilización humana? ¡Veamos!
- 115 -
Antonio Cantó
Bichejos feraces. Para empezar, el ser humano está presente en casi todos los lugares del planeta Tierra que toleran vida compleja, incluyendo las bases antárticas, los submarinos y hasta la estación espacial. Estamos más extendidos que las cucarachas o las ratas. Desde las celebridades neoyorquinas hasta los korowai de Papúa-Nueva Guinea, desde los pescadores de Ushuaia hasta los de las Islas Fiyi o Islandia, desde los mineros árticos de Norilsk hasta los beduinos del Malí, desde los viejunos europeos o japoneses hasta la interminable chiquillería de Uganda o São Tomé e Príncipe, hay humanos por todas partes. Y además, en todos esos sitios se encuentran al menos otras cinco cosas: una estructura socioeconómica establecida, una administración pública, un tribunal, un hospital con médicos científicos y algo parecido a una universidad que custodia los conocimientos esenciales de la humanidad. Más las escuelas, claro: cualquier libro de cono contiene saberes inconcebiblemente más avanzados que los de Arquímedes, Galileo, Galeno, Leonardo, Paracelso y Avicenajuntos.
Una guardiamarina aprende a pilotar el submarino nuclear de misiles balísticos de la Armada de los Estados Unidos USS West Virginia. Las tripulaciones submarinas mixtas son cada vez más comunes en los países desarrollados; la primera mujer que comandó uno fue la noruega Solveig Krey, en 1995. Este avance tiene el curioso efecto secundario de que a bordo de algunos submarinos modernos se encuentra todo lo necesario para garantizar la supervivencia de la humanidad, su capacidad reproductiva y una parte significativa de sus conocimientos científico-técnicos en un entorno artificial extremadamente protegido capaz de operar con total autonomía durante varios años. Foto: US Navy.
- 116 -
La Pizarra de Yuri 3
Para erradicar a toda la humanidad, nuestro apocalipsis tendría que alcanzar todos esos sitios con fuerza de extinción, y además hacerlo a la vez. Hasta a los submarinos, donde cada vez más países incorporan tripulaciones de ambos sexos que, por cierto, suelen tener un elevado nivel científico-técnico en materias como navegación (lo que incluye a la astronomía, uno de los más clásicos motores científicos de la humanidad), ingeniería avanzada, telecomunicaciones y sensores, oceanografía, medicina básica o no tan básica si hay un oficial médico a bordo, física nuclear o ciencia militar, que incluye muchas cosas además del arte de matar gente. Y a todos los demás marinos, y a los ocupantes de la estación espacial, que siempre tienen una Soyuzdisponible para regresar (al menos tres de ellos, y ellas.) Además, tendría que hacerlo en todos esos sitios a la vezy de manera persistente. Porque, tú ya sabes, los humanos sabemos viajar. Tenemos barcos y aviones. Esos submarinos, que dicho sea de paso suelen contar con poderosos medios defensivos, pueden seguir navegando protegidos por varios cientos de metros de agua, un blindaje extraordinario. Los tipos y tipas en las bases antárticas (otra condenada panda de gafapastas con extensos conocimientos científico-técnicos) disponen de suministros que, bien racionados, pueden durar muchos meses o hasta años. No tiene que quedar en ninguna parte ni un solo cacho de tierra que cultivar, ni un lago en que pescar, ni un reno que preñar, ni una jungla donde recoger frutas silvestres. Ni siquiera cadáveres con los que ir tirando hasta que se pueda.
- 117 -
Antonio Cantó
Estudiantes de la Universidad de Katmandú, situada en pleno Himalaya, a 1.340 metros de altitud. Esta institución oferta formación superior en Medicina (incluyendo Enfermería y Farmacología), Ciencias (Biología Humana, Ciencias Medioambientales, Biotecnología, Física Aplicada), Ingeniería (Mecánica, Electrónica, Informática), Ciencias Sociales, Pedagogía, Artes y Humanidades. Foto: Universidad de Katmandú, Nepal.
Esto parece extrema, extrema, extremadamente improbable. En mi opinión, ni siquiera un impacto como el que se cargó a los dinos bastaría. Al impacto de Chicxulub sobrevivieron numerosas especies de plantas y animales, entre ellas nuestros antepasados mamíferos, y eso en mi pueblo se llama comida. Y amigo mío, amiga mía, los humanos podemos llegar a tener mucho ingenio y aún más mala leche a la primera expectativa de una tripa hambrienta. Lo hemos demostrado incontables veces a lo largo de estos dos últimos millones de años, cuando en vez de submarinos armados hasta los dientes con tripulaciones altamente cualificadas teníamos un palo, una piedra y unos gruñidos por lenguaje. Cuando en vez de estudiar doctorados en agricultura hidropónica, piscicultura o energías renovables, por ejemplo en la Universidad del Pacífico Sur, nos limitábamos a forrajear bayas y carroña aprovechando las horas de luz solar. La inteligencia humana, o eso que tenemos entre las orejas que nos hace preguntarnos qué demonios serán esas lucecitas que se ven en el cielo por la noche, y buscar una respuesta, es extremadamente adaptativa. Cuando se activa el instinto de supervivencia,
- 118 -
La Pizarra de Yuri 3
ni te cuento. Guerras antiguas y recientes nos muestran lo muy rápido que una criaturita de diez o doce años puede aprender a manejar el Kaláshnikov del abuelo para defenderse de los merodeadores, cazar algo que echarse a la boca y, ya de paso, ir a preguntar la hora a ese compi del cole que le cascaba a diario. Humanos semos. Para que nuestras futuras parejitas en el submarino, en la Antártida o en el condenado Katmandú se queden sinninguna comida, o sin ninguna agua potable, o sin ningún aire que respirar hay que liquidar a gran parte de la vida compleja terrestre. Y eso no ha sucedido, por lo menos, en los últimos 542 millones de años. La verdad es que no se me ocurre qué clase de fenómeno natural realista podría acabar con la humanidad. Los humanos somos más deextinguir a lo que se nos cruce por el camino que de extinguirnos nosotros; pero, al mismo tiempo, tenemos la suficiente pillería para asegurarnos de que no se nos acabe la comida (al menos a una buena parte de nosotros). En caso de emergencia, somos además unos omnívoros bastante flexibles capaces de salir adelante con cosas que harían vomitar a la cabra de Rambo. Para nosotros, animales, plantas, algas y hongos son gastronomía. En asedios y eso, hay gente que ha aguantado algún tiempo comiéndose el cuero de los cinturones o los zapatos. Por no mencionar las posibilidades culinarias del canibalismo.
- 119 -
Antonio Cantó
Homo antecessor zampándose a un prójimo por la parte de Burgos, según reconstrucción de los investigadores de Atapuerca. El canibalismo no desapareció por completo hasta el siglo XX y sigue dándose en situaciones críticas de supervivencia o como una manera de extender el terror en algunas guerras. Foto: J. Luis Martínez vía Wikimedia Commons.
Además, la gran mayoría de fenómenos naturales de calibre extinción son relativamente lentos. Uno de los más rápidos y aniquiladores, la Gran Oxidación, se tomó al menos dos mil años; una cifra algo controvertida (por breve), pero la aceptaremos para plantear el caso extremo. La humanidad es capaz de hacer muchas cosas en dos mil años, sobre todo si tiene una buena motivación para no dormirse en los laureles. Hace dos milenios no teníamos todavía ni brújulas (inventadas en China durante el siglo XI), ni pólvora (China, siglo VII), ni el número cero (India, siglo IX), ni gafas (Italia, siglo XIII, con sus más remotos precursores en la Roma del siglo I), ni imprenta (Alemania, siglo XV), ni la menor idea sobre el sistema respiratorio (Egipto, siglo XIII), o sobre el origen
- 120 -
La Pizarra de Yuri 3
microbiano de las epidemias (sospechado desde antiguo, pero no aceptado ni utilizado hasta el siglo XIX) y nuestro sistema de comunicaciones más veloz era un caballo, en aquellos tiempos más bien paticortos y lentos. Ante un proceso de extinción natural extrema tan rápido que sólo se tomase dos mil años, la humanidad aún dispondría de siglos para hacerle frente. Según de lo que se trate, la mayor parte de la tecnología puede estar ya disponible y ten por seguro que la aún inexistente se desarrollaría bien rápido. Igual nos pasábamos una temporada pagando IVA del 50% o el 60%, igual que si detectásemos un gran meteorito en aproximación, pero no veo ningún motivo obvio por el que la humanidad no pudiese contraatacar con toda su ciencia o, si no fuese posible, construir hábitats artificiales hasta que lo sea. En realidad, la mayoría de las grandes extinciones se tomaron su tiempo. Por ejemplo, la más gorda de todas, la extinción supermasiva del Pérmico-Triásico, necesitó entre 10.000 y varios cientos de miles de años para completarse. Me resulta inimaginable lo que podría hacer una humanidad amenazada para defenderse en un plazo de diez mil años, pero estoy seguro de que mucho. Hace diez milenios, acabábamos de estrenar el Neolítico y nuestra tecnología más avanzada era la alfarería. Faltaban aún decenas de siglos para que inventásemos la rueda, las velas de navegar, la escritura o el bronce. Ah, sí, hace unos 18.000 años, en pleno Paleolítico, perseguidos por los hielos del Último Máximo Glacial, un puñado de siberianos aprovecharon para colonizar América. Otras posibles extinciones naturales necesitan aún más tiempo, o son aún más improbables. Los procesos volcánicos verdaderamente grandes, como las inundaciones basálticas, cubren entre decenas de miles y algún millón de años. La mayor explosión supervolcánica conocida, La Garita, liberó 400 veces menos energía que el impacto meteorítico de Chicxulub. Las inversiones de los polos magnéticos terrestres, que también dieron que hablar hace algún tiempo, no parece que tengan ningún efecto en particular sobre la vida (y no, la Tierra no se va a dar la vuelta como malentendieron algunos, al menos mientras la Luna siga ahí). La explosión de una supernova próxima podría causar una extinción, pero esto ni ocurre a menudo ni tampoco es evidente por qué habría de acabar con toda la humanidad. Y así con todo. Autoextinción. Bien, si Mamá Naturaleza no está por la labor de proporcionarnos un buen apocalipsis, siempre podemos contar con nosotros mismos para causarlo, ¿eh? Vamos, esto es lo que
- 121 -
Antonio Cantó
temen millones y hasta parecen desear algunos: que en el pecado de nuestro orgullo infinito y demás llevemos la penitencia. A quién se le ocurre jugar a los dioses y todo eso. ¡Seguro que tarde o temprano, de un modo u otro, nos habrá de costar caro! ¿O no…?
Lanzamiento en pruebas de un misil balístico intercontinental ruso RS-24 Yars de 2007, provisto con varias cabezas termonucleares maniobrables y tecnologías avanzadas para la penetración anti-antimisil. Pese al extraordinario poder de estas armas, suficiente para cauterizar sociedades enteras si se utilizan en masa, no tenemos la capacidad de matar a todo el mundo en todas partes a la vez. Foto: © Polígono de Kapustin Yar, Ministerio de Defensa, Rusia.
A ver. Comencemos por la guerra, ese viejo hobby de la humanidad. Las guerras son una garantía segura de que una montaña de gente resultará muerta. Después de las epidemias, que consideraremos más adelante, las mayores catástrofes humanas han sido siempre las guerras. El peor desastre natural del que se guarda memoria fueron las inundaciones en China de 1931: mataron como máximo a cuatro millones de personas. Durante la Segunda Guerra Chino-Japonesa, que se libró pocos años después, perecieron entre 20 y 35 millones de personas. Los libros de texto japoneses, por su parte, siguen diciendo que fue un incidente. En todo caso, no hay color: se nos da muy bien matarnos a nosotros mismos. Bueno. Lo primero, una observación que es más bien una perogrullada, pero a veces se olvida: las guerras se hacen para ganarlas, o al menos no perderlas. Es decir, para - 122 -
La Pizarra de Yuri 3
obtener o conservar poder político, económico, social, etcétera. Yo no conozco una sola guerra en la historia de la humanidad que se haya hecho para matar a todo el mundo, incluyendo a los de tu propio bando, a ti mismo y a tu familia (y a la del gerifalte máximo de turno). De hecho, muchas veces se hacen para defenderlos. La única guerra concebible que podría conducir a situaciones de extinción sería una que se realizase con armas de destrucción masiva extraordinariamente poderosas y que además se saliera de madre por completo, sin teléfonos rojos de ninguna clase ni la presencia de ningún par de personas sensatas aquí y allá diciéndose: “vamos a moderar esto un poco, ¿no?” La Segunda Guerra Mundial, la más mortífera de todos los tiempos, se comió a entre 65 y 85 millones de personas a lo largo de seis años; una barbaridad. Pero, por una parte, sólo afectó a los lugares donde se combatió. Y esto va a sonar crudo, pero esa es la gente que muere actualmente en el mundo en no llega a un año y medio. Lo único que hizo esa guerra monstruosa fue incrementar la tasa de mortalidad global durante una temporada. Ni siquiera redujo la población mundial a corto plazo: en 1940 había unos 2.300 millones de habitantes en la Tierra y en 1950, más de 2.500. Sí, es tremendo, pero una guerra de 75 millones de muertos incluyendo batallas gigantescas, bombardeos estratégicos urbanos, asedios, genocidios, represalias masivas y dos bombazos atómicos no nos hace ni cosquillas como especie. Supongamos una guerra nuclear. Una enloquecida, en plan 1985, con unas 70.000 armas nucleares de gran potencia a punta de gatillo y un general Jack D. Ripper a los mandos. Bien, para empezar, la mayor parte de los objetivos interesantes están en el Hemisferio Norte (Estados Unidos, Rusia, Europa, China…). Espero que mis amistades del Hemisferio Sur no se ofendan si digo que por allí tenéis muchos menos blancos que valgan un ICBM. No por el precio, que un ICBM moderno cargado de MaRVs y ayudas a la penetración anti-antimisiles y de todo apenas cuesta entre cincuenta y cien millones de dólares –más o menos como un caza Eurofighter y notablemente más barato que un F-35A cuando consigan que funcione–, sino porque al Norte hay objetivos mucho más críticos que atacar; con lo que la mortandad primaria, es decir la causada directamente por las detonaciones, sería mucho menor al Sur del ecuador.
- 123 -
Antonio Cantó
Animación con la diseminación de 150 Tg de humos en caso de guerra nuclear entre Estados Unidos y Rusia, a partir de un 14 de mayo, utilizando todo su arsenal disponible en 2007. Realizada por Luke Oman, NASA, sobre las conclusiones del estudio de la Universidad John Hopkins y la Universidad Rutgers: Nuclear winter revisited with a modern climate model and current nuclear arsenals: Still catastrophic consequences (en Journal of Geophysical Research, Vol. 112:2007, D13107, doi:10.1029/2006JD008235.). El modelo computacional utilizado es el ModelE del Centro Goddard de la NASA. Esta diseminación provocaría con gran probabilidad un invierno nuclear global fuerte y prolongado, pero puede observarse cómo las regiones situadas muy al Sur resultan significativamente menos afectadas y disponen de una semana para prepararse.
De todos modos, imaginemos que la batalla atómica en sí liquida al 75% de la población del Hemisferio Norte y al 25% de la situada en el Hemisferio Sur. Eso serían unos 5.000 millones de muertos, considerablemente más que las peores estimaciones realizadas en lo peor de la Guerra Fría. A continuación, el invierno nuclear, las enfermedades asociadas a la radiación, la sinergia negativa sobre los sistemas socioeconómicos y el caos generalizado le meten un hachazo de, digamos, otro 50% a los supervivientes. Seguirían quedando 1.000 millones de humanos vivos, o sea más o menoscomo en el año 1.810, cuando Napoleón se libró de Josefina para casarse con María Luisa y los colombianos se declaraban independientes del Imperio Español. En unas décadas, no pocas de las regiones afectadas volverían a ser habitables como ahora lo son Hiroshima y Nagasaki. Y en un siglo o dos volveríamos a la parte de la adolescencia quejándose por tener que estudiar esa antigualla, con lo que molan las clases prácticas de astronáutica. - 124 -
La Pizarra de Yuri 3
Pues vaya. Esto no es un apocalipsis, ni un fin del mundo, ni de la humanidad ni nada que se le parezca. Sólo una carnicería un poco mayor que las que nos hemos infligido desde que se nos ocurrió la idea de agarrar un hueso para ir a buscarle las vueltas a algún vecino. Una vulgaridad. Oye, oye, ¿y las armas biológicas? Seguro que a alguien se le puede ir de las manos un virus bien hideputa, modificado por ingeniería genética o como sea, que se extienda como un incendio forestal en pleno viento de verano, mute muy deprisa, mate mogollón y acabe llevándosenos a todos o casi todos por delante, ¿no? Pues… qué quieres que te diga. Esto ya es especular, pero las armas biológicas ni son muy populares –precisamente por la posibilidad de que se vuelvan contra uno– ni se han demostrado muy eficaces en las pocas ocasiones en que se han usado. La propagación de las enfermedades y sus efectos sobre los seres vivos son fenómenos extremadamente complejos que nunca se saldan con la muerte de toda la población expuesta. Y no se puede subestimar la capacidad para defenderse de las mismas que aporta la medicina moderna, tan avanzada como las técnicas de guerra biológica, si no más.
Extensión de la peste negra por Europa entre 1346 y 1353. Esta epidemia se comportó como un arma biológica singularmente agresiva cayendo sobre una población sin la menor idea de cómo defenderse o combatirla. Puede que matara a media Europa, pero el resto siguió adelante y aquí estamos. Imagen: Andrei Nacu vía Wikimedia Commons.
- 125 -
Antonio Cantó
Pongamos un caso: el peor de todos los históricos que se recuerdan, la peste negra, que además me sirve para ilustrar el caso de las epidemias. La peste negra fue como si los extraterrestres hubiesen venido a por nuestro cuello con un arma biológica especialmente perniciosa. El perpetrador generalmente aceptado, la bacteria Yersinia pestis, es un bacilo mortal que se transmite más que nada a través de la pulga de las ratas. Y donde hay humanos, suele haber ratas. En el pasado, muchas más: ratas por todas partes. Para acabar de arreglarlo, cayó sobre una humanidad que aún no sabía nada de microbios, ni de higiene, ni de asepsia, ni deantibióticos, ni de medicina científica de ninguna clase. La tecnología más avanzada de la época para combatirla consistía en quemar los cadáveres y sus ropas junto a unos cuantos judíos. Que ahora, escuchando a algunos, parece como si eso del antisemitismo en el Occidente Cristiano fuese un invento nazi que no se le había ocurrido a nadie antes salvo por alguna cosilla. Ya que estaban metidos en harina, aprovecharon para fundirse también a extranjeros, gitanos, mendigos y leprosos. Salvo por los leprosos, que ya no se ven, qué coincidencia, ¿eh? Al grano. Además, la peste negra no llegó una, sino muchas veces, a lo largo de más de un milenio. La primera fue posiblemente la Plaga de Justiniano del 541 y la última, la epidemia rusa de 1771. En todos los casos mató a porcentajes significativos de la población afectada, pero la cañera fue la muerte negra que se extendió de Asia a Europa entre 1347 y 1353, seguramente por la Ruta de la Seda. Según las distintas estimaciones, se ventiló a entre 75 y 200 millones de personas, sobre una población mundial total en aquel tiempo de unos 450 millones. Los trabajos más recientes sugieren que la mortalidad general fue del 45 al 50%, llegando al 75 u 80% en regiones mediterráneas como Italia, el Sur de Francia y el Este de España. El 80%, he dicho, igual que el medievalista Philip Daileader. Por aquí por estas partes del Levante donde hablamos raro se le llamó la glànola, debido a las glándulas inflamadas que adquirían un aspecto como de bellota (gla), y causó una enorme mortandad en varias oleadas. Después vendría el cólera. Mi bisabuela todavía se acordaba de la espantosa epidemia de cólera de Valencia de 1885. Pues ni siquiera eso fue el tan esperado apocalipsis. Fíjate, aquí estamos hablando de eso que le pasó a los antiguostú y yo, tranquilamente sentados delante de nuestros ordenadores. Mi bisabuela, que era niña por entonces, sobrevivió al cólera. Y es de suponer que mis retatarabuelos o cosa así lo hicieron a la peste, o yo no estaría ahora aquí contándote esto. Historia antigua.
- 126 -
La Pizarra de Yuri 3
Arriba: Experimento del NASA Mars Greenhouse para el cultivo de hortalizas en… Marte. Abajo: Un concepto final utilizando tecnologías análogas. Si podemos hacerlo en Marte, muy mal tendrían que ponerse las cosas aquí en la Tierra para que no fuésemos capaces. Imagen: PopEye on Mars | NASA.
Las catástrofes ecológicas y climáticas son otro tema favorito en los apocalipsis laicos. Pero ni el más potentecañón de clatratos será lo bastante rápido como para que no nos demos cuenta de que nos está matando con algún tiempo para tomar medidas, se pongan como se pongan los negacionistas. El resto son procesos mucho más lentos, que
- 127 -
Antonio Cantó
mayormente sólo matan y arruinan a los pobres, y tú ya sabes lo que pasa con la muerte o la ruina de los pobres. Sea como sea,business as usual. Para ir más allá, habría que meterse en temas más propios de lo que hoy en día consideramos ciencia-ficción. Pero si ni guerras, ni genocidios, ni la extinción del Holoceno ni la mismísima muerte negra han acabado con nosotros, va a ser difícil que haya algo que lo haga. En realidad, y pese al pesimismo antropológico de algunos, la humanidad moderna ha demostrado ser bastante sensata, al menos en la escala grande de las cosas. Si no nos fuimos a tomar por saco cuando había 70.000 armas nucleares listas para salir a toque de botón, es que tampoco somos tan idiotas. Incluso en los peores pudrideros del Tercer Mundo la esperanza de vida media aumenta y la mortalidad infantil cae. El porcentaje de hambrientos se reduce y masas inmensas salen de la miseria más abyecta. Somos mucho más conscientes y activos con las cuestiones medioambientales que hace unas décadas, cuando no parecía importarle a nadie. Distamos mucho de ser dioses, pero tampoco somos demonios. Somos, eso, humanos. Y a los humanos nos gusta sobrevivir, a ser posible en buenas condiciones. A muchísimos, incluso nos seduce aquella idea tan vieja de dejar un mundo un pelín mejor cuando nos vayamos del que nos encontramos a nuestra llegada. Sea como sea, una vez más: para que cualquiera de esas catástrofes acabe con la humanidad, tendría que ocurrir en todas partes a la vez con intensidad de extinción y la persistencia suficiente como para que cualquier posible superviviente perezca también. A menos que esos 144.000 supervivientes de la profecía bíblica se refieran a las tripulaciones de los submarinos, los científicos de la Antártida, el alumnado de la Universidad Nacional de Tierra del Fuego o la de Katmandú, los aborígenes andamaneses y demás pecadores en vez de sus santones favoritos, el apocalipsis no va a ocurrir. Una breve nota sobre los colapsos civilizatorios. Las civilizaciones colapsan. Lo han hecho siempre y seguramente seguirán haciéndolo siempre, o al menos durante mucho tiempo. Pero no lo hacen a la vez.
- 128 -
La Pizarra de Yuri 3
La Cabeza Colosal nº 1 de San Lorenzo Tenochtitlán. Fue esculpida entre el 1200 y el 900 aC por la cultura olmeca que luego daría lugar a todas las civilizaciones mesoamericanas. En ese mismo periodo, numerosas civilizaciones del Mediterráneo y el Oriente Próximo colapsaban. Conservada en el Museo de Antropología de Xalapa, Veracruz, México. Imagen: Wikimedia Commons.
Mientras colapsaba la Edad del Bronce, llevándose por medio a buena parte del Mediterráneo y sus alrededores, florecía la cultura olmeca de San Lorenzo Tenochtitlán que daría lugar a todas las grandes civilizaciones mesoamericanas. Durante el mismo siglo en que los persas vencían en Pelusium, señalando así el principio del fin del casi tres veces milenario Antiguo Egipto, en Mileto se fundaba la primera escuela de la filosofía occidental. Al caer el Imperio Romano de Occidente, la India estaba en plena Edad Doradadedicándose a inventar los números que usamos hoy en día, explicar los eclipses y escribir el Kama sutra. Cuando las civilizaciones mesoamericanas resultaron pulverizadas por la llegada de los europeos, en China reinaba la Pax Sinica del Gran Ming. Se ha postulado que la cada vez mayor interconexión e interdependencia de las sociedades, el proceso que ahora llamamos globalización pero que se remonta al día en que un tipo salió de su aldea para vender la oveja en la aldea del al lado porque le salía - 129 -
Antonio Cantó
más a cuenta, puede facilitar las reacciones en cadena de tal modo que un colapso local se convierta en un colapso general. Sin embargo, también se ha postulado lo contrario: que un mundo así es mucho más resistente a los colapsos. De manera particular, a que arda labiblioteca de Alejandría y nos quedemos todos huérfanos, porque ahora mismo el saber humano está reproducido millones de veces, prácticamente en tiempo real, y disponible por todas partes. Hoy en día, yo podría escribir este post u otro muy parecido sentado aquí en Valencia, en París, en San Francisco, en Moscú, en Santiago de Chile o tomando el sol en las playas de Tailandia. En todos esos sitios y muchos otros más está disponible todo el conocimiento necesario incluso aunque se cortasen las comunicaciones. Es más: en cualquiera de esos lugares podría estudiar casi cualquier carrera hasta el doctorado a un nivel muy próximo al state of the art actual por mucho que el resto del mundo hubiese desaparecido. Ahora esto es mucho más evidente y sencillo, pero viene siendo posible desde que se inventó la imprenta. No me consta ningún retroceso o paralización sustancial del conocimiento humano desde que hay imprentas y casi todo está disponible en casi todas partes. Tú puedes sentarte a leer la Teoría de la Relatividad General, las obras completas de Aristóteles, un libro de medicina, un manual de diseño electrónico, una colección de ciencia política o un tratado de ingeniería moderna en la biblioteca de la Universidad de Kinshasha, República Democrática del Congo, el país más pobre de la Tierra. Y si puedes hacer eso, que puedes, la probabilidad de que sobrevenga una edad oscura global es extremadamente baja incluso aunque suceda una catástrofe a gran escala. La recuperación sería sólo una cuestión de tiempo, incluso sin tener en cuenta a la gente de los submarinos o de la Antártida o del Paranal y demás. El apocalipsis fallido. Una de las cosas que más me fascinan de este tema es que todas las profecías apocalípticas han fallado –o no estaríamos aquí– y sin embargo hay millones de personas que siguen tragándoselas, no todas ellas entre las bombillas menos brillantes del cajón. Aquí tienes una pequeña lista con sólo una minúscula fracción de las que ha habido, pero suficiente para hacerse una idea. Se me escapa cómo hay personas, algunas de ellas inteligentes, que pueden seguir tragándose estas cosas. Quizá sus deseos son más poderosos que su capacidad crítica. No lo sé.
- 130 -
La Pizarra de Yuri 3
Vacunando contra el sarampión, las paperas y la rubéola en el campo de refugiados Kibati II, República Democrática del Congo. Esto, que es posible y hasta normal hoy en día, era pura fantasía hace sólo unas décadas. Incluso en caso de gran catástrofe global, estos niños tienen muchas más posibilidades de supervivencia que sus antepasados. Foto: ONU
Y bueno, si no pasa nada de todo esto, ¿qué será de nosotros? Pues… tampoco lo sé. :P Yo no soy capaz de ver el futuro y tampoco creo que nadie pueda. Es más, quienes dicen ser capaces suelen ignorar la profundidad de las leyes cósmicas que tal habilidad violaría. Yo a lo más que acierto es a estimar probabilidades y observar tendencias. Estimo que la probabilidad de que algo se nos lleve por delante del todo es abismalmente baja, que el tiempo entre posibles sucesos apocalípticos se mide en eras geológicas, y que cuanto más sepamos y podamos, estaremos todavía más a salvo. El mismo meteorito que ahora mismo nos haría un cisco puede ser sólo una anécdota con otros cien años de tecnología aeroespacial. El mismo desastre ecológico que hoy sería un problemón se puede convertir en un mero incidente con un siglo más de química, ciencias de la vida y ciencias planetarias. Etcétera. Esto me conduce a lo de las tendencias. ¿Realmente vamos a seguir avanzando, o la civilización humana se dirige hacia una era oscura como tantos temen? Bueno, pues supongo que no es imposible, si bien por lo que he explicado antes esa sería probablemente una era oscura con muchos matices. Más allá de la crisis económica presente, que de esas hemos tenido una o varias por siglo, no veo ningún motivo obvio por el que la humanidad vaya a dejar de seguir avanzando como venimos haciendo desde que asomamos una oreja fuera de la caverna. Mientras escribo estas líneas, entra la noticia de que los amerikantsy de la National Ignition Facility han logrado una reacción nuclear de fusión con beneficio energético. Magnífica noticia. Muy bien por ellos. Otro paso más hacia un futuro mejor. Y no paran de ocurrir.
- 131 -
Antonio Cantó
Naturalmente, puede haber pendulazos. Puede haber altibajos, tiempos dífíciles, baños de sangre, lo que tú digas. Pero si la historia humana sigue más o menos como los últimos diez mil años, esa es una historia de progreso, de éxito, de vivir cada vez más y mejor. Sí, hasta en el Tercer Mundo, aunque desde luego tendría que ser mucho más y más rápido. Quiero recuperar aquí un gráfico demoledor que publiqué hace ya algún tiempo:
Mortalidad infantil y esperanza de vida 1950-2010 (abrir en ventana o pestaña nueva para ampliar)
Ese no es el gráfico de una humanidad que se va por el sumidero. Ese es el gráfico de una humanidad que, mal que bien y con todos sus enormes problemas y sus indignantes injusticias y a un ritmo desesperantemente lento, funciona.Gapminder tiene otros datos buenísimos. ¿Debería ser más rápido? Sí. ¿Debería ser más justo? Sí. ¿Debería ser más eficaz? Sí. ¿Estamos fracasando como especie? No, se pongan como se pongan los cínicos, los pesimistas y quienes en el cinismo y el pesimismo se excusan para no desacoplar las nalgas del sofá o sacar la tarjeta de crédito porque total, no sirve para nada. Si la humanidad sigue avanzando más o menos como estos últimos diez milenios, no nos dirigimos a ningún apocalipsis, sino a un mundo mucho mejor. Uno donde el presente nos parecerá aquel pasado de mierda, como debe ser. Pero no ocurrirá solo, ni va a venir ninguna fuerza sobrenatural a poner las cosas en su sitio o a elegir a nadie para llevárselo a ningún paraíso gratis total. Hay que arremangarse y trabajar, cada cual en lo que sea mejor por su naturaleza y capacidad. Por ejemplo, no sé, ¿hoy? Anuncio de Telefónica del año 1985, cuando todavía era un poco de todos y no de unos inversores a los que yo no conozco de nada. En aquellos tiempos, no todo el mundo entendió de qué demonios iba. Ese futuro del que habla se llama Internet y es lo que estamos utilizando tú y yo ahora mismo.
- 132 -
La Pizarra de Yuri 3
La anomalía de L’Atalante Yuri, el 8 de febrero de 2014 @ 10:32 · Categoría: Ciencia popular
Los metazoos de L’Atalante, en el Mediterráneo oriental, desafían una vez más los límites de la vida.
El tardígrado u osito de agua, un invitado habitual en este blog. Pese a ser un animal como nosotros, se trata de un poliextremófilo radical capaz de sobrevivir a 6.000 atmósferas de presión, a más de 5.000 grays de radiación (10 grays bastan para aniquilar a los humanos) y hasta en el espacio exterior: en septiembre de 2007, la cápsula rusa Foton-M3 se llevó a unos cuantos de paseo por la órbita terrestre durante 12 días, expuestos al vacío cósmico y la radiación ultravioleta solar. Tras ser rehidratados a su regreso, el 68% revivieron (aunque la mortalidad posterior fue elevada.) Los huevos que llevaban con ellos resultaron esterilizados, pero los que pusieron después eclosionaron con normalidad. Fuente: Jönsson et al, “Tardigrades survive exposure to space in low Earth orbit”, Current Biology Magazine vol. 18, nº 17, R729-731.
Me fascinan los extremófilos, esos seres disidentes que por el mero hecho de existir ponen en tela de juicio todas las convenciones sobre lo que es posible en el mundo de los vivos. Desde hace algún tiempo, ya sabemos que existen seres capaces de medrar y tomarse unas cañitas tranquilamente en entornos antiguamente considerados imposibles para la vida. Arqueas que siguen reproduciéndose a 122ºC o sumergidas en ácido sulfúrico, bacterias capaces de sobrevivir a presiones suficientes como para producir diamante artificial (16.000 atmósferas) o a 30.000 grays de radiación gamma (similar a la radiación directa a 590 metros de un arma termonuclear de un megatón), líquenes que mantienen su actividad fotosintética a 20ºC bajo cero, indicios de actividad enzimática en mezclas acuosas a 100ºC bajo cero, y hasta organismos pluricelulares complejos con la habilidad de soportar buena parte de
- 133 -
Antonio Cantó
todo esto mientras viajan expuestos al espacio exterior, como nuestro querido osito de agua… Incluso sin salir de aquí, incluso sin abandonar el planeta Tierra, donde la vida ha surgido sometida a unos determinantes físico-químicos muy específicos, estamos rodeados por vivientes que podrían sobrevivir, reproducirse y evolucionar en condiciones alienígenas. De hecho, es incluso posible que la primera vida sobre la faz de la Tierra estuviera constituida por algunos de estos seres extremos, al calor de las fumarolas submarinas. Así pues, con tantas pruebas de que es posible la vida e incluso la vida compleja donde se creía imposible, surge inmediatamente la pregunta de si es posible la vida e incluso la vida compleja como se creía imposible. Por ejemplo, en ausencia de alguno de sus constituyentes fundamentales: carbono, nitrógeno, hidrógeno, oxígeno, lo que viene a llamarse por el acrónimo CHON. Bioelementos.
Composición elemental del ser humano, por masa. (Clic para ampliar)
En el planeta Tierra, los elementos fundamentales para la vida son el carbono, el nitrógeno, el hidrógeno y el oxígeno. Entre los cuatro, suman entre el 97,9 y el 99,7% de lo que somos. No tiene nada de raro: todos ellos se cuentan entre - 134 -
La Pizarra de Yuri 3
los elementos más comunes de nuestra galaxia y de la corteza yatmósfera terrestres que nos vieron nacer. También se consideran esenciales el fósforo y el azufre, dando lugar al acrónimo CHONPS. Y resulta difícil imaginar vivientes como los de aquí sin sodio, calcio, potasio, magnesio, cloro, hierro y yodo. Los demás elementos que intervienen en la vida terrestre, hasta unos setenta aproximadamente, aparecen en unos seres vivos y en otros no. (+info: Esta es tu naturaleza) De todos ellos, la clave de la vida terrestre es el carbono pero su principal componente es el oxígeno: por ejemplo, en un cuerpo humano, asciende al 62,8% de la masa que nos constituye. En las bacterias esta cifra aumenta al 73,7% y en algunas plantas, como la alfalfa, llega al 77,9%. ¿Y dónde está este oxígeno? Bueno, pues mayormente fijado en el agua; entre la mitad y las tres cuartas partes de lo que somos es agua. Pero también en un montón de las demás moléculas que nos dan forma. De hecho, es difícil concebir biomoléculas que no contengan oxígeno. Desde los lípidos más básicos que componen las membranas celulares hasta monstruos como el ADN y el ARN, todos necesitan el oxígeno para existir. Hasta hace poco se pensaba que todos los seres multicelulares complejos necesitamos de la presencia del oxígeno libre (O 2) en nuestro entorno para sobrevivir y reproducirnos. Es decir, que somos aerobios obligatorios. Sin oxígeno libre en el aire o en el agua que nos rodea, según tengamos pulmones o agallas o lo que sea, nos asfixiamos y morimos rápidamente. Eso de vivir en ausencia de oxígeno era cosa de seres unicelulares como las bacterias o las arqueas, que usan mecanismos como la fermentación o la respiración anaeróbica para conseguir lo suyo. Pero nada más complejo que un protozoo podía existir sin tirar mano del oxígeno a su alrededor; y aún estos, con dificultades. Eso creíamos.
- 135 -
Antonio Cantó
Buque oceanográfico L’Atalante, del Instituto Francés de Investigaciones para la Explotación del Mar (IFREMER). Foto: © IFREMER
Los extraños habitantes de L’Atalante.
Ubicación de la Cuenca de L’Atalante, Mediterráneo Oriental. Mapa base: © Google Maps (clic para ampliar)
Así fue hasta el año 2010, cuando empezaron a llegar noticias sobre unos bichejos francamente extraños que medran a su gusto en la Cuenca de L’Atalante, a su vez un sitio bastante peculiar. La Cuenca de L’Atalante es un lago submarino de salmuera situado en el Mediterráneo Oriental, 192 km al Oeste de Creta, a unos 3.500 metros de profundidad. No es el único; hay bastantes más. En realidad, es el más pequeño de los tres que se encuentran por la zona. Este en particular recibe su nombre por el buque francés de investigación oceanográfica que lo descubrió en 1993. Este lago de salmuera y sus dos vecinos, Urania y Discovery, se formaron hace no más de 35.000 años, conforme los depósitos de evaporita surgidos durante la Crisis salina del Messiniense (hace algo más de cinco millones de años) fueron disolviéndose y reconcentrándose en las profundidades del Mediterráneo. Así, su salinidad se disparó. Hoy en día es ocho veces superior a la del agua marina corriente, cerca del punto de saturación. Se trata básicamente de unlago hipersalino, pero a gran profundidad. Estos lagos submarinos de salmuera tienen varias peculiaridades. Una de ellas es que sus aguas se mezclan muy poco con las del resto del mar. Es decir, con las que tienen oxígeno libre disuelto, lo que permite respirar a los peces y demás. Eso significa que éste no puede pasar y, como resultado, son fuertemente anóxicos. Vamos, que prácticamente no hay oxígeno libre en ellos.
- 136 -
La Pizarra de Yuri 3
Así que durante los siguientes diecisiete años se supuso que en L’Atalante sólo residían los vecinos de turno en semejantes sitios: bacterias y arqueas quimioautótrofas, como las euriarqueotas aficionadas a las fuentes hidrotermales y demás extremófilos a los que sólo les molan los sitios que nos matarían rápidamente a todos los demás. Especialmente, a los metazoos. O sea, a nosotros, los animales.
La loricífera Spinoloricus nov. sp. de la Cuenca de L’Atalante, el primer animal encontrado que puede vivir en condiciones totalmente anóxicas. Teñida con Rosa de Bengala. Imagen: Danovaro et al. BMC Biology 2010, 8:30
Hasta que, en 2010, apareció la anomalía. Lo hizo en unpaper encabezado por el profesor italiano de biología marina Roberto Danovaro, que lleva por título “Los primeros metazoos viviendo en condiciones anóxicas permanentes. “ Es decir, animales viviendo sin presencia de oxígeno libre. Hasta el día anterior tal cosa se consideraba, esencialmente, imposible. Y sin embargo ahí están, bien sanos y lustrosos. En las fosas hipersalinas del Mediterráneo se han pillado el apartamento al menos tres especies de Loricifera que no necesitan respirar oxígeno libre como todo hijo de madre pluricelular. Los Loricifera son unos bichitos microscópicos o casi, residentes habituales en los sedimentos del
- 137 -
Antonio Cantó
fondo marino y evolutivamente próximos a los gusanos gordianos y los gusanospene (sí, ese pene en el que estás pensando). Estas tres especies se llaman Spinoloricus nov. sp. (o Spinoloricus Cinzia),Rugiloricus nov. sp. y Pliciloricus nov. sp. ¿Pero cómo son capaces? Bien, según los estudios realizados hasta el momento, resulta que estos tres animalitos carecen de mitocondrias, con lo que no tienen las mismas exigencias de respiración celular que el resto de nosotros. En su lugar parecen poseerhidrogenosomas, algo más propio de ciertos hongos,protistas y protozoos ciliados. El intrincado proceso evolutivo mediante el que tales hidrogenosomas pudieron acabar en un animal pluricelular como tú y como yo es todavía desconocido. Algunos sugieren que podría tratarse de simbiontes, pero esto presenta sus propios problemas. A decir verdad, todavía no se sabe gran cosa de ellos. Están en ello. Pero se reproducen por huevos (que nooo, que quiero decir que son ovíparos). Aunque el equipo del Dr. Danovaro no logró llevar a ninguno de estos animales hasta la superficie sin que murieran por el camino, dos de los que obtuvieron contenían huevos. Se los extrajeron y los incubaron en condiciones totalmente anóxicas a bordo del buque, con éxito. Los huevos terminaron abriéndose y dieron lugar a animalitos vivos. Cada vez más vida, en lugares cada vez más imposibles. Naturalmente, Spinoloricus nov. sp., Rugiloricus nov. sp. y Pliciloricus nov. sp. incorporan tanto oxígeno en sus moléculas como el resto de los terrestres y lo necesitan para sobrevivir, por mucho que lo obtengan de manera distinta. Toda la vida que conocemos en este planeta procede de un antepasado común; estos Loricifera no son una excepción. Están sujetos a las mismas reglas que todos los demás, y eso incluye ser CHONis –ya sabes, carbono, hidrógeno, oxígeno, nitrógeno ;-) –. No son animales libres de oxígeno, como se ha dicho por ahí. Simplemente gestionan su oxígeno de una manera distinta, bastante extraordinaria. Pero también es cierto que la vida no deja de darnos sorpresas. Cada vez que alguien establece un límite sobre los lugares donde es posible la vida, al menos en un entorno planetario como la Tierra, termina apareciendo algún bicho que se lo come. Y algunos, claro, nos preguntamos dónde está el límite. Los más astrobiotrastornados, nos preguntamos lo que podría ser posible con otras biologías, bajo la luz de otros soles. En este sentido, una de mis rayadas favoritas me la enseñó el astrofísico del pueblo Carl Sagan, y no soy el único que la sufre. Es, por supuesto, lo que llamamos el chauvinismo del agua. En las propias palabras de Carl: - 138 -
La Pizarra de Yuri 3
Hay chauvinismo del carbono, chauvinismo del agua… ya sabes, gente que dice que la vida, en todas partes, sólo puede basarse en las mismas bases químicas en que nos sustentamos nosotros. Bien, a lo mejor tienen razón. Pero dado que los mismos tipos que hacen esa afirmación están basados en el carbono y en el agua, a mí me hace sospechar. Si estuvieran basados en alguna otra cosa, me merecerían más credibilidad. Debo confesar que soy un chauvinista del carbono. Habiendo estudiado las alternativas, me parece que el carbono es mucho más adecuado para crear moléculas complejas, y mucho más abundante que cualquier otra cosa en que podamos pensar. (…) Sin embargo, no soy tan chauvinista del agua. Me puedo imaginar al amoníaco, o combinaciones de hidrocarburos que no son nada raras en el universo, desempeñando el papel del agua. Luego tenemos a los chauvinistas del tipo espectral G, que dicen que sólo puede haber vida en torno a estrellas como la nuestra. Los chauvinistas planetarios dicen que la vida sólo puede ocurrir en planetas y no, por ejemplo, en estrellas o en el medio interestelar. Soy un chauvinista planetario: parece haber buenas razones para que la vida sólo pueda aparecer en planetas [o lunas]. El chauvinista extremo dice: “si mi abuela estaría incómoda en ese ambiente, entonces la vida es imposible ahí.” Uno se encuentra con eso a menudo. La conocida expresión “la vida tal y como la conocemos” se basa exactamente en esa idea. Pero hay muchos microorganismos exóticos en la Tierra a los que les va bien en soluciones calientes de ácido sulfúrico concentrado y otras muchas cosas. Si no has oído hablar de ellos, te crees que nadie podría vivir en semejante entorno. Pero hay bichos que lo adoran. Creo que una de las grandes delicias de la exobiología es que nos obliga a enfrentarnos al provincialismo en nuestras suposiciones biológicas. Toda la vida en la Tierra es esencialmente la misma; químicamente, somos idénticos a las bacterias o las begonias. (…) Creo que es ahí donde estará la realidad en la búsqueda de inteligencias extraterrestres. No se va a ajustar a nuestras fantasías, y no se va a ajustar a nuestro chauvinismo. –Timothy Ferris [1973], entrevista a Carl Sagan en la revista Rolling Stone. (Recogida por Tom Head [2006], Conversaciones con Carl Sagan, pp. 10-12)
No, por el momento seguimos sin tener el más mínimo indicio de vida extraterrestre, pese a todos los creyentes en losOVNIs y contactados que en el mundo son. Hoy por - 139 -
Antonio Cantó
hoy, la paradoja de Fermi (más o menos: “si la vida es común en el universo, ¿dónde está todo el mundo?”) sigue tan en vigor como cuando se formuló.
La primera fotografía directa de un exoplaneta: Beta Pictoris b, a 63 años-luz de aquí, Obtenida por el Very Large Telescope (VLT) del European Southern Observatory en Chile. (Clic para ampliar)
Sin embargo, la hipótesis de la Tierra especial, de que la Tierra es un caso excepcional en el universo con una rarísima capacidad para albergar vida, se sostiene cada vez menos. Para empezar, estamos detectando exoplanetas sin parar. En estos momentos, se han confirmado1.074 en 812 sistemas solares, de los cuales al menos 178 son sistemas múltiples como el nuestro, y hay varios miles de candidatos más. Incluso con nuestras precarias capacidades de detección actuales –los planetas y lunas no emiten luz propia, con lo que requieren instrumentos extremadamente sensibles para captarlos–, vamos estando en condiciones de extrapolar que hay al menos cien mil millones de planetas sólo en nuestra galaxia, un promedio de uno por cada estrella como mínimo. Es de suponer que muchos de estos planetas tendrán lunas, demasiado pequeñas para distinguirlas con nuestra tecnología actual. A poco que los sistemas solares se generen de manera parecida en el universo observable, y no tenemos ningún motivo para sospechar lo contrario, puedes ir multiplicando eso por los al menos cien mil millones de galaxias que hay (probablemente bastantes más.) Eso es un uno seguido de veintidós ceros, sólo para empezar. Los sistemas solares no son raros en absoluto. Suponiendo que sólo las estrellas de tipo G (como el Sol) y unas pocas de las más parecidas entre las F y las K pudieran albergar vida (el chauvinismo del tipo espectral G que mencionaba Sagan), representarían al menos un 10% de todas ellas. Continuamos teniendo un uno seguido de veintiún ceros. Vamos a descontar también las que pudieran estar fuera de las zonas de habitabilidad
- 140 -
La Pizarra de Yuri 3
galáctica, un concepto en parte controvertido que algunos nos tomamos con un grano de anís. Pero lo daremos por bueno, y además en una de sus variantes más severas: metámosle a la cifra un hachazo de otro 90% (en vez del 60% habitual o el 40% optimista) y seguimos teniendo un uno seguido de veinte ceros de estrellas como la nuestra instaladas en las zonas más habitables de sus respectivas galaxias. Y a cada una de ellas le corresponde un sistema solar como el nuestro, compuesto por planetas y lunas como las nuestras. Si esto de incluir a todas las galaxias te parece demasiado atrevido y sólo quieres contar la nuestra, mil millones. Y si sólo uno de cada mil planetas son de tipo terrestre y se hallan en las zonas de habitabilidad estelar de sus respectivos soles (una estimación considerablemente estirada a la baja), nos siguen quedando un millón en esta galaxia y cien billones en el universo observable presente. Y aún no hemos empezado a contar satélites, que no se pueden descartar en absoluto, porque algunos de ellos pueden ser de notable tamaño, con atmósfera propia, aunque orbiten en torno a planetas de tipo no-terrestre. Como, por ejemplo, Titán de Saturno, que presenta una densa atmósfera de nitrógeno, agua en forma de hielo e hidrocarburos líquidos superficiales. Sólo en nuestro sistema solar, hay 19 lunas que han alcanzado el equilibrio hidrostático y por tanto se podrían considerar planetas o planetoides si orbitaran directamente alrededor del Sol. Muchos de estos exosistemas solares presentan también grandes gigantes gaseosos, que algunos consideran importantes para el surgimiento de la vida.
Impresión artística de una puesta del sol en la súper-Tierra Gliese 667 Cc. Las estrellas son el sistema ternario Gliese 667 A/B/C; el planeta orbita en torno a esta última. Imagen: European Southern Observatory / L. Calçada (Clic para ampliar)
- 141 -
Antonio Cantó
En estos momentos, los exoplanetas confirmados que creemos más similares a la Tierra son Gliese 667C c, a 12 años-luz de aquí, y Kepler-62e, a 1.200. Ambos se encuentran dentro de esa supuesta zona de habitabilidad galáctica de nuestra Vía Láctea y en la zona de habitabilidad estelar de sus respectivos soles, si bien al lado caliente, lo que podría hacer de ellos planetas “súper-tropicales” (!). Hay otros candidatos pendientes de confirmación muy interesantes. En general, la probabilidad de que haya otros mundos capaces de albergar vida se multiplica con cada una de estas detecciones. Y no paran de producirse, conforme nuestros instrumentos mejoran más y más. Por el extremo contrario, descubrimientos como el de L’Atalante nos demuestran que la vida, incluso la vida pluricelular compleja, incluso los animales como nosotros, son posibles en condiciones cada vez más extremas sin ni siquiera salirse de la biología terrestre, ni del ADN ni de los eucariontes. Sin salirse de los que son como nosotros. Con otras bioquímicas, surgiendo y evolucionando a partir de condiciones distintas hacia dominios insospechados bajo presiones evolutivas radicalmente diferentes, las posibilidades son inmensas y están más allá de lo que puede soñar la más desbocada imaginación.
- 142 -
La Pizarra de Yuri 3
No, Majestad, aquí no cabemos todos. Pero tiene arreglo. Yuri, el 20 de junio de 2014 @ 8:11 · Categoría: Sociedad y civilización
Esta vez, cortita y al pie.
Que sí, que sí, que volvimos a hacer llenazo hablando de ciencia. ;-) ¡Y los que están detrás de la cámara y no se ven! :-P (Con mi agradecimiento a los organizadores: EEEP / Valencia) Fotos: M. Alacot | El Café Cuántico. (Clic para ampliar)
Ya me sabrá disculpar, Majestad, que no estuviera muy atento a su ceremonia y su discurso de coronación. Es que me pilló preparando una charla de divulgación científica, aquí en provincias. De ciencia en España, ya ve usted qué cosas tiene uno. Y sin embargo, el caso es que hicimos llenazo. Cosas que pasan. Sin embargo, ahora cuando he vuelto a casa, he querido ver lo que dijo usted, que no en vano es el Jefe del Estado en el que nací y vivo. Como no me fío mucho de los medios de comunicación, que ya sabemos que lo tergiversan todo, me he ido a buscar su mensaje en la web de la Casa Real y lo he leído con gran atención. En serio. Entonces, me he encontrado con las siguientes frases, al parecer muy celebradas en diversos ámbitos:
- 143 -
Antonio Cantó
En esa España, unida y diversa, basada en la igualdad de los españoles, en la solidaridad entre sus pueblos y en el respeto a la ley, cabemos todos; caben todos los sentimientos y sensibilidades, caben todas las formas de sentirse español.
Yo ya sé a qué se refería usted, Majestad. Pero es que verá, esta madrugada me pilla un poco torcido. Resulta que, aunque usted y yo peinamos las mismas canas –nacimos el mismo año–, a mí me gusta mucho juntarme con la juventud. Qué demonios, me encanta. Y anoche, después de la charla, se me ocurrió irme a tomar un par de copas con algunos de los asistentes más jóvenes. Chicos y chicas, licenciados en Física, como podrían haberlo sido en cualquier otra cosa; por fortuna, tengo un público muy amplio y diverso. Estuvimos hablando de la vida, de política, de ciencia y de futuro. Del de ellos, más que nada. Quieren doctorarse, hacer ciencia, investigar, ser buenos, quizá los mejores, quizá los mejores del mundo, o tan cerca como se pueda. Cosmología, física de partículas, computación cuántica, imagínese. Y el futuro de todos ellos, absolutamente todos, pasaba por largarse de España. No es que les mole el viajecito, Majestad. Es que aquí no pueden hacerlo. Mientras hablábamos de esto, recordé que ahora mismo no conozco a ninguno de nuestros mejores jóvenes que siga o vaya a seguir en España. A lo mejor es cosa mía, pero a estas alturas uno conoce a mucha gente, y no creo. Nuestros mejores, Majestad, quienes quizá podrían sacarnos de este maldito atraso de siglos que padecemos, no caben en España. Aquí no hay nada para ellos, y ellas. No hay suficiente tejido científico, no hay suficiente tejido tecnológico, no hay suficiente tejido industrial, no hay nada. Es una auténtica fuga de cerebros, de la que se hacen eco medios internacionales tan poco sospechosos como la BBC, el Financial Times o la Royal Society of Chemistry, entre muchos otros. En palabras de la NPR, un “exilio económico” de la ciencia española. Sigo leyendo su discurso. Dijo usted también: Nuestra Historia nos enseña que los grandes avances de España se han producido cuando hemos evolucionado y nos hemos adaptado a la realidad de cada tiempo; cuando hemos renunciado al conformismo o a la resignación y hemos sido capaces de levantar la vista y mirar más allá -y por encima- de nosotros mismos; cuando hemos sido capaces de compartir una visión renovada de nuestros intereses y objetivos comunes. El bienestar de nuestros ciudadanos –hombres y mujeres–, Señorías, nos exige situar a España en el siglo XXI, en el nuevo mundo que emerge aceleradamente; en el siglo del conocimiento, la cultura y la educación.
- 144 -
La Pizarra de Yuri 3
Tenemos ante nosotros un gran desafío de impulsar las nuevas tecnologías, la ciencia y la investigación, que son hoy las verdaderas energías creadoras de riqueza; tenemos el desafío de promover y fomentar la innovación, la capacidad creativa y la iniciativa emprendedora como actitudes necesarias para el desarrollo y el crecimiento. Todo ello es, a mi juicio, imprescindible para asegurar el progreso y la modernización de España y nos ayudará, sin duda, a ganar la batalla por la creación de empleo, que constituye la principal preocupación de los españoles.
Salvo por algún matiz, no puedo estar más de acuerdo; pero ya sabrá que hemos oído palabras como estas muchas veces, con los hechos conocidos por todos. Y sin embargo, fíjese, yo quiero, deseo creerle, aunque sea ya casi por desesperación. Así que al tajo, Majestad, al tajo y a fondo. Para esto, pienso yo que puede usted contar con todos nosotros, o casi todos. Siempre y cuando, claro, nuestros cerebros mejores y más jóvenes tengan alguna oportunidad real, razonable, sensata, que les permita hacer ciencia en España mientras se ganan dignamente la vida y esas cosas de gente sencilla. Se puede solucionar, siempre que esté claro el orden de prioridades. Pero si no, Majestad, no es verdad que aquí quepamos todos. No caben los mejores y los más brillantes y esta España nuestra, o como lo sienta cada cual, seguirá condenada al mismo atraso, a la misma pobreza y a los mismos vaivenes de la historia que hace ya mucho debimos superar. El “que inventen ellos” se tiene que acabar o estamos todos acabados. Así, tal cual.
- 145 -
Antonio Cantó
Park Ji-young, la heroína del MV Sewol Yuri, el 20 de mayo de 2014 @ 9:49 · Categoría: Actualidad, Sociedad y civilización
Salvó a casi un tercio de los supervivientes mientras los oficiales huían como las ratas. Pagó con su vida.
Park Ji-young, de 22 años de edad, camarera y heroína del ferry MV Sewol, naufragado en la mañana del 16 de abril de 2014. In memoriam. Foto: Imgur.
Te acordarás, porque fue hace poco: en la mañana del 16 de abril de 2014, el ferry surcoreano MV Sewol naufragócon 472 personas a bordo. De ellas, 325 eran estudiantes
- 146 -
La Pizarra de Yuri 3
de secundaria de un instituto público situado en una periferia obrera de Seúl. Quizá también recuerdes que el capitán y gran parte de la tripulación se cubrieron de oprobio al abandonarlos a su suerte mientras el barco se hundía. Por eso, lo que hizo la camarera Park Ji-young, de 22 años, brilla en las tinieblas con una luz aún más sobrecogedora. Y es que Ji-young fue la luz de la vida para decenas de personas que, si no hubiera sido por ella, estaban condenadas a morir. Las causas exactas del naufragio aún no han quedado bien establecidas; la investigación está todavía en curso. Pero hay unas cuantas pistas. Para empezar el barco, construido en Japón, transportaba 3.600 toneladas de carga cuando sólo estaba certificado para 987. Una peligrosísima sobrecarga que, al parecer, ni siquiera estaba bien estibada. Además, le habían añadido recientemente dos cabinas superiores para embutir a más pasaje, desplazando así el centro de gravedad hacia arriba, lo que favorecía el vuelco. Para compensarlo, debían llevar 2.000 toneladas de agua como lastre, pero las habían vaciado al menos en parte con el propósito de acomodar la sobrecarga. Esto no era excepcional: por infame que fuera el capitán y sus oficiales, resultaba una práctica habitual de la empresa armadora. Una empresa que tiene tela: la Chonghaejin Marine Co. Ltd. Es una cosa de esas opacas, con muy buenos contactos en el poder político, económico y judicial, de propiedad familiar a través de testaferros interpuestos. Y el cabeza de familia, o más bien famiglia, es el reclusivo multimillonario y presunto artista Yoo Byung-eon, más conocido como Ahae. Este tal Ahae fue (o es, no se sabe bien) líder de una secta evangélica suicida. A pesar del suicidio en masa de 32 de sus seguidores en 1987, Ahae salió de rositas y mantiene unos 20.000 seguidores en Corea. Por su parte, él dice que no tiene nada que ver con la empresa armadora del MV Sewol, que es cosa de dos hijos suyos. El Ministerio de Hacienda surcoreano no opina lo mismo. Mientras tanto, algunos de sus discípulos creen que Ahae es Dios y por tanto puede hacer con vidas y bienes como mejor le plazca.
- 147 -
Antonio Cantó
El MV Sewol se hunde a las diez de la mañana del 16 de abril de 2004. Perecieron 287 de los 476 ocupantes, la mayoría estudiantes de secundaria, y sigue habiendo 17 personas desaparecidas que se presumen muertas. Foto: Guardia Costera de Corea del Sur.
En fin, el caso es que ya te haces una idea de la clase de empresa y empresarios de los que estamos hablando, y sus prácticas. Y si no te gustan, ya sabes: hay cola esperando para ocupar tu puesto. El MV Sewol partió de Seúl sobrecargado, mal estibado, mal lastrado y con 476 personas a bordo hacia una isla turística bastante chula que se llama Jeju. Como puede comprenderse fácilmente, era un accidente esperando a ocurrir. Y ocurrió a las 8:48 AM, doce horas después de la partida. Por motivos que aún no se han podido determinar bien, el buque viró bruscamente, los ocupantes oyeron un fuerte estampido metálico, y comenzó a volcar al momento. No seré yo quien quiera hacerle el trabajo a la comisión de investigación, pero apesta a corrimiento de carga. En esos instantes, el capitán descansaba en su camarote y un oficial novato comandaba el navío. Hasta aquí, sólo teníamos las prácticas habituales del capitalismo corporativo más salvaje, en plan mini-chaebol. A partir de aquí, empieza la bajeza personal, individual, humana. Cuatro minutos después, a las 8:52, uno de los 325 estudiantes –chavalería de 16 y 17 años e incluso menos– logra llamar por teléfono móvil al número de emergencias (se encontraban bastante cerca de la costa) para comunicarles que el barco se está ladeando peligrosamente (este estudiante pereció también en el naufragio.) Los
- 148 -
La Pizarra de Yuri 3
de emergencias le pasan la llamada al servicio de tráfico marítimoregional, que se piensan que es una broma adolescente hasta que el capitán se pone en contacto por radio (a las 8:55) para decir que bueno, que tienen un problemilla. Que el buque se está inclinando y eh… bien, puede que estén en peligro. El servicio de tráfico marítimo (en adelante, VTS) despacha inmediatamente una patrullera. A las 9:07, el capitán comunica al VTS que el barco está volcando. El VTS le indica que evacúen inmediatamente, pero a las 9:14 el capitán contesta que eso no es posible debido a la inclinación. A las 9:18, informa que la inclinación es ya de 50º a babor. Son las 9:23 cuando el VTS ordena a la tripulación que todo el mundo se ponga los chalecos salvavidas. La tripulación contesta que no pueden comunicárselo al pasaje porque la megafonía no funciona. Una burda mentira: la megafonía funciona y le están diciendo todo el rato al pasaje que permanezca en sus camarotes, que no pasa nada. Y esa chavalería bien educada, en una cultura donde no hacer caso a los mayores es como pegarle a un padre, obedece escalofriantemente (ojo: vídeo duro, o al menos a mí me lo parece, aunque no sea “explícito”.) A las 9:25 el VTS pide al capitán que decida si evacúa o no. Que hay patrulleras y un helicóptero en camino. A las 9:30, con el helicóptero ya encima, el capitán ordena finalmente abandonar el barco. Pero o no lo hace muy bien, o el caos en el puesto de mando es ya total, o algo pasa, porque gran parte del pasaje no se entera. Apenas llega el helicóptero, el capitán dice ahí os quedáis y se larga vergonzosamente. Con él, casi toda la oficialidad. A las 9:33, los buques que se encuentran en las proximidades (esa es una de las rutas marítimas con más tráfico del mundo) comienzan a enviar botes salvavidas motorizados. Son las 9:38 cuando se cortan las comunicaciones.
- 149 -
Antonio Cantó
Los cuatro héroes del MV Sewol. Arriba: Park Ji-young (izda.) haciéndose una “selfie” con Jeong Hyun-seon (dcha.) Al medio: Jeong Hyun-seon con su novio Kim Ki-woong. Abajo: el único oficial que no huyó, Yang Dae-hong. Ninguno de los cuatro logró sobrevivir, pero salvaron a más de cien personas. Fotos: Korea IT Times, AP/Gillian Wong. (Clic para ampliar)
Y entonces, entre tanta ruindad y tanto miserable, apareció Park Ji-young. Park Ji-young (o Jee-young) había sido también estudiante, en la universidad. Pero cuando murió su padre, hace dos años, se lo dejó para buscar trabajo y ayudar así a su familia. Lo encontró en el MV Sewol, de camarera, con un contrato a tiempo parcial. A sus 22 años recién cumplidos, era la tripulante más joven del ferry. Viéndola, puede uno
- 150 -
La Pizarra de Yuri 3
imaginarse que para muchos debía ser sólo esa niña mona que pone cafés. Una humilde curranta, una camata, una muñequita, un ligue en potencia. En suma: una doña nadie. El mundo está lleno de nenas monas sirviendo cubatas y haciéndose selfies con sus colegas. Pero esa muñequita tan mona ocultaba unas pelotas, o tetas, o como prefieras, que dejan microscópicas a las del caballo de Espartero. Mientras su infame capitán –con cuyo nombre no quiero manchar este post– ni siquiera encontraba tiempo para ponerse los pantalones antes de huir como la proverbial rata de sentina, Ji-young no sólo permaneció en su puesto. Al comprender que el MV Sewol se iba a pique, y que toda la cadena de mando por encima de ella se había desintegrado, tomó la iniciativa y salió corriendo al control de megafonía para ordenar al pasaje que abandonasen el barco. Ese fue el primer y único aviso que muchos tuvieron. Por desgracia, para la mayoría era ya demasiado tarde: todo el lado de babor estaba sumergido a esas alturas y resultaba imposible escapar. Pero Ji-young no se arredró. En el lado de estribor aún quedaba mucha gente, parte de la cual tampoco podía salir debido a que el barco estaba ahora de costado, con la pared convertida en el suelo, y una puerta abierta se había transformado en un foso insuperable que les cerraba el paso. Primero, Ji-young se las ingenió para cerrarla con extraordinaria habilidad, creando así lo que después los periodistas llamarían “el puente hacia la vida.” A continuación, les ayudó a ponerse los chalecos salvavidas y encontrar las salidas mientras el agua subía y subía y subía sin parar. Cuando Ji-young se quedó sin chalecos, corrió a la siguiente cubierta para conseguir más. Dicen que logró socorrer a unas cincuenta personas, lo que es casi un tercio de los 172 supervivientes. Ya les llegaba el agua al pecho cuando los estudiantes le preguntaron: –¡¿Y tú no vienes?! Ji-young respondió: –Saldré después de vosotros. La tripulación debe quedarse hasta el final. Y ahí siguió la muñequita de los cafés, repartiendo chalecos, enseñando a ponérselos e indicando las salidas hasta el final. Hasta el final del todo, porque Ji-young no sobrevivió. Murió ahogada. Su cadáver fue uno de los primeros que encontraron los servicios de emergencia cuando consiguieron penetrar en el barco hundido, tres días después. No llevaba puesto un chaleco salvavidas. Aseguran los testigos que se los dio todos a los pasajeros y no se quedó ninguno para ella.
- 151 -
Antonio Cantó
Mientras la rata de su capitán y casi todos sus ratoniles oficiales se daban el piro, justo antes de que los corruptos dueños de la compañía-secta-famiglia armadora se escondieran debajo de las piedras y comenzasen a buscar la protección de sus políticos de cabecera y sus medios de comunicación, la trabajadora a tiempo parcial Park Jiyoung peleó cara a cara contra el mar y la muerte con el agua al cuello –tal cual– para salvar a todos aquellos pasajeros poco más jóvenes que ella. Y no paró hasta que el mar y la muerte la derrotaron, siendo en torno a las diez de la mañana del 16 de abril de 2014; pero no sin que antes ella les arrebatara decenas de vidas luchando a pelo hasta el último aliento, a fuerza de pura valentía, responsabilidad, habilidad y sentido del honor. Con un par. O más. Es de justicia añadir que Ji-young no fue la única tripulante del MV Sewol que estuvo a la altura. Hubo un único oficial que no huyó: Yang Dae-hong, de 45 años. Y una trabajadora administrativa del buque: Jeong Hyun-seon, de 28 años, con su novio Kim Ki-woong, de 27, que también curraba en el barco con otro contrato a tiempo parcial. Los tres se quedaron ayudando a la gente, recorriendo los camarotes en busca de pasajeros hasta que ya no pudieron salir. Los tres perecieron como Ji-young. Pero probablemente su intervención fue la más decisiva. Si Ji-young no llega a tomar la iniciativa, dar la alerta por megafonía, cerrar aquella puerta que se convirtió en el puente hacia la vida y quedarse auxiliando a la gente que salía despavorida, ahí no se salva ni el tato. En lo que a mí respecta, por sus actos, por rastrera deserción de sus superiores y por desintegración total de la cadena de mando, la camarera Park Ji-young, de 22 años de edad, se convirtió en el auténtico capitán del MV Sewol durante los últimos minutos de su existencia, haciendo honor a las mejores leyendas de los marinos verdaderos. Haciendo aquello tan viejo de los héroes de verdad: entregar su vida con bravura infinita para que otros muchos puedan vivir. Así pues, como tal quiero inclinarme ante ella: que la tierra le sea leve, capitana Park Ji-young. Gente como usted o sus tres compañeros Yang Dae-hong, Kim Ki-woong y Jeong Hyun-seon es la que salva a esta triste humanidad. Y muchas, muchísimas gracias. Con mi agradecimiento al blog Ask a Korean!, sin el que no me habría enterado de estos hechos.
- 152 -
La Pizarra de Yuri 3
Funeral de Park Ji-Young, el pasado 22 de abril, con guardia de honor de la policĂa surcoreana. Foto: The Hankyoreh.
- 153 -
Antonio Cantó
BIG’95: El gran tsunami del Mediterráneo español Yuri, el 8 de mayo de 2014 @ 16:24 · Categoría: Ciencia popular, Historia y cultura, Sociedad y civilización
Hola, ola. :-|
El maremoto del 1 de noviembre de 1755 llega a la ciudad de Lisboa, ya gravemente dañada e incendiada por el terremoto precedente. Grabado: G. Hartwig, “Volcanoes and earthquakes”, Longmans, Green & Co., 1887. (En la colección de la Universidad de Wisconsin – Madison)
Banda Aceh, Indonesia, después del tsunami de 2004. Indonesia sufrió unos 175.000 muertos sin que el nivel del mar subiera más de diez metros en la práctica totalidad del país. La gran cantidad de población costera viviendo en casitas
- 154 -
La Pizarra de Yuri 3
bajas de poca resistencia situadas en llanuras contribuyó significativamente a la catástrofe. Imagen: Wikimedia Commons. (Clic para ampliar)
Cuando oímos hablar de tsunamis, solemos pensar en Asia, y muy especialmente en el país que nos dio la palabra: Japón. Ciertamente, los maremotos que se dan en algunas costas asiáticas son terribles, debido a una mezcla de factores geológicos, geográficos y superpoblación (y, últimamente, añadiría yo que por ciertas centrales nucleares cuyas defensas contra los mismos resultaron ser ridículas.) Pero no son los únicos. Se da la circunstancia de que la Península Ibérica es otra de las regiones con riesgo maremotriz. Engaña, porque por estos lares no son tan frecuentes y tampoco suelen ser tan intensos. Pero el riesgo existe. No otra cosa fue el gran terremoto y tsunami de Lisboa del día de Todos los Santos de 1755, que ya te comenté en este blog. Se le suele llamar “de Lisboa” y “de Todos los Santos” porque prácticamente aniquiló la capital portuguesa, matando (entre muchas otras personas) a una montaña de gente que se encontraba en las iglesias celebrando esa festividad, o buscó refugio en ellas. Se calcula que hubo unos 40.000 – 60.000 muertos, sobre una población en la época de 275.000 habitantes. Semejante tragedia alentó notables dudas sobre la divinidad, sus atributos, su bondad y su poder protector, alejando a muchos pensadores influyentes de la teodicea deLeibniz, contribuyendo significativamente a la difusión delracionalismo ilustrado y, de paso, creando la sismologíamoderna. Fue tan gordo que hubo un antes y un después de la catástrofe “de Lisboa” en la cultura occidental. Pero yo lo entrecomillo porque no fue sólo Lisboa. El maremoto, originado en la falla Azores-Gibraltar, golpeó con fuerza desde Irlanda al Senegal. Al Sur de la Península Ibérica, causó devastación y mortandad entre el Algarve portugués y la provincia de Cádiz, con olas a las que se les han estimado hasta quince metros de altura. Se llevó por medio Ayamonte, matando a unas mil personas, más un número indeterminado de pequeñas comunidades costeras. Por su parte, el terremoto, estimado en una magnitud de8,5, causó daños importantes en lugares tan lejanos como Valladolid o Ciudad Real. Algunas fuentes afirman que las víctimas totales rondaron las 90.000. Animación del tsunami del Atlántico de 1755, según el modelo computacional RIFT. Puede observarse cómo en media hora ya estaba barriendo todo el Golfo de Cádiz. Estudio realizado por la NOAA / NWS / Pacific Tsunami Warning Center.
- 155 -
Antonio Cantó
El terremoto y tsunami de Italia del 28 de diciembre de 1908 mató a 123.000 personas y destruyó las ciudades de Mesina y Reggio Calabria en su práctica totalidad. Foto: Wikimedia Commons. (Clic para ampliar)
El Mar Mediterráneo tampoco es inmune a los tsunamis, sobre todo en su parte central y oriental, con fuerte actividad sísmica. El historiador griego Heródoto de Helicarnasoya nos cuenta que, en el año 479 aEC, durante un asedio a la ciudad de Potidea, los atacantes persas que aprovechaban un repentino y sorprendente descenso del nivel del mar para atravesar el istmo fueron sorprendidos por una gran ola como nunca se había visto antes y perecieron ahogados. Aunque Heródoto era un liante, habitualmente considerado al mismo tiempoel padre de la historia y el padre de la mentira, esto describe el comportamiento de ciertos tsunamis bastante bien y puede que el relato se sustente en un hecho real. Heródoto achacó este maremoto a la ira de Poseidón. El primero que estableció un vínculo directo entre terremoto y maremoto fue otro historiador griego, Tucídides, cuando nos cuenta de uno sucedido en el Golfo Malíacodurante el verano del año 426 aEC. Al parecer, se llevó por medio a todas las poblaciones costeras. Desde entonces, ha habido muchos más. Quizá el más conocido de todos sea el que ocurrió a primera hora de la mañana del 21 de julio de 365 EC. Un
- 156 -
La Pizarra de Yuri 3
fuerte terremoto submarino con epicentro cerca de Creta arrasó Libia y Egipto, y notablemente las ciudades de Apolonia y Alejandría, matando a mucha gente. Aparecieron barcos tres kilómetros tierra adentro. El fenómeno se repitió menos de un milenio después, en el año 1303. Mucho más recientemente, durante la madrugada del 28 de diciembre de 1908, el terremoto y tsunami de Mesina, al Sur de Italia, se llevó por delante a entre cien y doscientas mil personas. ¿Y en el Mediterráneo Occidental, o sea, más o menos las costas españolas y parte del extranjero? Bien, la actividad sísmica en el Mediterráneo Occidental no es tan intensa, pero también suceden. El más reciente así digno de mención fue el 21 de mayo de 2003, a consecuencia del terremoto de Bumerdés, Argelia. Este seísmo les hizo dos mil y pico muertos en tierra a nuestros queridos proveedores de gas natural, pero también inició un pequeño maremoto que, aunque sin causar otras víctimas, provocó bastantes daños en los puertos baleares. Destrozó numerosos pantalanes y hundió más de cien barcos pequeños, recordándonos así su poder. Pese a ello, hay quien asegura que en el Mediterráneo Occidental no pueden producirse grandes tsunamis (y aquí). Otros, en cambio, dicen que eso no está claro. De hecho, probablemente ya ocurrió al menos una vez, que sepamos. En términos humanos, fue hace mucho tiempo: unos 11.500 años, allá por el Epipaleolítico. Pero en términos geológicos, eso es nada, hace un momentín. Pudo barrer las costas de Castellón, el Sur de Tarragona y las Islas Baleares con olas de hasta unos nueve metros, puede que algo más. Hoy en día lo llamamos el tsunami del BIG’95.
Ubicación aproximada del deslizamiento de tierras BIG’95 (Epipaleolítico, año 11.500 BP) y, si se hubiera producido hoy en día, de las áreas primarias de impacto del tsunami que generó. En aquella época la costa estaba más mar adentro y, por tanto, golpeó en regiones actualmente sumergidas. Mejor versión y explicación en la fuente original:
- 157 -
Antonio Cantó
Iglesias, O.; Lastras, G. et al. (2012): The BIG’95 submarine landslide-generated tsunami: a numerical simulation. The Journal of Geology, vol. 120, nº 1 (enero 2012.) ISSN: 0022-1376. Mapa: © Google Maps. (Clic para ampliar)
BIG’95. Frente a las costas de Castellón y Tarragona se extiende una plataforma continentalllamada la plataforma del Ebro, al estar básicamente constituida por sedimentos que aportaron este río y sus antecesores al menos desde el Aquitaniense (Miocenoinferior, hace aproximadamente 23 millones de años.) Es muy suave; en algunos puntos, por ejemplo frente a la ciudad de Castellón, hay que alejarse de la orilla más de sesenta kilómetros para que supere los cien metros de profundidad, con lo que gran parte de ella debió estar emergida durante el Último Máximo Glacial. Hace 11.500 años, la línea costera debía estar todavía unos 40-50 metros más baja que ahora, y por tanto 15-20 km mar adentro con respecto a su posición actual. Sin embargo, esta suave plataforma termina abruptamente. En la zona que nos ocupa, por las Islas Columbretes, la profundidad aumenta deprisa hacia los dos mil metros: la llamada Depresión de Valencia. [Aquí tienes un fichero KMZdel Instituto de Ciencias del Mar (Consejo Superior de Investigaciones Científicas) para ver toda esta zona con detalle en Google Earth.] Se comprende fácilmente que los bordes de una suave ladera sedimentaria seguida por un desnivel de casi dos kilómetros están pidiendo a gritos un deslizamiento de tierras. Y esto fue lo que ocurrió, hace ahora once milenios y medio: 26 kilómetros cúbicos de sedimentos se desprendieron del borde de la plataforma del Ebro por la parte de las Columbretes para precipitarse hacia la Depresión de Valencia. No fue, ni con mucho, uno de los deslizamientos más grandes que se conocen. Nada que ver con los de Storegga (3.500 km3), en el Mar del Noruega, tres milenios y medio después, cuyo gigantesco tsunami separó definitivamente Gran Bretaña de la Europa Continental. Incluso mucho menos que el de 1929 frente a Terranova (Canadá), con sus 200 km 3. No obstante, debido al acusado desnivel, BIG’95 descendió rapidito, llegando a superar en algún punto los 150 km/h (> 40 m/s.) El conjunto del deslizamiento recorrió más de 110 km depresión abajo en menos de 73 minutos, cubriendo 2.200 km 2 de fondo marino. Una masa de más de 50.000 millones de toneladas desplomándose a velocidades que rondan los cien kilómetros por hora (entre 70 y 150) tiene una cantidad notable de energía, y puede transferírsela al medio circundante. En este caso, el agua del mar. Probablemente, el tsunami se formó durante los primeros minutos del colapso. Lo hizo en dos frentes, uno más rápido que avanzaba hacia las Islas Baleares y otro más lento
- 158 -
La Pizarra de Yuri 3
que retrocedía hacia la costa de Castellón. El frente rápido golpeó la costa Noreste de Ibiza en primer lugar, 18 minutos después, con una ola inicial de hasta ocho metros que llegó sin previo aviso. La siguió una retirada del mar y al menos otra de unos siete que llegó pocos minutos después, y luego otras más pequeñas. Para entonces, el tsunami ya golpeaba Mallorca (en el minuto 27) aunque con olas de menor altura, entre 2 y 4 metros. Sin embargo, un fenómeno de resonancia en el sector de la Bahía de Palma pudo elevar la ola inicial hasta los diez metros por la parte de Santa Ponça. Por suerte, parece ser que las Baleares carecían de población humana en aquellos tiempos.
Cuando un maremoto llega a aguas someras, la amplitud y velocidad de las olas se reducen, pero a cambio su altura aumenta. Imagen: R. Lachaume vía Wikimedia Commons.
Lamentablemente en el minuto 54 el frente lento, más energético, alcanzó la costa peninsular frente a lo que hoy en día sería casi todo Castellón y el Sur de Tarragona, más o menos. Y ahí, con toda probabilidad, había gente. No tanta como hoy en día, desde luego, y menos si pensamos en la temporada alta del turismo. Pero sí personas como losmagdalenienses que ocupaban la cueva Matutano, situada en las proximidades. Esos eran homo sapiens, gente de los nuestros y todo ese rollo. Puede que familias, clanes o tribus de pescadores epipaleolíticos. Las costas y su pesca siempre han atraído a la humanidad. Primero, se fue el mar. A continuación, regresó. El intenso efecto de asomeramiento producido por la propia plataforma del Ebro elevó las olas, puede que hasta los nueve metros. Quizá esto te parezca poco, acostumbrados como ya estamos a oír de tsunamis de cuarenta metros en el Japón, pero créeme, tú no quieres estar en el camino de un maremoto de nueve metros. Nueve metros son tres plantas de un edificio. La mayoría de las víctimas que causan los grandes tsunamis se dan en zonas donde el agua llega con menos de diez metros de altura; los puntos donde realmente superan los treinta son raros, “el máximo.” Durante el maremoto del Océano Índico de 2004, la inmensa mayor parte de los 175.000 muertos que ocasionó en Indonesia estaban en
- 159 -
Antonio Cantó
lugares donde la elevación del mar no superó los diez metros y a menudo ni siquiera los cinco. El de 2011 alcanzó la central nuclear de Fukushima con una altura máxima de 14-15 metros y ya sabes la que armó. En la práctica, medio metro basta para arrastrarte. El agua engaña mucho. Cuando llega con semejante fuerza, incluso inundaciones aparentemente pequeñas tienen un poder pavoroso. Y una vez te ha arrastrado, vete a saber dónde acabas, y cómo. De dos a tres metros ahogarán a todo el que no logre subirse a algo o sepa nadar muy bien (y tenga su día de suerte.) El maremoto de 2004 llega a Banda Aceh, Indonesia. Obsérvese que no es realmente muy alto, pero sólo en ese sector causó más de 31.000 muertes.
Cubierta en azul, el área que actualmente se encuentra a menos de 9 metros sobre el nivel del mar en el sector Burriana – Alcocéber. No obstante, cuando el tsunami alcanzó la antigua costa, varios kilómetros mar adentro, tuvo que inundar un área bastante superior debido a la suave inclinación de la plataforma continental del Ebro. Imagen: Google Maps / flood.firetree.net (Clic para ampliar)
El caso es que el tsunami de hace 11.500 años barrió esta costa hoy desaparecida unos kilómetros frente a lo que ahora sonBurriana, Almazora, el Grao de Castellón,Benicasim, Oropesa del
- 160 -
La Pizarra de Yuri 3
Mar, Torreblanca,Alcocéber, Peñíscola, Benicarló, Vinaroz,Alcanar, San Carlos de la Rápita y posiblemente hasta el Delta del Ebro (cuya formación es muy posterior, incluso posterior a la época romana.) Es imposible saber cuánta gente vivía ahí en aquellos tiempos. Si hubiese sido en nuestra época, especialmente durante la temporada turística, puede uno imaginarse lo que ocurriría. Y… ¿puede volver a ocurrir hoy en día? Pues lo cierto es que no se sabe muy bien. Los mismos investigadores que han estudiado el BIG’95 creen que el punto donde se produjo es ahora estable a menos que hubiera un terremoto de bastante envergadura. Reconozco que un servidor se puso algo nerviosito con los terremotos vinculados al Proyecto Castor de Florentinoque se produjeron durante el otoño pasado, justamente en esa zona. La presencia de lacentral nuclear de Vandellós algo más al Norte tampoco resultaba muy tranquilizadora. No obstante, con respecto a esto último, el Consejo de Seguridad Nuclear asegura que desde 2007 ésta dispone de “un nuevo sistema de refrigeración esencial” situado a más de 23 metros sobre el nivel del mar. Además, a raíz de lo de Fukushima, están realizando inversiones para incrementar la seguridad frente a estos fenómenos. Sin embargo, como yo tengo mi puntito paranoico, nada, poca cosa, lo de los terremotos en una zona que ya pudo provocar un tsunami importante seguía teniéndome mosca. Así que he decidido ponerme en contacto con uno de los autores de la investigación: Galderic Lastras, profesor titular de Geología Marina de la Universidad de Barcelona. El doctor Lastras, por cierto muy gentilmente, me serena: haría falta uno bastante más intenso y cercano al talud continental que los de 2013 para iniciar, por sí solo, un deslizamiento de tierras de este calibre. No obstante, tales deslizamientos ocurren a veces porque sí; es decir, porque la ladera es o se vuelve inestable y simplemente colapsa. Pero por otra parte, el periodo de retorno (el tiempo medio que tarda en volver a ocurrir) es, obviamente, muy largo: este de hace 11.500 años fue el último que ocurrió en el sector. Decía antes que 11.500 años es un tiempo muy breve en términos geológicos, pero muy largo en términos humanos. Las probabilidades de que vuelva a ocurrir durante nuestro tiempo de vida, o el de nuestros hijos y nietos, son francamente bajas. No es imposible, por supuesto. Pero la probabilidad es muy pequeña. No obstante, quise saber también si estamos muy en bragas o no en el caso de que esta probabilidad tan pequeña llegara a hacerse efectiva. Como ya te digo que yo soy apenas nada paranoico, molesté a Elena Tel (del Instituto Español de Oceanografía), Emilio Carreño (director de la Red Sísmica del Instituto Geográfico Nacional) y Gregorio Pascual (jefe del área de desastres naturales de la Dirección General de Protección
- 161 -
Antonio Cantó
Civil), todos los cuales tuvieron la santa paciencia de seguirme la corriente con gran amabilidad. Vinieron a explicarme que, a pesar de los recortes, se está desarrollando un sistema de alerta contra maremotos en las costas españolas, en su mayor parte utilizando equipos ya existentes y cooperación internacional. Pero que, por su propia naturaleza, alertar de fenómenos cuya llegada se mide en decenas de minutos es complicado. Que ni esto es el Océano Pacífico, donde pueden transcurrir horas desde que se produce el terremoto hasta que llega el maremoto, ni nosotros somos los japoneses, que llevan décadas perfeccionando sus sistemas de la más alta tecnología hasta ser capaces de alertar a la población en cuestión de minutos. Y que en el caso de los tsunamis causados por deslizamientos de tierras, sin un claro terremoto que los genere, puede pasar un buen rato antes de que las boyas marítimas comiencen a indicar que ocurre algo raro. Es la detección del terremoto y sus características lo que nos permite deducir que viene la ola. Los deslizamientos de tierras se pueden captar, pero resultan mucho más ambiguos. Sobreviviendo al maremoto.
Tilly Smith (izda.), de 10 años de edad, había prestado atención a su profe en clase. Así sabía que cuando el mar se va, es para volver con muy mal genio. Gracias a eso y a su entereza, salvó la vida de numerosas personas en una playa de Phuket (Tailandia) cuando llegó el maremoto de 2004, al dar la alerta que nadie más supo dar. Foto: © The Nation, Tailandia.
Me insisten en que la educación es importante. Durante el maremoto del Índico de 2004, una jovencita británica de diez años llamada Tilly Smith salvó a decenas de personas en una playa de Tailandia al recordar lo que les había contado en clase su profesor Andrew
- 162 -
La Pizarra de Yuri 3
Kearney sobre lo que podía pasar cuando el mar se va. Tilly vio que el mar se iba y se lo explicó a sus padres. Su madre no la creía, pero su padre percibió tanta firmeza en sus palabras que avisó a otros bañistas y al personal del hotel donde se alojaban, activando así una evacuación improvisada. Cuando el mar regresó con todo su poder, fue una de las pocas playas del sector donde no hubo ni un solo muerto. En realidad, la manera más eficaz de salvarse de un maremoto es relativamente sencilla: al primer indicio, corre. No te quedes a mirar. No pases de todo. No comentes la jugada. No intentes recoger tus posesiones ni ir a buscar el coche ni nada por el estilo. Alerta a los demás, intenta ayudar a quienes no puedan valerse por sí mismos y corre como si te fuera la vida en ello, porque te va. Aléjate del agua hacia el lugar más alto posible: montes, lomas, las plantas superiores de edificios resistentes. Si no hay otra cosa, incluso las copas de árboles grandes, difíciles de desarraigar. Lo que puedas. Una diferencia de pocos metros de altura representa la diferencia entre la vida y la muerte. Y si no hay absolutamente nada sólido a lo que subirse, simplemente corre tierra adentro. El maremoto perderá fuerza conforme avance hacia el interior. Si te pilla, intenta agarrarte a algo que flote. Hay gente que ha sobrevivido así. ¿Y cuáles son esos indicios de que viene un maremoto? Pues el primero de todos es un terremoto percibido en una zona costera. Si estás cerca de la orilla (incluyendo la de los ríos y canalizaciones próximos al mar) y notas un terremoto, ponte en alerta. A lo mejor no pasa nada, la mayoría de veces no pasará nada, pero tú presta atención. Por desgracia, este indicio no es de fiar: a menudo el terremoto se produce lejos, muy mar adentro, y no se percibe en tierra. Entonces sólo te queda lo mismo que alertó a Tilly Smith: que el mar se retire, como si de repente la marea hubiese bajado mucho. Lamentablemente, esto tampoco ocurre siempre, sino sólo cuando llega el vano de la ola en primer lugar. Otras veces, la cresta viene por delante. Entonces, la cosa se complica. Los tsunamis de verdad no son como las olas esas de hacer surf que salen en las pelis. Es más como una inundación rápida que crece y crece y crece sin parar. Si lo ves venir, ya lo tienes encima. En este caso, bien, tenemos un problema. Cuentas con muy poco tiempo. Correr ya no vale porque, así seas Usain Bolt, el agua es más rápida que tú. Lo primero, intenta agarrarte con fuerza a algo que flote, lo que sea. No permitas que te atrape dentro de un vehículo: los vehículos vuelcan enseguida y te ahogas, además de que las carreteras y caminos se colapsan en un plis. Ni tampoco en un edificio bajo (como un bungaló, caseta, chiringuito, chalecito, nave o demás): si te quedas ahí dentro, el agua simplemente seguirá subiendo hasta llegar al techo y ahogarte. Sal como puedas. Si puedes encaramarte a algo alto, cualquier cosa, pues arriba. Una vez te veas en el agua,
- 163 -
Antonio Cantó
no intentes pelear contra ella. No puedes ganar: el mar es infinitamente más fuerte que tú y sólo lograrás agotarte enseguida. Déjate llevar, intentando mantener la cabeza fuera del agua (obvio) y evitar los golpes contra otros objetos que pueda estar arrastrando. No sueltes tu salvavidas, por precario que sea. Si no te engancha nada, lo más probable es que la ola al retroceder se te lleve mar adentro. Calma, hay personas que han sido rescatadas después de varios días en el mar, aferradas a su trozo de madera. Es normal tener miedo, mucho miedo, pero no permitas que te venza el pánico. Si se nos apodera el pánico cometeremos estupideces, y si cometemos estupideces en una situación así, se acabó la partida. Jaque mate.
Cartel de información para tsunamis en el bosque estatal de Guánica, Puerto Rico. Las instrucciones básicas son sencillas: corre todo lo que puedas, lo más alto que puedas, y si no puede ser, lo más lejos de la orilla que puedas. Foto: G. Gallice vía Wikimedia Commons.
Otra causa de mortandad es que el maremoto puede comportarse de manera distinta en diferentes lugares de la costa. Hay gente que lo ve subir poco en otro punto de la orilla y se piensa que está segura. Tú, ni caso: a correr hacia lo alto. El comportamiento de un tsunami depende de numerosos factores muy complejos, y a lo mejor en la otra punta de - 164 -
La Pizarra de Yuri 3
la playa sube sólo unos centímetros, pero donde estás tú te mete cinco metros. Así que ojito. Jamás hay que olvidar que un maremoto puede componerse de múltiples olas y durar varias horas. La primera ola tampoco tiene por qué ser la peor de todas, y de hecho muchas veces no lo es. Hay gente que ha muerto porque creía que, al haber escapado de la primera, estaba a salvo de la segunda y sucesivas. Tampoco faltan las personas que perecieron al acudir o regresar al área devastada tras el primer impacto, para prestar auxilio o en busca de familiares, amigos, mascotas o bienes; al hacerlo, se encontraron de bruces con el segundo golpe o los siguientes. La zona afectada por un tsunami no es segura hasta que las autoridades científicas pertinentes no digan que es segura; y aún así, con cuidadín. Lisboa reloaded. En general, los especialistas con los que he consultado consideran mucho más plausible (y temible) una repetición del tsunami de Lisboa que del ocasionado por el deslizamiento BIG’95. La repetición del BIG’95 es sumamente improbable; no ha vuelto a haber otro en estos últimos once milenios y medio. Pero algo como lo del día de Todos los Santos de 1755 no sería tan raro. Fuertes terremotos en la falla de AzoresGibraltar, con maremotos que alcanzaron las costas circundantes, ha habido unos cuantos más. Para acabar de arreglarlo, en 1755 la zona de la Bahía de Cádiz estaba relativamente poco poblada y menos urbanizada. Ahora es todo lo contrario, con el Polo Químico de Huelva –prácticamente a nivel del mar– como guinda del pastel. La base naval de Rota, donde a menudo atracan buques a propulsión nuclear, tampoco es moco de pavo. Teniendo en cuenta que un submarino de la clase Los Angeles tiene un calado de 9,5 metros cuando está en superficie y el tsunami en esa zona podría andar por los 12 – 15, no sería nada extraño que lo sacara del puerto y lo plantase, pongamos, en medio del Arroyo del Salado. En este plan. Aunque el reactor estuviera asegurado y no hubiese sufrido daños, ya puedes imaginarte las carreras hasta cerciorarse, en un momento en el que harían falta recursos por todas partes. Con submarino o sin él, el desastre sería mayúsculo en todo el sector. Uno de los problemas de estas catástrofes es que son a la vez improbables, impredecibles y veloces. Esto no es Japón, donde está claro que vas a tener un maremoto gordo de vez en cuando (aunque aparentemente los directivos de TEPCO no se habían enterado, o querido enterar…) En España, son tan improbables como para que asignar grandes recursos a
- 165 -
Antonio Cantó
prevenirlas se perciba como un despilfarro, sobre todo en una época donde hace falta tanto en tantas partes. Al mismo tiempo, su impredecibilidad y rapidez hacen que, cuando se producen, o lo tienes ya todo listo en el sitio o apenas da tiempo para nada y nos las comemos con patatas. Y luego todo el mundo chilla que cómo es que no se habían tomado medidas y tal.
Bibliografía: •
Bernet, S.; Canals, M.; Alonso, B.; Loubrieu, B.; Cochonat, P.: The BIG-95 and CALMAR 97 shipboard parties, 1999. Recent slope failures and mass-movements in the NW Mediterranean Sea. En: Ollier, G.; Cochonat, P.; Mendes, L. (Eds.), Seafloor Characterization/Mapping Including Swath Bathymetry, Side-Scan Sonar And Geophysical Surveys . Third Eurpean Marine Science and Technology Conference. Session Report. EU, Lisboa, págs. 111-126.
•
Lastras, G.; Canals, M.; Hughes-Clarke; J. E.; Moreno, A.; De Batist, M.; Masson, D. G; Cochonat, P. (2002): Seafloor imagery from the BIG’95 debris flow, Western Mediterranean. Geology, 30, (10), 871-874. DOI: 10.1130 / 0091-7613 (2002)030<0871 : SIFTBD>2.0.CO;2.
•
Urgeles, R.; Lastras, G.; Canals, M.; Willmott, V.; Moreno, A.; Casas, D.; Baraza, J.; Bernè, S. (2003): The Big’95 debris flow and adjacent unfailed sediments in the NW Mediterranean Sea: Geotechnical-sedimentological properties and dating. Advances in Natural and Technological Hazards Research , vol. 19 (2003), págs. 479-487.
•
Canals, M.; Lastras, G., Urgeles, R; De Batist, M.; Calafata, A. M.; Casamora, J.L. (2004): Characterisation of the recent BIG’95 debris flow deposit on the Ebro margin, Western Mediterranean Sea, after a variety of seismic reflection data. Marine Geology, vol. 213, nos. 1–4, 15 de diciembre de 2004, págs. 235–255.
•
Atwater, B. F. et al: Surviving a Tsunami — Lessons from Chile, Hawaii, and Japan . United States Geological Survey, circular 1187, versión 1.1, 1999-2005.
•
Lastras, G.; Vittorio, F.; Canals, M.; Elverhøi, A. (2005): Conceptual and numerical modeling of the BIG’95 debris flow, Western Mediterranean Sea. Journal of Sedimentary Research, 2005, v. 75, 784–797. DOI: 10.2110 / jsr.2005.063.
•
Iglesias, O.; Lastras, G.; Canals, M.; Olabarrieta, M.; González Rodríguez, E. M.; Aniel-Quiroga, Í.; Otero, L.; Durán, R.; Amblàs, D.; Casamor, J. L.; Tahchi, E.; Tinti, S.; De Mol, B. (2012): The BIG’95 submarine landslide-generated tsunami: a numerical simulation. The Journal of Geology, vol. 120, nº 1 (enero 2012.) ISSN: 0022-1376.
- 166 -
La Pizarra de Yuri 3
Cuando Suiza quiso su bomba atómica y tuvo un siniestro nuclear Yuri, el 22 de abril de 2014 @ 17:11 · Categoría: Historia y cultura, Tecnología
«Una instalación como la Central Nuclear de Lucens no estalla, porque no puede estallar.» –Hans Streuli, ex-Presidente de la Confederación Helvética y de la Sociedad Nacional para la Promoción de la Energía Atómica, 1962. (NGA GVP 26/06/1962, pág. 7)
Cuarenta y dos años después del siniestro que obligó a su cierre, los niveles de contaminación radiactiva en el agua de drenaje de la antigua central nuclear experimental de Lucens (Suiza) aumentaron inesperadamente de 15 Bq/l a 230 Bq/l durante el invierno de 2011 a 2012. Aunque muy por debajo del nivel considerado seguro por las autoridades helvéticas (12.000 Bq/l), el hecho de que ocurriera pocos meses después de los accidentes nucleares múltiples de Fukushima, su proximidad a la fuente de las aguas minerales Henniez-Nestlé y el peligro para la riqueza agropecuaria y vitivinícola local despertaron no poca inquietud en la zona. El agente contaminante era, en su mayor parte, tritio radiactivo. Los niveles volvieron a la normalidad durante la primavera de 2012 sin causar mayores problemas. Por el momento no se han establecido públicamente las razones de esta incidencia. Datos: Oficina Federal de Salud Pública de la Confederación Helvética. Foto: J. P. Guinnard.
A finales de 2011, una persona se me acercó con unas hojas impresas de un foro de Internet para decirme: –Eh, Yuri, mira esto. Está llegando a Suiza la radiación de Fukushima. Se han multiplicado por quince los niveles de radiactividad en el agua. –¿Sí? –contesté con no poca displicencia, pues ya llevaba escuchadas unas cuantas de esas. –No pongas esa cara, hombre. Son mediciones oficiales, míralo tú mismo. –¿Pero cómo se va a multiplicar por quince la radiación a diez mil kilómetros de distancia? A ver, déjame ver. ¿La Broye? ¿Dónde c*** está esto?
- 167 -
Antonio Cantó
–Aquí pone que entre el cantón de Vaud y el de Friburgo. –¿El cantón de Vaud…? –recordé, vagamente– Ah, no, entonces esto no viene de Fukushima. Será todavía por aquel accidente nuclear que tuvieron. Mi interlocutor se sorprendió: –¿Un accidente nuclear? ¿En Suiza? ¿Cuándo? –Allá por 1969, en Lucens. Bueno, en realidad nunca ha quedado claro si fue un accidente o un incidente muy grave. Pero se les fue un reactor como su p*** madre. Así que yo lo llamo “el siniestro nuclear de Lucens“. Por suerte estaba metido dentro de una caverna, que si no… –Vaya, no me lo imaginaba de los suizos. ¿Y cómo fue eso? –Verás, el caso es que querían hacer bombas atómicas y… –¡¿Que Suiza quería hacer bombas atómicas?! –Pues… eh… Suiza atómica.
El profesor Paul Scherrer (1890-1969) del ETH-Zúrich fue el “padre” de la energía atómica en Suiza. Foto: © Association suisse pour l’énergie atomique / Schweizerische Vereinigung für Atomenergie.
Ya antes de la Segunda Guerra Mundial Suiza realizó sus propias investigaciones sobre el átomo, fundamentalmente en Lausana, Ginebra y sobre todo en el Instituto Tecnológico Federal de Zúrich (ETH). Entre 1935 y 1940 construyeron
- 168 -
La Pizarra de Yuri 3
tres aceleradores de partículas, incluyendo un ciclotrónen el ETH dirigido por el físico Paul Scherrer, con fondos que aportó la industria privada. El profesor Scherrer mantenía contactos con Lise Meitner(descubridora de la fisión nuclear), Otto Hahn (codescubridor), Werner Heisenberg (el científico más destacado del programa atómico nazi, que ya tratamos en este blog) e incluso con el director del Proyecto Manhattan, el general Leslie Groves. Groves le invitó a visitar los Estados Unidos durante el verano de 1945 y en las propias palabras de Scherrer, le enseñó “muchas cosas”, incluyendo los reactores de producción de plutonio de Hanford. Regresó a Suiza diciendo que “¡todo es muy fácil!” Apenas tres meses después de que los Estados Unidos dieran a conocer al mundo el poder del núcleo atómico mediante los bombardeos contra las ciudades de Hiroshima y Nagasaki, el profesor Scherrer publicó un artículo divulgativo en la edición vespertina del periódico Neue Zürcher Zeitung de 28 de noviembre de 1945 con el título “Fundamentos físicos y técnicos de la energía atómica.” Le siguieron varios más, que cautivaron el interés del público, incluyendo a los políticos y los militares; quienes, como buena parte del mundo por aquel entonces –visto lo visto en Hiroshima y Nagasaki–, tampoco necesitaban una persuasión extrema para convencerse de que no sería mala idea echar un vistazo a eso de la energía atómica, tanto en su vertiente civil como en la militar. El 8 de junio de 1946, el Consejo Federal funda la Comisión de Estudios para la Energía Atómica (más conocida por su acrónimo en alemán SKA, de Studienkomission für Atomenergie). Fue presidida, naturalmente, por el profesor Paul Scherrer de Zúrich. El propósito anunciado al público (y al Parlamento) de esta SKA era la investigación nuclear más o menos genérica. Pero el Presidente Confederal Karl Kobelt les encarga en secreto otra tarea, que de hecho estaba ya sobreentendida: la “creación de una bomba de uranio militar o un medio de guerra equivalente basado en los principios de la energía atómica.” En 1947, el Parlamento aprueba una ley para financiar a la SKA con 18 millones de francos suizos sin que nadie informe a los diputados de su dimensión militar.(Fuente) Al principio, el progreso es lento. Puede que la energía nuclear sea “fácil”, como opinaba el profesor Scherrer, pero sin duda sale muy cara y requiere abundantes medios científicos y tecnológicos que exigen desarrollar una notable pericia técnica. Además, Suiza no tiene uranio. Bueno, ni uranio ni casi nada. El país será muy rico, pero también extremadamente pobre en recursos naturales. Apenas hay minería. Deben importar del extranjero todos los minerales especiales que necesita un programa nuclear, sin que se note que hay gato encerrado. Y esto resulta mucho más complicado de lo que parece,
- 169 -
Antonio Cantó
pese a las excelentes relaciones comerciales de Suiza con el mundo entero. Importarlos no, importarlos es sencillo. Lo que resulta endiabladamente difícil es que nadie se percate de que tu programa atómico tiene bicho, sobre todo si tienes que pasarlos ante los ojos de potencias atómicas como los Estados Unidos o la entonces Unión Soviética, celosos defensores de la exclusividad del club nuclear. Y, ya puestos, por los morros del quisquilloso Parlamento suizo.
El reactor nuclear “Saphir” de tipo piscina, el primero que tuvo Suiza, comprado directamente a los Estados Unidos tras la Primera Conferencia sobre los Usos Pacíficos de la Energía Atómica. Era un diseño del Laboratorio Nacional de Oak Ridge, concebido en origen para funcionar con uranio altamente enriquecido pero “rebajado” al 20% antes de su exposición en Ginebra, precisamente para que no se pudiera utilizar con el propósito de producir material militar. No obstante, permitió a Suiza realizar sus primeros estudios sobre el funcionamiento de un reactor nuclear, la producción de radioisótopos, otros aspectos de la química nuclear, la física de la radiación y los problemas de ingeniería asociados. Foto: Bildarchiv ETH-Bibliothek, Zúrich. (Clic para ampliar)
El caso es que, entre unas cosas y otras, ni siquiera logran iniciar la construcción de un reactor. Hubo que esperar hasta agosto de 1955 para que los Estados Unidos llevasen a Ginebra uno experimental de demostración, llamado Saphir, para la Primera Conferencia sobre los Usos Pacíficos de la Energía Atómica. Fue el primer reactor nuclear que se mostró al público, del tipo piscina, conuranio enriquecido al 20%, moderado y refrigerado por agua ligera (agua común), capaz de entregar unos diez megavatios térmicos de potencia. No era, ni con mucho, el mejor diseño posible para un
- 170 -
La Pizarra de Yuri 3
programa que quería ser militar. De hecho, era uno de los peores (por eso los amerikantsy lo presentaron en una conferencia de usos pacíficos…). Pero, a falta de otras alternativas, un consorcio mixto compuesto por el gobierno suizo y diversas empresas del mismo país que se hizo llamar Reaktor AG se lo compró al finalizar el encuentro. Lo instalaron en Würenlingen, a orillas del río Aar, donde hoy en día se encuentra la sede del Instituto Paul Scherrer. Bien, pues Suiza ya tenía su primer reactor nuclear. Como te digo, resultaba una muy mala opción para un programa con bicho militar. Para conseguir el combustible enriquecido al 20%, tenían que comprárselo a los Estados Unidos en persona. No tenían medios para aumentar el enriquecimiento del uranio y llevarlo al grado militar. Los reactores de agua ligera son generalmente malos para producir plutonio de buena calidad. Y además, la instalación se encontraba bajo estricto control estadounidense. Mil cosas. Pero les sirvió para aprender. Tanto fue así, que en 1957 comenzaron a verse capaces de tirar por su propio camino. Ese fue el año en que iniciaron la construcción de un segundo reactor al lado del primero, llamado Diorit, con tecnología mayormente nacional. Diorit era un animal completamente distinto: estaba moderado con agua pesada, utilizaba uranio natural (sin enriquecer, mucho más fácil de conseguir en el mercado internacional) y generaba unos 20 megavatios térmicos. Y servía para producir plutonio. Plutonio de grado militar.
El reactor suizo Diorit durante una actualización, en 1971. Alimentado con uranio natural y moderado con agua pesada, tenía la capacidad para generar plutonio de grado militar, aunque los controles establecidos por sus
- 171 -
Antonio Cantó
proveedores impedían que se pudiera producir en la práctica. Suiza necesitaba más tecnología y más desarrollo propio para crear una auténtica industria nuclear militar independiente. Foto: Archivo de la ETH-Zúrich, ARK-NA-Zü 1.2. (Clic para ampliar)
Compraron el uranio para alimentarlo a AMF Atomics de Canadá. Pero el agua pesada hubo que importarla otra vez de Estados Unidos, bajo el compromiso (y bastantes controles) de que el reactor sólo se utilizaría para investigación civil. La pura verdad es que con esos controles resultaba muy difícil desviar cantidades significativas de plutonio para un todavía hipotético programa militar. No obstante, quienes deseaban que Suiza tuviese armas nucleares se excitaron. A malas, ahora ya disponían de la tecnología y la posibilidad (un poco como pronto haría Israel con Dimona). Sólo necesitaban “independizarse” de sus proveedores. Al mismo tiempo, la reciente creación del Pacto de Varsovia (1955) en respuesta a la formación de la OTAN(1949), los aún más recientes sucesos de Hungría (1956) y la aparición de los misiles balísticos de alcance mediocon grandes cabezas atómicas (precursores de losmisiles balísticos intercontinentales, que llegarían inmediatamente después) calentaban la Guerra Fría en Europa a toda velocidad, empujándola hacia su periodo más crítico. Casi en medio, un país riquísimo que –aunque netamente situado en el campo occidental– hace de la neutralidad su bandera, y que muchos creen imposible de derrotar pero sus militares saben que no lo es tanto desde que se inventaron los aviones, las fuerzas aerotransportadas y los misiles de largo alcance: sí, Suiza. Es en ese contexto, el 27 de marzo de 1957, cuando el jefe del Estado Mayor suizo Louis de Montmollin crea en el más absoluto secreto una cierta comisión de estudio para la posible adquisición de armas nucleares propias, vinculada al “lado militar” de la SKA. No es una cosa que De Montmollin se saque de la manga porque le parece bien, al hombre: están en el ajo otros cuatro oficiales de alto rango, el jefe de los servicios legales del Ministerio de Asuntos Exteriores, dos miembros destacados del Comité de Trabajo para Asuntos Nucleares del Consejo Federal y el director de la compañía Reaktor AG (algunas de estas personas se hallaban muy próximas al después llamado Projekt-26, la rama suiza de la Operación Gladio.) En realidad, la fundación de esta comisión fue una iniciativa secreta del Consejo Federal. En junio de 1958, de manera probablemente casual, un grupo pacifista comenzó a recoger firmas para convocar un referéndum que habría prohibido la “importación, fabricación, tránsito, almacenamiento y uso de armas nucleares de todas clases” en territorio suizo. La recogida de firmas les fue bastante bien y el Consejo Federal empezó a ponerse nervioso, porque les metía directamente el dedo en el ojo de un programa secreto que podía provocar un escándalo internacional. Quizá por eso, durante el mes de
- 172 -
La Pizarra de Yuri 3
julio hicieron finalmente pública una denominada declaración de principios donde afirmaban: “De acuerdo con nuestra centenaria tradición de valentía, este Consejo Federal considera que las Fuerzas Armadas deben recibir el armamento más efectivo para preservar nuestra independencia y proteger nuestra neutralidad, incluyendo las armas nucleares.” –Declaración de Principios del Consejo Federal de la Confederación Helvética, 11 de julio de 1958.(Fuente)
Pero el asunto estaba ya ocasionando problemas políticos, los costes se disparaban y las dificultades tecnológicas también. Crear una industria nuclear nacional de verdad no era tan fácil como anticipó el profesor Scherrer. Impaciente, el nuevo jefe del estado mayor Jakob Annasohn se dirigió al Ministerio de Defensa el 14 de marzo de 1960 para que considerasen la posibilidad de adquirir armas nucleares completas en Estados Unidos, el Reino Unido e incluso la Unión Soviética; o, al menos, una cooperación con Francia y Suecia (que también tenía su propio programa militar). El Consejo Federal de Ministros le miró muy raro y le vinieron a responder de lo más cortésmente que si estaba loco o qué. Así quedó el tema por el momento. Sin embargo, el 10 de octubre de 1960, el reactor Diorit alcanzó la primera criticidad y comenzó a funcionar. Trabajosamente, a un coste monumental, Suiza estaba cada vez más cerca de desarrollar su propia industria nuclear. Y sus propias armas atómicas. El escándalo de los Mirage.
- 173 -
Antonio Cantó
El mejor avión de combate con que contaba la Fuerza Aérea Suiza mientras se planteaba hacer bombas atómicas era el Hawker Hunter Mk.58 (en la foto, durante una exhibición reciente), un caza táctico subsónico de limitada autonomía totalmente inadecuado para operaciones de bombardeo profundo. Estuvo en servicio desde 1958 hasta 1994. Imagen: Wikimedia Commons. (Clic para ampliar)
Como ya te he contado alguna vez en este blog, si quieres una fuerza nuclear, crear tus propias armas atómicas es sólo una parte del problema. Otra parte consiste en encontrar una manera de llevarlas hasta su blanco de manera más o menos efectiva. Eso, en la práctica, añade dos dificultades nuevas. La primera es que no te vale un petardo cualquiera: tienes que miniaturizarlas para que quepan en una bomba de aviación o en la cabeza de un misil, lo que requiere un grado significativo de sofisticación tecnológica. La segunda es conseguir el avión o el misil de marras. Fabricar un misil de medio o largo alcance con capacidad nuclear estaba (y sigue estando) totalmente fuera de las capacidades de Suiza y quienes tienen no ponen los buenos a la venta. El desarrollo de esta clase de misiles exige, básicamente, un - 174 -
La Pizarra de Yuri 3
programa espacial o algo muy parecido. En cuanto a su aviación, también estaba (y, por cierto, sigue estando) totalmente obsoleta, además de ser minúscula. En África hay fuerzas aéreas notablemente más poderosas. Cosas de los impuestos bajitos y tal. En fin, que lo del misil era imposible por completo y a principios de los ’60 la Fuerza Aérea Suiza no sólo estaba anticuada: era ridícula. De hecho, ni siquiera existía como tal. Era una sección del Ejército de Tierra. Mientras las potencias estrenaban sus F-4 Phantom, sus MiG-21 y sus Mirage III, todos ellos capaces de volar al doble de la velocidad del sonido o más –entre muchas otras cosas–, los suizos se apañaban con cosas británicas de posguerra como los de Havilland Vampire / Venom y los Hawker Hunter, que ni siquiera eran supersónicos. Es que tenían también aspiraciones aeronáuticas nacionales, ¿sabes?, con prototipos como el N-20 y el P-16, obsoletos incluso antes de terminarlos. De todos ellos, el único que valía para algo en esas fechas era el Hunter, un caza subsónico ligero con capacidades de ataque táctico más o menos equivalente al Super Sabre americano o al MiG-17 soviético. Pero para misiones de penetración y bombardeo nuclear profundo, no pasaba de chatarra. Así que decidieron actualizarse. Y, con el proyecto de fabricar armas atómicas ya en mente, querían un avión supersónico de altas prestaciones que fuese capaz de transportarlas “hasta Moscú” (¡cómo no…!) Para ser exactos, cien de ellos. Probaron el Saab 35 Draken sueco, los Lockheed F-104 Starfighter y Grumman F-11 Tigerestadounidenses, el Fiat G.91 italiano y el Dassault Mirage III francés. De todos ellos, el que más les gustó fue elMirage. Además, se los dejaron muy bien: 871 millones de francos suizos por las cien unidades, con electrónica estadounidense y nuevos sistemas de radar, guerra electrónica y ayuda a la penetración. Encima, la célula y los motores se construirían en Suiza bajo licencia, dando así un empujón a la atrasada industria aeronáutica helvética. Un buen negocio. En 1961 el Consejo Federal asignó el presupuesto y se pusieron a ello. Pasó lo de costumbre con los productos Dassault: los costes reales se dispararon. Además, la industria aeronáutica suiza estaba efectivamente tan obsoleta que no era capaz de producir ni las células ni los motores con la rapidez y calidad necesarias. Apenas tres años después, en 1964, el Consejo Federal tuvo que pedir al Parlamento un crédito adicional de 576 millones de francos, sumando un total de 1.447 millones. Eso era una fortuna en aquella época y el Parlamento dijo que ni hablar. Al final lo zanjaron con 1.021 millones… pero por sólo 57 aviones en vez de los cien originales.
- 175 -
Antonio Cantó
El Dassault Mirage III con el que tuvieron que quedarse al final. De los cien previstos, sólo pudieron completar 57, y parte de ellos con problemas de calidad (que fueron subsanados posteriormente.) Esta “fuerza mínima” resultaba insuficiente para operaciones de bombardeo profundo contra la URSS y de hecho se dudaba si bastaría para defender el propio espacio aéreo suizo. Foto: Wikimedia Commons. (Clic para ampliar)
Como Suiza no dejaba de ser un país serio, en el proceso dimitió mucha gente, desde el ex-Presidente, Miembro del Consejo Federal y Ministro de DefensaPaul Chaudet hasta el jefe del Estado Mayor Jakob Annasohn que te mencioné más arriba (sí, el que quería comprar armas nucleares por ahí.) Crearon una comisión de investigación parlamentaria (una de verdad, que en los países serios es una cosa muy seria), reorganizaron el Ministerio de Defensa de arriba abajo, multiplicando los controles, y se replantearon la política de defensa en su conjunto. Fue tan gordo para los estándares de allí que se le llamó el escándalo de los Mirage. Aquí ya sabemos que habría sido alguna cosilla de esas por las que no pasa nada, no dimite nadie y además vuelven a sacar mayoría absoluta en las siguientes elecciones. Por no mencionar el chiste de la comisión parlamentaria. El caso es que al final se quedaron con 57 aviones en vez de 100, parte de los cuales presentaban problemas de calidad en la producción. Esa era una fuerza muy justa, muy
- 176 -
La Pizarra de Yuri 3
por debajo y más cara de lo previsto, ya no para atacar Moscú, sino para simplemente defender el espacio aéreo suizo en caso de guerra. Pese a ello, algunos seguían hablando de bombas atómicas y ataques estratégicos profundos. El 4 de mayo de 1964, en pleno escándalo de los Mirage, un documento (entonces) secreto de la comisión de estudio para la posible adquisición de armas nucleares propias mencionada más arriba proponía 50 bombas de aviación, con una potencia entre 60 y 100 kilotones cada una. También desarrollaron planes para realizar pruebas nucleares subterráneas en grutas alpinas. Sin embargo, los costes se multiplicaban: otro documento confidencial hablaba de 720 millones de francos suizos a lo largo de 35 años si las hacían de uranio altamente enriquecido y hasta 2.100 millones en 27 años si optaban por el plutonio, que permite construir armas más ligeras, potentes y sofisticadas. Pero, ¿de dónde iban a sacarlas, si sólo contaban con dos reactores primitivos bajo control de potencias extranjeras nada favorables a la idea de ampliar el club nuclear? Bueno, es que para entonces ya contaban con un tercero. Uno mucho más avanzado, de fabricación exclusivamente nacional, metido en una caverna entre los Alpes y el Jura: lacentral nuclear experimental de Lucens. La central nuclear experimental de Lucens. La central de Lucens surgió de tres proyectos distintos para la producción de energía eléctrica civil. El primero se remonta a 1956, cuando un profesor del Instituto Federal de Tecnología de Zúrich sugirió sustituir la anticuada planta de calefacción urbana de la ciudad por una nueva, nuclear, que suministrara tanto agua caliente como electricidad. Este proyecto fue avalado por “el Consorcio”, una agrupación empresarial privada constituida en torno a la importante firma industrial Sulzer de Winthertur. Sin embargo, este “Consorcio” carecía por sí solo de la capacidad científica para emprender una obra así.
- 177 -
Antonio Cantó
Lucens, Cantón de Vaud (distrito de La Broye-Vully), Suiza. La central se instaló en una caverna a apenas dos kilómetros de la localidad, según se baja por la carretera 1 en dirección a Lausana. Foto: Wikimedia Commons. (Clic para ampliar)
La segunda idea, planteada aproximadamente al mismo tiempo, fue propuesta por las compañías eléctricas Atel,FMB, NOK y EOS. Constituyeron la sociedad Suisatom AG para promover una central nuclear que produjera energía eléctrica puramente, en el río Aar, cerca de Villigen, o sea justo al lado de los reactores Saphir y Diorit. Pero pensaban comprar el reactor a la compañía estadounidense General Electric, con lo que no habría sido un proyecto estrictamente nacional. Y la tercera, también de las mismas fechas, se originó en un grupo romando llamado Enusa (Énergie nucléaire SA, sin ninguna relación con la ENUSA española.) Enusa tenía un proyecto más definido, realista y alcanzable desde el punto de vista tecnológico: construir una central nuclear experimental en una caverna del cantón de Vaud que tenía buenas características geológicas, con planos estadounidenses pero de fabricación nacional, que sentara las bases para luego desarrollar centrales mayores y mejores. No obstante, a Enusa le faltaba el dinero y parte de la tecnología para embarcarse por cuenta propia. En 1961, el gobierno federal suizo sugirió a estas tres sociedades que aunaran sus esfuerzos en torno al proyecto más factible (y menos susceptible de “injerencias extranjeras”): el de Enusa en Lucens (Vaud). Pero en vez de usar planos americanos, sería totalmente de diseño y construcción suiza. A los tres grupos les pareció buena idea y en julio del mismo año fundaban la Sociedad Nacional para la Promoción de la Técnica Atómica Industrial (SNA), presidida por el ex-Presidente de la Confederación Hans Streuli. El propósito era crear una central nuclear de características tecnológicas
- 178 -
La Pizarra de Yuri 3
avanzadas que constituyera el penúltimo paso para alcanzar la tan ansiada industria nuclear nacional. Hasta donde yo sé, ninguna de esas empresas era totalmente consciente de que tras ese proyecto se ocultaba un afán de investigación militar (aunque también habrían tenido que hacerse un poco los idiotas para alegar completa inconsciencia.) Optaron por un diseño con combustible de uranio muy ligeramente enriquecido (al 0,96% en vez del 0,7% natural), moderado con agua pesada y refrigerado por dióxido de carbono: lo que viene siendo un HWGCR. Sus 73 elementos de combustible se parecían mucho a los de las centrales Magnox británicas y UNGG francesas (como Vandellós-1), moderadas con grafito pero también refrigeradas por gas (GCR). Esta es una tecnología especialmente apta para producir plutonio militar en cantidad (de ahí salió el que usaron en las primeras armas nucleares de ambos países.) Generaría 30 megavatios térmicos, de los que se obtendrían 8,3 megavatios eléctricos. La disposición de la central era como sigue:
Esquema de la central nuclear experimental de Lucens. Leyenda: 1.- Caverna del reactor. 2.- Caverna de maquinaria. 3.- Galería de acceso. 4.- Sistema de aire acondicionado. 5.- Edificio de explotación. 6.- Estación de ventilación superior. 7.- Chimenea de ventilación. Imagen: Inspección Federal para la Seguridad Nuclear, Suiza. (Clic para ampliar)
- 179 -
Antonio Cant贸
- 180 -
La Pizarra de Yuri 3
Dos etapas de la construcción de la central nuclear experimental de Lucens. Fue excavada “de dentro afuera” y ensamblada entre 1962 y 1965, pero los distintos problemas que surgieron extendieron el proceso hasta principios de 1969. Imágenes: Inspección Federal para la Seguridad Nuclear, Suiza.
Las obras se iniciaron el 1 de julio de 1962, excavando la galería de cien metros para penetrar en la montaña. Cuando la gente de la zona se enteró de lo que le había tocado en suerte, hubo bastante oposición. Fue entonces cuando el ex Presidente de la Confederación metido ahora a presidente de la SNA quiso tranquilizarles con esa frase tan molona que encabeza el artículo, y que ha quedado para la posteridad: “Una instalación como la Central Nuclear de Lucens no estalla, porque no puede estallar.” La buena idea, que al final resultaría ser salvífica, fue meterla dentro de una caverna. La mala, todo lo demás. Suiza se había quedado muy atrás en materia nuclear a esas alturas. Mientras ellos excavaban y construían laboriosamente su centralita experimental de 8 megavatios eléctricos (MWe), las superpotencias atómicas estrenaban sus prototipos dereactores de segunda generación con capacidades superiores a los 200: General Electric de los Estados Unidos había inaugurado el BWR-1 enDresden, Illinois (1960, 210 MWe) y la URSS daba los últimos retoques al VVER-210 (1964, Novovoronezh, 210 MWe). El Reino Unido, Canadá y Francia les pisaban los talones con tecnologías muy prometedoras y grandes inversiones. Hasta Suecia, que aún se mantenía en la carrera por la bomba (si bien ya resoplando…), completaba el R-3 de Ågesta con 12 MWe: un 50% más. La construcción no fue mal: Lucens quedó terminada en mayo de 1965, menos de tres años después. Pero durante el proceso se hizo evidente que necesitaría un largo periodo de prueba y ajuste antes de ponerla en servicio. Entonces, la compañía eléctrica NOK se dejó ya de mandangas nacionales y encargó un reactor nuclear PWR a Westinghouse de los Estados Unidos, con 380 MWe de potencia. Poco después, les pidió otro. Así nació la central de Beznau, la primera que produjo verdaderamente energía eléctrica en Suiza y la más antigua del mundo que sigue actualmente en servicio. Los historiadores siguen discutiendo hasta qué punto la instalación de Lucens estaba concebida para uso civil o militar. Lo más probable es que fuera un reactor de investigación de doble uso. Según las opiniones más extendidas, el plutonio militar se habría producido en Diorit (es un proceso relativamente sencillo) y la investigación puntera se realizaría en Lucens, mucho más sofisticada. La tecnología de Diorit daba para pergeñar primitivas bombas atómicas, del tipo de Nagasaki o poco más. Por el contrario, la ciencia a desarrollar en Lucens permitiría el desarrollo de verdaderas armas nucleares avanzadas para su tiempo, a un nivel similar al de Israel. Es opinión de este que te escribe que Diorit era la fábrica y Lucens el laboratorio para crear una verdadera
- 181 -
Antonio Cantó
industria nuclear. En todo caso, los reactores de Diorit y Lucens eran las claves para que Suiza pudiese tener un programa atómico totalmente nacional, fuera para uso civil o militar.
Elemento de combustible nuclear Magnox, muy similar a los utilizados en la central experimental de Lucens. Imagen: Wikimedia Commons. (Clic para ampliar)
El siniestro. El 16 de noviembre de 1966 tuvieron el primer susto. Mientras probaban un elemento de combustible para Lucens en el reactor Diorit de Würenlingen, se les fundió el uranio y parte de la funda de magnesio, provocando una parada de emergencia. La investigación determinó que se había debido a un aumento de potencia demasiado rápido y recomendaron que en Lucens se variase la potencia más despacito. El informe también sugería que esas barras de combustible tipo Magnox no eran muy de fiar
- 182 -
La Pizarra de Yuri 3
porque presentaban problemas de corrosión y peligro de incendio. Pero a esas alturas, con la central terminada, ya no podían echarse atrás. La central nuclear de Lucens alcanzó su primera criticidad el 29 de diciembre de 1966. Entonces se encontraron con numerosos fallos, sobre todo en el circuito de refrigeración por dióxido de carbono (gas), que exigieron otros diecisiete meses de cambios y ajustes. En particular, los dos ventiladores que debían asegurar la circulación del dióxido de carbono resultaron extremadamente problemáticos. Estaban lubricados por agua y, aunque en los bancos de pruebas habían funcionado bien, en condiciones reales el agua se infiltraba al circuito de gas refrigerante. No fue hasta mayo de 1968 que lograron mantenerla funcionando durante diez horas a dos terceras partes de la potencia nominal. Entonces, la autoridad nuclear suiza transfirió la explotación a la compañía eléctrica EOS para que comenzaran a operar. No hubo forma. En el mes de octubre, durante las pruebas finales, volvió a infiltrarse agua en el circuito de refrigeración. Durante el siguiente mes y medio cambiaron los ventiladores y EOS obtuvo el permiso definitivo de explotación el 23 de diciembre. No obstante, la autoridad de seguridad nuclear suiza insistía en que las barras de combustible tipo Magnox eran muy delicadas, y que debían operar la central de 8 míseros MWe en el régimen más suave posible. Mientras, las superpotencias nucleares andaban ya peleándose con la barrera de los 500 MWe por reactor. Por su parte, Suecia se rendía ya: firmaron el Tratado de No-Proliferación, nunca acabaron su reactor R4 con el que pensaban producir plutonio militar y encargaron un reactor BWR puramente civil para la central de Oskarhamn. Pero los suizos siguieron intentándolo, si bien para entonces la idea de producir armas nucleares iba quedando reducida a poco más que un sueño –o una pesadilla–. Estados Unidos y la Unión Soviética iban ya por los misiles balísticos intercontinentales de segunda generación con cabezas termonucleares en el rango del megatón, como el Minuteman II o el UR-100. Simplemente, se habían quedado fuera de juego. Aún así, cuando el nuevo ministro de Defensa Nello Celioquiso finiquitar el asunto, se encontró con fuerte oposición por parte del Estado Mayor y los sectores más patrioteros y halcones. Tan tarde como en ese mismo año de 1968, un nuevo plan hablaba de asignar entre 100 y 175 millones de francos suizos para un programa que produciría 400 cabezas nucleares de uranio quince años después. El mismo día en que se abría a la firma el Tratado de No-Proliferación Nuclear (1 de julio de 1968) en Londres, Washington y Moscú, Celio se pasó al Ministerio de Finanzas. Como si dijese “yo no quiero tener nada que ver con esta chaladura.”
- 183 -
Antonio Cantó
El arranque definitivo de la central nuclear de Lucens fue programado para el 21 de enero de 1969, en torno a la medianoche. Muy, muy despacito, para no dañar esas barras de combustible Magnox tan delicadas. La primera criticidad se alcanzó a las 04:23 de la madrugada. Poquito a poquito, siguieron aumentando la potencia, con el propósito de alcanzar el 100% y conectar por fin los generadores a la red eléctrica en algún momento del día siguiente. Sobre el mediodía, superaron el 25% de la potencia térmica. Poco antes de las cinco y cuarto de la tarde pasaban del 40%, sin que los problemas que les habían plagado durante todos esos años se presentasen a molestar. De pronto, a las 17:20, la central entró automáticamente en parada de emergencia y cerró las válvulas de ventilación exterior sin que los operadores de la sala de control supiesen por qué. A los pocos segundos se produjo el primer estampido, muy violento. Los operadores, que estudiaban los instrumentos con desconcierto y miedo, perdieron súbitamente todas las indicaciones del núcleo del reactor. Pero no las de radiactividad en la caverna, que superó los 100 roentgen/hora (aprox. 1 Sv/h) mientras se escuchaba una segunda explosión aún más fuerte y luego otras más pequeñas junto a un inquietante silbido durante otros quince minutos más, conforme la presión del circuito primario caía de 50 atmósferas a 1,2. Sólo los miles de toneladas de roca que envolvían la instalación y el sellado automático de las válvulas de emergencia evitaron que la radiación saliese de ahí.
Sala de control de la central nuclear experimental de Lucens, Suiza, durante la fase de pruebas. Estaba severamente infrainstrumentada, lo que impidió al personal comprender lo que sucedía hasta que ya fue demasiado tarde. Foto: Biblioteca de la EPF-Zúrich. (Clic para ampliar)
Pero para entonces ya quedaban pocas dudas de que el reactor nuclear de Lucens, la última esperanza de Suiza para crear su propio programa atómico nacional, se les acababa de ir. A las 17:58, los operadores encendieron el sistema de ventilación de
- 184 -
La Pizarra de Yuri 3
emergencia, provisto con filtros de yodo, para reducir los niveles de radiación en la caverna. A las 18:15, comenzaron a ponerse los trajes y máscaras de protección. A las 18:20, cerraron toda la ventilación, sellando así efectivamente el reactor o lo que quedaba de él. Por fortuna, apenas escapó radiación al exterior y los trabajadores tampoco resultaron significativamente afectados. Sólo se fugó una cantidad minúscula de tritio, que es un isótopo delhidrógeno y tiende a colarse por todas partes. O eso dicen. Por lo demás, la piedra impidió la catástrofe. La investigación. La investigación posterior –que, por cierto, se tomó más de diez años– puso en evidencia numerosos fallos de concepto, diseño, implementación y operación de la central. De todos ellos, el más grave fue el que permitía las infiltraciones de agua lubricante al interior del circuito primario de refrigeración por dióxido de carbono hasta el extremo de humedecer las barras de combustible nuclear tipo Magnox, extremadamente sensibles a la corrosión. Pese a todos los intentos que hicieron para corregirlo, este problema empeoró a partir de la infiltración y los arreglos del mes de octubre de 1968. Al parecer, tales reparaciones se realizaron con bastante humedad en el circuito y el combustible cargado, afectando gravemente a varios elementos de combustible que ya estaban “tocados” por las infiltraciones precedentes. En particular, las fundas de magnesio del elemento nº 59 se habían oxidado casi por completo; pero al menos ocho de los 73 lo estaban en mayor o menor grado, con los productos resultantes de la corrosión acumulándose al fondo de los canales de combustible en forma de orín hasta bloquear numerosos conductos del gas refrigerante.
- 185 -
Antonio Cant贸
- 186 -
La Pizarra de Yuri 3
De arriba abajo – Esquema simplificado del reactor: A.- Maquinaria de desconexión de los tubos de presión. B .Entrada del circuito primario de refrigeración por dióxido de carbono (gas). C.- Salida del circuito primario. D.Núcleo del reactor. E.- Maquinaria de descarga del combustible. | Distribución del reactor: 1.- Elemento de combustible. 2.- Elemento de combustible destruido (nº 59). 3.- Elemento de combustible con corrosión. 4.- Barra de control. 5.- Barra de seguridad. 6.- Barra de control de reserva. 7.- Portillo de observación. | Estructura de los elementos de combustible: A.- Columna de grafito. B.- Guía de zircaloy. C.- Tubo de presión (zircaloy). D.- Tubo exterior (aluminio.) E.- Moderador (agua pesada). F.- Refrigerante (dióxido de carbono). G.- Funda de magnesio. H.Barra de uranio. Imágenes: Wikimedia Commons. (Clic para ampliar)
La situación se agravó aún más durante una prueba realizada el 11 de diciembre, al infiltrarse “varios litros” de agua que permanecieron en el interior del circuito primario hasta el 17 de enero, pocos días antes del arranque definitivo. A pesar de todos los problemas, o quizá precisamente por eso, nadie ordenó un repaso general del reactor durante esos últimos meses. En palabras de la Inspección Federal para la Seguridad Nuclear, cuando decidieron la puesta en marcha de la central, sus operadores “no eran conscientes de que se encontraban ya con un reactor fuertemente dañado.” Las barras de combustible no estaban provistas con termómetros independientes para medir la temperatura del uranio en su interior. Por tanto, los operadores de la sala de control ignoraban el comportamiento térmico de cada elemento; sólo podían saber el del conjunto del reactor. Si una barra de combustible se iba, como ya había pasado durante las pruebas de noviembre de 1966 en Diorit, no tenían manera alguna de saberlo. Así pues, cuando comenzó la puesta en marcha del 21 de enero de 1969, el reactor nuclear de Lucens tenía ocho elementos de combustible oxidados, varios canales de refrigeración se habían obturado con orín y sus operadores sólo contaban con una instrumentación bastante básica. Conforme la potencia aumentaba y con ella la temperatura, estos elementos de combustible mal refrigerados empezaron a deteriorarse y deslizarse hacia lo que a todos los efectos era un LOCA ( loss-of-coolant accident, accidente por pérdida de refrigerante). Probablemente los daños graves comenzaron a producirse durante la mañana o al mediodía, cuando pasaron del 20 – 25% de potencia térmica, pero los operadores de la sala de control no podían saberlo porque carecían de la instrumentación necesaria. Sólo el lentísimo arranque impuesto por la autoridad de seguridad nuclear impidió que reventasen mucho antes. Así aguantaron hasta las 17:20, poco después de superar el 40% de potencia térmica. Entonces, el elemento nº 59 alcanzó los 600ºC y falló por fin. Primero se derritió la funda de magnesio de las barras de combustible e inmediatamente a continuación el uranio metálico que contenían. Las columnas de uranio y magnesio fundidos empezaron a chorrear. Pero entonces el metal se inflamó, provocando un súbito incendio radiactivo dentro del reactor que saturó el dióxido de carbono refrigerante con gran cantidad deproductos de la fisión altamente radiactivos. Fue este
- 187 -
Antonio Cantó
incremento brutal de la temperatura y la radiación en el circuito primario lo que provocó la parada automática de emergencia del reactor, mientras los operadores miraban a sus lacónicos instrumentos sin entender nada de nada. Un instante antes todo parecía ir bien y ahora, de pronto, estaban en SCRAM. Sin embargo, el siniestro apenas acababa de comenzar. Por suerte dio tiempo a que se insertaran las barras de control, deteniendo así la reacción en cadena. No obstante, a los pocos segundos la mezcla de uranio y magnesio fundidos entró en contacto con el conducto de refrigeración, presurizado a casi cincuenta atmósferas. Éste estaba también ya deteriorado y, a 700-800ºC, explotó violentamente. Esta explosión hizo saltar uno de los cinco discos de ruptura del depósito de agua pesada utilizada como moderador. Al instante, 1.100 kg de agua pesada, magnesio, uranio, dióxido de carbono y productos de la fisión muy radiactivos escaparon del reactor por el boquete, contaminando por completo la caverna donde se encontraba. En la sala de control, los operadores sintieron la explosión y se asustaron al ver que la radiación en la caverna aumentaba rápidamente hacia los 100 roentgens/hora. Únicamente entonces comprendieron que el reactor estaba ahora abierto. En lenguaje de a pie, que había reventado. La cosa no acabó ahí. Un segundo después se produjo una violenta reacción química entre el agua pesada y los metales fundiéndose a alta temperatura, lo que causó la segunda explosión, más potente que la anterior. Los cuatro discos restantes del depósito de agua pesada fallaron definitivamente y el reactor quedó destapado por completo, proyectando aún más sustancias radiactivas a la caverna. Los conductos de las barras de control se deformaron y bloquearon, pero afortunadamente éstas ya estaban insertadas gracias a la parada automática de pocos segundos antes (en caso contrario se habría producido una pérdida total de control del reactor, que ahora se quedaba completamente sin refrigeración, al despresurizarse el circuito primario de dióxido de carbono). Las reacciones entre el agua pesada y los metales en fundición provocaron varias explosiones más durante el siguiente cuarto de hora, terminando de contaminar la caverna y de destrozar el reactor. Sólo se detuvieron cuando el circuito primario quedó despresurizado por completo, anulando totalmente la refrigeración. Sin embargo, el sistema de refrigeración de emergencia estuvo al quite. Logró mantener bajo control las barras de combustible y hasta ahí llegó la cosa. En aquella época aún no se usaba la escala INES, que data de 1990, para catalogar la gravedad de los siniestros nucleares. Diversos estudios posteriores lo consideran a mitad camino entre un INES 3 (incidente grave) y un INES 5 (accidente de gravedad media). Tal como se relatan los hechos convencionalmente, en mi opinión estaría entre un 2
- 188 -
La Pizarra de Yuri 3
(incidente medio) en “afectación de las personas o el medio ambiente” y un 4-5 en “pérdida de control y barreras radiológicas.” La Oficina Federal de Salud Pública de Suiza cree que “el accidente de Lucens sería clasificado hoy en día al nivel 4 o 5 de la escala INES”, lo que lo sitúa en la “lista corta” de los peores accidentes nucleares de la historia.
El elemento de combustible nº 59, tal como quedó después de la explosión. Imagen: Inspección Federal para la Seguridad Nuclear, Suiza. (Clic para ampliar)
- 189 -
Antonio Cantó
Por comparación, yo tiendo a considerarlo subjetivamente un INES-4: a todas luces más grave que Vandellós-1 (1989) o laplanta THORP de Sellafield (2005), considerados “treses”, pero no tanto como sólidos “cincos” del tipo del incendio radiactivo de Windscale/Sellafield (1957), el accidente de Isla Tres Millas (1979) o por supuesto el escalofriante accidente de Goiânia (1987). A mi modo de ver se parece más a Saint Laurent (Francia, 1969) oJaslovské Bohunice (Checoslovaquia, otro HWGCR, 1979), que son “cuatros” de manual. El informe original de la autoridad de seguridad nuclear suiza, publicado en 1979, era llamativamente “suavito” en sus conclusiones. Tanto, que despertó bastantes críticas, y no sólo entre los ecologistas y demás. En todo momento, el informe consideraba lo sucedido en Lucens una “avería” o un “incidente” sucedido por una diversidad de causas “difíciles de prever” que en ningún momento había puesto en peligro la seguridad pública porque “todos los sistemas de seguridad funcionaron como debían”. Durante las décadas siguientes, diversos análisis fueron incrementando su gravedad, aunque todos ellos coinciden en que la caverna impidió que la radiactividad escapase al exterior en cantidades significativas. Finalmente, en 2009, el Ministro de Energía y después Presidente de la Confederación Moritz Leuenberger hizo las siguientes declaraciones, él sabrá por qué: “En 1969, Suiza escapó por poco de una catástrofe (…). La actitud oficial de aquella época se conformó con evocar un «incidente». El informe de la investigación publicado diez años después llegó a la conclusión de que «la población no estuvo amenazada en absoluto.» Pero hoy vemos que Lucens aparece en la lista de las veinte peores averías en reactores del mundo. La dimensión real de la avería fue disimulada y eludida sin comentarios.” Las tareas de limpieza duraron más de un cuarto de siglo. Las barras de combustible fueron a parar a Eurochemic de Mol (Bélgica) y el agua pesada que se pudo recuperar, una vez descontaminada y purificada, se vendió en el mercado internacional. Seis grandes contenedores de residuos altamente radiactivos se almacenaron en la instalación junto a otros 230 con residuos de media y baja actividad. Entre 1991 y 1993 se rellenó con hormigón la caverna del reactor, y se instaló un sistema de drenaje. En 1995 declararon la instalación definitivamente descontaminada. Poco después se estableció allí un archivo del cantón. Sin embargo, los contenedores de residuos no se trasladaron al almacén temporal de Würenlingen hasta 2003. Y a finales de 2011 y principios de 2012, como te conté al principio del post, hubo una contaminación por tritio en el sistema de drenaje, aún no sé por qué.
- 190 -
La Pizarra de Yuri 3
El fin del sueño (o la pesadilla…)
Un liquidador se dispone a entrar en el área contaminada después del siniestro. Imagen: Inspección Federal para la Seguridad Nuclear, Suiza. (Clic para ampliar)
El programa nuclear suizo nunca se repuso del siniestro de Lucens. La pérdida total del reactor y los obvios problemas que ya había presentado con anterioridad les obligaban a comenzar otra vez desde cero, la idea de fabricar armas atómicas se evidenciaba cada vez más insensata y cara, y para la producción de energía eléctrica civil podían
- 191 -
Antonio Cantó
simplemente comprar centrales mucho más avanzadas donde les diese la gana (como de hecho hicieron). Se habían quedado atrás, muchos peldaños por debajo de lo necesario para convertirse en una potencia atómica incluso de segundo o tercer orden. En el mismo año de 1969, Suiza firmó el Tratado de No-Proliferación Nuclear, con sus correspondientes inspecciones y controles. Aún así, el proyecto militar se resistió a morir. El comité vinculado al Estado Mayor siguió reuniéndose en secreto, 27 veces, hasta 1988. No obstante, fueron virando poco a poco hacia posiciones defensivas, como la protección civil en caso de ataque nuclear o conarmas de pulso electromagnético. Pero mantuvieron el afán de ser una “potencia nuclear en el umbral”, es decir, un país que podría construir la bomba atómica si se pusiera a ello. En 1979, el Jefe del Estado Mayor Hans Senn aún emitió una instrucción diciendo que“en el caso de que los desarrollos políticos y tecnológicos condujeran a una evaluación totalmente nueva de la situación, [el comité] debería solicitar que se adoptaran las medidas [necesarias].” Los desarrollos políticos y tecnológicos no fueron por ahí. El 12 de agosto de 1981, el Consejo Federal de Ministros levantaba el secreto sobre las reservas de uranio que poseía el país para ponerlas bajo el control del Tratado de No-Proliferación, transfiriendo el control sobre las investigaciones nucleares al Ministerio de Energía. En 1985, la Conferencia de Ginebra entre Reagan y Gorbachov iniciaba la congelación de la Guerra Fría. Sin embargo, todavía hubo algunas charlas privadas con alemanes y británicos, y el 31 de diciembre de 1986 el presidente del comité militar Gérard de Loes escribió una carta al Consejo de Ministros para que declarasen oficialmente que Suiza aún tenía la intención de ser una potencia nuclear en el umbral. No lo hicieron. En diciembre de 1987, Reagan y Gorbachov firmaban en Washington DC el Tratado para la Eliminación de las Fuerzas Nucleares de Alcance Intermedio. Estas armas constituyeron uno de los mayores factores de riesgo para la escalada rápida de una guerra atómica en Europa y su eliminación suavizaba bastante las cosas. Casi sin presupuesto, sin medios, sin perspectivas realistas y sin apoyo político efectivo, ya fuera de la historia como quien dice, el comité militar acabó por solicitar su autodisolución. El 1 de noviembre de 1988, el Ministro de DefensaArnold Koller echó discretamente la firma. Tras más de cuarenta años, el anhelo suizo de crear una fuerza nuclear moría así por fin. Hoy en día, Suiza produce el 40% de su energía eléctrica en cuatro centrales nucleares civiles con reactores de tecnología extranjera (General Electric, Westinghouse y Areva) y tienen un reactor universitario de potencia cero, elCROCUS, en la Escuela
- 192 -
La Pizarra de Yuri 3
Politécnica Federal de Lausana; todo ello, monitorizado por la Agencia Internacional para la Energía Atómica. En 2011, tras los accidentes de Fukushima, los distintos estamentos del gobierno helvético (Consejo Federal, Consejo Nacional y Consejo de los Estados) decidieron salirse de la energía nuclear por el procedimiento de no autorizar la construcción de nuevas centrales, si bien las que están actualmente en servicio continuarán haciéndolo hasta el final de su vida útil (con el primer cierre previsto en 2019.) No son pocos quienes piensan que esta nueva política está más vinculada a los fabulosos costes de construcción de las centrales nucleares de nueva generación que a ningún problema de seguridad específico (ver también aquí). Si el mercado nunca creyó en la energía nuclear, lamás subvencionada de la historia junto al petróleo y el gas, ahora aún menos. La iniciativa privada no construye actualmente ningún reactor nuclear en el mundo, a menos que tenga acceso al talonario del dinero público. En realidad, el 89% de los que se están haciendo pertenecen a empresas estatales o paraestatales monopolísticas.
- 193 -
Antonio Cantó
Instalación de ojivas múltiples MIRV del modelo Mk21, con cabeza termonuclear minuaturizada W87, en el bus de un misil balístico intercontinental LGM-118 Peacekeeper de la Fuerza Aérea de los Estados Unidos. Foto tomada en la Base Aérea de Vandenberg, 1983. Casi cualquiera puede pergeñar una bomba atómica, pero para plantearse en serio la guerra nuclear hay que trabajar a este otro nivel… y esta foto tiene ya más de treinta años. Imagínate lo que se mueve hoy en día. Imagen: Departamento de Energía de los Estados Unidos. (Clic para ampliar)
En cuanto a las armas atómicas, el club nuclear se ha ampliado poco desde 1969 hasta aquí. Las dos adiciones más notables son India y Pakistán, sumergidas en sus propias dinámicas de enfrentamiento, más los casos particulares de Israel (que seguramente produjo la primera en torno a 1967) y Corea del Norte. Como es sabido se sospecha también de las intenciones de Irány, como es menos sabido, de las de Arabia Saudita. Por su parte, Sudáfrica se deshizo de las suyas y de los cuatro estados herederos de la URSS que las tenían en su territorio, sólo Rusia las conservó. Junto aEstados Unidos, Francia, el Reino Unido yChina, estos son los únicos países que mantienen el afán nuclear militar. De los demás que quisieron, incluyendo a España, todos han abandonado. Es que es muy caro, puede acarrearte muchos problemas políticos (según tu situación en el orden internacional) y mucho más difícil de lo que parece. Construir la bomba, no. Construir la bomba, como dijo el profesor Paul Scherrer de Zúrich, es relativamente fácil (aunque no tanto si quieres hacerlo sin que nadie se percate, además de trabajoso). Pero, después de tanto esfuerzo, sólo tienes una bomba gorda y contaminante. Lo diabólicamente caro y difícil es todo lo demás: la infraestructura, los vectores de lanzamiento, los sistemas de alerta temprana y defensa nuclear (porque tener armas nucleares te convierte en un objetivo nuclear ipso facto), mantenerte al día frente a oponentes tan poderosos que avanzan sin parar… a la mayoría de países normales no les sale a cuenta. Sin salirse de lo militar, con lo que te cuesta una fuerza atómica mínimamente creíble, puedes montarte un ejército convencional que dé miedo sólo de verlo. Y si hablamos de hospitales, escuelas, defensa social y demás, qué te voy a contar.
Bibliografía: •
Stüssi-Lauterburg, Jürg (1995): Historischer Abriß zur Frage einer Schweizer Nuklearbewaffnung. Biblioteca Militar Federal, Berna. (IDN de la Biblioteca Nacional de Alemania: 954175913)
•
Metzler, Dominique B. (1997): Die Option einer Nuklearbewaffnung für die Schweize Armee 1945-1969 . En Studien und Quellen, 23/1997, pp. 121-169. Archivo Federal de Suiza, Berna.
•
Wildi, T. (2003): Der Traum vom eigenen Reaktor; Die schweizerische Atomtechnologieentwicklung 1945–1969 . Chronos Verlag (Ed.), Zúrich. ISBN: 3-0340-0594-6. Disponible en la biblioteca digital de la ETH-Zúrich.
- 194 -
La Pizarra de Yuri 3
•
Krüger, D.; Schneider, F. (2012): Die Alpen im Kalten Krieg; Historischer Raum, Strategie und Sicherheitspolitik. Oldenbourg Wissenschaftsverlag (Ed.), Munich. ISBN: 978-3-486-58817-0.
•
Inspección Federal para la Seguridad Nuclear de la Confederación Helvética (2012): La central nuclear de Lucens. (En francés | En alemán)
Puede que también te interese, en este mismo blog: •
Radiactividad.
•
Así funciona una central nuclear.
•
El renacimiento nuclear, en la incubadora (escrito antes de Fukushima.)
•
La central nuclear más grande del mundo sigue languideciendo (también escrito antes de Fukushima, y que yo sepa el único texto en español que avisó de que en las centrales nucleares japonesas no era oro todo lo que relucía.)
•
Así funciona un arma nuclear, así funciona un arma termonuclear, la bomba del arco iris (y 2), “ántrax”, la bomba del juicio final.
•
Proliferación de armas de destrucción masiva.
•
El error de un Nobel que condenó al proyecto atómico nazi (con los documentos secretos originales.)
- 195 -
Antonio Cantó
El inquietante superbólido de Chelyábinsk Yuri, el 8 de abril de 2014 @ 17:15 · Categoría: Ciencia popular, Sociedad y civilización
No hace falta un gran meteorito para matar a una montaña de gente. Por ejemplo, en mi ciudad o en la tuya. Una de las cosas importantes que han ocurrido durante este periodo de standby fue el impacto, o más bien la detonación aérea, del superbólido de Chelyábinsk. Seguro que te acuerdas, porque fue muy sonado y sobre todo grabado: El superbólido de Chelyábinsk se desintegra en la atmósfera terrestre sobre las 09:20 local (03:20 UTC) del 15 de febrero de 2013, a unos19,16 ± 0,15 km/s (aprox. 69.000 km/h) y 18,3 ± 0,2° de ángulo de incidencia. La desintegración se produjo entre los 83 y los 26 km de altitud, unos 35 km al Sur del centro urbano, liberando de 440 a 590 ± 50 kilotones de potencia explosiva (90 de ellos en forma de luz). La onda de choque fue captada por 17 detectores infrasónicos de la Organización del Tratado de Prohibición Completa de los Ensayos Nucleares, incluso desde la Antártida, y dio varias vueltas a la Tierra antes de disiparse por completo más de un día después.
Trayectoria del superbólido de Chelyabinsk y ubicación de los fragmentos encontrados. (Clic para ampliar)
Comenzaremos por algo muy parecido a una perogrullada: la capacidad de una gran explosión aérea para causar daños en tierra, en términos generales, aumenta con su potencia y se reduce con la distancia al blanco (tanto en el plano horizontal como en el vertical). Aunque cabe hacer algunos matices al respecto (como el “efecto escudo” de montañas y colinas o el “efecto espejo” de determinados fenómenos meteorológicos,
- 196 -
La Pizarra de Yuri 3
entre otros), resulta obvio que una explosión muy potente que suceda muy lejos no nos hace nada, mientras que una explosión relativamente pequeña que detone justo al lado puede hacernos polvo. La manera precisa como esto sucede se estudió muy bien durante la Guerra Fría, para aumentar la eficacia destructiva de las armas nucleares; hoy en día tenemos inclusodivertidas aplicaciones que lo calculan con bastante exactitud.
Arriba: Efectos de una detonación de 455 kilotones a 10.000 metros de altitud sobre la ciudad de Valencia. 1ª línea naranja – quemaduras de 2-3º, incendios dispersos (R = 6.160 m). Línea azul – onda de choque de 1 psi, con heridas por cristalería y fragmentos (R = 6.650 m). 2ª línea naranja- quemaduras de 1-2º (R = 12.400 m). Última línea naranja
- 197 -
Antonio Cantó
– zona segura (R = 17.600 m). | Abajo: Efectos de la misma detonación a 1.400 metros de altitud. Círculo verde/rojo – área de aniquilación con sobrepresión > 20 psi y radiación directa > 100 – 500 rem (R = 1.780 – 2.240 m). 1ª línea azul – Colapso generalizado de construcciones (5 psi, R = 5.400 m). 1ª línea naranja – Inflamación espontánea de combustibles (15 cal/cm^2, R = 7.570 m). 2ª línea naranja – Quemaduras de tercer grado con probabilidad = 100% (10,8 cal/cm^2, R = 8.840 m). 2ª línea azul – sobrepresión de 1,5 psi, con numerosas heridas graves por cristalería y fragmentos (R = 10.900 m). – 3ª línea naranja – Quemaduras extensas de 2º-3º (R = 11.700 m). – 3ª línea azul – sobrepresión de 1 psi, con heridas por cristalería (R = 12.900 m). 4ª línea naranja – Quemaduras de 1º-2º (R = 15.900 m). – Última línea naranja – zona segura (R = 20.200 m). En el primer caso habría unos centenares de muertos, quizá algún millar; en el segundo, más de 600.000. Fuente: Nukemap v2.4 de Alex Wellerstein. (Clic para ampliar)
Si yo, por ejemplo, hago estallar una bomba de esos mismos 450 kilotones aproximadamente a diez mil metros sobre tu cabeza, vas a tener un círculo de unos 1213 kilómetros de diámetro con gente quemada (de segundo grado más que nada), heridas por cristalería e incendios dispersos. Te encontrarás quemados de primer grado hasta los 17,5 km, con algún que otro muerto porque le ha caído una pared vieja encima y cosas así. Seguramente se irá la luz, habrá reventones en las conducciones de agua y alcantarillado y tendrás algo de radiación residual en el ambiente (las explosiones nucleares aéreas son mucho más limpias que las de superficie porque no levantan y esparcen grandes cantidades de material contaminado). Todo ello sin duda suficiente para que te acuerdes de toda mi parentela hasta el último antepasado común por lo menos, pero según a la hora del día en que te la meta (y, por tanto, lo a cubierto que esté tu población), puede que ni siquiera mate mucho. Tu ciudad sobrevivirá bastante bien y probablemente en unas décadas estaremos haciendo negocios y celebrando el Día de la Memoria con lagrimitas de los embajadores respectivos y esas cosas. Lo deHamburgo, Dresde, Tokio, Hiroshima o Nagasaki fue mucho peor y ya ves. En cambio, si te enchufo el mismo petardo a 1.400 metros de altitud, los resultados van a ser un pelín distintos. Para empezar, los primeros dos kilómetros y medio alrededor de tu centro urbano van a resultar literalmente aniquiladosy tendrás problemas para encontrar supervivientes en otros tantos más. Buena parte de los edificios se derrumbarán en cinco kilómetros a la redonda y los demás echarán a arder porque los combustibles del tipo de la gasolina o el gas se inflaman hasta los 7,5 km (aprox. 15 cal/cm2), ocasionando grandes incendios y quizá una tormenta de fuego. Vas a encontrarte muchos quemados graves de segundo y tercer grado a 10 km y personas descuartizadas por los cristales a más de 11 (un diámetro de 22 km). Nadie estará seguro hasta los 20 km de distancia del eje de la explosión, y luego empezaremos a hablar de la contaminación radiactiva. Pero de buen rollito, ¿eh? Si tu ciudad es más o menos del tamaño de la mía, dependiendo de la fecha y la hora, con ese pepinazo de medio megatón voy a hacerte como unos 625.000 muertos y 350.000 heridos. Si se parece más bien a París, Nueva York, Moscú, México DF o Pekín, cuenta con un millón y medio de muertos y de dos a cuatro millones de heridos,
- 198 -
La Pizarra de Yuri 3
ascendiendo a 2-3 millones de muertos y casi cinco millones de heridos en monstruos urbanos como Shanghái o Delhi. Por el extremo contrario, si se trata de una localidad mediana o pequeña, bueno, morirá menos gente, pero por la única razón de que una vez os he matado a todos ya no puedo cargarme a nadie más. Vamos, que resultaríais erradicados. Hoy por hoy, ya no solemos desplegar bombas tan potentes. Estos son tiempos de supresión selectiva, exterminio quirúrgico y esas moderneces; para los genocidios, el machete sale más económico y siempre encuentras a justicieros con ansias de darle su merecido a unos cuantos millones de prójimos. Por lo demás, hoy en día montar cabezas nucleares muy potentes se considera un signo de atraso: no confías en la precisión de tus misiles, así que aseguras la destrucción del blanco por la vía del petajulio. Estás anticuado. O eso dicen. Sin embargo, Mamá Naturaleza pasa monumentalmente de tales sutilezas. Y puedes jurar por tu dios favorito que loscuerpos menores del sistema solar, al igual que los terremotos, los volcanes, los tsunamis, la peste negra, la viruela o la toxina botulínica, son perfectamente naturales. En el caso de los cuerpos menores, que incluyen a los asteroides, loscometas, los meteoroides y otros objetos capaces de hacer que el cielo caiga sobre nuestras cabezas, no hay un límite bien definido para la cantidad de energía de esa tan natural con que pueden bendecirnos. Sabemos que en este sistema solar no quedan cosas amenazadoras tan grandes como Tea. Las que hubo, ya hicieron lo suyo muchísimo tiempo atrás. En la actualidad, los objetos próximos a la Tierra más grandes que hemos detectado son los asteroides (1036) Ganymed y (433) Eros, ambos en la escala de los treinta kilómetros, mayores queel que mató a los dinosaurios. Sin embargo, ninguno de estos parece estar en ruta de colisión con nuestro planeta, por mucho. Entre los que sí podrían hacerlo alguna vez rondan por ahí tipos como el objeto doble (4179) Tutatis o (4953) 1990 MU, en el rango de los 3-4 kilómetros, ambos más pequeños que el de los dinos. Sin embargo, sus probabilidades de impacto son muy, muy bajas y muy lejanas en el futuro.
- 199 -
Antonio Cantó
El asteroide (4179) Tutatis fotografiado por la sonda espacial china Chang’e-2 en diciembre de 2012. Tiene un tamaño de 4,5 × 2,4 × 1,9 km y ha estado pasando relativamente cerca de la Tierra cada 4 años (la próxima vez le toca en 2016, pero luego no volverá a hacerlo hasta 2069.) Por este motivo, su órbita ha sido cuidadosamente calculada y carece de la posibilidad de topar con la Tierra en muchos siglos. Imagen: Administración Nacional del Espacio de China.
Hasta hace poco se pensaba que el asteroide (29075) 1950 DAtenía una buena posibilidad de atizarnos allá por el año 2.880, cuando –si seguimos por aquí y progresando más o menos al mismo ritmo histórico que hasta ahora– probablemente seremos capaces de apartarlo con facilidad. En todo caso, parece que esta posibilidad ha quedado excluida mediante mediciones más recientes. Por otra parte, los distintos sistemas de alerta planetaria (LINEAR, NEAT, Spacewatch, LONEOS,Catalina, PanSTARRS, NEOWISE, etc) creen haber detectado ya más del 90% de los objetos mayores de un kilómetro que pudieran caernos encima y ahora van a por los de 140 metros. Aunque siempre existe alguna incertidumbre, es difícil que se nos haya escapado algo verdaderamente grande. En estos momentos, no hay nada que llegue ni siquiera al nivel 1 ni en la escala de Turín ni en la escala técnica de Palermo. Vamos, que no parece que el apocalipsis improbable ese en el que creen algunos vaya a venir de los cielos.
- 200 -
La Pizarra de Yuri 3
Sin embargo, a mí los que me inquietan son precisamente los pequeños; pequeños como Tunguska o Chelyábinsk. Porque apocalipsis, lo que se dice apocalipsis, va a ser que no; pero para arrearnos un guantazo megaletal en alguna región densamente habitada no hace falta medir un kilómetro. Ni siquiera 140 metros. Puede que el de Tunguska no superara los 60 metros (aunque algunos sugieren un tamaño considerablemente mayor de 90 a 190 e incluso 1.000, si bien con una densidad muy baja) y liberó entre 3 y 20 megatones de una manera notoriamente destructiva. El bólido de Chelyábinsk nos ha confirmado que un objeto de unos 20 metros puede producir fácilmente 440 – 590 kilotones, en torno al medio megatón. Por fortuna lo hizo a tanta altitud y distancia de las áreas más pobladas que, pese a los innumerables cristales rotos y la gran cantidad de gente que sufrió cortes diversos, sólo dos personas resultaron heridas de gravedad. En un área más poblada, con un objeto que estallase más cerca e incluso llegara al suelo, difícilmente discutiremos que un fenómeno de estas características causaría gran mortandad y devastación. Existe incluso un posible precedente histórico, en China. Con todas las precauciones que exigen siempre los documentos antiguos, hay al menos cuatro escritos del periodo Ming hablándonos de unas “piedras que cayeron del cielo como lluvia” en el área deQuinyang allá por marzo o abril del año 1490. Al parecer, mataron a más de 10.000 personas y los supervivientes evacuaron la ciudad. Más o menos por las mismas fechas, el impacto de Mahuika provocó un megatsunami que obligó a huir a las poblaciones costeras de lo que hoy en día son Australia y Nueva Zelanda, matando a quién sabe cuántas que no lo lograron. No son pocos quienes piensan que ambos sucesos están relacionados y de hecho podrían ser el mismo. Y, amigo mío, amiga mía, esos objetos pequeños están en estos momentos fuera del alcance de ¿nuestra tecnología? No, no, qué va. De nuestras ganas de gastar pasta. Por supuesto que podríamos detectarlos si nos pusiésemos a ello, al menos con tiempo suficiente para cursar una alarma de defensa civil a las poblaciones en peligro, igual que se hace con los tsunamis. Pero no nos da la real gana. Hay otras prioridades.
- 201 -
Antonio Cantó
El asteroide 2008 TC3 detona sobre el Desierto de Nubia, Sudán, en imagen tomada desde el satélite Meteosat-8 después de que fuera descubierto por el Catalina Sky Survey. Con un diámetro de 4,1 metros, penetró en la atmósfera a las 02:46 UTC (05:46 local) del 7 de octubre de 2008, liberando entre 0,9 y 2,1 kilotones. Fue la primera vez en que se detectó un objeto en rumbo de colisión con la Tierra antes de que se produjese el impacto (19 horas antes.) Imagen: © EUMETSAT – Organización Europea para la Explotación de Satélites Meteorológicos. (Clic para ampliar)
El caso es que se nos cuelan constantemente. De los impactos en lo que llevamos de siglo XXI, sólo dos se detectaron con alguna antelación. El primero fue 2008 TC3, una rara ureilita de unos cuatro metros, que estalló a gran altitud sobre el desierto de Nubia, Sudán, en torno a las 05:46 AM del 7 de octubre de 2008, hora local (02:46 UTC); la explosión liberó entre uno y dos kilotones. Fue observada 19 horas antes de que llegase a la Tierra por Catalina de la Universidad de Arizona, Estados Unidos, y luego trazada por una diversidad de sistemas civiles y militares hasta su desintegración. Los científicos pudieron recuperar los restos en el área de impacto, proyectada con notable precisión. El segundo es mucho más reciente: 2014 AA, con un tamaño similar al anterior. Se desintegró sobre una región remota del Atlántico Central a las 04:02 del 2 de enero de 2014. Lo descubrieron 21 horas antes del impacto en otro observatorio de Catalina (sí, los amerikantsy son los únicos que parecen tomarse todo esto verdaderamente en serio; a cada uno, lo que le toca.) Hubo explosión, captada (como muchas otras) por los detectores infrasónicos del Tratado de Prohibición de Ensayos Nucleares, pero tan lejana que no se pudo cuantificar la potencia. En todo caso, con 19 y 21 horas de
- 202 -
La Pizarra de Yuri 3
antelación, habría dado tiempo de proteger, evacuar o al menos alertar a la gente si se hubieran dirigido a regiones habitadas. ¿Ves cómo sí que podemos? Lamentablemente, son los únicos. No hay medios para escudriñar el suficiente cielo durante el suficiente tiempo. En 2002 se nos colaron los de Vitim (Rusia) y el Mediterráneo Oriental, este último con la potencia de la bomba de Nagasaki. En 2009 el de Sulawesi (Indonesia), que también liberó entre 10 y 50 kilotones. En 2012 el de Sutter’s Mill, sobre California (Estados Unidos) con 4 kilotones. En 2013, el de Chelyábinsk, con su potencia explosiva en la categoría de un misil balístico intercontinental, por fortuna dispersada a gran altitud. Alguno que no nos dio sólo lo detectamos cuando ya se iba, como 2002 MN, con 73 metros de diámetro. 73 metros bastan para generar varias decenas de megatones. Por simple probabilidad, estos objetos tienden a hacer impacto en zonas despobladas porque la mayor parte de la Tierra está, básicamente, deshabitada. Mares y océanos cubren más del 70% de su superficie. Los desiertos fríos y cálidos suponen una tercera parte de las tierras emergidas. Hay regiones inmensas, como la Rusia Asiática, con muy pocos habitantes. Sin salir de España, en el donut situado entre las costas y Madrid no son raras las densidades de población por debajo de veinte e incluso de diez habitantes por kilómetro cuadrado. Los humanos tendemos a concentrarnos en unas áreas determinadas por una diversidad de razones socioeconómicas e históricas, así que la mayoría de cosas que ocurren en la Tierra no nos dan, o nos dan relativamente poco.
Fragmento del meteorito de Chelyábinsk recuperado en el fondo del lago Chebarkul, a unos 70 km de la ciudad. Se trata de una condrita LL (baja en hierro y metales), menos común que las condritas H (altas en hierro) que he utilizado para ilustrar el impacto de este post. Imagen: © RT.
- 203 -
Antonio Cantó
Pero por ese mismo motivo, existen algunas regiones donde la densidad de población es muy alta, a veces extremadamente alta. En el Sur de Asia viven 400 personas por kilómetro cuadrado. En Europa Occidental hay países que superan las 300 e incluso se acercan a 500, como Holanda. Lo mismo ocurre en algunos estados norteamericanos. Bangladesh roza los mil. El área metropolitana de Madrid los supera. La de Tokio anda por 9.000. Y un día de estos, podemos encontrarnos con uno malo. Digamos una condrita, que son los más comunes, de entre 50 y 150 metros de diámetro, con una masa en el orden de los dos millones de toneladas. Que estalle a baja altitud sobre una región densamente habitada, o incluso llegue a entrar en contacto con la superficie, entera o a cachos. Como suele decirse, la cuestión no es si esto sucederá, sino cuándo: antes o después de que aprendamos a detectarlos y tomar medidas al respecto. Si es antes, lo vamos a lamentar. Entre otras razones, porque esa región densamente habitada puede ser la tuya, o la mía. Internet está llena de aplicaciones de esas divertidas para romper cosas. Como antes ya vimos una para calcular explosiones atómicas, ahora vamos a suponer que nuestra condrita llega a golpear el suelo y utilizaremos esta otra de la Universidad Purdue y el Imperial College de Londres. Digamos que tiene cien metros de diámetro, con una densidad normal para las condritas de 3.300 kg/m3, y llega a la misma velocidad que el de Chelyábinsk: aproximadamente 19,2 kilómetros por segundo. Pero esta vez va a entrar con un ángulo más acusado: 45º. Para que no se me enfade nadie imaginaremos también que atiza justo aquí al lado de mi casa, en Valencia, cuyo suelo es esencialmente sedimentario.
- 204 -
La Pizarra de Yuri 3
Efectos del impacto de una condrita de 100 m de diámetro en la ciudad de Valencia, con indicaciones de sobrepresión. Círculo negro: cráter de impacto, 480 -> 360 metros de profundidad. Círculo sobre 20 psi (138 kPa): destrucción total, incluso de las estructuras reforzadas de hormigón armado; mortalidad del 100%. Círculo de 20 a 10 psi (69 kPa): destrucción generalizada de las estructuras residenciales, industriales y análogas; mortalidad superior al 90%. Círculo de 10 a 3 psi (>20 kPa): daños, lesiones y mortalidad entre el 5% y el 90% por derrumbamientos y proyectiles. Círculo de 3 a 1 psi: daños, lesiones y mortalidad dispersa (< 5%) por pequeños derrumbamientos y proyectiles. Mapa: © Google Maps. (Clic para ampliar)
Este objeto llega con una energía de unos 76 megatones. Sin embargo, al penetrar en la atmósfera terrestre, comienza a fragmentarse y ralentizarse. Se rompe a aproximadamente 53.000 metros de altitud y llega a tierra menos de cinco segundos después en pedazos que aún viajan a 8,9 km/s, o sea 32.000 kilómetros por hora, más de seis veces más rápidos que la bala más veloz. La energía efectiva de impacto son 16,2 megatones, por encima de Castle Bravo. A menudo los meteoritos hacen impacto de buena mañana, o sea entre la medianoche y el mediodía. Este curioso hecho se debe a que el “lado matutino” de la Tierra coincide con el sentido de avance alrededor del Sol y los meteoritos no suelen “caer” realmente, sino que más bien los embestimos nosotros. Un objeto celeste tiene que traer una
- 205 -
Antonio Cantó
trayectoria un poco peculiar para darnos por detrás, en el “lado vespertino.” Sucede, pero menos. Así que supondremos que el impacto se produce en torno a las cinco o las seis de la mañana, cuando los niños aún duermen. Por piedad, y eso. Se formaría un cráter momentáneo de 1.360 metros de diámetro y 480 de profundidad. En mi zona eso es un diámetro de unos veinte bloques de edificios, más buena parte del casco histórico. Ahí dormimos o nos estaríamos levantando unas 75.000 personas, que resultaríamos pulverizadas al instante junto con nuestras viviendas. Después los bordes del cráter colapsarían hasta alcanzar los 1.700 metros de diámetro, donde pueden residir fácilmente otras 25.000. Ya tenemos los primeros cien mil muertos. Pero la catástrofe no ha hecho más que comenzar. En los impactos con una velocidad final inferior a 12 km/s no se produce esfera ígnea (fireball) ni efectos térmicos significativos (una diferencia notable con las armas nucleares o los impactos a mayor velocidad), así que vamos a evitarnos buena parte de los quemados. Por el contrario, la onda de choque es brutal, con una sobrepresión superior a las 20 psi (aprox. 138 kilopascales) en cinco kilómetros y pico a la redonda. Esta es la sobrepresión que se considera necesaria para derribar o dañar irrecuperablemente las construcciones sólidas de hormigón reforzado, matando a todo el mundo. Ese círculo de 10 km de diámetro cubre la ciudad de Valencia entera más media docena de localidades periféricas. Eso suma unos 900.000 muertos en los primeros quince segundos. Olvídate de la horchata de Alboraia. (En Madrid, por ejemplo, equivaldría al perímetro de la M-30; y en Barcelona, al círculo de Hospitalet de Llobregat a Sant Andreu, pasando por HortaGuinardó). Sin embargo, 10 psi (69 kPa) suelen ser suficientes para reventar los edificios corrientes y sacar a todos los que hay dentro a cachos por las ventanas. Con nuestro meteorito, este efecto se extendería hasta los 7,5 km, barriendo buena parte del área metropolitana de Valencia hasta más o menos el aeropuerto de Manises en unos veintitrés segundos. (En Madrid sería el círculo de la M-40 y en Barcelona, desde Cornellà hasta Santa Coloma) Por ahí comenzarías a encontrar a los primeros heridos, graves.
- 206 -
La Pizarra de Yuri 3
Esto es lo que le hizo un trozo de cristal a una pared de cemento situada a unos 2.200 metros de la detonación de Hiroshima (sobrepresión estimada en ese punto: 3 psi; velocidad del viento: 165 km/h). Imagínate lo que pasa si le da a una persona. Objeto: Museo Memorial de la Paz de Hiroshima.
La mortandad y los derrumbamientos generalizados se extenderían hasta los catorce kilómetros de distancia, cuando el pico de sobrepresión cae por debajo de las 3 psi (20,7 kPa). Zonas residenciales como las de Torrent o La Cañada, con sus chalés de no muy alta resistencia y sus bosquecillos listos para convertirse en proyectiles, se encuentran en esta zona. Más allá hallarías sobre todo heridos por cristalería y el colapso de construcciones viejas o de pobre calidad, como muros o cosas así, igual que en Chelyábinsk. Sin embargo, ese círculo mortífero de catorce kilómetros de radio cubre gran parte del área metropolitana de Valencia, donde vivimos aproximadamente 1.600.000 personas. Según los datos que estamos manejando, hablaríamos de como un millón de muertos y otros 300.000 heridos o así, suponiendo que no atice en plenas Fallas o algo por el estilo. Es decir, una matanza cuatro veces mayor que la del tsunami del Océano Índico de 2004, comparable a la del genocidio de Ruanda. En menos de un minuto. - 207 -
Antonio Cantó
He elegido Valencia no sólo para que no se me enfade nadie (o se me enfaden todos mis vecinos), sino también porque es una ciudad mediana bastante característica. No es el peor caso imaginable. En Valencia hay áreas de intensa urbanización mezcladas con otras menos densas e incluso zonas de –lo que va quedando de– huerta. Además, es un territorio llano, lo que facilitaba los cálculos. :-P Pero vamos, que no quería ponerme tremendista del todo y tal. Evidentemente, el caso peor sería un impacto de estas características en o sobre una gran conurbación densa y muy poblada, donde nos iríamos a los tres o cuatro millones de muertos. No sólo eso. Si el efecto físico de las grandes explosiones en o sobre las áreas habitadas está muy bien estudiado a raíz de la Guerra Fría, su impacto socioeconómico sobre la economía regional y nacional es menos conocido. Por losbombardeos estratégicos de la Segunda Guerra Mundial y otras grandes catástrofes sabemos que se produce un intenso empobrecimiento de las comarcas circundantes y una caída más o menos proporcional del PIB nacional. En todo caso, una catástrofe de primera división. Se puede aducir que la probabilidad de un impacto de estas características es baja. Es cierto: en toda la historia escrita, sólo parece haber ocurrido en ese caso chino que te contaba más arriba. Sin embargo, es una probabilidad real. No para dejar de dormir por las noches, pero tampoco para tomársela en broma, porque un posible millón de muertos no son ninguna broma. A mí, al menos, me resulta preocupante. Y cabreante, porque los programas para detectar estos cuerpos celestes con tiempo para alertar o evacuar a la población no son realmente caros. El Catalina Sky Survey que he mencionado varias veces a lo largo de este post como uno de los mejores detectores de objetos peligrosos en la actualidad consume un presupuesto anual de poco más de un millón de dólares, por cuenta de la NASA. Sí, unos 750.000 euros, una miseria. El más ambicioso Pan-STARRS requiere unos diez millones de dólares al año. Para cualquier economía desarrollada, calderilla ínfima. Evitaré las comparaciones con los salvamentos de bancos, autopistas y demás por no hacerme mala sangre. El caso es que aquí estamos, abiertos de patas ante lo que el cosmos nos quiera mandar, porque así están las cosas y por lo visto nos parece bien.
- 208 -
La Pizarra de Yuri 3
Daños causados por el superbólido de Chelyábinsk en el Teatro Dramático de la ciudad. En total, 1.491 personas necesitaron asistencia médica por causa de los cristales, entre ellas 311 menores de 14 años; hubo que hospitalizar a 112. Una mujer de 52 años tuvo que ser trasladada a Moscú con lesiones espinales. Foto: Nikita Plekhanov vía Wikimedia Commons.
La profesora Yulia Karbysheva (en la foto), al ver el potentísimo destello en el cielo, mandó a sus 44 alumnos de 4º de Primaria en la escuela nº 37 de Chelyábinsk “agacharse, cubrirse y mantenerse” bajo los pupitres (lo que en EEUU llaman “duck and cover”, la maniobra estándar de protección básica de emergencia en caso de ataque nuclear). Cuando llegó la onda de choque ninguno de sus alumnos resultó herido pero ella, que se había quedado en pie, sufrió varios cortes que le afectaron a un tendón. Por fortuna, se recuperó de sus lesiones. Foto: © Agencia Dostup1, Rusia.
- 209 -
Antonio Cantó
Verneshot: Entrevista al Dr. Jason P. Morgan Yuri, el 7 de noviembre de 2014 @ 20:53 · Categoría: Ciencia popular, Entrevistas
¿Y si a los dinos no los mató un meteorito? ¿Y si existiera otro fenómeno igualmente aniquilador acechando bajo nuestros pies?
Ya lo damos por sentado: a los dinos y un montón de especies más se los cargó el meteorito. Para ser un pelín más técnicos, la extinción masiva del CretácicoPaleogeno (hasta hace poco llamada del Cretácico-Terciario) fue iniciada o profundizada severamente por el impacto del mismo cuerpo celeste que pudo ocasionar el cráter de Chicxulub. Estahipótesis planteada por Luis Álvarez y otros en 1980 comenzó siendo objeto de cierta sorna y bastante escepticismo para pasar a convertirse en la hipótesis por excelencia y, para mucha gente, el símbolo de lo que puede pasar si el cielo cae sobre nuestras cabezas. Desde entonces, la idea de que los grandes impactos extraterrestres pueden jugar un papel fundamental en las extinciones se ha extendido a otras que van desde el Drias reciente hasta el Gran Morir. Investigadores como el paleontólogo David Raup han intentado vincular las cinco grandes extinciones del último medio millar de millones de años con impactos cósmicos. Al menos en lo que hace a la extinción del CretácicoPaleogeno –la de los dinos–, la hipótesis de Álvarez es muy sólida y por eso constituye hoy el consenso científico generalizado. Sin embargo, no toda la Galia se ha rendido a los romanos. Aquí y allá, existen científicos que plantean alternativas y que ahora mismo son objeto del mismo escepticismo, cuando no sorna, que se encontraron Álvarez y compañía a principios de los ’80. Hablamos de científicos pata negra, no de los chalados habituales, ya me entiendes.
- 210 -
La Pizarra de Yuri 3
El Dr. Jason P. Morgan de la Universidad de Londres, que ha tenido la santa paciencia de contestarme a todo lo que le quise preguntar sobre su hipótesis de los Verneshots. :-) Con mi agradecimiento.
Por ejemplo, hablamos del Dr. Jason Phipps Morgan (New London, Connecticut – EEUU–, 1959), profesor de Ciencias de la Tierra en la Royal Holloway de laUniversidad de Londres. Anteriormente, enseñó Geofísica y Física Planetaria en el Instituto Scripps de Oceanografía en La Jolla, California; y fue también profesor en el Instituto de Tecnología de Massachusetts (MIT) y en laUniversidad Cornell, la de Carl Sagan o Richard Feynman. Además, entre 1999 y 2004 dirigió el Departamento de Geodinámica Marina del GEOMAR de laUniversidad de Kiel, Alemania. Vaya, que cualquiera diría que el doctor Jason Morgan sabe un par de cositas sobre esta vieja Tierra y cómo funciona. Al Dr. Jason Morgan no le gustan estas hipótesis del meteorito. Ve en ellas muchos cabos sueltos y demasiadas casualidades. En particular, la extraña coincidencia entre tales impactos y unas erupciones volcánicas aún mayores a las que llamamos inundaciones basálticas o traps. Porque sí parece haber una sincronía clara entre varias súper-extinciones y estas inundaciones basálticas. La de los dinos – Cretáceo-Paleogeno– coincide con las traps del Decán, en la actual India, hace 68-65 millones de años. La del Triásico-Jurásico, con la erupción de la Provincia Magmática del Atlántico Central (CAMP) hace 200 millones de años. Y el Gran Morir, o sea la extinción súper-masiva del Pérmico-Triásico, ocurre exactamente al mismo tiempo – hace 250 millones de años– que las monumentales Escaleras Siberianas, una de las mayores inundaciones basálticas de todos los tiempos.
- 211 -
Antonio Cantó
Que una de estas erupciones terrestres monumentales coincida con un impacto extraterrestre gigantesco ya es casualidad, ya. Que lo haga más de una comienza a parecer sospechoso. El Dr. Morgan, basándose en los trabajos del propio Luis Álvarez, estima que la probabilidad de que pase una vez es de aproximadamente 1/8: una mala tirada de dados. Pero la probabilidad de que ocurra dos veces es del 1/59, lo que ya va llamando la atención. La de que suceda tres veces se reduce a 1/454. Y la de que se dé cuatro veces cae a una entre más de 3.500, que ni el mejor tahúr podría vencer. O de algún modo el universo conspira para hacer coincidir semejantes catástrofes sin relación aparente entre sí, o aquí hay algo que no cuadra. Pese a ello, las hipótesis cósmicas siguen siendo fuertes porque hay indicios fuertes de lo que parecen ser impactos brutales de origen extraterrestre en esos mismos periodos. No sólo es la famosa anomalía del iridio, considerado un metal extraterrestre a esas concentraciones, en el estrato de transición entre Cretácico y Paleogeno. Es también la presencia de microesferulitos y cuarzo chocado, nanodiamantes, fullerenos C60 y C70 conteniendo concentraciones anómalas de gases nobles, campos de tectitas y demás fenómenos convencionalmente vinculados a violentos impactos procedentes del espacio exterior. Y luego están los cráteres: nítidamente, Chicxulub para la del CretácicoPaleogeno y, menos nítidamente (porque en algunos casos se van de varios millones de años), Manicouagan para la del Triásico-Jurásico, Alamo o Woodleigh para la del Devónico Tardío y en el caso del Gran Morir del Pérmico-Triásico… pues no está claro, pero se sugiere el Cráter de la Tierra de Wilkes (Antártida) como un posible candidato. Para explicar esta extraña sincronía entre impactos extraterrestres y erupciones terrestres hay quien postula que un gran impacto puede inducir graves alteraciones geológicas tanto en sus alrededores como en las antípodas; lo bastante como para iniciar procesos volcánicos a gran escala.
- 212 -
La Pizarra de Yuri 3
Correlación de las principales extinciones con diversos fenómenos geológicos. Puede observarse que la gran mayoría coinciden con grandes inundaciones basálticas (provincias ígneas, “escaleras”, “traps”.) Por el contrario, la sincronía con aparentes impactos extraterrestres no es tan evidente. Imagen: de Morgan, J Phipps; Reston, T.J.; Ranero, C.R. (15 de enero 2004): “Contemporaneous mass extinctions, continental flood basalts, and ‘impact signals’: are mantle plume-induced lithospheric gas explosions the causal link?”. Earth and Planetary Science Letters 217 (3–4): 263–284. DOI: 10.1016/S0012-821X(03)00602-2. (Clic para ampliar)
A todo esto le daba vueltas el Dr. Jason Morgan sin verlo nada claro hasta que se le ocurrió una idea: ¿y si los meteoritos en cuestión no procediesen del espacio exterior? Espera, espera: los meteoritos vienen del cosmos como todos sabemos, ¿no? ¿Qué tontería es esta? Verneshot. Una tontería con sentido: si hay una nítida sincronía entre varias extinciones importantes y estas erupciones basálticas;si además hay indicios fuertes de violentos impactos en los mismos periodos; pero la probabilidad de que ambas cosas coincidan en el tiempo es baja o muy baja… ¿qué tal si las erupciones provocasen los impactos? ¿Pero cómo sería eso posible?
- 213 -
Antonio Cantó
Representación artística convencional de un Verneshot, en el que un gigantesco fragmento de corteza terrestre sale propulsado en vuelo balístico para caer en algún otro punto de la Tierra de manera análoga a un gran meteorito. No obstante, el Dr. Morgan tiene algunas precisiones importantes que hacer al respecto, como veremos a continuación.
Pues mediante un mecanismo que el Dr. Jason Morgan ha bautizado como el Verneshot, o disparo de Verne, inspirándose en el cañón espacial que se inventó Julio Verne para su novela De la Tierra a la Luna. Básicamente sería un diatrema similar a laserupciones kimberlíticas que generan las minas de diamantes, pero a lo bestia. Muy a lo bestia. ¿Y esto de las erupciones kimberlíticas qué es? Básicamente, explosiones volcánicas súbitas originadas a entre dos y ocho kilómetros de profundidad que se expanden hacia arriba a velocidades supersónicas arrastrando todo el material que pillan por medio conforme el terreno circundante colapsa sobre sí mismo, produciendo como un cono o cucurucho de helado (o cañón de trabuco…) característico en el subsuelo. Las presiones que alcanzan son tan enormes que generan grandes cantidades de diamantes a partir del carbono implicado en el proceso. No otra cosa son las mayores minas diamantíferas del mundo: Yubileiny,Udáchnaya y Mir (Rusia); Argyle (Australia);Orapa (Botswana) y todas las demás.
- 214 -
La Pizarra de Yuri 3
Un Verneshot no es más que una erupción explosiva supersónica de estas, sólo que más profunda, grande y rápida. Y por tanto capaz de lanzar más material, más lejos. En un planeta como la Tierra, a miles de kilómetros de distancia. En uno más pequeño y con menos gravedad, como Marte, incluso podría entrar en órbita. El caso es que si parte de ese material sale despedido en forma de grandes bloques, o de fragmentos más pequeños pero concentrados en forma de chorros o algo parecido, allá donde atice va a provocar unos efectos muy similares a los de un meteorito de los gordos. Esta es una hipótesiselegante que explicaría la sincronía de los impactos aparentemente extraterrestres con las grandes erupciones basálticas, quizá capaces de ocasionar estos Verneshots. Hay que decir que esta es, en estos momentos, una hipótesis absolutamente minoritaria. Después de su publicación en 2004, suscitó reacciones que van desde el tradicional “es una aproximación creativa a un problema real” del geólogoPaul Hoffman de Harvard hasta los más contundentes “no hay ni una sola prueba de ningún Verneshot” de Jan Smit(Universidad Libre de Amsterdam), pasando por la opinión del Dr. Philippe Claeys (Bruselas), sugiriendo que los indicios de impacto sólo son válidos para la extinción de los dinos y que en los demás casos “no necesitamos ninguna hipótesis mega-volcánica mística e indemostrable para resolver el problema.” Vamos, que la idea del Dr. Morgan cayó regular, por decirlo finamente. Pero como aquí no nos asustamos de estas cosas, y además así es como avanza la ciencia, le he pedido directamente al Dr. Morgan que defienda su hipótesis para nosotros. Vamos, que ha sido tan amable de concederme una entrevista en exclusiva para la Pizarra de Yuri, y cuando digo amable, lo digo en serio, además de paciente. Más que nada porque le pillé en medio de la preparación de otro paper que se va a publicar próximamente donde sugiere que lo de Tunguska pudo ser un miniVerneshot con presencia previa de luces de terremoto y, después, los efectos que le serían propios. Vamos allá: Entrevista al Dr. Jason Phipps Morgan, proponente de los Verneshots. Dr. Morgan, muchas gracias por su valioso tiempo. Cuéntenos: ¿qué es exactamente un Verneshot? ¿Dónde podemos encontrar uno? No hay registro histórico de ningún Verneshot, pero tampoco de ninguna erupción de kimberlita. Un Verneshot es una erupción producida fundamentalmente por gases del carbono (CO2 + CO + menor cantidad de agua + gases del manto profundo asociados a las erupciones de kimberlita), básicamente sin magma líquido: sólo gas (y fragmentos
- 215 -
Antonio Cantó
rocosos, al igual que ocurre en las kimberlitas y otras erupciones explosivas generadas por vapor a menor profundidad.) La presión inicial de estos gases sería la propia de la exsolución del manto a 80 km de profundidad: unos 2,7 gigapascales. Es decir, una presión gaseosa 20 o 30 veces superior a la de los volcanes explosivos ocasionados por vapor, como Pinatubo, pero creo que similar a las presiones asociadas con las erupciones kimberlíticas.
- 216 -
La Pizarra de Yuri 3
Una erupción de kimberlita como las que formaron los grandes yacimientos diamantíferos que explotamos en la actualidad. En estas erupciones, las presiones son lo bastante altas como para formar el diamante y los gases y el material salen propulsados a velocidades supersónicas hacia arriba. Después, las paredes colapsan y rellenan la chimenea, dejando sólo un cráter superficial visible. Un Verneshot no sería más que una erupción de kimberlita particularmente profunda y potente, con múltiples impactos secundarios a grandes distancias conforme el material retorna a la superficie y efectos severos sobre el clima global ocasionados por los gases expulsados. Imagen: © De Beers Diamond Trading Co.
Entonces, los Verneshots están estrechamente relacionados con las erupciones kimberlíticas, ¿correcto? Sí, un Verneshot es básicamente una mega-kimberlita con tanto gas que no se conserva nada de magma kimberlítico. De hecho, en las kimberlitas, este “magma kimberlítico” característico ya es sólo una pequeña fracción del volumen de la chimenea. Por cierto, ¿por qué tanto carbono? Porque el CO2 forma una exsolución a la profundidad necesaria para crear una fase gaseosa estable en torno a los 2,7 gigapascales de presión (la presión “estática” a unos 80 km de profundidad.) El agua no produce una exsolución capaz de formar una fase de vapor análoga hasta alcanzar presiones mucho más bajas. Los materiales ricos en carbono se funden fácilmente bajo las condiciones del manto, así que en una pluma caliente que se eleva serán los primeros en fundirse (los que lo harán a más profundidad), creando magmas con una composición química del tipo de las kimberlitas o lascarbonatitas. Conforme ese material fundido asciende por encima de los 80 km de profundidad, comienza a formar gases ricos en carbono. ¿Entiendo que la idea del Verneshot procede de la sorprendente coincidencia entre inundaciones basálticas continentales e impactos de meteoritos en el contexto de las grandes extinciones? Eso es. Y por ejemplo, podrían explicar también la capa de iridio en el estrato de la extinción del Cretácico-Paleogeno, ¿no? Creo que sí. Los gases del manto profundo son ricos en azufre y crean fácilmente compuestos químicos con metales del grupo del platino como el iridio. En Isla Reunión hay depósitos de “gases de plumas del mantoprofundas” con las concentraciones de iridio más altas que se conocen en toda la Tierra. Esto podría representar una fracción volumétrica suficiente para formar una capa global de iridio como la de un impacto, dado que se emitiría más masa de gases del manto que la masa
- 217 -
Antonio Cantó
de un gran objeto extraterrestre, con una cantidad similar de iridio añadida a la superficie terrestre. ¿Qué más cosas explicarían? La presencia de otras señales de “impacto” como una capa global de esferulitos y cuarzo chocado. El material propulsado al estallar el Verneshot inicial podría también generar impactos múltiples y cráteres de impacto. De hecho, una de las predicciones de mi hipótesis es que los grandes Verneshots deberían estar asociados con múltiples cráteres de impacto comparativamente pequeños. ¿Y qué no explicarían? Cráteres del tamaño de Chicxulub al otro lado de la Tierra. La distancia máxima posible que puede recorrer el material proyectado por un Verneshot es de aproximadamente media Tierra. La hipótesis de los Verneshots no disfruta de un consenso generalizado entre los expertos en Ciencias de la Tierra. Algunos opinan que es una aproximación interesante, otros la consideran un poco “en el límite”, o incluso innecesaria para explicar las observaciones. Hay un par de papers afirmando que esta coincidencia entre inundaciones basálticas continentales e impactos extraterrestres no es tan rara. También hay quien defiende que los impactos de grandes meteoritos podrían ocasionar las grandes inundaciones basálticas. ¿Cómo ve el debate en este momento? Me parece que es muy difícil proponer un mecanismo físico viable mediante el que un impacto [extraterrestre] pueda generar una pluma del manto persistente. Creo que tampoco ha propuesto nadie un mecanismo viable por el que pueda ocasionar una inundación basáltica en manto cratónico frío. Por ejemplo, algunas personas comoAdrian Jones apuntan que un gran impacto podría crear un cráter de 30 km de profundidad, y que este cráter haría que el material que hay debajo se fundiese para formar una inundación basáltica. Sin embargo, en continentes estables, retirar 30 km de terreno (o sea, excavar un cráter de 30 km) no hará que el material que hay debajo se funda. Estará demasiado frío para fundirse, incluso aunque esté a ~1 gigapascal menos de presión de lo que estaba antes de que el cráter apartase los 30 km de corteza continental que tenía encima. O sea que incluso un cráter de 30 km de profundidad [que alivie súbitamente toda esa presión sobre el material que hay debajo] no puede generar una inundación basáltica - 218 -
La Pizarra de Yuri 3
como la de las Escaleras Siberianas. El único mecanismo que parece plausible para lograr esto es una pluma del manto actuando sobre un rift. De hecho, las inundaciones basálticas son conocidas por generarse mediante un proceso lento de fusión parcial, donde aproximadamente el 10 – 25% del material se forma en equilibrio lento con el manto y va liberándose poco a poco, no como un proceso de fusión por impacto en la que toda la roca se fundiría instantáneamente con una composición totalmente distinta a la de las inundaciones basálticas. Así que mi proposición es la siguiente: SI hay indicios de impacto coincidiendo en el tiempo con las mayores inundaciones basálticas y las grandes extinciones, entonces tengo la confianza de que algo parecido a los Verneshots debe existir. Si por el contrario no hay correlación entre indicios de impacto y extinciones masivas EXCEPTO Chicxulub, entonces no hay necesidad de algo como los Verneshots. Pero también estaríamos admitiendo que fueron las inundaciones basálticas continentales, y no los impactos [extraterrestres], las que ocasionaron casi todas las grandes extinciones del pasado. ¿Diría que está usted “batallando” contra los proponentes de la hipótesis del impacto extraterrestre? ;-)
El Dr. Jason P. Morgan sobrevuela Siberia en un helicóptero, con rumbo a Tunguska. Foto: Rick Beyer.
- 219 -
Antonio Cantó
Sí. Pero las batallas científicas suelen ser muy lentas. Ahora mismo, mantengo sin duda alguna un punto de vista minoritario en este tema, dado que la ciencia revisada por pares es MUY conservadora. Hemos hecho más trabajos al respecto desde entonces, pero ha sido muy difícil publicarlos e imposible conseguir financiación. [Pronto vamos a publicar] un papersobre las pruebas que hemos recogido en dos minúsculas expediciones a Tunguska en 2008 y 2009, pagadas de nuestro bolsillo, con un equipo de filmación. De hecho, intentamos minimizar deliberadamente los aspectos más “sensacionales” de nuestra hipótesis (…) porque hemos observado que los “revisores por pares” no se sienten muy cómodos con esta idea “imposible.” ¿Y por qué es imposible? Simplemente porque hay un consenso científico que dice que lo es. Ya te digo, la revisión por pares es un proceso muy conformista. Y de hecho, por eso la ciencia funciona tan bien como lo hace. Normalmente el consenso científico se sustenta en cotejar las hipótesis con las observaciones. Una vez establecido, un consenso es muy difícil de cambiar. La “hipótesis del impacto extraterrestre” causando las grandes extinciones se consideraba una locura hasta que Álvarez mostró los indicios de iridio que, en su opinión, no podían originarse en procesos de la corteza terrestre. (…) Ahora, la “hipótesis del impacto extraterrestre” es el conocimiento convencional, “claramente evidente” en muchos impactos de la Tierra y la Luna, e ideas como los Verneshot caen en la categoría de locuras. Pero ahí están esas extrañas coincidencias entre inundaciones basálticas continentales, “indicios de impacto” y extinciones masivas que la hipótesis estándar del impacto extraterrestre no pueden explicar. Pues vamos a mojarnos todavía más. ;-) ¿Cómo ocurriría un Verneshot? ¿Dónde, cuándo? Se desarrollaría en un lugar como Tunguska: un grueso cratón, al principio de un proceso de rifting continental. Hoy en día, sólo Siberia, África o Norteamérica (¿rift de Río Grande?) podrían reunir estas condiciones. ¿Habría “alerta temprana” de alguna clase, o sería más bien un caso de “¡últimas noticias: un gran trozo de la corteza terrestre está balístico ahora mismo!” ? ¿O simplemente formaría parte de una lentísima inundación basáltica medida en tiempos geológicos? No habría mucho preaviso. Quizá muchos pequeños terremotos a 80 km de profundidad asociados con el inicio de la ruptura de la litosfera. En numerosas erupciones volcánicas - 220 -
La Pizarra de Yuri 3
explosivas suelen producirse muchos terremotos pequeños antes del fallo catastrófico final. Estos terremotos y enjambres de terremotos son relativamente fáciles de detectar si hay una red local de sismómetros en el área. El problema con las erupciones volcánicas explosivas “normales” es que muchas veces se producen enjambres de terremotos sin que luego ocurra una erupción. En todo caso, si en un cratón apareciera súbitamente una zona con muchos terremotos de poca intensidad a profundidades en el rango de los 80 km, eso sería, para mí, una señal de que una erupción de kimberlita o un Verneshot podrían estar a punto de ocurrir. Las rocas eyectadas serían más bien un “chorro” de fragmentos, no una única pieza. Estaríamos hablando de una masa rocosa de unos 80 km de altitud por 500 metros de diámetro en el caso de un gran Verneshot, o sea más o menos 16 km 3 de material, esencialmente procedente del manto. ¿Pero ocurriría siempre en el contexto de una inundación basáltica? Quizá no. Y los “mini-Verneshot” más pequeños como el que creo que ocurrió en Tunguska no parecen estar asociados con ningún indicio de inundaciones basálticas.
- 221 -
Antonio Cant贸
- 222 -
La Pizarra de Yuri 3
Mecanismo de acción propuesto por Morgan et al. que podría generar aparentes “indicios de impacto” terrestres mediante un Verneshot. (a) El CO2 se acumula y calienta bajo la litosfera cratónica por la acción de una pluma del manto ascendente. (b) El material de la pluma fluye lateralmente y hacia arriba hasta acumularse bajo la zona más delgada de la litosfera, fundiéndose para formar la primera inundación basáltica. Mientras tanto, la pluma sigue añadiendo CO2, incubando el Verneshot en la litosfera cratónica profunda y desplazando magmas preexistentes ricos en carbono hasta aproximadamente 80 km de profundidad: el umbral de 2,5 GPa para la exsolución del CO2 a partir del magma rico en carbono. Así sigue aumentando la presión bajo la litosfera cratónica. (c) El fallo catastrófico de la litosfera dispara el Verneshot. Los gases emitidos, ricos en azufre y carbono, pueden iniciar una extinción. Tras el Verneshot, la región alrededor de la chimenea así formada tiene una presión muy baja con respecto a la litosfera circundante; el colapso de abajo arriba de este agujero casi vertical puede progagarse hacia la superficie a velocidades hipersónicas. Este “frente de colapso” hipersónico sería capaz de crear y propulsar minerales chocados en forma de grandes chorros de material. Tomado de: Morgan, J Phipps; Reston, T.J.; Ranero, C.R. (15 de enero 2004): “Contemporaneous mass extinctions, continental flood basalts, and ‘impact signals’: are mantle plume-induced lithospheric gas explosions the causal link?”. Earth and Planetary Science Letters 217 (3–4): 263–284. DOI: 10.1016/S0012-821X(03)00602-2. (Clic para ampliar)
Así que podemos tener “mini-Verneshots…” Sí, en mi opinión el suceso de Tunguska de 1908 pudo ser un mini-Verneshot que ocurrió en el mismo lugar que el Verneshot original (y, de hecho, reutilizó la chimenea original, que sería ahora una especie de “válvula de seguridad” o “conducto débil” en la litosfera siberiana.) ¿Y “súper-Verneshots”? ;-) Esto es difícil de imaginar. Estimé que un Verneshot de escala análoga a Chicxulub liberaría una energía mecánica de 5 x 10 20 julios, equivalente a un terremoto de magnitud 11, unas 20 veces más que el mayor terremoto histórico conocido. Pero, para ponerlo en perspectiva, si la energía sísmica decae a razón de 1/distancia 2, “se sentiría” sólo como el terremoto de Chile de 2010 a 4,5 veces la distancia del epicentro. Seguiría siendo un suceso de alcance local. Lo mismo con la onda de choque. La explosión principal del Krakatoa, con una energía aproximada de 10 18 julios, se oyó a distancias de 5.000 km y causó problemas auditivos graves a marinos que se encontraban a 60 km. Un gran Verneshot con una liberación de energía de 5 x 1020 julios sería 500 veces más fuerte que la explosión del Krakatoa, creando una onda de choque que literalmente se oiría en todo el mundo. (La intensidad de la onda de choque decae sólo a razón de 1/distancia porque viaja como una onda por la capa inferior de la atmósfera, así que a una distancia de 60 x 500 = 30.000 km tendría un efecto similar al que la onda de choque del Krakatoa produjo a 60 km.) ¿Qué aspecto tendría un Verneshot “grande” mientras está sucediendo? Como una gran explosión volcánica, quizá con un chorro de fragmentos elevándose de tierra en una gran nube de gas caliente propulsada a lo alto de la atmósfera, donde inmediatamente empezaría a formar nubes de polvo y cristales de hielo. - 223 -
Antonio Cantó
Puede que el lugar de la explosión siguiera emitiendo gases durante un tiempo, pero la pluma principal seguramente desaparecería tras la erupción inicial. Podría producirse una serie de erupciones, la primera creando el canal a través de la litosfera y las siguientes reutilizándolo conforme las regiones más profundas se relajen tras la emisión inicial de CO2 con la primera detonación. ¿Sería un fenómeno súbito, digamos como una explosión nuclear con un “súperhongo”, o algo más progresivo? Creo que la primera detonación sería la mayor: la que formaría la chimenea del Verneshot desde los aproximadamente 80 km de profundidad hasta la superficie. Pero podría haber detonaciones posteriores con expulsiones de gas a más presión que ninguna erupción volcánica explosiva conocida, dado que la presión del gas es entre 10 y 40 veces superior (al originarse a profundidades de 80 km en vez de los 2 a 8 habituales.) El gas se habría expandido entre 10 y 40 veces más al alcanzar la superficie. Sí, definitivamente imagino que la primera erupción sería como una explosión nuclear, excepto que el gas saldría despedido verticalmente mientras se expande en todas direcciones. Una columna ardiente de 60 a 100 km de altitud sería un auténtico pilar de fuego… Y si pudiésemos sobrevolarlo a continuación, ¿qué veríamos? Un agujero muy hondo. La chimenea volcánica colapsaría de inmediato, en cuanto saliese el gas, pero quedaría un gran agujero que se llenaría rápidamente de agua y después se erosionaría y rellenaría a lo largo de cientos de miles de años (como parece haber pasado con las chimeneas kimberlíticas y otros diatremas explosivos.) ¿Resultaría aniquilada el área circundante? ¿O, dado que el material y la energía viajan sobre todo hacia arriba, sólo sufrirían un terremoto “convencional”? ¿Alguna estimación de daños? Sería exactamente igual que si hubiese habido un gran impacto [extraterrestre], o un terremoto mayor que ninguno de los que constan en la historia humana (presenté una comparación en el paper de 2004.) La energía alrededor del Verneshot decaería aproximadamente a razón inversa de la distancia durante los primeros 80-100 km, y a razón inversa del cuadrado de la distancia a partir de ahí. Pero la zona del Verneshot en sí misma, descontando el área afectada por la onda de choque inicial, no resultaría destruida a escala regional.
- 224 -
La Pizarra de Yuri 3
¿Hasta dónde podrían llegar los fragmentos propulsados por el Verneshot antes de caer a tierra otra vez? ¿Tiene alguna estimación sobre velocidad, apogeo de la trayectoria balística y energía de impacto?¿Estamos hablando de rocas de cientos de metros cayendo aquí y allá o más bien de una “granizada” de objetos más pequeños? Un cálculo rápido sugiere que podría llegar a ser posible que el material eyectado acabase en cualquier punto de la Tierra, aunque esto sería mucho más probable en un planeta de menor gravedad como Marte. En la práctica, cabe esperar una eyección de menor energía, con distancias de vuelo en el rango de los miles de kilómetros (no 20.000 km.) Pero los fragmentos chocados de menor tamaño y los microesferulitos fundidos y mezclados con el gas que saldrían despedidos a la atmósfera superior podrían recorrer el mundo entero antes de posarse, así que estos “indicios de impacto” tendrían una distribución global. Si las partículas son pequeñas, la atmósfera las frenará muy deprisa. Por el contrario, una nube o “perdigonazo” tendrá un efecto similar al de un único objeto de gran tamaño al impactar contra el suelo. Creo que tenderá a haber uno o varios “chorros” de material que recorrerán las mayores distancias. Si un “chorro” “perfora” un orificio temporal en la atmósfera, favorecerá que más material circule por ahí. Pero las partículas a menor velocidad no llegarán tan lejos y podrían producir algo como “sendas” de tectitas a lo largo de la dirección del chorro. Así que sí, una “granizada” a lo largo de la ruta de cada chorro, con la posibilidad de bloques concentrados que viajen juntos desde la detonación hasta la reentrada en las regiones más densas de la atmósfera y el impacto final contra el suelo. No veo ningún motivo por el que se tuviera que formar un único cráter a consecuencia de un Verneshot, porque incluso un “chorro” bien enfocado tendería a ser más disperso que el típico meteorito. Sería más sencillo tener muchos cráteres de menor tamaño asociados con un único Verneshot, con un diámetro de unos pocos kilómetros y el potencial de conservarse en el registro geológico si se formara en regiones marinas donde se esté produciendo sedimentación. He leído algún informe anecdótico sobre pequeños cráteres en el Mar del Norte que podrían coincidir en el tiempo con la extinción del CretácicoPaleogeno. Me lo estoy imaginando como una especie de gigantesca “palmera” de fuegos artificiales… Podría ser.
- 225 -
Antonio Cantó
La colosal erupción explosiva del Monte Pinatubo (Filipinas, 1991, VEI-6) es minúscula en comparación con otras que han ocurrido a lo largo de la historia de la Tierra, y sería casi ridícula en comparación con un Verneshot. Imagen: Wikimedia Commons.
¿Qué clase de daños producirían estas “granizadas” al caer? ¿Hablamos de ciudades arrasadas por estos “perdigonazos” o más bien de una “lluvia de piedras”? Dependería de lo concentradas que llegasen. Si se limita a “llover piedras” no sería tan grave en términos de daños en tierra. Pero masas de material más concentradas golpearían el suelo como un meteorito de tamaño similar… y a velocidades similares. Probablemente estas piedras estarían también “al rojo vivo” o parcialmente fundidas. Bien, entiendo que un Verneshot podría ocasionar o ser parte de una extinción masiva. ¿Podría explicarnos sus efectos globales “inmediatos”? Los gases añadidos repentinamente a la atmósfera superior –gases sulfúricos, dióxido de carbono y vapor de agua hasta la estratosfera– provocarían efectos climáticos severos hasta que la química atmosférica restableciese el equilibrio. En los primeros años, los gases ricos en azufre impedirían que parte de la luz solar llegara a la superficie y la atmósfera interior, dando lugar a un súbito pulso de enfriamiento global y lluvia ácida. Esto conduciría a algo mucho más drástico que las “noches blancas” asociadas
- 226 -
La Pizarra de Yuri 3
con el suceso de Tunguska de 1908 o los meses de puestas de sol espectaculares asociadas a la erupción del Krakatoa. Probablemente le costaría años disiparse… varios años seguidos muy fríos hasta que estos gases sulfúricos lloviesen de vuelta a la superficie. Pero después, el CO2 añadido a la atmósfera ocasionaría un periodo de intenso calentamiento global de uno o varios milenios de duración, con el riesgo adicional de que se produjera una fuerte estratificación y anoxia oceánica superficial global muy peligrosa para la vida, hasta que los niveles de CO 2 atmosféricos vuelvan a la “normalidad” para ese periodo. ¿Un solo Verneshot o varios consecutivos? No hay ningún motivo por el que una inundación basáltica continental no pueda vincularse con varios Verneshots, separados unos 100.000 años entre sí. Arriésguese: ;-) Sugiérame un par de sitios en Europa o América donde podría ocurrir un Verneshot. En Europa, me pregunto si los “famosos” cráteres de Ries y Steinheim al Sur de Alemania son en realidad un Verneshot que ocurrió hace unos 15 millones de años. Pero ahora mismo el vulcanismo de la pluma Eifel se encuentra en el rift de las fosas tectónicas del Rin, así que cabría esperar un vulcanismo menos explosivo, si bien con alguna posibilidad de impactos locales en Europa; Europa del Norte en particular. En Norteamérica, apostaría por algún lugar próximo a la intersección entre el rift de Río Grande, el cratón de Wyoming y Yellowstone. Hmmm… se me ha venido a la cabeza la zona entre el cratón del Atlántico Norte y el rift de la margen oriental de Groenlandia… Podría ser, pero en la época de las inundaciones basálticas de Groenlandia, no ahora. :-) ¿Tengo entendido que han encontrado ustedes “indicios de Verneshot” bajo las traps del Decán, o incluso en el área de Tunguska? Lo curioso de las traps del Decán es que hay “indicios de impacto” dentro de los estratos inferiores. [No debajo.] Esto implica que la inundación basáltica ya estaba sucediendo cuando se produjo el “impacto.” Tunguska presenta evidencias de un
- 227 -
Antonio Cantó
impacto mayor ocurrido allí hace unos 250 millones de años, contemporáneo con la formación de las Escaleras Siberianas. (Al finalizar esta entrevista, el Dr. Jason Morgan me suministró ese nuevo paper sobre sus observaciones en Tunguska aceptado para próxima publicación en Earth and Planetary Science Letters. Por si te interesa, la referencia es: Paola Vannucchi; Jason P Morgan; Damiano Della Lunga; Chris Andronicos; William J Morgan (2014): “Direct evidence of ancient shock metamorphism at the site of the 1908 Tunguska event.” ) Bibliografía: •
Morgan, J Phipps; Reston, T.J.; Ranero, C.R. (15 de enero 2004): “ Contemporaneous mass extinctions, continental flood basalts, and ‘impact signals’: are mantle plume-induced lithospheric gas explosions the causal link? “. Earth and Planetary Science Letters 217 (3–4): 263–284. Bibcode: 2004E&PSL.217..263P. DOI: 10.1016/S0012-821X(03)00602-2.
•
Shih-Wei Huang; Jiin-Shuh Jean (2003): “ Huge rock eruption caused by the 1999 Chi-Chi earthquake in Taiwan.” Geophysical Research Letters, Vol. 30, nº 16, 1858. DOI: 10.1029/2003GL017234, 2003
•
Rosalind W. white; Andrew D. Saunders (2005): “ Volcanism, impact and mass extinctions: Incredible or credible coincidences?” Lithos, vol. 79, pp. 299-316. DOI: 10.1016/j.lithos.2004.09.016
•
Paola Vannucchi; Jason P Morgan; Damiano Della Lunga; Chris Andronicos; William J Morgan (2014): “ Direct evidence of ancient shock metamorphism at the site of the 1908 Tunguska event. ” Recién aceptado, pendiente de publicación en Earth and Planetary Science Letters.
- 228 -
La Pizarra de Yuri 3
En busca del vacío y la nada Yuri, el 10 de septiembre de 2014 @ 20:56 · Categoría: Ciencia popular
Un viaje por el espacio interplanetario, el espacio interestelar, el espacio intergaláctico y más allá.
Las capas de la atmósfera, con algunos de sus objetos característicos, y la densidad del aire acorde a la altitud (en kilogramos por metro cúbico.) Puede observarse cómo la densidad del aire tiende a cero muy rápidamente conforme nos elevamos. Pero sólo “tiende a cero”, no “cae a cero.” Datos: Densidad del aire según los modelos empíricos Atmósfera Estándar Internacional / NRMLSISE-00. Imágenes: Wikimedia Commons / La Pizarra de Yuri. (Clic para ampliar)
“Nada” y “vacío” son dos de esas palabras que solemos utilizar muy a la ligera. Abrimos un cajón, o más probablemente la cartera, decimos “aquí no hay nada” o “esto
- 229 -
Antonio Cantó
está vacío” y nos quedamos tan panchos. Supongo que no necesitaré explayarme sobre la enorme cantidad de cosas que hay incluso en una cartera a fin de mes: desde las omnipresentes bacterias hasta el aún más omnipresente polvo, pasando por ácaros, restos microscópicos de casi todo y el mismo aire. Y digo yo: ¿existe la verdadera nada, o el verdadero vacío, en este universo? Para buscar la respuesta, recurriremos de nuevo a nuestra hipotética nave espacial Abbás ibn Firnás. No por nada, es por llegar antes de morirnos y eso. Por si no leíste esa entrada, te la resumiré diciendo que la Abbás ibn Firnás es una nave de cienciaficción que me saqué de la manga porque va muy bien para explicar unos cuantos conceptos relacionados con las distancias cósmicas. Se podría definir como un vehículo alto-sublumínico relativista con aceleración constante. Me la inventé así porque no viola ninguna ley de la Física (en particular, la Relatividad de Einstein) y por tanto nos permite mantenernos dentro de las cosas que son posibles. Naturalmente, que sean posibles no significa que puedan hacerse en el estado actual de la ciencia y la técnica. Por desgracia, la Abbás ibn Firnás ni existe ni puede existir en manos humanas hoy por hoy y durante una larga temporada. Es al menos tan imposible como lo era una nave Voyager o una conexión a Internet para Leonardo da Vinci. Que, dicho sea de paso, vivió hace menos de quinientos años. Así pues, nos imaginaremos que estamos en el año 2514 y tenemos la Abbás ibn Firnás aparcada en zona azul de laórbita baja. Así que nos vamos a pillar la Soyuz de la línea 3 para ir a por ella (sí, los neo-sármatas siguen haciendo la condenada Soyuz en la Fábrica de Samara.) :-P ¡Allá vamos! Conforme nuestro cohete se eleva al lugar donde el cielo ya no es azul pero a cambio está lleno de estrellas, la presión y la densidad del aire que nos envuelve comienzan a reducirse. Por ejemplo, al superar los diez mil metros, la altitud típica de los reactores de pasajeros (y las aves que vuelan más alto), la densidad cae a la tercera parte y la presión, a la cuarta. (Hay que decir que la presión y la densidad exactas del aire dependen de un montón de factores, entre los que se cuentan la temperatura, la humedad y hasta la radiación solar; para simplificar, usaremos aquí la tabla orientativa de la Atmósfera Estándar Internacional que utilizan organismos como la OACI; y a partir de los 86 km de altitud, el modelo NRMLSISE00 usado en astronáutica.) Sigamos. A veinte mil metros, una altitud propia de aviones de combate de altas prestaciones, la presión ya es sólo1/18 de la que disfrutamos en la superficie y la densidad, 1/14. A partir de ahí, el aire se va volviendo tan tenue que a los aviones (que dependen de los principios de la aerodinámica para mantener la sustentación) les va costando mucho volar. Una variante modificada del interceptor soviético MiG-31,
- 230 -
La Pizarra de Yuri 3
llamada Ye-266M, batió el récord absoluto de altitud para un avión tripulado capaz de despegar y aterrizar por sus propios medios el 31 de agosto de 1977: 37.650 metros, lo que vienen siendo 123.520 pies o el nivel de vuelo 1235 para nosotros los aerotrastornados. ;-) Ahí arriba ya se ven las estrellas en pleno día, la presión atmosférica es apenas 1/260 de la superficial, la densidad no llega a 1/225 y las alas ya no pueden volar (de hecho, parte del camino fue balístico, con una trayectoria inicial casi vertical al triple de la velocidad del sonido… ¡tuvo que molar!) ;-)
El mundo visto desde lo alto de la línea Kármán a bordo de un cohete Soyuz, el 3 de abril de 2014. Parece que estemos ya en “el vacío”, ¿eh? Bueno, pues en ese momento el aire, aunque muy tenue (densidad inferior a 5,6×10−7 kg/m3), aún sería capaz de dañar el cohete y la carga; la cofia aerodinámica que la protege no se separará hasta unos segundos después. Imagen: ESA / Arianespace / Roskosmos. (Clic para ampliar)
Los globos pueden llegar todavía más alto, elevándose igualmente por sus propios medios. El récord para uno tripulado está en 34.688 metros, tres kilómetros menos que el Ye-266M. Pero entre los que no van tripulados, como algunos de los que se usan en meteorología, no son raras altitudes mucho mayores. Un modelo experimental japonés de nombre BU60-1, fabricado enpolietileno de 3,6 micras de espesor, batió su propio récord el 23 de mayo de 2002: 53 kilómetros. Ahí la presión atmosférica es tan solo una dosmilésima parte de la que nos encontraríamos en tierra, la densidad del aire es 1/1750 y, a primera vista, nos parecería que estamos ya en el vacío. Pero qué va. Cuando nuestro cohete Soyuz alcanza esas altitudes, poco más de dos minutos después del
- 231 -
Antonio Cantó
lanzamiento, va a unos 6.700 km/h y sigue necesitando la cofia aerodinámica; de lo contrario, a semejante velocidad, incluso ese aire tan tenue desestabilizaría el cohete y abrasaría la nave espacial hasta destruirnos. Tradicionalmente decimos que el punto donde el cielo se convierte en espacio y los aviadores en astronautas es lalínea Kármán, a 100 kilómetros de altitud. Cuando llegamos a la línea Kármán la densidad y la presión del aire son ya muy bajas: en torno a una tresmillonésima parte de las que tenemos en superficie. Al margen de los cohetes, sólo algunos vehículos experimentales como el X-15 o el SpaceShipOne estadounidenses la superaron, y por los pelos. Pero para los cohetes, como nuestro Soyuz, eso es tan solo el principio del viaje: vamos todavía con la segunda fase encendida a toda mecha y nos queda un buen tramito hasta la órbita. En ese momento, doscientos segundos después del lanzamiento, ascendemos ya a 8.400 km/h y la cofia va tornándose inútil; se desprende unos veinte o treinta segundos después, al superar los 10.000 km/h y los 120 km de altitud. El aire es ahora tan ligero que ni el rozamiento ni su presión sobre las estructuras de la nave representan ya ningún peligro. Podría decirse que acabamos de abandonar la atmósfera terrestre. ¿O no? Video con los 7 primeros minutos de vuelo de un cohete Soyuz-STB con una carga de satélites de telecomunicaciones desde Kourou, el 25 de junio de 2013. En él encontramos varios detalles interesantes: observa los datos de altitud (A) y velocidad (V) que aparecen a partir del momento 1:25, porque dan miedo. ;-) La altitud está expresada en kilómetros y la velocidad, en kilómetros por segundo (1 km/s = 3.600 km/h.) También puede verse cómo la cofia aerodinámica se separa a unos 120 km de altitud (4:30 del video, minuto 3:55 del lanzamiento.) Ese es el momento en que el aire es tan tenue que ya no puede desestabilizar al cohete ni dañar la carga, pese a que la velocidad ya supera los 10.000 km/h (2,8 km/s.) Video: Arianespace. Atmósferas planetarias e interplanetarias. En realidad, no, no hemos abandonado la atmósfera terrestre. Lo que hemos abandonado es la parte más densa de lasopa de nitrógeno y oxígeno que nos vio nacer. Más o menos, lo que viene siendo la troposfera (donde residimos habitualmente), la estratosfera (adonde a veces llegamos en avión), la mesosfera y un pelín de la termosfera. Pero las atmósferas planetarias siguen considerándose tales mientras haya moléculas fijadas por la gravedad del planeta (o luna) en cuestión; en el caso de la Tierra, eso se extiende hasta el final de la exosfera, a unos 10.000 kilómetros de la superficie.
- 232 -
La Pizarra de Yuri 3
Nosotros, en este primer tramo, vamos más cerca. Hemos dicho que dejamos la Abbás ibn Firnás aparcada en la zona azul de la órbita baja, y las órbitas bajas de la Tierra se extienden aproximadamente entre 160 y 2.000 km de altitud. La actual Estación Espacial Internacional, por ejemplo, se encuentra a unos 415 kilómetros, en plena termosfera. Por suerte, el gorrilla nos consiguió un buen hueco a poco más de 200. Nueve minutos después del lanzamiento, la tercera y última etapa del cohete inserta nuestra nave Soyuz en órbita a unos 25.000 km/h. Acto seguido, tras unas maniobras de aproximación, nos ensamblamos con la Abbás ibn Firnás. ¡Ya estamos listos para comenzar nuestra búsqueda del vacío y la nada!
Los 500 millones de años luz de universo a nuestro alrededor (tú y yo estamos en el centro.) Puede observarse cómo las galaxias tienden a agruparse en supercúmulos (“superclusters”, indicados en azul claro) dejando “vacíos” en medio (“voids”, en rojo.) Sin embargo, estos vacíos tampoco están realmente vacíos del todo. Imagen: Powell, R. (atlasoftheuniverse.com) vía Wikimedia Commons. (Clic para ampliar)
Y… ¿dónde buscamos? Bueno, pues si los alrededores de los planetas están llenos de gases, polvos y demás basurillas, lo lógico sería alejarse. ¿Cuánto? Pues… mucho, ¿no? Todo lo que podamos. Así que nos preparamos un buen batido –nada de cubatas, que ahora los de la Dirección Global de Tráfico son muy capaces de mandarte a las colonias penales de Makemake si te pillan pilotando bebido– y nos sentamos a los mandos. Por elegir un rumbo, y ya que andamos detrás de la nada, apuntaremos al Vacío Gigante, que suena… como bastante vacío, ¿no? ;-) Mientras vamos poniendo en marcha la Abbás
- 233 -
Antonio Cantó
ibn Firnás, permíteme que te cuente eso de los vacíos gigantescos, porque tiene su aquél. Las grandes murallas, los grandes filamentos y los grandes vacíos. En la estructura a gran escala del universo, la materia no está esparcida por ahí sin orden ni concierto. Es por la gravedad, tan débil, pero tan persistente. La gravedad hace que la materia tienda a agruparse dando lugar a –vamos a decirlo así–formas. Las formas más colosales de toda la puñetera realidad. Una de las más conocidas –y pequeñas, a la escala que estamos hablando– son las galaxias. En ellas, cientos de miles de millones de estrellas, sistemas solares y demás, separadas por notables distancias, alcanzan un cierto equilibrio gravitatorio que las mantiene orbitando en torno a uno o varios centros de masas, dando lugar a las diferentes morfologías galácticas: espirales con o sin barra (como nuestra Vía Láctea, una espiral barrada), elípticas,lenticulares, irregulares, peculiares, etcétera. Algunas pueden adoptar formas verdaderamente extraordinarias, como las Galaxias Antena o las anulares. Los humanos solemos clasificarlas en la Secuencia de Hubble (o fuera de ella) y sus variantes. La mayor parte de galaxias tienen entre unos cientos y algunos millones de años-luz de diámetro. La más pequeña (y densa) que conocemos es M60UCD1 y la más grande, un monstruo llamado IC 1101 de Virgo, con sus 5,5 millones de años-luz de diámetro. Para que te hagas una idea, de aquí a la galaxia de Andrómeda “sólo” hay 2,5 millones de años-luz. Nuestra Vía Láctea, con unos 100.000, es de las normalitas. Pero las galaxias tampoco flotan por ahí sin más. De nuevo, la gravedad las hace interactuar entre sí para dar lugar a otras formas cada vez mayores: grupos, cúmulos y supercúmulos. Por ejemplo, nuestra Vía Láctea forma parte delGrupo Local, con diez millones de años-luz, que a su vez se encuentra en el Supercúmulo de Virgo. (Si quieres saber más sobre estas cosas, léete Esta es tu dirección, en este mismo blog.) El Supercúmulo de Virgo es ya una cosita de un tamaño respetable: según como lo midas, tiene entre cien y doscientos millones de años-luz de diámetro. A este nivel, los tamaños comienzan a aturdir. Perdemos la perspectiva. Para orientarnos un poco, te diré que con las naves espaciales más veloces que hemos construido hasta ahora (70,22 kilómetros por segundo de velocidad pico), necesitaríamos entre treinta y sesenta veces la edad del universo presente para atravesarlo. Y eso yendo en línea recta, sin tener en cuenta órbitas y demás molestias viarias cósmicas. A su vez, el Supercúmulo de Virgo parece ser sólo un lóbulo de una cosa aún mayor llamada Laniakea, que orbita en torno al Gran Atractor. El Supercúmulo de Laniakea tiene unos 520 millones de años-luz de
- 234 -
La Pizarra de Yuri 3
diámetro y, usando las mismas naves, necesitarías unas 150 veces la edad del universo para cruzarlo de punta a punta.
Distribución filamentosa de la materia en un “corte” de universo con forma de cubo, que permite distinguir los vacíos que se forman por enmedio. A esto se le llama la “telaraña cósmica.” Imagen: NASA, ESA y E. Hallman (Universidad de Colorado en Boulder.) (Clic para ampliar.)
¿Te crees que esto es grande? Ná. Una miajita. La gravedad será la fuerza más débil de todas, por muchísimo, pero tiene un alcance infinito y continúa actuando mucho más allá de estos gigantescos supercúmulos. Así, sigue estableciendo formas oestructuras todavía mayores: los filamentos y las grandes murallas. Se trata de larguísimoshilos (los “filamentos”) y cintas u hojas (las “murallas”) compuestos por supercúmulos galácticos y unas nubes de gas absurdamente grandes que se llaman losgoterones Lyman-alpha. La estructura más monumental de todo el universo conocido es una de estas hojas: laGran Muralla de Hércules-Corona Boreal, descubierta en 2013. Pasa de los 10.000 millones de años-luz de longitud (más del 10% del diámetro del universo observable) y tiene 7.200 millones de ancho… pero sólo 900 millones de espesor. Esto es curioso; en las inmensas escalas, empezando por las propias galaxias y terminando con estos filamentos casi inconcebibles, a la gravedad le gusta crear formas tirando a planas. Si
- 235 -
Antonio Cantó
pudiésemos visualizar la Gran Muralla de Hércules-Corona Boreal a escalas humanas, tendría las dimensiones del típico libro en formato DIN A4 con apenas un dedo de espesor. Hay muchas más. En realidad, con lo que sabemos en estos momentos, buena parte de la materia del universo se encuentra en estos filamentos y murallas, en lo que ha venido a llamarse la telaraña cósmica. Lo que tiene un efecto secundario bastante obvio: si la mayoría de la materia se concentra en tales estructuras, eso significa que el espacio entre las mismas está esencialmente… hueco. Un poco como un queso Gruyere, o más bien como una espumilla. Así que, igual que existen estas grandes estructuras, existen los grandes vacíos: inmensas regiones del cosmos donde no hay casi nada. El más cercano es el Vacío Local, justo al lado de… bien, nuestro Grupo Local. Se le estiman unos 230 x 150 millones de años-luz. Pero estos vacíos no están totalmente huecos. Hay galaxias y tal, sólo que con una densidad muchísimo menor de la habitual. El más grande de todos los confirmados es el poco imaginativamente conocido como el Vacío Gigante. Situado en la constelación de los Perros Cazadores, junto a la Osa Mayor, se encuentra a unos 1.500 millones de años-luz de distancia y tiene en torno a 1.000 o 1.300 millones de años-luz de diámetro. Eso, lo convierte, por sí mismo, en otra de estas superestructuras cósmicas. Una superestructura decasi nada. En busca de la nada. Así que apuntamos el morro de la Abbás ibn Firnás en la dirección general del Vacío Gigante (o donde esperamos que esté dentro de 1.500 millones de años, o cualquier otro espacio en blanco que calculemos que vaya a sustituirlo después de todo ese tiempo.) Y le damos mecha a los motores. Un momento… ¿realmente pretendo llevarte a un viaje de 1.500 millones de años? ¿Se me va la olla o qué? Bien, esa sería la gracia de una de estas hipotéticas naves alto-sublumínicas con aceleración constante. Para recorrer auténticos abismos cósmicos en un tiempo de viaje humano no es preciso violar el límite de la velocidad de la luz ni ninguna fantasía de esas. ;-) Es por el rollo este tan curioso de la dilatación temporal que se deriva de la Relatividad. Sólo necesitamos acelerar a 1 g, o sea el tirón gravitatorio típico de la Tierra –para ir cómodos y no sufrir problemas médicos– hasta mitad camino. Y luego, decelerar a otra ge hasta nuestro destino. Si sacamos las cuentas relativistas, alcanzaremos una velocidad muy próxima a la de la luz a 750 millones de años-luz de aquí, una de esas fracciones que se expresan como un cero coma seguido de una ristra de nueves. Pero sin tocarla, que es lo que prohíbe la Relatividad. Mientras no intentemos tocar la velocidad de la luz, nos mantenemos dentro de lo que permite este
- 236 -
La Pizarra de Yuri 3
universo, por mucho que ahora mismo una tecnología así nos resulte tan imposible como… eso, una nave Soyuz para Leonardo da Vinci. :-P
“Tiempo de viaje a bordo” en una nave espacial alto-sublumínica de aceleración constante (en este caso, 1g), que acelera hasta la mitad del camino y decelera durante la otra mitad, debido a la dilatación temporal relativista. Obsérvese que la escala de distancia es logarítmica de base 10, mientras que la de tiempo son años vulgares y corrientes. ;-) Este tipo de naves está actualmente por completo fuera del alcance de nuestra tecnología, pero ninguna ley física fundamental prohíbe su existencia. Gráfica: La Pizarra de Yuri.
Al acercarnos tanto a la velocidad de la luz, el efecto de dilatación temporal es muy acusado. Por tanto, ese viaje de 1.500 millones de años-luz se salda en poco más de 41 años de tiempo de a bordo (para quienes quedaron atrás, por supuesto, pasarán los 1.500 millones de años completos, y pico.) Vale, es una temporadita, pero perfectamente realizable en el transcurso de una vida humana corriente. Otra cosa curiosa es que, debido a las potencias que plagan las ecuaciones matemáticas que rigen todo este tinglado, esta forma de viajar es más temporalmente eficiente (a bordo) cuanto más lejos vayamos. Si por ejemplo nos conformásemos con ir al Vacío Local, a unos 75 millones de años-luz (una veinteava parte de la distancia al Vacío Gigante), tardaríamos 35 años de tiempo de a bordo (apenas un 15% menos.) Pero si nos lanzásemos al mismísimo borde deluniverso observable presente (más o menos 46.000 millones de años-luz, una distancia treintaypico veces superior), el tiempo de a bordo apenas aumentaría a 47,5 años: escasamente un 16% más. - 237 -
Antonio Cantó
Conforme la Abbás ibn Firnás comienza a acelerar alejándose de la Tierra, observamos que los escudos exteriores comienzan a calentarse. Están rozando contra algo, algo invisible, pero que sigue ahí. En primer lugar lo hacen contra los últimos restos de la atmósfera terrestre, que como ya dijimos se extienden hasta los límites de la exosfera, a unos 10.000 km de la superficie. Pero incluso cuando ya la hemos abandonado totalmente, continuamos teniendo rozamiento. ¿Cómo es eso posible, si ya estamos en el espacio interplanetario, en el vacío del espacio exterior? Bueno, pues es posible porque… este vacío no está vacío. :-P Aunque la densidad de materia sea muy baja, el medio interplanetario está lleno de polvo, rayos cósmicos, gases y plasma del viento solar. Vamos, que avanzamos a través de otra sopa, muy tenue pero perfectamente real, compuesta por protones, electrones, fotones, núcleos atómicos, átomos enteros, moléculas e incluso granos de polvo completos. Eso, suponiendo que no nos topemos con una piedra algo más gorda de las que abundan por el sistema solar. De hecho, uno de los problemas tecnológicos a resolver para poder construir una nave como la Abbás ibn Firnás es, precisamente, encontrar una manera de que las colisiones a muy alta velocidad contra estas partículas y demás no la aniquilen al instante. Si el mosquito que se estampa contra tu parabrisas lo hiciera ya no a velocidades próximas a las de la luz, sino tan solo a la décima parte (unos 2,5 miligramos a 30.000 km/s), el impacto sumaría aproximadamente 1,13 gigajulios de energía. Es decir, como un cuarto de toneladade TNT. Imagínate el efecto. Del mismo modo, un minúsculo grano de polvo cósmico (0,0000000001 gramos) al 95% de la velocidad de la luz lleva tanta energía como una bala pesada de ametralladora del calibre .50 BMG: 19.800 julios. Pero al 95% de la velocidad de la luz no hacemos nada, nuestra nave relativista es una caca que sólo gana un 70% de tiempo de a bordo. O sea que para ir a 100 míseros años-luz de aquí, pasan 30 a bordo. Un rollo. Si queremos hacer esta chulada de viajar a decenas de miles de millones de años-luz en una vida humana tenemos que ir muchísimo más deprisa, enormemente más cerca de la velocidad de la luz. Rozándola. Y a esas velocidades de cero coma seguido de muchos nueves de c, incluso el impacto de un átomo de hidrógeno puede tener la energía de la bala de ametralladora en cuestión. O, según el número de nueves después de la coma, la de una maldita bomba atómica. Teniendo en cuenta que el medio interplanetario puede contener fácilmente cinco millones de partículas o más por metro cúbico –a veces, mucho más–, y que una nave rozando la velocidad de la luz recorre poco menos de trescientos millones de metros por segundo, eso significa que nuestra Abbás ibn Firnás avanza sometida a una ráfaga constante y brutal de impactos que ríete tú delcañón del A-10.
- 238 -
La Pizarra de Yuri 3
Bien, pues larguémonos del medio interplanetario. ¿Y cómo se hace eso? Sencillo: alejándonos de los planetas, o sea del sistema solar. Es decir, debemos abandonar la heliosfera. Para eso tenemos que superar la heliopausa, la región donde el medio interestelar detiene al viento solar. Lo que pasa es que, claro, entonces nos encontramos con estemedio interestelar. Y resulta que no es tan distinto del medio interplanetario: más gas, más polvo y más rayos cósmicos, sólo que con una densidad menor: cualquier cosa entre 400 y un billón de átomos por metro cúbico, según donde nos encontremos. A efectos prácticos, estamos en las mismas: ni nos encontramos en un vacío verdadero, ni mucho menos en algo que pueda llamarse la nada. Como mucho, podríamos afirmar que estamos técnicamente en el vacío, incluso en un vacío ultra-alto. Pero hablando en sentido estricto, ni por casualidad.
Distribución de gases ionizados en parte de nuestra galaxia, registrada por el Wisconsin H-Alpha Mapper (WHAM) Northern Sky Survey. Imagen: © Haffner, L. M. et al, (2003), Astrophysical Journal Supplement, 149, 405. El Wisconsin H-Alpha Mapper está financiado por la US National Science Foundation. (Clic para ampliar)
Nada, nada, sigamos adelante. Conforme nos alejamos de la Vía Láctea y sus estrellas, nubes de gas y demás, pasamos suavemente al medio intergaláctico y el medio intracúmulos. Aquí ya queda muy poquito polvo y cosas de esas, pero sigue habiendo átomos de hidrógeno a razón de uno por metro cúbico más o menos, junto a potentes campos electromagnéticos. Este hidrógeno puede llegar a estar muy caliente, a miles e incluso millones de grados (y por eso se encuentra en estado plasmáticofuertemente ionizado), pero como es tan, tan tenue la temperatura efectiva que te encontrarías si abandonases la Abbas ibn Firnás sería únicamente la correspondiente a la radiación de fondo cósmico: 2,73 grados por encima del cero absoluto. Es decir, poco más de 270ºC bajo cero. - 239 -
Antonio Cantó
Eh… y entonces, ¿por qué ese gas tan tenue se mantiene tan caliente? Pues porque está en movimiento. Tiene que haberse movido y seguir moviéndose muy rápido para escapar de las galaxias, los supercúmulos y todos esos bicharracos gigantescos con sus monumentales tirones gravitatorios. Y dicho un poco a lo burdo, la temperatura termodinámica mide eso: cuánto se mueven las partículas que constituyen un medio. Como ahí en el casi-vacío no hay nada que las pare (y a veces ocurren fenómenos que las aceleran), pues decimos que se mantienen a alta temperatura. Eso sí, como tú te salgas de la nave, te vas a congelar de tal modo que el nitrógeno líquido te parecerá café calentito. Otra curiosidad del medio intergaláctico es que la mayoría de la materia bariónica de este universo –la“normal”, la que nos forma a ti y a mí– está ahí. Ni en las estrellas, ni en los planetas, ni en las grandes nebulosas, ni nada: entre el 40% y el 50% de la materia bariónica existe en forma de este plasma de hidrógeno ultra-tenue que rula por el espacio intergaláctico, y el resto se reparte entre todo lo demás. Y esto es lo que hay. Incluso en lo más profundo de esos grandes vacíos, siempre nos vamos a encontrar un poquito de algo; típicamente, este plasma de hidrógeno fuertemente ionizado. En cuanto a la nada, la palabra nada no se usa en ciencia. No equivale al número cero ni ninguna otra cosa por el estilo. De hecho, no tiene un significado científico riguroso: es más filosófica que otra cosa. Si me pusieras entre la espada y la pared, con la espada en la garganta, te la definiría con cierta sonoridad científica como un estado carente de espaciotiempo y temperatura, y por tanto de entropía. Por supuesto, tal estado ni existe ni es posible en este universo. Si me apretaras la espada un poco más, hasta el instante ese en que empieza a salir una gotita de sangre por la parte de la yugular, añadiría que la nada se podría describir como el nouniverso, o el estado de la realidad si no se hubiera producido el Big Bang. Pero nada de esto es exactamente riguroso. La nada es… eso, nada, en el sentido de algo que no existe. :-P ¡Pues sí que estamos buenos! Resulta que queríamos hablar del vacío y la nada, y ni existe el vacío, ni existe la nada. No en sentido estricto, al menos. Incluso si hallásemos una región del espacio en estado fundamental, sin ninguna partícula de ninguna clase, lo que llamamos el vacío cuántico… seguiríamos encontrando, como mínimo, campos electromagnéticos que lo atraviesan, fluctuaciones cuánticas como consecuencia del principio de incertidumbre, o lo que quiera que origine la energía del vacío para dar lugar a fenómenos como el efecto Casimir. En fin: que la nada no es, el vacío es un tecnicismo y este es un universo maravilloso que cada día nos sorprende más. Bibliografía:
- 240 -
La Pizarra de Yuri 3
•
Ferriere, K. M. (2001): “The interstellar environment of our galaxy“. Rev.Mod.Phys. 73:1031-1066, 2001. DOI: 10.1103/RevModPhys.73.1031.
•
Max Tegmark et al. (2004): “A map of the universe“. The Astrophysical Jounal, 624:463-484, 10 de mayo de 2005. DOI:10.1086/428890.
•
Bykov, A. M.; Paerels, F. B. S.; Petrosian, V. (2008): “ Equilibration processes in the Warm-Hot Intergalactic Medium“. Space Science Reviews, vol. 134, nº 1-4. DOI: 10.1007/s11214-008-9309-4.
•
Arianespace Services & Solutions (2012): “ Soyuz User’s Manual“, versión 2, rev. 0.
•
Wilson, C. M. et al. (2011): “Observation of the dynamical Casimir effect in a superconducting circuit “. Nature 479, 376– 379 (17 de noviembre de 2011.) DOI: 10.1038/nature10561.
- 241 -
Antonio Cantó
De amigos derribados Yuri, el 22 de julio de 2014 @ 9:01 · Categoría: Actualidad, Historia y cultura, Sociedad y civilización, Tecnología
Por desgracia, ni es el primero ni será el último.
In memoriam vuelo 17 de Malaysian Airlines, derribado el 17 de julio de 2014 sobre la Cuenca del Donets, con 298 personas a bordo. Foto: © M. Zafriz, planespotters.net (Clic para ampliar)
Una vez más, nos han abatido a un amigo. Bueno, en esta ocasión, a 298 amigos. Eso lo convierte en el peor derribo de la historia, superando en ocho al que hasta ahora encabezaba tan infame lista: el Iran Air 655, destruido por el crucero USS Vincennes de la Armada de los Estados Unidos el 3 de julio de 1988, con 290 ocupantes. En esta ocasión la tragedia se ha cernido otra vez sobre Malaysia Airlines, que menudo añitolleva; como ya sabrás, a menos que hayas andado por la nube de Oort estos últimos días, el vuelo Malaysian 17 de Amsterdam a Kuala Lumpur cayó sobre la disputada cuenca del río Donets sobre las 16:20 (hora local) del pasado jueves. Según todos los indicios, reventado por un misil. Como te digo, no es el primero, ni mucho menos. Viene ocurriendo desde los tiempos de la Segunda Guerra Mundial, cuando los aviones civiles y militares empezaron a compartir el cielo a menudo. Los primeros fueron dos Junkers Ju-52de fabricación alemana, el 14 de junio y 26 de octubre de 1940, uno a manos de la Fuerza Aérea Soviética y otro de la Japonesa. Fue bastante lógico –que no bueno– porque los Ju-52 civiles se parecían mucho a sus versiones militares, tanto para transporte como los bombarderos que se estrenaron en la Guerra Civil Española, dando lugar a la expresiónarmas de destrucción masiva. De hecho, poco antes, el 30 de mayo y el 2 de junio de 1940 los cazas británicos y la defensa antiaérea sueca ya se habían cepillado sendos transportes militares nazis de este mismo modelo. Con una guerra de alcance planetario en marcha nadie miraba mucho el pelo de un Ju-52, a ver si era civil, militar o militarizable, y así comenzó la cosa.
- 242 -
La Pizarra de Yuri 3
Desde entonces, entre vuelos civiles y aviones de tipo comercial realizando misiones militares, ha ocurrido al menos325 veces tanto en tiempos de paz, como de guerra, como cualquiera de los tonos de gris que hay en medio. El primero así gordo para los criterios de su época fue el vuelo regular británico BOAC 777-A de Lisboa a Bristol, un DC-3abatido en el Golfo de Vizcaya por ocho cazabombarderos nazis Junkers Ju88 el 1 de junio de 1943. Perecieron sus 17 ocupantes, entre ellos el actor Leslie Howard, el destacado sionista Wilfrid B. Israel, un presunto agente especial inglés y dos niñas de 11 años y 18 meses. Hubo muchas conjeturas sobre los motivos de este derribo, pero los pilotos alemanes que lo ejecutaron declararían después que simplemente nadie les informó de que había un vuelo civil programado en el sector y lo tomaron por un transporte militar. Al igual que ocurriera con los Ju-52, a los DC-3 también se les daba un uso bélico extensivo, por lo que la confusión estaba de nuevo asegurada.
Probablemente, el primer avión de pasajeros derribado por un misil fue un Tupolev 104A como este: el vuelo Aeroflot 902 de Jabárovsk a Moscú con escalas en Irkutsk y Omsk. Según reconocieron bastante más tarde las autoridades soviéticas, fue abatido accidentalmente durante unas maniobras militares en la Marca de Krasnoyark, el 30 de junio de 1962. Murieron sus 84 ocupantes. Imagen: Wikimedia Commons. (Clic para ampliar)
El primero que cayó al sobrevolar una zona conflictiva sin tener nada que ver con el asunto fue un vuelo checo de Praga a Israel vía Roma y Atenas. Aproximándose a Atenas, se perdió en las nubes y lanzó una bengala para dejarse ver. Los griegos, que andaban de guerra civil, lo tomaron por una amenaza y le zumbaron con artillería antiaérea. Perecieron las 24 personas que iban a bordo. Otro muy destacado fue el vuelo israelí El Al 402 de Londres a Tel Aviv con escalas en Viena y Estambul. Se trataba de un Lockheed L-049 Constellation, la versión civil del transporte militar C-69, con 51 pasajeros y 7 tripulantes. Debido a un error de navegación se metió en espacio aéreo
- 243 -
Antonio Cantó
búlgaro el 27 de julio de 1955, al otro lado del Telón de Acero, en plena Guerra Fría. Un par de cazas MiG-15 subieron a por él. Como suele suceder en estos casos, hay dos versiones de lo que ocurrió a continuación; pero parece ser que elConstellation no obedeció las órdenes de los cazas, o no lo hizo a plena satisfacción de sus pilotos, y al final acabó derribado con fuego de ametralladora. También fallecieron todos sus ocupantes. Misiles contra civiles. Con la aparición de los misiles comenzaron los derribos de aviones comerciales sin comerlo ni beberlo. Los misiles es que son un poco bordes. No les mola eso de suicidarse sin llevarse a alguien por delante. Mientras puedan localizar un blanco, intentarán ir a por su gaznate. Y esto fue lo que le pasó el 30 de junio de 1962 al Aeroflot 902 de Jabárovska Moscú (URSS), un Tupolev Tu104A inconfundiblemente civil. Se estrelló al Este de Krasnoyarsk con 84 personas a bordo, entre ellas 14 menores; no hubo supervivientes. Las Fuerzas Armadas Soviéticas reconocieron después con la boca chiquitina, chiquitina, que ignoraban dónde fue a parar un misil tierra-aire de largo alcance lanzado durante unas maniobras militares en el área. Cosa parecida se rumorea que le ocurrió el 11 de septiembre de 1968 al vuelo 1611 de Air France, un Caravelle III que cayó al Mediterráneo mientras viajaba de Córcega a Niza. A bordo iba todo un general y héroe de guerra, René Cogny, junto a 94 personas más. Las 95 murieron. El informe final achacó la catástrofe a un incendio de origen desconocido. Sin embargo, a principios de esta década comenzaron a salir informaciones de que pudo ser derribado accidentalmente por un misil en pruebas de las Fuerzas Armadas Francesas. Con gran renuencia París reabrió el caso en 2012, pero sigue en un limbo judicial. No obstante, hoy en día todas las bases de datos de seguridad aérea lo consideran efectivamente abatido por un misil. Por no extenderme hasta el agobio, nos limitaremos a comentar los derribos estrictamente civiles de los últimos cincuenta años con más de cincuenta ocupantes y una mayoría de ellos muertos. O sea, los gordos. Son los siguientes: Libyan Arab Airlines 114, derribado por la Fuerza Aérea Israelí en territorio ocupado por Israel.
- 244 -
La Pizarra de Yuri 3
El Libyan Arab Airlines 114 fue abatido por cazabombarderos israelíes F-4 Phantom II como el de la foto, actualmente convertido en monumento a la salida de la Escuela de Aviación Militar de Naot Lon, en Beerseba. Debido a la tensa relación entre Israel y los países árabes, sus pilotos decidieron desobedecer a los cazas Phantom, por lo que fueron derribados. Dieciocho años antes el avión de pasajeros israelí El Al 402 había hecho lo mismo sobre Bulgaria y resultó igualmente destruido por cazas MiG-15. Sin embargo, el Libyan 114 fue el último avión comercial derribado “a la antigua”, con fuego de cañón ametrallador. Llegaba la era de los misiles. Imagen: Wikimedia Commons. (Clic para ampliar)
• • • • • •
Lugar: Península del Sinaí(conquistada por Israel en aquellas fechas.) Fecha/hora: 21 de febrero de 1973, poco después de las 14:00 hora local. Aeronave: Boeing 727-224, matrícula 5A-DAH (Libia). Tipo: Vuelo regular internacional de pasajeros. Ruta: Trípoli–Cairo vía Bengasi. Contexto: Entre la Guerra de los Seis Días y la Guerra del Yom Kippur, con Israel y Egipto técnicamente en guerra; sin combates en ese momento, pero en alto estado de alerta.
•
Derribado por: 2 cazabombarderosF-4 Phantom II de fabricación estadounidense con sus cañones ametralladores, autorizados porDavid Elazar, comandante en jefe de las Fuerzas de Defensa de Israel.
•
Detalles: Debido a una fuerte tormenta de arena que les dejó sin visibilidad y un error de navegación, el vuelo 114 de Libyan Arab Airlines penetró en espacio aéreo israelí desde Egipto sobre las 13:54 hora local. Sin saberlo, se dirigió además hacia la Central Nuclear de Dimona, el centro de producción de los materiales - 245 -
Antonio Cantó
•
especiales para las armas atómicas israelís. Dos cazabombarderos F-4 Phantom II salieron a interceptarlo. Al igual que hiciera el El Al 402 de 1955 en Bulgaria, los pilotos del Libyan 114 decidieron ignorar sus instrucciones e intentar el regreso a Egipto. Los cazabombarderos israelís lo derribaron con fuego de cañón ametrallador. Gracias a un aterrizaje de emergencia in extremis hubo 5 supervivientes, incluyendo al copiloto, quien declaró que no habían obedecido las órdenes debido a la mala relación entre los países árabes e Israel. Fue el último gran derribo civil a la antigua, a balazos. Resultado: Avión destruido, 108 personas muertas, 5 supervivientes. Sin consecuencias negativas para los autores. Finalmente, Israel indemnizó a las familias de las víctimas y Moshé Dayan calificó lo sucedido como “un error de juicio.”
Air Rhodesia 825, derribado por la guerrilla ZIPRA en Rodesia, hoy Zimbabue. • • • • • •
• •
Lugar: Al Oeste de Karoi (entonces Rodesia, ahora Zimbabue) Fecha/hora: 3 de septiembre de 1978, sobre las 17:00 hora local. Aeronave: Vickers Viscount 782D, matrícula VP-WAS (colonias del Reino Unido). Tipo: Vuelo regular nacional de pasajeros. Ruta: Victoria Falls–Salisbury (hoy Harare) vía Kariba. Contexto: Guerra del Matorral, un conflicto extremadamente brutal entre las mayorías negras y el gobierno y colonos blancos de Rodesia. La aerolínea de bandera Air Rhodesia estaba fuertemente identificada con el estado y la élite blanca. Derribado por: Guerrilleros del ZIPRA con un misil antiaéreo portátil modelo Strela-2 (SA-7), de fabricación soviética. Detalles: Cinco minutos después de despegar de Kariba, durante el ascenso, guerrilleros emboscados en el matorral dispararon un misil portátil de guía infrarroja Strela-2 contra el vuelo 825. Le alcanzó en el ala de estribor, causándole gravísimos daños y obligándole a realizar un aterrizaje forzoso en el que murieron 38 de los 56 ocupantes. Los guerrilleros mataron con armas automáticas a los 10 supervivientes que encontraron al llegar al lugar del impacto. Otros 8 lograron ocultarse o escapar. Fue el primer avión comercial derribado por un misil lanzado desde el hombro (MANPADS.)
•
Resultado: Avión destruido, 48 personas muertas, 8 supervivientes. El gobierno tomó represalias igualmente sangrientas, que condujeron, entre otras consecuencias, al siguiente caso:
- 246 -
La Pizarra de Yuri 3
Air Rhodesia 827, derribado por la guerrilla ZIPRA en Rodesia, hoy Zimbabue.
Aunque actualmente obsoleto para la mayoría de situaciones, el MANPADS soviético 9K32 “Strela-2” (en la imagen) ha sido “el Kalashnikov de los antiaéreos” en numerosos conflictos del mundo. Pertenece a la misma generación que los FIM-92 “Stinger” estadounidenses originales. Actualmente existen armas de este tipo mucho más modernas, como la Igla-S rusa, el Starstreak británico, las últimas versiones del Stinger o los nuevos modelos chinos. Todas estas armas se conocen genéricamente como MANPADS (“man-portable air defense systems”). Imagen: Wikimedia Commons. (Clic para ampliar)
• • • • • • • •
•
Lugar: Área de Vuti (entonces Rodesia, ahora Zimbabue) Fecha/hora: 12 de febrero de 1979, sobre las 17:00 hora local. Aeronave: Vickers Viscount 748D, matrícula VP-YND (colonias del Reino Unido). Tipo: Vuelo regular nacional de pasajeros. Ruta: Kariba–Salisbury (hoyHarare.) Contexto: Guerra del Matorral, tras feroces represalias a consecuencia del derribo anterior. Derribado por: Guerrilleros del ZIPRA con otro misil antiaéreo portátil modelo Strela-2, de fabricación soviética. Detalles: Era, básicamente, el mismo vuelo con otro avión. Mientras despegaba de Kariba, durante el ascenso, los guerrilleros le lanzaron un segundo misil portátil de guía infrarroja Strela-2. Esta vez, el avión atacado sufrió daños fatales y se estrelló sin más. Resultado: Avión destruido, 59 personas muertas, sin supervivientes. Las guerrillas terminaron ganando el conflicto, así que los autores no sufrieron consecuencias por estos hechos.
Itavia 870, derribado por la OTAN en el Mar Tirreno, Mediterráneo. • • • • •
Lugar: Mar Tirreno, frente a las costas italianas, cerca de Ustica. Fecha/hora: 27 de junio de 1980, sobre las 21:00 hora local. Aeronave: DC-9-15, matrícula I-TIGI (Italia). Tipo: Vuelo regular nacional de pasajeros. Ruta: Bolonia–Palermo.
- 247 -
Antonio Cantó
• • •
•
Contexto: Unas oscuras operaciones de la OTAN en el Mar Mediterráneo, probablemente relacionadas con Libia. Derribado por: La Armada Francesa, parte del componente naval de la OTAN en el sector, con un misil tiera-aire. Detalles: Los detalles de este caso, cuidadosamente encubiertos durante décadas, son todavía muy turbios. El ex Presidente de Italia Francesco Cossiga (Democracia Cristiana, derecha) ha reconocido que el Itavia 870 fue destruido accidentalmente por un misil lanzado desde un buque de la Armada Francesa en el contexto de una operación de la OTAN destinada a asesinar al coronel Gadaffi (palabras textuales del ex Presidente Cossiga, citado por el Corriere della Sera.) Los tribunales italianos han condenado al estado a indemnizar a las familias por “no garantizar la seguridad del vuelo”, a cargo del contribuyente. El derribo del Itavia 870 se considera relacionado con el incidente del MiG-23 de Castelsilano y con aspectos todavía secretos de laOperación Gladio. Resultado: Avión destruido y sumergido, 81 personas muertas, sin supervivientes. Jamás se ha establecidoninguna responsabilidad particular ni ha habido consecuencias para ninguna persona o entidad específica. El estado italiano terminó indemnizando a las familias de las víctimas décadas después.
Lo ocurrido al Itavia 870 fue uno de los grandes misterios de los “años del plomo” de la guerra sucia en Europa. Se estrelló en el Mar Mediterráneo el 27 de junio de 1980, con 81 personas a bordo. No fue hasta bien entrado el siglo XXI que las autoridades y la judicatura italianas reconocieron que había sido derribado por un misil de la Armada Francesa durante unas oscuras operaciones de la OTAN, probablemente contra Libia. El estado italiano terminó asumiendo las indemnizaciones. Nadie ha sido procesado por estos hechos. Imagen: W. Fischdick vía Wikimedia Commons.
Korean Air Lines 007, derribado por la Fuerza Aérea Soviética en aguas probablemente soviéticas.
- 248 -
La Pizarra de Yuri 3
Arriba a la izda.: muchos años después, el teniente coronel (ya retirado) de la Fuerza Aérea Soviética Gennady Osipovich explica cómo derribó al vuelo KAL007 en la madrugada del 1 de septiembre de 1983. En entrevistas posteriores ha afirmado “tener pesadillas” por lo sucedido, pero al mismo tiempo sigue convencido de que el Jumbo surcoreano había sido modificado para actuar como avión espía. Arriba a la dcha.: Un Boeing 747 Jumbo de Korean Air Lines similar al abatido. Abajo: Mapa del sector el 1 de septiembre de 1983. Pueden observarse las zonas sumamente críticas que había sobrevolado y se disponía a sobrevolar. Imágenes: Wikimedia Commons. (Clic para ampliar)
•
• • • •
Lugar: Cerca de la Isla Moneron, frente a las costas de Sajalín, URSS (actualmente Rusia.) Se discute si ocurrió exactamente dentro o fuera del espacio aeronaval soviético. Fecha/hora: 1 de septiembre de 1983, 05:26 hora local. Aeronave: Boeing 747-230BJumbo, matrícula HL7442 (Corea del Sur). Tipo: Vuelo regular internacional de pasajeros. Ruta: Nueva York–Seúl víaAnchorage (Alaska.)
- 249 -
Antonio Cantó
• •
•
Contexto: Momento extremadamente tenso de la Guerra Fría, que llegó a estar muy cerca de la guerra nuclear. Derribado por: Grupo de cazas de combate de la Fuerza Aérea Soviética, y específicamente por un interceptor Sukhoi Su-15, con misiles aire-aire Kaliningrad K-8(AA-3). El Su-15 estaba pilotado por el mayor (después teniente coronel) Gennady Osipovich, a las órdenes del general Anatoli Korkunov (báse aérea de Sokol), a su vez a las órdenes del general Valeri Kamensky (comandante de la defensa aérea del Distrito Militar del Lejano Este), bajo el mando de los generales Ivan Moiseevich Tretyak (comandante del Distrito Militar del Lejano Este) y Vladimir L. Grovov (comandante del Teatro de Operaciones del Lejano Este.) Detalles: Al partir de Alaska, los pilotos del Jumbo sudcoreano configuraron erróneamente el modo de navegación del autopiloto. Por ello, volando de noche, el avión se desvió más de 300 km de su ruta sin que se diesen cuenta. Desafortunadamente, penetró en la Unión Soviética por un punto muy cercano a una de las dos bases principales de submarinos atómicos SSBN/PLARB. A continuación siguió avanzando hacia la región estratégica de Vladivostok, sede de la Flota del Pacífico. En el contexto de extrema tensión indicado anteriormente, la respuesta de la cadena de mando soviética ante esta “doble penetración” puede calificarse de histérica o cuanto menos paranoica, tremendamente agresiva. Aunque realizaron algunos intentos para identificar al intruso, y el mayor Osipovich asegura haberle hecho al menos dos advertencias distintas (en condiciones de muy mala visibilidad), el estado mental de todos los implicados evolucionó rápidamente hacia la decisión de abrir fuego antes de que abandonara el espacio aéreo de la URSS. Posteriormente, las autoridades soviéticas ocultaron diversos aspectos del derribo, hasta que Yeltsin abrió los archivos en 1993. De la grabación de la caja negra se deduce que los pilotos surcoreanos, entretenidos con una conversación privada, nunca fueron conscientes de nada de lo que ocurría a su alrededor y quedaron totalmente sorprendidos al constatar cómo perdían el control del avión debido al impacto de los misiles.
•
Resultado: Avión destruido y sumergido, 269 personas muertas, sin supervivientes. Tanto el mayor Osipovich como sus superiores fueron premiados por sus acciones y el general Korkunov, en particular, terminaría siendo comandante de la Fuerza Aérea Rusa; falleció el pasado 1 de julio a los 72 años de edad. Korean Air Lines pagó la indemnización a las familias de las víctimas.
Tres derribos con misiles portátiles (1985-1987):
- 250 -
La Pizarra de Yuri 3
•
•
•
Un Antonov An-26 de Bakhtar Afghan Airlines (matrícula YA-BAM, Afganistán) abatido el 4 de septiembre de 1985 por las guerrillas islamistas antisoviéticas con un misil estadounidense Stinger, mientras despegaba deKandahar. Avión destruido, 52 personas muertas, sin supervivientes. Un Fokker F-27 de Sudan Airways (matrícula ST-ADY, Sudán) caído el 16 de agosto de 1986 a manos delEjército de Liberación del Pueblo de Sudán con un misil soviético Strela, al despegar de Malakal. Avión destruido, 60 personas muertas, sin supervivientes. Otro Antonov An-26 de Bakhtar Afghan Airlines (matrícula YA-BAL, Afganistán) derribado el 11 de junio de 1987 por las guerrillas islamistas antisoviéticas con un Stinger, cerca de Jost. Avión destruido, 53 personas muertas, 2 supervivientes.
Iran Air 655, derribado por la Armada de los Estados Unidos en aguas iranís.
El Centro de Información de Combate (Aegis) del USS Vincennes (CG-49), de la clase Ticonderoga, en 1988. Este fue el lugar exacto desde donde se derribó al vuelo Iran Air 655, que con 290 personas muertas fue el peor de la historia hasta el Malaysian 17 de esta semana pasada. Imagen: Armada de los Estados Unidos. (Clic para ampliar)
•
Lugar: Estrecho de Ormuz, Golfo Pérsico, frente a la Isla de Queshm(Irán.)
•
Fecha/hora: 3 de julio de 1988, 10:24 hora local. Aeronave: Airbus A300B2-203, matrícula EP-IBU (Irán).
•
- 251 -
Antonio Cantó
• • •
•
•
•
Tipo: Vuelo regular internacional de pasajeros. Ruta: Bandar Abbás–Dubai. Contexto: Guerra Irán-Iraq, inmediatamente después de laOperación Praying Mantis, con Estados Unidos apoyando poco disimuladamente a Sadam Husein contra el Ayatolá Jomeini. Las fragatas norteamericanas USS Sides yUSS Elmer Montgomery se encontraban en la zona, a poca distancia del crucero de misiles USS Vincennesde la clase Ticonderoga (con Aegis). Al menos el USS Vincennes había penetrado ilegalmente en aguas iraníes y acababa de librar un combate a tiros contra lanchas de este país. Por tanto, el estado de ánimo a bordo era de extrema alerta y agresividad. Derribado por: 2 misiles superficie-aire SM-2MR disparados desde el crucero USS Vincennes de la Armada Estadounidense, siguiendo órdenes de su capitán William C. Rogers III, conocido por su elevada belicosidad personal (hasta el punto de que este buque sería luego apodado el Robocrucero, por Robocop.) Detalles: Mientras el Iran Air 655 ascendía normalmente desde Bandar Abbás, fue detectado por el USS Vincennes, que acababa de entrar en combate contra lanchas iraníes. Pese a que el Airbus circulaba por una aerovía internacional establecida (Amber 59) e iba transmitiendo su squawk en modo III como de costumbre, el Centro de Información de Combate del buque lo catalogó como un F-14 Tomcat iraní disponiéndose a atacar. Intentaron ponerse en contacto varias veces con él, pero debido a diferencias en la lecturas de posición y velocidad, a los pilotos del Airbus no les pareció que se dirigieran a ellos y no contestaron. Inmediatamente, y pese a que el Airbus continuaba ascendiendo en línea recta (y no estabilizándose o descendiendo para atacar, ni intentando pasar desapercibido, que sería lo lógico) el capitán Rogers ordenó abatirlo. Resultado: Avión destruido y sumergido, 290 personas muertas, sin supervivientes. Los autores fueron condecorados y ascendidos con posterioridad. Estados Unidos pagó indemnizaciones a las familias de las víctimas, pero sin disculparse. Fue el peor caso de todos, por número de fallecidos, hasta esta semana pasada.
(Omito aquí el derribo del Tu-154 de Orbi Georgian en Abjasia, el 22 de septiembre de 1993, por tratarse en realidad de un transporte de tropas georgianas en avión comercial para la Guerra de Abjasia que se libraba en la región; estamos hablando de derribos de aeronaves estrictamente civiles desempeñando funciones estrictamente civiles. Pero cayeron los 132 que iban a bordo. Dado que la guerrilla abjasia ganó el conflicto, tampoco hubo persecución de los autores.)
- 252 -
La Pizarra de Yuri 3
Lionair 602, derribado por los Tigres de Liberación del Eelam Tamil en Sri Lanka (dudoso.) • • • • • • • •
•
Lugar: Frente a las Islas de Iranativu (Sri Lanka.) Fecha: 29 de septiembre de 1998. Aeronave: Antonov An-24RV, matrícula EW-46465 (Bielorrusia, en leasing). Tipo: Vuelo regular nacional de pasajeros. Ruta: Jaffna–Colombo. Contexto: Guerra civil de Sri Lanka. La guerrilla tamil acusaba a Lionair de cooperar extensivamente con las fuerzas armadas gubernamentales. Derribado por: Dudoso. Probablemente, misiles ligeros de infantería (MANPADS) disparados por los Tigres de Liberación del Eelam Tamil. Detalles: El avión se perdió en el mar diez minutos después de despegar de Jaffna. Los restos no aparecieron hasta 2012. Aparece en las bases de datos de seguridad aérea como abatido con misiles tierra-aire. Resultado: Avión destruido y sumergido, 55 personas muertas, sin supervivientes. Se desconoce la identidad exacta de los autores materiales.
Siberia Airlines 1812, derribado por la Defensa Aérea de Ucrania en el Mar Negro.
Misil de un sistema antiaéreo de largo alcance S-200 Vega como el que derribó al Siberian 1812, en el Museo Técnico Militar Lešany (Chequia.) Imagen: Wikimedia Commons. (Clic para ampliar)
•
Lugar: Mar Negro, ZEE de Rusia, 190 km al OSO de Sochi.
•
Fecha/hora: 4 de octubre de 2001, sobre las 13:45 hora local.
- 253 -
Antonio Cantó
• • • •
• •
•
Aeronave: Tupolev Tu-154M, matrícula RA-85693 (Rusia). Tipo: Vuelo regular internacional de pasajeros. Ruta: Tel Aviv–Novosibirsk. Contexto: Menos de 1 mes después de los atentados del 11-S. La Defensa Aérea de Ucrania estaba realizando maniobras militares con misiles tierra-aire de medio y largo alcance. Derribado por: Misil de un sistema S-200 de la Defensa Aérea de Ucrania. Detalles: La Defensa Aérea de Ucrania disparó un misil del sistema S-200 contra un blanco de maniobras desde el Cabo Onuk, Crimea. Sin embargo, este blanco había sido previamente abatido por un S-300 de la misma nacionalidad. Al no encontrar un objetivo, en vez de autodestruir el misil, el S-200 se reblocó automáticamente contra lo “siguiente que vio”: el Siberian 1812, alcanzándolo poco después. Resultado: Avión destruido y sumergido, 78 personas muertas, sin supervivientes. Al principio Ucrania negó los hechos y sólo pagó indemnizaciones ex gratia a los familiares. Finalmente lo reconoció, abonando indemnizaciones adicionales. No obstante, los tribunales ucranios siguen negándose a dar la razón a las familias y entidades demandantes. Se ignora si algún militar ucranio tuvo problemas a consecuencia de este suceso.
Entre estos, que son los gordos, ha habido una constante llovizna de otros más pequeños o de “civilidad” dudosa con los que no te voy a saturar, hasta sumar casi 2.000 muertos. Como puede verse, la práctica de derribar aviones de pasajeros cargados de civiles inocentes sin que haya consecuencias negativas para los autores, sino más bien todo lo contrario, está bien extendida y establecida desde mediados del siglo pasado. Y ahora, otro. :-( Que, si tiene alguna consecuencia, sólo será porque esta vez los autores podrían ser unos muertos de hambre. Me gustaría agrupar todos estos casos en un pequeño esquema sistemático, para aclararnos un poco: •
Derribos deliberados:
1.
Por voluntad expresa, al considerar a la aerolínea o sus ocupantes parte del enemigo o combatiente de facto: Air Rhodesia 825 (ZIPRA, 1978) y 827 (ZIPRA, 1979); los dos An-26 de Bakhtar Afghan (islamistas antisoviéticos, 1985 y 1987); el Fokker F-27 de Sudan Airways (ELPS, 1986); Lionair 602 (tamiles, 1998).
2.
Por voluntad expresa, al negarse la aeronave civil a obedecer órdenes : El Al 402 (Bulgaria, 1955); Libyan Arab Airlines 114 (Israel, 1973).
- 254 -
La Pizarra de Yuri 3
3.
Por confusión en la toma de decisiones y/o amenaza percibida del blanco, en un contexto de elevada tensión y hostilidad: Korean Air Lines 007 (URSS, 1983); Iran Air 655 (EEUU, 1988). 4. Por causas aún secretas o no lo bastante conocidas: en parte, Itavia 870 (OTAN, 1980, en lo que hace a los motivos exactos de que hubiera misiles volando en el área.) Y aparte, está el extraño caso del Malév 240 (1975), que permanece bajo secreto de estado tanto de Hungría como de cualquier otro actor implicado (ver preguntas del eurodiputado Erik Meijer a la Comisión Europea sobre este suceso.) •
Derribos por error:
1.
Por misiles perdidos que se blocaron o reblocaron contra el avión
comercial: Aeroflot 902 (URSS, 1962); Air France 1611 (Francia, 1968); Itavia 870 (OTAN, 1980, en lo que respecta a la causa inmediata del derribo); Siberia Airlines 1812 (Ucrania, 2001). 2. Por error simple de identificación, confundiéndolo con una aeronave enemiga: Vuelo checo a Atenas (Grecia, 1948); Bueno, y este rollo que te acabo de meter, ¿a qué viene? Pues viene a que estoy intentando encontrar algo de racionalidad a través de la asfixiante humareda de propaganda que venimos padeciendo desde que el Malaysian 17 se desplomó de los cielos; y ya que estoy, pues te lo ofrezco a ti también por si te sirve de algo. Veamos: como es obvio, nadie derriba deliberadamente grandes aviones de pasajeros contra los que no tiene nada en particular por mera maldad o porque se le pone en la horcajadura. Incluso aunque seas muy, muy malo y muy, muy chulo, no lo haces sin un motivo mínimamente racional. La única alternativa es que estés francamente colocado, como la gente sin duda se suele colocar en las guerras, pero eso sólo funciona bien para violar y degollar, no para manejar equipo antiaéreo con éxito. De hecho, ya lo ves: no hemos encontrado ni un solo caso de alguien que abatió un avión comercial simplemente porque le salió de la anatomía habitual. Siempre hay un motivo, una razón, o al menos un método en la locura. En el caso del Malaysian 17, no hay ningún motivo obvio por el que Ucrania, Rusia o los rebeldes del Donetsk quisieran tumbar un avión de la otra punta del mundo, sin nada que ver en sus asuntos.
- 255 -
Antonio Cantó
Una de las fotos que han circulado de TELAR (“transporter-erector-launcher-radar”) Buk-M1 en manos de las guerrillas de la Cuenca del Donets. Según algunas fuentes, podrían haber sido capturados en la base A1402 del 156º Regimiento de la Defensa Aérea Ucrania, sita junto al aeropuerto de Donetsk. En ausencia del resto de componentes del sistema Buk, un TELAR puede abrir fuego contra aeronaves en vuelo, pero con capacidades muy limitadas de discriminación, identificación y seguimiento. Imagen: supuestamente originada en cuentas de las redes sociales de Internet de los gerrilleros del Donbass.
Lo que nos conduce al derribo por error. Y, en este caso, aquí sí que hay mucho margen. Las armas que son capaces de atacar blancos más allá de lo que ve el ojo humano –eso que los anglos llaman beyond visual range (BVR)– son especialmente proclives a provocar este tipo de tragedias. Porque tú, el humano que tomas las decisiones, no ves realmente, no sabes realmente lo que estás atacando. Dependes de unos medios técnicos que pueden funcionar mejor o peor, que puedes dominar mejor o peor, que puedes interpretar mejor o peor. Y una vez le sueltas el bozal al misil, allá va. Como consecuencia, los casos defuego amigo se suceden sin parar. Esto del fuego amigo es como los goles en propia puerta, y viene ocurriendo desde que hay armas lanzables. Pero con la llegada de la artillería, de la aviación y de las armas BVR, se multiplicó hasta extremos de humor negro. En guerras recientes, las fuerzas occidentales –que tiran a saco de beyond visual range en todas sus formas– han tenido muchas más bajas por fuego amigo que por fuego enemigo. Me vienen ahora a la memoria varios casos, pero sobre todo dos que me llamaron especialmente la atención:
- 256 -
La Pizarra de Yuri 3
1.
El derribo de dos helicópteros Black Hawk sobre Iraq en 1994. Ni identificación amigo-enemigo ni leches en vinagre. Dos F-15 americanos tomaron a esos Black Hawks americanos cargados de tropas y personal por Hindsiraquíes, y les clavaron sendos misiles americanos AMRAAM y Sidewinder bajo la atenta –y lejana– mirada de unAWACS igualmente americano. Fue un día de esos en los que todo sale mal, con numerosas descoordinaciones y confusiones. No hubo un solo superviviente. 2. Veinte años después, el pasado 9 de junio, un comando de fuerzas especiales estadounidenses pidió cobertura aérea contra unos talibanes que les estaban dando caña. Vino un bombardero supersónico pesado B-1B Lancer yvoló estupendamente… al comando americano, pese a que contaban con toda clase de medios avanzados para comunicar su posición y la del enemigo. Me imagino la cara de los talibanes ante semejante espectáculo. No son, ni muy de lejos, los dos únicos Hay decenas, cientos. Cuando no puedo ver lo que mato, es fácil que me cargue a alguien que no me quiero cargar. Si además hay civiles alrededor, jugando a la pelota en un callejón tercermundista o viendo pelis en sus sistemas de entretenimiento personal a bordo de un avión, es seguro que van a ocurrir tragedias. Ahora imagínate eso mismo en un confuso entorno de guerra irregular, con tropas irregulares de cualificación desconocida, medios técnicos limitados e incluso incompatibles, y ciegos de adrenalina como mínimo. Bueno, no, no necesitas imaginártelo. Es, en mi opinión, lo que acabamos de ver en el Donbass. Creo que, en esencia, estamos ante otro desastre de la guerra como este que ya te conté. Por lo demás, lo de siempre: el miedo, el odio, la codicia, la estupidez. Y sus mercaderes, los que se hacen de oro vendiendo todo eso. >:-( Ah, sí, otra cosita: por supuesto, quien tiene que saber lo que ha pasado con el Malaysian 17 ya lo sabe. Las señales de estos sistemas se captan desde muy, muy lejos, sobre todo en una región tan exhaustivamente monitorizada por diversas potencias como es ahora esa. Si hoy en día quieres operar lanzamisiles guiados por radar sin que te tomen la matrícula y la talla del cuello, siempre puedes intentarlo por donde se perdió el otro Malaysian, a ver si hay suerte y no te pilla ningún satélite SIGINT. Otra cosa es lo que ya cada órbita de propaganda le quiera contar a su plebe, o sea tú y yo. O, al menos, yo. Y… ¿se puede impedir?
- 257 -
Antonio Cantó
Componente del sistema de defensa Guardian contra misiles ligeros para aviones civiles, montado experimentalmente bajo un MD-11. Algunas aerolíneas de alto riesgo y aeronaves VIP utilizan esta clase de equipos, pero tienen muchas limitaciones (ver texto.) Imagen: Wikimedia Commons.
Poderse, se puede… un poco. Existen sistemas de contramedidas para aviones civiles como el Guardian, el CAMPS o elFlight Guard. Algunas VIPs de esas los llevan instalados en sus aviones particulares, así como ciertas compañías de riesgo particularmente alto, como las israelíes. Sin embargo, la mayor parte de estos equipos sólo te defienden de los misiles portátiles con guía infrarroja más básicos. Existen otras cosas de alta gama para auténticas VVIPs que, con suerte, podrían protegerte de algo como un Buk. Pero como tu incidente se parezca al del Iran Air 655, con una superpotencia lanzándote misiles pesados de alta tecnología, o te encuentres con cazas de combate modernos dispuestos a borrarte, todas estas contramedidas civiles hacen un escudo tan bueno como la tapa del retrete frente a una ametralladora. Los grandes aviones de pasajeros tampoco pueden maniobrar como un caza de combate mientras aplican toda clase de contramedidas pasivas y activas. Ni volar siempre bajo la
- 258 -
La Pizarra de Yuri 3
protección de una cúpulaC4ISR, como sí hacen normalmente las fuerzas militares serias. Y resulta que los misiles modernos están concebidos para pelear contra fuerzas militares serias, con sus contramedidas, sus redes C 4ISR, su supresión de defensas antiaéreas y demás. Los aviones civiles son eso, civiles, con medios civiles. Enfrentados a esta clase de misiles, es como si un civil cualquiera se ve metido en una pelea callejera con un comando spetsnaz listo para el combate. Las contramedidas diseñadas para aeronaves civiles mejoran tanto la situación como si en la susodicha bronca callejera fueses cinturón negro de algo, frente al mismo grupo spetsnaz con todo su arsenal. O sea, que estás frito igual. Además son caras, y luego sale más caro aún mantenerlas actualizadas, porque constantemente salen sistemas antiaéreos nuevos, con guías mejores, capacidades distintas y mayor resistencia a las contramedidas. Exigiría que los fabricantes de aviones comerciales y las compañías aéreas se lanzasen a una carrera armamentística análoga a la de los militares, con costes parecidos. Costes que, por supuesto, repercutirían al instante en el precio de los pasajes. Y la aviación comercial, en estos momentos, no está para semejantes trotes. En realidad, lo que pasa es eso, que somos civiles. Enfrentados a una fuerza militar que se dispone a matarnos, deliberadamente o por error, no tenemos ninguna oportunidad. Como suele decirse, en toda guerra están los buenos, los malos y el paisaje, y el que sale siempre peor parado es el paisaje. Los buenos y los malos son, por supuesto, los que decida tu Ministerio de la Verdad correspondiente y sus medios de comunicación: Eurasia, Eastasia, Oceanía, quien sea. El paisaje somos tú, yo y gente como la que viajaba en el Malaysian 17. O los otros inocentes que estaban/están debajo y que siguen muriendo hoy.
- 259 -
Antonio Cantó
Brotes de rayos gamma Yuri, el 6 de julio de 2014 @ 18:01 · Categoría: Ciencia popular
Las explosiones más energéticas del universo conocido ocurren a diario pero siguen siendo, en gran medida, un misterio.
El brote de rayos gamma GRB 080319B provocó el suceso más luminoso del universo conocido hasta la actualidad (en el espectro óptico) sobre las 06:12 UTC del 19 de marzo de 2008. Su “afterglow” (ver texto) pudo verse por la Constelación de Boötes con el ojo desnudo durante unos 30 segundos (magnitud aparente: 5,8) desde… 7.500 millones de años luz (z = 0,937). Con toda seguridad habrá habido otros muchos antes, pero fue la primera vez que supimos lo que estábamos viendo. Así, es también el suceso más remoto observado jamás por un ojo humano sin ayuda alguna, siendo consciente de tal hecho. Normalmente, el objeto más lejano que puede verse sin instrumentos es la Galaxia del Triángulo, a 2.900 millones de años-luz. Imágenes captadas por el Telescopio de Rayos X (izda.) y el Telescopio Óptico-Ultravioleta (dcha.) del Observatorio Espacial Swift (NASA/GSFC). (Clic para ampliar)
Imagínate una explosión. Una gorda. Gordísima. ¿Como la bomba Zar (~2,1 x 1017 J) o la erupción del Krakatoa (~8 x 1017J)? No, no, qué va. Eso son petardillos. ¿Quizá como el impacto que se cargó a los dinosaurios (~5 x 10 23 J)? Ni de lejos. Mucho más. Bueno, pues… ¿qué tal una supernova (~1 foe, o 1044 J)? ¡Ahora empezamos a entendernos! Por ahí empiezan a andar losbrotes de rayos gamma (GRB), que vienen a ser como esto de los brotes verdes, pero aún más a lo bestia. Algunos, como GRB 080916C, detectado en la constelación deCarina el 16 de septiembre de 2008, llegan a los 8,8 x 1047 J; lo que los convierte en los fenómenos más energéticos del universo presente, en competencia directa (y seguramente vinculados con) algunas hipernovas. El descubrimiento de los brotes de rayos gamma fue casual, derivado de los miedos de la Guerra Fría. Los Estados Unidos temieron que la Unión Soviética pudiera realizar pruebas atómicas en el espacio tras la firma del Tratado de prohibición parcial de ensayos nucleares de 1963, así que lanzaron unos satélites para saber si tal cosa sucedía. Estos fueron los satélites Vela (del español velador, término con el que se conoce popularmente en Nuevo México a los vigilantes nocturnos), con detectores para captar
- 260 -
La Pizarra de Yuri 3
las potentes emisiones de rayos X, gamma y neutrones que caracterizan a las explosiones atómicas. Pero, un momento: ¿qué es esto de los rayos gamma? De los espectros de la luz y sus colores. Ya te conté en este blog lo que es la radiactividad. También hemos tocado alguna vez, aunque más por encima, lo del espectro electromagnético. Verás: hay un montón de fenómenos en este universo que son capaces de emitirfotones, en forma de ondas electromagnéticas, a frecuencias muy distintas. La forma más conocida de radiación electromagnética es la que pueden ver nuestros ojos: la luz. Otra que también conocemos todos es la radio. Y seguro que también te suenan los rayos X, que se usan para hacer radiografías.
- 261 -
Antonio Cantó
El espectro electromagnético.
Todos estos fenómenos son exactamente lo mismo: radiación electromagnética, a distintas frecuencias de onda. Por ejemplo, la radio funciona a frecuencias más bajas que la luz, mientras que los rayos X lo hacen a frecuencias más altas. Nuestros ojos no son más que receptores de esta radiación electromagnética, pero sólo pueden captarla en ese estrecho rango de frecuencias entre (más o menos) 390 y 700nanómetros (nm) al que llamamos “luz.” Y los colores son las distintas frecuencias de este rango que podemos ver. Por ejemplo, si la luz que llega a nuestros ojos lo hace en la parte baja de estas frecuencias, en torno a los 700 nm, la vemos de color rojo. Si, por el contrario, está en la parte alta, vemos el color añil (420 – 450 nm) o incluso elvioleta (380 – 420 nm). Entre medias están, por ejemplo, el amarillo (570 – 590 nm), el verde (495 – 570 nm) o el azul (450 – 495 nm). Así es como nuestros ojos ven el mundo que nos rodea, a todo color. ¿Y qué pasa cuando la frecuencia de esta radiación está por encima o por debajo de ese rango que podemos ver? Bueno, pues que… ya no podemos verla. :-P Nuestros ojos no dan para más. Pero eso no significa que no esté ahí, o que no podamos construir aparatos para captarla. Por ejemplo, un receptor de radio (o de televisión, o de telefonía móvil, o del Wi-Fi de Internet…) no es sino una especie de “ojo” que los humanos sabemos fabricar para “ver” esta “luz invisible” cuando su frecuencia es inferior a cienmicrómetros, y podemos usarla para transmitir cosas como el Sálvame, las solicitudes de aterrizaje al controlador de tráfico aéreo o nuestros mensajes del WhatsApp. El radar también funciona en este rango de frecuencias inferiores a las de la luz visible. O los microondas. Se da la circunstancia de que la frecuencia de estas ondas electromagnéticas está directamente relacionada con su energía. Cuanto más alta la energía, más alta la frecuencia, y viceversa. A frecuencias muy altas, por encima de la luz visible, los fotones vienen tan bravos que son capaces de ionizar la materia con la que se encuentran. Decimos entonces que esa radiación electromagnética se ha convertido en una forma de radiación ionizante, y esto son ya las cosas que hace la radiactividad. A energías y frecuencias muy altas, más allá de los rayos X, la llamamos radiación gamma, o rayos gamma. O sea, que los rayos gamma son como la luz, o las ondas de radio, sólo que a las energías y frecuencias más altas de todo el espectro electromagnético. En este caso, los aparatos adecuados para “verlos” son los contadores Geiger u otros dispositivos por el estilo. La anomalía Vela.
- 262 -
La Pizarra de Yuri 3
Hay diversos fenómenos capaces de producir rayos gamma, tanto naturales como artificiales. Entre ellos se cuentan, por supuesto, la detonación de armas nucleares, que los generan en cantidades enormes. Por esta razón, esos satélites Vela de los amerikantsy que te contaba al principio llevaban dispositivos para detectarlos y así saber si alguien se había saltado el tratado con una prueba atómica en el espacio. Y a las 14:19 UTC del 2 de julio de 1967, efectivamente, los satélites Vela 3 y Vela 4 detectaron una emisión masiva de rayos gamma. Sólo había un pequeño problema. Esta emisión no se parecía en nada a la de un arma nuclear, que suele consistir en uno o dos brevísimos pulsos con menos de una millonésima de segundo de duración y una milésima de separación. (En la práctica, con la tecnología de la época, incapaz de distinguir los dos rapidísimos pulsos de un arma termonuclear, un solo flash inicial seguido de un progresivo “fundido a negro.”) Pero lo que detectaron Vela 3 y 4 era algo totalmente distinto: dos pulsos, el primero de un cuarto de segundo largo y el siguiente de dos o tres segundos, separados por un segundo completo entre sí. Esto:
Emisión captada por el satélite Vela 4 el 2 de julio de 1967 a las 14:19 UTC, que después se convertiría en el primer brote de rayos gamma conocido, con el identificador GRB 670702. Obsérvese la larga duración del segundo pulso y la separación entre ambos, incompatible con ningún diseño posible de arma nuclear. Imagen: Klebesadel, Strong, Olson, ApJ (1973) vía Sandra Savaglio (Max-Planck-Institut für extraterrestrische Physik, Garching) en First Gamma-Ray Bursts, Workshop CosmoFirstObjects, LAM, Marsella, mayo de 2011. (Clic para ampliar)
Y esto no se corresponde con ningún diseño conocido o teorizado de un arma nuclear (o termonuclear.) No es posible, simplemente no funcionan así. Esto era un fenómeno totalmente nuevo y distinto; lo que viene siendo un descubrimiento. Pero, lamentablemente, los satélites Vela 3 y 4 eran demasiado primitivos para determinar el
- 263 -
Antonio Cantó
origen de la emisión. Sus científicos al cargo intuyeron acertadamente que se trataba de alguna clase de enigma astrofísico… y, como no tenía relevancia militar y además el programa era secreto, lo archivaron. No se publicó hasta 1973. Ahora lo conocemos como el brote de rayos gamma GRB 670702 (GRB, por gamma ray burst y 67/07/02 por 2 de julio de 1967), y fue el primero que conoció la humanidad. La (casi) inconcebible explosión.
“Firma” de doce brotes de rayos gamma distintos, captada por el instrumento BATSE del Compton Gamma Ray Observatory (NASA). Como puede observarse, no hay dos iguales. Imagen: Wikimedia Commons. (Clic para ampliar)
Al principio, se pensó que estos brotes de rayos gamma eran fenómenos que ocurrían en nuestra propia galaxia, y por tanto no eran tan energéticos (o sea, creíamos que eran como una lámpara que brillaba más cerca, y por tanto no brillaba tan fuerte.) Sin embargo, el 8 de mayo de 1997, el satélite ítalo-holandés BeppoSAX detectó uno llamado GRB 970508, y pudieron determinar que había sucedido a seis mil millones de años-luz de la Tierra, es decir, una barbaridad: unos sesenta mil trillones de kilómetros. Eso es un seis seguido de veintidós ceros. Con la nave espacial más veloz que hemos construido hasta el momento, necesitarías unas ocho mil trescientas veces la edad del universo para llegar hasta allí. Yendo en línea recta y ligerito.
- 264 -
La Pizarra de Yuri 3
Desde entonces, se ha establecido que todos los brotes de rayos gamma detectados hasta la actualidad proceden de fuera de la Vía Láctea, y muy lejos. El más cercano de todos, GRB 980425, fue captado en una galaxia situada a 125 millones de años-luz. O sea, unas cincuenta veces más lejos que M31 Andrómeda, bien fuera de nuestro Supercúmulo Local (ver Esta es tu dirección, en este mismo blog.) Por el extremo contrario, el más distante –GRB 090429B– procede del universo primitivo, a 13.140 millones de años-luz (z = 9,4), lo que lo convierte en uno de los sucesos más remotos y antiguos que hemos observado. En principio nada impide que pueda formarse uno en nuestra propia galaxia, pero hasta ahora vienen todos de muy, muy lejos. Se ha postulado que un brote de rayos gamma próximo podría provocar una extinción masiva en la Tierra, pero eso probablemente no ha ocurrido en todo el tiempo que llevamos aquí (pese a que existen algunas dudas sobre el agente que disparó las extinciones masivas del Ordovícico-Silúrico, hace unos 440 millones de años.) Resultó que son un fenómeno bastante común: estamos detectando uno cada día, de promedio, todos ellos a distancias inmensas. Como te digo, el más cercano de todos fue GRB 980425, a 125 millones de años-luz. Pero no presentan ninguna periodicidad específica y no hay dos iguales; cada brote de rayos gamma tiene una firmacaracterística. Sin embargo, sí que los hay de dos tipos: los cortos y los largos. Los cortos duran menos de dos segundos y presentan un afterglow (postluminiscencia, a menudo visible en el espectro óptico) muy breve. Los largos son los que duran más de dos segundos, y algunos mucho más. Unos cuantos superan los 10.000 segundos, y se les llama ultralargos. Y luego hay otros –por ejemplo, GRB 110328A– que pueden durar dos días y seguir detectándose en la banda de rayos X durante meses, a los que se les llama en inglés tidal disruption events, lo que se podría traducir como sucesos de ruptura por marea.
- 265 -
Antonio Cantó
Distribución de la duración de una muestra típica de brotes de rayos gamma. Imagen: NASA.
Durante mucho tiempo, los astrofísicos se dedicaron a buscar objetos que pudieran producir estos brotes de rayos gamma, sin encontrar ninguno en particular. Esto sugería que se originan en estrellas o galaxias muy lejanas, de las que el cielo está lleno. Satélites científicos como el soviético Granat, el estadounidense HETE2, Swift, Fermi o elCompton Gamma Ray Observatory, junto a elementos de la red internacional ISON, entre otros, permitieron estudiarlos con mayor profundidad. Buscaban, fundamentalmente, a los progenitores; esto es, qué clase de fenómeno es capaz de producir semejantes salvajadas de energía en un tiempo tan breve.
- 266 -
La Pizarra de Yuri 3
Origen de los brotes de rayos gamma proyectados sobre el mapa celeste. Puede observarse que tienen una distribución isotrópica, es decir, que proceden de todas las partes del universo (y no, por ejemplo, sólo del plano de nuestra galaxia.) Imagen: Instrumento BATSE / CGRO / NASA vía Wikimedia Commons.
A finales del siglo pasado y principios de este fue quedando generalmente aceptado que al menos algunos brotes largos se originan en ciertas hipernovas, una cosa parecida a lassupernovas, pero todavía más a lo bruto. ¿Y qué son estas supernovas, o hipernovas? De la muerte de las estrellas. Todas las estrellas, como nuestro Sol, son básicamente grandes aglomeraciones dehidrógeno (el elemento más común del universo, con mucha diferencia, procedente de la nucleosíntesis primordial) que tienden a colapsar sobre sí mismas por la acción de la gravedad. Conforme “caen sobre sí mismas”, hay un punto donde la presión, y con ella la temperatura, son tan altas que el hidrógeno comienza a fusionar en una reacción termonuclear que produce, mayormente,helio y grandes cantidades de energía. Entonces la estrella naciente se agita como en un parto un poco cabrón hasta encontrar un punto de equilibrio entre la gravedad que sigue haciéndola colapsar y toda esa energía que tiende a disgregarla. La mayoría acaban estabilizándose en algún punto de la secuencia principal. Así nace una estrella. Durante su vida, produce también el resto de elementos que conocemos, mediante el proceso de nucleosíntesis estelar. De la nucleosíntesis primordial y estelar salen todos los átomos que nos constituyen, todo lo que somos. Al igual que tú y que yo, las estrellas no viven para siempre. Conforme van consumiendo su hidrógeno, comienzan a morir. Pero mueren de distintas maneras, dependiendo más que nada de su tamaño. Las más pequeñas, duraderas y corrientes (más del 76,5% de las que hay en el cielo) son enanas rojas (hasta un 40% de la masa de nuestro Sol.) Las enanas rojas van fusionando su hidrógeno muy lentamente, tanto que continúan todas ahí y seguirán durante muchísimo tiempo. Estimamos que muy poquito a poco irán transformándose en enanas azules, blancas y finalmentenegras. O sea, que morirán apagándose pacíficamente. Para cuando se apaguen las últimas, este universo habrá dejado ya de producir estrellas nuevas, habrá abandonado la era estelerífera y se adentrará profundamente en la era degenerada, camino de la de los agujeros negros, la era oscura y la muerte térmica. O cualquiera otra de las formas curiosas como desapareceremos. Todas estas cantidades de tiempo se miden en potencias muy altas de diez; lo que comúnmente llamamos eternidad (aunque técnicamente no lo sea ;-) ).
- 267 -
Antonio Cantó
La hipergigante roja variable UY Scuti, a unos 9.500 años-luz, en comparación con nuestro sol. Aunque es la mayor estrella conocida por diámetro y volumen, no es la que tiene más masa; a día de hoy, este honor le corresponde a R136a1, en la Nebulosa de la Tarántula, Gran Nube de Magallanes, a aprox. 165.000 años-luz. Imagen: Wikimedia Commons. (Clic para ampliar)
Luego tenemos, por ejemplo, las enanas naranjas y las amarillas, como nuestro Sol. Estas son más bravitas y aunque viven mucho menos (unos 10.000 millones de años), se niegan a morir sin dar algo de guerra. Cuando una enana amarilla agota el hidrógeno de su núcleo, comienza a expandirse hasta convertirse en una gigante roja durante algún tiempo (este será el momento en que el Sol abrasará definitivamente la Tierra), hasta sufrir un primer estertor bastante violento llamado elflash del helio, porque es el momento en el que empieza a fusionar… eso, helio, mediante el proceso triple-alfa, produciendocarbono. Durante estos fenómenos, la estrella pierde buena parte de su masa original en forma de espectacularesnebulosas planetarias. Al final termina convertida también en una enana blanca, como les ocurría a las enanas rojas del párrafo
- 268 -
La Pizarra de Yuri 3
anterior, y va apagándose poco a poco hasta quedar igualmente reducida a una enana negra por los siglos de los siglos. Sin embargo, en este universo hay estrellas mucho mayores, como las supergigantes ehipergigantes. Por convención, las supergigantes tienen como mínimo ocho veces más masa que nuestro Sol y las hipergigantes pueden pasar de cien masas solares. Se suponía que hay un límite máximo de 120 a 150 masas solares por encima del cual las estrellas no pueden darse en este periodo de la historia del universo. Sin embargo, ahora sabemos que existen cosas como R136a1, una Wolf-Rayet a la que le estimamos unas 265 masas solares Así que en estos momentos no tenemos muy claro dónde está ese límite máximo, si es que lo hay; creen que esta clase de monstruos son el resultado de la unión de varias estrellas más pequeñas. Por cierto que, hablando de tamaño, estas estrellas con tanta masa no son necesariamente las más grandes en volumen, y de hecho no lo son. Las estrellas más voluminosas, “más grandes” que conocemos son otras distintas, como UY del Escudo oNML del Cisne, que “sólo” tienen unas decenas de masas solares, pero su radio es en torno a 1.700 veces mayor. Si nuestro Sol fuese así, llegaría hasta cerca de Saturno y tanto nosotros como Mercurio, Venus, Marte y Júpiter estaríamos dentro. O, mejor dicho, no estaríamos. Estas gigantonas viven muy poquito tiempo, apenas unos millones de años, pero no les gusta morirse por las buenas. Tienen la molesta costumbre de irse con unas despedidas francamente violentas a las que llamamos supernovas y, cuando el petardazo es descomunal, hipernovas. Como te decía al principio, expresar la potencia de estas explosiones a escalas humanas es difícil: una supernova normalita es entre 500 y 1.000 cuatrillones de veces más energética que la bomba termonuclear más poderosa que hicimos jamás. Vamos a intentarlo. Imagínate todos los granos de arena de todas las playas de la Tierra. Supón que cada grano de arena es una bomba del Zar. Hazlas estallar todas a la vez. Y ahora multiplícalo por entre 500.000 y un millón. Esa es la energía de una sola supernova común. Cuando explotan, brillan más que toda la galaxia por unos instantes. Y si hablamos de una hipernova, vuélvelo a multiplicar por cien. Además, no se conforman con eso, las jodías. Después, se convierten en una estrella de neutrones o incluso unagujero negro (y no, Stephen Hawking no dijo que los agujeros negros no existan, al menos para los que nos gusta leer las frases completas antes de abrir la boca.)
- 269 -
Antonio Cantó
El jet relativista que emite la galaxia M87 (el “manchurrón brillante” arriba a la izqda.) captado en luz visible por el telescopio espacial Hubble en julio del año 2000. Estos jets están compuestos por electrones y otras partículas viajando a velocidades próximas a las de la luz, y como puede verse en este caso, pueden ser mucho mayores que la propia galaxia. Este se origina en un agujero negro supermasivo situado en el centro de la galaxia, rodeado por un disco de gas súpercaliente que le entrega constantemente masa para “tragarse.” Los brotes de rayos gamma podrían ser un fenómeno de naturaleza análoga. Imagen: Hubble Heritage Team / NASA. (Clic para ampliar)
Los astrófísicos siguen estudiando los mecanismos exactos que causan estas explosiones fabulosas, pero en general, se sabe que hay al menos dos causas distintas: el embalamiento térmico por ignición rápida del carbono y el colapso gravitatorio del núcleo estelar. Y se ha podido establecer una correlación entre algunas de estas supernovas –o hipernovas– que estallan por colapso gravitatorio y algunos brotes de rayos gamma largos, como GRB 980425 oGRB 030329. Así, los brotes de rayos gamma podrían ser los jets relativistas que se originarían al formarse la estrella de neutrones o el agujero negro, cuando coincide que apuntan directos hacia la Tierra. Esto de los jets relativistas es otra barbaridad cósmica, monstruosas emisiones de materia en estado plasmático a casi la velocidad de la luz que pueden tener cientos de miles de años-luz de longitud. Ya hablaremos de ellos en otro momento. Según la explicación convencional, que le tomo prestada a la Universidad de Stanford, un brote de rayos gamma funcionaría más o menos así: bien porque una estrella
- 270 -
La Pizarra de Yuri 3
gigantesca agoniza en forma de hipernova, o por la unión de dos objetos muy densos y compactos (como dos estrellas de neutrones), surge un agujero negro. El primer caso produciría los brotes largos y el segundo, los cortos. Los gases que quedan alrededor constituyen un disco de acreción que, al interactuar con el agujero negro, generan por sus “polos” un par de estos jets relativistas de partículas elementales propulsadas a velocidades muy próximas a las de la luz, más rayos gamma de baja energía. En estos jets ni la presión, ni la temperatura ni la densidad son uniformes, lo que genera ondas de choque internas cuando sus partes más rápidas chocan con las más lentas. Conforme el jet se aleja del agujero negro recién formado, hace también impacto contra el medio interestelar, creando unas nuevas ondas de choque: las “externas.” Estas ondas de choque aceleran las partículas aún más. Pero, al mismo tiempo, las partículas interactúan con los campos magnéticos circundantes, que durante un fenómeno así son muy potentes. Esto hace que pierdan parte de su energía emitiendo fotones mediante radiación sincrotrónica y efecto Compton inverso. El saldo entre la energía ganada como consecuencia de las ondas de choque y la perdida mediante radiación sincrotrónica determina la energía máxima de los fotones emitidos. Los de más alta energía constituyen el brutal pico de rayos gamma que componen el brote. Los de menor energía darían lugar a la postluminiscencia (“afterglow”) que se observa después del brote. Es decir, como en este esquema:
Generación de un brote de rayos gamma. Imagen original: NASA Goddard Space Flight Center. (Clic para ampliar)
- 271 -
Antonio Cantó
El resultado sería algo muy parecido a lo que se ve en este video producido por el Centro Goddard de la NASA: Sin embargo, el 27 de abril de 2013, detectamos otro muy potente: GRB 130427A, por ahí por la constelación de Leo, a unos 3.600 millones de años-luz de distancia. Su larga duración y su brillo extremo permitieron que nuestros instrumentos más modernos lo registrasen con todo detalle. Y, como decía mi abuelo, se llevó por delante un buen porción de todas estas hipótesis. En esencia, las características de GRB 130427A son incompatibles con la idea de que la postluminiscencia (“afterglow”) tenga su origen en un fenómeno de radiación sincrotrónica. Con lo cual, al menos esa parte del modelo, y puede que el modelo entero, se nos va a tomar por donde tú ya sabes.
Eta Carinae tal como la vio el Telescopio Espacial Hubble, con sus inmensas nubes de materia proyectada que forman la Nebulosa del Homúnculo. En realidad es un sistema binario, pero la estrella que nos puede obsequiar con un brote de rayos gamma próximo es el punto brillante en el centro de la nebulosa. Situada en nuestra propia galaxia, a unos 7.500 años luz, y extremadamente masiva e inestable, podría explotar en forma de hipernova en cualquier momento. :-P Imagen: Nathan Smith (Universidad de California en Berkeley) / NASA. (Clic para ampliar)
¿Te cuento la verdad sencilla? La verdad sencilla es que todavía no lo tenemos claro. Incluso antes de que este GRB 130427A nos diese la sorpresa, no teníamos ningún modelo que explicase todos los brotes de rayos gamma observados. Hay indicios, pistas, correlaciones, opiniones, conjeturas, hipótesis bien fundadas, pero eso es todo. Y en - 272 -
La Pizarra de Yuri 3
cuanto a los sucesos de ruptura por marea (tidal disruption events), los llamamos así porque nos parece que ocurren cuando un agujero negro supermasivo desgarra y se traga una estrella. Pero sólo nos lo parece. Son fenómenos tan lejanos que nuestros instrumentos actuales todavía no pueden ver bien lo que ocurre antes y después, y mucho menos dentro. Es un poco como intentar deducir el diseño y funcionamiento de un rifle estudiando el sonido de unos disparos remotos. En general, sabemos que los brotes de rayos gamma están ahí porque son tan energéticos que lo difícil sería no detectarlos. Sí, a mí también me da muchísima rabia no poder contarte cómo funcionan con todo detalle y certeza. ;-) Pero es que precisamente la ciencia, a diferencia del dogma, va de esto: cuando no sabemos algo, lo decimos y seguimos estudiando hasta descubrirlo. Pues, como dijo el matemático David Hilbert: “Debemos saber. Sabremos.” *** PD1. Según nuestra comprensión actual, la candidata más próxima a obsequiarnos con un brote de rayos gamma (suponiendo que su haz relativista apunte hacia la Tierra) es la gigantesca Eta Carinae, a apenas 7.500 años-luz de aquí, en nuestra propia galaxia. Con más de cien masas solares, esta variable luminosa azul explotará en forma de supernova o hipernova en algún momento del próximo millón de años; el instante exacto es impredecible con nuestro conocimiento presente. De hecho, ya nos envió un recadito en 1841 bajo la forma de una falsa supernova, dando lugar a la Nebulosa del Homúnculo. Hasta sería posible, aunque no se cree probable, que haya estallado ya y el premio gordo venga de camino. :-P Pero hasta donde sabemos, algo así sólo habría ocurrido una vez en toda la historia de la vida, y aunque pudo formar parte de los procesos que dispararon una extinción masiva, no lo hizo por sí solo. PD2. En cuanto a “supernovas normales” (quiero decir, sin un brote de rayos gamma asociado), la candidata más próxima es IK Pegasi B, a 150 años-luz de aquí, pero es chiquitaja y no se darán las condiciones necesarias para que explote hasta dentro de muchos millones de años. Una más gorda podría ser Betelgeuse, a seiscientos y pico años-luz, pero tampoco es probable que nos vaya a hacer mucho mal. De hecho, parece ser que en torno al año 1.200 (sí, en plena Edad Media) nos arreó una desde la misma distancia y ni nos enteramos. En el hielo antártico hay indicios de otros tres impactos supernóvicos durante los siglos X-XI. Y en los árboles japoneses, señales de un posible brote de rayos gamma corto y próximo que habría ocurrido en torno al año 775, coincidiendo con un cierto “crucifijo rojo” que apareció en los cielos británicos según la Crónica Anglosajona. Aquí seguimos, como si tal cosa. ;-)
- 273 -
Antonio Cantó
PD3. No, por desgracia, lo de la galaxia M31 Andrómeda del pasado 27 de mayo a las 21:24 UTC no fue un brote de rayos gamma. Una pena; imagínate todo lo que habríamos podido aprender de un GRB tan próximo. :-P Pero bueno, a cambio te dejo un bonito video de la NASA, con una simulación por superordenador de cómo dos estrellas de neutrones se desintegran entre sí para formar un agujero negro, lo que es una de las posibles fuentes de brotes de rayos gamma cortos: ;-) Bibliografía: •
Colón, Knicole: “A study of long-period gamma-ray bursts “. Departamento de Astronomía de la Universidad de Florida, mayo de 2008.
•
Berger, E. (Harvard-Smithsonian Center for Astrophysics): “ Short-Duration Gamma-Ray Bursts.” arXiv:1311.2603v1 [astroph.HE], 11 de noviembre de 2013.
•
Savaglio, Sandra (Max-Planck-Institut für extraterrestrische Physik, Garching): “ First Gamma-Ray Bursts“. Workshop CosmoFirstObjects, LAM, Marsella, mayo de 2011.
•
Vedrenne, G.; Atteia, J-L., “Gamma Ray Bursts: The brightest explosions in the universe .” Springer-Praxis Publishing Ltd., Chichester (UK), 2009. ISBN: 978-3-540-39085-5.
•
Wanjek, C. (NASA Goddard Space Flight Center): “ Explosions in space may have initiated ancient extinction on Earth “. NASA, 6 de abril de 2005.
•
Kouveliotou, C.; Woosley, S. E.; Ralph A. M. J., ed.. “ Gamma-ray bursts.” Cambridge University Press (2012). ISBN: 978-0521-66209-3.
Ah, y si te apetece un poco de hardcore del güeno sobre fuentes cósmicas de rayos gamma y otras cosillas por el estilo, pásate por esta parte del blog de la mula Francis. ;-)
- 274 -
La Pizarra de Yuri 3
Tina en el bosque de Charnia, la vida que no podía existir Yuri, el 26 de agosto de 2015 @ 14:11 · Categoría: Ciencia popular, Historia y cultura
El enigma del Bosque de Charnwood.
El soto de Swithland, parte del bosque de Charnwood (Leicestershire, Reino Unido.) Fue en una cantera situada en este bosque donde primero Tina Negus y luego Roger Mason, ambos de 15 años, se encontraron con algo que según el mundo entero no podía existir. Imagen: Wikimedia Commons.
Cuando era niña, Tina Negus (Reino Unido, 1941) le tomó gusto a eso de los fósiles. Es que en aquella época no había videojuegos, ni móviles, y ni siquiera muchas teles. Así que los críos salían a la calle a jugar y hacían sus travesuras, como meterse en sitios que a sus padres no les gustaban. Según sus propias palabras, Tina se aficionó jugando “ilícitamente” (vamos, que si en casa se llegan a enterar, seguramente se habría llevado una buena azotaina como era corriente por aquella época) en una cantera abandonada próxima a su domicilio en Gratham, Lincolnshire. Ahí había un montón de fósiles de amonites, belemnites y cosas así fijados a sus calizas azules del entonces llamadoLiásico Superior, que desde chiquitaja cautivaron su imaginación.
- 275 -
Antonio Cantó
Una Tina Negus adolescente buscando fósiles cerca de su casa allá por la primera mitad de los años ’50 del pasado siglo. Foto: Propiedad de Tina Negus vía trowelblazers.com
Puesto que también faltaba bastante para que inventasen Internet, y Tina era muy curiosa, su afición le llevó a la biblioteca pública local. Ahí leyó un montón de cosas sobre geología, biología, paleontología y esos rollos de científicos. El caso es que conforme se adentraba en la adolescencia, acabó bastante enterada de estos temas. Y a principios del verano de sus quince años, Tina pidió a sus padres que la llevaran al cercano Bosque de Charnwood. Ya habían estado varias veces, pero esta vez Tina no deseaba simplemente hacer picnic en un lugar hermoso como ese. En la biblioteca había leído un ensayo sobre su geología y le llamó la atención que existiese una cantera con depósitos de ceniza volcánica surgida bajo el mar, cuando aquello fue un mar. Eso era algo que Tina nunca había visto y, como además conocía muchos de los lugares mencionados gracias a las excursiones anteriores, se motivó. Así que copió todos los mapas del ensayo a mano –tampoco había fotocopiadoras– y con la excusa de ir a recolectar arándanos, convenció a sus sufridos padres de que la llevasen otra vez en junio o principios de julio de 1956; no recuerda bien la fecha exacta. Pero tuvo que ser por ahí, porque los arándanos todavía no estaban maduros. Y para el Bosque de Charnwood marcharon. En cuanto pudo, Tina se metió por el camino de cabras que conducía a la cantera en cuestión. Durante un buen rato, se quedó flipada con aquellas rocas de color gris oscuro y tono verdeazulado, como era su gusto. - 276 -
La Pizarra de Yuri 3
Entonces sus ojos cayeron sobre algo más: uno de sus amados fósiles. Parecía una especie de hoja de helecho fosilizada, sin nervio central, sino con sus foliolos dispuestos como en zigzag. Pero había un pequeño problema. Según sus mapas y notas copiados tan cuidadosamente, la piedra donde se hallaba el fósil era precámbrica. Y todos los libros gordos y los grandes sabios y sus profesores y el mundo entero afirmaban taxativamente que la vida compleja apareció en el Cámbrico, o sea después. Aquel fósil que tenía ante sus ojos no tenía el menor derecho a existir. Faltaría más. Una forma de vida compleja antes del Cámbrico, y encima con aspecto de planta terrestre, ¡menuda idiotez!
El fósil índice de Charnia en su roca precámbrica que observó Tina, con unos 580 millones de años de antigüedad, actualmente expuesto en el New Walk Museum & Art Gallery de Leicester, Inglaterra. Cuando Tina reparó en él, todo el mundo daba por sentado que la vida pluricelular compleja se originó en el Cámbrico, decenas de millones de años después, y esto simplemente no podía existir. Imagen: Wikimedia Commons. (Clic para ampliar)
Sólo que aquella especie de fronda estaba allí, casi mirando desafiantemente a Tina desde la profundidad del tiempo. Mucho, mucho tiempo: bastante más de medio millar de millones de años. Cuando aquel ser estuvo vivo, los días sólo duraban 22 horas y los
- 277 -
Antonio Cantó
años tenían 400 días divididos en 13 meses. El Sol y la Tierra estaban en otro lugar de la galaxia y las estrellas nocturnas eran completamente distintas de las actuales. El oxígeno todavía estaba acumulándose en el aire. Aquel bosque y aquella cantera estaban muy cerquita del Polo Sur, en el fondo de un superocéano al que ahora llamamos Panthalassa, que bañaba las costas extrañas de un únicosupercontinente hoy denominado Pannotia. Y dijeran lo que dijesen los libros gordos, los grandes sabios, sus profes y el mundo entero, el fósil imposible de Tina llevaba ahí desde entonces. Tina hizo lo que hacen los buenos científicos. Como faltaban muchas décadas para que una chavala de 15 años pudiera tener un móvil con su cámara de nosecuántos megapíxeles, primero se limitó a no tocar nada. Al día siguiente, en el colegio, se acercó a su profesora de geografía para contarle que había encontrado un fósil en una roca precámbrica. La profe contestó al instante: “No hay fósiles en las rocas precámbricas.” Tina le dijo que ya lo sabía, pero ella lo había visto con sus propios ojos. Sin ni siquiera mirarla, la profe replicó: “¡Pues entonces no será una roca precámbrica!” Tina insistió: ese fósil estaba en una roca precámbrica. Su profe repitió: “Ya te he dicho que no hay fósiles en las rocas precámbricas.” Y completado así el círculo, se marchó dejándola con la palabra en la boca. Pero Tina, a fuer de curiosa, era cabezona. Pidió una vez más a sus padres que la llevaran de nuevo al lugar. Y esta vez, un poquito obcecada, no tuvo una idea tan buena: se llevó el martillo de minero de papá. Contaremos en su defensa que seguía teniendo quince años y necesitaba saber qué era aquella cosa. Y también que tuvo el buen juicio de no dar un solo golpe cerca del fósil. Lo que intentaba era sacar el trozo de roca entero, fósil incluido, pero intacto. Por fortuna, al poco rato descubrió que aquella piedra era demasiado dura y sus martillazos apenas tenían algún efecto. Ya a la desesperada, la buena científica volvió a su sesera adolescente. Ese día les acompañaba su abuelo, que siempre llevaba encima un bloc de notas con su correspondiente lapicero. Tina le pidió un par de hojas, el lápiz, y sacó un calco del fósil como los científicos verdaderos. Con él se fue al museo local, para intentar compararlo con las piezas que tenían allí, sin ningún éxito. Repasó todos los libros de geología y paleontología a los que pudo poner las manos encima. Nada. Finalmente se cansó y, desilusionada, guardó el calco en su carpeta. Aún intentó un último viaje al Bosque de Charnwood hacia finales del año siguiente, 1957. Entonces descubrió, para su horror, que su fósil ya no estaba. Ni el fósil ni la roca. En su lugar había marcas de agujeros de perforación y las herramientas que habían usado para extraerla. Lo único que la consoló fue que, a juicio de sus familiares, parecía
- 278 -
La Pizarra de Yuri 3
un trabajo profesional y no la barbarie de algún vándalo. Supusieron que el fósil de Tina habría pasado a formar parte de la colección de alguien. Así quedó la cosa. Aunque Tina no se olvidó de él. En 1961 se graduó en zoología, botánica y geografía en la Universidad de Reading, especializándose en zoología. Luego estuvo dos años investigando la ecología de los mejillones de agua dulce. En ese periodo, la universidad organizó un viaje al famoso Museo de Historia Natural de Londres, con sus casi 80 millones de especímenes. Tina pensó que quizá ahí encontraría la respuesta a aquel misterio de su adolescencia. Se lo repasó entero, sala por sala y era geológica por era geológica, buscando alguna pieza que coincidiera con su fósil… sin encontrar nada. Cabezota, escribió a casa para que le mandaran aquellos calcos que tomó con el bloc y el lápiz del abuelo. En cuanto los recibió, se presentó en el Departamento de Geología de su universidad a preguntar si alguien tenía alguna idea de qué demonios podía ser aquello. Al principio la miraron raro, pero entonces alguien recordó algo y le mostró un paper recién publicado por un cierto doctor Trevor Ford, de la Universidad de Leicester. El título era, ni más ni menos, Fósiles precámbricos del bosque de Charnwood. ¡Y allí estaba el suyo! Se trataba de un descubrimiento revolucionario: ni más ni menos que uno de los dos primeros ejemplares confirmados de la biota ediacárica, formas de vida complejas decenas de millones de años más antiguas que lo asegurado por los libros gordos, los grandes sabios, los profesores y el mundo en general hasta entonces. Tina siempre tuvo razón: su fósil era un ser complejo anterior al Cámbrico y ahora se llamaba Charnia masoni, con unos 580 millones de años de antigüedad.
- 279 -
Antonio Cantó
Arriba: Molde del holotipo de Charnia masoni. Abajo: Impresión artística de cómo pudo ser cuando vivía fijada a los fondos del superocéano Panthalassa precámbrico. Imágenes: Wikimedia Commons / Andy Kerr (Clic para ampliar)
- 280 -
La Pizarra de Yuri 3
Roger Mason, también de 15 años, con el primitivo equipo de escalada que usaba cuando observó a Charnia en la cantera del Bosque de Charnwood. A diferencia de la familia de Tina, su padre conocía al Dr. Trevor D. Ford del Departamento de Geología de la Universidad de Leicester y llamó su atención sobre el descubrimiento. A partir de ahí se confirmó que lo imposible era posible. Foto: © Leicester Mercury, 1957. (Clic para ampliar)
Lo de masoni era por otro chaval de 15 años,Roger Mason, igualmente aficionado a los fósiles. Un año después de que Tina lo observara por primera vez, Roger fue a practicar escalada con sus colegas a la cantera en cuestión y reparó en su extrañeza igual que Tina. Pero a diferencia de Tina, la familia de Roger tenía vinculación con el mundo académico y así su redescubrimiento llegó rápidamente a oídos del Dr. Trevor D. Ford. El Dr. Ford se mostró escéptico al principio, pero accedió a ir a echar un vistazo y quedó atónito. E inmediatamente pasó a la acción. Así pues, el fósil no había sido
- 281 -
Antonio Cantó
retirado de la cantera por ningún coleccionista, sino por un equipo de la Universidad de Leicester dirigido por el Dr. Ford. De ahí que el trabajo fuese tan profesional. Y además del Charnia masoni también habían extraído otro fósil precámbrico, el Charniodiscus concentricus, con una forma circular que también había llamado la atención de Tina pero no le dio mayor importancia. Actualmente se encuentran en el New Walk Museum & Art Gallery de Leicester como los primeros especímenes confirmados de que la vida compleja fue posible antes de que fuese posible la vida compleja. Tina y Roger acababan de descubrir –o demostrar, como ahora veremos– un ámbito completo de la vida que existió durante decenas de millones de años, llamado la biota ediacárica. Moraleja: mientras sigas el método científico –y eso vale para todo o casi todo en esta vida, no sólo para las “cosas científicas”– nunca te fíes excesivamente de los libros gordos, los grandes sabios, los profesores, el mundo en general y los adultos en particular. Ser más viejos no nos hace ni más inteligentes ni necesariamente más sabios y a veces somos unos cretinos bastante soberbios. Unos idiotas, vamos. La biota ediacárica. Charnia masoni y Charniodiscus concentricus sólo son dos ejemplos de una vasta vida marina compuesta por serespluricelulares complejos que aparecieron poco después de la descongelación del periodo Criogénico (sobre todo a partir de la llamada explosión de Avalon) y comenzaron a difuminarse poco antes de principios del Cámbrico; es decir, coincidiendo a grandes rasgos con el periodo ediacárico (hace entre 635 y 542 millones de años.) Con alguna excepción que luego veremos, fueron los primeros seres complejos que aparecieron y perduraron largo tiempo sobre la faz de este planeta. Algún autor objeta al uso de la expresión biota ediacárica como si fuesen seres aparte del proceso evolutivo global de la vida terrestre y prefiere restringir el término a la mera datación estratigráfica. Sea como fuere, muchos de estos seres presentan características que los distinguen de la vida que seguimos adelante a partir de la explosión cámbrica. Hay que reseñar que Tina, Roger y el Dr. Ford no fueron los primeros en darse cuenta de que algo raro pasaba con la supuestamente imposible vida compleja precámbrica. De hecho, el Ediacárico toma su nombre de las colinas de Ediacara, al Sur de Australia. Ahí fue donde en 1946 el geólogo Reg Sprigg encontró unas ciertas “medusas” en unyacimiento que parecía muy anterior al Cámbrico. Tampoco él había sido el primero. Ya en 1868, el escocés Alexander Murray había hallado fósiles de Aspidella terranovica en eso, Terranova, por debajo del entonces denominado “estrato primordial.” En 1933, el alemán Georg Gürich se topó con fósiles de Rangea schneiderhoehoni en la Formación Namade la actual Namibia, donde
- 282 -
La Pizarra de Yuri 3
también han aparecido restos de Ausia fenestrata. Pero como la creencia en que la vida compleja surgió a partir del Cámbrico estaba tan firmemente establecida, estos hallazgos se disputaron por todas las vías: que si la datación de los estratos no estaba clara, que si había habido contaminación de las muestras, que si en realidad no eran fósiles sino formaciones minerales curiosas, etcétera. Lo habitual en estos casos.
Impresión artística del fondo marino precámbrico que hoy en día son las colinas de Ediacara, Australia, que dan nombre al periodo ediacárico. Imagen: Wikimedia Commons. (Clic para ampliar)
La importancia del descubrimiento de Tina, Roger y el Dr. Ford radica en que fue un auténtico manotazo que tiró todas estas objeciones por la borda. La geología de las Midlands británicas está extremadamente bien documentada y datada, el fósil permanecía prístino en su roca precámbrica y claramente Charnia masoni fue alguna clase de ser vivo, se ponga como se ponga quien se ponga. Qué clase de ser vivo es cuestión aparte. La biota ediacárica es tan distinta de lo habitualmente conocido y tan diversa –se han encontrado muchísimos seres más, a cuál más peculiar– que se sigue discutiendo qué son exactamente. Para ser más rigurosos, cuál es su clasificación taxonómica. Distintos especialistas han intentado encuadrarla prácticamente en todas las categorías, desde los cnidarios (o sea, animales) y los metazoos basales hasta las algas, los hongos, los líquenes, los protistas gigantes (al estilo de los Xenophyophorea), los organismos coloniales e incluso en su propio filo o reino aparte. Actualmente se
- 283 -
Antonio Cantó
tiende a pensar que fueron alguna clase de metazoos, o sea animales, pero sumamente difíciles de emparentar con quienes vinimos después.
Dendrogramma enigmatica. La muestra fue recogida en 1986 a entre 400 y 1.000 metros de profundidad en el talud continental del Estrecho de Bass que separa Australia de Tasmania. En 2014 fue identificada, o más bien “noidentificada”, como una especie animal sin relación taxonómica aparente alguna con ninguna otra conocida pero presentando similitudes con algunos medusoides ediacáricos. (Just, J.; Kristensen, R. M.; Olesen, J.: “Dendrogramma, New Genus, with Two New Non-Bilaterian Species from the Marine Bathyal of Southeastern Australia (Animalia, Metazoa incertae sedis) – with Similarities to Some Medusoids from the Precambrian Ediacara.” PLoS One, 3 de septiembre de 2014; 9(9):e102976. doi: 10.1371/journal.pone.0102976. eCollection 2014.) (Clic para ampliar.)
En suma, que ni puñetera idea. Para acabar de arreglarlo, en 2014 se identificaron unos bichitos marinos en forma de seta llamadosDendrogramma que parecen compartir algunas características con seres ediacáricos como Albumares brunsae, Anfesta stankovskii y Rugoconites. Aunque se les ha ubicado en el reino animal, tampoco saben muy bien dónde más colocarlos en el “árbol de la vida.” El nombre se les puso por la disposición de sus canales digestivos, que recuerdan a un dendrograma… y punto. Así
- 284 -
La Pizarra de Yuri 3
que por el momento son los únicos miembros de la familia… eso, Dendrogrammatidae. Para todo lo demás, son incertae sedis, o sea que quién sabe. Van a intentarsecuenciarles el ADN, a ver si nos enteramos de algo más. Encuentro de lo más acertado el “apellido” que le han adjudicado a uno de ellos: Dendrogramma enigmatica, porque representan un auténtico enigma. Y eso que estamos hablando de seres perfectamente existentes hoy en día y que podemos estudiar (y están estudiando) con todo detalle. Ahora imagínate la pesadilla de catalogar a unos seres todavía más enigmáticos, quizá emparentados con estos o quizá no, que desaparecieron hace como medio millar de millones de años dejándonos sólo un puñado de fósiles. Como te decía, la biota ediacárica parece presentar una serie de características distintivas comunes, o eso nos parece con el material que ha quedado para trabajar. Para empezar, fueron todos seres marinos, entre otras cosas porque –con permiso de estas personas– en la tierra y el aire no había aún ningún ser vivo complejo. Pero no, no es sólo por eso: todos los fósiles han aparecido en estratos que permanecieron sumergidos durante el Ediacárico, aunque exista alguna opinión divergente. Y además bastante sumergidos, por debajo de la zona fótica (o sea, la capa del mar que puede atravesar la luz solar), así que no pudieron usar la fotosíntesis. Pueden presentar casi cualquier clase de simetría, incluyendo simetría bilateral como nosotros, o ninguna. Algunos como Funisia dorothea pudieron reproducirse sexualmente. Dado que en su época los depredadores macroscópicos aún no existían, la respetable agencia Reuters calificó su existencia como muy agradable, imaginando que hubiesen dispuesto de un sistema nervioso capaz de apreciarlo: ningún depredador, mucho sexo. Pero creemos que la mayor parte eran asexuados; a cambio, algunos de estos últimos se reproducían de maneras francamente sofisticadas. También se ganaban la vida con gran facilidad: en su mayor parte debían ser seres sésiles, o sea que se fijaban al fondo para alimentarse del tapete microbiano subyacente o, mediante filtración, de cualquier cosa alimenticia que les pasara a través. Un lugar tranquilo para vivir, esos mares precámbricos. No obstante, Guy Narbonne opina que diversas características propias de los animales modernos fueron apareciendo en esta biota a lo largo del Ediacárico, como la movilidad (hace más de 555 millones de años), la calcificación (550 millones de años) y finalmente el comportamiento depredador (hace menos de 549 millones de años, ya aproximándose al Cámbrico.)
- 285 -
Antonio Cantó
Cloudina carinata del Ediacárico terminal (hace unos 540 millones de años) con exoesqueleto mineralizado, hallada en las dolomías del anticlinal del Ibor-Guadalupe, Extremadura. Foto: Geoparque Villuercas-Ibores-Jara.
La misma extinción de la biota ediacárica es objeto de debate. No estamos seguros de cuándo y como se marcharon estos seres exactamente. Parece que aunque la inmensa mayoría ya se habían esfumado antes de que comenzara el Cámbrico, algunas comunidades pudieron pervivir hasta el Cámbrico Medio. Y no tenemos claro si fue una extinción rápida por sus propias razones, una sustitución al ser desplazados por los seres cámbricos o lo que llaman un modelo del gato de Cheshire, en el que la progresiva desaparición de los tapices microbianos del fondo marino precámbrico los habría ido haciendo desaparecer hasta que finalmente no quedó ninguno. Se discute también hasta qué punto constituyeron un verdaderoecosistema en el sentido moderno del término; es decir, si interactuaban más o menos entre sí o cada uno estaba ahí fijado a su trocito de tapiz microbiano cual percebe a la roca ignorando por completo lo que hubiera a su alrededor. Si como dice Narbonne desarrollaron comportamientos como el movimiento y la depredación, algo de ecosistema tuvieron que tener. Por cierto que estos seres no han aparecido únicamente en esos países donde hablan raro. Cerca de Villarta de los Montes (Badajoz) científicos de la Facultad de Ciencias de la Universidad de Extremadura han hallado una estupenda colección de fósiles ediacáricos terminales que incluyen Cloudinas –el primer metazoo conocido con un esqueleto externo–, Sinotubulites, Namacalathus y algo que se parece a lasProtolagena. Si te interesa el tema, puedes preguntar en el Geoparque de Villuercas – Ibores – Jara.
- 286 -
La Pizarra de Yuri 3
Por su parte, Rusia, Ucrania, Canadá y China están plagadas. Esa vida que no podía existir estuvo repartida por todas partes durante millones de años, ahora ya sólo esperando a que un par de quinceañeros curiosos con la mirada limpia y la cabeza despejada se fijasen bien. Cada vez más vida, cada vez más pronto. Y es que como creo que ya te he contado varias veces, cuanto más sabemos, vemos que antes apareció la vida en la Tierra. Y la vida pluricelular también, como apunté en este otro excelente sitio.
Uno de los fósiles francevillenses con 2.100 millones de años de antigüedad. Literalmente, no sabemos lo que fue. Pero fue. Imagen: Wikimedia Commons. (Clic para ampliar)
Pero es que incluso todo esto comienza a quedarse algo obsoleto. Ahora mismo vamos teniendo dudas de que la biota ediacárica represente la primera vez que surgieron seres complejos en este planeta. Hoy tengo el gusto de presentarte también a la biota francevillense, con… ¡2.100 millones de años de antigüedad! A ver si nos entendemos tú y yo, compi: dos mil cien millones de años es más de la séptima parte de la edad del universo. Hace 2.100 megas de años, el Sol brillabacasi un 20% menos que ahora, los años tenían 465 días divididos en 14 meses y medio y apenas comenzaba a haber oxígeno libre. El maldito uranio todavía era lo bastante rico como para encender un reactor nuclear natural con agua corriente 400 millones de años después (los materiales radiactivos van decayendo con el paso del tiempo.) Y de hecho lo hizo muy cerca de ahí, en Oklo (Gabón), a pocos kilómetros de Franceville. Por eso a la biota francevillense también se le llamagaboniontes: tanto Oklo como Franceville están en Gabón. Francia extrae uranio para sus reactores nucleares en el sector.
- 287 -
Antonio Cantó
Sabemos todavía muy, muy poco de estos gaboniontes. Pero, al igual que pasó con Charnia, ahí están: fósiles circulares y elipsoidales de hasta doce centímetros, muy probablemente pluricelulares. En realidad, la vida pluricelular ha evolucionado al menos 25 veces independientemente en la historia de la Tierra, desapareciendo a continuación en la mayoría de las ocasiones. Lo que ya no es tan normal es que evolucione hasta crear seres macroscópicos tridimensionales de 12 centímetros. Y sin embargo, en el delta de un olvidado río paleoproterozoico, seguramente bajo una columna de agua con algo de oxígeno disuelto, estos bichos –no hay ninguna otra condenada manera de clasificarlos hoy por hoy– medraron durante una larga temporada antes de dejarnos sus fósiles en la pirita del lugar. Así que la biota ediacárica pudo no ser la primera vez que aparecieron seres complejos macroscópicos en este planeta. La biota francevillense, aunque seguramente mucho más simple, pudo adelantárseles en un millar y medio de millones de años o así.
Tina Negus y Roger Mason en la actualidad. Ahora ya no son ningunos quinceañeros, pero siguen haciendo lo que siempre amaron: Tina fotografiando aves y Roger con un yacimiento precámbrico a la espalda. Fotos: Birdnote Team / The Thought Stash
¿Y qué pasó al final con los protas humanos de esta historia? Bueno, pues como ya sabemos Tina se hizo zoóloga, y ademáspoetisa, fotógrafa y pintora; ahora, ya jubilada, sigue dedicándose a esto último. Roger, el otro quinceañero que redescubrió definitivamente a Charnia, acabó siendo profesor universitario de geología y aunque jubilado también, continúa colaborando con la Universidad China de Geociencias enWuhan. El Dr. Trevor D. Ford, nombrado miembro de la Orden del Imperio Británico y esas cosas de los isleños, está jubiladísimopero hace poco aún seguía organizando charlas y seminarios sobre estos temas en su Leicester natal. En 2007, Roger y el Dr. Ford invitaron a Tina a participar en uno de estos seminarios como predescubridora de ese fósil que demostró la existencia de la vida que no podía existir.
- 288 -
La Pizarra de Yuri 3
El otro protagonista, la ciencia, salió ganando como hace siempre. Los científicos, como humanos que son, pueden resultar a veces más duros de mollera. :-P Pero el poder y la grandeza de la ciencia radica precisamente en que siempre es capaz de cambiarse a sí misma y corregir sus propios errores, siguiendo el método científico, para perfeccionarse cada vez más y más y así darnos todo lo que nos ha dado, y nos dará. Y en la misma raíz de la ciencia está la curiosidad, ese observar algo que quizá muchos hayan visto pero nadie había observado antes –como seguramente muchos habrían visto el fósil del Bosque de Charnwood, empezando por quienes trabajaron en la cantera durante muchos años, pero nadie lo había observado–, pensar aquello de “¡qué curioso!” y no parar hasta descubrir lo que es y cómo funciona. La misma curiosidad que nos ha llevado a lo largo de los milenios desde preguntarnos qué demonios serían aquellas lucecitas que brillan en el cielo por la noche hasta pasear nuestras naves-robot por las proximidades de Plutón. Desde preguntarnos por qué la gente caía enferma hasta tener la mayor esperanza de vida y las menores tasas de mortalidad infantil de toda la historia de la humanidad. Desde preguntarnos qué sería el rayo y esas chispitas de las prendas de lana hasta construir los dispositivos electrónicos que estamos usando ahora mismo tú y yo. La misma curiosidad que, si no cometemos ninguna estupidez monumental por el camino, nos llevará adonde ahora mismo ni siquiera podemos imaginar. Bibliografía: •
Antcliffe, J. B.; Hancy, A. D.; Brasier, M. D. (2015): “A new ecological model for the ∼565 Ma Ediacaran biota of Mistaken Point, Newfoundland.“ Precambrian Research, vol. 268, octubre 2015, págs. 227-242. doi:10.1016/j.precamres.2015.06.015 (En inglés; de pago.)
•
Cortijo, I.; Martí Mus, M.; Jensen, S.; Palacios, T. (2015): “Late Ediacaran skeletal body fossil assemblage from the Navalpino anticline, central Spain.“ Precambrian Research, vol. 267, septiembre 2015, págs. 186-195. doi:10.1016/j.precamres.2015.06.013 (En inglés; de pago.)
•
Forancelli Pacheco, M. L. A. et al (2015): “Insights into the Skeletonization, Lifestyle, and Affinity of the Unusual Ediacaran Fossil Corumbella.“ PLoS One, 30 de marzo de 2015; 10(3):e0114219. doi: 10.1371/journal.pone.0114219. eCollection 2015. (En inglés.)
•
Just, J.; Kristensen, R. M.; Olesen, J. (2014): “Dendrogramma, New Genus, with Two New Non-Bilaterian Species from the Marine Bathyal of Southeastern Australia (Animalia, Metazoa incertae sedis) – with Similarities to Some Medusoids from the Precambrian Ediacara.“PLoS One, 3 de septiembre de 2014; 9(9):e102976. doi: 10.1371/journal.pone.0102976. eCollection 2014. (En inglés.)
•
El Albani, A. et al (2014): “The 2.1 Ga Old Francevillian Biota: Biogenicity, Taphonomy and Biodiversity. “ PLoS One, 25 de junio de 2014; 9(6):e99438. doi: 10.1371/journal.pone.0099438. eCollection 2014. (En inglés.)
•
Buatois, L. A. et al (2014): “Ediacaran matground ecology persisted into the earliest Cambrian. “ Nature Communications 5, nº art. 3544, 28 de marzo de 2014. doi:10.1038/ncomms4544 (En inglés; de pago.)
- 289 -
Antonio Cantó
•
MacGabhann, B. A. (2014): “ There is no such thing as the ‘Ediacara Biota’.” Geoscience Frontiers, vol. 5, nº1, 1 de enero de 2014, págs. 53-62. doi:10.1016/j.gsf.2013.08.001 (En inglés.)
•
Laflamme, M. et al (2013): “The end of the Ediacara biota: extinction, biotic replacement, or Cheshire Cat? “ Gondwana Research, vol. 23, nº 2, marzo 2013, pp. 558-573. doi:10.1016/j.gr.2012.11.004 (En inglés; de pago.)
•
Erwin, D. H. et al (2011): “The Cambrian conundrum: early divergence and later ecological success in the early history of animals.”Science, 25 de noviembre de 2011; Vol. 334 nº 6059 pp. 1091-1097. doi:10.1126/science.1206375. (En inglés.)
•
Xiao, F.; Laflamme, M. (2009): “On the eve of animal radiation: phylogeny, ecology and evolution of the Ediacara biota.“ Trends in Ecology and Evolution, enero 2009, 24(1):31-40. doi: 10.1016/j.tree.2008.07.015. (En inglés; de pago.)
•
Fedonkin, M. A. et al (2008): “The Rise of Animals: Evolution and Diversification of the Kingdom Animalia. “ Johns Hopkins University Press, Baltimore, EEUU. ISBN: 9780801886799 (En inglés; libro.)
•
Shen B. et al (2008): “The Avalon explosion: evolution of Ediacara morphospace. “ Science. 4 de enero de 2008; 319(5859):81-4. doi: 10.1126/science.1150279. (En inglés; de pago.)
•
Negus, T. (2007): “An account of the discovery of Charnia. ” Newsletter de la Leicester Literary & Philosophical Society (Sección ‘C’ – Geología), 2007. (En inglés.)
•
Turner, S.; Vickers-Rich, P (2007): “Sprigg, Glaessner and Wade and the discovery and international recognition of the Ediacaran fauna.“Geological Society, Londres, Special Publications, 286:443-445, doi:10.1144/SP286.37 (En inglés; de pago.)
•
Vickers-Rich, P.; Komarower, P. (2007): “The rise and fall of the Ediacaran Biota.“ Geological Society, Londres, Special Publications, vol. 286. doi:10.1144/SP286.0 (En inglés; de pago)
•
Narbonne, G. M. (2005): “The Ediacara Biota: Neoproterozoic origin of animals and their ecosystems. “ Annual Review of Earth and Planetary Sciences Vol. 33: 421-442 (mayo 2005). DOI: 10.1146/annurev.earth.33.092203.122519 (En inglés; de pago.)
•
Swift, A. (2002): “The story of Charnia and the British Association Festival of Science. ” Newsletter de la Leicester Literary & Philosophical Society (Sección ‘C’ – Geología), 2002. (En inglés.)
•
Billings, E. (1872): “Fossils in Huronian rocks.” Canadian Naturalist and Quarterly Journal of Science, 6 (1872), p. 478. (En inglés; no disponible en Internet.)
•
Eskrigge, R. A. (1868): “Geological notes made during a tour of Leicestershire.” Transactions of the Manchester Geological Society, 5 (1868), pp. 51–57. (En inglés; no disponible en Internet.)
- 290 -
La Pizarra de Yuri 3
Las ciudades que se salvaron y las gentes que no Yuri, el 6 de agosto de 2015 @ 0:00 · Categoría: Historia y cultura
Hace hoy 70 años, Hiroshima fue aniquilada. El día 9, le tocó a Nagasaki. Y para el 15, había otra bomba en camino.
Para esta entrada contamos con los documentos secretos originales del Comité de Objetivos y otra información de la época desclasificada décadas después. Imagen: Archivos de Seguridad Nacional de los Estados Unidos de América.
- 291 -
Antonio Cantó
Fotografías aéreas del valle de Urakami, Nagasaki, antes y después del bombardeo atómico del 9 de agosto de 1945. Imágenes: Archivos Nacionales de los Estados Unidos. (Clic para ampliar)
Los historiadores siguen discutiendo si Japón se rindió por los bombazos atómicos de Hiroshima y Nagasaki, por la declaración de guerra soviética acordada en Yalta con los EEUU y el Reino Unido, o por una combinación de estos y otros factores. No obstante, lo que quedaría nítidamente impreso en la memoria humana para las generaciones futuras fue el abrumador poder del núcleo atómico liberado sobre esas dos ciudades hace 70 años. Pero es menos sabido que cuando Japón capituló, el día 15, había una tercera bomba en camino para lanzarla “no más tarde de mediados o finales de agosto”, dependiendo de la meteorología. Bueno, en realidad lo que estaba en camino era el núcleo de plutonio, porque el resto de componentes para ensamblar varias bombas más ya estaban esperando en la Base Aérea de Tinian (Islas Marianas), desde donde operaba el Grupo Combinado 509 de laUSAAF, encargado de los ataques atómicos. Decidiendo qué ciudades aniquilamos. Es preciso detenerse primero en la peculiar manera como el llamado Comité de Objetivos (Target Committee) decidió los blancos para esta nueva arma. Hasta bien
- 292 -
La Pizarra de Yuri 3
entrada la primavera de 1945, con la guerra en Europa ya terminando y el Proyecto Manhattan para construir labomba atómica muy avanzado, los Estados Unidos no tenían muy claro dónde y cómo iban a utilizarla si es que todo aquel invento funcionaba. Uno de sus problemas fundamentales radicaba en que los blancos más jugosos ya estaban reducidos a cenizas por los grandes bombardeos incendiarios de los meses anteriores. Media Tokio, por ejemplo, había desaparecido. Hasta 67 ciudades japonesas estaban destruidas en mayor o menor grado, junto a un enorme número de otros objetivos. Remover ruinas con un petardazo fenomenal no tendría el mismo impacto psicológico, ni causaría el mismo daño, que desintegrar una ciudad intacta con toda su población. Además, los investigadores estadounidenses querían estudiar los efectos de un arma nuclear sobre un blanco real previamente virgen o casi. En palabras del asesor de Defensa John J. McCloy (un cargo parecido a lo que ahora sería el consejero de Seguridad Nacional), “no nos quedaban más ciudades que bombardear, más portaaviones que hundir o más acorazados que cañonear; teníamos problemas para encontrar objetivos.” Así pues, el 27 de abril de 1945, tres días antes de que Hitler se suicidase en su búnker berlinés, este Comité de Objetivos se reunió por primera vez en el Pentágono. Presidía el general Leslie Groves, director del Proyecto Manhattan, aunque la voz cantante la llevó su asistente Thomas Farrell. Estaban también el general de brigada Lauris Norstad de la USAAF (predecesora de la actual Fuerza Aérea de los Estados Unidos) y científicos nucleares comoJohn von Neumann o William Penney. Curiosamente, Robert Oppenheimer –director científico del Proyecto– no fue invitado y menos curiosamente, tampoco Leó Szilárd –el inventor original de la bomba atómica y otras cosas muy destructivas, pero totalmente contrario a su uso contra zonas habitadas–. En la práctica, esta reunión inicial se limitó a definir unos criterios generales y una lista provisional de objetivos, donde ya aparece Hiroshima como primera opción y Nagasaki entre las alternativas:
- 293 -
Antonio Cantó
Fragmento del memorando original de la primera reunión del Comité de Objetivos, tomado por el general de brigada Lauris Norstad de la USAAF (antecesora de la actual USAF) el 28 de abril de 1945, con la lista inicial de objetivos. Puede observarse que ya aparece Hiroshima con un “1” manuscrito al lado y Nagasaki como posible alternativa. Nótese que hay varias erratas, como “Kamasaki” por Kawasaki, “Yokahama” por Yokohama, “Osake” por Osaka o posiblemente “Shimosenka”, que no he logrado identificar. Imagen: Archivos Nacionales de los Estados Unidos.
Los criterios son todavía más interesantes, pues revelan claramente la política de selección de blancos: 1.
Deben tomarse en consideración las grandes áreas urbanas, con no menos de 3 millas de diámetro, en las zonas más pobladas.
2.
Los objetivos deben estar entre las ciudades japonesas de Tokio y Nagasaki.
3.
El objetivo debe tener un alto valor estratégico.
4.
Se considera apropiado estudiar las siguientes áreas: Bahía de Tokio, Kawasaki, Yokohama, Nagoya, Osaka, Kobe, Kioto, Hiroshima, Kure, Yawata, Kokura, Shimosenka [?], Yamaguchi, Kumamoto, Fukuoka, Nagasaki, Sasebo.
5.
El Grupo de Objetivos conjunto de la Armada y la Fuerza Aérea descartará cualquiera de estas 17 áreas que ya hayan sido destruidas. –De las notas de la reunión inicial del Comité de Objetivos, Archivo de Seguridad Nacional de los EEUU.
- 294 -
La Pizarra de Yuri 3
Alcance de un B-29 cargado con una bomba atómica (1.500 millas náuticas) desde la base aérea de Tinian-Norte, según las Notas de la reunión inicial del Comité de Blancos de 27 de abril de 1945 celebrada en el Pentágono, Washington DC (pág. 1.) La posición de Hiroshima y Nagasaki está indicada con puntos rojos. Este alcance dejaba a los bombarderos cierto margen de combustible para localizar el objetivo, realizar varios intentos o, en su caso, dirigirse al blanco alternativo. Mapa base: © Google Maps / Mapping and Distance Tools.
Es decir, desde el principio iban a por grandes áreas urbanas con mucha población, situadas entre Tokio y Nagasaki (por el alcance de los bombarderos B-29, añadiendo cierto margen), que no hubiesen sido ya abrasadas. Lo del “alto valor estratégico” es un poco más discutible; evidentemente, en tiempos de guerra, toda ciudad grande y muy poblada va a tener algo con valor estratégico (industria, un puerto, un nudo de comunicaciones, cualquier cosa), lo que a todos los efectos convierte a este tercer punto en una carta blanca para atacar cualquier localidad de buen tamaño. El hecho de que el punto de mira fuese en todos los casos el centro urbano en vez de las áreas donde pudieran estar esas instalaciones de alto valor estratégico y que buscaran el máximo impacto psicológico, como veremos más adelante, refuerza esta idea (en Hiroshima le dieron casi de lleno, en Nagasaki se les desvió debido a la nubosidad.)
- 295 -
Antonio Cantó
La segunda reunión del Comité de Objetivos, mucho más decisiva, se celebró dos semanas escasas después, con la guerra en Europa recién terminada: el 10 y 11 de mayo de 1945. Esta vez Oppenheimer sí estaba presente; tanto, que la hicieron en su despacho de Los Álamos (el “sitio Y.”) Con él se encontraban el general Farrell (el asistente del director Groves), el coronel Seeman, el capitán Parsons, el mayor Derry y varios científicos e ingenieros, incluyendo de nuevo a Von Neumann y Penney. En el memorando de esta reunión, donde se contemplan numerosos aspectos técnicos y operacionales, ya queda claro que buscan el máximo efecto psicológico tanto en Japón como en el mundo entero y que no desean apuntar a un objetivo militar aislado: 7. Factores psicológicos en la selección del objetivo. A. Hubo acuerdo en que los factores psicológicos de la selección del objetivo son de gran importancia. Dos aspectos de esto son: 1. Conseguir el mayor efecto psicológico en Japón y 2. Hacer que el uso inicial sea lo bastante espectacular como para que la importancia del arma se reconozca internacionalmente cuando se le dé publicidad. B. Con respecto a esto, Kioto tiene la ventaja de que su población es más inteligente y por tanto más capaz de apreciar el significado del arma. Hiroshima tiene la ventaja de que su tamaño y la posible focalización [ocasionada por] las montañas cercanas [favorecerán que] una gran parte de la ciudad resulte destruida. El Palacio del Emperador en Tokio tiene una fama mayor pero es de menor valor estratégico. 8. Uso contra objetivos “militares.” A. Hubo acuerdo en que para el uso inicial del arma cualquier objetivo pequeño y estrictamente militar debe hallarse en un área mucho mayor sujeta a daños [ocasionados por] la explosión, para evitar el riesgo de que el arma se pierda debido a [un mal lanzamiento.] –Del memorando de la segunda reunión del Comité de Objetivos, Archivo de Seguridad Nacional de los EEUU.
- 296 -
La Pizarra de Yuri 3
Fragmento del memorando de la 2ª reunión del Comité de Blancos (pág. 6), especificando que se desea el máximo impacto psicológico, que no se deben atacar pequeños blancos militares a menos que se encuentren en “un área más extensa” donde los efectos de la bomba se evidencien, y que los bombarderos deben alejarse al menos 2,5 millas náuticas de la explosión para reducir los efectos de la radiactividad. Imagen: “The atomic bomb and the end of World War II: a collection of primary sources. National Security Archive electronic Briefing Book,” nº 162 (2005-2007). Universidad George Washington, Washington D.C (Clic para ampliar)
También se evidencia que conocen sobradamente los efectos perniciosos de laradiactividad: 9. Efecto radiológico. A. El Dr. Oppenheimer presentó un memorándum que había preparado sobre los efectos radiológicos del dispositivo. Este memorándum no se reproducirá en este resumen pero se le envía al general Groves como un documento separado. Sus recomendaciones básicas son: 1. Por razones radiológicas, ninguna aeronave debe hallarse a menos de 2,5 millas del punto de detonación (por la explosión, esta distancia debería ser mayor) y 2. Las aeronaves deben evitar la nube de materiales radiactivos. Si otras aeronaves realizan misiones poco después de la detonación, un avión de monitorización debería determinar las áreas a evitar. 10. Operaciones aéreas coordinadas.
- 297 -
Antonio Cantó
A. Se discutió la posibilidad de proseguir el ataque con una misión de bombardeo incendiario. Esto presenta la gran ventaja de que la capacidad de lucha contra incendios del enemigo habrá sido probablemente paralizada por el dispositivo, de tal modo que podría producirse una conflagración muy severa. No obstante, hasta que se sepa más sobre los fenómenos asociados a la detonación del dispositivo, como hasta qué punto habrá nubes radiactivas, debe evitarse ninguna misión de bombardeo incendiario inmediatamente [posterior.] (…) –Del memorando de la segunda reunión del Comité de Objetivos, Archivo de Seguridad Nacional de los EEUU.
Finalmente, en este segundo encuentro la anterior lista de 17 objetivos queda reducida al estudio de 6, de los que al final recomiendan 4: 6. Estado de los objetivos. El Dr. Stearns describe el trabajo que ha realizado sobre la selección de objetivos. Ha estudiado posibles blancos con las siguientes características: (1) Son objetivos importantes en una gran área urbana con más de 3 millas de diámetro; (2) Pueden ser dañados efectivamente por una detonación; y (3), es improbable que sean atacados antes del proximo agosto. El Dr. Stearns tenía una lista de 5 blancos que la Fuerza Aérea podría reservar para nuestro uso a menos que aparezcan circunstancias imprevistas. Son los siguientes: 1.
Kioto – Este objetivo es un área urbana industrial con un millón de habitantes. Es la antigua capital de Japón y mucha gente e industrias se están trasladando ahí ahora tras la destrucción de otras áreas. Desde el punto de vista psicológico tiene la ventaja de que Kioto es un centro intelectual de Japón y su población es más capaz de apreciar el significado de un arma como el dispositivo. (Calificado como objetivo AA.)
2.
Hiroshima – Este es un importante almacén del ejército con un puerto de embarque en medio de un área urbana industrial. Constituye un buen objetivo por radar y tiene unas dimensiones que podrían hacer que una gran parte de la ciudad resulte extensamente dañada. Hay unas colinas adyacentes que probablemente producirán un efecto de focalización que puede incrementar de modo significativo los daños causados por la explosión. Debido a sus ríos no es un buen objetivo incendiario. (Calificado como un objetivo AA.)
3.
Yokohama – Este objetivo es una importante área urbana industrial que hasta ahora no ha sido atacada. Sus actividades industriales incluyen la fabricación de
- 298 -
La Pizarra de Yuri 3
aviones, máquinas herramienta, puertos, equipo eléctrico y refinerías de petróleo. Conforme los daños a Tokio han aumentado, más industrias se han mudado a Yokohama. Tiene la desventaja de que las áreas más importantes están separadas por una gran extensión de agua y ahí se encuentra la mayor concentración de fuerzas antiaéreas de Japón. Para nosotros tiene ventajas como un blanco alternativo para uso en caso de mal tiempo, dado que se encuentra bastante lejos de los otros objetivos considerados. (Calificado como un objetivo A.) 4.
Arsenal de Kokura – Este es uno de los mayores arsenales de Japón y está rodeado por estructuras urbanas industriales. El arsenal es importante por [contener] artillería ligera, armamento antiaéreo y materiales defensivos para cabezas de playa. Sus dimensiones son 4.100 x 2.000 pies [1.250 x 610 metros.] Debido a sus dimensiones, si la bomba fuese correctamente lanzada se obtendría la máxima ventaja de las altas presiones inmediatamente debajo para destruir las estructuras más sólidas y al mismo tiempo habría daños considerables a las estructuras más débiles situadas a mayor distancia. (Clasificado como un objetivo A.)
5.
Niigata – Este es un puerto de embarque en la costa Noroeste de Honshu. Su importancia está creciendo conforme otros puertos resultan dañados. Cuenta con industria de máquinas herramienta y es un centro potencial de dispersión industrial. Tiene refinerías de petróleo y almacenes. (Calificado como un objetivo B.)
6.
Se debatió la posibilidad de bombardear el Palacio Imperial. Hubo acuerdo en que no debíamos recomendarlo, sino que cualquier acción para este bombardeo debe proceder de las autoridades que hacen la política militar. Acordamos que deberíamos obtener información para determinar la efectividad de nuestra arma contra este objetivo.
B. Los presentes en la reunión recomendaron que la primera elección de objetivos para nuestra arma debería ser la siguiente: a. Kioto. b. Hiroshima. c. Yokohama. d. Arsenal de Kokura. –Del memorando de la segunda reunión del Comité de Objetivos, Archivo de Seguridad Nacional de los EEUU.
- 299 -
Antonio Cantó
Blancos primarios iniciales establecidos por la 2ª reunión del Comité de Objetivos (pág. 5 del acta.) De izquierda a derecha: arsenal de Kokura, en la periferia Este de Kitakyushu (calificado “A”); Hiroshima (“AA”); Kioto (“AA”) y Yokohama (“A”). Puede observarse la posición de Tokio en el extremo superior derecho. Otras 67 ciudades, incluyendo Tokio, habían quedado excluidas porque ya estaban demasiado arrasadas por los grandes bombardeos incendiarios de los meses anteriores. Mapa base: © Google Maps. (Clic para ampliar)
Podemos observar así que Nagasaki ha salido de la lista primaria de blancos y ahora está encabezada por Kioto, seguida de Hiroshima (ambas con la máxima calificación: “AA.”) Un enorme punto de mira acababa de aparecer sobre la milenaria capital imperial construida en el año 793 CE, con su millón de habitantes, su centralidad cultural y su relevancia simbólica y religiosa en el sistema tradicional de creencias japonesas. Un punto de mira situado exactamente sobre su playa ferroviaria principal, justo encima de donde hoy en día se encuentra el Museo de Locomotoras de Vapor. Durante las siguientes semanas, esta fue la zona cero para el primer ataque nuclear de la historia de la humanidad:
- 300 -
La Pizarra de Yuri 3
La “zona cero” del ataque nuclear contra Kioto que nunca llegó a producirse, según un mapa de la USAAF de junio de 1945. Puede observarse que en este caso no apuntaban directamente al centro urbano como sucedería con Hiroshima y Nagasaki, sino al nudo ferroviario principal situado en los barrios del Sur. No obstante, gran parte de la ciudad habría resultado incendiada y destruida. En todo caso, a partir de la tercera reunión se decidió abandonar esta política de apuntar a zonas específicas para dirigir el ataque directamente contra el centro urbano, con lo que las áreas históricas y de importancia religiosa y cultural de Kioto habrían sido muy probablemente aniquiladas. Imagen: Archivo de Seguridad Nacional de los EEUU. (Clic para ampliar.)
Salvando a Kioto, condenando a Hiroshima.
- 301 -
Antonio Cantó
El Secretario (Ministro) de la Guerra Henry L. Stimson (1867-1950), que se emperró en que Kioto no fuese bombardeada, condenando así a Hiroshima. Imagen: Wikimedia Commons.
Entonces ocurrió algo singular: el Secretario (Ministro) de la Guerra Henry L. Stimson dijo que ni en broma. Que Kioto tenía que salir de la lista del Comité de Objetivos. Sus razones nunca han quedado claras. Suele contarse que cuando era embajador en las Filipinas, se casó y pasó la luna de miel en esta ciudad, con lo que le tenía un cariño especial; a veces la historia se escribe con letra pequeña. Obviamente sus argumentos, con los que presionó al presidente Truman una y otra vez, no fueron esos. Afirmó que un ataque nuclear contra la emblemática Kioto, en vez de empujar a los japoneses a la rendición, los electrizaría para seguir peleando hasta el fin o al menos buscar una paz separada con los soviéticos. Que en realidad no constituía un blanco estratégico tan importante. Y de hecho, llegó a convencer a Truman de que constituía un blanco “civil” por oposición a Hiroshima, que le vendió como un blanco “militar.” Incluso se negó a que entrara en la lista para los bombardeos convencionales. Puede que también pesara el precedente de Dresde, pues ya en aquellos tiempos había levantado publicidad negativa para la causa aliada como una atrocidad sin sentido. El caso es que se abrió una batalla interna entre el general Groves, partidario de mantener a Kioto como objetivo nº 1, y Stimson, decidido a sacarla por completo de la lista. Como hemos visto en la imagen de más arriba, Kioto seguía siendo un objetivo durante el mes de junio, con los militares determinando el mejor punto para arrojarle la bomba atómica. Aunque éste quedara establecido sobre las playas ferroviarias de los distritos industriales del Sur, probablemente la ciudad entera habría quedado arrasada por una tormenta ígnea debido a los materiales de construcción típicos en el Japón del período, la cercanía de varias fábricas con abundantes materiales inflamables y los extensos parques y bosquecillos que la caracterizan (como ocurriría en amplias zonas de Hiroshima.) No obstante, elacta de la tercera reunión del Comité de Objetivos (30 de mayo) se centra en Kioto, Hiroshima y Niigata como objetivos primarios, y recomendaba un punto de mira menos selectivo: 1.
No especificar lugares [precisos] para hacer puntería; esto se determinará posteriormente en la base [de los bombarderos] cuando se conozcan las condiciones meteorológicas.
2.
Ignorar la ubicación de las áreas industriales como un blanco preciso, dado que en estos tres objetivos tales áreas son pequeñas, extendidas por los límites de las ciudades y bastante dispersas.
3.
Intentar ubicar el primer dispositivo en el centro de la ciudad seleccionada; esto es, que no sea necesario [utilizar] los siguientes 1 o 2 dispositivos para destruirla completamente. (…)
- 302 -
La Pizarra de Yuri 3
–Del memorando de la tercera reunión del Comité de Objetivos (pág. 3), Archivo de Seguridad Nacional de los EEUU.
Fragmento del memorando de la 3ª reunión del Comité de Objetivos (pág. 3), donde ya se recomienda ignorar blancos precisos de interés industrial o militar y apuntar directamente a los centros urbanos. Imagen: “The atomic bomb and the end of World War II: a collection of primary sources. National Security Archive electronic Briefing Book,” nº 162 (2005-2007). Universidad George Washington, Washington D.C.
Observamos así que, como te conté al principio, la idea de lanzar las armas nucleares contra objetivos militares o estratégicos exactos (típicamente situados en áreas más periféricas) va perdiendo fuerza en favor de aniquilar la ciudad entera atacando directamente el centro urbano; como al final se hizo en Hiroshima y se intentó en Nagasaki. En este caso, Kioto no habría recibido el bombazo en los barrios industriales y ferroviarios del Sur, sino sobre el área delantiguo palacio imperial, con el grueso de la población de un millón de habitantes concentrada alrededor. El 27 de junio, todavía aparece en la lista de ciudades que no deben ser bombardeadas por medios convencionales para que estén prístinas cuando llegue la bomba nuclear y poder así estudiar sus efectos con todo detalle.
- 303 -
Antonio Cantó
La prueba Trinity, 16 milisegundos después de la detonación. En ese instante, la “cúpula” tiene unos 200 metros de altura. Esta bomba, muy parecida a la utilizada después en Nagasaki, estalló a las 05:29:21 hora local del 16 de julio de 1945 en el Desierto Jornada del Muerto de Nuevo México (EEUU), con una potencia de unos 20 kilotones. Fue la primera explosión nuclear producida por el ser humano y su éxito abrió paso inmediatamente a los bombardeos atómicos contra Japón. Imagen: Gobierno de los EEUU / Wikimedia Commons. (Clic para ampliar)
Pero al final se impuso el criterio de Stimson, un político poderoso y bastante próximo al presidente Truman: Kioto salió de la lista, tanto para bombardeos nucleares como convencionales. El nombre de la antigua capital imperial va desapareciendo a lo largo de los siguientes documentos para no volver a mencionarse desde mediados de julio. Así, Kioto fue la primera ciudad que se salvó. Pero, automáticamente, el otro objetivo clasificado como “AA” pasó a ocupar la pole position para la aniquilación nuclear: Hiroshima. Población: 350.000 personas, parecida a la de las actuales Bilbao o Alicante, y civiles en su inmensa mayoría. Sobre todo, en torno al centro urbano. Y Nagasaki, con su cuarto de millón de habitantes (como Coruña o Vitoria), regresó a la lista extendida de blancos alternativos para el caso de que la meteorología impidiese bombardear los objetivos ahora primarios: Hiroshima, Kokura, Niigata. La siguiente parte de la historia es bastante conocida, al menos a grandes rasgos, así que no nos extenderemos demasiado. Mientras Leó Szilárd y otros científicos atómicos intentan desesperadamente que la nueva arma no se use contra lugares habitados(1, 2, 3, 4, 5, 6, 7…), la dirigencia política y militar de los Estados Unidos, junto a otro buen número de científicos e ingenieros atómicos, deciden que conviene emplearla en cuanto esté disponible del modo más destructivo posible, causando así el máximo impacto sobre Japón y el mundo entero. De hecho ya un mes antes, el 15 de junio, una carta firmada por Oppenheimer, Fermi, Compton y Lawrence recomendaba su “empleo inmediato”, afirmando que “no podían proponer ninguna demostración técnica que pudiera terminar la guerra y no veían ninguna alternativa a su uso militar directo.” El - 304 -
La Pizarra de Yuri 3
impresionante éxito de la Prueba Trinity del 16 de julio –la primera detonación nuclear de la historia de la humanidad– probablemente terminó de firmar la sentencia de muerte para los blancos del Comité de Objetivos.
Iósif Stalin, Harry Truman y Winston Churchill al inicio de la Conferencia de Potsdam, 17 de julio de 1945. Fue ahí donde el día 24 Truman comunicó a Stalin, de modo algo ambiguo, que los EEUU habían desarrollado “una nueva arma con una potencia destructiva inusual.” Stalin no mostró ninguna reacción en particular y tan solo contestó que “esperaba que hicieran buen uso de ella contra los japoneses.” Resultó que estaba totalmente al tanto del Proyecto Manhattan desde sus orígenes gracias a su extensa red de espionaje y la URSS ya había comenzado su propio programa nuclear en 1943, tras la filtración del Informe MAUD británico al NKVD. Foto: United States Army Signal Corps, Harry S. Truman Library & Museum, Administración Nacional de Archivos y Registros de los EEUU. (Clic para ampliar)
El día 24, en Potsdam, Truman comunica oblicuamente a Stalin que los Estados Unidos disponen ahora de “una nueva arma con una potencia destructiva inusual.” Según el propio Truman, Stalin no se muestra ni impresionado (ni intimidado) en absoluto, y sólo contesta que “espera que hagan buen uso de ella contra los japoneses.” En aquel momento Churchill, Truman y otros presentes se limitaron a pensar que Stalin ignoraba el verdadero poder de esa nueva arma. El hecho es que Stalin estaba perfectamente al tanto del Proyecto Manhattan, por duplicado, o más. Mucho más. Su nombre en clave para los servicios de inteligencia soviéticos fue ENORMOZ (ЭНОРМОЗ, “enorme”) desde al menos finales de 1941 o principios de 1942, cuando todavía era un estudio británico. El programa soviético para hacer su propia bomba atómica se había originado en 1940 y arrancó como muy tarde en 1943, tras obtener una copia del Informe MAUD, al amparo del laboratorio nº2 de la Academia de Ciencias de la URSS (ahora conocido como el Instituto Kurchátov). Sólo había quedado ralentizado por las brutales exigencias de la guerra en Europa y sobre todo por la ausencia de minas de uranio
- 305 -
Antonio Cantó
conocidas en la Unión Soviética (luego, cuando se pusieron a ello, encontraron un montón.) Y para cuando Truman le contó el secretito a Stalin, muy posiblemente la inteligencia soviética ya tenía en su poder los planos básicos de la bomba por implosión de plutonio utilizada en Trinity y Nagasaki, así como de los reactores para producir plutonio en Hanford y la tecnología de enriquecimiento del uranio por difusión gaseosa empleada en Oak Ridge, junto a incontables detalles científico-técnicos más. El Proyecto Manhattan y sus trabajos precedentes estuvieron plagados de espías soviéticos desde el primer momento; incluso se cree que algunos de ellos jamás fueron descubiertos y, a estas alturas, seguramente permanecerán en la oscuridad para los restos. Así que Stalin, sus servicios secretos y sus científicos atómicos no tenían ningún motivo para impresionarse. De hecho, estaban ya construyendo lo suyo y en cuanto Stalin comentó el asunto con sus asistentes en privado, el Ministro de Asuntos Exteriores soviético Mólotov (según Zhukov) propuso: “Dejémosles. Pero hay que hablar con Kurchátov y decirle que acelere las cosas.”
- 306 -
La Pizarra de Yuri 3
El entonces coronel Paul W. Tibbets (1915-2007) saluda desde su bombardero B-29 “Enola Gay” (llamado así por el nombre de su madre), poco antes de despegar de Tinian-Norte con la bomba por disparo de uranio “Little Boy” en dirección a Hiroshima. Foto: Gobierno de los EEUU / Wikimedia Commons. (Clic para ampliar)
El caso es que los Estados Unidos, tal como sugería la carta de Oppenheimer, Fermi, Compton y Lawrence mencionada antes, no tardaron ni tres semanas en emplear esta nueva arma. Inmediatamente tras la Prueba Trinity, los componentes para montar las dos primeras bombas salieron hacia la Base Aérea de Tinian: una por disparo de uranio altamente enriquecido llamada Little Boy, y otra por implosión de plutonio que bautizaron como Fat Man, muy parecida a la de Trinity. Allí ya esperaban los técnicos, ingenieros y aviadores del Grupo Combinado 509º, comandado por el entonces coronel Paul W. Tibbets Jr., para ensamblarlas y cargarlas en los bombarderos B-29. Fue este mismo coronel Paul Tibbets quien despegó muy de madrugada el 6 de agosto de 1945 en su bombardero Enola Gay, con once tripulantes más y la bomba Little Boy a bordo en dirección a Hiroshima, según lo indicado en la orden operacional nº 35 del día anterior. Les acompañaban otros dos B-29, uno con instrumentación para tomar mediciones y otro con cámaras para grabar el ataque para la posteridad. Sus blancos alternativos eran Kokura y Nagasaki. Pero salió una mañana muy buena y los tres aviones alcanzaron Hiroshima poco después de las ocho, tal como estaba previsto, con la ciudad perfectamente visible bajo el sol matutino. Unas condiciones ideales, porque debido a las limitaciones tecnológicas de la época preferían evitar el bombardeo por radar, optando por el visual. A sus pies, 350.000 personas terminaban de desayunar o se dirigían ya a sus escuelas y trabajos, si es que no habían llegado y se disponían a comenzar el lunes (luego veremos por qué los niños seguían yendo a clase durante las vacaciones veraniegas.) Sobre las 08:09, Tibbets inició el ataque y su especialista en bombardeo Thomas Ferebeelanzó a Little Boy a las 08:15, apuntando al Puente de Aioi, justo en el centro urbano y fácil de reconocer desde sus 9.470 metros de altitud. A continuación echaron a correr a toda velocidad, para alejarse tanto como fuera posible. Un suave viento cruzado desvió la bomba unos 240 metros hasta que estalló 44,4 segundos después, a 580 metros sobre el Hospital Shima. La potencia calculada fueron unos 15 o 16 kilotones.
- 307 -
Antonio Cantó
El centro urbano de Hiroshima aniquilado tras el ataque nuclear. El “Enola Gay” apuntó al puente de Aioi con su característica forma de T (en el recuadro amarillo), pero el viento desvió la bomba atómica hasta la vertical del Hospital Shima (en la cruz central.) Cada círculo tiene un radio de 1.000 pies (aprox. 305 metros.) Foto: Gobierno del Japón / Wikimedia Commons.
Fuera de Hiroshima, el primero en darse cuenta de que algo malo pasaba fue el controlador en Tokio de la radio pública japonesa NHK al constatar que la conexión con esta ciudad se había cortado súbitamente. Intentó comunicar por otra línea, pero tampoco hubo manera: la central telefónica de Hiroshima estaba totalmenteoffline. Unos minutos después, los servicios telegráficos ferroviarios constataron igualmente que sus líneas se habían cortado en algún punto al Norte de la ciudad. Pero desde algunas estaciones y apeaderos situadas a más distancia comenzaron a llegar informes histéricos de que había ocurrido alguna clase de enorme explosión. Entonces el Ejército intentó ponerse en contacto con su cuartel en Hiroshima, sin obtener más que el silencio por respuesta. Esto les extrañó mucho, porque todavía no les constaba que se hubiese producido ningún bombardeo importante en el sector y tampoco había ninguna gran cantidad de explosivos almacenada en la ciudad o sus cercanías. Un buen rato después - 308 -
La Pizarra de Yuri 3
mandaron un avión de reconocimiento desde Tokio para ver qué había pasado, pensando todavía que se trataba de algún tipo de accidente envuelto en los rumores habituales de los tiempos de guerra. Cuando el avión llegó a 160 km de Hiroshima, su piloto apenas pudo dar crédito a sus ojos. Desde esa distancia podía ver perfectamente la enorme nube de humo que se alzaba de la ciudad incinerada. Al acercarse más, observó que todo el centro urbano había resultado aniquilado y numerosas áreas periféricas ardían como teas. Los supervivientes se arrastraban como podían hacia las colinas circundantes, heridos, quemados y enfermos de síndrome radiactivo agudo, en busca de precaria ayuda; la mayoría de hospitales y personal médico se encontraban en el centro o cerca del centro y habían desaparecido igualmente con la explosión (más del 90% de los médicos y el 93% del personal de enfermería perecieron o sufrieron graves lesiones.) Luego se supo que entre 60.000 y 80.000 personas murieron al momento, y al menos otras tantas durante los siguientes meses debido a sus heridas y a las enfermedades asociadas a la radiación. La dificultad para establecer la cifra inicial de víctimas con mayor precisión es que muchas, incluyendo a familias enteras, simplemente desaparecieron y no quedó nadie para preguntar por ellas. Dieciséis horas más tarde, sobre el mediodía hora de Washington D.C., el presidente Truman informaba a los Estados Unidos y al mundo de que “una bomba atómica” “con más potencia que 20.000 toneladas de TNT” había sido lanzada sobre Hiroshima, “destruyendo su utilidad para el enemigo.” Añadió: “es un uso de la fuerza básica del universo; la misma fuerza de la que el sol obtiene su poder ha sido liberada contra quienes empezaron la guerra” (en realidad no lo era; para eso habría que esperar a las armas termonucleares.) Advirtió que “estas bombas están ahora en producción y otras más poderosas, en desarrollo.” Y amenazó: “Si [la dirigencia japonesa] no acepta ahora nuestros términos, deben esperar una lluvia de ruina (rain of ruin) desde el aire como jamás ha visto esta Tierra.”
- 309 -
Antonio Cantó
El Ministro de la Guerra japonés y general Korechika Anami (1887-1945) fue uno de los más firmes oponentes a la rendición incondicional exigida por los aliados de Potsdam, bloqueando así durante varios días la capitulación. Sólo la aceptó cuando el emperador se la ordenó formalmente; el mismo día 15, cometió suicidio mediante seppuku (“harakiri”.) Foto: Gobierno del Japón / Wikimedia Commons.
Sin embargo, desde Japón sólo contestaron con el silencio. La razón fundamental fue que ya desde algún tiempo atrás, había en el Gobierno una lucha más o menos abierta entre partidarios de buscar la paz en distintos términos y partidarios de seguir peleando hasta el final. La aniquilación de Hiroshima no hizo más que recrudecer esta pelea, provocando un bloqueo político, con el emperador Shōwa (Hirohito) inclinado hacia el bando de la paz pero de forma un tanto dubitativa, dado que una rendición incondicional podía suponer el final del kokutai(incluyendo a la dinastía imperial.) Los científicos atómicos japoneses, que no ignoraban la posibilidad de construir armas nucleares e incluso tuvieronalgún pequeño proyecto, sabían de su enorme coste y dificultad hasta el punto de que algunos dijeron que los Estados Unidos no podían tener más bombas que la ya utilizada contra Hiroshima. Esto dio argumentos al almirante Soemo Toyoda, que se radicalizó junto al duro jefe del Estado Mayor Yoshijirō Umezu y el Ministro de Defensa Korechika Anami para rechazar la rendición exigida desde la Conferencia de Potsdam. Ni siquiera la notificación soviética de que la URSS se disponía a denunciar el Pacto de Neutralidad de 1941 y declararles la guerra, tal como se habían comprometido con Estados Unidos y el Reino Unido, les hizo cambiar de opinión.
- 310 -
La Pizarra de Yuri 3
Unos por otros, no lograron alcanzar ningún acuerdo y por tanto no pudieron emitir ningún comunicado. Mientras, en Tinian, el 509º Grupo Combinado terminaba de ensamblar una segunda bomba, esta vez por implosión de plutonio, similar a la de la Prueba Trinity. Por su forma regordeta, se llamaba Fat Man. Fat Man despegó a las 03:47 del 9 de agosto de 1945 en el bombardero Bockscar comandado por el mayor Charles W. Sweeney con Kokura como blanco primario. Si recuerdas, Kokura ocupaba el tercer lugar en la lista de blancos del Comité de Objetivos, detrás de la excluida Kioto y la devastada Hiroshima. Pero a diferencia de lo ocurrido el lunes, este jueves la meteorología no acompañó. Cuando llegaron, se la encontraron cubierta de nubes y de humo procedente del bombardeo incendiario de Yawata, atacada la noche anterior por 224 B-29. Como ya te dije, no se fiaban mucho del bombardeo por radar y las condiciones en Kokura les impidieron localizar visualmente el área del blanco. Tras varias pasadas, con la defensa antiaérea japonesa activándose y empezando a hacer cortos de combustible, decidieron alejarse hacia el blanco secundario: Nagasaki. De este modo Kokura, que había sido blanco nuclear dos veces (como objetivo secundario en el ataque del 6 de agosto y primario en este del día 9) fue la segunda ciudad condenada en salvarse. Nagasaki también estuvo a punto de salvarse, pero al final no tuvo tanta suerte. Al llegar los bombarderos, había igualmente mucha nubosidad, tanto que tuvieron que hacer la aproximación final orientados por radar. Estaban a punto de intentar también el bombardeo por radar, del que como te dije no se fiaban mucho, cuando el capitán Kermit K. Beahan divisó Nagasaki a través de un hueco en las nubes. Pero sin poder avistar los puntos característicos del centro urbano, lanzaron al bulto, en la dirección general de la ciudad, a las 10:58 AM. Así pues, la bomba estalló con 21 kilotones de potencia a unos 2,5 kilómetros del centro, sobre el valle y distrito industrial de Urakami, cerca de la mayor catedral católica de Asia Oriental, donde se realizaba una celebración multitudinaria en ese momento por la proximidad de la Virgen de Agosto. Murieron todos los presentes junto a otras 39.000 personas en el momento, en su mayoría obreros industriales con sus familias, y 40.000 más durante los siguientes meses. No obstante, las colinas que rodeaban el valle del Urakami desviaron una parte significativa de la energía de la explosión, con lo que “sólo” resultó destruido el 44% de la ciudad. Algunas zonas situadas “a espaldas” de las colinas salieron casi intactas pese a su proximidad a la vertical de la detonación. Eso sí, donde dio, no quedó mucho que ver:
- 311 -
Antonio Cantó
Nagasaki a la mañana siguiente del bombardeo atómico, aproximadamente a 800 metros de la vertical de la detonación. Pueden distinguirse cadáveres calcinados entre los restos de las casas. Foto: Yosuke Yamahata vía Universidad de California en Los Angeles.
El tercer objetivo.
Ofensiva soviética a través la Manchuria ocupada por los japoneses entre el 9 y el 20 de agosto de 1945, tal como habían pactado con los Estados Unidos y el Reino Unido. En menos de 3 semanas, ocuparon un área mayor que Europa Occidental donde se concentraba la mayor parte de la industria japonesa que no estaba en el propio Japón, llegando a avanzar 150 km en algunos puntos durante el primer día. Se discute si la “puntilla final” para la rendición nipona fueron las bombas de Hiroshima y Nagasaki o este desastre militar que les dejaba definitivamente aislados internacionalmente y sin recursos exteriores. Imagen: Archivos de la Federación Rusa. (Clic para ampliar)
Para acabar de estropearle el día a los japoneses, esa misma madrugada, un minuto después de medianoche, la URSS había cumplido su promesa a Estados Unidos y el Reino Unido: cuando estalló la bomba de Nagasaki, el Ejército Rojo ya estaba atacando la Manchuria japonesa por tres frentes distintos (donde, por su parte, las fuerzas
- 312 -
La Pizarra de Yuri 3
japonesas habían hecho una especie de maratón para cometer tantos crímenes de guerra y contra la humanidad como fuese posible.) Calentitos y bien entrenados y equipados como venían después de ganar la guerra en Europa, los soviéticos arrasaron velozmente a las fuerzas japonesas en el continente, llegando a avanzar hasta 150 km en un solo día. El antes prestigiosísimoEjército de Kwantung, donde se habían labrado la carrera militares del calibre delgeneral Tōjō, se derrumbaba por horas ante las 80 divisiones del mariscal Vasilevsky. Comenzaron a correr rumores (posiblemente falsos) de que la URSS incluso pretendía desembarcar en Japón por Hokkaido, adelantándose así a la planeada Operación Downfall de los aliados occidentales. Todo esto comenzó a poner nerviosos a los estadounidenses: el avasallador éxito de las fuerzas soviéticas en el continente (que terminarían ocupando un territorio mayor que Europa Occidental entre el 9 y el 20 de agosto), el rumor sobre su posible desembarco en Hokkaido y el hecho de que el Gobierno japonés continuara sin decir ni mú a pesar de estas rápidas derrotas y los dos bombazos atómicos empezaba a sugerir un desenlace imprevisto para la Guerra en el Pacífico. Entonces el general Curtis LeMay llamó por teléfono al coronel Paul Tibbets, el comandante del 509º Grupo Combinado que había lanzado la bomba sobre Hiroshima, para preguntarle:
El general Curtis LeMay (1906-1990), comandante de la campaña de bombardeos estratégicos sobre Japón, incluyendo Hiroshima y Nagasaki. Posteriormente, durante la Guerra Fría, dirigiría el Mando Aéreo Estratégico de los EEUU. Imagen: Fuerza Aérea de los EEUU / Wikimedia Commons.
–¿Tienen otra de esas malditas cosas? –Sí, señor –contestó Tibbets. –¿Dónde está?
- 313 -
Antonio Cantó
–Ahí en Utah. –Tráigala aquí. Usted y su tripulación van a lanzarla. –Sí, señor. En efecto, los Estados Unidos contaban ya con un tercer núcleo de plutonio para ensamblar otra bomba como la de Nagasaki con los componentes disponibles en Tinian. Bueno, lo cierto es que tenían la capacidad de producir 3 núcleos al mes con los reactores de Hanford, o incluso 4 si forzaban la máquina. Estados Unidos no había desarrollado un programita experimental de armas nucleares como el que manejó sin éxito la Alemania Nazi, sino un auténtico programa industrial-militar para producirlas en serie, análogo al que después montaría también la URSS. Durante una conversación secreta entre el general Hull y el coronel Seeman (asistente del director del Proyecto Manhattan Leslie Groves) del día 13 de agosto, este último dice a Hull que puede disponer de otras siete bombas para usarlas antes del 31 de octubre, y una cada 10 días a partir de noviembre. El arma nuclear había dejado de ser un experimento de científicos. Ahora ya era un producto industrial a gran escala. Cumpliendo las órdenes del general LeMay, el coronel Tibbets viaja a Utah en avión para recoger el tercer núcleo ya listo. Pero cuando llega a California con él dispuesto a salir hacia Tinian, el día 15, Japón anuncia que ha decidido rendirse tras un intento de golpe de estado fallido por parte de los partidarios de seguir peleando hasta el final. Así, este tercer núcleo no llegó a abandonar los Estados Unidos y nunca ha quedado claro cuál era la siguiente ciudad en la lista. Unos dicen que habrían vuelto a intentarlo contra Kokura, o quizá Yokohama. Pero el historiador Richard B. Frank, en su reconocida obra Downfall: The end of the Imperial Japanese Empire (pág. 303), menciona que los blancos originales del Comité de Objetivos habían quedado ya desfasados y habla de una nueva lista elaborada bajo el mando del general Twining, dado que “los resultados habían superado las expectativas más optimistas”:
- 314 -
La Pizarra de Yuri 3
Los siguientes 6 blancos para los bombardeos atómicos entre mediados de agosto y finales de octubre de 1945 si Japón no se hubiese rendido, según Richard B. Frank (1999): “Downfall: The end of the Imperial Japanese Empire.” Hiroshima y Nagasaki, ya destruidas, están marcadas con una “X”. Mapa base: © Google Maps.
1. 2.
Sapporo. Hakodate.
3. 4. 5. 6.
Oyabu (?) [posiblemente en laPrefectura de Kagawa.] Yokosuka. Osaka. Nagoya.
Llaman la atención Sapporo y Hakodate, situadas en la isla norteña de Hokkaido, porque están fuera del alcance de 1.500 millas náuticas (2.778 km) establecido en documentos previos para que el B-29 pudiese ir cargando una bomba atómica y regresar con un margen de seguridad. O bien estaban ya tan confiados como para forzar un poco las cosas (son unas 200 millas más), o consideraban la posibilidad de que los aviones, después de lanzar la bomba (y por tanto sin nada especialmente secreto a bordo), aterrizasen a repostar en territorio soviético como hicieron durante la Operación Frantic de 1944. En todo caso estás seis ciudades, más quizás Kokura, fueron las que se - 315 -
Antonio Cantó
salvaron de las siete bombas que los Estados Unidos habrían podido producir entre mediados de agosto y finales de octubre si la guerra no hubiese terminado y hubieran tenido que desembarcar en noviembre como estaba planeado. (Otra posibilidad que se contempló fue fabricar 20 y reservarlas para abrirse paso a lo largo de la invasión, como armas tácticas en vez de estratégicas, pero esto no pasó del nivel de conversaciones privadas.) Efectos.
Una niña de Nagasaki que perdió el cabello a causa de la radiactividad. Muchas personas enfermaron y murieron durante las dos décadas siguientes debido a la radiación; no obstante, estos males no pasaron a las siguientes generaciones como se temía. Esta foto estuvo censurada hasta 1952. Imagen: Gobierno del Japón.
Tan pronto como los Estados Unidos ocuparon Japón, empezaron a realizar esos estudios sobre los efectos de la nueva arma. Serían secretos durante muchos años, pero actualmente está casi todo desclasificado. Uno de los primeros hechos que pudieron observarse claramente tras los bombardeos de Hiroshima y Nagasaki fue la enorme
- 316 -
La Pizarra de Yuri 3
eficacia de las armas nucleares para causar la máxima muerte y destrucción en áreas urbanas, comparadas con los bombardeos convencionales realizados hasta entonces. Por ejemplo, los grandes bombardeos convencionales de Dresde mataron a unas 25.000 personas de 350.000 habitantes más un número indeterminado de refugiados, que podrían elevar la cifra a medio millón de personas presentes en el área; es decir, un 5% – 7% de mortalidad. La Operación Gomorra que incineró Hamburgo exigió 3.000 aviones y 9.000 toneladas de bombas para matar a unas 43.000 personas de aproximadamente 1.700.000 habitantes (según el censo de 1939): poco más del 2,5% de mortalidad. Y los apoteósicosbombardeos incendiarios de Tokio mataron a entre 75.000 y 200.000 personas del millón y medio que se encontraban en las zonas afectadas: del 5% al 13% de mortalidad, una exageración. Por el contrario, la única bomba de Hiroshima mató instantáneamente a 60.000 – 80.000 personas de 350.000: una mortalidad del 17% – 23% y pocos meses después habían fallecido unas 166.000, elevándola al 47%. En cuanto a Nagasaki, pese a marrar el centro urbano por dos kilómetros y medio y estallar entre las colinas de Urakami que protegieron al resto de la ciudad, murieron 39.000 personas de 250.000 habitantes totales en los primeros momentos (el 15,6%) y unas 80.000 para finales de año, sumando el 32%. Esto es: incluso aquellas bombas primitivas de potencia ridícula en comparación con lo que vendría después duplicaron e incluso triplicaron las tasas de mortalidad ocasionadas por los peores bombardeos convencionales urbanos de la historia de la humanidad.
Esta otra niña, de Hiroshima, llegó a ver “la luz que brilla como mil soles”… y después ya no volvió a ver nada más, nunca jamás. Imagen: Gobierno del Japón.
- 317 -
Antonio Cantó
Uno de los estudios más escalofriantes que hicieron –lógico, pero escalofriante– analizó la mortalidad entre escolares en colegios a distintas distancias del punto de detonación. Aunque en principio estaban de vacaciones veraniegas, en tiempos de guerra, y con la miseria y rápida pérdida de recursos humanos a que se enfrentaba Japón, eso de las vacaciones era muy relativo. Numerosas escuelas permanecían abiertas. El alumnado de primaria o estaba en sus casas –típicamente próximas al cole– o acudía al centro para recuperar clases perdidas durante el año. El de secundaria, a partir de los 12 o 13 años, participaba en “tareas patrióticas” relacionadas con el esfuerzo de guerra ( gakuto giyutai) como abrir cortafuegos (al aire libre) o trabajar en industrias (a cubierto), todo ello cerca de sus colegios o en lugares conocidos por los profesores y directivos de los centros, que lo llevaban muy controlado. Tras los bombardeos, muchos de los profesores y directivos que habían sobrevivido hicieron grandes esfuerzos por localizar a sus alumnos o al menos, sus familias. Así que existía un registro exhaustivo de la posición de toda esta chavalería cuando estallaron las bombas, y lo que les pasó. Como consecuencia, el volumen 6 del informe de la Comisión Conjunta para el estudio de los efectos de la bomba atómica en Japón (“efectos médicos”), elaborado por el Ejército y la Comisión de Energía Atómica de los EEUU, dedica al menos 32 de sus 256 páginas a investigar el destino del alumnado de las escuelas de Hiroshima (donde, al estallar la bomba tan cerca del centro urbano, había muchas.) En un radio de 900 metros alrededor del eje del ataque, sólo hay supervivientes entre quienes se hallaban fuera de ese radio de 900 metros dedicándose a estas “tareas patrióticas.” Por ejemplo, en el colegio de primaria Motokawa (a 500 metros), sus 192 alumnos “en la escuela o en casa” resultaron muertos. En la 1ª Escuela Prefectural para Niñas (a 800 metros), las 174 que había dentro perecieron también. Sin embargo, entre el 1º y 2º cursos del instituto de secundaria de Koamicho, que estaban abriendo cortafuegos a distancias de entre 800 y 1.100 metros de la explosión, sobrevivieron 174 de sus 497 alumnos (es de suponer que quienes estaban a mayor distancia y “a la sombra” de edificios resistentes.) Con estos y otros datos, el área de aniquilación para esta bomba primitiva de 15 kilotones escasos quedó establecida en un radio de un kilómetro alrededor del eje del ataque.
- 318 -
La Pizarra de Yuri 3
Fragmento del listado de los colegios de Hiroshima indicando la distancia a la vertical de la detonación, la ubicación de su alumnado y el número de víctimas. Imagen: U.S. Army Institute of Pathology (6 de julio de 1951): “The Report of the Joint Commission for the Investigation of the Effects of the Atomic Bomb in Japan, vol. 6. – Medical effects of atomic bombs”, pág. 26. United States Atomic Energy Commission, Technical Information Service, Oak Ridge, Tennessee.
Los investigadores estadounidenses prestaron particular atención a las alumnas del instituto femenino privado de Yasuda, porque se encontraban repartidas entre el colegio (a 1.200 metros de la explosión) y distintas “tareas patrióticas” que se extendían desde abrir cortafuegos cerca del edificio prefectural (a 900 metros) hasta trabajar en varias fábricas situadas a una distancia de entre 1.400 y 2.000 metros. O sea, dispuestas a lo largo de las zonas límite. Entre las 300 alumnas que hacían cortafuegos a la intemperie a menos de 1 km de la detonación, sólo hubo 8 supervivientes confirmadas (5 heridas graves.) En el propio instituto (1,2 km) se salvaron 30 de 75 (con 14 de ellas gravemente heridas.) Pero de las 9 que había en el dormitorio (1,6 km), sobrevivieron todas (2 heridas graves.) Y en las fábricas (1,4 a 2 km y además protegidas por la estructura de los edificios) salieron con vida 515 de las 555 que trabajaban en ellas (con 30 heridas graves y 4 sufriendo radiotoxicidad.)
- 319 -
Antonio Cantó
Gráfica general de bajas totales y mortalidad para Hiroshima, en función de la distancia a la vertical de la detonación. Recordemos que se trataba de una bomba primitiva de escasamente 15 o 16 kilotones. Imagen: U.S. Army Institute of Pathology (6 de julio de 1951): “The Report of the Joint Commission for the Investigation of the Effects of the Atomic Bomb in Japan, vol. 6. – Medical effects of atomic bombs”, pág. 70. United States Atomic Energy Commission, Technical Information Service, Oak Ridge, Tennessee. (Clic para ampliar)
Lógicamente, la resistencia de los edificios y la situación de las personas dentro de los mismos jugó un papel relevante para la supervivencia. Hubo un puñado de supervivientes incluso bien dentro del área de aniquilación. El caso más extremo es el de Eizo Nomura, a apenas 170 metros de la vertical de la detonación. Eizo, de 47 años, trabajaba en la unidad de racionamiento de combustibles, situada en un edificio de hormigón armado; y él, personalmente, se encontraba en el sótano buscando unos documentos. Ni en el edificio ni en sus alrededores sobrevivió nadie, pero Eizo salió básicamente ileso. Las múltiples paredes y suelos de hormigón y la tierra a su alrededor le protegieron como si fuesen una especie derefugio antiatómico casual. En sus memorias relataba cómo al escapar del edificio entre las llamas, el humo y un paraje de absoluta devastación, pudo oír el llanto de un bebé que “calló poco después.” Eizo sufrió síndrome radiactivo agudo durante los días siguientes, pero se recuperó y vivió hasta los 84 años, muriendo en 1982. Hablando de radiación, como ya te supondrás, ha habido un intenso debate sobre los efectos a medio y largo plazo de la radiactividad sobre las poblaciones afectadas. Hiroshima y Nagasaki son los casos en los que más gente quedó expuesta a mayores cantidades de irradiación directa, de forma incontrolada y brutal, a lo largo de toda la historia (en Chernóbil, por ejemplo, las personas que absorbieron grandes dosis fueron muchas menos y todas ellas en la central accidentada o sus inmediaciones más próximas; a cambio, la cantidad de deposición secundaria fue mayor.) Como consecuencia, se han hecho cientos de estudios sobre la salud de quienes sobrevivieron
- 320 -
La Pizarra de Yuri 3
a las heridas y quemaduras ocasionadas por las bombas y a la radiotoxemia aguda subsiguiente.
Exceso de muertes por leucemia atribuibles a las dosis de radiación recibidas para supervivientes de Hiroshima y Nagasaki con respecto a la población general, 1950-2002 (indicado en tono violeta más claro.) Sin embargo, teniendo en cuenta que la cohorte total de individuos estudiados ascendió a 120.000 personas situadas en áreas próximas a las explosiones (y en otros estudios llega a 200.000 personas), puede observarse que el número de muertes por esta causa es relativamente bajo (219 fallecimientos.) Gráfica: Douple, Evan B. et al (2011): “Long-term radiation-related health effects in a unique human population: Lessons learned from the atomic bomb survivors of Hiroshima and Nagasaki.” Disaster Med Public Health Prep. Marzo 2011; 5(0 1): S122–S133. DOI: 10.1001/dmp.2011.21 (Clic para ampliar)
Los resultados, aunque relevantes, no sontan catastróficos como muchos temen. Huboun claro incremento de los casos deleucemia unos 6-8 años después de los ataques, y de cataratas y tumores sólidosdurante las dos a tres décadas siguientes (incluso entre quienes habían recibido dosis muy bajas), pero no tanto como para meterle una dentellada importante a la población. No se produjo un aumento de las malformaciones congénitas ni del riesgo de sufrir cánceres entre la descendencia de los supervivientes, salvo en el caso de las embarazadas de 8 a 15 semanas en el momento de los ataques que recibieron altas dosis de irradiación directa. Puede que influyera el hecho de que ambas explosionesfueran aéreas, para aumentar el área de destrucción, pero generando por tanto mucha menos contaminación secundaria que las detonaciones en superficie (las cuales proyectan grandes cantidades de material activado a la atmósfera.) Hoy en día Hiroshima y Nagasaki, lejos de ser eriales radiactivos, son dos ciudades perfectamente habitables donde los niveles de radiación apenas se distinguen de la radiactividad natural y sus habitantes presentan un estado de salud similar al del resto de Japón. Por fortuna, los peores temores no se cumplieron, al menos en el largo plazo. Una coletilla poco conocida es que la Academia de Ciencias de la URSS desplegó un equipo en el área de Vladivostok, a unos mil kilómetros de distancia, para tomar
- 321 -
Antonio Cantó
mediciones radioisotópicas del aire que llegaba desde las ciudades japonesas bombardeadas. Aunque registraron unas cifras muy bajas, al analizar su composición, pudieron confirmar que las bombas reales coincidían con los datos de inteligencia que habían ido recibiendo durante todos esos años. Así, los bombardeos de Hiroshima y Nagasaki, en vez de intimidar a la URSS, terminaron de afianzarla en el camino para crear sus propias armas nucleares apenas cuatro años después. A insistencia de Lavrenti Beria, priorizaron una bomba que era prácticamente una copia de la de Nagasaki (llamada RDS-1) pese a que tenían en marcha diseños autóctonos más avanzados (RDS2 y RDS-3); Beria quería confirmar que toda la información que habían recibido era correcta, que podían desarrollar una copia casi idéntica de la bomba americana (y estudiar sus efectos con todo detalle) y, de paso, lograrlo lo antes posible, convirtiendo así rápidamente a la URSS en la otra superpotencia nuclear. La “maldición” del tercer núcleo (y del USS Indianapolis).
El crucero pesado USS Indianapolis frente a Mare Island, California, el 10 de julio de 1945. A partir del día 16, sería utilizado para trasladar los componentes de la bomba de Hiroshima a la base de Tinian. Y el 30 de julio fue torpedeado por el submarino japonés I-58, con gran parte de su tripulación pereciendo de modo bastante atroz. Imagen: Armada de los Estados Unidos / Wikimedia Commons. (Clic para ampliar)
Tres incidentes casuales contribuyeron a incrementar el “aura maldita” que rodeó a todo este asunto de lo nuclear desde el principio (como si la aniquilación de dos ciudades en plan “presentación en sociedad” no fuese suficiente…) El primero fue lo sucedido al crucero pesado USS Indianapolis, encargado de transportar los componentes para ensamblar la bomba de Hiroshima en Tinian. Tras entregar el material, el día 26 de julio, se hizo de nuevo a la mar con rumbo a Leyte.
- 322 -
La Pizarra de Yuri 3
A las 00:14 del día 30, fue avistado y torpedeado por el submarino japonés I-58. ElIndianapolis se hundió en apenas 12 minutos, dando la vuelta de campana por completo antes de sumergirse en unas aguas plagadas de tiburones y sin tiempo para agarrar muchos chalecos ni botes salvavidas. Trescientos de sus 1.196 tripulantes se fueron a fondo con el buque, pero la pesadilla sólo acababa de comenzar. Al Indianapolis no le había dado tiempo de transmitir nada antes de hundirse y el Alto Mando estadounidense no pensó que pasara nada de particular. Sólo cuando un avión de reconocimiento avistó casualmente a algunos náufragos tres días y medio después se percataron de lo sucedido. Para entonces sólo quedaban 321 supervivientes, de los que se salvaron 317. El resto habían muerto de sed, envenenados por beber agua del mar, comidos por los tiburones o simplemente ahogados. Fue la última pérdida de un gran buque de superficie estadounidense en la II Guerra Mundial y, como puede verse, de manera especialmente desagradable. (El último de todos fue el submarino USS Bullhead, hundido por aviones japoneses el mismo día del bombardeo de Hiroshima.)
El físico Harry K. Daghlian Jr. (1921-1945), primera persona muerta en un accidente de criticidad, mientras trabajaba con el “tercer núcleo” que estuvo a punto de ser utilizado contra Japón. Imagen: Wikimedia Commons.
Por su parte, el tercer núcleo también hizo de las suyas. Dos veces, hasta tal punto que llegaron a apodarlo el núcleo del demonio. Como te conté antes, al rendirse Japón, este núcleo se encontraba en California de camino a Tinian y no llegó a abandonar los Estados Unidos. En vez de eso, lo llevaron a Los Alamos para experimentar con él. Y el primer accidente ocurrió menos de una semana más tarde. El físico Harry Daghlian, de 24 años de edad, estaba trabajando en reflectores neutrónicos con el propósito de reducir la masa crítica necesaria para hacer una bomba atómica (una característica de todas las armas nucleares modernas.) Así pues, empezó a envolverlo con bloques de carburo de
- 323 -
Antonio Cantó
wolframio, uno de estos reflectores neutrónicos, para ir tomando medidas de criticidad. A mano, como se hacían las cosas en la época. Richard Feynman dijo de estos experimentos que eran como “hacerle cosquillas a la cola de un dragón dormido” por su extremo peligro, dado que cualquier error podía provocar un grave accidente de criticidad. Cuando Daghlian iba a tapar el conjunto con el último bloque, los detectores neutrónicos le indicaron que aquello estaba a punto de tornarse supercrítico. Vamos, que iba a empezar la reacción en cadena. Fue a apartarlo… y se le resbaló de la mano, cayendo directamente sobre el núcleo. Al instante, éste se volvió casi-crítico, iniciando así un accidente de criticidad con fuerte emisión de radiación neutrónica. En vez de echar a correr, Daghlian intentó quitar el bloque de un manotazo, pero no pudo y se puso a desensamblar el montaje hasta que consiguió detener la reacción. Para entonces, había absorbido varios sieverts de radiación gamma y neutrónica, además de sufrir quemaduras beta. Murió el 15 de septiembre, 25 días después, víctima del síndrome radiactivo agudo. Un vigilante del laboratorio recibió también su dosis, mucho más baja, y pereció 33 años después (a los 62) de leucemia mieloide aguda. Esta es una enfermedad asociada a la radiación, que también sufrieron no pocos supervivientes de Hiroshima y Nagasaki; pero con 33 años por medio, vaya usted a saber si fue a consecuencia del accidente o porque le tocaba.
A la izquierda, el físico Louis Slotin (1910-1946), segunda víctima de un accidente de criticidad trabajando con el “tercer núcleo.” A la derecha, reconstrucción de cómo “le hacía cosquillas a la cola del dragón dormido” cuando se le resbaló el destornillador y el dragón tosió. Imágenes: Gobierno de los EEUU / Wikimedia Commons. (Clic para ampliar)
Tras este suceso se establecieron numerosos protocolos de seguridad para trabajar con estos primitivos núcleos apenas subcríticos (tan solo “5 centavos” por debajo del punto de criticidad.) Sin embargo, había otro físico más conocido, llamado Louis Slotin, que era muy bueno en lo suyo pero tenía sus peculiaridades, el hombre. Por un lado parece ser que era pelín chulo y vacilón, con cierto gusto por epatar a quien se le pusiera por
- 324 -
La Pizarra de Yuri 3
medio. Un poco notas, vamos. Por otro lado, una vez terminada la guerra, estaba hasta los mismísimos del Proyecto Manhattan (como muchos otros de sus científicos) y quería volverse a sus estudios en Biofísica. Según sus propias palabras, seguía en el tajo porque “soy uno de los pocos que quedan aquí con experiencia en ensamblar bombas.” Y lo cierto es que había ensamblado Trinity y se le conocía como “el Armero en Jefe de los Estados Unidos”; el tipo tenía su valía y su prestigio. Así que estaba enseñando a otros a montar las bombas atómicas antes de largarse, si bien, por lo visto, con una cierta actitud de “para lo que me queda en el convento…” Y así estaban las cosas el 21 de mayo de 1946, cuando Slotin estaba explicando el tema a otros siete técnicos y científicos… utilizando el mismo núcleo del demonio que nunca llegó a salir hacia Japón pero ya había matado a un hombre. Y estaba también contándoles lo de la criticidad, ahora ya con dos semiesferas de berilio (que fue el reflector neutrónico definitivo para las siguientes generaciones de armas nucleares.) Sólo que Slotin, con ese carácter y esa actitud, les hizo la demo manteniendo separadas las semiesferas de berilio… a mano, con la punta de un destornillador de cabeza plana, en contra de las nuevas normativas de seguridad y de la sensatez en general. Según dicen, no era la primera vez que le hacía cosquillas a la cola del dragón con el destornillador de marras. Ya te digo que iba un poco de sobrado. Tanto va el cántaro a la fuente que al final se rompe y aquel día a Slotin se le resbaló el destornillador, siendo las 15:20. Las dos semiesferas de berilio se unieron y el núcleo del demonio se volvió supercrítico instantáneamente por segunda vez. Hubo un fuerte destello de luz azul, seguramente debido a la ionización del aire al recibir el violento golpe neutrónico. Slotin notó un sabor agrio en la boca y una intensa quemazón en su mano izquierda. Aún así, de un tirón, lanzó al suelo la semiesfera superior de berilio, deteniendo la reacción casi al momento. Pero era demasiado tarde. En cuanto escaparon del edificio Slotin ya estaba comenzando a vomitar, puede que por los nervios o por el síndrome radiactivo agudo de los 12 grays de radiación gamma y neutrónica que acababa de comerse en seco. O las dos cosas.
- 325 -
Antonio Cantó
Posición de las personas que se encontraban alrededor de Louis Slotin (marcado con el cuadrado amarillo) cuando sufrió el accidente de criticidad. Curiosamente, aunque Slotin murió a los pocos días de radiotoxemia aguda, el resto de los presentes vivieron muchos años y algunos llegaron a avanzada edad. Imagen: Gobierno de los EEUU / Wikimedia Commons. (Clic para ampliar)
Louis Slotin murió muy malamente 9 días después, el 30 de mayo de 1946. Sin embargo, el resto de los presentes (con tres de ellos a menos de 2,5 metros de distancia) no sufrió más que episodios de debilidad o ningún síntoma en absoluto. El único que murió joven fue el guardia al otro lado de la puerta… porque era un soldado y lo mataron en la Guerra de Corea, a los 27 años de edad. El siguiente falleció 19 años más tarde, de un infarto (los problemas coronarios han sido vinculados a la radiación, pero durante los 18 años anteriores esta persona había presentado una salud excelente, o sea que pudo deberse a ese o cualquier otro motivo.) En general, el resto de los presentes en elaccidente Slotin fueron muriéndose un poco cuando les tocaba; sí, típicamente con enfermedades asociadas a la radiación, pero al menos un par de ellos con más de ochenta años de edad (entre ellos, uno de los que estaban más próximos al núcleo, detrás de Slotin; parece que su cuerpo le protegió.) De estos y otros hechos por el estilo emana parte del interminable debate de los efectos de la radiactividad sobre la salud humana: está claro que si absorbes una dosis muy alta en un plazo breve va a “freírte” y te morirás de tu síndrome radiactivo agudo, o como mínimo sufrirás lesiones y posiblemente secuelas (los llamados efectos no-estocásticos); pero si absorbes dosis menores o en plazos más prolongados, las consecuencias son mucho más ambiguas y retardadas (los llamados efectos estocásticos.) Si te mueres de una leucemia borde 25 años después de sufrir un accidente radiactivo, ¿es a consecuencia del accidente radiactivo o simplemente porque te dio una leucemia borde como a cualquier otro hijo de vecina? En estos casos, donde la irradiación del personal procede de una emisión primaria con poca o nula contaminación secundaria (fallout)
- 326 -
La Pizarra de Yuri 3
que pueda permanecer en el ambiente y el organismo, el asunto es más confuso todavía. El caso es que el tercer núcleo acabó matando gente. Ya no hicieron más experimentos con él y finalmente lo usaron en la prueba Able, cinco semanas después, donde desapareció liberando 21 kilotones de potencia. Como comprenderás, me he tenido que saltar un montón de cosas para que esta entrada no se me alargase hasta el infinito… más aún. ;-) Pero a grandes rasgos, esta es la historia de las ciudades que se salvaron y las gentes que no durante la única campaña de bombardeos atómicos que ha presenciado la humanidad, comenzando hace justo ahora 70 años (día 6 de agosto a las 01:15 hora peninsular CEST, 08:15 hora de Japón.) Ojalá nunca volvamos a ver nada igual. O, más probablemente, si llegara a suceder, mucho peor. Si te ha gustado esta entrada, puede que también te interese: • • • • • •
Radiactividad. Así funciona un arma nuclear y Así funciona un arma termonuclear. La bomba del juicio final. Quienes estaban viento abajo. El error de un Nobel que condenó al proyecto atómico nazi. Cuando Suiza quiso su bomba atómica y tuvo un siniestro nuclear.
Bibliografía: •
Radiation Health Effects. Radiation Effects Research Foundation (actualización constante), Hijiyama Park, Hiroshima. (En inglés y japonés.)
•
Douple, Evan B. et al (2011): “Long-term radiation-related health effects in a unique human population: Lessons learned from the atomic bomb survivors of Hiroshima and Nagasaki. “ Disaster Med Public Health Prep. Marzo 2011; 5(0 1): S122– S133. DOI: 10.1001/dmp.2011.21 (En inglés.)
•
Watanabe, T. et al (2008): “Hiroshima survivors exposed to very low doses of A-bomb primary radiation showed a high risk for cancers.“Environ Health Prev Med. Septiembre 2008; 13(5): 264–270. DOI: 10.1007/s12199-008-0039-8 (En inglés.)
•
The atomic bomb and the end of World War II: a collection of primary sources. National Security Archive electronic Briefing Book, nº 162 (2005-2007). Universidad George Washington, Washington D.C (En inglés.)
•
Chernyshyov, A. K. et al (2003): “Укрощение ядра. Страницы истории ядерного оружия и ядерной инфраструктуры СССР.“ Ed. Octubre Rojo, Sarov. ISBN 5-7439-0621-6. (En ruso.)
•
McLaughlin, T. P. et al (2000): “A review of criticality accidents, 2000 revision.“ Los Alamos National Laboratory, Dpto. de Energía de los EEUU. (En inglés.)
•
“Espionage and the Manhattan Project (1940-1945). “ The Manhattan Project, an interactive history. Office of History and Heritage Resources, Dpto. de Energía de los EEUU. (En inglés.)
- 327 -
Antonio Cantó
•
Frank, Richard B. (1999): “Donwfall: The end of the Imperial Japanese Empire.“ Penguin Books, ISBN 0-679-41424-X. (En inglés.)
•
Hempelman, L. H. et all (1979): “What has happened to the survivors of the early Los Alamos nuclear accidents?“ Conference for Radiation Accident Preparedness, Oak Ridge TN, 19 y 20 de octubre de 1979. Los Alamos Scientific Laboratory, Dpto. de Energía de los EEUU. (En inglés.)
•
U.S. Army Institute of Pathology (6 de julio de 1951): “The Report of the Joint Commission for the Investigation of the Effects of the Atomic Bomb in Japan, vol. 6. – Medical effects of atomic bombs. “ United States Atomic Energy Commission, Technical Information Service, Oak Ridge, Tennessee. (En inglés)
- 328 -
La Pizarra de Yuri 3
Viviendo en un planeta joven de un universo bebé Yuri, el 31 de mayo de 2015 @ 14:29 · Categoría: Ciencia popular
Esta fiesta acaba de empezar.
Impresión artística del aspecto que tendrá la Tierra dentro de unos cinco a siete mil millones de años, con el Sol ya convertido en una gigante roja. En esos momentos, la vida terrestre que conocemos ya no será posible. Imagen: Wikimedia Commons.
- 329 -
Antonio Cantó
Fósiles de microbios hallados en la formación Strelley Pool del cratón de Pilbara, Australia, con unos 3.400 millones de años de antigüedad. Imagen: D. Wacey, Universidad de Australia Occidental / AFP.
Como te apunté al final del post anterior y en algún otro, la vida presente en la Tierra es sobrecogedoramente antigua. Tanto que no sabemos todavía cuándo surgió, pero no pudo ser mucho después delBombardeo Intenso Tardío. Con certeza, tenemos fósiles de microorganismos complejos –posiblemente eucariontes– de hace 2.000 millones de años y microbios con 3.400 millones (como los de la foto a la derecha.) Con casi total certeza, hubo cianobacterias empezando a liberar oxígeno mediante fotosíntesis hace 3.500 millones de años. Hay grafito de origen probablemente biológico en Groenlandia Occidental, generado hace 3.700 millones de años. Por ahí, por ahí estimamos que anda LUCA, o sea el último antepasado común a todo lo que ahora mismo alienta sobre la faz de este planeta. Estudios más inciertos sugieren que pudo haber alguna clase de vida basada en el carbono antes del Bombardeo Intenso Tardío, ocurrido hace unos 3.900 millones de años: uno habla de 4.250 millones de añosy otro apunta a los 4.400, conforme la Tierra terminaba de recolocarse la osamenta y enfriarse después del impacto que dio lugar a la Luna. Si esto fuese verdad, o la vida sobrevivió a una clase de meteoritos que dejan al que mató a los dinos como una mera anécdota de mínima importancia, o apareció más
- 330 -
La Pizarra de Yuri 3
de una vez. En todo caso, cuanto más sabemos, más retroceden los orígenes de la vida, tanto la simple como la compleja. Tú y yo, por ir a lo seguro, nos quedaremos con las estimaciones actuales para LUCA: llevamos aquí al menos 3.700 o 3.800 millones de años. Durante muchísimo tiempo, este fue un mundo de seres unicelulares o pluricelulares muy básicos, cuando no de mero ARN. Hubo que esperar bastante para que los primeros animales comenzáramos a ver la luz. Aunque seguramente hubo algunos protoanimales antes, a todos los efectos nacimos y conquistamos el mar entre el Ediacárico y laexplosión del Cámbrico (635 – 542 millones de años.) Por entonces, las tierras emergidas eran un erial inhóspito y deshabitado, a menos que estos señores tengan razón. Pero hubo que esperar otro centenar de millones de años para que algunos milpiés comenzaran a aventurarse fuera del mar, envueltos en peligrosas concentraciones de oxígeno, lejos del cálido líquido que nos vio nacer, bajo el duro sol. Ahora nos parece tan normal, pero eso es porque la evolución nos ha adaptado a vivir así. Desde este punto de vista, todos los seres que vivimos fuera del agua somos una especie de extremófilos. Venga, en serio: ¿a quién se le ocurre salir del placentero mar que nos vio nacer y donde teníamos de todo para seguir existiendo, mudándonos a un inhóspito pedregal donde no hay apenas agua, con una atmósfera tan oxidante que hasta permite el fuego, expuestos a niveles cancerígenos y genotóxicos de radiación solar…? Bueno, pues lo hicimos. No sólo eso: perseveramos hasta que la evolución nos adaptó y cambió tanto que ahora no podemos regresar al mar sin medios técnicos. A excepción de las ballenas, delfines y demás, claro, que dijeron ahí os quedáis y se volvieron a los océanos como haría cualquier tipo sensato. Eso sí, después de haberse convertido en mamíferos con pulmones que aún hoy les obligan a seguir asomándose al aire para respirar. Bien, y… ¿cuánto tiempo vamos a seguir aquí?
- 331 -
Antonio Cantó
Nebulosas como esta del Cangrejo (NGC 1952) son los restos de una estrella que acabó estallando en forma de supernova; la luz de esta detonación en particular alcanzó la Tierra en el año 1054. Sin embargo, nuestro Sol no tiene masa suficiente para convertirse en una supernova; en vez de eso, “crecerá” hasta convertirse en una gigante roja que luego colapsará como enana blanca antes de irse enfriando muy, muy lentamente hasta terminar en forma de enana negra. Imagen: Wikimedia Commons.
Me supongo que ya sabrás eso de que un día el sol, en su evolución estelar, crecerá tanto que se tragará a la Tierra o al menos la dejará tan churruscada que cualquier cosa parecida a la vida presente será difícilmente posible. También sabrás que falta mucho para que esto suceda: unos 5.000 millones de años para que Sol abandone la secuencia principal y empiece a convertirse en unagigante roja y 7.600 para que alcance sus mayores dimensiones antes de contraerse hasta convertirse en una enana blanca. Luego irá enfriándose muy poquito a poco y finalmente se apagará como una enana negra dentro de mil billones de años o cosa así. Si no ha aniquilado a la Tierra durante su fase de gigante roja, ésta continuará dando vueltas a su alrededor hasta estamparse contra tal enana negra pordeterioro orbital dentro de cien mil veces más tiempo: un uno seguido de veinte ceros de años. O por ahí. No obstante, las cosas desagradables empezarán a ocurrir mucho antes. Antes en términos cósmicos, quiero decir; no esperes ningún apocalipsis en tiempos humanos. Pero el futuro de la vida compleja terrestre se mide más en cientos que en miles de millones de años. Gran parte de ella se sustenta en la fotosíntesis, y particularmente en - 332 -
La Pizarra de Yuri 3
la fotosíntesis por lavía de los tres carbonos. Este tipo de fotosíntesis requiere una cierta cantidad de dióxido de carbono (CO2) en el ambiente. Pese a lo mucho que ahora estamos haciendo el chalado con el dióxido de carbono, conforme la luminosidad del sol vaya aumentando, el ciclo geoquímico del carbonato-silicato –parte del esencial ciclo del carbono– irá debilitándose mediante la meteorización de los silicatos. Eso irá fijando cada vez más y más carbono en el suelo, arrebatándoselo a la atmósfera y al mar. Tanto, que en unos 600 millones de años a partir de ahora la fotosíntesis por la vía de los tres carbonos quedará interrumpida por falta de CO 2, y con ella buena parte de la vida que conocemos.
Las cianobacterias (en la imagen, Tolypothrix sp.) obtienen su energía a partir de la fotosíntesis, absorbiendo dióxido de carbono y liberando oxígeno. Hace unos 2.300 millones de años, esto provocó la llamada “catástrofe del oxígeno”, que llenó la atmósfera terrestre con este gas, dando lugar al aire que conocemos hoy en día. La actual vida compleja terrestre depende en su inmensa mayoría de que los organismos fotosintéticos sigan existiendo. Imagen: Wikimedia Commons.
La vida compleja dispone de otro cartucho en la recámara para ambientes extremos con muy poco dióxido de carbono: la fotosíntesis de los cuatro carbonos. Conforme el CO2 siga cayendo y cayendo, probablemente una parte significativa de los seres fotosintéticos evolucionará hacia esta vía de los cuatro carbonos, como de hecho ya lo hizo. Pero incluso esta “vía extrema” sólo proporcionará otros 200 millones de años de margen. Con un sol cada vez más brillante, incluso estas cantidades residuales de CO2 acabarán fijadas al suelo. Y sin CO 2 no hay fotosíntesis, y sin fotosíntesis es difícil imaginar la supervivencia de la vida compleja terrestre, a menos que la evolución se saque de la manga alguna otra de sus cartas asombrosas. (Ve y cuéntale a
- 333 -
Antonio Cantó
una arqueaprimitiva que algún día uno de sus recontratatarasobrinos, o sobrinas, estaría aquí leyendo frente a la pantalla de un dispositivo digital…) Pero frente a un sol que a cada era brilla más, incluso los inconcebibles cartuchos de la evolución irán agotándose. En unos mil y pico millones de años, la temperatura media del planeta alcanzará los 47ºC y entonces empezará a ocurrir algo muy chungo: mares, océanos y demás aguas comenzarán a esfumarse. Primero, mediante un efecto invernadero húmedo (moist greenhouse) debido a la acumulación de vapor de agua en la atmósfera; el vapor de agua es un poderoso gas de efecto invernadero. Así, el planeta azul se convertirá rápidamente en el planeta blanco, continuamente cubierto por una capa de niebla y nubes cada vez más densas. Pronto, toda el agua disponible en la Tierra se evaporará mediante un efecto invernadero desbocado, para no volver al estado líquido nunca jamás. A todos los efectos, estaremos comenzando a abandonar nuestra zona de habitabilidad estelar (o más bien, la zona de habitabilidad estelar nos estará abandonando…)
Las zonas habitables de los sistemas solares varían con las características de cada estrella y su estadio evolutivo. Conforme nuestro Sol “engorde”, la zona habitable se irá desplazando hacia regiones más exteriores del sistema solar. Imagen: Wikimedia Commons.
A la totalidad del agua le costará mucho desaparecer, entre dos y tres mil millones de años, debido a que irá saliendo poco a poco la que se encuentra atrapada bajo la superficie. Durante una larga temporada, habrá lagos y humedales en las regiones
- 334 -
La Pizarra de Yuri 3
polares. Pero la vida que conocemos, basada en grandes cantidades de agua líquida fácilmente disponible, irá dejando de existir. Por fotólisis, el agua evaporada se separará en forma de oxígeno e hidrógeno; el oxígeno perdurará, sobre todo fijándose a los suelos, pero el hidrógeno escapará al espacio exterior. No más agua en la Tierra. No más planeta azul, ni blanco, sino más bien marrón. Los últimos eucariontes dejaremos paso otra vez a un mundo de procariotas, como siempre fue, que irán extinguiéndose muy poco a poco hasta que finalmente este planeta pierda por completo la capacidad de soportar vida. En unos 1.500 millones de años, la zona de habitabilidadfetén andará ya por Marte. Puede que algo parecido a los extremófilos más extremos resistan aquí hacia la frontera de los 2.800 millones de años futuros, cuando la temperatura media terrestre supere los 147ºC, antes de perecer. Esta vida, aunque inconcebiblemente feraz, morirá así por fin. En suma: que a la vida compleja terrestre le queda al menos tanto tiempo como lleva – llevamos– existiendo, eón arriba o abajo. Todavía pueden ocurrir muchísimas cosas, tantas como las sucedidas desde la explosión del Cámbrico hasta nuestros días. Y a la vida terrestre en general, mucho más. Salvo que ocurriese alguna clase de catástrofe cósmica como no ha ocurrido en los últimos 4.000 millones de años –casi una tercera parte de la edad del universo– la vida va a seguir por estos lares durante otra larguísima temporada, evolucionando y adaptándose sin parar hacia formas ahora inimaginables, como siempre hizo.
- 335 -
Antonio Cantó
Arriba: concepto básico de una lente para dispersar la irradiación solar que alcanza al planeta Tierra (dibujo no a escala; en realidad se encontraría mucho más cerca, en el punto L1 Tierra-Sol, a aproximadamente 1,5 millones de kilómetros de nuestro planeta.) Este concepto básico es un tanto burdo y difícil de ejecutar; en su lugar, más recientemente se han propuesto nubes de lentes minúsculas orbitando en torno al mismo punto (centro y abajo.) Concebido al principio para combatir el calentamiento global, una civilización tecnológica futura podría utilizar este o cualquier otro concepto ahora inimaginable para retrasar significativamente el momento en que la evolución solar haga que nuestro planeta sea inhabitable. Imagen superior: Wikimedia Commons. Imágenes central e inferior: © BBC News.
Si en ese proceso la inteligencia se preserva, o incluso se desarrolla y extiende, pueden crearse las tecnologías necesarias para retrasar todavía más este fin del mundo. Nosotros mismos ya tenemos parte de la ciencia y la tecnología necesarias para hacerlo a pequeña escala, y de hecho se ha planteado como una medida de emergencia frente al
- 336 -
La Pizarra de Yuri 3
calentamiento global presente: si no somos capaces de ponernos de acuerdo para contener las emisiones de gases de efecto invernadero, siempre podemos reducir un poquito la irradiación solar. Se llama la sombrilla espacial o parasol estelar, forma parte de un concepto más amplio denominado gestión de la irradiación solar y aunque suene a ciencia-ficción –y de hecho lo sea en estos momentos–, disponemos ya de gran parte del conocimiento necesario para reducirla en un 2% y mantenerla así durante unos cincuenta años a un coste de unos cinco billones (trillions anglosajones) de dólares. Eso es menos que el PIB mundial de un solo año, y existen otras aproximaciones más económicas. Civilizaciones futuras mucho más avanzadas podrían disponer de un montón de técnicas para paliar y ralentizar la destrucción de la vida compleja terrestre antes de que sea imprescindible dar el siguiente paso obvio: largarse de aquí. ¿Adónde? Puesss… a lo mejor, ni siquiera es preciso pirarse muy lejos, al menos durante una larga temporada. La evolución solar desplazará lazona de habitabilidad estelar hacia los planetas exteriores y sus lunas actualmente heladas, que dejarán de estarlo. Teniendo en cuenta los enormes plazos de tiempo implicados en este proceso de engorde solar –cientos y miles de millones de años–, no resulta inimaginable en absoluto una civilización tecnológica avanzada que vaya migrando y terraformando astros de aquí a Júpiter, Saturno, Urano y Neptuno con arcas de Noé cósmicas antes de que el sol se desinflevelozmente hacia su etapa de enana blanca y sea totalmente necesario encontrar otro sistema solar más amable. Todo esto suponiendo que esa futura civilización no sea ya capaz de encontrar ese otro sistema solar amable y tirar para allá directamente. Suponiendo que no existan maneras de crear astros habitables a la medida. Y suponiendo también, claro, que esa civilización exista o pueda existir para entonces. Pero si la inteligencia no se extingue en la Tierra y continúa evolucionando, no veo ningún motivo obvio por el que la destrucción de este planeta implique necesariamente la desaparición de la vida que alienta en él. Simplemente seguiríamos haciendo lo quesiempre hicimos: migrar en busca de un lugar mejor, sólo que esta vez a escala cósmica. Te contaba en la entrada anterior que me resulta inimaginable lo que sabremos y seremos capaces de hacer dentro de 300, 3.300 o 33.000 años; imagínate en medio millar de millones de años. O más. …en un universo bebé. Pero al final de la carrera, es una huida hacia ninguna parte. Este universo tiene fecha de caducidad. O más bien fechas, porque ahora mismo todavía andamos debatiendo cómo morirá exactamente. Lo que sí se sabe es que tardará mucho, pero que muchísimo más tiempo en hacerlo. Pues, como quien dice, acaba de nacer y salvo por alguna remotísima posibilidad cuántica, no hay nada que lo vaya a matar antes de hora.
- 337 -
Antonio Cantó
Los famosos “Pilares de la Creación”, en la Nebulosa del Águila, un gigantesco criadero de estrellas (y mundos…) a unos 7.000 años-luz de aquí. Nos encontramos todavía al principio de la Era Estelífera, en la que la formación de estrellas es y seguirá siendo posible durante otros 100 billones de años más o menos. Nos encontramos casi, casi al principio de todo. Foto: Telescopio Espacial Hubble / NASA.
Por todo lo que sabemos, ahora mismo el universo tiene unos 13.700 millones de años. Puede que te resulte curioso denominarbebé a algo con 13.700 millones de años de edad, pero es una cuestión de escala. Vamos a quedarnos sólo con la Era Estelífera, en la que nos hallamos actualmente. La Era Estelífera es el periodo de la historia del universo en el que pueden seguir formándose estrellas y galaxias, como sucede en estos momentos. Arrancó unos 150 millones de años después del Big Bang, con la reionización, a la que podríamos llamar el final del parto. Las primeras estrellas, de la llamada Población III, comenzaron a encenderse entre 420 y 560 millones de años tras el Big Bang. Dejarán de formarse estrellas unos 100 billones de años después del Big Bang, conforme se agote todo el hidrógeno disponible en el cosmos. O sea, unas 7.300 veces más. Si este periodo fuese una vida humana de 100 años, nuestro universo tendría ahora mismo cinco días de edad. Eso, en mi pueblo, es un bebé. Y chiquitín. O chiquitina. Sin embargo, el universo no morirá con el final de la Era Estelífera. Tan solo cesará la aparición de estrellas nuevas y las más viejas irán pereciendo muy, muy, muy - 338 -
La Pizarra de Yuri 3
lentamente. Se volverá un sitio bastante aburrido y oscuro, como solemos serlo todos a partir de cierta edad, pero continuará estando ahí. Realmente no sabemos todavía cuánto durará y ni siquiera cómo morirá –como sabrás, hay varias hipótesis–, pero como mínimo iríamos a la muerte térmicadentro de al menos un uno seguido de mil ceros de años. Como muy mínimo. Equiparando esta cifra a nuestra vida humana de un siglo, eso es apenas un chispacito. Nuestro universo ni siquiera ha llegado a tomar aire para berrear por primera vez.
Los tres posibles finales del universo tal y como lo entendemos ahora mismo, dependiendo del valor de la ecuación de estado de la energía oscura. Imagen original: Big Bang Central.
Nuestro universo acaba de nacer. Estamos al principio de todo, como quien dice. Si la inteligencia prevalece y sigue evolucionando –la nuestra o cualquier otra que venga detrás, o la que pueda haber surgido o surgir en cualquier otro lugar, con billones de años de plazo– seguirá habiendo muchos sitios adonde ir, durante muchísimos eones. Realmente, sólo tendremos que plantearnosel fin de los tiempos en una época casi - 339 -
Antonio Cantó
inconcebiblemente futura. Si para entonces todavía existe algo evolucionado a partir de tú y yo, será tan distinto que ni siquiera lo podemos imaginar. Si sigue siendo un bicho curioso que se resiste a desaparecer, tiene cajas de munición enteras disponibles en su arsenal. Se ha sugerido muchas veces, con buenas razones, que la inteligencia puede ser una fuerza autodestructiva. Pero a mí me gustaría sugerirte hoy la idea opuesta: que la inteligencia, una vez lo bastante avanzada, puede marcar una diferencia cósmica radical, dando lugar a algo que se parece no poco a la inmortalidad. Al menos, hasta que empiecen a acumularse tantos miles de ceros a la derecha en la edad del universo que nos adentremos profundamente en la eternidad. Bibliografía: •
Ohtomo, Y. et al (2014): “ Evidence for biogenic graphite in early Archaean Isua metasedimentary rocks “. Nature Geoscience 7, 25–28. doi:10.1038/ngeo2025 (En inglés.)
•
O’Malley-James, J. T. et al (2012): “Swansong Biospheres: Refuges for life and novel microbial biospheres on terrestrial planets near the end of their habitable lifetimes“. International Journal of Astrobiology 12 (2): 99. arXiv:1210.5721v1 (En inglés.)
•
Brownlee, D. E. (2010). “ Planetary habitability on astronomical time scales“. En Schrijver, C. J. y Siscoe, G. L.: Heliophysics: Evolving Solar Activity and the Climates of Space and Earth . Cambridge University Press, ISBN 978-0-52111294-9. (En inglés.)
•
Heath, M. J. y Doyle, L. R. (2009): “ Circumstellar Habitable Zones to Ecodynamic Domains: A Preliminary Review and Suggested Future Directions“. arXiv:0912.2482 (En inglés.)
•
Schröder, K.-P. y Connon Smith, R. (2008): “ Distant future of the Sun and Earth revisited“. Monthly Notices of the Royal Astronomical Society386 (1): 155–163. doi:10.1111/j.1365-2966.2008.13022.x (En inglés.)
•
Tenenbaum, D. (2007): “ Pies in the sky: A solution to global warming? “. Astrobiology Magazine, 23 de abril de 2007. (En inglés.)
•
Angel, R. (2006): “Feasibility of cooling the Earth with a cloud of small spacecraft near the inner Lagrange point (L1)“. Proceedings of the National Academy of Sciences of the United States of America, vol. 103 no. 46. doi: 10.1073/pnas.0608163103 (En inglés.)
•
Teller, E.; Hyde, R. y Wood, L.: (2002): “ Active Climate Stabilization: Practical Physics-Based Approaches to Prevention of Climate Change“. Lawrence Livermore National Laboratory, EEUU, en paper para el simposio de la National Academy of Engineering de 23 y 24 de abril de 2002. (En inglés.)
•
Franck, S., Bounama, C. y Von Bloh, W. (2005): “ Causes and timing of future biosphere extinction “. Biogeosciences Discussions 2 (6): 1665–1679. doi:10.5194/bgd-2-1665-2005 (En inglés.)
•
Bounama, C., Franck, S. y Von Bloh, W. (2001): “ The fate of Earth’s ocean“. Hydrology and Earth System Sciences, Potsdam Institute for Climate Impact Research, 5 (4): 569–575. doi:10.5194/hess-5-569-2001 (En inglés.)
•
Adams, F. C. y Laughlin, G. (1997): “ A dying universe: the long-term fate and evolution of astrophysical objects “. 69, Reviews of Modern Physics, pp. 337–332. doi:10.1103/RevModPhys.69.337 (En inglés.)
- 340 -
La Pizarra de Yuri 3
•
Teller, E.; Hyde, R. y Wood, L.: (1997): “ Global Warming and Ice Ages: Prospects for Physics-Based Modulation of Global Change“.Lawrence Livermore National Laboratory, EEUU: Global Warming and Ice Ages: Prospects for Physics-Based Modulation of Global Change. (En inglés.)
•
Kasting, J. F. (1988), “Runaway and moist greenhouse atmospheres and the evolution of earth and Venus “. Icarus 74 (3): 472–494. doi:10.1016/0019-1035(88)90116-9 (En inglés.)
- 341 -
Antonio Cantó
100.001 galaxias y ni una inteligencia avanzada evidente. Yuri, el 4 de mayo de 2015 @ 17:55 · Categoría: Actualidad, Ciencia popular
…en el infrarrojo medio, al menos. :-P
El observatorio WISE de la NASA, que realizó un barrido completo de la esfera celeste en distintas bandas infrarrojas, incluyendo el infrarrojo medio. Dado que el uso a escala galáctica de las tecnologías que nosotros utilizamos actualmente dejaría una “firma” clara en el infrarrojo medio y el WISE no ha detectado estas firmas, un reciente estudio (Griffith, R. L. et al.: “The Ĝ Infrared Search for Extraterrestrial Civilizations with Large Energy Supplies. III. The Reddest Extended Sources in WISE.” The Astrophysical Journal, Supplement Series, Vol. 217 Nº 2, 2015. doi:10.1088/0067-0049/217/2/25) ha dado lugar a numerosos titulares sugiriendo la inexistencia de civilizaciones avanzadas en 100.000 galaxias próximas. Imagen: NASA/JPL-Caltech.
Hace poco, abundantes medios nos obsequiaban con un bonito titular del tipo de “Buscan extraterrestres avanzados en 100.000 galaxias y no encuentran nada. ” Está bien, a todos nos gusta un titular quedón. A mí el primero, sobre todo cuando los propios autores del estudio sugieren conclusiones similares. O estaría bien, si no fuese porque en realidad lo único que se concluye es que no han hallado evidencias de que haya una “Humanidad-B” colonizando sus galaxias del modo en que algunos de nosotros nos planteábamos hacerlo a mediados del siglo XX, lo cual era bastante de esperar. Eso es todo. El resto se lo han “conjeturado” de arriba abajo. En el sentido estrictamente científico, el estudio es honesto: han analizado los datos del observatorio espacial WISE para 100.000 galaxias cercanas (de los cientos de miles de millones que hay en el universo observable) y no han encontrado evidencias obvias en elinfrarrojo medio de que haya por ahí civilizaciones Kardashov-III metiendo sus
- 342 -
La Pizarra de Yuri 3
galaxias en esferas de Dyson; o, más en general, procediendo a una industrialización total de las mismas con una ciencia y tecnología análogas a las nuestras de hoy en día, cuyas emisiones residuales dejarían una traza característica en tal banda infrarroja. Estas emisiones serían la consecuencia inmediata de cualquier uso de cualquier tecnología del tipo de las que conocemos, en virtud del2º Principio de la Termodinámica, y detectables al emplearlas a semejante escala. Interesante, sí, pero al mismo tiempo tan predecible que casi cae en la categoría de perogrullada. O de contradicción en los términos. Porque una civilización en nuestro atrasadísimo estadio científico-tecnológico (por no hablar del económico y social) no va ni a la otra punta de la galaxia, ni a la estrella más próxima en ningún plazo de tiempo razonable. En el mejor de los casos, con un inmenso esfuerzo, a unas cuantas basecillas por nuestro sistema solar y muchísimas gracias. Todavía somos poco menos que gentes primitivas. Vernos concibiendo maneras de colonizar la galaxia sería como ver a un nómada paleolítico ideando maneras de construir ese mismo observatorio espacial WISE: un ejercicio mental que avanza la curiosidad, la inquietud y sienta las bases de la adquisición del conocimiento, pero que al final no se parecerá en nada a la realidad porque apenas tenemos las más tenues bases intelectuales para concebirlo. Conjeturas como las que se han extraído de ese estudio de las 100.000 galaxias constituyen un ejemplo palmario de lo que yo llamo el chovinismo del conocimiento. El chovinismo del conocimiento.
El profesor Nikolai Kardashyov (también transliterado como Kardashev o Kardashov, 1932), actual director del Instituto de Investigaciones Cósmicas de Rusia, propuso en 1964 una intrigante idea: una civilización tecnológica en constante avance necesitará cada vez más energía para sus propósitos, sean cuales sean éstos, y desarrolló una escala de niveles de desarrollo sobre este concepto. Una civilización que utilizase toda la energía que un sol como el nuestro entrega a la Tierra estaría al nivel Kardashov-I. Si utiliza toda la energía generada por su sol, sería Kardashov-II. Si emplea la de toda su galaxia, Kardashov-III. Y a partir de ahí se han planteado otras posibilidades más. El concepto
- 343 -
Antonio Cantó
es muy interesante, pero no necesariamente correcto, o al menos no de la manera como nosotros obtenemos y consumimos la energía, o esperaríamos hacerlo en nuestro estado actual del conocimiento científico-técnico. El modo exacto como una civilización avanzada podría lograr esto es totalmente especulativo, y muy posiblemente inimaginable para nosotros en la actualidad. Imagen: Cortesía de la Academia Rusa de Ciencias.
Decía el añorado Carl Sagan que en esto de la búsqueda de vida e inteligencia extraterrestre hay varios chauvinismos (ochovinismos, que parece que a la RAE le gusta más.) Lo que pasa es que estos no son chovinismos patrioteros sino, digámoslo así, científicos. Está, por ejemplo, el chovinismo planetario, según el cual la vida sólo sería posible en astros como los planetas o las grandes lunas. Tenemos también el chovinismo del agua, que dice que ésta sólo puede surgir en lugares con abundantes cantidades de agua líquida. O el del carbono, que sólo admitiría la posibilidad de formas de vidabasadas principalmente en este elemento. Etcétera. Algunos de estos chovinismos son más razonables que otros; el propio Sagan se definió una vez como un chovinista del carbono, aunque no tanto del agua. Manteniéndonos dentro del chovinismo planetario se han planteado hipótesis con diversas alternativas al agua y algunas al carbono. Es un debate abierto, porque realmente nadie sabe lo que podría llegar a haber por ahí afuera. Los extremos a los que puede llegar la vida terrestre – planetaria, basada en el agua líquida y el carbono– sugieren posibilidades inmensas incluso sin salirnos de ahí. Pero la búsqueda de civilizaciones extraterrestres –lo que se viene llamando SETI– ha estado plagada a menudo de este otro chovinismo del conocimiento muchísimo más irracional. Salvo por algunas excepciones, la idea parece serbusquemos a extraterrestres que hagan exactamente lo mismo que haríamos nosotros en este periodo histórico, sólo que a lo bestia. Esto es por ejemplo como si un romano –un romano de los tiempos de los romanos, quiero decir– intentase detectar nuestras telecomunicaciones por el procedimiento de sentarse en la mediana de una de nuestras autopistas esperando muy atentamente a que pasen los caballos con los mensajeros. Este amigo romano podría estar perfectamente sentado encima de un cable troncal de fibra óptica, atravesado por las ondas de todo tipo de radiocomunicaciones, y ni entendería lo que es el primero, ni llegaría a percatarse de lo segundo jamás. Su conclusión más lógica sería que las civilizaciones modernas no nos enviamos mensajes de ningún tipo. O que quizá lo hacemos en unos carros sin caballos que van muy rápido y se llaman coches, pero no hemos querido reconocérselo y en vez de eso le contamos una milonga sobre una cosa que se llama Internet o no se qué. Por no mencionar esa leyenda delirante de unos navíos celestiales llamados satélites que dan vueltas al orbe mucho más allá del aire que se puede respirar.
- 344 -
La Pizarra de Yuri 3
Gran parte de las aproximaciones a la SETI se parecen mucho a la actitud de nuestro estimado amigo romano. Por ejemplo, la más conocida de todas: los intentos de interceptar comunicaciones de radio extraterrestres de alta potencia, en la que admito haber creído mucho tiempo –incluso llegué a proponer algo al respecto, hace muchos años– pero ahora soy bastante escéptico, y no sólo porque no hayan dado ningún resultado. Es que, tras pensarlo bien, me parece un caso paradigmático de chovinismo del conocimiento. Hace 300 años no teníamos ni puñetera idea de que existe tal cosa como los campos electromagnéticos, por mucho que los naturales nos estuviesen pasando a través todo el tiempo, y hubo que esperar hasta el siglo XIX para que este conocimiento científico se convirtiese en la tecnología llamada radio. Sólo a partir de ese momento nuestras radiocomunicaciones se hicieron cada vez más frecuentes y potentes, y cuando se plantearon las primeras aproximaciones SETI, había una especie de carrera por ver quién transmitía más y con más vatios. Así que supusimos que una civilización muchísimo más avanzada transmitiría por radio muchísimo más y con muchísimos más vatios. Tanto como para poderlo captar con nuestros radiotelescopios desde inmensas distancias.
El científico escocés James Clerk Maxwell (1831-1879) desarrolló en 1865 la Teoría del Campo Electromagnético, lo que entre otras muchas cosas permitió predecir la existencia de las ondas de radio, desarrollar las telecomunicaciones modernas y abrir el paso a la futura Teoría de la Relatividad y la Mecánica Cuántica. Hace sólo 150 años de eso. Imagen: Del dominio público.
- 345 -
Antonio Cantó
Sin embargo hoy, apenas medio siglo y pico después, gran parte de nuestras telecomunicaciones van por cables de fibra óptica. ¡Buena suerte intentado detectar un cable de fibra óptica con un radiotelescopio! :-D En cuanto a la radio, lo que hay ahora mismo es una carrera hacia la eficiencia, transmitiendo con potencias comparativamente muy bajas en redes celulares y cosas por el estilo. Hasta los grandes radares militares, que antes tiraban megavatios a troche y moche, operan en estos momentos siguiendo principios de baja probabilidad de intercepción; lo que entre otras cosas implica emitir con la potencia justita, justita para detectar al blanco en haces extremadamente direccionales y difíciles de captar para que se delaten poco ante el enemigo y sus misiles antirradar. Nuestras naves espaciales más avanzadas también se comunican con la Tierra mediante señales de extrema direccionalidad y potencia controlada, para ahorrar energía. Por regla general, ahora los humanos cada vez radiamos al espacio con menos potencia, no más. O incluso no radiamos en absoluto, utilizando modernas tecnologías como la mencionada fibra óptica. Para alguien que nos estuviese buscando con radiotelescopios, cada día somos más invisibles pese a que nuestras telecomunicaciones se multiplican sin parar tanto en cantidad como en calidad. Pues me da el barrunto de que con esto de las 100.000 galaxias “sin signos obvios” de vida inteligente pasa lo mismo. Como te decía al principio, la aproximación de los autores del estudio casi constituye una contradicción en los términos. O sea: ¿estamos buscando una civilizaciónmuchísimo más avanzada que la nuestra, una Kardashov-III de colonizadores galácticos ni más ni menos, pero al mismo tiempo esperamos que usen tecnologías basadas en nuestro estado actual del conocimiento científico, sobre bases análogas de expansión industrial, dejando los mismos rastros que dejaríamos nosotros, así a lo bruto? Ya me sabrán disculpar vuecencias, pero ahí hay algo que no me cuadra. ¿Una civilización capaz de explotar la energía de una galaxia entera no puede tener, por ejemplo, la capacidad de reciclar y aprovechar gran parte de esas fuertes emisiones residuales en el infrarrojo medio? (De hecho, uno de los coautores del estudio admite varias posibilidades de este tipo en esta entrevista, 3ª pregunta, sin necesidad de violar el 2º Principio de la Termodinámica.) ¿Esos superextraterrestres van a trabajar igual que lo haríamos nosotros con nuestros conocimientos actuales, si hace esos mismos 300 años que mencionaba antes nosotros andábamos en carros de bueyes, no existía ninguna aplicación tecnológica de la electricidad y no teníamos ni perra idea del electromagnetismo, ni de la relatividad, ni de la mecánica cuántica, ni de ninguna otra de las grandes revoluciones científicas de estos últimos siglos y sus tecnologías derivadas?
- 346 -
La Pizarra de Yuri 3
Dicho de otra manera: con estas aproximaciones no estamos buscando civilizaciones extraterrestres avanzadas, sino civilizaciones extraterrestres avanzadas que además se comporten como esperamos comportarnos nosotros, y encimaderiven sus tecnologías de un estado del conocimiento científico análogo al nuestro, y adicionalmente lo hagan en un momento en el que nosotros podamos detectarlas, coincidiendo en el tiempo con nuestra propia evolución científico-técnica. Sí, ciertamente esto es muy, muy improbable. Tan solo sirve para descartar posibilidades. Ojo, repito: no estoy atacando el estudio ni su calidad o rigor científico. Estoy atacando las conclusiones extrapoladas a partir del mismo en todos esos titulares, que se me antoja un caso de falacia por falta de imaginación. Y es que cae por su propio peso queignoramos totalmente qué cosas no hemos descubierto todavía. Capitán Obvio al rescate, y todo eso.
Algo ahora tan común como el láser (inventado en 1960) se deriva directamente de la Física Cuántica, un ámbito entero de la realidad que ignorábamos por completo hasta principios del siglo XX. Imagen: Extreme Lasers, Houston.
De las cosas que no sabemos. Y de alguna que vamos sabiendo.
- 347 -
Antonio Cantó
Arriba: el hueso de Lebombo (Swazilandia) con sus 29 marcas, de 35.000 años de antigüedad, un palo de cómputo como los que se siguen usando en la zona hasta la actualidad. Eso lo convierte en el primer instrumento matemático y por tanto científico conocido de toda la historia de la humanidad. Si además se usó para contar el ciclo sinódico lunar, también sería el primer calendario. Abajo: el superordenador Tianhe-2 (Vía Láctea-2) del Centro Nacional de Supercomputación en Cantón, China. En el momento en que escribo esto, aparece en el Top500 como el más potente del mundo con 3.120.000 núcleos, 33,86 Pflops/s de Rmax (Linpack) y 54,9 Pflops/s de Rpeak teórica. En su esencia, ambos instrumentos sirven para lo mismo: para computar. Pero muy difícilmente quien quiera que talló el hueso de Lebombo habría podido ni siquiera soñar con algo como el Tianhe-2… y tan sólo nos separan 35.000 años de progreso de unas inteligencias idénticas (homo sapiens.)
Mira, me gustaría que tú y yo viviéramos otros 300 años sólo para cruzar una apuesta contigo. ;-) Me apostaría todo lo que tengo contra tu bolígrafo a que dentro de 300 años habrá habido al menos otras tres grandes revoluciones científicas y las tecnologías de ese tiempo futuro nos resultarán tanalienígenas como le resultaría una conexión de fibra óptica, un smartphone, un láser o una sonda de espacio profundo a una persona de 1715. O el motor de combustión interna que mueve tu coche, o la bombilla que ilumina tu casa, o mil cosas más. Hace 300 años no existía nada de todo eso ni se podía imaginar más que como ideas locas, porque ni siquiera teníamos el sustrato científico para vislumbrarlo. Como ya he dicho alguna vez, pretender que no sabemos nada como opinan algunos es de una ignorancia bastante cañera. Pero pretender que ya lo sabemos todo y que sólo queda espacio para perfeccionamientossobre nuestro conocimiento actual es de un orgullo infinito, y posiblemente de una estupidez igualmente infinita. Detrás de cada rincón de la realidad puede estar esperándonos un electromagnetismo, una relatividad o una cuántica que ahora no podemos ni soñar, igual que todo eso no se podía ni soñar
- 348 -
La Pizarra de Yuri 3
300 años atrás. Cosas que cambiarán por completo nuestro conocimiento del universo y de la realidad y conducirán a tecnologías ahora mismo impensables. Mágicas, en el sentido que les dio Arthur C. Clarke. O si prefieres citar a Wernher von Braun, el tipo que mandó gente a la Luna, he aprendido a usar la palabra “imposible” con la mayor de las cautelas. Yo no puedo ni imaginar, ni vislumbrar, ni soñar la ciencia, la tecnología, la sociedad y la economía con la que nos estaremos manejando dentro de 300 años. O de 3.300, o de 33.000, que me parecen plazos más razonables para liarnos a colonizar galaxias. Hace 3.300 años, acabábamos de comenzar la maldita Edad del Hierro y hace 33.000 andábamos pintarrajeando cuevas. Pero sí estoy convencido de que serán tan distintas de las actuales como lo fueron aquellas. Considero más que posible que nuestro diferencial con una hipotética civilización galáctica Kardashov-III sea aún mayor, por la sencilla razón de que sin ese diferencial no hay ni civilización galáctica, ni KardashovIII, ni gaitas en vinagre. Con nuestro conocimiento actual no se puede ni colonizar ni explotar una galaxia entera, punto pelota. Hace falta un nivel de ciencia, tecnología, sociedad y economía que ahora mismo sólo podemos imaginar para la ciencia-ficción. Una ciencia-ficción que muy probablemente no se parecerá en nada a la realidad futura. Hablando de investigaciones disputadas y de cosas que no sabemos, déjame que te cuente una que vamos sabiendo y que apunta en sentido contrario. Se encontró por primera vez en algunos meteoritos como el Murchison. Estos son meteoritos muy, muy antiguos, que se formaron con el sistema solar. El meteorito Murchison tiene la friolera de 4.600 millones de años y ha estado dando vueltas por el cosmos desde entonces hasta que cayó en Australia en 1969. Cuatro mil seiscientos millones de años son una tercera parte de la edad del universo. Data de cuando la Tierra y el Sol estaban naciendo. El meteorito Murchison constituye una “fotografía” de cómo era el sistema solar temprano.
- 349 -
Antonio Cantó
Muestra del meteorito Murchison en el Museo Nacional de Historia Natural (Washington DC), formado junto con el resto del sistema solar y caído en Australia en 1969. Aunque no todo el mundo está de acuerdo, diversos estudios afirman que contiene biomoléculas complejas de origen no terrestre, capaces de dar lugar a los aminoácidos del ADN y el ARN (ver bibliografía.) Si esto se confirma, los procesos químicos de las nebulosas planetarias podrían constituir los “ladrillos de la vida” incluso antes de que lleguen a aparecer los planetas y por tanto éstos podrían ser comunes a todo el universo conocido. Imagen: Art Bromage bajo licencia CC Attribution-Share Alike 2.0 Generic.
Al cascarlo, los investigadores encontraron en su interior algo totalmente inesperado: biomoléculas complejas. No estamos hablando de compuestos orgánicos del montón. Estamos hablando de purina,pirimidina, xantinas, uracilo. Ladrillos de la vida. De las dos primeras se derivan ácidos nucleicos de los que construyen el ARN y elADN. La última, el uracilo, es directamenteuna de las bases nitrogenadas que forman el ARN. Las primeras expresiones de vida terrestre pudieron darse en el llamadomundo de ARN, toda ella sigue usando ARN, y tú y yo continuamos llevándolo encima desde el día en que alguien inseminó a nuestra mamá hasta la tumba. Sin ARN no hay vida en la Tierra, quizá a excepción de los nanobios, si es que realmente están vivos. Por supuesto, inmediatamente surgieron voces diciendo que eso no podía ser. Que las muestras tenían que estar contaminadas o algo. Y sin embargo, estudio tras estudioindican que estas biomoléculas halladas en el meteorito - 350 -
La Pizarra de Yuri 3
Murchison tienen un origen extraterrestre, formadas en el cosmos durante el surgimiento del sistema solar. Para acabar de arreglarlo,la sonda Cassiniencontró indicios de uracilo en la atmósfera de Titán de Saturno. Por su parte, Sun Kwok y otros investigadores de la Universidad de Hong Kong han estado estudiando las llamadas emisiones infrarrojas no identificadas de los sistemas solares en formación y dicen que suespectro presenta un componente importante de moléculas orgánicas más complejas que los hidrocarburos aromáticos policíclicos básicos. Así que yo también voy a conjeturar un poco hoy. Si los ladrillos de la vida surgen naturalmente con los sistemas solares en formación, si son una forma corriente de autoorganización de ciertos tipos de materia, al estilo de loscristales… entonces la vida, lejos de ser una rarísima carambola cósmica, sería un fenómeno común que simplemente estaría esperando a aparecer en cuanto en un planeta o luna se den las condiciones mínimas necesarias. Y además, nos hallaríamos ante una respuesta elegante a la pregunta de cómo la vida en la Tierra surgió tan pronto: habríavenido de serie con el sistema solar, lista para cocinar. A partir de ahí, el camino a la vida compleja y la inteligencia fue sin duda accidentado y brutal, pero tampoco una cosa casi imposible, aquí o en cualquier otro lugar. Y ya puestos a especular, a lo mejor la explicación al Gran Silencio es simplemente que somos tan primitivos, estamos tan ridículamente atrasados que todavía no sabemos escuchar bien. Bibliografía: •
Griffith, R. L. et al. (2015): “The Ĝ Infrared Search for Extraterrestrial Civilizations with Large Energy Supplies. III. The Reddest Extended Sources in WISE.” The Astrophysical Journal, Supplement Series, Vol. 217 Nº 2. doi:10.1088/00670049/217/2/25 (En inglés; de pago.)
•
Öberg, K. I. et al: “The comet-like composition of a protoplanetary disk as revealed by complex cyanides. ” Nature 520, 198–201 (9 de abril de 2015). doi:10.1038/nature14276 (En inglés.)
•
Pulliam, C.: “Complex organic molecules discovered in infant star system.” Harvard-Smithsonian Center for Astrophysics; Smithsonian Science News, 8 de abril de 2015. (En inglés.)
•
Clark, R. N. et al.: “The Surface Composition of Titan.” American Geophysical Union, reunión de otoño de 2011, abstract #P32C-03. (En inglés.)
•
Kwok, Sun y Zhang, Yong: “ Mixed aromatic–aliphatic organic nanoparticles as carriers of unidentified infrared emission features.” Nature479, 80–83 (3 de noviembre de 2011). doi:10.1038/nature10542 (En inglés.)
•
Martins, Z. et al: “Extraterrestrial nucleobases in the Murchison meteorite.” Earth and Planetary Science Letters 270 (2008) 130–136. doi: 10.1016/j.epsl.2008.03.026 (En inglés.)
•
Rosenthal, A. M.: “Murchison’s amino acids: Tainted evidence?” Astrobiology Magazine, 12/02/2003. (En inglés.)
•
Engel, M. H. y Macko, S. A.: “ Isotopic evidence for extraterrestrial non- racemic amino acids in the Murchison meteorite.” Nature 389, 265-268 (18 de septiembre de 1997) | doi:10.1038/38460 (En inglés.)
- 351 -
Antonio Cantó
La máquina a bobinas magnéticas del joven sargento Lavréntiev Yuri, el 31 de marzo de 2015 @ 0:00 · Categoría: Ciencia popular, Historia y cultura, Tecnología
Los reactores de fusión nuclear Tokamak.
El joven sargento del Ejército Rojo Oleg Alexandróvitch Lavréntiev (1926-2011), que acabaría siendo doctor en física nuclear y teórica y el “abuelo” de la bomba termonuclear soviética y los reactores de fusión TOKAMAK, sobre los que se basa actualmente el ITER. Foto: © Agencia Federal de Archivos, Ministerio de Cultura de la Federación Rusa.
Imagínate: es 1948, formas parte del poderoso Comité Central del Partido Comunista de la URSS y de algún modo cae en tus manos la carta de un cierto sargento Oleg Lavréntiev, de 22 años, destinado en unremoto agujero del Océano Pacífico. El joven sargento Lavréntiev dice que sólo acabó la secundaria porque se fue a la guerra, pero le gusta mucho la física atómica; incluso se gasta parte de su escasa paga en una suscripción a la revista Avances en Ciencias Físicas. Ah, y que sabe cómo hacer unabomba de hidrógeno y un reactor de fusión nuclear.
- 352 -
La Pizarra de Yuri 3
No sé tú, pero yo habría pensado que estaba ante el típico charlatán. O, más probablemente, me lo habría tomado a broma. Claro que eran malos tiempos para esa clase de humor, con el padrecito Stalintodavía en plena forma y el camarada Beriaencargado de tratar con los bromistas (y también, en el más absoluto secreto, de supervisar el programa soviético para hacer la bomba atómica, que ni eso tenían aún por esas fechas.) Hay que tener en cuenta que Oleg había tenido el cuajo de escribir primero al mismísimo Stalin y, al no recibir respuesta, decidió ponerse en contacto con lossegundones del Comité Central, el muchacho. Asombrosamente, ni la carta terminó en una papelera ni el joven sargento Lavréntiev, natural de Pskov, hijo de administrativo y enfermera, obtuvo un nuevo destino un pelín más al interior. Por la parte de Kolymá o así. En vez de eso, poco después el oficial al mando del sargento Lavréntiev recibió instrucciones estrictas de que le proporcionaran un despacho con escolta y tiempo para plasmar sus ideas de manera más exhaustiva con la máxima discreción. Cosa que debió dejar a todos sus compañeros, empezando por el oficial al mando en cuestión, bastante atónitos. Dos años después, el 29 de julio de 1950, Oleg manda a Moscú un paquete por correo militar secreto donde describe los principios de un arma termonuclear por fusión de deuteruro de litio (“liddy”) y una máquina para producir grandes cantidades de electricidad mediante una “trampa electromagnética” toroidal para confinar reacciones deldeuterio y el tritio. Que es, exactamente, el principio de funcionamiento de todas las armas termonucleares del mundo y los reactores de fusión tipo Tokamak, como el ITER que se está construyendo ahora mismo. El paquete acabó ni más ni menos que en manos de Andréi Sájarov, quien ya trabajaba con Ígor Tamm en esas mismas cuestiones, al amparo del entonces secretísimo Laboratorio nº 2 o Laboratorio de Aparatos de Medida de la Academia de Ciencias de la URSS, hoy en día conocido como el Centro Nacional de Investigación – Instituto Kurchátov. En su evaluación, Sájarov escribió: “Creo que es necesario discutir detalladamente el proyecto del camarada. Con independencia de los resultados de esta discusión, debe reconocerse la creatividad del autor.”
Mucho tiempo después, en sus memorias, Sájarov se explayaría más a gusto sobre el paquete remitido por el sargento Lavréntiev desde su lejana base del Pacífico: “Quedé enormemente impresionado por la originalidad y la audacia de esas ideas producidas independientemente, mucho antes de que comenzaran a aparecer las
- 353 -
Antonio Cantó
primeras publicaciones sobre el tema. (…) [Mis] primeras tenues ideas sobre el aislamiento térmico magnético comenzaron a formarse al leer su carta y escribir el informe al respecto. (…) El trabajo de Lavréntiev fue un ímpetu para mejorar la investigación del aislamiento térmico magnético del plasma de alta temperatura que realizábamos Tamm y yo.”
Entrada principal al Instituto Kurchátov en la actualidad. Imagen: © Google Street View.
Diseño original de Oleg Lavréntiev para un arma termonuclear. 1) Detonador temporizado. 2) Carga explosiva [convencional]. 3) Semiesferas de plutonio. 4) Cámara de vacío. 5) Capa de litio-6. 6) Deuteruro de litio-6. Aunque es muy primitivo y requeriría varias modificaciones importantes para hacerlo funcionar, todos los conceptos esenciales de un arma con componente de fusión están ahí: se trata básicamente de un diseño “sloika” con un primario de detonación por disparo (similar a la idea inicial “Thin Man” estadounidense para una bomba de fisión de plutonio, o a la bomba “Little Boy” de Hiroshima si sustituimos el plutonio por uranio) envuelto en un secundario compuesto por una capa de litio y, muy acertadísimamente, deuteruro de litio-6. El deuteruro de litio-6 (“liddy”) fue y sigue siendo el explosivo de fusión idóneo para las armas termonucleares. Hay que tener en cuenta que cuando Lavréntiev ideó esto, todas estas cosas eran altísimo secreto o simplemente ni siquiera estaban inventadas y puede decirse que “se lo sacó todo de su cabeza”. Imagen: © Agencia Federal de Archivos, Ministerio de Cultura de la Federación Rusa.
- 354 -
La Pizarra de Yuri 3
Apenas un mes después, Lavréntiev es desmovilizado y matriculado en la Facultad de Física de la Universidad Estatal de Moscú, con derecho a habitación y beca. Ahí le piden que desarrolle más su propuesta. Oleg se pone a ello. En octubre del mismo año, Sájarov y Tamm completan el primer análisis de un reactor de fusión nuclear por confinamiento magnético, bajo el auspicio deÍgor Kurchátov, basándose no poco en el documento original del joven sargento. Así, pasaron a la historia como los inventores de este tipo de reactor, el más prometedor y el más utilizado del mundo hoy en día, mientras que Lavréntiev quedaría relegado a una oscuridad que no comenzó a esclarecerse hasta que se desclasificaron los documentos secretos de la época en el año 2000. Hay que decir que a Oleg no le fue mal. Cuando terminó de desarrollar sus planteamientos en enero de 1951, le invitaron al Kremlin, se entrevistó con Beria en persona, le aumentaron la beca, le proporcionaron una habitación mejor, le dieron acceso a todas las publicaciones científicas que necesitara y le pusieron un tutor personal: el matemático Alexander Samarskiy, prácticamente desconocido en Occidente pero un peso semipesado de la ciencia soviética, experto en análisis numérico y física computacional. Así Oleg se graduó con honores e incluso pasó una temporada por el exclusivísimo Laboratorio de Aparatos de Medida, donde trabajaban Sájarov y Tamm. Pero luego, por razones no demasiado claras fue transferido al Instituto de Física y Tecnología de Járkov (Ucrania, entonces parte de la URSS), otro centro de investigación muy prestigioso. Ahí el antiguo sargento Oleg Lavréntiev, que postuló una bomba termonuclear y un reactor de fusión con sólo su educación secundaria, su suscripción a Avances en Ciencias Físicas, su curiosidad y su pasión, pasó el resto de su carrera profesional haciendo lo que le gustaba. No tuvo una mala vida y en esa ciudad murió el 10 de febrero de 2011, a los 84 años. Sin embargo, como te digo, su papel en el desarrollo de las armas termonucleares de la URSS y sus reactores de fusión por confinamiento magnético permaneció oculto hasta el año 2000, e incluso hoy en día casi nadie lo conoce fuera del espacio post-soviético. Sájarov y Tamm (e, indirectamente, Kurchátov) se llevaron todos los méritos. Que no digo que no se lo curraran y no los merecieran, que se lo curraron y los merecieron, pero tras ellos estuvo la sombra de Lavréntiev. El caso es que los reactores Tokamak comenzaban a nacer en el sector 44 del Laboratorio de Aparatos de Medida de la Academia de Ciencias de la URSS, situado al Noroeste de Moscú. Vamos, el Instituto Kurchátov. La toroidalnaya kamera s magnitnymi katushkami.
- 355 -
Antonio Cantó
El primer prototipo de reactor de fusión Tokamak, llamado T-1, en el Instituto Kurchatov de Moscú (1958). Foto: © ITER Organization.
Al principio, no se llamaron Tokamak, y no todos creían en ellos. El primer “aparatotoroidal” para el control del plasma a alta temperatura construido en el sector 44 se llamaba TMP y era una cámara de porcelana, a la que luego le añadieron unas espirales metálicas por el interior. Después vinieron otros dos dispositivos con paredes de cobre y espacios de aislamiento. No fue hasta finales de 1957 que estos primerosaparatos de medida termonucleares dieron lugar al dispositivo T-1, “montaje experimental nº5” o “disposición de 1958” (por el año en que se puso en marcha.) Hubo algo de bronca para ponerle nombre. Estuvo a punto de llamarse “Tokomag”, porтороидальная камера магнитная, o seatoroidalnaya kamera magnitnaya, es decir cámara magnética toroidal. E incluso “Tokomak”, porque a algunos oídos les sonaba mejor. Pero al final se impuso la opinión del subdirector del laboratorio, Ígor Golovkin, que era un apasionado del proyecto: sus estrellas contenidas por confinamiento magnético se llamarían Tokamak, deтороидальная камера с магнитными катушками, pronunciado toroidalnaya kamera s magnitnymi katushkami, lo que viene siendo cámara toroidal con bobinas magnéticas. Algún otro dice que podría significar tambiénтороидальная камера с аксиальным магнитным полем (toroidalnaya kamera s aksialnym magnitnym polem, cámara toroidal con campo magnético axial), lo que define al ingenio igualmente bien. Yo me quedaré con lo decámara toroidal a bobinas magnéticas, que era la idea original de Lavréntiev y suena más sovietpunk y molón. :-P
- 356 -
La Pizarra de Yuri 3
Como puede suponerse, esto del bautismo no fue la única bronca que rodeó al proyecto, ni mucho menos la más importante. El afamado académico Lev Artsimovich (jefe del Departamento de Investigación del Plasma), quien luego se haría un auténtico converso hasta el punto de que le llaman “el padre del Tokamak”, decía por entonces que “conseguir la fusión con un Tokamak es como intentar crear un cigarrillo a partir del humo.” Muchos opinaban que este extraño aparato de medida jamás podría satisfacer la condición Kruskal–Shafranov y estabilizar el plasma en su interior. Pero lo logró. En 1958, el llamado montaje experimental nº 5 del Insituto Kurchátov, una sencilla cámara de cobre de 1,34 metros de diámetro con una corriente eléctrica en el plasma de 100.000 amperios y una intensidad del campo magnético toroidal de 1,5 teslas, demostró que podía contener el plasma estabilizado y sería posible fusionar deuteriocon él en una boscosa periferia de Moscú. Exactamente, aquí. Así, el montaje experimental nº 5 paso definitivamente a la historia como el Tokamak T-1. Una de las grandes puertas a la energía nuclear de fusión, la energía de las estrellas traída a la Tierra, se acababa de abrir sobre la idea original de un joven sargento que sólo contaba con su educación secundaria pero tenía mucha, muchísima audacia y curiosidad. Diseñando estrellas.
Los tres isótopos naturales del hidrógeno: protio, deuterio y tritio. El deuterio y el tritio pueden fusionar con “relativa” facilidad. Pero obsérvese que la carga total del núcleo es siempre positiva. Esto tiende a separarlos por repulsión electrostática. Para que puedan entrar en contacto y fusionar, hay que “acelerarlos a temperaturas termonucleares.” Esta es también la razón fundamental de que la fusión fría, al menos en su forma convencional, no tenga demasiado sentido.
- 357 -
Antonio Cantó
El problema básico para producir una reacción nuclear de fusión es que los núcleos de los átomos que constituyen toda la “materia normal“, como tú o yo por ejemplo, tienen carga eléctrica positiva. Si recuerdas, en el núcleo atómico están los neutrones, que no tienen carga, y los protones, que la tienen positiva. Pero no hay ninguna carga negativa. Las cargas negativas están en los electrones, situados en los orbitales de alrededor. Como estamos hablando de fenómenos nucleares, nos tenemos que olvidar de los electrones y nos quedamos con los núcleos. Que, al estar compuestos exclusivamente por neutrones (sin carga) y protones (con carga positiva), son positivos, tanto más cuanto más grandes sean y más protones contengan. Pero desde el más básico de todos, el hidrógeno, con un único protón, tienen carga positiva. ¿Y qué? Pues que, como es bien sabido, cargas opuestas se atraen y cargas iguales se repelen. Igual que en los imanes. Dos polos positivos o dos polos negativos se repelen entre sí. Esto es la repulsión electrostática. La única forma de unirlos es aplicando tanta fuerza que logre superar esta repulsión, siquiera sea temporalmente. Pero en condiciones normales, dos objetos con la misma carga (por ejemplo, dos núcleos atómicos) tienden a separarse, no a unirse y fusionar. (Y por eso lo de la fusión fría nos hizo alzar tanto la ceja a tantos desde el principio. Bajo condiciones estándar, no hay ninguna manera obvia mediante la que los núcleos atómicos puedan vencer la repulsión electrostática hasta fusionar.) Las estrellas, que son gigantescos reactores de fusión nuclear natural, hacen trampa. Resuelven el problema a base de pura fuerza bruta, con la fuerza de la gravedad. Como son tan grandes y tienen tanta masa, la gravedad las hace colapsar sobre sí mismas hasta que la presión y con ella la temperatura aumentan tanto como para alcanzar las a veces denominadas temperaturas termonucleares. Pero nosotros no tenemos semejantes masas a nuestra disposición. La manera sencilla de resolver el problema, y la única que nos ha ido bien hasta el momento, es explosiva. Esto es: provocar un brutal pico de presión, temperatura y radiación que haga fusionar núcleos atómicos fácilmente fusionables, como el deuterio, el tritio o el litio. Pero el resultado es todavía más explosivo: así es, talmente, como funciona un arma termonuclear. Claro, eso va muy bien para desintegrar a unos cuantos millones de prójimos con un golpe casi instantáneo de energía monumental, pero no tanto para mover suavemente nuestras sociedades. Si queremos energía de fusión civil, tenemos que producirla de una manera más lenta, progresiva, en un “reactor lento” o algo que se comporte como tal. Cosa que parecía sencilla y al alcance de la mano hace unas décadas, pero ha resultado ser uno de los problemas más difíciles a los que se ha enfrentado jamás la humanidad.
- 358 -
La Pizarra de Yuri 3
Explicado muy a lo sencillo, estas temperaturas termonucleares son muy, pero que muy superiores a lo que puede resistir ningún material. No se puede construir una “vasija” como las que usamos en los reactores de fisión de las centrales nucleares actuales. A las temperaturas propias de la fusión, cualquier vasija de cualquier material existente, imaginable o teorizable en este universo se convierte instantáneamente en plasma y se desintegra. (Y esa es una de las razones por las que las armas termonucleares son tan devastadoras: en las inmediaciones de la detonación,ninguna clase de materia puede pervivir de manera organizada.)
Polos opuestos se atraen, polos iguales se repelen. Los núcleos atómicos están compuestos por neutrones (sin carga) y protones (con carga positiva); como resultado, los núcleos en su conjunto son fuertemente positivos y por tanto se repelen con fuerza entre sí. En condiciones normales, esta repulsión los mantiene separados e impide que puedan llegar a fusionar. Sin embargo, a temperaturas termonucleares (millones de grados), los núcleos vibran violentamente y la inercia de estos movimientos es capaz de vencer a la repulsión electrostática, haciéndolos colisionar y fusionar entre sí con alta liberación de energía. En la imagen, dos núcleos de deuterio (hidrógeno-2) y tritio (hidrógeno-3) colisionan, fusionan y liberan un núcleo de helio-4 y un neutrón altamente energéticos.
En resumen: que sabemos cómo hacer fusionar cosas, pero no cómo ralentizar y contener la reacción para convertirla en esa energía domadita que mueve nuestros hogares, nuestros trabajos y nuestro mundo en general (y luego quienes tú ya sabes nos cobran a precio de oro…). A decir verdad, a estas alturas también sabemos cómo ralentizarla y contenerla… pero sólo en parte, de manera muy limitada, y consumiendo en el proceso total más energía de la que obtenemos. Es decir, que tenemos armas de fusión capaces de aniquilar civilizaciones enteras pero no tenemos más reactor nuclear de fusión eficaz que el sol brillando sobre nuestras cabezas.
- 359 -
Antonio Cantó
Concepto básico para una central eléctrica de fusión nuclear basada en un Tokamak, como el que está desarrollando la cooperación internacional ITER.
Y no es porque no se le haya echado pasta y ganas encima, ¿eh? La energía nuclear de fusión prometía y promete ser tan estupenda que en algunos periodos se le han echado encima ingentes cantidades de dinero y no pocas de las mentes más brillantes del periodo. Pero aún así se resiste, la jodía. Como te digo, el problema no es fusionar núcleos atómicos. Eso sabemos hacerlo. El problema es todo lo demás, y muy particularmente la producción y confinamiento de esa reacción con un saldo energético favorable. Como ya hemos visto, las estrellas como nuestro sol usan de manera natural el confinamiento gravitacional aprovechando su enorme masa. Vamos, que la gravedad de esa masa mantiene la reacción contenida durante largos periodos de tiempo en esas luminarias que cubren el cielo, como si dijéramos “empujando hacia adentro”. Puesto que como también hemos dicho nosotros no tenemos tales masas para trabajar, nos toca recurrir a trucos distintos. Hoy por hoy, estos son básicamente dos: el confinamiento inercial y el confinamiento magnético.
- 360 -
La Pizarra de Yuri 3
La cámara a bobinas magnéticas que imaginó el joven sargento Lavréntiev, o sea el Tokamak soviético, o sea el ITER internacional, utilizan esta segunda técnica. En el mismo 1958 los científicos soviéticos presentaron los primeros resultados obtenidos con el dispositivo T-1 en la II Conferencia de Átomos para la Paz, celebrada en Ginebra. Este fue uno de los mayores encuentros científicos de la historia, con más de 5.000 participantes. La URSS presentó un paper titulado “Estabilidad y calentamiento de plasmas en cámaras toroidales.” Se había tomado la decisión de desclasificar la investigación y en este artículo aparecía prácticamente todo, incluso un esquema de la máquina, salvo el nombrecito Tokamak de marras. Pese a ello, la era Tokamak acababa de nacer. La era Tokamak.
Interior del Tokamak JET detenido y (en la inserción) funcionando, con plasma en su interior. Foto: Cortesía EFDAJET. (Clic para ampliar)
Al dispositivo T-1, fundamentalmente experimental, le siguieron el T-2 del año 1960 y el T-3 de 1962. El T-3 era ya un dispositivo funcional por completo. En 1968, el Tokamak T-4 de Novosibirsk demostró la primera fusión nuclear casi-estacionaria. Los resultados del T-3 y el T-4 fueron tan prometedores que pronto comenzaron a construirse también fuera de la URSS. Los primeros fueron los japoneses, que arrancaron en 1969 con los JFT y los NOVA, antecesores del actual JT-60. Les siguieron los estadounidenses con el Alcator A del Instituto de Tecnología de Massachusetts (1972), origen del Alcator C-Mod, y después con el DIII-D. En Francia tampoco quisieron perdérselo y en 1973 ponían en marcha elTokamak de Fontenay-auxRoses del que luego saldría el Tore Supra en Cadarache, donde ahora se está - 361 -
Antonio Cantó
construyendo el ITER. Luego vendrían muchos más, en muchos países, desde China, Brasil o Italia a Irán, Portugal o México. Y en España, el Tokamak TJ-I de 1984. Los soviéticos, por su parte, no se durmieron en los laureles. Siguieron adelante con diseños cada vez más grandes y sofisticados. Vino el T-7, el primer Tokamak con imanes superconductores. Le siguió el T-8, con la característica cámara con sección en forma de “D” que se mantiene en los diseños actuales. Culminarían en el Tokamak T-15 de 1988, sobre el que después se realizarían los estudios preliminares para diseñar el ITER; ahora lo están actualizando. Pero tras el colapso de la URSS se han quedado un poco fuera de juego, aunque anden liados con el Globus-M; más que nada, participan en la cooperación ITER. Pese al éxito del Tokamak, no todas sus alternativas han quedado aplastadas. El diseño Stellarator, aunque quedó un poco pachucho durante una larga temporada, vuelve a presentar interés (en el Laboratorio Nacional de Fusión del CIEMAT tenemos uno: el TJ-II.) Y por supuesto, la otra gran alternativa, el confinamiento inercial, prosiguió con dispositivos como la National Ignition Facility estadounidense o el Laser Mégajoule francés, de doble uso en investigación civil / militar. En la National Ignition Facility parecieron obtener un resultado muy importante en septiembre de 2013 (producir la misma energía que se consumía para obtener la fusión), pero luego resultó que eso era muy matizable (y aquí.) Tanto, que sólo obtuvieron un 0,78% de la energía consumida. :-/ En el Joint European Torus, el Tokamak más grande del mundo, se llega al 70% y según algunos modelos teóricos del JT-60 japonés, se ha podido llegar al 125% (esto está disputado.) Pero para empezar a generar energía con el conjunto del reactor hay que llegar al 500% y para hacer una central de fusión práctica, superar el 1.000 o el 1.500% y preferiblemente rondar el 2.500%.
- 362 -
La Pizarra de Yuri 3
Una estrella y un mar llenos de hidrógeno con los que soñar: el Océano Pacífico y (algo de) sol matutino vistos desde Poronaysk (Sajalín, Rusia), donde estaba destinado el sargento Oleg A. Lavréntiev cuando tuvo su idea genial. Foto: Alex Nov., 2009.
El caso es que ahora mismo el gran proyecto internacional para obtener energía de fusión es un Tokamak: el conocido y ya muchas veces mencionado ITER, que debería empezar a dar resultados en el periodo 2020-2027. Si consigue sus objetivos, después tendrá que venir DEMO para convertirlo en una central eléctrica práctica allá por 20332040. Ya te conté hace algún tiempo que esto de la energía nuclear civil de fusión avanzaba a su ritmo, y por qué. Lo cierto es que sigue avanzando, pero comprendo que haya decepcionado a muchas personas. Hace décadas se crearon expectativas que en su momento se creían realistas… pero no lo eran. El problema resultó mucho más diabólico de lo que parecía. Eso sí, cuando lo consigamos,
- 363 -
Antonio Cantó
seguramente habrá que volver a acordarse de aquel sargentillo que con sus estudios de secundaria y su esforzada suscripción aAvances en Ciencias Físicas, mientras miraba al sol naciente sobre las aguas del Pacífico, tuvo una ocurrencia genial. Bibliografía / Para aprender más: •
El documento original remitido por el sargento Oleg A. Lavréntiev al Comité Central del Partido Comunista de la Unión Soviética, de 29 de julio de 1950(recopilado en Phys. Usp. 44 862–864 (2001). doi: 10.1070/PU2001v044n08ABEH001122.) (En ruso, gratis; en inglés, de pago.)
•
ITER newsline: Arnoux, R.: “La carta al Kremlin que lo empezó todo.” (En inglés.)
•
Bondarenko, B. D.: “El papel desempeñado por O. A. Lavrentiev en la formulación del problema y el inicio de las investigaciones en fusión nuclear controlada en la URSS. ” Phys. Usp. 44 844–851 (2001), doi: 10.1070/PU2001v044n08ABEH000910. (En ruso, gratis; en inglés, de pago.)
•
Smirnov, V. P. (Instituto Kurchátov): “ Tokamak foundation in USSR/Russia 1950–1990 “. Nucl. Fusion 50 (2010); doi: 10.1088/0029-5515/50/1/014003. Resumen aquí. (En inglés.)
•
EUROfusion: “50 years of Tokamaks” y “Success of T-3 – breakthrough for tokamaks “. (En inglés.)
•
ITER: The machine. (En inglés.)
•
Póster educativo de EUROfusion en tamaño para imprimir y alta resolución (ojo: fichero grandecito.) (En español.)
•
Póster con el listado de los principales Tokamak convencionales (ojo: fichero tirando a grande.) (En inglés.)
•
…y un curioso jueguecillo de EUROfusion para Apple y Android sobre el control del plasma en el interior de un reactor Tokamak. :-P
- 364 -
La Pizarra de Yuri 3
Jovencitas con collar (electrónico) Yuri, el 3 de marzo de 2015 @ 3:59 · Categoría: Actualidad, Sociedad y civilización, Tecnología
Seguridades peligrosas.
Una de las muchas apps disponibles para mantener controlados a los niños (o a quien sea, o lo que sea) mediante seguimiento por GPS. Ante un atacante mínimamente sofisticado, la inmensa mayoría de estas apps y dispositivos pueden ser muchísimo más inseguros que no llevar nada en absoluto.
Parece ser que en algunos ámbitos se ha puesto de moda mantener controlados a los hijos no sólo a través del teléfono móvil, sino también mediante algunas apps o dispositivos análogos a los que se usan para saber la posición de los vehículos y cosas por el estilo (a veces disimulados en relojes, pulseras y demás.) Por ejemplo, este verano pasado, me invitaron a comer en una casa de campo. Entre los asistentes se contaba una pareja con una hija de esas a las que sus padres insisten militantemente en llamarniña pero algún degenerado podría pensar que a cualquier cosa le llaman niña en estos tiempos y que lástima de ser tan viejo porque… ehhh, nada, no he dicho nada. El caso es que sus padres resultaron ser del tipo pelín controlador y paranoico. Durante la sobremesa, ya con los cubatas, comentaron que comohoy en día pasan tantas - 365 -
Antonio Cantó
cosas (aquí el arriba firmante, que se crió en un barrio medio chungo durante los años malos del caballo, suele reírse bastante cuando oye eso), le habían puesto a su hija una app en el teléfono móvil para tenerla localizada en todo momento. Sin duda, el funcionamiento de la tal app es sencillo y eficaz. Desde cualquier ordenador o móvil o lo que sea accedes por Internet a un servidor seguro y, previa contraseña, mandas una señal al teléfono de la muchacha –vamos a dejarlo así–. Entonces, el teléfono activa su GPS y devuelve la posición, que sus papis (o, en caso de emergencia, la poli) pueden ver proyectada en Google Maps o donde mejor les parezca. Si además la muchacha sale de un área predefinida, se dispara una alarma automáticamente. Y todo por cuatro perras al mes. Simple, seguro y barato (las hay incluso gratuitas, pero a esta familia en particular les pareció mejor “contratar algo más serio”.) Algún otro comensal observó que todo muy bonito, pero eso duraba hasta que el móvil se quedase sin batería, o se lo quitaran, o lo echaran a un cubo de agua, o cualquier otra de esas cosas que hacen los señores malos. O las chicas buenas cuando no quieren ser tan buenas, o estar tan controladas. Con expresión lastimera, los papis contestaron que ya, que habían estado mirando de ponerle un chip a la niña, pero que por lo visto esa tecnología no estaba disponible aún y esto era lo mejor que pudieron encontrar. Una pena. Esos científicos insensibles, que van a su rollo y no se preocupan de resolver los problemas verdaderamente importantes. A mí, a esas alturas de la sobremesa, entre lo del chip, los dos gin-tonics que cargaba ya entre pecho y espalda, y que la muchacha llevaba el móvil en una de esas bolsitas tan cucas que se cuelgan del cuello y van rebotando sobre el bikini –vamos a expresarlo así también–, me dio por pensar en perros y collares, no sé por qué, señor juez, se lo juro. El alcohol y la caló, que me sientan mu malamente. Dejaré al mejor juicio de psicólogos, pedagogos y demás expertos la opinión sobre si es muy bueno que una jovencita, en esos años críticos de su desarrollo mental, viva permanentemente al extremo de una correa electrónica que la une a sus padres como si fuera un cordón umbilical en vez de aprender a sacarse las castañas del fuego por sí misma. Tampoco me pareció de buena educación preguntarle a la muchacha si le habría molado ir chipeada como la Venus, que ladraba por allí cerca, o ya le bastaba con su collarcito digital.
- 366 -
La Pizarra de Yuri 3
- 367 -
Antonio Cantó
Inhibidores de señal a la venta por Internet. Arriba, un modelo sencillo capaz de perturbar las señales de telefonía móvil y GPS a una distancia eficaz de unos 10 metros; precio, 74,40 euros. Abajo, un modelo multibanda más sofisticado capaz de inhibir selectivamente un amplio rango de frecuencias hasta a unos 50 metros de distancia; precio, 557 euros. Gastos de envío incluidos. Pero no es preciso comprárselos hechos, como estos. Cualquier persona con conocimientos medios de electrónica y telecomunicaciones podría construirse uno más eficaz, más específico, menos detectable y notablemente más barato utilizando componentes comunes de fácil adquisición sin levantar sospecha alguna. Y, por supuesto, hacer cuantas pruebas quisiera hasta asegurarse de que funciona bien.
El caso es que en ese momento, con todo el calor que hacía, me dio un escalofrío. Sí, ya sé que debería haberme dado antes, pero es que los gin-tonics me ponen lento. O a lo mejor te piensas que soy un exagerado. O no sabes de qué demonios hablo. Pero verás, es que si los papis en cuestión son un poco paranoias, yo para estas cosas soy un paranoico con diploma y carné. Y claro, de pronto me imaginé a esa nena tan jovencita y tan mona caminando por este mundo viejo mientras retransmite su posición a los cuatro vientos. Así de entrada, como concepto, no me pareció la mejor idea del mundo. A lo mejor, me dije, esa app va bien contra un tarado vulgar, aunque no sé yo si a estas alturas quedan tarados tan cutres como para no saber que lo primero que has de hacer al atacar a alguien es anular sus telecomunicaciones; en este caso, su teléfono móvil. Pero si hablamos de atacantes un poco más sofisticados, digamos una mafia dedicada a la trata o un tipo de los que encuentran placer en estos desafíos, yo consideraría muy seriamente la posibilidad de enviar una cesta por Navidad a las familias que tienen a bien retransmitir la posición de sus hijas a petición. ¿A ti no te gusta que te faciliten el trabajo o qué? Lo primero que hice fue un par de preguntas, sólo para confirmar lo obvio: que ni papi, ni mami ni el resto de la parentela tenían la más puñetera idea de seguridad lógica,criptografía, fundamentos de guerra electrónica –sí, guerra electrónica, ¿o te crees que no tiene nada que ver con todo esto, y que no hay gente por ahí suelta que entiende un montón de eso?–, telecomunicaciones y demás. Habían contratado el producto como quien contratópreferentes, planes de pensiones o Soficos, por decir algo. Así que les pedí que me dejaran ver el ingenio de marras. Tuvieron que verme la cara de preocupación, porque accedieron al momento. Para empezar, el teléfono. O sea, el terminal. Por supuesto, no estaba securizado en absoluto. Era un smartphone de serie, caro pero estándar. Nada impedía que la muchacha se descargase un troyano con el último salvapantallas de la Miley Cyrus. Nada impedía que alguien le instalase cualquier otra cosa al más mínimo descuido. Nada impedía darle el cambiazo a la app por otra retocada, por ejemplo para transmitir una copia de la posición a un servidor en el Uzbekistán o por ahí. Nada de nada. A pelo. Ya de por sí, esto sería un peligro incluso sin app localizadora, por mucho que todo el mundo vayamos igual. La primera, en la frente. - 368 -
La Pizarra de Yuri 3
Así que saqué el ordenador portátil para echar un vistazo a la empresa proveedora y su servidor. Debo reconocer que tienen una web muy chula, muy pro, con testimonios de familias satisfechas y alguna famosilla del país. Pero la documentación técnica brillaba por su ausencia, en lo que podía ser un ejemplo de seguridad mediante la oscuridad, de saber que tus clientes no van a entender ni palabra o de simple desidia. Lo único que pude ver, así a bote pronto, es que utilizaban un protocolo de seguridad TLS para conectarse con el servidor. Pero por lo demás, no había ninguna forma de saber si ese invento era más o menos seguro o no. Sin embargo, más tarde, rebuscando por esos sitios de Internet en los que no hay que mirar, descubrí que los servidores de esta empresa en particular (en realidad, de sus proveedores) habían sido crackeados varias veces. La segunda, en los morros. Y luego estaba la seguridad de la contraseña. Por lo que pude deducir, la tenían los papis; el tío J. y padrino de la muchacha, que entiende más de esas cosas; un amigo de la familia que es policía, por si acaso; el de la tienda de informática que les arregló el ordenador, porque se la dieron para asegurarse de que podían conectar bien; y además estaba apuntada en casa en una libretita para caso de necesidad (¿cuál?). Eso, que recordasen así en ese momento. Este que te escribe, al que le da un tic cada vez que tiene que compartir una contraseña y la cambia inmediatamente a continuación aunque me la hubiese pedido mi difunto señor padre en persona, empezó a sudar frío. La tercera, en los h*evos. Intenté explicarles, suavemente, que según mi opinión se habían equivocado. Que ya de por sí, a mí me desagradaría la idea de que una hija mía fuese por ahí con un dispositivo localizador al que cualquiera puede instalar cualquier cosa. Y ojo: esto lo dice uno que piensa que esas mamarrachadas que salen por la tele de que los críos de la era digital no deben tener móvil o no hay que dejarles el ordenador en su cuarto son solemnes estupideces. Si no has sido capaz de educar a tus criaturas para que sepan hasta dónde pueden llegar y dónde no, entonces dejarles sin móvil o plantar el ordenador en medio de la salita de estar no lo arreglará y de hecho sólo les incitará a actuar a escondidas. Que parece que en esta Europa viejuna ya nos hayamos olvidado todos de cómo era ser joven, demonios. Además, a mi personal modo de ver, sustituir educación por control, aislamiento y censura es una idea francamente idiota que hace que luego, cuando se dan de bruces con el mundo real, se peguen unos mamporros de envergadura. A veces, mamporros de los que cuestan la vida. Sin embargo, una cosa es eso y otra proveerles con localizadores GPS que rara vez van a utilizar y cualquiera puedehackear (si van a ir al monte, con riesgo de perderse, yo sería el primero en darles uno y de los buenos; pero para moverse por el barrio o ir a la
- 369 -
Antonio Cantó
discoteca light los findes no creo que les haga mucha falta.) Y mucho más grave se me antoja confiar su seguridad a un sistema tan frágil. Las señales de telefonía celular y GPS son muy débiles, muy sencillas de perturbar. Internet y lo que no es Internet están llenos de toda clase de inhibidores de señal a la venta, y aunque no lo estuvieran, cualquiera puede conseguir un esquema y montárselo en casa. Sí, el famoso señor simpático de la furgoneta donde regalan chuches puede llevar un inhibidor portátil conectado a la batería por unos quinientos euros. Si sabe algo de electrónica y se da buena maña con el soldador, menos de cien.
Funcionamiento básico de un “spoofer” de GPS. Tanto el receptor legítimo (por ejemplo, tu móvil, o el de tus hijos) como el “spoofer” reciben las mismas señales procedentes de los satélites GPS. Pero entonces el “spoofer” recalcula los datos de radionavegación y emite una señal adicional de corto alcance dirigida a tu terminal legítimo, que no tiene ninguna manera de distinguirla de las auténticas. Como resultado, tu terminal combina todas ellas y cree estar (o permanecer) en un lugar distinto al que se encuentra realmente. Esta es la “fórmula básica”; por supuesto, se puede complicar tanto como quieras y sepas, incluyendo el uso de señales maliciosas altamente direccionales dirigidas a un receptor en particular que no son captadas en ningún otro punto de los alrededores. Utilizado con habilidad, el “spoofing” de GPS puede dar lugar a engaños realmente sofisticados mientras “todo parece estar en orden.” Imagen original: Laboratorio de Radionavegación de la Universidad de Texas.
Y si sabe algo más de guerra electrónica y está dispuesto a gastarse un poquito más de dinero, puede diseñar muy fácilmente ataques muchísimo más sofisticados que la mera y burda inhibición de señal, y que yo me quedo más tranquilo no detallando aquí. Me limitaré a enumerar tres que por sobradamente conocidos en el mundillo, nadie con un interés en estas cuestiones puede ignorar: spoofing de GPS (engaña al receptor haciéndole creer sutilmente que está en un sitio distinto al que está realmente), captura de la IMSI mediante una falsa estación base (un tipo de ataque del hombre intermedio) y la simple manipulación del terminal para cargarle código malicioso que te comenté antes. Ya si eso tú profundizas más y tal.
Video explicando (en inglés, me temo) cómo un grupo de estudiantes de la Universidad de Austin en Texas lograron engañar al sofisticado piloto automático de un yate de ochenta millones de dólares, mediante spoofing de sus receptores GPS, obligándole a seguir la ruta que quisieron. Los sistemas de protección de a bordo no fueron capaces de detectarlo. Esta técnica, evidentemente, también se puede utilizar a la inversa para hacer creer al receptor GPS que está en un sitio distinto al que se halla realmente, y transmitirlo tal cual, sin disparar así ninguna alarma. Video: Escuela Cockrell de Ingeniería,
- 370 -
La Pizarra de Yuri 3
Universidad de Texas en Austin. Aquí tienes otro estudio de la Universidad Cornellplanteando ataques mucho más sofisticados hace ya más de 6 años. Por cierto: este es uno de los motivos por los que el GPS está prohibido como medio de navegación primario en los aviones comerciales.
Cualquiera que piense que estos sistemas son seguros debe tener un concepto de la seguridad bastante distinto al mío. No, por supuesto que esto no es seguro, excepto frente a los atacantes más burdos, gente a la que habría que considerarles la atenuante de deficiencia mental o burricie en general. Todos los sistemas de seguridad personal individual basados en algo tan frágil como una señal de telefonía celular, una señal GPS, un terminal de fácil acceso y manipulación o un cifrado incierto son intrínsecamente inseguros y susceptibles de supresión o engaño justo cuando más necesarios serían. En algunas de sus implementaciones, son aún peores que ir en cueros, porque generan una sensación de falsa seguridad: lo que se viene a llamar el problema del antídoto contra el veneno de serpientes. ¿Y esto qué es?
Una mamba negra (Dendroaspis polylepis.) En los lugares donde esta clase de animalitos son endémicos, suele ser común encontrar charlatanes vendiendo a los incautos supuestos antídotos populares contra su veneno. Por supuesto estos falsos antídotos, a menudo fuertes licores herbales, no tienen absolutamente nada que hacer frente a los potentísimos cócteles de neurotoxinas que se encuentran en el veneno de tales especies. Pero por otra parte, el falso antídoto en sí es básicamente inocuo e incapaz de provocar nada mucho más grave que una borrachera o una diarrea. Entonces, ¿por qué resultan peligrosos? Sencillo: porque quien cree ir protegido con un antídoto, con el tiempo, tiende a asumir más riesgos o tomar menos precauciones. Hasta el día en que se encuentra con la mamba de verdad, claro.
Verás. En ciertas regiones donde las serpientes venenosas son endémicas, no era raro encontrar vendedores de toda clase de remedios y antídotos populares contra su picadura, a menudo más baratos y accesibles que los antisueros de las pérfidas - 371 -
Antonio Cantó
compañías farmacéuticas. Estos antídotos caseros, normalmente alguna bebida de alta graduación alcohólica a la que le echan algunas hierbas y cosas así, tienen una cosa buena: lo peor que te pueden provocar es una curda, o como mucho una gastroenteritis, según hayan sido elaborados. Pero por lo demás, básicamente no hacen nada. Un copazo de licor de hierbas no tiene ninguna utilidad real contra el veneno de esos animalitos, algunos de ellos potentísimos cócteles de toxinas que parecen recién salidas de un laboratorio militar de alta tecnología. Mamá Naturaleza, que tiene sus manías, y su hija Evolución ni te cuento. En esos mismos lugares se decía de viejo que los incautos que confiaban en tales remedios solían acabar muertos más a menudo que quienes pasaban de ellos y se adentraban en la selva a pulso. ¿Pero no hemos quedado en que no hacen nada, ni bueno ni malo? Bueno, es que el falso antídoto no tendrá ningún efecto, pero hace que te envalentones y te confíes. Las personas que creen ir protegidas suelen aceptar más riesgos y bajar la guardia tarde o temprano, porque ir en alerta todo el tiempo resulta agotador. Y bajar la guardia en un sitio donde puede habermambas negras, taipanes del interior o kraits con bandas es una muy, muy, muy mala idea. Tan mala como creer que un chaleco antibalas te protegerá de las ametralladoras de un helicóptero de asalto, o cosa parecida. Pues con la seguridad electrónica pasa lo mismo. Un mal sistema de seguridad que crees bueno pero no lo es, es peor que ninguno en absoluto. Porque si no tienes ninguno, sabes que vas en bolas y a poco que seas una persona mínimamente sensata ya te cuidas tú de no meterte en fregados que no puedas resolver. Pero si crees que vas a cubierto, que si pasa algo vendrá la caballería a rescatarte, es muy posible que acabes asumiendo más riesgos de los que deberías. Uno se acostumbra a la seguridad real o percibida, como a todo. Y si entonces va y resulta que los malos traen un inhibidor de quinientos pavos, o un spoofer de GPS, o tu terminal ya había sido discretamente manipulado, y sólo con cualquiera de esas cosas todo tu sistema de seguridad queda totalmente patas arriba… ya puedes ir encomendándote a tu dios favorito, porque en un ratito vas a tener la oportunidad de charlar con Él, o Ella, o Ello, o Nada, o lo que sea. A los papis no les gustó mucho mi opinión. Me preguntaron si, entonces, sería mejor comprarle uno de esos que van camuflados en un reloj, una pulsera o en la ropa en vez del teléfono móvil. Les contesté que hombre, que igual no cantaba tanto a simple vista, pero que todos ellos funcionan igual: mediante telefonía celular y GPS, y que derrotado uno, derrotados todos. Incluso el chip ese que les habría gustado ponerle a la niña si hubiese estado disponible. Y que las alternativas, los sistemas dedicados de alta seguridad, son muy caras, relativamente aparatosas, requieren atención especializada
- 372 -
La Pizarra de Yuri 3
constante y rara vez están disponibles para el público generalista. Esto último no les gustó nada. No sé si me hicieron caso o la muchacha sigue por ahí con su collar electrónico. Supongo que no es asunto mío, pero me quedé mosca. A decir verdad, me dio pena, qué le vamos a hacer. Por suerte, aquí casi nunca pasa nada. Casi.
- 373 -
Cuando le doy comida a los pobres, me llaman santo. Cuando pregunto por qué los pobres no tienen comida, me llaman comunista. --Monseñor Hélder Câmara, que fuera arzobispo de Recife.