La pizzarra de yuri 2

Page 1

ANONIO CANTÓ

LA PIZARRA DE YURI 2



Este libro es una edici贸n NO AUTORIZADA de la web La Pizarra de Yuri http://www.lapizarradeyuri.com Todos los meritos del libro se deben al autor de la web. Todos sus errores, al editor.


Antonio Cantó

INDICE

500 exoplanetas 5 38 antihidrogenitos. 17 La red de transporte interplanetario 31 Antibióticos para la vida 46 Así vuela un avión 59 Magia naturalis 75 Proliferación de armas de destrucción masiva 88 Preguntas y respuestas sobre… el agua. 103 Actualización 2: Estado de las centrales nucleares de Fukushima a las 19:00 (11:00 CET) del 16 de marzo de 2011 119 Actualización 1: Estado de las centrales nucleares de Fukushima a las 19:00 (11:00 CET) del 15 de marzo de 2011 121 Estado de las centrales nucleares de Fukushima a las 20:30 (12:30 CET) del 14 de marzo de 2011 123 La computadora de Anticitera 125 El Gran Morir 144 Radioactividad 153 Secuencia de acontecimientos en las centrales nucleares japonesas 179 Mediciones de radioactividad en Japón y el entorno de Fukushima I el 16/03/2011 228 Actualización 3: Estado de las centrales nucleares de Fukushima a las 16:00 (08:00 CET) del 17 de marzo de 2011 240 Y Fukushima no resistió 245 Grafeno, el material de los sueños (con entrevista al Nobel de Física 2010) 251 De paseo por Valencia con un contador Geiger soviético 260 La casi-máquina del tiempo del Dr. Krásnikov (con entrevista al Dr. Krásnikov) 274 Fukushima INES 7 284 50 años de Gagarin. Y ahora, ¿qué? 299 Las tierras perdidas 310 Noruega, 22.07.2011 322 El transbordador espacial se acabó. Y ahora, ¿qué? 323 Mi caso OVNI favorito 334 Charlando sobre la ciencia española y otras cosillas con el presidente del CSIC (entrevista) 349

-4-


La Pizarra de Yuri 2

500 exoplanetas Yuri, el 25 de noviembre de 2010 @ 12:51 · Categoría: Ciencia popular

Existen innumerables soles; hay innumerables tierras que giran alrededor de estos soles, de manera similar a la que nuestros siete planetas giran alrededor de nuestro sol. […] Hay seres vivientes que habitan estos mundos. –Giordano Bruno, De l’infinito, universo e mondi, 1584.

Estatua a Giordano Bruno en Campo de' Fiori, Roma, el lugar donde la Inquisición Católica lo quemó vivo y con la lengua acerrojada el 17 de febrero de 1600 por inmoralidad, enseñanzas erróneas, blasfemia, brujería y herejía. Entre estas "enseñanzas erróneas" se contaba el heliocentrismo, el principio de la pluralidad de los mundos y los orígenes más remotos de la Teoría de la Información Cuántica.

-5-


Antonio Cantó

En el momento en que empiezo a escribir este post (lunes, 22/11/2010), el catálogo que mantiene Jean Schneider(CNRS–LUTH, Observatorio de París) ya cuenta 502 candidatos a planetas extrasolares. Anteayer, PlanetQuest de la NASAactualizó a 500 también. El número de mundos detectados alrededor de otros soles crece sin parar. Hay planetas por todas partes: al menos el 10%, probablemente el 25% y hasta el 100% de las estrellas del tipo de nuestro Sol podrían tenerlos girando a su alrededor. Cada día es más cierta la segunda afirmación del cosmólogo napolitano quemado vivo hace cuatro siglos por la Inquisición Papal bajo acusación de inmoralidad, enseñanzas erróneas, blasfemia, brujería y herejía. Ni más ni menos. De la pluralidad de los mundos. Bruno no fue el primero de los humanos en defender lapluralidad de los mundos habitados. Que se recuerde, este honor recae en los atomistas griegos, esencialmentematerialistas filosóficos: Leucipo, Demócrito o Epicuroacariciaron el concepto. Sin embargo Platón y Aristóteles se oponían y afirmaban que la Tierra tenía que ser única, con la humanidad (y sobre todo unas ciertas clases de la humanidad) en la cúspide de la creación. Por motivos obvios, a los cristianos les gustaban mucho más las ideas de Platón y Aristóteles que las de los ateos atomistas. Así que cuando la Cristiandad se impuso en Occidente, lo hizo bebiendo de una cosmología clásica geocéntrica y creacionista donde la Tierra constituía un caso único y nuclear en el cosmos: el lugar elegido por Dios para encarnarse en Jesús, el escenario esencial del plan de salvación divino. La idea de que este no fuera más que un mundo cualquiera con una vida cualquiera en un rincón perdido del cosmos era –y es– difícil de conciliar con una teología salvífica antropomórfica: el Hombre creado a imagen y semejanza de Dios, el Dios encarnado en Hombre, la verticalidad del poder y de la revelación y todo ese rollo. No resulta, pues, de extrañar que los cristianos en general y los católicos en particular se tomaran cada pensamiento discrepante como un ataque frontal a su fe y a su poder. Pese a ello, al menos Nicolás de Cusa planteó ya algunas discrepancias notables al respecto. La pluralidad de los mundos habitados aparece, aunque de pasada, en la literatura islámica medieval. Algunos de los maravillosos Cuentos de las mil y una noches –que ahora algunos fundamentalistas islámicos también se quieren cargar– incluyen elementos que hoy en día llamaríamos de ciencia ficción; entre ellos, Las aventuras de Bulukiya relata un viaje por diversos planetas habitados.

-6-


La Pizarra de Yuri 2

Pero Bruno sí fue el primero que planteó el asunto en términos modernos, protocientíficos. Con su muerte y la inclusión de todas sus obras en el Índice de Libros Prohibidos, aún tuvo que transcurrir casi otro siglo antes de que la idea empezara a generalizarse en el pensamiento occidental. Ocurriría en 1686, con las Conversaciones sobre la pluralidad de los mundos de Fontenelle, y más decisivamente a partir del triunfo de la Ilustración en el siglo XVIII.Locke, Herschel y hasta los padres fundadores de los Estados Unidos Adams y Franklin exploraron provechosamente la cuestión. Para los cosmistas rusos, y especialmente para el padre de la cosmonáutica Konstantin Tsiolkovsky, la pluralidad de los mundos habitados fue asunto difícilmente discutible. Al llegar el siglo XX, ya sabíamos de sobras que las estrellas del cielo son soles como el nuestro, mayormente distribuidos en grandes galaxias, y sospechábamos con fuerza que debía haber muchos más mundos alrededor de esos otros soles. Pero no teníamos ninguna prueba fehaciente al respecto. Y ya sabes que en ciencia somos muy puñeteros con eso de las pruebas fehacientes. Detectando planetas extrasolares. El problema con los planetas –y lunas– situados en torno a otros sistemas solares es que no emiten luz propia y están muy lejos. Actualmente, las estrellas más próximas a nosotros son el sistema Alfa Centauri, a 4,4 años-luz de distancia: lo que vienen siendo 41 billones y pico de kilómetros. Y esas son las más cercanas. La tenue luz reflejada por un planeta o una luna resulta muy difícil de distinguir a semejantes distancias, y normalmente no se puede hacer con los instrumentos del presente. Si nosotros estuviéramos situados en Alfa Centauri, la Tierra nos resultaría invisible por completo; no digamos ya mundos más lejanos.

La presencia de planetas girando alrededor de una estrella obliga a todo el sistema a orbitar alrededor del centro de masas común. Esta "minórbita" descrita por la estrella puede ser detectada a inmensas distancias, delatando así la existencia de planetas extrasolares invisibles a los ojos y telescopios. En la actualidad, existen métodos para aplicar esta técnica con una precisión de un metro por segundo, a muchos años-luz de distancia. Los planetas muy grandes hacen que este efecto sea más perceptible.

-7-


Antonio Cantó

Por ello, la duda sobre la existencia de estas innumerables tierras girando alrededor de otros innumerables soles perduró hasta casi el siglo XXI. Así, hubo que detectarlos por vías indirectas. La más básica es la medición de la velocidad radial o espectroscopia Doppler. El principio es relativamente sencillo: todos los astros de un sistema solar, incluyendo a la estrella (o estrellas), giran en torno al centro de masasdel conjunto. Cuando hay planetas, sobre todo cuando hay planetas grandes, esto se traduce en una excentricidad o bamboleo de la estrella; y como la estrella síemite enormes cantidades de luz y radiación, este comportamiento puede observarse a gran distancia. De hecho, nuestros instrumentos son bastante buenos a la hora de detectar estas anomalías. El primero en proponer la existencia de planetas alrededor de otra estrella mediante esta técnica fue el capitán W. S. Jacob del Observatorio de Madrás, perteneciente a la Compañía Británica de las Indias Orientales, ya ¡en 1855! El objeto de su deseo –del capitán Jacob y de algunos otros que vinieron después– era 70 Ophiuchi, un sistema estelar binario relativamente próximo, a 16,64 años-luz de aquí. Este sistema presenta una órbita muy excéntrica, una anomalía que condujo a pensar que allí tenía que haber un compañero invisible con un décimo de la masa del Sol. Desafortunadamente, esta hipótesis no se ha podido confirmar. Por lo que sabemos ahora mismo, en 70 Ophiuchi no hay ningún planeta con las características descritas por Jacob y los demás. Sin embargo, naturalmente, esto podría cambiar en el futuro. La primera detección confirmada de un planeta extrasolar, usando este método, fue realizada por un equipo canadiense en 1988. Aunque al principio fueron extremadamente cautos, dado que esta observación se encontraba en el límite de los instrumentos de su tiempo, el descubrimiento se confirmó en 2002. Está en torno a la estrella Alrai oErrai (del árabe Al-Rai, el pastor), conocida sistemáticamente como gamma Cephei, y por eso lo llamamos gamma Cephei Ab o Errai A1. Se trata de un planeta grande, un gigante gaseoso con la masa de un Júpiter y medio y un poco más, que orbita con cierta excentricidad a unos trescientos millones de kilómetros de la estrella. Su año –el tiempo que tarda en dar una vuelta alrededor de su sol– equivale a unos 903 días terrestres. Errai A1 no fue el primer planeta en ser confirmado. Este honor corresponde al sistema solar en torno al púlsar PSRB1257+12, que se encuentra en la constelación de Virgo a unos 980 años-luz de la Tierra. Los púlsares son estrellas de neutrones que emiten radiación con una frecuencia muy precisa, tanto que se consideran las radiobalizas galácticas, y por tanto la menor anomalía en el tictac de estos relojes cósmicos resulta relativamente fácil de reconocer. Esto nos conduce a otra manera de detectar exoplanetas: la temporización de púlsares.

-8-


La Pizarra de Yuri 2

La temporización de púlsares se parece mucho a la detección por velocidad radial; sólo que las minúsculas variaciones en las emisiones del púlsar provocadas por este mismo fenómeno multiplica su precisión por varios órdenes de magnitud. Así se han descubierto ya planetas del tamaño de la Tierra en torno a varios púlsares. Por desgracia, sólo funciona en los púlsares, y encima ninguna clase de vida ni remotamente parecida a la que conocemos puede surgir o sobrevivir en las cercanías de estrellas de neutrones como estas; sin embargo, la detección de estos planetas del tipo de la Tierra demuestra que son posibles en otros sistemas solares.

El exoplaneta Fomalhaut b observado por el telescopio espacial Hubble en 2004 y 2006. Ver en ventana o pestaña nueva para ampliar. (NASA)

El primer planeta confirmado en torno a una estrella de la secuencia principal del tipo del Sol(G2) fue 51 Pegasi b, a 50,9 años-luz de aquí. Se detectó también por velocidad radial y es unJúpiter caliente, que orbita a apenas 8 millones de kilómetros de su sol. Los planetas más parecidos a la Tierra que se han hallado hasta el momento, utilizando el mismo método, se encuentran en torno a una enana roja de la constelación de Libra llamada Gliese 581, a 20,3 años-luz de distancia; aunque COROT-7btampoco es de despreciar. COROT-7b es interesante también porque se detectófotométricamente, que es otra técnica para localizar estos exoplanetas. La técnica fotométrica más común es la observación del tránsito. Básicamente, cuando un planeta pasa por delante de su estrella (entre su estrella y nosotros, vaya), “tapa” (eclipsa) una parte de su luz y por tanto modifica las características de luminosidad que observamos desde aquí. Es lo más parecido a ver un planeta que podemos hacer normalmente, hoy por hoy. Por desgracia, este método produce un montón de falsos positivos; por fortuna, resulta relativamente fácil descartarlos aplicando a continuación la técnica de velocidad radial. El resto son ventajas: una vez confirmada la presencia del -9-


Antonio Cantó

objeto, la fotometría permite estudiar su dimensión, su densidad, su atmósfera y sus emisiones de radiación, aportando una gran cantidad de datos sobre sus características. Existen más técnicas indirectas para la detección de exoplanetas, entre las que se encuentran las microlentes gravitacionales, de tanta utilidad para hallar incontables cosas que no ven los ojos. Sin embargo, a estas alturas ya se ha conseguido confirmar al menos diez por observación directa. Viéndolo con un telescopio, vamos. Estos suelen ser planetas gaseosos muy grandes, muchas veces Júpiter, tanto que están a punto de encenderse como pequeñasenanas marrones y por tanto emiten su propia radiación. El escenario actual va como sigue: las técnicas de detección que tenemos hoy en día son adecuadas para detectar grandes planetas, del tipo de los exteriores de nuestro sistema solar o más grandes aún. Los planetas pequeños y rocosos resultan más esquivos, y no digamos ya las posibles lunas de unos y otros, que de momento permanecen completamente invisibles a nuestros ojos e instrumentos. Esto quiere decir que en esos casi 400 sistemas solares que hemos detectado ya (¡y los que quedan por descubrir!) podría haber innumerables tierras esperando a que las veamos con un instrumento mejor. La constante mejora de estas técnicas está ocasionando un rápido incremento en el número de candidatos a exoplanetas, lo que sería indicativo de que existen muchísimos más:

Detección de candidatos a exoplanetas entre 1989 y el 3 de octubre de 2010, con detalle de la técnica empleada. En estos momentos, estamos ya cerca de descubrir cien al año. (Clic para ampliar)

- 10 -


La Pizarra de Yuri 2

Ilustración del cuento infantil "Ricitos de oro y los tres osos". La moraleja: "ni demasiado caliente ni demasiado frío, ni demasiado grande ni demasiado pequeño..."

En busca de Ricitos de oro. El sueño húmedo de todo investigador que se precie es, por supuesto, descubrir un planeta de características análogas a las de la Tierra. Más que nada porque, si bien se puede especular todo lo que se quiera sobre formas de vida extrañas, sabemos que en los planetas de estas características la vida es posible:nosotros estamos aquí. Estos planetas, que de momento serían hipotéticos si no fuera porque la Tierra existe y está bajo nuestros pies, se han venido a denominar –no sin cierta sorna– goldilocks(“ricitos de oro“) por el cuento infantil Ricitos de Oro y los tres osos. Y quizá, también, por la cantidad de novios que les saldrían.;-) Un planeta (o luna) ricitos de oro es un astro que reúne las condiciones básicas para permitir la vida del tipo de la terrestre.Vamos a detenernos un momento en el concepto, porque a veces se interpreta fatal. El interés en los ricitos de oro no presupone que la vida en la Tierra sea el único tipo de vida posible; sino que la posibilidad (que no la probabilidad) de vida en los planetas del tipo de la Tierra es total (nosotros somos la prueba), mientras que en el resto no lo sabemos. Y, por tanto, parece sensato concentrar los siempre magros recursos destinados a la búsqueda de vida extraterrestre en este tipo de mundos, al menos en primera instancia. El propósito de las búsquedas de planetas extrasolares no es, todavía, la localización de vida extrasolar. Ni siquiera la de un segundo hogar, donde el “principio ricitos de oro” - 11 -


Antonio Cantó

tiene aún más sentido. Por el momento, esta investigación pertenece aún al ámbito de la ciencia pura, y estamos haciendo poco más que encontrarlos, contarlos y tratar de describir algunas de sus características. Hay que aprender a andar antes de correr. Pero se notan las ganas. :-D La menor sugerencia de que se ha detectado algún planeta telúrico o casi-telúrico provoca de inmediato gran revuelo tanto entre la comunidad científica como en la sociedad; ocurrió hace poco con el descartado (de momento) Gliese 581 g. Aunque esto de descartar candidatos es un suceso habitual en la búsqueda exoplanetaria, produjo claramente mucha más decepción que el descarte de un planeta pegasiano o uno chitónico, por decir algo.

Los "seres de luz" o de "energía pura", comunes a algunas expresiones de la espiritualidad y la literatura fantástica, serían virulentamente explosivos y deberían estar sometidos al Tratado de No Proliferación. :-P

Por supuesto, podríamos caer en un error terracéntrico si nos concentráramos sólo en estos mundos a la hora de buscar a otras gentes (aunque no si pretendiéramos encontrar ese segundo hogar…). No obstante, la aproximación ricitos de oro tiene bastante lógica. Veamos. Por un lado, resulta muy difícil imaginar tipos de vida desvinculados de la materia. En el ámbito de la religión y el esoterismo tienen gran querencia por los seres de luz y los entes de energía pura, pero un ser de luz (o sea, de fotones) sería extremadamente inestable y lo más parecido que se me ocurre a un ente de energía pura es una bomba de antimateria. Ya he dicho alguna vez en este blog que no hay tal cosa como algo superior oinferior a otra en nuestro universo, y la idea de que la energía es de algún modo superior a la materia resulta absurda por completo. Si algo, sería al revés: la materia es una inmensa cantidad de energía exquisitamente estructurada, con un grado de estabilidad y sofisticación mucho mayor al de la energía pura (!), que es bastante primaria y básica. Es más: antes de poder dar lugar a cualquier forma de vidasensatamente imaginable, debe presentar un mínimo grado de organización. En la práctica: ser materia bariónica. El escalón de la materia y el escalón de la materia bariónica parecen dos pasos

- 12 -


La Pizarra de Yuri 2

necesarios e imprescindibles en el surgimiento de algo tan diabólicamente complejo como la vida. Y en este universo, la materia bariónica se halla sobre todo en el espacio interplanetario e intergaláctico –demasiado esparcida para dar lugar a vida por sí misma–, en las estrellas –demasiado calientes para permitir su surgimiento y estabilidad– y en los planetas y sus lunas. Estos últimos constituyen, pues, el escenario idóneo para el surgimiento de las formas de vida más probables. Por eso la vida que conocemos apareció en un planeta; como la Tierra, por ejemplo.

Zona habitable ("ricitos de oro"), según distintos tamaños de estrellas, comparada con nuestro sistema solar. (Clic para ampliar)

Hay cosas que evidentemente favorecen el nacimiento y desarrollo de al menos una forma de vida, y otras que lo desfavorecen. La presencia de un solvente líquido como el agua ayuda mucho, pues permite que átomos y moléculas de materia muy distinta entren en contacto fácilmente entre sí. Para eso, la temperatura no debe ser tan baja que esté todo congelado e inmóvil, ni tan alta que los solventes se conviertan en vapor o plasma. La región alrededor de un sol donde un solvente como el agua puede permanecer en estado líquido se denomina zona habitable. O también zona ricitos de oro. Los planetas ricitos de oro son aquellos que se encuentran dentro de la zona habitable de sus respectivas estrellas. Existen más condicionantes que pueden alterar radicalmente la capacidad de un planeta para albergar vida. Por ejemplo, las gigantescas estrellas de tipo O probablemente barran todo el espacio circundante con un violentísimo viento solar, impidiendo la formación de planetas en su hipotética zona habitable.

- 13 -


Antonio Cantó

En el extremo contrario, las enanas rojas –que constituyen la mayor parte de las estrellas de la galaxia– se habían descartado tradicionalmente pero en los últimos años han suscitado nuevo interés. Por la parte mala, emiten muy poca luz y calor, con lo que su zona habitable debe ser muy estrecha y cercana; cualquier planeta que se halle en esta región estará seguramente sometido a acoplamiento de marea (como la Tierra y la Luna), dando lugar a un hemisferio permanentemente expuesto al sol y otro en noche perpetua, lo que hace muy difícil la vida fuera de la estrecha zona de transición entre uno y otro; y encima son muy variables, lo que puede cargarse durante una fase de su historia todo lo logrado en la anterior. A su favor juega que son extremadamente abundantes y sobre todo longevas: durarán billones con “b” de años, permitiendo así incontables oportunidades para que se produzcan muchas tentativas; cualquiera de ellas puede dar en el clavo con una forma de vida capaz de medrar en estas circunstancias.

Desde el radiotelescopio de Yevpatoriya (Ucrania), el más grande de Eurasia, se han enviado ya al menos dos mensajes hacia 47 de Osa Mayor y otras estrellas prometedoras. 47 UMa es un sol muy parecido al nuestro, a 46 años-luz de distancia, donde ya se han detectado varios planetas.

No obstante, los soles más idóneos parecen ser los de tipo G y sobre todo K. Nosotros surgimos en torno a una estrella de tipo G, laenana amarilla llamada Sol, pero por su larga vida y comportamiento similar las de tipo K (enanas naranjas) podrían ser aún mejores. Las estrellas G y K suman al menos el 14% de los soles en nuestra galaxia y en

- 14 -


La Pizarra de Yuri 2

muchas de ellas ya hemos detectado planetas. Entre las más próximas, tenemos ya candidatos a planetas en Epsilon Eridani(K2V, 10,5 años luz), 47 de Osa Mayor (G1V, 46 años luz,interesantísima) o AB Pictoris (K2V, 148 años-luz). Con toda probabilidad hay muchos más, esperando a que tengamos instrumentos más sensibles, como quisieron serlo el canceladoDarwin de la ESA o el postergado TPF de la NASA. Lo seguro es que cada día hay más candidatos a convertirse en esas innumerables tierras de las que habló Giordano Bruno. De momento llevamos ya medio millar y, al ritmo actual, antes de cinco años habremos alcanzado los mil como mínimo, más todo los que no podemos prever aún. Si esta es la densidad planetaria típica en una galaxia, sólo en nuestra Vía Láctea debe haber entre cientos y miles de millones de planetas, más sus lunas, lo que podría elevar el número de estos astros al orden de la decena de millar de millones. Vale, los que estén más cerca de los núcleos galácticos no valen. Ni los de estrellas demasiado grandes o demasiado pequeñas. Aceptemos que tampoco los de sistemas múltiples. Sigue siendo un número asombroso: aunque apenas uno de cada diez millones de estos mundos fuera ricitos de oro, seguirían siendo mil sólo en esta galaxia. Se considera que la zona de habitabilidad galáctica (ni demasiado cerca del centro para que la radiación no acabe con todo, ni tan lejos que dificulte la formación de elementos pesados) tiene unos seis mil años luz de ancho, empezando a una distancia de 25.000 desde el núcleo galáctico. El disco estelar de la Vía Láctea es esencialmente plano, con un grosor de apenas mil años-luz. Si calculamos el volumen de este disco y luego le sacamos la raiz cúbica, nos sale que debería haber un ricitos de oro de media cada mil años-luz aproximadamente, lo que seguramente aporta algo de luz a la pregunta de ¿dónde está todo el mundo? En todo caso, observa que estamos utilizando las estimaciones más conservadoras posibles, suponiendo siempre formas de vida análogas a la terrestre y contando únicamente nuestra galaxia. Así pues, a estas alturas ya podemos afirmar rotundamente con Giordano Burno: existen innumerables soles. Dependiendo del sentido, también podemos decir con él: hay innumerables tierras que giran alrededor de estos soles. Y, sin duda, podemos seguir preguntándonos legítimamente: ¿hay seres vivientes que habitan estos mundos? Bruno y quienes fueron como Bruno apostaron a que sí. Como poco, podemos contestar ya: existe una elevada probabilidad. Y es posible que la respuesta esté mucho más cerca de lo que podemos soñar hoy. PD: Resulta difícil determinar cuál es el “exoplaneta número 500”, puesto que los candidatos entran y salen de la lista constantemente. En estos momentos, PlanetQuest

- 15 -


Antonio Cantó

de la NASA cuenta en esta posición a HD 218566 b, situado a unos 97 años-luz de aquí: un astro algo más pequeño que Saturno orbitando en torno a una estrella de tipo K3V.

- 16 -


La Pizarra de Yuri 2

38 antihidrogenitos. Yuri, el 21 de noviembre de 2010 @ 10:22 · Categoría: Ciencia popular

El experimento ALPHA del CERN ha logrado capturar 38 antiátomos durante algo más de un sexto de segundo. ¿Qué significa esto? ¿Por qué es importante? Salió publicado en prensa el jueves pasado: el experimento ALPHA del CERN ha logrado capturar 38 átomos de antimateria durante diecisiete centésimas de segundo, antes de que se fugaran. Qué pasada, ¿eh? Qué barbaridad, qué cosas hace la ciencia… … …venga, en serio. :-D A ver, que levante la mano quien pueda decir qué significa esto y por qué tiene a los físicos de medio mundo descorchando el champán bueno (vale, si eres físico, me imagino que ya sabes por qué andas borracho; pero ¿y si no? ¿Eh? ¿Eh? ;-) ).

El experimento ALPHA del CERN (Foto: CERN)

- 17 -


Antonio Cantó

Antimateria.

Partículas y antipartículas: electrón y positrón, protón y antiprotón, neutrón y antineutrón. Son como "imágenes en el espejo" con las cargas invertidas (el neutrón no tiene carga eléctrica, pero el antineutrón está compuesto de antiquarks, al igual que el antiprotón). Al combinarse, forman átomos y antiátomos.

Ya explicamos en este blog qué es la antimateria. Para resumirlo rápidamente, haré aquello tan feo de citarme a mí mismo: La antimateria es, sencillamente, materia donde alguna de las cargas está invertida con respecto a la materia corriente. Veámoslo con un electrón, que se comprende muy bien. El electrón, como leptón que es, tiene masa y spin pero sólo una carga: la eléctrica, siempre negativa. Su antipartícula, llamada positrón, posee exactamente la misma masa, spin y carga eléctrica; sin embargo, en este caso la carga eléctrica es positiva. De esta forma el positrón mantiene todas las propiedades de su antipartícula el electrón pero electromagnéticamente reacciona al revés. Por ejemplo: dos electrones, por tener carga negativa, tienden a repelerse entre sí. Pero un electrón y un positrón, aunque en todo lo demás sean idénticos, tienden a atraerse entre sí porque uno tiene carga eléctrica negativa y el otro positiva. Y así con todo. Con los quarks ocurre lo mismo. El quark arriba, por ejemplo, tiene una carga eléctrica de +2/3 (dos terceras partes de la de un positrón). Antiarriba, en cambio, tiene una carga eléctrica de -2/3 (dos terceras partes de la de un electrón). Su carga cromática también cambia: si por ejemplo está en estado rojo, el antiquark estará en anti-rojo, que se suele

- 18 -


La Pizarra de Yuri 2

llamar magenta. (Que esto de los colores no te confunda: es una forma simbólica de representar su estado de cara a la cromodinámica cuántica; no tiene nada que ver con colores de verdad). Veamos lo que ocurre entonces con un protón y un antiprotón; por ejemplo, respecto al electromagnetismo, que es más sencillo. Hemos quedado en que los protones (como todos los bariones) están compuestos de tres quarks, y que en su caso éstos son dos arribas y un abajo. El quark arriba lleva una carga eléctrica de +2/3 y el quark abajo, otra de –1/3. Sumémoslas: (+2/3) + (+2/3) + (–1/3) = +3/3 = +1. Resultado: el protón tiene una carga positiva. Ahora contemplemos el antiprotón, formado por dos antiquarks arriba (carga –2/3) y un antiquark abajo (carga +1/3). Observa que está formado exactamente igual, sólo que con las versiones invertidas de los quarks. Sumemos (–2/3) + (–2/3) + (+1/3) = –3/3 = – 1. Resultado: el antiprotón tiene una carga negativa. El resto de cargas también se invierten. En aquellos leptones que no tienen carga eléctrica (los neutrinos) se invierte otra propiedad distinta, la helicidad, que es la proyección del spin relativa al momento de inercia. O, alternativamente, es posible que sean partículas de Majorana y constituyan su propia antipartícula. La antimateria ha llamado la atención de muchas personas, entre otras cosas por sus propiedades energéticasexplosivas. Cuando la materia entra en contacto con la antimateria, se aniquilan mutuamente siguiendo la conocida fórmula E=mc 2. Pero, así como en la fisión y en la fusión sólo es una minúscula parte de la materia o energía del átomo las que se liberan, en la aniquilación materia-antimateria toda la masa se transforma íntegramente en energía. Y esto, compi, es de una potencia pavorosa, la reacción más energética posible en todo el universo conocido: Medio gramo de materia interactuando con medio gramo de antimateria (un gramo de masa total) genera espontáneamente 89.876 gigajulios de energía (se obtiene aplicando simplemente E = mc2; E = 0,001 · 299.792.4582 = 89.875.517.873.682 J). En términos de energía utilizable, esto equivale a unos 25 gigawatios-hora (una central nuclear como Cofrentes tirando watios a toda mecha durante casi un día entero); si queremos presentarlo en términos de energía explosiva, son 21,5 kilotones: como Nagasaki más o menos.Con un solo gramo de material.

- 19 -


Antonio Cantó

Esta imagen del Observatorio Espacial Compton de la NASA presenta evidencias de que existe una nube de positrones, una forma de antimateria, extendiéndose a lo largo de unos 3.000 años-luz sobre el centro de la galaxia. Estos rayos gamma tienen una energía de 511 keV, un cuarto de millón de veces más que la luz visible, y se producen cuando los positrones de antimateria se aniquilan con los electrones de materia; así, la masa de ambos queda convertida íntegramente en energía según la conocida ecuación relativista E = mc2. Curiosamente, esta nube de antimateria parece extenderse hacia el norte del plano galáctico pero no hacia el sur.

Comparemos. El uranio-235 de grado militar puede llegar a producir, óptimamente, 88,3 gigajulios por gramo; la mezcla usada normalmente en las centrales civiles, entre medio y tres y medio. Por debajo de mil veces menos. La fusión del deuterio-tritio en las armas termonucleares puede alcanzar 337 gigajulios por gramo; y la fusión más energética posibleroza los 650; esto es, ciento y pico veces menos. La aniquilación materia-antimateria tiene otra ventaja: a diferencia de la fusión, se produce espontáneamente en todos los rangos de energía. A diferencia de la fisión, se produce con cualquier cantidad de materia/antimateria. Esto significa que no presentaría problemas de contención: el diseño conceptual de un reactor de materia-antimateria se parecería mucho al de un carburador o, si lo prefieres, a un motor cohete o una central térmica normal. Si necesitas más energía aumentas un poco el flujo, si necesitas menos lo reduces, si dejas de necesitar lo cortas. Eso es todo. Como la antimateria presenta propiedades exactamente simétricas a la materia (o eso hemos observado hasta el momento), puede organizarse de manera idéntica. Un universo de antimateria sería indistinguible de un universo de materia. Este nuestro podría ser un universo de antimateria donde anduviéramos a la caza de la materia. De hecho, lo es: el “pro” y el “anti” dependen exclusivamente del punto de vista humano. Así pues, la antimateria se organiza en átomos igual que la materia: Entonces imaginemos un átomo, el más básico de todos: el hidrógeno-1 o protio (hidrógeno corriente). Está compuesto por un protón (carga eléctrica positiva) y

- 20 -


La Pizarra de Yuri 2

un electrón (carga eléctrica negativa) en órbita alrededor. Esta configuración es posible porque el protón y el electrón, al tener cargas distintas, tienden a atraerse (igual que hace la gravedad con una nave espacial en órbita alrededor de un planeta). Si sustituimos el electrón por su antipartícula el positrón, o el protón por un antiprotón, este átomo se vuelve imposible: ambos tendrían idéntica carga, se repelerían violentamente y saldrían despedidos cada uno por su lado. Pero si sustituimos los dos –el electrón y el protón– por un positrón y un antiprotón, el átomo es igualmente posible porque las relaciones entre ambos se mantienen; sólo que ahora están invertidas. Ahora la carga positiva está en el positrón orbitando y la negativa se halla en el antiprotón del núcleo, pero como la relación entre ambas se mantiene (cargas invertidas), el átomo puede existir. Y se llama antihidrógeno. No sólo puede existir, sino que hemos fabricado un poquitín. El CERN (sí, los mismos del LHC) fue el primero en lograrlo, probablemente en 1995 y de manera verificada a partir de 2002 en sus deceleradores de partículas. En los aceleradores también se ha creado un pequeño número de núcleos de antideuterio (antihidrógeno-2) y antihelio-3. Hablamos, en todo caso, de cifras de billonésimas de gramo. Con la tecnología presente, su coste sería tan exorbitante como su rareza: aproximadamente, 50 billones de euros por un gramo de antihidrógeno. Pero no todo es tan difícil. Por ejemplo, ya existen desde hace algunos años aplicaciones tecnológicas basadas en la antimateria, como la tomografía por emisión de positrones (PET) de uso generalizado en medicina moderna.

- 21 -


Antonio Cantó

Un átomo de hidrógeno (isótopo: protio) y otro de antihidrógeno (isótopo: antiprotio). Esta es la antimateria que se logró contener esta semana en el CERN durante más de un sexto de segundo.

El Big Bang produjo, sobre todo, grandes cantidades de hidrógeno: la mayor parte protio y alguna pequeña cantidad de deuterio y tritio. También pudo formar algo de helio, litio y berilio. Todos los demás elementos que componen el cosmos –eso nos incluye a nosotros– surgieron en las estrellas; como decía Sagan, somos esencialmente polvo de estrellas. Y el Big Bang produjo sobre todo hidrógeno precisamente porque es el elemento más sencillo. Digamos que fue un suceso demasiado primitivo para formar cosas mucho más sofisticadas; éstas necesitaron procesos mucho más largos y complejos, en el corazón de los soles. Cuando las personas intentamos crear antimateria, también empezamos por el elemento más básico. Como ya hemos dicho, este es elantihidrógeno: un antiprotón en el núcleo y un positrón (antielectrón) orbitando alrededor. La institución líder en el mundo para estas cuestiones de física súperavanzada es la Organización Europea de Investigaciones Nucleares (también llamada Laboratorio Europeo para la Física de Partículas), más conocido por sus siglas originales CERN. Hay otras instituciones de gran prestigio, pero algunas cosas que se hacen en el CERN no se hacen ni se pueden hacer en ningún otro lugar. Como resulta bien sabido, el CERN dispone del LHC, el acelerador de partículas más grande y potente del mundo por casi un orden de magnitud. Pero no solamente eso: también cuenta con algunos otros medios únicos. Entre ellos se encuentra el Decelerador de Antiprotones (AD). ¿Qué es esto de undecelerador? La fábrica de antimateria. El Decelerador de Antiprotones sucede a tres máquinas de antimateria anteriores desarrolladas en el CERN: AA, AC yLEAR. Aunque en 1995 LEAR creó al menos 9 átomos de antihidrógeno (la primera producción de antimateria atómica de la historia), en 1996 estas tres máquinas se cerraron porque era preciso liberar recursos económicos para la construcción del LHC. Cosas de las reducciones de costes y tal. Sin embargo, un grupo de científicos no estuvo de acuerdo con esta cancelación y presionaron para que se instalara al menos una nueva máquina de bajo coste. Esta nueva máquina fue el Decelerador de Antiprotones (AD). Un decelerador es un tipo particular de acelerador; en esencia, un anillo de almacenamiento que hace cosas. Cuando una partícula choca con un blanco a velocidades próximas a las de la luz –de esto se encarga el acelerador–, se producen temperaturas locales enormes, en el rango de diez billones de grados. Sí, millones de

- 22 -


La Pizarra de Yuri 2

millones. A estos niveles, una parte de la energía generada se transforma en materia: con estas máquinas somos capaces de crear materia nueva a partir de la energía. Y siempre, siempre surge como un par partícula-antipartícula. Esto es, materia y antimateria. Tal como predijo Paul Dirac a principios del siglo XX, nunca se ha observado que surja un número desigual de partículas materiales y antimateriales. Esta materia-antimateria sigue las mismas leyes que toda la demás del cosmos, con lo que forma cosas conocidas: protones, neutrones, electrones, antiprotones, antineutrones, positrones y demás fauna habitual.

El profesor Jeffrey Hangst, astrofísico de la Universidad de Aarhus (Dinamarca), a los mandos del experimento ALPHA. (Foto: CERN)

Cuando se lanzan protones (casi siempre producidos por el Sincrotrón de Protones) contra un blanco, aproximadamente en un impacto de cada millón se forma un par protón-antiprotón. Parece una cifra muy baja, pero como el Sincrotrón de Protones produce muchos, pueden generarse más o menos diez millones de antiprotones por minuto. Estas partículas siguen avanzando con elevada energía, pero no todos con la misma (“esparcimiento de energía”, energy spread), ni tampoco en la misma dirección (“oscilación transversa”). Parecen un montón de críos traviesos saliendo de clase a la carrera, cada uno a una velocidad y con una dirección. Cada vez que una de estas antipartículas entra en contacto con una partícula (por ejemplo, en las paredes del acelerador) ambas se aniquilan instantáneamente, generando energía. Sin embargo, son tan minúsculas y su número es tan bajo que no causa ningún efecto visible a los ojos. Pero, en todo caso, esto no nos conviene: queremos esos antiprotones para hacerles cositas. Así pues, utilizamos magnetos para obligarles a continuar por un camino determinado (que está, por supuesto, al vacío). De este modo

- 23 -


Antonio Cantó

llegan al decelerador, un anillo de doscientos metros de diámetro, donde continúan dando vueltas sin tocar las paredes por acción de estos magnetos. A cada vuelta que dan por dentro del anillo, los intensos campos magnéticos van frenándolos. Cuando su velocidad desciende a una décima parte de la de la luz, se consideran decelerados y un cambio súbito en el campo magnético los saca hacia la línea de eyección, donde ya los tenemos disponibles para hacer cosas con ellos de maneramanejable. Por su parte, los positrones (antielectrones) suelen proceder del isótopo radioactivo sodio-22. Elexperimento ATRAP se encargó de decelerar y acumular estas antipartículas frías para dar el siguiente paso: la creación artificial de antiátomos a escala significativa. En agosto de 2002, el experimento ATHENA logró combinar estos antiprotones y positrones para formar muchos átomos de antihidrógeno de baja energía, muchos más que aquellos nueve originales de 1995: produjo cincuenta milde ellos en un momentín. Esto se pudo confirmar con bastante facilidad, por el sencillo método de observar y contar las aniquilaciones subsiguientes con la materia del entorno.

La "celda de antiátomos" del experimento ALPHA del CERN.

Domando antiátomos. - 24 -


La Pizarra de Yuri 2

Este fue un éxito enorme de esos que cabe celebrar con pompa y fanfarria. Por primera vez habíamos obtenido antimateria atómica manejable en cantidad suficiente para haceralgo con ella; y lo primero, por supuesto, estudiarla. Así se empezó a resolver una de las grandes preguntas de la física: la antimateria, ¿es de veras totalmente simétrica con respecto a la materia o presenta alguna anomalía oculta? Según el teorema CPT, sus espectros debían ser idénticos, con completa precisión. En estos momentos, sabemos ya que sus propiedades son especulares por completo hasta una precisión de una parte en cien billones. ATHENA y ATRAP produjeron antihidrógeno combinando antiprotones y positrones en unas botellas electromagnéticas que se llaman trampas de Penning. Las trampas de Penning tienen fuertes campos magnéticos solenoidales y pozos electrostáticos longitudinales que son capaces de confinar las partículas cargadas. Como el antiprotón presenta carga negativa y el positrón la tiene positiva, ambas resultan contenidas en estas trampas de Penning. Sin embargo, cuando ambas partículas se combinan en un átomo, la carga negativa del antiprotón y la positiva del positrón se anulan mutuamente. Entonces, el átomo de antihidrógeno resultante es electromagnéticamente neutro. Las trampas de Penning no pueden contener cosas neutras y nuestro precioso átomo antimaterial entra rápidamente en contacto con la pared material de la botella, aniquilándose pocos microsegundos después de su formación. Para estudiar el antihidrógeno con técnicas más detalladas (como la espectroscopia láser) hay que contenerlos durante más tiempo. Como mínimo, durante un séptimo de segundo en esa mezcla de anti-átomos neutros y partículas constituyentes cargadas. Para resolver este problema se creó el experimento ALPHA. Se pueden atrapar átomos o antiátomos neutros porque tienen momento magnético y éste puede interactuar con un campo magnético exterior. Si creamos una configuración de campo con una fuerza magnética mínima, desde donde el campo se desarrolle en todas direcciones, algunos estados cuánticos del átomo se verán atraidos hacia esta región de potencia mínima. Esto suele adquirir la forma de una trampa de Ioffe-Pritchard. La idea es que cuando el antiátomo se forme, lo haga ya “prisionero” en esta trampa, disponible para su estudio al mentos durante unas fracciones perceptibles de segundo. Y eso es exactamente lo que se supo logrado el pasado miércoles: ALPHA fue capaz de capturar 38 antihidrógenos neutros durante 170 milisegundos, más de un sexto de segundo y por tanto más de lo necesario para poder estudiar la antimateria con espectroscopia láser como si se tratara de materia vulgar. Se abre así la puerta para

- 25 -


Antonio Cantó

comprender uno de los misterios más sobrecogedores de este universo: su asimetría bariónica y por tanto la violación de la simetría CP.

Explicación del funcionamiento de la “trampa de antiátomos” del experimento ALPHA (CERN). (En inglés)

La aniquilación de antimateria tal como es detectada en el Decelerador de Antiprotones del CERN. El antiprotón produce cuatro piones cargados (amarillo), cuyas posiciones quedan determinadas mediante microcintas de silicio (rosa) antes de depositar su energía en los cristales de yoduro de cesio (cubos amarillos). El positrón también se aniquila, produciendo rayos gamma transversales (rojo).

Entonces, ¿esto para qué sirve? En nuestro universo hay algunas cosas notables que todavía no nos cuadran. Una de ellas es este hecho sencillo: si la materia se forma siempre en pares partículaantipartícula, si a cada partícula de este universo le corresponde una antipartícula… entonces, ¿dónde está toda la antimateria? Si durante el Big Bang se hubiera formado tanta materia como antimateria, ambas se habrían aniquilado entre sí y el cosmos no existiría ahora mismo. Para empezar, ¿cómo sabemos que el universo es esencialmente material y no antimaterial? Bueno, pues porque todas las interacciones que conocemos hasta el momento sugieren un predominio radical de la materia. Cuando mandamos naves a otros planetas, no se aniquilan. En los rayos cósmicos que llegan a la Tierra, procedentes del Sol y del resto de la galaxia, hay diez mil veces más protones que antiprotones. Tampoco estamos detectando la energía de aniquilación que debería producirse en las regiones de transición entre galaxias de materia y galaxias de - 26 -


La Pizarra de Yuri 2

antimateria, si estas últimas existieran. La cantidad de antimateria en el cosmos parece ser extraordinariamente baja, y existe sólo cuando se forma a partir de procesos de la materia. Aparentemente, la inmensa mayor parte del universo se aniquiló a sí misma durante el Big Bang. Edward W. Kolb yMichal S. Turner han estimado que durante el origen de todo se formaron treinta millones de antiquarks por cada treinta millones y un quarks. Tras la aniquilación, esa diferencia de un quark por cada treinta millones formó el cosmos presente. Dije más arriba que en el laboratorio siempre observamos cómo de la energía surgen pares partícula-antipartícula y nunca desigualdades entre partículas y antipartículas. Esto no es exacto. En realidad, puede surgir más materia que antimateria bajo las condiciones de Sakharov; se han registrado muchas violaciones de la simetría CP y recientemente se han encontrado indicios de formación asimétrica de muonesantimuones en el Tevatrón del Fermilabestadounidense. El logro del CERN, junto a los demás avances en el campo, no sólo apuntan ya a una comprensión más profunda de los primeros momentos del universo –la ruptura de la supersimetría y la bariogénesis primordial–, sino que sugieren posibilidades futuras relacionadas con la transformación de la materia en energía y de la energía en materia.

La tomografía por emisión de positrones (PET): una aplicación práctica de la antimateria en medicina.

- 27 -


Antonio Cantó

Hay personas que no entienden por qué todo esto es importante ni por qué algunos defendemos a capa y espada que se prioricen recursos para esta clase de investigaciones, cuando hacen falta tantas cosas en el mundo y encima ahora que estamos en crisis. Por lo general, estas personas ignoran un hecho sustancial del progreso humano: desde hace más de cien años, sin teoría no hay práctica, sin ciencia no hay tecnología. Hubo una época, siglos atrás, en que era posible avanzar la tecnología por la cuenta de la vieja: trasteando con cosas hasta que hallabas una solución a un problema. Sin embargo, nada de lo que hemos visto suceder en el último siglo habría sido posible sin el desarrollo teórico de la ciencia. En cuanto subes un poquito el nivel, sin teoría previa, no hay práctica que valga. Tienes que comprender cómo funcionan las cosas antes de hacer algo con ellas, y no digamos ya de crear cosas nuevas. Por ejemplo, toda la tecnología electrónica e informática moderna se derivan directamente de la Teoría Atómica, la Teoría de la Relatividad y la Teoría Cuántica, originadas a principios del siglo XX. No existe forma alguna de crear un transistor electrónico sin tener primero claros estos conceptos, y no digamos ya construir un microchip; lo mismo ocurre con la química moderna, los nuevos materiales y en general todo lo que constituye el mundo que conocemos. La medicina contemporánea sería imposible sin la Teoría Microbiana, la Teoría de la Evolución o los fundamentos teóricos de la farmacología química, entre otras muchas. Y así en todos los casos. Actualmente, además, la ciencia es multidisciplinar y no le queda otra que serlo cada vez más. Es una situación –vamos a llamarlo así– holística, donde se requiere al mismo tiempo un grado asombroso de hiperespecialización y un grado igualmente asombroso de visión de conjunto. Hoy por hoy, no resulta extraño que un avance teórico en un oscuro rincón del conocimiento tenga consecuencias prácticas en ciencias aplicadas y tecnologías aparentemente muy distintas. Una observación astrofísica del telescopio Spitzer hoy puede ser la clave de tu tratamiento médico dentro de veinte años. Por poner sólo un ejemplo, ¿alguien se imagina un hospital moderno sin máquinas de resonancia magnética?

- 28 -


La Pizarra de Yuri 2

Manifestación de científicos y otro personal del CERN contra los recortes presupuestarios frente a la sede de la institución en Meyrin (cerca de Ginebra). En la pancarta se lee: "Sin presupuesto para investigación: sin futuro para Europa". No puedo estar más de acuerdo.

La física, al estudiar las leyes básicas que rigen el universo, ocupa un lugar central en este proceso ciencia teórica -> ciencia aplicada -> tecnología. Todo avance en física, además de sus derivaciones tecnológicas directas, tiene un efecto inmediato en la química; también en la bioquímica, y por tanto en la medicina; y así en una especie de trama o red del conocimiento que se realimenta a sí misma una y otra vez. De este modo fue como se produjeron todos los grandes avances de la revolución científicotécnica y, sin ello, estamos condenados al estancamiento y la decadencia. Y la ruina. Las sociedades que no son capaces de continuar este proceso se quedan atrás y nadie va a esperarlas. Las contribuciones anuales de los estados miembros al CERN ascienden a 1.112 millones de francos suizos, unos 823 millones de euros. Esto viene a ser más o menos como el presupuesto de una ciudad del tamaño de Valencia. Sólo en mantener las televisones autonómicas españolas ya nos gastamos mucha más pasta. Los recientes planes de rescate bancario se han tragado el presupuesto entero del CERN durante milenios; aparentemente, es mucho más importante salvar a los causantes de la crisis que apostar por las cosas que pueden contribuir a sacarnos de ella mediante el desarrollo científico-tecnológico. Para una potencia global como Europa, ochocientos y pico millones de euros anuales es una cifra ridículamente baja hasta el extremo de la mezquindad. Tenemos la institución generadora de ciencia más avanzada del planeta Tierra y andamos haciendo el imbécil con su dinero; ahora, con la excusa de la crisis, los politicastros habituales andan

- 29 -


Antonio Cantó

recortándoselo aún más. Esto ya ha ocasionado consecuencias graves y algunas protestas. Avances como el de esta semana son de importancia extraordinaria y sientan las bases de lo que serán la ciencia y la técnica futuras, como los avances de los científicos anteriores –que también tuvieron que luchar contra la ceguera absurda de los prácticos– constituyeron las bases de la ciencia y la técnica presente. Conforman, así, el antídoto más poderoso contra las eras de oscuridad. Sin ellos, no vamos a ninguna parte y estamos condenados al estancamiento y la recesión; la misma clase de estancamiento y recesión que sufrieron las culturas clásicas e islámicas y ahora empieza a manifestarse de nuevo en otras que no lo son.

Explicación del experimento ALPHA por el Dr. Hangst (en inglés).

- 30 -


La Pizarra de Yuri 2

La red de transporte interplanetario Yuri, el 23 de diciembre de 2010 @ 13:42 · Categoría: Ciencia popular

Desarrollada teóricamente a finales del siglo XIX y resuelta en los últimos años del XX, la Red de Transporte Interplanetario resuelve el problema de viajar entre mundos con un coste energético ridículamente bajo. Sólo es un poco más lenta.

Lanzamiento de la nave espacial interplanetaria New Horizons con destino a Plutón-Caronte y el cinturón de Kuiper, a bordo de un cohete Atlas V-Star 48B, el 19 de enero de 2006. Llegará en junio de 2015, tras un viaje de cinco mil millones de kilómetros. Los cohetes sólo actúan durante los primeros minutos; el resto del viaje carece de propulsión autónoma. (NASA)

La nave New Horizons durante su ensamblaje final. Cuenta con dieciséis motores de 4,4 newtons para correcciones de trayectoria y doce de 0,9 newtons para el control de actitud, pero ningún impulsor principal, al igual que el resto de naves espaciales humanas del presente y del futuro próximo. Foto: NASA. (Nueva ventana o pestaña para ampliar)

A pesar de lo que se pudiera concluir tras ver muchas pelis de ciencia-ficción, las naves espaciales carecen generalmente de propulsión propia. Sólo llevan una pequeña cantidad de combustible y unos motorcitos minúsculos para realizar ocasionalmente maniobras de corrección de trayectoria, casi siempre con el propósito de mantener la posición. Así es tanto en los satélites como en las sondas de espacio profundo, así ha sido durante toda la Era Espacial, sigue siéndolo en la actualidad y seguirá siéndolo durante una buena temporada. No hacemos vuelo libre por el espacio, sino que

- 31 -


Antonio Cantó

describimos órbitas y realizamos triquiñuelasaprovechando los efectos de la gravedad y la velocidad, en una especie de billar cósmico. En cierto sentido, una nave espacial se parece mucho más a un velero gravitacional que a un navío a motor. Esos enormes cohetes que vemos encenderse con poderosos rugidos y llamaradas sólo están para sacar la nave del pozo gravitatorio terrestre. Tragan combustible a mares y se agotan enseguida. Al poco del lanzamiento se van apagando y desprendiendo, normalmente por fases, y unos pocos minutos después se acaban todas y liberan la nave. En un lanzamiento sencillo a la órbita baja terrestre, esto está visto para sentencia en menos de diez minutos. Por ejemplo, la impulsión para una Soyuz con destino a laEstación Espacial Internacional termina a los nueve minutos; el resto del viaje se completa por la órbita, conservando la velocidad adquirida durante el lanzamiento sin propulsión significativa adicional. Para ir más lejos, lo que requiere ir algo más rápido, se suele utilizar una última fase que se enciende de nuevo al llegar a un cierto punto de la órbita para darle un último empujón. Esto es lo que hace, por ejemplo, la etapa Fregat de las Soyuz o la S-IVB de los Saturno V que los estadounidenses usaron para llevar a la humanidad a la Luna. Pero incluso estas últimas aportaban una impulsión adicional de apenas seis minutos. Quien desea ir a Venus o Marte, pongamos por caso, lo hace de manera muy parecida; en este último enlace puede verse cómo un viaje a Marte sólo está propulsado seriamente al principio, durante unos catorce minutos y pico en total, de los siete meses que dura. A partir de ahí sólo actuarán los motores de maniobra, muy de tarde en tarde, para realizar pequeñas correcciones o forzar la inyección final en la órbita marciana. Esto es posible porque en el espacio no se produce arrastre aerodinámico, dado que no hay aire. Una nave colocada en una órbita estable a una velocidad determinada tiende a mantener esta velocidad en virtud de la primera ley de Newton. Como decía al principio, después se pueden utilizar trucos para aumentar (o reducir) esta velocidad, del tipo de la asistencia gravitatoria. El vuelo espacial es un juego de trayectorias y velocidades. Sí, como en el billar.

- 32 -


La Pizarra de Yuri 2

Venera-7, la primera nave espacial humana que aterrizó con bien en otro mundo. Se posó cerca de Safo de Venus, al sur de la Planicie de Ginebra, siendo las 05:34:10 GMT del 15 de diciembre de 1970; acaba de hacer cuarenta años. (Clic para ampliar)

Vuelo interplanetario. Para viajar entre astros hay que tener claros dos conceptos fundamentales: la velocidad de escape y la órbita de transferencia de Hohmann. Dicho en plan sencillo, la velocidad de escape es lo rápido que hay que ir para escapar de la atracción gravitatoria de la Tierra o cualquier otro astro. Más técnicamente, se define como la velocidad a la que laenergía cinética de la nave contrarresta a la energía potencial gravitatoria resultante de la interacción entre la nave y el astro. La velocidad de escape es independiente de la masa del objeto que escapa: da igual si tu nave pesa un kilo o un millón de toneladas (en este último caso necesitarás más energía para acelerarla hasta ese punto, pero la velocidad de escape no varía). Por el contrario, es dependiente de la distancia entre la nave y el astro. Por ejemplo, si la nave estuviera situada sobre la superficie terrestre, la velocidad de escape sería de 11,2 km/s (40.320 km/h); sin embargo, en la órbita baja desciende a 10,9 km/s (39.240 km/h) y a nueve mil kilómetros de distancia, cae a algo menos de 7,1 km/s (25.560 km/h). De hecho la velocidad de escape depende sólo de la distancia entre ambos objetos y la intensidad del campo gravitatorio en ese punto, y se describe con la ecuación v e = (2gr)½, donde ges el campo gravitatorio y r la distancia que separa sus centros de masas. La velocidad de escape es un fenómeno que se deriva del principio de la conservación de la energía.

- 33 -


Antonio Cantó

Hablar de velocidad de escape a pelo no tiene demasiado sentido. Hablamos siempre de velocidad de escape desdealgún sitio con respecto a algo: la Tierra, el Sol, la Luna, Saturno, el centro de la galaxia, lo que sea. Por ejemplo: ya hemos dicho que la velocidad de escape desde la órbita baja terrestre con respecto a la Tierra son 10,9 km/s. Pero la velocidad de escape desde este mismo lugar con respecto al Sol asciende a 42,1 km/s (151.560 km/h). Esto quiere decir que una nave situada más o menos por donde la Estación Espacial Internacional necesita ir a algo menos de cuarenta mil kilómetros por hora para escapar de la gravedad terrestre, pero tendría que viajar a más de ciento cincuenta mil para zafarse de la del Sol desde el mismo punto, por ejemplo con el propósito de efectuar un viaje interestelar. Evidentemente, los científicos e ingenieros espaciales tratan de jugar con las distancias y velocidades para conseguir el máximo ahorro de energía, de tal modo que estos viajes sean posibles con los motores y las cantidades de combustible que somos capaces de manejar. Cuando una nave espacial alcanza la velocidad de escape entra en órbita de escape, que es una trayectoria parabólicade mínima energía (o sea, una órbita de Kepler con excentricidad 1) que la lleva hacia el infinito mientras la velocidad con respecto al objeto del que ha escapado tiende a cero. Y yendo un poco más deprisa, se puede pasar también a una trayectoria hiperbólica (es decir, una órbita de Kepler con excentricidad mayor que 1). Así se puede viajar hacia cualquier lugar del cosmos sin necesidad de llevar propulsión todo el tiempo. Sin embargo, se intuye fácilmente que hace falta mucha energía para alcanzar estas velocidades. En torno a 1925 un ingeniero alemán llamado Walter Hohmann, inspirado por la lectura de obras de ciencia ficción, intentó encontrar una manera de reducirlas. También por las mismas fechas, un matemático soviético de nombre Vladimir P. Vetchinkinestuvo estudiando la cuestión. Resulta difícil determinar cuál dio con la solución primero, pero ambos alcanzaron las mismas conclusiones, que en Occidente se denominan las órbitas de Hohmann y en el espacio ex-soviético, de HohmannVetchinkin. Una órbita de Hohmann (o Hohmann-Vetchinkin) no es una órbita típica de escape, parabólica o hiperbólica, sino un tipo particular de órbita elíptica. Una órbita elíptica es una órbita de Kepler con excentricidad menor que 1, hasta la órbita circular, con excentricidad cero (aunque normalmente esta última se denomina órbita circular a secas). Simplificando, es cualquier órbita que no escapa de un astro determinado (aunque puede alejarse bastante de él). En consecuencia, la velocidad (y por tanto la energía) necesaria para establecerse en ella resulta significativamente menor. Hay varios

- 34 -


La Pizarra de Yuri 2

tipos posibles de órbitas elípticas, algunos de ellos muy prácticos, desde la conocida Molniya hasta la más rara órbita tundra.

Órbita de transferencia Hohmann-Vetchinkin (2) entre una órbita baja (1) y otra geoestacionaria (3).

Una órbita de transferencia Hohmann (o Hohmann-Vetchinkin :-D ) es una órbita elíptica parcial que sirve para saltar entre dos órbitas circulares situadas a distinta distancia. Por ejemplo, en la imagen de la izquierda la vemos utilizada para conmutar entre una órbita baja (1) y una órbita geoestacionaria(3) en ambos casos con la Tierra en el centro; es el tramo amarillo (2). Para realizar esta maniobra, sólo necesitamos dos impulsos, uno a la entrada y otro a la salida. La gracia radica en que estos dos impulsos consumen bastante menos energía que la necesaria para alcanzar la velocidad de escape (y no digamos si encima hay que abandonarla en destino). La desgracia, que resulta en un recorrido más largo que la trayectoria parabólica y mucho más largo que la hiperbólica. Pero en la mayoría de casos, resulta la manera energéticamente más económica de viajar entre dos órbitas circulares que no tienen por qué pertenecer al mismo astro (si bien la mecánica específica se complica un poco más en este último caso). Es decir: podemos salir de una órbita circular alrededor de la Tierra y acabar en una órbita circular alrededor de Venus o Marte o el Sol o cualquier otro lugar con menos coste energético que tratando de alcanzar la velocidad de escape. Dicho de otra manera, es la forma más eficiente de trasladar una nave espacial entre dos órbitas distintas. Bajo determinadas circunstancias, la transferencia bi-elíptica puede optimizar aún más el coste energético. Y es que en las naves espaciales del presente (y del futuro próximo) el problema fundamental es el coste energético. Cuanta más energía necesite una nave espacial para

- 35 -


Antonio Cantó

completar su viaje, requerirá más combustible y más motores, es decir más masa y volumen. O sea que tendrá que ser una nave más grande, más difícil de construir y con un coste económico mucho mayor. A partir de cierto punto, el proyecto se tornará irrealizable. Por eso el balance energético de una misión espacial es tan importante. Cualquier cosa que lo mejore no sólo reduce el dinero a gastar, sino que abre puertas al futuro que de otra manera no serían posibles en la práctica.

Plan de vuelo Tierra-Venus para la nave interplanetaria soviética Venera-5, utilizando una órbita de transferencia Hohmann-Vetchinkin de tipo I durante la ventana de enero de 1969.

Los puntos de Lagrange.

- 36 -


La Pizarra de Yuri 2

Estatua a Joseph-Louis de Lagrange (Giuseppe Luigi Lagrangia) en Turín.

Y ahora vamos a hacer un inciso, que resulta imprescindible para poder continuar. Érase una vez que se era un matemático ítalofrancés llamado Joseph-Louis de Lagrange, que trabajaba en el problema newtoniano de los tres cuerpos; como puede suponerse fácilmente, una extensión del problema de los dos cuerpos. :-D Dicho a lo fácil, esto del problema de los tres (o más) cuerpos estudia cómo se influyen mutuamente tres (o más) cuerpos que interaccionan gravitacionalmente entre sí. Por ejemplo, el sistema SolTierra-Luna. O el Tierra-Venus-nave espacial, por decir otro. Ciento ochenta y siete años antes del primer viaje a la Luna, este señor Lagrange dedujo matemáticamente una cosita interesante. Como la Wikipedia lo explica bastante bien, vamos a citarla: En 1772, el matemático ítalo-francés Joseph-Louis Lagrange estaba trabajando en el célebre Problema de los tres cuerpos cuando descubrió una interesante peculiaridad. Originalmente, trataba de descubrir una manera de calcular fácilmente la interacción gravitatoria de un número arbitrario de cuerpos en un sistema. La mecánica newtoniana determina que un sistema así gira caóticamente hasta que; o bien se produce una colisión, o alguno de los cuerpos es expulsado del sistema y se logra el equilibrio mecánico. Es muy fácil de resolver el caso de dos cuerpos que orbitan

- 37 -


Antonio Cantó

alrededor del centro común de gravedad. Sin embargo, si se introduce un tercer cuerpo, o más, los cálculos matemáticos son muy complicados. Una situación en la que se tendría que calcular la suma de todas las interacciones gravitatorias sobre cada objeto en cada punto a lo largo de su trayectoria. Sin embargo, Lagrange quería hacer esto más sencillo, y lo logró mediante una simple hipótesis: La trayectoria de un objeto se determina encontrando un camino que minimice la acción con el tiempo. Esto se calcula substrayendo la energía potencial de la energía cinética. Siguiendo esta manera de pensar, Lagrange reformuló la mecánica clásica de Newton para dar lugar a la mecánica lagrangiana. Con su nueva forma de calcular, el trabajo de Lagrange le llevó a plantear la hipótesis de un tercer cuerpo de masa despreciable en órbita alrededor de dos cuerpos más grandes que ya estuvieran girando a su vez en órbita cuasi circular. En un sistema de referencia que gira con los cuerpos mayores, encontró cinco puntos fijos específicos en los que el tercer cuerpo, al seguir la órbita de los de mayor masa, se halla sometido a fuerza cero. Estos puntos fueron llamados puntos de Lagrange en su honor. –es.wikipedia, “Puntos de Lagrange“, redacción del 22/12/2010.

Dos cuerpos orbitando alrededor de su centro de masas común. El "problema de los dos cuerpos" que se pregunta por su comportamiento tiene solución relativamente sencilla mediante las integrales de movimiento; pero el "problema de los tres (o más) cuerpos", que surge al añadir otros, carece de una solución general y sólo se puede resolver para casos particulares. Estudiando esta cuestión, Lagrange dedujo sus puntos de Lagrange.

- 38 -


La Pizarra de Yuri 2

Los puntos de Lagrange para el sistema Sol-Tierra. Una nave espacial establecida en esas posiciones puede mantenerse en las mismas únicamente con energía de maniobra.

El primer punto de Lagrange, L1, es intuitivo y se da incluso aunque todos los cuerpos estén estáticos: en la línea imaginaria entre dos objetos con masa y por tanto gravedad, existe un lugar donde la atracción gravitatoria de uno cancela a la del otro. Un objeto de masa comparativamente despreciable situado justo en esa posición flotará entre ambos de forma indeterminada sin necesidad de ningún aporte de energía. En un sistema rotativo real como el Tierra-Luna, L1 está un poco desplazado y es levemente inestable, lo que se puede compensar con pequeñas maniobras. L2 se encuentra en la misma línea que une a los dos objetos mayores, pero más allá de la menor. En este punto, la atracción gravitatoria de las dos masas principales entra en equilibrio con el efecto centrífugo de la masa menor que gira alrededor. L 3 hace lo propio “al otro lado”, más allá de la masa mayor. Por su parte, L 4 y L5 se encuentran en los vértices de los triángulos equiláteros con base común en la línea que une ambas masas mayores; es decir, que giran 60º delante y detrás del cuerpo con masa menor, según se ve desde la masa mayor. Podemos verlos en la imagen de la izquierda. La gracia de los puntos de Lagrange es que una nave espacial establecida en los mismos puede mantenerse ahí indefinidamente con energía teórica cero, y en la práctica tan solo con un poco de energía de maniobra para L 1, L2 y L3 y ninguna para L4 y L5. Estos puntos de estacionamiento, excelentes candidatos a convertirse en terreno para construir las casas de postas cósmicas, constituyen una especie de órbitas Lagrangeestacionarias –por analogía a lasgeoestacionarias– que están disponibles entre dos pares de astros cualesquiera.

- 39 -


Antonio Cantó

Mapa de potencial en los puntos de Lagrange y órbitas posibles en torno a L1 y L2. Imagen: R. A. Tacchi en Interplanetary Transport Network, Universidad de California en Davis. (Clic para ampliar)

De hecho, por su estabilidad gravitacional, en los puntos de Lagrange cuarto y quinto tienden a acumularse ciertas cantidades de materia. Los asteroides troyanos se concentran alrededor de los puntos L 4 y L5, y muy notablemente en los del sistema SolJúpiter (¿alguien ha dicho “estación minera”?). El sistema Tetis –Saturno presenta a su vez dos pequeñas lunas, Telesto y Calipso, en L4 y L5.; lo mismo ocurre con Helena y Pollux en los de Dione – Saturno. Marte presenta cuatro asteroides en L 4 y L5 de Sol – Marte. En torno a los de Sol – Tierra podrían encontrarse lasnubes de polvo de Kordylewsky. El planetoide compañero de la Tierra, 3753 Cruithne, intercambia energía con la misma a través de los lagrangianos Sol – Tierra; lo mismo sucede entre Epimeteoy Jano (Saturno), de manera mucho más notable. Se sugiere que los puntos L1 y L2 de cualquier astro serían el lugar idóneo para instalar un ascensor espacial (específicamente los llamados ascensores espaciales lunares). La Sociedad L5, ahora parte de la National Space Society, viene proponiendo directamente la colonización de los puntos de Lagrange desde 1975. La Administración Obama acaricia la idea para el proyecto de enviar una misión tripulada a Marte.

- 40 -


La Pizarra de Yuri 2

Tímidamente, la especie humana ya ha empezado a ocupar los lagrangianos L 1 y L2 de Sol-Tierra con algunas naves científicas. Una característica peculiar de los puntos de Lagrange es que un objeto (incluída una nave espacial) puede orbitar a su alrededor exactamente igual que en torno a un astro, a pesar de que en ellos no haya ningún cuerpo con masa. ¿Y todo esto a qué viene? Pues viene a que aprovechando la interacción gravitatoria entre los distintos astros, y circulando a través de los puntos de Lagrange, se configura una especie de red de metro interplanetaria de mínima energía que nos permite viajar entre los distintos planetas y lunas con un coste energético mucho menor que en las órbitas de transferencia de Hohmann-Vetchinkin. De hecho, con un coste energético próximo a cero. Este metro, con sus estaciones en los puntos de Lagrange de los diversos pares de astros, se conoce como la red de transporte interplanetario. El metro interplanetario. La red de transporte interplanetario (ITN, por sus siglas en inglés) es un conjunto de rutas cósmicas que requieren muy poca y a menudo ninguna propulsión para que una nave espacial las recorra. Teóricamente, la energía de impulsión necesaria una vez iniciado el viaje podría ser cero; en la práctica, estaría muy próxima a cero. Esto fue demostrado por el ICE internacional en 1978 y la sonda lunar japonesa Hiten en 1991; después, ha sido utilizado por otras naves espaciales como la Génesis norteamericana (2001) o la SMART-1 de la Agencia Espacial Europea (2003).

Trayectoria descrita en la realidad por la nave espacial Génesis, utilizando el concepto de red de transporte interplanetario (2001-2004). Imagen: NASA.

- 41 -


Antonio Cantó

Una trayectoria ITN de entrada al sistema solar interior con coste energético mínimo, vía los lagrangianos L1 y L2 del sistema Sol-Júpiter. Imagen: R. A. Tacchi en Interplanetary Transport Network, Universidad de California en Davis. (Clic para ampliar)

Toda la propulsión necesaria para la realización de un viaje así se aplica durante el lanzamiento, con el propósito de alejar la nave del planeta Tierra y colocarla en un rumbo determinado a una velocidad precisa. A partir de ese punto, todo sucede solo, sin necesidad de aportar ninguna otra energía de impulsión más que para las posibles correcciones. Eso sí, el rumbo y la velocidad han de ser exactas de narices, pero esto es algo que ya cae actualmente dentro de las posibilidades tecnológicas humanas. De esta manera, toda la energía necesaria para el viaje se obtiene mediante la interacción gravitatoria con los distintos astros a través de sus puntos de Lagrange. Aplicando esta técnica no se requieren grandes motores ni grandes cargas de combustible (una vez ya estás en el espacio), sino sólo lo imprescindible para maniobrar en caso necesario. La posibilidad de este metro interplanetario de consumo casi-cero ya fue teorizada por el matemático Henri Poincaré a finales del siglo XIX, pero no se pudo demostrar en la práctica hasta los vuelos de la ICE en 1978 y la Hiten en 1991. A partir de ahí se realizó un importantísimo trabajo de matemática aplicada, conocido en todo el mundo menos aquí (como siempre), por Gerard Gómez de la Universitat de Barcelona y Josep Masdemont de la Universitat Politècnica de Catalunya; sobre esta base, Martin Lo de la Universidad Purdue desarrolló una herramienta computacional llamada LTool, que permite calcular estas trayectorias y viene siendo utilizada desde entonces por el Jet Propulsion Laboratory y otras instituciones astronáuticas para crear el trazado de la red. El principal problema con estas trayectorias es que son típicamente más largas que las órbitas de escape y las órbitas de transferencia de Hohmann-Vetchinkin, y además el paso por los puntos de Lagrange puede llegar a ser exasperantemente lento si queremos mantenernos en el coste energético mínimo. Por otra parte, las ventanas de lanzamiento óptimas pueden llegar a hallarse muy separadas entre sí. Esto tiene soluciones mixtas posibles, que con poco aporte de energía adicional pueden mejorar bastante algunos de los peores cuellos de botella, pero aún así la red de transporte

- 42 -


La Pizarra de Yuri 2

interplanetario sólo resulta verdaderamente interesante cuando el tiempo de viaje es secundario. Por ello, en la actualidad sólo se plantea para sondas automáticas, no para vuelos tripulados. Pero esto podría cambiar en cualquier momento, y de hecho ya hay varias propuestas que utilizarían la ITN para misiones tripuladas.

La "cola" de la galaxia Renacuajo son los restos de uno de estos túneles de baja energía que quedó establecido en el pasado, cuando otra galaxia pasó cerca, por donde se deslizaron las estrellas de una a otra.

La comprensión cada vez mejor del problema de los tres cuerpos y de las dinámicas asociadas a los puntos de Lagrange no sólo son de interés en la exploración espacial. Esta idea de los pasadizos de baja energía tiene otras aplicaciones. Por ejemplo: en el año 2000 Charles Jaffé, un químico de la Universidad de Virginia Occidental, observó que bajo determinadas condiciones experimentales las rutas que toman los electrones de valencia en átomos de Rydberg son muy parecidas a la trayectoria de la sonda Génesis. Y cuando estos átomos se someten a campos eléctricos y magnéticos perpendiculares, también realizan estos recorridos tubulares. Esto ha sentado las bases para el desarrollo futuro de nuevas teorías y aplicaciones en química y tecnologías de materiales, pues las matemáticas subyacentes son válidas a todas las escalas, desde los átomos a las distancias intergalácticas. Hablando de galaxias, científicos de las universidades de Tokio y Edimburgo han mostrado que unos tubos relacionados con los puntos de Lagrange conducen a la “evaporación” de pequeños cúmulos estelares en órbita alrededor de algunas galaxias.

- 43 -


Antonio Cantó

Este efecto es mucho más notable cuando interaccionan dos de ellas: la galaxia Renacuajo manifiesta evidencias de un episodio muy violento en su pasado, un raspón como si dijéramos. La enormecola que se extiende tras el renacuajo señala el lugar donde miles de estrellas entraron en tubos conectados con otra galaxia que pasó cerca. La cola del renacuajo es, pues, un puente hacia la nada de 280.000 años-luz. Otras galaxias presentan túneles de interconexión similares. Aúnque aún no se han elaborado los mapas, cabe esperar que existan trayectorias parecidas conectando las estrellas entre sí; por ejemplo, al Sol con las estrellas cercanas. Esto constituiría una red de transporte interestelar donde una nave del tipo de las Voyager podría viajar directamente a Alfa Centauri, por decir algo, sin coste de propulsión adicional alguno. Le costaría miles de años hacerlo, pero aquí asoma un asunto interesante: en el pasado, hubo estrellas que estaban mucho más cerca del Sol (y en el futuro volverá a haberlas). Es posible que nos intercambiáramos material con ellas a través de estos canales. Qué material exactamente queda por el momento a la imaginación de cada cual. Hace apenas cuarenta años y una semana, Venera 7 se posaba con bien en Venus tras utilizar una primitiva órbita de transferencia Hohmann-Vetchinkin con un coste energético de 3,8 megajulios por kilo. Fue una hazaña extraordinaria, ejecutada con tecnologías primitivas y a lo bruto porque en ese momento no se podía hacer de ninguna otra manera. Ahora sabemos que es posible llegar a la mayor parte de sitios interesantes en el sistema solar, y quizás en torno a otras estrellas y galaxias, con una milésima parte de esa energía. Si no lo estamos haciendo ya más y mejor, no es porque no sepamos, sino por simple ceguera y mezquindad. Ah, sí, por cierto. En salvar a los bancos, europeos y norteamericanos hemos comprometido dinero suficiente (unos trece billones de dólares sólo en los EEUU) para hacer unas mil misiones tripuladas a Marte y mantener el CERN durante más de diez mil años: las dos cosas a la vez y pagadas a tocateja con un solo cheque. Menos mal que no había pasta, ¿eh? Para más información: •

Ross, Shane D (2006), The interplanetary transport network, en American Scientist, vol. 94, págs. 230-237.

Conley, C. C. (1968), Low energy transit orbits in the restricted three-body problem . En SIAM Journal on Applied Mathematics 16:732–746.

Fukushige, T., y D. C. Heggie (2000), The time-scale of escape from star clusters. En Monthly Notices of the Royal Astronomical Society 318:753–761.

- 44 -


La Pizarra de Yuri 2

Jaffé, C., S. Ross, M. Lo, J. Marsden, D. Farrelly y T. Uzer (2002), Statistical theory of asteroid escape rates. En Physical Review Letters89:011101.

Marsden, J. E., y S. D. Ross. (2006), New methods in celestial mechanics and mission design, en Bulletin of the American Mathematical Society 43:43–73.

Smith, D. L. (2002), Next exit 0.5 million kilometers, en Engineering & Science LXV(4):6–15.

- 45 -


Antonio Cantó

Antibióticos para la vida Yuri, el 19 de diciembre de 2010 @ 10:30 · Categoría: Ciencia popular

En un mundo sin antibióticos, ¿seguirías con vida?

La peste negra, aquí representada en la Biblia de Toggenburg (1411), mató a entre el 30% y el 60% de la población europea entre 1348 y 1350 y no desapareció hasta el siglo XVIII, cuando se vio sustituida por el cólera (mi bisabuela aún recordaba la espantosa epidemia de cólera de Valencia de 1885). Ninguna de estas enfermedades habría representado un gran problema teniendo antibióticos. Pero no teníamos.

- 46 -


La Pizarra de Yuri 2

La amoxicilina, uno de los antibióticos más utilizados en la actualidad, sigue siendo una penicilina betalactámica semisintética.

Hace poco escribí un post sobre el abuso de los antibióticos y los problemas de salud pública que está ocasionando en todo el mundo por el surgimiento de cepas resistentes y demás. Sin embargo, no disponer de ellos sería… bueno, espantoso, otra de esas cosas que nos mantendrían atados a un pasado de mierda. Los antibióticos, además de imprescindibles para la medicina moderna, son fascinantes: sustancias asombrosas capaces de matar a los agentes causantes de las enfermedades… sin matarnos a nosotros, cosa más extraordinaria de lo que nos hemos ya acostumbrado a pensar. Hoy por hoy, en general, al menos los antibióticos sencillos se pueden encontrar hasta en los peores pudrideros del Tercer Mundo; y en los países desarrollados, los médicos disponen de un impresionante arsenal farmacológico para atacar a las enfermedades infecciosas ocasionadas por bacterias. Que son buena parte de las que nos liquidaban como a chinches hasta tiempos bien recientes, y cuando no, nos arruinaban la vida de mala manera. Entre ellas, bromitas como la peste bubónica, la difteria, el cólera, la lepra, la sífilis o la tuberculosis; por no mencionar todas esas infecciones que hoy en día consideramos leves pero que en el pasado tenían la costumbre de llevarse a la chiquillería y también a sus mamás al otro barrio por oleadas. Los antibióticos carecen de utilidad contra los virus, a pesar de la afición del personal a atizárselos para tratar elresfriado común, la gripe y cosas así. Y el tratamiento de las enfermedades ocasionadas por hongos es cosa de losantifúngicos. Los antibióticos sólo sirven para curarnos de los males que causan las bacterias patógenas, ¡pero de qué manera! A menos que nos enfrentemos a una de esas cepas multirresistentes que han evolucionado a consecuencia de su abuso y mal uso, suelen ser mano de santo, curando en pocos días enfermedades que a menudo nos enviaban a la tumba o a la invalidez por muchas manos de santo auténticas que nos impusieran.

- 47 -


Antonio Cantó

Los tres dominios de la vida: archaeas, bacterias y eucariontes. Nosotros pertenecemos a un tipo de eucariontes, los animales (arriba a la derecha).

Del casi infinito dominio de las bacterias. En este planeta, las bacterias contienen casi tanta biomasa como las plantas y las procariotas en general (el inmenso reino al que pertenecen) forman más de la mitad de la materia viva terrestre. De hecho, en la actualidad, esto de los reinos ya no se lleva mucho. Los biólogos se han hecho, digamos, pelín republicanos desde que descubrieron que la clara mayoría democrática de todas las cosas vivas que medramos sobre la faz de este mundo viejo son las bacterias y las archaeas; y también fueron las primeras en llegar, por algún millar de millones de años, con lo que el derecho de sangre les corresponde sin duda ninguna. Así pues, ahora dividimos a las cosas que viven en tres dominios: archaeas, bacterias y eucariontes; dentro de esos dominios, ya puede haber reinos y pequeñeces así. Los eucariontes somos el batiburrillo de lo que no son bacterias o archaeas, las cosas que poseen núcleo celular verdadero y que va desde los hongos hasta animales mamíferos como el homo sapiens. (Véase: Esta es tu herencia en este mismo blog) Las procariotas son absolutamente esenciales para la vida terrestre. Si mañana la humanidad se extinguiese, incluso si todos los primates nos extinguiéramos, nadie notaría gran cosa y sería un incidente absolutamente menor en la historia de la vida; algo surgió, luego desapareció, ninguna novedad. Pero si las procariotas se extinguiesen, toda la vida terrestre se pondría del revés y probablemente desaparecería. Eso sí, la clase de cosa necesaria para matarlaspertenece a la liga de los grandes impactos planetarios y las estrellas agónicas zampándose mundos entre fases de fusión; un súper-meteorito de tres al cuarto o una escalera siberiana del montón no les hacen ni reir. Se estima que hay aproximadamente 5 · 10 30 bacterias en la Tierra. O sea, un cinco seguido de treinta ceros, lo que vienen siendo cinco quintillones. Es decir, más de un trillón de bacterias por cada galaxia del universo observable. Quinientos mil millones por cada insecto, más de quinientos mil millones por cada puñetero grano de arena en las playas de este mundo. Es difícil encontrar cifras a escala humana tan inmensas como para comparar. Una jartá, oiga.

- 48 -


La Pizarra de Yuri 2

Tenemos más bacilos E. coli como los de la imagen en el colon intestinal que células en el conjunto del cuerpo. E. coli es un comensal generalmente inocuo, aunque algunas cepas son muy peligrosas.

A diferencia de lo que ocurre con las archaeas, que pasanseñorialmente del resto de las cosas vivas desde su enigmático dominio primordial (si bien llevamos algunas en el intestino, las metanógenas), una parte significativa de las bacterias interaccionan con animales como nosotros y hasta pueden ocasionarnos enfermedades: decimos entonces que son patógenas. Esto es un temita peliagudo, dado que en un cuerpo humano hay diez veces más bacterias que células nativas propias y necesitamos la mayor parte de ellas para seguir bien de salud. Con estas cifras en la mano, no sería totalmente abusivo afirmar que somos básicamente una colonia de bacterias fecales rodeadas por unas capas celulares para asegurar su alimentación. Desde el corazón de nuestro culo, cien billones de bacterias preguntan a diez billones de células eucariotas quién es aquí el simbionte de quién.;-) El Proyecto Microbioma Humano estudia esta materia con gran afán, entre otras cosas de peculiar interés. Bacterias enrolladas y bacterias chungas. Aunque llevamos bacterias por todas partes y especialmente en los ojos, la piel, la nariz, la boca, la vagina y el intestino delgado, la mayor parte se encuentran en el intestino grueso y sobre todo en el colon; donde reside, por ejemplo, la conocida vecina E. coli. Escherichia coli vive ahí de nuestro culo para arriba tranquilamente, respetuosa de la ley y sin dar pie a muchas habladurías, alimentándose de… pues de qué va a ser, de la mierda, facilitándonos la absorción de nutrientes en el proceso. Es una buena chica, muy trabajadora y fiel, que nos coloniza unas 48 horas después del nacimiento y ya no nos abandona hasta que nos hemos convertido en contaminación ambiental. Incluso sirve para elaborar medicamentos contra las enfermedades inflamatorias intestinales. - 49 -


Antonio Cantó

Pero no todas las E. coli son igual de dóciles y laboriosas. Algunas cepas resultan francamente peligrosas, entre ellasO157:H7, O121 u O104:H21, que producen potentes toxinas y son causa habitual de intoxicaciones alimentarias. Cuando nos pegamos un banquete de estas cepas, normalmente acompañado con algo de comer, nos ponemos muy malitos e incluso nos podemos morir –una parte de las toxinas que fabrican se parecen bastante a las del cólera–. Tampoco nos sienta bien que la E. coli buena se salga de su sitio y vaya a parar a otros lugares, como por ejemplo mediante una herida abdominal: provoca rápidamente peritonitis, que también nos puede enviar fácilmente al lugar silencioso. En la actualidad, hay verdadero miedo a que E. coli haya adquirido multirresistencia por el abuso de antibióticos y no se pueda controlar en estos casos. Otras bacterias son directamente unas hideputas que vienen a buscarnos las vueltas, diciendo que necesitan sobrevivir a nuestra costa y que más vale que llore tu madre que no la mía. Entre estas se encuentran algunas tipas tan chungas como Vibrio cholerae (cólera), Yersinia pestis (peste bubónica, que una vez se cargó a media Europa), Mycobacterium leprae (o bacilo de Hansen, encargado de llenar las leproserías), Mycobacterium tuberculosis (o bacilo de Koch, tisis) oTreponema pallidum, esa guarrindonga que acecha el día en que te dejaste los condones en casa y suele ingeniárselas para encontrar un camino de tu entrepierna a tu cerebro (cosa que probablemente no sea muy difícil :-P).

Treponema pallidum, el agente causante de la sífilis, una enfermedad de transmisión sexual que por sí sola justifica el uso de todos los condones del mundo.

- 50 -


La Pizarra de Yuri 2

He citado cinco de las más conocidas, pero en realidad hay miles de especies bacterianas patógenas, que se contagian por tierra, agua, aire y polvo (sí, en el sentido que estás pensando). No existe prácticamente ningún orden de la realidad en la superficie terrestre donde no haya bacterias, y eso incluye a las patógenas. Por ello, la higiene y la asepsia (y en su caso laantisepsia) son importantísimas, la primera barrera y la más esencial contra las enfermedades infecciosas (aunque existen indicios para pensar que la excesiva higiene puede ser contraproducente, al impedir que el sistema inmunológico de los niños se desarrolle correctamente y fomentar la resistencia microbiana –pero sin exagerar–). Uno de los más grandes éxitos a la hora de evitar que las mamás se murieran como ratas de sepsis puerperal fue lograr que los médicos y obstetras se lavaran las puñeteras manos antes de atender el parto. Con la asepsia quirúrgica se logra erradicar casi todas las bacterias que puedan llegar al paciente en un quirófano, siempre que se siga escrupulosamente el procedimiento. La guerra entre las bacterias, los hongos y los humanos. Una vez la infección se ha producido, sólo existen dos maneras de enfrentarla. La primera es dejar que el sistema inmunológico haga su trabajo para eliminarla, como de hecho hace constantemente. Sin embargo, es evidente que numerosas infecciones son capaces de vencer al sistema inmunológico y comérsenos; algunas resultan tan peligrosas que ni siquiera merece la pena correr el riesgo de esperar a que el sistema inmunitario haga lo suyo. En realidad hay una tercera posibilidad: amputar el miembro u ógano infectado… con la esperanza de que eso no empeore las cosas aún más. Por eso antiguamente las amputaciones iban que volaban, mientras hoy en día se reservan para casos extremos. En el pasado, al llegar a este punto en el que quedamos infectados por algo que el sistema inmunitario no puede afrontar… pues la liamos parda. Durante la mayor parte de la historia de la humanidad, no existió ningún mecanismo claro o eficaz para combatir la infección desde fuera. Esencialmente, o tu sistema inmunológico lograba vencerla, o te amputaban a tiempo sin causarte una infección aún mayor o te ibas para el hoyo –y esto ocurría con gran frecuencia–. Hasta finales del siglo XIX no hubo realmente medicamentos dignos de tal nombre, y ese es uno de los motivos fundamentales de que hasta principios del XX la esperanza de vida incluso en los países ricos se mantuviera sólidamente por debajo de los 50 años, y la media mundial fuera de 31 años, peor que en el Paleolítico (cuando se estima que fue de 33 años). Hoy en día los países que peor están rondan los 40 años (Swazilandia), aunque cifras en torno a los 50 son más comunes en el África pobre; la media mundial en 2005 fue de 67,2 años,

- 51 -


Antonio Cantó

algo nunca visto, y los países desarrollados nos mantenemos sólidamente en torno a los 75 – 80. La diferencia entre países ricos y pobres se ha reducido de 25 años en 1950 a 11,5 en la actualidad. En apenas un siglo, hemos logrado entre un 29% (caso peor) y un 162% (caso mejor) de vida extra para el conjunto de la humanidad.

Mortalidad infantil y esperanza de vida 1950-2010, con desglose del total mundial y los países más y menos desarrollados. Fuente: División de población de las Naciones Unidas (http://esa.un.org/unpp/index.asp?panel=2). (Clic para ampliar)

Funeral del primogénito, por Nikolai Yaroshenko, 1893. La experiencia de enterrar a un hijo pequeño, hoy en día poco común y generalmente consecuencia de la fatalidad, era cosa corriente en todo el mundo hasta la segunda mitad del siglo XX.

- 52 -


La Pizarra de Yuri 2

Las cifras de mortalidad infantil han mejorado aún mucho más. Durante la mayor parte de la historia se encontraba en el 30% y a veces ascendía hasta el 50%. Es decir, entre uno de cada tres y uno de cada dos nacidos desaparecía antes de alcanzar la edad adulta. Hoy, el peor país para venir al mundo es Angola (18,2%, una barbaridad) y el mejor, Singapur (0,2%); la media mundial está en el 4 a 5%. Tan solo en 1950, la media mundial rondaba aún el 15% (tan mala como si todo el mundo fuera el Afganistán de hoy). Eso es una reducción global del 70% en apenas sesenta años. De nuevo, la diferencia entre ricos y pobres ha caído de 115 puntos a principios de los ’50 a 46 hoy en día. Y en su gran mayoría, es la obra de la ciencia moderna (y también de la mentalidad moderna). Entre los conocimientos, métodos y técnicas que han logrado este resultado maravilloso se encuentran las vacunas, la higiene y los antibióticos. En el mundo clásico protocientífico existieron algunos a modo de antibióticos, que parece que mejoraban algo las cosas. Diversas culturas de la Antigüedad descubrieron que aplicando ciertos mohos y plantas a las heridas la infección se reducía. En mundo rural ruso, es tradicional tratar las heridas infectadas con trozos de tierra caliente (que contiene mohos), y en Serbia y Grecia, usando trozos de pan florecido. Pero eso fue todo y, a todas luces, no fue lo suficiente. Tuvimos que esperar hasta 1875 para que un médico irlandés, por nombre John Tyndall, verificara una cosita curiosa descubierta poco tiempo atrás: algunas bacterias parecían tener problemas para cultivarse allá donde medraba un cierto hongo de los alimentos estropeados llamado Penicillium. En 1876, dejaría escrito: “donde el [Penicillium] es sólido y coherente, las bacterias murieron o se adormecieron y cayeron al fondo [del tubo de ensayo] como un sedimento”. Lamentablemente, así quedó la cosa por el momento. En 1877, Louis Pasteur y Robert Koch –nadie, vamos– observaron también que un hongo presente en el aire inhibía el crecimiento del carbunco (“ántrax“) durante sus estudios refutando la generación espontánea para demostrar laTeoría Microbiana de la Enfermedad. El francés comentó: “si pudiéramos intervenir en el antagonismo observado entre algunas bacterias, se podría quizás ofrecer las mayores esperanzas en materia terapéutica”. Pero si hay que mencionar un nombre como inventor de la farmacología quimioterapéutica moderna y de los antibióticos eficaces, tal nombre es el del alemán Paul Ehrlich. La bala mágica del doctor Ehrlich. Entre otras cosas, Ehrlich era un destacado histólogoespecializado en el uso de tintes para teñir selectivamente diversos tejidos y microorganismos, que inventó varias de las

- 53 -


Antonio Cantó

técnicas precursoras a la tinción de Gram. También postulaba que las toxinas y antitoxinas eran agentes químicos, no muy distintos de algunos de estos tintes. Esto le condujo a elaborar una idea singular: al igual que ciertos tintes teñían únicamente un tipo de células o microorganismos, al igual que las antitoxinas van a buscarles las vueltas a las toxinas, debían existir sustancias tóxicas sólo para un tipo de células o microorganismos, que no causasen daños a las demás. Así, sería posible inyectar esta sustancia tóxica a un paciente de tal modo que matara a la enfermedad sin matar al enfermo. Y lo expresó así: “debemos aprender a disparar a los microbios con balas mágicas”. Una bala mágica que se cargara al microorganismo patógeno sin tocar a su portador. Cuando en 1899 Ehrlich fue nombrado director del Instituto Real de Terapias Experimentales en Fráncfort, se dedicó a investigar estas hipotéticas balas mágicas con gran afán. A lo largo de cientos de experimentos, él y su equipo terminaron concentrándose en una familia de compuestos arsénicostrivalentes que habían demostrado su efectividad contra lostripanosomas. No mucho después Schaudinn y Hoffman descubrieron que la Treponema pallidum, una bacteriaespiroqueta, era la causante de la temida enfermedad de transmisión sexual conocida como sífilis. Ehrlich consideró que la Treponema constituía un blanco idóneo para sus balas mágicas, y el mismo año en que recibía el Premio Nobel por sus trabajos sobre la inmunidad, pidió a su discípulo japonés Sahachirō Hata –autor de una técnica para infectar la sífilis en los conejos– que probara a destruirla con una sustancia previamente descartada: el compuesto 606 (porque era el sexto compuesto del sexto grupo de compuestos arsénicos que habían probado). Así, siendo 1909, el doctor Sahachirō Hata probó el compuesto 606 para destruir la sífilis en conejos, siguiendo las instrucciones del doctor Paul Ehrlich de Fráncfort. Y el compuesto 606 funcionó. Por primera vez, la humanidad disponía de un veneno capaz de matar a la enfermedad sin matar al enfermo. Fue bautizado como arsfenamina y comercializado bajo la marca Salvarsán. Al poco, en 1912, comenzaron a distribuir un nuevo compuesto ligeramente menos eficaz pero con mejor comportamiento clínico denominado Neosalvarsán. Ambos son profármacos, es decir, sustancias poco activas que el propio organismo metaboliza para convertirlas en activas. Y la sífilis, que había arruinado millones de vidas, se comenzó a curar. Los de siempre montaron en cólera. La iglesia, los políticos conservadores e incluso una parte de sus colegas llamaron de todo a aquel judío que había osado interponer la mano

- 54 -


La Pizarra de Yuri 2

protectora de la ciencia entre la humanidad y el justo castigo por el pecado de promiscuidad. Fue tachado de peón del diablo (Wick MD, M.R.. Retrospective-Paul Ehrlich: The Prototypic Clinical Pathologist. Am J Clin Pathol. 90:329-332 , 1988), vituperado, vilipendiado, acosado e incluso demandado en los tribunales por asesinato (como cualquier otro medicamento primitivo, el Salvarsán tenía fuertes efectos secundarios y unos cuarenta pacientes murieron, pero miles y miles se salvaban). Ehrlich acusó muy mal estos ataques y se dice que eso tuvo bastante que ver en los dos accidentes cerebrovasculares que le costaron la muerte durante el verano de 1915, a los 61 años de edad. Hay una peli de 1940 sobre todo esto, La bala mágica del doctor Ehrlich. A pesar de los canallas, la razón se impuso y el Salvarsán se convirtió en el medicamento más vendido del mundo durante los siguientes treinta años. En 1935, Bayer desarrolló un tinte antibiótico llamado Prontosil, siguiendo técnicas basadas en las de Ehrlich; se trataba de la primera sulfamida y el primer antibiótico de amplio espectro. Es decir, unperdigonazo mágico: los antibióticos de amplio espectro son capaces de atacar a una diversidad de microorganismos sin causar daños significativos al paciente. Las sulfamidas fueron el antibiótico más utilizado durante la Segunda Guerra Mundial, salvando a miles de soldados y otras víctimas de la enfermedad y la guerra. Pero lo mejor aún estaba por llegar.

Sir Alexander Fleming (izda.) recogiendo el premio Nobel de manos del rey de Suecia Gustav V (1945).

Penicilina.

- 55 -


Antonio Cantó

Según sus propias palabras, cuando el doctor Alexander Flemingse levantó de la cama el 28 de septiembre de 1928, no había decidido revolucionar toda la medicina de la humanidad para la hora de la cena. Y sin embargo, eso fue lo que ocurrió. Alexander Fleming era un biólogo y farmacéutico escocés muy tímido y observador, al que cuando algo le picaba, no paraba hasta rascárselo. Así había descubierto ya la lisozima unos años atrás, importante en los procesos gangrenosos. Estuvo de vacaciones con la familia durante el mes de agosto de 1928 y volvió a su laboratorio el 3 de septiembre. Al revisar unos cultivos de estafilococos que estaba estudiando y dejó almacenados antes de irse, constató que una de las cepas estaba contaminada por un hongo. Alrededor del hongo, todos los estafilococos estaban muertos. Al comentárselo a su ayudante, éste contestó: “Así es como descubriste la lisozima, ¿no?” Fleming estudió el hongo con atención, que resultó ser aquel Penicillum cuya capacidad bactericida ya había quedado establecida por Tyndall en 1875. Y se picó, y quiso rascarse. Así que se puso a hacer más experimentos. El 7 de marzo de 1929, puso nombre al jugo de moho con el que había estado trabajando todos esos meses: lo llamópenicilina. Y esta penicilina resultó ser la bala mágica soñada por el doctor Ehrlich, capaz de matar a decenas de bacterias patógenas peligrosísimas con una mínima toxicidad para el paciente. El éxito no vino de inmediato. Su hallazgo recibió poca atención, pues no parecía aportar gran cosa sobre el trabajo de Tyndell cincuenta años atrás, y la producción en masa de esta penicilina resultó ser más difícil de lo que parecía en un principio. Trató de encontrar a un químico que la produjera, pero el sector privado no se interesó y a las universidades les parecía poco prometedor. Con el paso del tiempo, surgieron más problemas: el propio Fleming llegó a la conclusión de que la penicilina duraba demasiado poco tiempo en el organismo para actuar eficazmente, y además actuaba demasiado despacio. Hacia finales de los años ’30, se había desanimado y ya sólo le prestaba alguna atención ocasional.

- 56 -


La Pizarra de Yuri 2

El hongo Penicillium, que produce la penicilina, creciendo en agar.

En 1940, poco después de que comenzara la Segunda Guerra Mundial, Ernst Chain yEdward Abraham de la Universidad de Oxford descubrieron la estructura química exacta de la penicilina y hallaron un modo de aislarla y purificarla. No era más que un oscuro paperbioquímico sin ninguna aplicación clara en ese momento, pero en cuanto Fleming lo leyó se le hizo la luz de nuevo y llamó por teléfono aHoward Florey, que era el jefe del departamento donde trabajaban Chain y Abraham. Dicen que al colgar el teléfono, se oyó susurrar a Florey, refiriéndose a Fleming:“Dios… creía que el tipo estaba muerto”. Sobre otra idea de Norman Heatley, Florey y Chain encontraron la manera de producir esta penicilina en masa. Así, lo que solamente era una curiosidad científica se transformó rápidamente en una gran industria. El nuevo fármaco, que inició su andadura como penicilina G o bencilpenicilina, resultó ser de excepcional eficacia y bajísima toxicidad para el tratamiento y prevención de la gonorrea, la sífilis (desplazando finalmente al Salvarsán), la meningitis, la neumonía, la sepsis infantil, el tétanos, la gangrena y casi toda clase de infecciones producidas por heridas. Con la Segunda Guerra Mundial en marcha, no faltaban heridas de todas clases, y en 1944 ya se estaba produciendo penicilina suficiente para atender a todos los ejércitos aliados occidentales. Fleming, Florey y Chain recibieron el premio Nobel de medicina en 1945. La penicilina tiene una bajísima toxicidad, pero en un 10% de los pacientes puede producir alergias y en ocasiones la muerte por shock anafiláctico. Descontando este problema, durante décadas no tuvo parangón y surgieron un montón de variantes

- 57 -


Antonio Cantó

mejores para esto o aquello, conocidas genéricamente como penicilinas. A partir de los años ’70 surgieron las penicilinas sintéticas, producidas de manera completamente artificial (o sea, sin tener que andar trasteando con los hongos), que permiten una diversidad de fórmulas mayor. En la actualidad, los antibióticos primarios siguen siendo penicilinas, como la amoxicilina o la cloxacilina. Una alternativa a las penicilinas, que sigue el mismo principio pero se origina en un hongo de las alcantarillas sardas, son las cefalosporinas. En décadas recientes han surgido nuevos antibióticos totalmente sintéticos como las quinolonas (bastante más tóxicas), las tetraciclinas y algunas otras. En general, ninguno de estos antibióticos resulta tan eficaz como las penicilinas/cefalosporinas y buena parte presentan muchos más efectos secundarios. Como comentábamos al principio, en la actualidad el problema ya no es tanto matar bichejos chungos como pasarnos de vueltas y provocar la evolución sistemática de cepas resistentes a los antibióticos. Porque eso significaría volver al pasado, a aquella época que algunos creen más feliz pero donde las tasas de mortalidad infantil eran de dos dígitos, la esperanza de vida menor que cincuenta años y cualquier microcabrito nos podía mandar al otro barrio con facilidad; un fenómeno que ya ha empezado a ocurrir y debemos evitar. Ver también: Viruela: cuando la mano del Hombre fue más poderosa que el puño de Dios

- 58 -


La Pizarra de Yuri 2

Así vuela un avión Yuri, el 16 de diciembre de 2010 @ 15:43 · Categoría: Ciencia popular, Tecnología

…y un helicóptero, y un velero (“planeador”), y los pájaros también. En general, cualquier cosa más pesada que el aire, excepto los cohetes y proyectiles.

El avión más grande del mundo, un Antonov-225 de 640.000 kg MTOW con matrícula UR-82060, despega del aeropuerto de East Midlands en un día frío y ventoso de diciembre de 2005. ¿Qué clase de fuerza hace que una maldita cosa de 640 toneladas vuele? ;-D Circulan por ahí muchas explicaciones de los motivos por los que vuela un avión. Sin embargo, una buena parte son erróneas y otras, incompletas. Las razones por las que un ala (fija o rotativa) genera sustentación parecen bastante oscuras, empezando por el hecho asombroso de que un maquinón de cientos de toneladas vuele como un pájaro… o incluso mejor. Como siempre, trataremos de aportar un poquito de luz al respecto. ;-)

Las fuerzas básicas del vuelo: peso, sustentación, empuje y arrastre.

De la necesidad de las alas. Vimos ya en el post sobre los aviones supersónicos que hay cuatro fuerzas básicas del vuelo: peso, empuje, resistencia al avance y sustentación. El peso está bastante claro y se deriva de la fuerza de la gravedad, que es la atracción natural entre los objetos con

- 59 -


Antonio Cantó

masa; la aeronave y la Tierra se atraen entre sí, con una enorme desproporción a favor de la Tierra. Fue Newton quien describió por primera vez esta ley de la gravitación universal, y a Newton le debemos también la segunda y tercera leyes del movimiento que explican el empuje: el empuje es una fuerza reactiva producida cuando un objeto acelera o expulsa masa en una dirección, lo que ocasiona una fuerza proporcional en sentido contrario. La resistencia al avance o arrastre obedece a varios fenómenos a la vez, entre los que se encuentra el rozamiento, y que podríamos resumir como la suma de las fuerzas que actúan en sentido opuesto al empuje. Nosotros vamos a concentrarnos hoy en la sustentación. La sustentación es una fuerza aerodinámica perpendicular al flujo del aire, que se produce cuando un objeto avanza a través del mismo. Cualquier objeto puede producir sustentación, pero sólo los objetos con un determinado perfil producen más sustentación que arrastre para vencer al peso eficientemente. Este perfil es el denominado perfil alar (airfoil). La eficiencia de un ala se mide mediante larelación sustentación-arrastre (lift-to-drag ratio). El ala, pues, resulta de gran utilidad para el vuelo porque es capaz de producir mucha sustentación con muy poco arrastre, en un gorrioncillo o en un Airbus A380. Los cohetes no tienen alas porque toda su fuerza ascensional procede del empuje, lo que resulta muy costoso energéticamente (pero muy útil cuando vas a mandar algo a un lugar donde no hay aire, y por tanto no se pueden producir fuerzas aerodinámicas). Para que algo más pesado que el aire vuele con un consumo razonable de energía, necesita un ala o algo que desempeñe la función del ala para generar sustentación. Y ahora, al grano: ¿cómo se produce esta sustentación? ¿Por qué las alas quieren volar?

Partes del perfil alar (sección del ala). Utilizaremos los siguientes términos en el texto a continuación: extradós, intradós, cuerda, borde de ataque y borde de salida; si no los conoces, sería conveniente que los localizaras en el gráfico para tener claro de qué hablamos. ;-)

- 60 -


La Pizarra de Yuri 2

Explicación (incorrecta) de la sustentación por efecto Venturi. El aire acelerara al tener que realizar un recorrido mayor por el extradós que por el intradós; supuestamente, eso actuaría como una “boquilla de Venturi”, reduciendo la presión del aire encima del ala. Sin embargo, no hay nada encima del ala que permita contener el aire para que esta “boquilla de Venturi virtual” pueda llegar a producirse: la superficie está “al aire”. Si este fuera el principio de funcionamiento de la sustentación, el vuelo invertido no sería posible con un ala simple y los aviones de papel caerían al suelo sin más.

Las explicaciones incorrectas (o incompletas). Como apunté al principio, hay varias explicaciones muy populares para la sustentación que o son incorrectas, o son incompletas. Una de las más comunes es la que podríamos denominar la “explicación Venturi“, no porque la propusiera Venturi (que obviamente no lo hizo), sino porque se atribuye la sustentación al efecto Venturi. Según esta explicación (recordemos: incorrecta) la parte superior del ala o extradós estaría construida con una curvatura mayor y por tanto mayor longitud que la parte inferior o intradós. Cuando la aeronave pasa a través del aire, cortándolo, eso aceleraría el aire que pasa por la parte superior, reduciendo así su presión como en una boquilla de Venturi. Esta zona de baja presión generada encima del ala actuaría como una “ventosa”, produciendo la sustentación. Esta explicación presenta varios problemas insuperables. El más fundamental, obviamente, es que el extradós de un ala no es una boquilla de Venturi: se trata de una superficie plana, no de ninguna clase de cilindro. Tendríamos sólo una pared de la boquilla y faltaría el resto; por tanto, no puede actuar de ese modo. Como consecuencia de este error, se derivarían efectos curiosos que no se dan en la realidad. Uno de ellos es que un avión no podría volar boca abajo, puesto que en ese caso el extradós apuntaría hacia el suelo y la sustentación generada apuntaría hacia el suelo también, con lo que esta fuerza se sumaría al peso y el aparato se desplomaría másque como una piedra. Sin embargo, esto evidentemente no es así: los aviones pueden realizar vuelo invertido. Otro efecto curioso sería que la forma del intradós (la parte inferior) sería irrelevante, puesto que toda la sustentación se generaría

- 61 -


Antonio Cantó

en el extradós. Esto tampoco es así: la forma del intradós es tan importante como la del extradós y un perfil alar con un intradós de cualquier manera no funciona si intentamos construirlo en la práctica.

Un Sukhoi Su-31 acrobático, pilotado por Jurgis Kairys, pasa por debajo de un puente en vuelo invertido. Esta maniobra no sería posible si la sustentación del ala se generase únicamente en el extradós (por efecto Venturi o de cualquier otro modo), puesto que al invertir el vuelo lanzaría a la aeronave hacia abajo junto con el peso. Otra explicación parecida, que también supone que la sustentación se genera en el extradós (y por tanto haría igualmente imposible el vuelo invertido) podría denominarse como la conjetura del tiempo de tránsito igual. Esta conjetura se sustenta en la misma idea que la anterior y de hecho constituye una variante de la misma: la parte superior del perfil alar estaría diseñada para ser más larga que la inferior y cuando el ala corta el aire, éste tendría que viajar más deprisa por el extradós que por el intradós para encontrarse de nuevo en el borde de salida. Debido a esta velocidad mayor se produciría una zona de baja presión sobre el extradós, en este caso debida al principio de Bernoulli, lo que originaría la sustentación. Podemos ver que se parece mucho a la anterior, sustituyendo a Venturi por Bernoulli.

En la “variante Bernoulli”, la zona de baja presión se produciría laminarmente en la superficie del extradós debido a la mayor velocidad del aire que circula por él. Este efecto provoca algo de sustentación, pero mucho menos que la medida en la realidad, y tampoco explicaría ni el vuelo invertido ni el del avioncito de papel.

Tampoco funciona. ;-) Para ser más exactos, no funciona lo suficiente. En realidad, una vez las dosláminas de aire se han separado en el borde de ataque, no hay ningún motivo por el que tengan que encontrarse al mismo tiempo en el de salida y de hecho no lo hacen. En la práctica, ocurre algo curioso: las moléculas de aire que circulan sobre el extradós se aceleran muchísimo más de lo esperado en esta conjetura del tiempo de

- 62 -


La Pizarra de Yuri 2

tránsito igual y escapan por el borde de salida mucho antes de que lo hagan las que circulan bajo el intradós. Se podría pensar: “bueno, pues estupendo, ¿no? ¡Así se magnifica el efecto Bernoulli y aumentará aún más la presión diferencial!”. Lamentablemente, no. :-P De hecho, si se aplica la ecuación de Bernoulli para calcular las presiones así generadas, resulta que la sustentación final sería muchas veces menor que la observada en la realidad a pesar de la diferencia de velocidades. Y si esta fuera la causa fundamental de la sustentación, nos volveríamos a encontrar con que no puede explicar el vuelo invertido (cuando la aeronave se pusiera boca abajo, la fuerza “saliendo del extradós” la empujaría hacia abajo y se desplomaría a gran velocidad). Ambas suposiciones se basan en principios físicos reales y sobradamente comprobados, lo que contribuye a la confusión porque no están “evidentemente mal”, violando las leyes de la física. Bernoulli y Venturi estaban en lo cierto. Lo que pasa es que estos no son los principios fundamentales que producen la sustentación (y de hecho ninguno de los dos científicos propuso jamás cosa semejante, entre otras cosas porque ambos son muy anteriores al vuelo de máquinas más pesadas que el aire). Por Venturi no se produce ninguna sustentación (no hay boquilla de Venturi) y por Bernoulli se produce muy poquita, prácticamente despreciable en el conjunto del fenómeno. Las dos explicaciones presentan además el problema del avioncito de papel (o del ala delta, por ejemplo). En un avioncito de papiroflexia, el ala es prácticamente un plano sin diferencia significativa alguna entre su parte inferior y su parte superior (una hoja de papel, vaya…). Si las aeronaves funcionasen por algún mecanismo de acción diferencial entre el intradós y el extradós, un avioncito de papel no volaría porque no hay distinción práctica entre los dos lados del ala. Ni un ala delta, ni ninguna otra cosa por el estilo. No. Nasti. Necesitamos una hipótesis mejor.

- 63 -


Antonio Cantó

Sí, parece una coña, pero no lo es. Cualquier hipótesis de la sustentación aerodinámica que no explique algo tan aparentemente sencillo como el vuelo de un avioncito de papel es probablemente errónea y con toda seguridad incompleta. En un avión de papel, el perfil alar es plano a efectos prácticos y el intradós y extradós, idénticos; con lo que todas las conjeturas sustentadas estrictamente en mecanismos de presión diferencial entre ambas superficies lo tienen muy mal. Cosas de la ciencia. :-P Pero si no explica el vuelo de un avioncito de papel, ¿cómo pretenderemos que explique el vuelo de un Airbus A380 de 569.000 kilos MTOW? :-D

La conjetura de sustentación por acción-reacción, producida cuando las moléculas del aire impactan en el intradós, sólo funciona a velocidades y altitudes muy grandes. Para la mayor parte de casos, tampoco basta.

Una tercera conjetura, un poco más correcta pero aún insuficiente, se diferencia de las dos anteriores en que supone que la sustentación se genera en el intradós (la parte

- 64 -


La Pizarra de Yuri 2

inferior) mediante un mecanismo newtoniano de acción-reacción (tercera ley del movimiento). Según esta idea, las moléculas del aire golpean la parte inferior del ala (que está algo angulada sobre su eje transversal) y rebotan como una piedra rebotando sobre el agua; al hacerlo, la “empujan” hacia arriba y con ella al resto del aparato. Parece una proposición maja, ¿eh? Aquí el problema radica en que también hay aire en la parte superior. Y por tanto, sus moléculas rebotan igualmente sobre el extradós, anulando cualquier sustentación significativa producida por este mecanismo en el intradós (una empuja hacia arriba y la otra hacia abajo). Dar por buena esta explicación supondría también imaginar que dos alas con el mismo perfil inferior y distinto perfil superior generarían exactamente la misma sustentación; en el mundo real, se observa enseguida que esto no va así. Tampoco tendrían sentido dispositivos de conocida utilidad práctica como los spoilers, que actúan completamente sobre la sustentación generada en el extradós (si en la parte superior no se produjera sustentación, entonces, ¿por qué intentar intervenir sobre la misma?). Por otra parte, si sacamos los cálculos de la sustentación producida por este método, tampoco cuadran con los registrados en el mundo real. Esto tiene una excepción. En vuelo de muy-muy gran altitud y muy-muy alta velocidad, algo así como más de 270.000 pies y más de diez mil kilómetros por hora –vamos, un transbordador espacial reentrando hipersónico en la atmósfera terrestre o cosa parecida– , este efecto parece predecir correctamente la sustentación observada en la realidad. Se debería a que, en condiciones de avance muy rápido y muy baja presión y densidad del aire, la cantidad de moléculas de aire que “aprietan y golpean” sobre el extradós sería significativamente inferior a las que “aprietan y golpean” sobre el intradós (particularmente durante un vuelo descendente, como suele ocurrir en las reentradas…). Sin embargo, en los vuelos más corrientes –por ejemplo el de un jetliner, típicamente a 30 o 35.000 pies de altitud y 800 a 900 km/h– este efecto se cancela a sí mismo porque las moléculas de aire golpean por igual en el extradós y el intradós y como resultado no genera ninguna sustentación significativa. Adicionalmente, los dos primeros modelos no explican y el tercero no describe correctamente otro efecto significativo observado en el vuelo real: cuanto más baja es la velocidad y mayor es la carga, más alto debe ser el ángulo de ataque (hasta un cierto límite). El ángulo de ataque es el ángulo entre la cuerda y la dirección del aire incidente. De la “explicación Venturi” y la “explicación Bernoulli”, que dependen únicamente de la diferencia de longitud entre extradós e intradós, no se deduce ningún motivo por el que el ángulo de ataque deba variar en el vuelo a baja velocidad y/o con más carga. En

- 65 -


Antonio Cantó

la “explicación reactiva” podría encontrarse alguna justificación, pero si sacamos los cálculos, de nuevo resulta que no. Vamos a tener que pensar en algo mejor aún. La máquina ala. El elemento esencial para entender la sustentación no es la forma del ala, sino el ángulo de ataque. Acabamos de decir que esto es el ángulo entre la cuerda alar y la dirección del aire. Para que nos quede claro por completo, veámoslo en un dibujín:

El ángulo de ataque es el formado entre la cuerda alar y la dirección del aire.

¿Y por qué el ángulo de ataque es la clave? Pues porque los tres gráficos de arriba (los de las caritas :-D ) están mal. La parte de la derecha (la correspondiente al flujo de aire detrás del ala) está dibujada incorrectamente. En la realidad, cualquier ala que presente un ángulo de ataque distinto de 0º produce un flujo de aire más parecido al siguiente:

Flujo real de aire en torno a un ala en avance.

- 66 -


La Pizarra de Yuri 2

En esta foto se aprecia muy bien el “downwash” generado por un avión. Al pasar cerca de la capa de nubes, este aire desviado hacia abajo abre una especie de canal tras la aeronave. También se distinguen los vórtices producidos en las puntas de las alas, lo que ocasiona esa especie de “rizos” en la nube.

Puede observarse que al paso del ala hay una gran cantidad de aire que resulta desviada hacia abajo (en adelante, “downwash“). Si el ala está invertida, siempre que se mantenga el ángulo de ataque, el flujo de aire sigue circulando hacia abajo. De hecho, esto es exactamente lo que hace un piloto para volar en invertido: ajustar el ángulo de ataque. Y, por supuesto, el fenómeno también se produce con un ala totalmente plana como la de un avioncito de papel. De hecho, el perfil alar es esencialmente irrelevante para la sustentación. La importancia del perfil alar está relacionada con el arrastre, y por tanto con la relación sustentaciónarrastre (lift-to-drag ratio) que definirá finalmente la eficiencia del ala. Pero la sustentación a secas tiene muy poco que ver con el perfil alar y mucho con este ángulo de ataque y la formación del downwash. ¿Cuánto aire desvía hacia abajo el ala en forma de downwash? ¡Bastante! Una avioneta Cessna 172 de 1.045 kg volando a 220 km/h con un ángulo de ataque alar de 5º desvía unas trescientas toneladas por minuto; un avión grande a velocidades próximas a Mach 1, miles de toneladas por segundo. La manera exacta como se produce semejante fenómeno está muy bien explicada de forma bastante sencilla en este escrito (en inglés, me temo) redactado por David F. Anderson (que, además de físico retirado en el Laboratorio Nacional Fermi y el CERN, es piloto y entusiasta de la aviación) y Scott Eberhard, doctor en tecnología aeroespacial y diseñador para Boeing.

- 67 -


Antonio Cantó

Flujo potencial de aire en torno a un ala con perfil Kármán-Trefftz a 8º de ángulo de ataque.

¿Y por qué la formación del downwash produce sustentación? Cosas de Newton, y específicamente de su tercera ley del movimiento. Recordémosla: “Con toda acción ocurre siempre una reacción igual y contraria: o sea, las acciones mutuas de dos cuerpos siempre son iguales y dirigidas en sentido opuesto.”

El ala provoca un cambio en el momento del aire que está desviando a razón de cientos o miles de toneladas por segundo (acción) y a cambio se produce en la misma una fuerza igual y opuesta (reacción). Si el aire está siendo desviado hacia el suelo, esta fuerza igual y opuesta empuja hacia el cielo. Eso es, exactamente, la sustentación. Así de simple. La manera precisa como se desarrollan estos flujos de aire y la sustentación consiguiente es extremadamente compleja y se describe mediante las ecuaciones de Navier-Stokes. A pesar de esta complejidad en el detalle, algunos elementos principales de la sustentación se pueden describir de forma bastante sencilla, pues se derivan directamente de las leyes newtonianas que son centrales al fenómeno. Por ejemplo, los siguientes:

- 68 -


La Pizarra de Yuri 2

Durante una exhibición en Cambrai, un caza Mirage 2000C acompaña a un avión táctico Alphajet, mucho más lento. Puede observarse cómo el piloto del Mirage ha tenido que aumentar notablemente el ángulo de ataque para mantener la sustentación a una velocidad tan baja (para su diseño). Este fenómeno no tendría sentido si la sustentación no fuera fundamentalmente dependiente del ángulo de ataque. Foto: Ian Older en airliners.net.

Hemos quedado en que la sustentación es una fuerza reactiva igual y opuesta a la transferencia de momento al aire ocasionada por el ala. Dado que el momento es igual a la masa por la velocidad, la sustentación es directamente proporcional a la cantidad de aire desviado y la velocidad vertical del mismo: cuanto más aire se desvíe a mayor velocidad vertical, más aumenta la sustentación, y viceversa. Por eso un ala de gran longitud a gran ángulo de ataque genera mucha más sustentación que un ala de poca superficie a poco ángulo de ataque: el ángulo de ataque determina cuál va a ser el componente vertical de la masa de aire desviada, mientras que la superficie alar define cuánto aire se desviará. La masa de aire desviada es directamente proporcional a la velocidad del ala, a

su longitud y la densidad del propio aire. Si la densidad del aire es baja (como sucede, por ejemplo, a gran altitud) hace falta un ala más grande o más veloz para desviar la misma masa de aire. Por este motivo, los aviones que deben volar a gran altitud tienen alas muy largas y/o motores muy potentes. La velocidad vertical de la masa de aire desviada es directamente proporcional al ángulo de ataque (como ya hemos dicho) pero también a la velocidad del ala. A mayor velocidad de avance, se puede obtener la misma sustentación con un ángulo de ataque menor. Por eso, a poca velocidad (por ejemplo, durante un aterrizaje) el

ángulo de ataque se incrementa mucho. Conforme la carga de la aeronave aumenta, se requiere más sustentación. Eso significa que se requiere más velocidad del ala, más longitud del ala (en la práctica,

- 69 -


Antonio Cantó

más área, pues de lo contrario la carga alar será muy elevada y se romperá) y/o más ángulo de ataque. En la sustentación aerodinámica actúa también otro efecto significativo: los vórtices. En la parte superior del ala la presión suele ser más baja que en la parte inferior. En la punta del ala, el aire tiene libertad para moverse de la zona de alta presión (debajo) a la zona de baja presión (arriba), lo que genera una fuerte turbulencia en espiral que son estos vórtices. Esto produce un componente de downwash adicional, muy intenso en el extremo del ala y más débil hacia el centro de la aeronave, que contribuye significativamente a la sustentación final (a favor o en contra dependiendo del tipo de vuelo; en los aviones, generalmente actúan en contra). Algunas aves ligeras como los colibrís y numerosos insectos son capaces de mantener vuelo estacionario exclusivamente mediante la generación de esta clase de turbulencias, batiendo sus alas (si bien a un coste energético elevado). El vuelo del frisbee es una combinación de efecto Bernoulli y sobre todo vórtices de borde de salida. Los vórtices de extremo alar son también el componente básico de la estela turbulenta que las aeronaves dejan detrás. Los winglets (esas aletitas en las puntas de las alas que llevan los aviones modernos) sirven para optimizar la generación de estos vórtices (minimizándolos, ya que en este caso actúan en contra).

- 70 -


La Pizarra de Yuri 2

La sustentación es una función directa del ángulo de ataque. El perfil alar, por su parte, es importante para determinar algunas de las características esenciales del vuelo, como la relación sustentación-arrastre o el ángulo crítico de entrada en pérdida.

Quisiera incidir en una cosa. Estoy diciendo todo el rato que la sustentación es fundamentalmente dependiente del ángulo de ataque, no del perfil alar, y así es. Pero eso no quiere decir que el perfil alar no tenga importancia en la fuerza ascensional final. Como ya apunté, el perfil alar es definitivo para el arrastre, que es la fuerza que se opone al empuje (recuerda el primer gráfico de este post). Si el arrastre aumenta mucho (si la relación sustentación-arrastre se reduce), el avión volará cada vez peor y finalmente no volará en absoluto. También es clave en la formación y desarrollo de la capa límite. Vinculado con esto último, otro fenómeno de interés en este asunto es la entrada en pérdida(stall), relacionado al mismo tiempo con el ángulo de ataque y con el perfil alar. De lo dicho anteriormente podría pensarse que el ángulo de ataque se puede aumentar de manera ilimitada (hasta los 90º o cerca) para incrementar la sustentación. Sin embargo, esto no es así. La capacidad del ala para desviar el aire y producir eldownwash depende de la incompresibilidad y de laviscosidad del aire; incomprensibilidad y viscosidad que tienen un límite. Dicho en términos sencillos, el ala sólo puede desviar el aire si éste se mantiene “adherido” a su superficie; a partir de cierto ángulo de ataque, el aire comienza a “desprenderse” del ala y la sustentación colapsa rápidamente. Este ángulo de ataque máximo a partir del cual el aire se separa significativamente de un determinado perfil alar se llama ángulo de ataque crítico. La entrada en pérdida se produce habitualmente cuando una velocidad baja obliga a aumentar tanto el ángulo de ataque que éste supera al ángulo de ataque crítico (lo que a veces sucede porque las características de sustentación del ala han variado, por ejemplo mediante la acción –o inacción– de los flaps u otros dispositivos hipersustentadores). Esta velocidad mínima a la que un avión puede volar sin que el obligado ángulo de ataque supere al ángulo de ataque crítico es la velocidad de entrada en pérdida. Una vez perdida, la única manera de recuperar la sustentación es que el ángulo de ataque caiga otra vez por debajo del ángulo de ataque crítico. Esto puede ser más complicado de hacer que de decir si a consecuencia de la pérdida el avión ha entrado también en barrena.

- 71 -


Antonio Cantó

Un cohete Soyuz se aleja hacia el espacio, aún dentro de la atmósfera terrestre. La sustentación de un cohete es en su mayor parte no-aerodinámica, generada a pura fuerza de motores con un alto coste energético. Las naves espaciales sólo deben respetar las leyes de la aerodinámica mientras se encuentran en la atmósfera.

¿Y por qué vuela un helicóptero? Se desprende de todo lo dicho que la sustentación aerodinámica depende de varias cosas. Una, de que haya unaire, esto es, un fluido gaseoso que desviar con un ala; por ejemplo, este que forma la atmósfera terrestre y que tenemos la costumbre de respirar. (Aún queda por ahí quien cree que el aire es “la nada” o “el vacío”, pero esto evidentemente no es así: aunque sea generalmente invisible al ojo, se trata de un gas compuesto por nitrógeno y oxígeno en su 99%) Aquellas naves cuyo propósito es viajar por lugares donde no hay aire, como las naves espaciales, sólo usan los principios aerodinámicos durante el lanzamiento o la reentrada en la atmósfera terrestre; durante el vuelo espacial propiamente dicho, se rigen por otra aplicación muy distinta de las leyes de Newton. Los proyectiles en general se rigen por las leyes de la balística. Las aeronaves más ligeras que el aire, es decir los globos y dirigibles, no vuelan por sustentación aerodinámica sino por flotabilidad, siguiendo el principio de Arquímedes exactamente igual que un barco o un submarino hacen en el agua. De hecho, en inglés a los dirigibles se les llama airships: los barcos del aire. Del mismo modo, se podría decir que barcos y submarinos son los dirigibles del agua: generalmente flotan y no se van al fondo del mar matarilerilerile por flotabilidad, no por sustentación hidrodinámica. Algunos navíos en los que la sustentación hidrodinámica resulta importante para su funcionamiento son los hidroalas o, simplemente, una tabla - 72 -


La Pizarra de Yuri 2

de surf. Pero todos los buques, de superficie o submarinos, son esencialmente hidronaves más ligeras que el agua. Entre unos y otros se encuentran los aerodeslizadores (hovercrafts) y los ekranoplanos. Ambos se comportan técnicamente como aeronaves, si bien su sustentación obedece a un efecto aerodinámico distinto: el efecto suelo. En el caso de los aerodeslizadores, se trata de un colchón de aire producido al disparar este gas directamente contra el suelo, en un efecto acción-reacción. Los ekranoplanos utilizan el efecto suelo de manera mucho más eficaz cuando se desplazan sobre el agua. La sustentación aerodinámica (e hidrodinámica, que vienen a ser dos caras de la misma moneda) requiere ademásvelocidad. Ya hemos visto por qué: la sustentación aerodinámica es dependiente de la velocidad del ala con respecto al aire. Si no hay velocidad, el aire no se puede desviar, no hay ángulo de ataque, no hay downwash, no hay vórtices y no hay sustentación que valga. Tanto los pájaros como los aviones, ambos más pesados que el aire, vuelan porque avanzan (si bien ya mencionamos que algunos animales muy ligeros, como los colibríes y varios insectos, pueden generar sustentación estática durante largo rato mediante la generación de vórtices de borde de ataque; eso sí, a gran coste energético).

En este tipo de imágenes se aprecia bien el efecto causado por el “downwash” del ala rotativa (“hélice superior”) en el agua que hay debajo.

Los helicópteros no son una excepción y también obtienen su sustentación aerodinámica mediante el movimiento de su ala con respecto al aire. ¿Qué ala? Pues la pala o “hélice”, claro. Las palas de un helicóptero son sus alas, que se mueven en círculo con

- 73 -


Antonio Cantó

respecto al aire mediante un motor rotativo, generando así la sustentación exactamente igual que cualquier otra ala. De hecho, todas las hélices son alas rotativas; incluyendo, por ejemplo, un ventilador. El airecito que nos da un ventilador no es sino el downwashaerodinámico inducido por el ala rotativa (y es bien sabido lo muy bien y muy peligrosamente que vuelan cuando se sueltan del eje, hasta que pierden velocidad). La primera máquina más pesada que el aire de la humanidad fue también un ala rotativa: el búmeran (boomerang) y diversos tipos de palos lanzables en general, mucho más antiguos que el arco y la flecha, cuyos orígenes se pierden en las sombras de la prehistoria. De viejo fue sueño humano esto de volar, cosa de locos y visionarios. Y aunque ahora ya nos resulte natural por completo, hace apenas 227 años que los hermanos Montgolfier se elevaron al cielo con su globo, los fundamentos teóricos de la aerodinámica no fueron establecidos hasta 1799 y hubo que esperar hasta 1903 para que los hermanos Wright desarrollaran el vuelo controlado, autopropulsado y sostenido exclusivamente por fuerzas aerodinámicas de una máquina más pesada que el aire. Apenas 107 años después, volar de un lugar a otro parece haberse convertido en cosa corriente e incluso hablamos de las crisis de la aviación, olvidando a menudo que aún vive gente que conoció un mundo donde todavía no habíamos aprendido a volar. Para más información y detalles: Anderson, D. y Eberhardt, S. (2009), A physical description of flight, revisited (exFermi National Laboratory / Boeing, resumen de Understanding flight de McGrawHill, por los mismos autores). Disponible en inglés aquí.

- 74 -


La Pizarra de Yuri 2

Magia naturalis Yuri, el 12 de diciembre de 2010 @ 20:49 · Categoría: Ciencia fundamental

Las ciencias naturales se dividen convencionalmente en cinco disciplinas: física, química, astronomía, geología y biología. Vamos a ver de dónde viene esto, por qué es así, qué es exactamente cada una de ellas y cuál es el papel de las matemáticas en todo esto.

El microscopio se ha convertido en uno de los símbolos más representativos de la ciencia moderna y su filosofía subyacente.

La antigua magia naturalis –o sea, lo que hoy en día llamamos las ciencias naturales o ciencias de la naturaleza– se ha constituido en la herramienta más poderosa de adquisición de conocimiento para la humanidad, capaz de aportar lo más parecido a la verdad que nuestra especie puede alcanzar en cada momento de su historia. Además, por el poder que confiere sobre el universo natural, constituye la clave esencial del progreso aplicado y tecnológico: superada la Edad Media, sin ciencia pura no hay ciencia aplicada, sin ciencia aplicada no hay tecnología. Y sin ciencias aplicadas y

- 75 -


Antonio Cantó

tecnologías –y las nuevas formas de pensamiento que las acompañaron– seguiríamos atascados en un pasado de mierda. Ya apuntaba maneras desde el principio, pero al final de la carrera las ciencias naturales han venido a constituirse en la máxima expresión del materialismo positivo, bajo la forma del naturalismo metodológico empírico. Estos palabros filosóficos vienen a decir algo bastante sencillo, al menos a grandes rasgos y resumiéndolo mucho: el único universo real, o al menos el único que se puede estudiar y sobre el que se puede conocer a ciencia cierta, es el universo natural (por oposición al sobrenatural); y la única manera fiable de conseguirlo es a través del método científico. No siempre fue así. Hubo un tiempo en que ciencia, filosofía, religión (y política) fueron indistinguibles. Tardamos bastante tiempo en aprender a separar unas de otras, con mayores y menores aciertos, pero al final fuimos capaces de separar el trigo de la paja y quedarnos con lo quefuncionaba. Entre esas cosas que funcionan, la ciencia alcanzó pronto un lugar central. Hay quien discute la sabiduría de esta separación, pero lo cierto es que… bien, eso, funciona. Y funciona estupendamente bien. Desde bien temprano, esta magia naturalis –la poderosa magia de la ciencia, esa que hace volar naves espaciales ysalva a los niños de la viruela– se dividió a su vez en varias especialidades o disciplinas que trataban de estudiar algún aspecto específico de la realidad. Aunque al principio, esta diferenciación era muy pequeña e incluso indistinguible. Las expresiones más antiguas de la ciencia que se recuerdan son las tecnologías agropecuarias y, de manera inseparable, el estudio de los astros. Sin el estudio de los astros –el sol, la luna, las estrellas– no se puede elaborar un calendario; y sin un calendario, tus cosechas van a ser más bien chuchurrías. Los calendarios astronómicos nos acompañan desde los principios de la historia, y resulta bastante probable que algunas estructuras prehistóricas como el círculo de Goseck (4.900 aC), Mnajdra inferior (ca. 3.000 aC), el crómlech de Nabta Playa o el más conocido Stonehenge (ca. 2.600 aC) desempeñaran al menos una función parcial en este sentido. Durante un buen periodo de tiempo, la astronomía con sus predicciones y las técnicas de adivinación hoy genéricamente conocidas como astrología fueron la misma ciencia, estrechamente relacionada con las matemáticas. Porque las matemáticas son también muy antiguas. Bueno, de hecho son antiguas de narices: nos dimos cuenta muy pronto de que algunas cosas de la naturaleza parecían seguir unas reglas que se podían medir y contar. El indicio más antiguo de un objeto para uso matemático es el hueso de Lebombo, en la actual Suazilandia, que tiene algo así como 35.000 años y podría

- 76 -


La Pizarra de Yuri 2

constituir un calendario lunar. Hay quien dice que este y otros objetos similares parecen singularmente aptos para calcular el ciclo menstrual femenino, con el propósito de adquirir alguna clase de control sobre su ciclo reproductivo y por tanto sobre la demografía de la población; si esto se demostrara cierto, sería un origen de lo más interesante para el primer calendario, las primeras matemáticas y la primera ciencia.

El hueso de Lebombo, con unos 35.000 años de antigüedad, encontrado en la actual Suazilandia (cueva Border, cordillera Lebombo). Sus 29 marcas, similares a las encontradas en otros lugares más tardíos, podrían corresponderse con un calendario lunar. En ese caso, se trataría del artilugio científico más antiguo de la Humanidad. Uno de los pocos usos prácticos que una cultura prehistórica de interior podría encontrar para seguir un calendario lunar es el cálculo del ciclo menstrual femenino.

Contando cosas aquí y allá, en algún momento nos dimos cuenta de que parecían existircorrelaciones entre esas cuentas: leyes o al menos reglas generales que se podían aplicar a distintos ámbitos de la realidad. La más fundamental de esas reglas es que todos los objetos materiales que nos rodean se pueden contar de la misma manera, sin importar su naturaleza. Podemos contar personas, cabezas de ganado, árboles, el número de rayos en una noche de tormenta, hasta los granos de arena de una playa con el suficiente tiempo y método. Por tanto, comenzamos a utilizar unas abstracciones universales aplicables al conjunto de la realidad natural, a las que cierto día decidimos llamar números. Y también nos dimos cuenta de que las leyes que regían las relaciones entre esos números valían para todos los casos, para todo el cosmos. Dos más dos son cuatro, siempre son cuatro, y da igual que sean piedras, monedas, días o estrellas. El orden de los factores no altera el producto, sea lo que sea que estemos multiplicando: siempre es así. Cualquier número dividido por sí mismo da siempre uno, sin importar qué dividimos entre qué cosas: nunca falla. Lageometría y el álgebra ayudaron no poco. Este descubrimiento es probablemente el avance más fundamental de toda la historia de la humanidad, y la clave esencial de la ciencia moderna: unas reglas universales que el ser humano puede conocer, aplicables a todos los ámbitos de la realidad natural sin excepción alguna. O sea, las matemáticas. Sin matemáticas, estamos ciegos por completo. Sin matemáticas, el cosmos entero es un batiburrillo que no se puede entender, regido por fuerzas ignotas y temibles. Con las matemáticas, comenzamos a comprender, comenzamos aaprender. Eso viene a querer decir mathematiké en griego antiguo: aquellas cosas que no se pueden saber sin ser

- 77 -


Antonio Cantó

aprendidas. (Por oposición a musiké, o sea aquello que se puede entender de manera innata) Así, prácticamente toda la ciencia que vino después, casi todo lo que sabemos con seguridad sobre este mundo y este universo, esmathematiké.

Gráfico relacional de las distintas ciencias naturales y algunas aplicadas. Sobre un "fondo" matemático, existe un universo natural (estudiado globalmente por la física), con determinados ámbitos especializados que constituyen el campo de estudio de la astronomía, la química, la geología y la biología. Sobre este "sustrato de ciencias básicas", estrechamente interrelacionado, se desarrollan ciencias aplicadas como las ingenierías y tecnologías o la medicina; que a su vez aportan también nuevas herramientas y conocimientos adicionales al sustrato. Así, el conjunto se comporta como una "red neuronal" fuertemente inteconectada; por ello, a menudo, un avance significativo en un campo se traduce en avances en muchos de los demás (y cuanto más cerca del sustrato, más. Por ejemplo, no es raro que un avance importante en física influya todas las demás ciencias tanto naturales como aplicadas, mientras que es más raro que un avance importante en medicina alcance directamente a la geología o la astronomía).

La astronomía fue la primera de todas las ciencias. Monumentos megalíticos como Stonehenge desempeñaban, con gran probabilidad, una función astronómica al menos parcial.

- 78 -


La Pizarra de Yuri 2

Ciencias básicas. Sobre este sustrato mathematikós, a lo largo de nuestra historia han ido surgiendo distintas ciencias; normalmente las dividimos en ciencias básicas o fundamentales y ciencias aplicadas. Como su nombre indica, las ciencias básicas o fundamentales pretenden aprender de qué manera funciona el universo, en general y en cada campo específico; mientras que las ciencias aplicadas están orientadas a utilizar este conocimiento para seguir avanzando, comúnmente a través de la técnica y las tecnologías. La técnica y las tecnologías, por su parte, aportan nuevas herramientas y conociminentos al sustrato de ciencia básica; con lo que todo el conjunto es como un círculo que se retroalimenta a sí mismo una y otra vez. De este hecho se desprende algo que mucha gente (políticos y votantes) no entienden: la ciencia es un conjunto cuyos elementos están estrechamente inteconectados y cada uno depende de los demás para seguir progresando. Si una rama básica de la ciencia se estanca, todo el conjunto se estanca, con las conocidas consecuencias de atraso, ignorancia, miseria y sufrimiento para todo el mundo. Cuanto más básica es una ciencia, más esencial resulta en este proceso. Pongamos un ejemplo. Si la ingeniería o la medicina sufren un periodo de estancamiento, es malo y tiende a retrasar todo el conjunto, pero la química o la física tardarán en verse afectadas (y normalmente aportarán soluciones cuando avancen lo suficiente). En cambio, si la física o la química sufren un periodo de estancamiento, entonces todo lo demás se retrasa sin remisión (incluyendo a la ingeniería o la medicina). Por eso las consideramos básicas o fundamentales. Estas ciencias básicas, además de las matemáticas (que se suele calificar como una ciencia exacta pura), son estas:

- 79 -


Antonio Cantó

Actualmente, en instrumentos extraordinariamente sofisticados como el LHC seguimos descubriendo las "cosas que deben ser aprendidas" (mathematiké).

Astronomía, cuyo campo de estudio son los astros, su naturaleza y sus movimientos (incluyendo los del astro que llamamos Tierra). Como ya he mencionado, la astronomía fue laciencia original, de la que emanaron fundamentalmente todas las demás y muy especialmente una parte significativa de nuestro sustrato físico-matemático. A partir del siglo XVII –con la revolución heliocéntrica– se separó de su antecesora, la astrología; y para el siglo XIX ya

había tomado definitivamente su propio camino. Aunque la “astronomía clásica” ha perdido algo de su influencia central sobre el conjunto de las ciencias básicas, sigue realizando una aportación imprescindible a través de la astrofísica. Física, cuyo campo de estudio es… todo. :-DLa física escudriña la naturaleza y propiedades del tiempo, del espacio, de la materia, de la energía, de la información y las interacciones entre todo ello; que es decir el conjunto de la realidad natural, del universo físico. Por ello, muchos la consideran la ciencia central, totalmente inseparable de la matemática; matemática y física viajan juntas, son dos caras de la - 80 -


La Pizarra de Yuri 2

misma moneda, y cada una resulta incomprensible sin la otra. Sin embargo, su campo de estudio resulta tan amplio que es preciso desglosar algunas de sus especialidades en disciplinas separadas, como las siguientes: Química, que se concentra en el estudio de la materia y sus interacciones entre sí misma y con la energía. Se originó fundamentalmente en la alquimia, de la que se separararía también entre los siglos XVII y XIX, a partir de los trabajos de Boyle, Lavoisier y Dalton. En la actualidad, interacciona fuertemente con la física a través de lafisicoquímica, con la biología mediante la bioquímica y con la geología por la vía de la geoquímica. Como “portadora del conocimiento físico” al campo de la materia y energía más inmediatas, resulta esencial en la práctica totalidad de las ciencias aplicadas y las tecnologías, desde la electrónica hasta la farmacología clínica, pasando por la nanotecnología o los nuevos materiales. Geología, que tiene como campo de estudio la materia y energía que constituyen el planeta Tierra (por el momento…). O sea, que estudia las piedras, pero no hay que olvidar que nuestro planeta y todos los demás planetas y lunas son… piedras. Al comenzar a comprender cómo es y cómo se formó este piedro en el que vivimos, comenzamos a comprender todos los demás piedros del cosmos y el origen y evolución de los mismos, lo que resultaría clave para el progreso de la física. La geología es muy antigua, primero como disciplina aplicada precientífica de uso en minería o arquitectura y luego como ciencia fundamental, sobre todo a partir de Hutton yLyell (si bien existe una intrigante geología islámica medieval, hasta el extremo de que muchas veces se considera a Avicena el “padre de la geología”). La geología también está estrechamente relacionada con la biología, al aportar el conocimiento sobre el sustrato material sobre el que se desarrolla la vida. Biología, orientada al estudio de un tipo de materia muy particular: la materia viva (y eso nos incluye a ti y a mí, claro). A diferencia de las demás, se trata de una ciencia muy moderna cuyos antecedentes son más oscuros y casi totalmente centrados en el ámbito de la anatomía o la botánica. Realmente no se puede empezar a hablar de una biología como la que conocemos hasta los siglos XVII y XVIII, y realmente no encontró su lugar en el orden cósmico hasta el XIX, con Darwin, Mendel y la teoría celular. Las leyes de la vida resultaron ser demasiado sutiles, demasiado sofisticadas para nuestros antepasados y aún nosotros peleamos por comprender algunos aspectos inmediatos (¡eso significa que quedan cosas chulas por aprender sin irse muy lejos!). Estrechamente emparentada con la geología y la química, la biología está proporcionando grandes resultados en ciencias aplicadas como la medicina, la agronomía, la veterinaria… y también la astrobiología, junto a la astrofísica, la astroquímica y laastrogeología lo que cierra el círculo cósmico de estas ciencias fundamentales.

- 81 -


Antonio Cantó

La ciencia aplicada suele plasmarse a través de la tecnología, pero también mediante las técnicas aplicadas a todos los campos.

Ciencias aplicadas. Por su naturaleza natural, todas las ciencias tienen aplicaciones prácticas inmediatas, incluso sin intermediación alguna. Obsta mencionar lo que hacen la química, la biología o la geología por nosotros a diario. La física es todo; en el orden más inmediato, a ver cómo resuelves un sistema de producción y distribución eléctrica o una red de telecomunicaciones sin aplicarla directamente. Sin astronomía, no hay calendarios, ni navegación, ni cosechas y además está detrás de todo, aportándonos constantemente una perpectiva de conjunto única. Y las matemáticas… pues qué vamos a decir: que están detrás de todo, desde la cuenta del bar, la contabilidad de tu empresa, tu cuenta corriente o la fecha de tu cumpleaños hasta los extremos más remotos de la física teórica. La diferencia sustancial entre las ciencias fundamentales y las ciencias aplicadas es, pues, una cuestión de matiz. Eso sí, un matiz de cierta envergadura. En el mundo contemporáneo, la función primaria de la ciencia fundamental es crear conocimiento, tenga o no una aplicación inmediata (aunque cuando la tiene, que es casi siempre, resulta sin duda muy bienvenido). Mientras que la función primaria de las ciencias aplicadas es utilizar todo ese conocimiento más el que generan por sí mismas en usos prácticos directos, normalmente a través de técnicas y tecnologías.

- 82 -


La Pizarra de Yuri 2

Por su enorme utilidad inmediata, la mayor parte de las ciencias aplicadas tienen una historia precientífica propia, pues la necesidad existía desde mucho antes de que hubiera una ciencia básica fiable para servirles de sustrato. Y precisamente por su sentido eminentemente práctico, orientado a la obtención de resultados inmediatos, desarrollaron algunas herramientas y avances naturalistas que luego resultarían esenciales en el surgimiento de las modernas ciencias fundamentales. En el presente y ya para siempre, las ciencias fundamentales se lo devuelven aportándoles conocimientos básicos muy avanzados que han permitido su extraordinario desarrollo hasta extremos que difícilmente sus practicantes de antaño habrían podido soñar. Las ciencias aplicadas son muchas, pero entre las más duras se encuentran las siguientes:

La medicina es, con toda probabilidad, la ciencia aplicada que ha sido percibida como de mayor utilidad práctica inmediata a lo largo de la historia. Sin embargo, al igual que todas, depende de las ciencias fundamentales para poder avanzar.

Medicina, veterinaria y farmacología. Qué quieres que te cuente de estas ciencias que no sepas ya. ¿Que tu esperanza de vida se ha duplicado y pico en los últimos cien años? ¿Cuántos paralíticos de polio has visto últimamente por la calle? ¿Y ciegos de viruela? ¿Cuántas jovencitas se te han muerto de tisis? ¿A cuántos entierros de niños y bebés has ido en los últimos años (salvo pésima, pésima fortuna)? ¿Cuánto hace que no se te muere nadie por una intoxicación alimentaria? Pues hasta hace bien poco, eso era la cotidianeidad. Todo eso y

- 83 -


Antonio Cantó

mucho más es la obra gigantesca de las ciencias médicas… que sólo acaba de empezar. Ingenierías. Las ingenierías son las que desarrollan las tecnologías y construyen los productos o servicios finales. Toda clase de tecnología, producto o servicio: industrial, civil yarquitectónica, electrónica e informática o detelecomunicaciones, aeroespacial, agropecuaria,química… lo que se te ocurra. El desarrollo de tecnologías suele constituir el último paso entre la ciencia y la sociedad, y por tanto acostumbra a resultar el más visible y apreciado. Todo el mundo entiende de inmediato para qué sirve un ingeniero y si no, lo capta tras una breve explicación; no todo el mundo comprende fácilmente la utilidad de un físico teórico, un geoquímico o un astrobiólogo. Entre las ingenierías también se cuenta a veces la gestión y administración. Las llamadas “ciencias blandas” (como la economía, la psicología, las ciencias jurídicas, las ciencias políticas, ciertas aproximaciones a la historia y otras). La expresión ciencias blandas se entiende a veces de manera peyorativa (por oposición a las “ciencias duras”, pata negra), pero esto no es necesariamente así siempre o ni siquiera a menudo: resulta una manera bastante visual de representar su menor grado de adscripción al método científico más estricto y en consecuencia su menor capacidad predictiva (yo puedo afirmar con rotundidad que una masa se verá atraida por otra masa, y apostar mi vida a que sucederá siempre –lo hacemos a diario inconsciente pero constantemente–; esta clase de afirmaciones predictivas resulta mucho más problemática en estas otras ciencias). Sin embargo, su interés práctico evidente en una multitud de campos es bien conocida y permite incluirlas en el conjunto de las ciencias aplicadas.

Por estos motivos de utilidad práctica inmediata, las salidas laborales de numerosas ciencias aplicadas suelen ser bastante extensas, y según épocas y especialidades su labor se valora bastante bien en el mercado. Los científicos fundamentales, en cambio, suelen encontrarse más a menudo en el ojo del huracán: normalmente dependen de la siempre voluble financiación pública (pocas empresas privadas invierten en la adquisición de conocimientos a los que no se puede extraer un beneficio económico directo), sus conclusiones no son siempre aceptadas de buen grado por todo el mundo, la sociedad percibe los beneficios de su labor de manera más remota y a menudo ganan menos pasta por más trabajo; por ello, la ciencia básica tiene bastante de vocación. Sin embargo, ambos grupos son absolutamente imprescindibles para que la humanidad siga avanzando y de hecho, como ya comenté, un estancamiento en ciencia fundamental conlleva un efecto mucho más grave sobre el conjunto del progreso humano que en cualquier otro caso.

- 84 -


La Pizarra de Yuri 2

Una nota sobre la percepción social de la ciencia básica, las ciencias aplicadas y las tecnologías.

El problema de la percepción social de las ciencias puras, aplicadas y tecnologías. Las tecnologías son ubicuas y la sociedad percibe directamente sus logros y beneficios, sin necesidad siquiera de intermediarios, con una utilidad práctica cotidiana evidente. Las ciencias aplicadas ya se ven un poquito más de refilón, y a veces con mayor desconfianza, pues normalmente sólo se las ve trabajar "en directo" en situaciones más excepcionales. El trabajo cotidiano de las ciencias básicas o fundamentales resulta invisible por completo para el conjunto de la sociedad, a menos que medie interés particular o se produzca un gran avance o descubrimiento que llegue a los medios de comunicación (y que normalmente se encuentra en el borde de lo que sabemos y suele parecer remoto y de poca utilidad práctica). Esto produce un efecto sociopolítico y económico en el que las tecnologías son generalmente conocidas, aceptadas y apreciadas, mientras que las ciencias que hay detrás se ignoran y a veces incluso inspiran desconfianza o minusvaloración, tanto más cuanto más fundamentales son.

Y esto representa un problema significativo en las sociedades contemporáneas, sobre todo cuando escasean los recursos económicos. En ciertos periodos, como la Guerra Fría, los estados realizan grandes inversiones en ciencia fundamental (y también en aplicada y en tecnología) con o sin la aprobación general del público. Esto seguramente no resulta muy democrático, pero es que cualquier persona con dos dedos de frente en una posición de poder entiende rápidamente que quedarse atrasados en ciencia fundamental representa “romper el triángulo” y quedarse atrasados en todo lo demás, con el evidente peligro de resultar derrotados en lo que quiera que se esté peleando.

- 85 -


Antonio Cantó

Uruk, una de las cunas de la civilización, en la actualidad. La historia no espera a nadie.

En tiempos como los actuales, donde la batalla parece ser económica por conseguir el máximo beneficio con el mínimo coste, resulta obvio que los principales actores no tienen muchos motivos para invertir en ciencia fundamental. En tiempos de crisis, además, los estados se ven presionados para reducir el gasto público y la ciencia básica suele contarse entre sus primeras víctimas, debido precisamente a que no se percibe como fundamental. Lo importante es el próximo consejo de administración, las próximas elecciones. Y a fin de cuentas, ¿qué pasa si avanzamos un poco más lento o incluso retrocedemos un poco, eh? Pues pasan dos cosas. La primera es que un avance más lento o un retroceso de la ciencia se traduce inmediatamente en sufrimiento humano, y además de una forma singularmenteinterclasista. Si una técnica médica no se desarrolla, no se desarrolla ni para el hambriento de África Central ni para los hijos de los dueños de “los mercados”. Si no hay energía más barata y ecológica, no la hay ni para fabricar magdalenas de tres bolsas a un euro ni para producir coches de lujo. Si no surge una nueva tecnología de materiales que permita hacer aviones más seguros, no surge ni para Air Low Cost ni para Luxury Airlines. El estancamiento de la ciencia se traduce rápidamente en una vida peor para todos. A fin de cuentas, por mucho dinero que tengas, sólo puedes comprar lo que existe. Pero es que, además, el estancamiento o retroceso científico es la manera más eficaz de irnos (casi) todos al pozo en términos económicos. Las sociedades que se estancan o retroceden también se arruinan en la parte de los dineros, un hecho sobradamente - 86 -


La Pizarra de Yuri 2

conocido a lo largo de toda la historia humana; esto es cierto para cualquier estancamiento o regresión, pero resulta especialmente cierto con los estancamientos o regresiones científico-técnicas. Por el contrario, los grandes avances científico-técnicos siempre se han traducido en una mayor creación de riqueza para todos. Querer salir de una crisis recortando la inversión científica es como querer salvar un barco que se hunde desmontando la quilla para tapar el agujero con las planchas. Es pobreza y dependencia garantizadas. Magiæ naturalis, la magia natural. Así tituló Giambattista della Porta a uno de los primeros textos de divulgacion científica –o precientífica– de la época moderna; y bajo tal nombre se empezó a enseñar en la Universidad de Bolonia durante el siglo XVI, a instancias del filósofo Pietro Pomponazzi, esa nueva magia empírica que se diferenciaba de la filosofía y la religión. Magia naturalis, ciencia natural, ciencia. Dice el diccionario de la Real Academia Española que la magia natural es aquella que por medios naturales obra efectos que parecen sobrenaturales. Difícilmente se podría encontrar una descripción mejor.

- 87 -


Antonio Cantó

Proliferación de armas de destrucción masiva Yuri, el 9 de diciembre de 2010 @ 11:59 · Categoría: Sociedad y civilización, Tecnología

¿Qué son realmente las armas de destrucción masiva? ¿Cuántas hay? ¿Quién las tiene? ¿Qué pasa con su proliferación?

El bombardeo de Gernika por la aviación nazifascista aliada de Franco, el 26 de abril de 1937, inspiró al arzobispo de Canterbury para acuñar la expresión "armas de destrucción masiva". Foto: Deutsches Bundesarchiv.

Ha sido uno de los clichés más determinantes en la política y la propaganda de esta primera década del siglo XXI: las llamadas armas de destrucción masiva y su posible proliferación a estados problemáticos o grupos terroristas se han convertido en una especie de mantra que vale para todo y lo justifica todo. Sin embargo, el asunto presenta muchos más matices y recovecos de lo que seguramente les gustaría a quienes utilizan esta expresión esperando que todo el mundo se obre encima de miedo y suplique salvapatrias. O salvamundos. Para empezar, ¿qué son realmente estas armas de destrucción masiva? ¿Cuántas hay? ¿Quién las tiene? ¿Y qué pasa exactamente con su proliferación? Armas de destrucción masiva. El primer uso documentado de la expresión armas de destrucción masiva corresponde al arzobispo anglicano de Canterbury y Primado de Inglaterra Cosmo Gordon, en 1937, refiriéndose al bombardeo nazifascista de la localidad vasca de Gernika y el inicio de la Segunda Guerra Sino-Japonesa: - 88 -


La Pizarra de Yuri 2

¿Quién puede pensar en este momento, sin que el corazón se le enferme, sobre la masacre terrible, el sufrimiento, las múltiples miserias que la guerra ha llevado a España y a China? ¿Quién puede pensar sin horrorizarse sobre lo que significaría otra guerra generalizada, librada como sería con todas estas nuevas armas de destrucción masiva? –”Llamamiento del arzobispo”, The Times (Londres) 28 de diciembre de 1937, pág. 9.

Durante los años siguientes, armas de destrucción masiva continuaría siendo prácticamente sinónimo de bombardeo en alfombra. Esta táctica bélica, consistente en el lanzamiento de un gran número de bombas convencionales de aviación contra un área general para alcanzar uno o varios objetivos particulares, presenta ya la característica principal del concepto: una notoria desproporción entre la fuerza empleada y la entidad del objetivo militar declarado, con enormes daños colaterales y el añadido de un factor sociológico de terror y desmoralización entre los civiles considerados enemigos. Estaríamos, pues, ante una forma de terrorismo de estado a gran escala.

La catedral de Coventry tras el bombardeo alemán del 14 de noviembre de 1940. Los graves daños sufridos por esta localidad británica acuñaron el término "coventrizar una ciudad"; la decisión nazi de bombardear así las ciudades aliadas durante la primera fase de la Segunda Guerra Mundial desencadenaría una represalia colosal, que se saldó con las inmensas tragedias de Hamburgo, Dresde, Tokio, Hiroshima o Nagasaki. La frase "armas de destrucción masiva" adquiría así un significado nuevo y aún más terrible.

- 89 -


Antonio Cantó

Hasta casi finales de la Segunda Guerra Mundial, se mantendría esta identificación de las armas de destrucción masiva con el bombardeo estratégico mediante aviones o cohetes convencionales de distintos tipos. De hecho, las máximas expresiones de destrucción masiva en un acto bélico siguen siendo ataques de este tipo realizados durante este conflicto, fundamentalmente por las fuerzas aéreas de los Estados Unidos y el Reino Unido. El bombardeo incendiario de Tokio a manos de la aviación norteamericana, en la noche del 9 al 10 de marzo de 1945, continúa siendo la mayor matanza concentrada de civiles en un solo acto destructivo de la historia de la humanidad: en torno a cien mil personas perecieron en menos de tres horas (cifra oficial: 83.000; según los bomberos de Tokio: 97.000), unas cuarenta o cincuenta mil resultaron heridas y un millón se quedaron sin casa.

Hamburgo tras los grandes bombardeos que sufrió. Foto: Imperial War Museum.

- 90 -


La Pizarra de Yuri 2

Nagasaki antes (arriba) y después (abajo) del ataque atómico. Foto: United States Strategic Bombing Survey. (Clic para ampliar)

Como es sobradamente conocido, este conflicto terminó con otras dos grandes matanzas perpetradas por las fuerzas estadounidenses con un nuevo tipo de arma: los bombardeos atómicos de Hiroshima y Nagasaki, hasta el día de hoy el único uso de armamento nuclear en una guerra real. Aunque el número de víctimas inmediatas fue menor (entre otras cosas, porque se trataba de armas muy primitivas lanzadas sobre localidades más pequeñas), la cifra final por fallecimiento de heridos y enfermos resultó bastante mayor: entre 150.000 y 246.000 (de 90.000 a 166.000 en Hiroshima y de 60.000 a 80.000 en Nagasaki; aunque la bomba de Nagasaki era bastante más potente, se desvió hacia un área industrial, estalló más lejos del centro urbano y las colinas alrededor del río Urakami hicieron de escudo para zonas significativas de la ciudad). Las muertes instantáneas fueron de 70.000 a 80.000 personas en Hiroshima y de 40.000 a 70.000 en Nagasaki, civiles en su inmensa mayoría. Sin embargo, la proporción de mortandad fue inmensamente mayor que en cualquier otro caso anterior. Durante la noche del gran bombardeo incendiario de Tokio, residían

- 91 -


Antonio Cantó

en la capital nipona unos seis millones de personas; aceptando la cifra de los bomberos (97.000 muertos), pereció el 1,61% de la población. En otros grandes bombardeos, las cifras fueron algo superiores: el 2% en Dresde (25.000 muertos de 1.250.000 habitantes: 645.000 de preguerra y unos 600.000 refugiados), el 3,3 % durante la Operación Gomorracontra Hamburgo (37.000 muertos de 1.130.000 habitantes) o el 4,2% en Kassel. En el bombardeo atómico de Hiroshima fue aniquilado instantáneamente el 22% de la población y el 47% como resultado de los efectos secundarios (75.000 y 166.000, respectivamente, de 340.000-350.000 habitantes). Esto es, unorden de magnitud más que en los grandes bombardeos convencionales: entre once y veintitrés veces más que en Dresde, entre siete y catorce veces más que en Hamburgo. Aunque Nagasaki “salió peor” (desde el punto de vista de los atacantes), la mortandad instantánea fue del 1528% y la total, del 30-32%. Todo ello, con bombas precarias llevadas a correprisas a la guerra. Así se entiende fácilmente que el concepto arma de destrucción masiva pasó de ser sinónimo del bombardeo de alfombra a significar, en buena medida, “arma nuclear”. Parece que los primeros en definir así esta nueva clase de bombas fueron los soviéticos, con la expresión оружие массового поражения (literalmente, “armas de destrucción masiva”), aunque en los Estados Unidos había comenzado a utilizarse también armas adaptables para la destrucción masiva. En 1947, Oppenheimer establecería definitivamente la expresión en Occidente. Hoy en día, las armas nucleares y termonucleares siguen considerándose los máximos representantes de este tipo de armamento. Pero no los únicos. Generalmente se acepta que las armas químicas y biológicas forman también parte de este concepto, por su carácter incluso más indiscriminado y su capacidad de matar o herir a numerosas personas y otros seres vivos más allá de la supresión del objetivo militar declarado. Las armas químicas son sustancias tóxicas que se dispersan para envenenar al enemigo, mientras que las biológicas consisten en microorganismos causantes de enfermedades que buscan su incapacitación. Ambas se han utilizado desde tiempos remotos. El envenenamiento de las flechas, que puede considerarse un tipo de arma química, data de la Prehistoria; lanzar cadáveres en descomposición a las ciudades sitiadas, o enviar a víctimas de enfermedades infecciosas a territorio del oponente para provocarle epidemias, son técnicas militares que se vienen usando al menos desde los orígenes de la civilización.

- 92 -


La Pizarra de Yuri 2

El último gran ataque químico contra civiles fue perpetrado por las fuerzas iraquíes contra la población kurda de Halabja, el 16 de marzo de 1988, en el contexto de la guerra Irán-Iraq. Aunque en un principio se intentó echar la culpa a Irán, finalmente quedó determinado que había sido realizado por el Iraq de Saddam Hussein, entonces aliado de Occidente. Para la masacre, que causó 15.000 víctimas, se usó tecnología química estadounidense, alemana y de otros países. En la foto, un periodista iraní documenta la matanza.

Las armas químicas y biológicas se consideran habitualmente menos eficaces y destructivas que las armas nucleares, y más fáciles de contrarrestar con técnicas modernas. La vacunación, la cuarentena y el simple reparto demáscaras antigás a la población reduce enormemente sus efectos. Excepto por algunas armas biológicas muy especiales, su diseminación efectiva resulta más complicada de lo que parece y exige algo parecido a un gran bombardeo convencional para hacerlo a escala significativa; en este blog ya hablamos, por ejemplo, del “ántrax” y sus peculiaridades. Se incluye también normalmente a las armas radiológicas o bombas suciasentre las de destrucción masiva. Hay quien las considera un tipo de arma nuclear, pero en realidad se parecen muchísimo más a un arma química, sólo que sustituyendo la sustancia tóxica por una sustancia radioactiva; en todo lo demás, no se diferencian gran cosa de las químicas y presentan ventajas e inconvenientes muy similares. Aunque es posible diseñar un tipo de arma nuclear-radiológica extremadamente aniquiladora, la llamada bomba del juicio final, no consta que se haya construido nunca una y requiere disponer primero de un arma atómica para hacerlo. Por el extremo contrario, una bomba atómica pobremente diseñada o construida que diera lugar a un chisporroteo de baja o mediana energía podría considerarse técnicamente un tipo de arma radiológica. Otras personas discrepan de que las armas nucleares, químicas-radiológicas y biológicas sean las únicas de destrucción masiva, o incluso las más representativas. Señalan que su

- 93 -


Antonio Cantó

uso resulta excepcional, prácticamente inexistente, y su espectacularidad contribuye a disimular los mecanismos más habituales de muerte violenta en el mundo. Organizaciones como Oxfam Internacional, Amnistía Internacional o IANSA aducen por ejemplo que la humilde bala sirve para matar a quinientas mil personas al año: una Hiroshima cada cuatro meses. Según el Comité Internacional de la Cruz Roja, las minas antipersonales matan y amputan a entre 8.000 y 24.000 personas al año, la mayoría niños, con el mismo carácter indiscriminado y mayor crueldad que las armas de destrucción masiva másglamurosas. Por su parte, la munición de racimo olvidada tras los conflictos tiene efectos parecidos. Recientemente, la Convención contra las Municiones de Racimo ha sido firmada por 105 países y ratificada por 47; por desgracia, entre estos no se encuentra ninguno de los principales fabricantes de armamento. Lo mismo sucede con el Tratado de Ottawa contra las minas antipersonales.

Armas nucleares en el mundo, 2010. Rusia: 12.000 (4.650 activas, de las cuales 2.600 son estratégicas). Estados Unidos: 9.600 (2.468 activas, de las cuales 1.968 son estratégicas). Francia: ~300 (todas activas). China: 240 (~180 activas). Reino Unido: 225 (menos de 160 activas). Israel: 80 (estimadas). Pakistán: 70-90 (estimadas). India: 60-80 (estimadas). Corea del Norte: menos de 10 (estimadas). Fuente de los datos: Federation of American Scientists. (Clic para ampliar)

Proliferación y reducción. Al igual que el concepto arma de destrucción masiva es discutido, el de proliferación también tiene sus detractores debido a una variedad de motivos. El más común es que parece restringir el “derecho de posesión” a los países que ya disponen de

- 94 -


La Pizarra de Yuri 2

ellas, poniendo el foco –y el rechazo– de la opinión pública sobre países pequeños y relativamente indefensos mientras lo aleja de los grandes y poderosos que disponen de miles de ellas muchísimo más avanzadas. Esto crearía estados de primera con privilegios especiales, estados de segunda con los que se tiene tolerancia y estados de tercera a los que echar a los perros, una discriminación notablemente injusta. Esta discrepancia no carece de mérito, si bien resulta oportuno hacer algunas precisiones. Por un lado es cierto que, por ejemplo, el Tratado de No-Proliferación Nuclear de 1968 reconoce el derecho de posesión de armas nucleares a cinco países: Estados Unidos, Rusia (como estado sucesor de la Unión Soviética), el Reino Unido, Francia y la República Popular China. Así expresado, parece claramente una injusticia y sorprende que lo haya firmado todo el mundo menos Israel, India y Pakistán (más Corea del Norte, que lo denunció en 2003): ¿qué tienen estos países que no tengan otros? Bueno: es que el Tratado de No-Proliferación no se consideraba un fin en sí mismo, sino un medio para comenzar el proceso de desarme nuclear en conjunción con otros convenios internacionales. Es, por expresarlo de algún modo, unacuerdo de contención temporal; algo así como “impidamos que sigan surgiendo potencias nucleares, para facilitar que quienes ya lo son reduzcan o incluso eliminen en el futuro sus arsenales”. Sin duda resulta más imaginable el desarme nuclear en un mundo donde no hay amenazas atómicas por todas partes; además, poner de acuerdo a cinco es más fácil que poner de acuerdo a cincuenta. No se puede olvidar que el Tratado de No-Proliferación se firmó durante los años más duros de la Guerra Fría. Habría sido poco realista esperar que los poseedores de armas nucleares renunciaran a ellas de la noche a la mañana. Sin embargo, funcionó, al menos en parte: inmediatamente a continuación vinieron los Acuerdos SALT (1969-1979) y el deMisiles Anti-Balísticos (1972), lo que después permitiría el de Misiles de Alcance Intermedio de 1987, los START I y IIde 1991 y 1993, el SORT de 2003 o el nuevo START de 2010 (y la revisión de este mismo año al Tratado de No-Proliferación original). Así, hemos pasado de las 75.000 armas nucleares de la Guerra Fría a las 22.600 del presente(7.700 operacionales y el resto en almacenamiento). El nuevo START pretende reducir el número de cabezas estratégicas activas a la mitad. No es ninguna maravilla, pero probablemente resulta mejor que lo que había y difícilmente se habría logrado en un mundo con una proliferación generalizada.

- 95 -


Antonio Cantó

Submunición estadounidense de dispersión biológica E120, retirada del servicio a finales de los años '60. Los problemas de dispersión limitan significativamente la eficacia de las armas químicas y biológicas.

Más éxito parece estar teniendo la Convención de Armas Químicas de 1993, cuyo propósito es la erradicación completa de las mismas. Sólo quedan siete países que no hayan ratificado el tratado: Israel, Myanmar, Angola, Egipto, Corea del Norte, Somalia y Siria. El resto del mundo, incluyendo de forma muy significativa a los grandes poseedores (Estados Unidos y Rusia, con 31.500 y 40.000 toneladas respectivamente) participan en este proceso de desarme. Las sesenta y cinco fábricas de armas químicas letales declaradas han sido desactivadas; cuarenta y dos se han destruído y diecinueve se han reconvertido para uso civil; los arsenales existentes se están destruyendo a buen ritmo. Existen bastantes motivos para pensar que llegaremos a 2012 con una cantidad muy reducida de armamento químico en el mundo. El estado del armamento biológico es más ambiguo. Si nos guiamos por las declaraciones públicas, nadie reconoce fabricarlo, nadie reconoce poseerlo y nadie lo ha usado en las últimas décadas. En ese sentido, la Convención de Armas Biológicas habría tenido un éxito notable. La pura verdad es que, salvo en algún periodo histórico, nunca fueron excesivamente populares; y con la llegada del arma nuclear, han ido quedando relegadas a un papel de arma de pobres. No obstante, existen motivos para sospechar que se mantienen activos al menos algunos programas de investigación defensiva que probablemente trasciendan los límites de la defensa (más detalles, sobre diversos países, en el artículo sobre el “ántrax”). Una proliferación paralela a la de estas armas de destrucción masiva es la cada vez más ubicua presencia de misiles de largo alcance. A fin de cuentas, ningún arma sirve de gran cosa sin una manera eficaz de servírsela al enemigo; y en esta función, los misiles siguen sin tener rival. Son ya varios los países que disponen de un programa espacial y por tanto de misiles balísticos intercontinentales (ICBM/SLBM) con variado nivel tecnológico. Ya no sólo hablamos de Estados Unidos y Rusia (que los tienen de todos los sabores y capacidades), sino también del Reino Unido (con el Trident II del primo americano), China (DF-5 y DF-31, pronto los DF-41 y JL-2), Francia (M45, limitado a - 96 -


La Pizarra de Yuri 2

6.000 km; se espera pronto el M51), Israel (Jericó III, aunque con algunas limitaciones), India (Agni V, también con limitaciones y restringido a 6.000 km) y probablemente Corea del Norte (Taepodong-2, si bien con severas limitaciones tecnológicas). El mundo de los MRBM (1.000 a 3.000 km de alcance) e IRBM (3.000 a 5.500) está mucho más poblado, e incluye también a Pakistán (Ghauri y Shaheen II) e Irán (Sajjil, Shahab 3 y Ashura). El Régimen de Control de Tecnologías Misilísticas y el Código de La Haya parecen estar teniendo algún efecto, pero no demasiado.

Camión lanzador MZKT-79221 del ICBM ruso RT-2PM2 Tópol-M, durante el Desfile de la Victoria de 2010. (Nueva ventana o pestaña para ampliar)

Durante los últimos años ha llegado al público el debate sobre los misiles antimisil y muy ruidosamente sobre los distintos escudos propuestos sobre todo en los Estados Unidos (aunque la URSS y luego Rusia también tienen una larga experiencia al respecto). Ya he manifestado alguna vez en este blog mi hondo escepticismo ante tales sistemas de defensa de área extensa, los haga el yanqui, el ruso o el sursum corda: la espada es más poderosa y mucho más barata que el escudo; la espada elige el tiempo, el lugar y la sorpresa; la espada puede concentrar su fuerza en uno o varios puntos débiles mientras el escudo debe protegerlos a todos a la vez; el coste de una mejora tecnológica en la espada es muchas veces inferior al coste de mejorar el escudo para contrarrestarlo; siempre hay cosas que el escudo no puede parar, y una vez roto por un sitio, roto por todos. Es concebible que un escudo muy sofisticado pueda detener un número reducido de armas relativamente primitivas; pero no más.

- 97 -


Antonio Cantó

Entre estas cosas que ningún escudo puede detener hoy por hoy, salvo que las pillaran por los pelos en la fase de despegue, se encuentra el pulso electromagnético de gran altitud o bomba del arco iris y los sistemas de bombardeo orbital fraccional de alcance global (FOBS); totalmente prohibidos, pero perfectamente disimulables en lanzadores espaciales y la solución obvia al problema planteado por un escudo antimisiles. Un satélite FOBS, que puede camuflarse como cualquier otra cosa, no tendría problemas significativos para soltar cabezas desde su órbita –incluso desde órbitas lejanas– por fuera del alcance de los radares del tipo BMEWS/PAVE PAWS/HEN HOUSE/Don/Daryal y lejos de la vista de los satélites DSP/Oko si el lanzamiento se produce con antelación al conflicto. No resulta evidente de qué manera podrían detectarse estas cabezas FOBS antes de que iniciaran la reentrada en la atmósfera terrestre o incluso antes de que hicieran impacto, ni cómo interceptarlas en caso de que opten por trayectorias remotas (y habría que ver cómo funcionan radares del tipo de AN-FPS-85 o GRAVES tras un ataque de pulso electromagnético o deoscurecimiento por ionización). Proliferación a grupos particulares.

Cohete nuclear estadounidense M388 Davy Crockett, con su lanzador. Contenía la cabeza nuclear W54, una de las más pequeñas que se han creado, usada también en la carga de demolición nuclear SADM (la "bomba en una maleta"). Con una potencia máxima de 20 tones, menos de la milésima parte que Nagasaki, se consideraba poco más que un arma radiológica. Algunas cabezas posteriores de tamaño similar elevaron la potencia a 0,6 kilotones. Existe el temor de que este tipo de armas miniaturizadas puedan caer en manos de grupos terroristas clandestinos.

- 98 -


La Pizarra de Yuri 2

El mantra propagandístico sobre los riesgos de la proliferación a que me refería al principio se ha orientado fundamentalmente contra la posibilidad de que esta clase de armas lleguen aestados problemáticos o grupos terroristas particulares. La probabilidad real de que una organización terrorista clandestina consiga u opere este tipo de armas, y especialmente armas nucleares, es muy baja por una diversidad de razones. La primera es que las armas nucleares, o las químico-biológicas avanzadas, evidentemente no están en venta. Las atómicas, además, incorporan sistemas criptográficos yotras medidas para impedir su uso indebido. Incluso aunque alguien consiguiera un arma nuclear aprovechando un colapso político como el que ocurrió en la URSS –y donde ninguna acabó fuera de su sitio; un día de estos te contaré cómo– o algún despiste como los que han tenido recientemente en los Estados Unidos, no podría usarla sin las correspondientes claves (si bien los misiles Minuteman norteamericanos tuvieron la clave 00000000 durante varios años y los británicos protegían sus bombas termonucleares WE.177 con cerrojos parecidos a los de las bicicletas). Conseguir componentes de un arma nuclear para montársela uno mismo resulta muchísimo más difícil y exige disponer de especialistas experimentados más algunos instrumentos que no se pueden obtener con facilidad. Para un grupo clandestino, resolver la geometría del arma, asegurar la sincronía de inserción y mantener la seguridadfísicanuclear para impedir que algunos materiales esenciales se echen a perder puede constituir un desafío imposible. Que no es como montar un mueble del IKEA, vaya. Si se quiere hacer pequeña y portable, menos aún. Por supuesto, es posible; pero muy improbable. En todo caso, nunca se ha encontrado un arma nuclear ni componentes sustanciales de las mismas en manos de un grupo terrorista particular. En la práctica, la seguridad que rodea a las armas nucleares es excepcional. Hay incontables niveles de protección física, lógica y por la vía del espionaje para defenderlas. Si un tipo te propone comprarte una bomba atómica de las que cuidas en tu silo, lo más probable es que estés ante un agente provocador y la salida correcta es denunciarlo inmediatamente a tus superiores. Por otra parte, el tráfico de materiales nucleares militares es una actividad de alto riesgo y la probabilidad de que vivas el tiempo suficiente para disfrutar de tu dinero resulta próxima a cero. No esperes que nadie, en ningún lugar, haga muchas preguntas sobre lo que te pasó. Parafraseando a Vladimir Putin, “se hundió”.

- 99 -


Antonio Cantó

Los equipos de emergencia acuden al atentado con gas sarín contra el metro de Tokio, perpetrado por la secta apocalíptica Aum Shinrikyō el 20 de marzo de 1995. Es el ataque terrorista con armas no convencionales más grave de la historia: causó 13 muertes y unas mil personas resultaron afectadas en distintos grados.

Algunos grupos han utilizado ocasionalmente armas químicas, si bien a muy bajo nivel. Fue muy destacado el ataque con gas sarín contra el metro de Tokioperpetrado por la secta apocalíptica japonesa Aum Shinrikyō; el saldo de víctimas ascendió a trece muertos, cincuenta heridos graves y mil afectados leves, mucho menos de lo previsto en un caso así. La insurgencia iraquí ha hecho estallar varios camiones cargados con gas cloro en diversos atentados; aparentemente, el gas no provocó mucho más que diversas molestias y todos los muertos fueron causados por la detonación de los explosivos. En general, el uso de agentes químicos de la naturaleza y en la cantidad que puede manejar una organización terrorista clandestina es extremadamente ineficaz. En una utilización militar normal, suelen hacer falta bastantes toneladas bien dispersadas para producir algún efecto útil. Cosa parecida sucede con el terrorismo biológico. Descontando el caso del ataque con carbunco de 2001 en los Estados Unidos, que ya hemos visto que tuvo un origen muy extraño, los dos únicos bioatentados que se recuerdan en épocas recientes bordean el ridículo. El primero de ellos también fue cosa de los chalados de Aum Shinrikyō: en junio de 1993 liberaron un aerosol de carbunco en Tokio, sin provocar ni una sola infección; militarizar las esporas resulta más complicado de lo que parece. El segundo ocurrió en Oregón en 1984, donde otros tarados –esta vez seguidores de Osho– lo intentaron contaminando con salmonella los buffets de ensaladas de diez restaurantes. Sí, así de cutre, y el efecto estuvo a la altura: aunque 751 personas contrajeron salmonelosis y hubo que ingresar a 45, ni una sola perdió la vida. Vamos, que poniendo a un lado lo de 2001, todos los daños causados por el temido y temible bioterrorismo se reducen a… unas cagaleras. - 100 -


La Pizarra de Yuri 2

No obstante, aquí sí resulta prudente hacer alguna consideración adicional. Un grupo decidido, con algunos especialistas cualificados y recursos paraestatales – o paraempresariales, de una compañía mediana e incluso relativamente pequeña– podría diseñar y militarizar un arma biológica de manera relativamente sencilla a poco que contase con una buena cepa base. Evitaremos entrar en detalles, pero los materiales necesarios resultan relativamente sencillos de obtener y operar con un grado razonable de seguridad. Más complicado sería ponerlo todo en marcha sin levantar sospechas. Una bomba sucia es fácil de construir mediante el sencillo procedimiento de envolver una carga explosiva en materiales radioactivos, por ejemplo basura nuclear o una fuente radiológica estilo Goiânia. Sin embargo, un arma así tendría un efecto predominantemente local, con el área de mayor peligrosidad reducida a unas decenas de metros; si nadie resulta herido por la explosión, sería bastante raro que llegara a ocasionar alguna muerte directa. Como mucho, algún cáncer con el paso de los años y muchísimas gracias.Vale, el efecto económico resultaría notable si por ejemplo estallara en un centro financiero importante, pero en unas semanas serían noticias antiguas.

Emblema oficial de la Information Awareness Office estadounidense. ¿Una broma orwelliana? No. Era real. Su alcance resultaba tan excesivo que fue públicamente cancelada en 2003, pero varios de sus proyectos siguen adelante por otras vías.

En suma: que en la inmensa mayoría de usos posibles para las organizaciones terroristas clandestinas, las armas de destrucción masiva son más bien armas de destrucción chiquitina. Para idear alguna situación en que uno de estos dispositivos causara por sí mismo más mal que –por ejemplo– un camión bomba bien cebado, hay que imaginar una trama un tanto novelesca. Esto no quiere decir que resulte imposible, claro: es bien

- 101 -


Antonio Cantó

sabido que la realidad, en ocasiones, supera a la ficción. Pero la vida en la clandestinidad ya es lo bastante complicada como para liarse con operaciones muy complejas e impredecibles; y salvo que a alguien le surja alguna ocasión de oro, la gente prefiere dejar las golleríasde destrucción masiva a los estados y concentrar sus recursos –siempre limitados– en algo barato y que mate mucho de forma bien comprobada y conocida. Eso son, exactamente, los explosivos convencionales. El vulgarísimo ANFO (básicamente,fertilizante nitrogenado y gasoil) se ha demostrado mucho más efectivo para las organizaciones ilegales que todas las armas de destrucción masiva del mundo; y si le pueden echar mano a un poco de ciclonita o cosa así para ponerle la guinda al petardo, ya tienen el día hecho. Y a las pruebas me remito: eso es lo que ocurre día sí, día no en este planeta viejo. Por todo ello, las armas de destrucción masiva son temibles en manos de estados u organizaciones de similar poder, pero la probabilidad de que le sirvan de algo a un grupo clandestino es francamente reducida. Como fenómeno sociopolítico global, resulta de lo más intrigante observar cómo un gran número de países se están cargando una montaña de libertades en nombre de defendernos contra una amenaza… que nunca se ha plasmado de ninguna manera significativa. Es casi como subir los impuestos para montar un ejército que nos defienda de una invasión extraterrestre; cosa que tampoco resulta técnicamente imposible pero sin duda es poco probable. La verdad, suena a excusa o a paranoia para hacernos tragar con cosas que seguramente no tragaríamos sin ese miedo. Las armas de destrucción masiva fueron siempre armas de terror, incluso aunque no se utilizaran, y parece que siguen siéndolo en la actualidad. Aunque no de la manera que dicen.

- 102 -


La Pizarra de Yuri 2

Preguntas y respuestas sobre… el agua. Yuri, el 6 de diciembre de 2010 @ 16:10 · Categoría: Ciencia popular, Preguntas y respuestas

No existen preguntas estúpidas. Sólo respuestas estúpidas.

El poder de la curiosidad, el poder de las preguntas, es la fuerza más poderosa detrás del método científico y de cualquier forma eficaz de adquisición del conocimiento.

Bastante a menudo, recibo en el correo preguntas de índole científica. Casi siempre, hago lo posible por responderlas. Si me mandaste alguna y no te he contestado, lo más normal es que me pillases en un momento muy atareado y “se quedase debajo del montón”; te invito a hacérmela de nuevo. Algunas son sencillas; otras, muy complejas. En general, todas están realizadas por personas que quieren saber más de lo que saben y, sólo por eso, ya son valiosas. Únicamente quien pregunta puede aprender, sólo las preguntas conducen a las respuestas y a nuevas y mejores preguntas. La historia del progreso humano es la historia de nuestras preguntas y de las cosas que hicimos para darles contestación y actuar en consecuencia. Algunas de estas preguntas me resultan de singular interés por una diversidad de motivos. Unas porque, pese a ser sencillas, inciden en conceptos que no todo el mundo tiene claros. Otras, porque abren la puerta a ideas mucho más grandes y complejas. Aún otras más porque son de suyo intrigantes o evocadoras. Y también hubo otras que no supe responder. Todas ellas me han hecho recordar cosas que sabía y aprender cosas

- 103 -


Antonio Cantó

que no sabía o no tenía claras para tratar de darles contestación. Muchas me han hecho pensar: “es una lástima que esto no lo lea más gente”. Así pues, me ha parecido oportuno –tras obtener el permiso de quienes las realizaron, ¡gracias! ;-) – iniciar la publicación de algunas de ellas con sus correspondientes respuestas. En este primer post nos vamos a concentrar en cuestiones relacionadas con el agua. Es evidente que el agua, su naturaleza, su origen, su comportamiento, el papel fundamental que desempeña en las cosas vivas como tú y yo despierta gran interés. Vamos allá. Si el agua, en condiciones normales, es aislante… ¿por qué aumenta tanto el riesgo de electrocución? Remitida por Paco, de 42 años, residente en Dos Hermanas (Sevilla): Hola Yuri, Soy un fiel seguidor de tu blog, y me gustaría que me aclararas una duda que tengo, y que estoy seguro de que sabrás resolvérmela. Se trata de algo relacionado con el agua y con la electricidad. Cuando estaba en el instituto, hicimos un experimento: echamos agua en una probeta en forma de U. En un extremo de la U, introducíamos un cable de cobre atado al polo positivo de una pila, y en el otro, otro cable atado al negativo. Un medidor, medía la corriente eléctrica que circulaba, y ésta era nula. Ello demostraba que el agua, en condiciones normales, es aislante eléctrico. A continuación, se echaba sal común en la probeta, y llegaba un momento en el que el agua comenzaba a conducir la electricidad. Es decir, la sal convertía el agua en conductor. Y aquí es donde me surge la duda: si el agua, en condiciones normales, es aislante eléctrico, ¿por qué resulta tan peligroso (y hasta mortal) juntar el agua con la electricidad? ¿Por qué si pisamos en un suelo cubierto de agua al que está llegando electricidad de alguna manera (por ejemplo, por un cable suelto que transporta electricidad) nos electrocutamos? Es una duda que he tenido siempre, y que nunca he sabido cómo resolver. Muchas gracias, y un saludo.

- 104 -


La Pizarra de Yuri 2

El agua pura es un buen aislante eléctrico; al disolver iones, se convierte en conductor.

Llevarse el ordenador portátil a la bañera, sobre todo cuando está conectado a la red, NO es una gran idea. Lo mismo cabe decir de cualquier otro aparato eléctrico o electrónico.

El agua pura es un buen aislante eléctrico. Sin embargo, en cuanto hay presencia de algún material iónico (como la sal), ésta se vuelve rápidamente conductora. El agua pura contiene aproximadamente 10–7moles por litro de iones H+ con carga positiva, y otros tantos de iones HO- con carga negativa, lo que se traduce en una conductividad de aproximadamente 0,055 µSiemens/cm a 25ºC (resistencia de 18,2 MΩ·cm²/cm). Esto es un aislante muy bueno, aunque no tanto como el aire (con una resistencia doscientas mil veces mayor; aunque se suele decir que la resistencia eléctrica del aire es infinita, esto no es cierto). Sin embargo, debido a las sustancias en suspensión del aire, el agua de lluvia que las arrastra presenta una conductividad de 35-50 µSiemens/cm (resistencia: 28,620kΩ·cm²/cm). Cuando hay mucha polución, llega fácilmente a 100 µSiemens/cm (resistencia: 10 kΩ·cm²/cm). El agua de un río (como el Rhin, por ejemplo) asciende a 300-745 µSiemens/cm (resistencia de 3,3 a 1,3 kΩ·cm²/cm). Y el agua de mar, con cantidades significativas de sales, conduce a 42.000 µSiemens/cm (resistencia de 23,8 Ω·cm²/cm). No es una conductividad muy buena (el cobre, por ejemplo, presenta una resistencia de 1,7 µΩ·cm²/cm: catorce millones de veces menos que el agua salada y doce mil millones de veces menos que el agua de lluvia). Pero resulta suficiente, sobre todo teniendo en cuenta que el agua cubre toda la piel y se mete por todos los poros y grietas, multiplicando enormemente la superficie de contacto.

- 105 -


Antonio Cantó

El agua del grifo resulta, pues, significativamente más conductora que el agua destilada. El agua de una bañera, llena de iones procedentes del jabón, las sales (artificiales o cutáneas) y demás resulta casi tan conductora como el agua de mar, al igual que el sudor. Aunque sea millones de veces menor que la de un conductor idóneo como el cobre, es bastante y con el incremento de la superficie de contacto se multiplica. Así es como el agua ayuda a que nos electrocutemos.

Se piensa que bajo el hielo superficial de Europa, una luna de Júpiter, existe un océano de agua salada en estado líquido.

¿Es el agua indispensable para la vida desde un punto de vista termodinámico? Remitida por Chrisinthemorning, de 29 años, residente en Ourense: Hola Yuri, enhorabuena por el blog, es magnífico. Una pregunta ¿has posteado algo sobre la importancia del agua en la vida visto desde un punto de vista termodinámico? (que es de la única manera en la que yo puedo explicar “la vida” (soy doctor en biología molecular y genética)). ¿Sería posible otro compuesto como dador último de electrones? ¿O es el agua realmente indispensable para que haya vida? Muchas gracias. Atentamente,

- 106 -


La Pizarra de Yuri 2

Sí, aunque incorporado en varios post dispersos; te recomendaría un vistazo a la serie “Hijas de la Lluvia” en general. De hecho, te me has adelantado, porque voy a escribir una serie sobre los “cuatro elementos clásicos” desde la óptica moderna; el primero ha sido el fuego y la semana que viene no sé aún si me toca tierra o agua; pero si no es la próxima, va a la siguiente. ;-) [Ejem… será pronto, palabrita] La verdad es que se me hace difícil imaginar un “solvente universal” mejor que el agua a las temperaturas planetarias típicas. En la literatura se mencionan frecuentemente varias sustancias o combinaciones alternativas posibles, a distintos rangos de temperatura. Una de las más populares es el amoníaco, líquido entre –78ºC y –33ºC aproximadamente, y con casi toda seguridad el candidato mejor posicionado para reemplazar al agua como “cuna de la vida”. Otras posibilidades comentadas a menudo son el metano, el etano, el ácido clorhídrico y el ácido sulfúrico, cada una con sus pros y sus contras. Personalmente, he fantaseado alguna vez con los hexanos. ;-) Lo que pasa es que el agua lo reúne todo: amplia disponibilidad planetaria, buen rango térmico en el que permanece líquida, elevada polaridad (lo que facilita la “opción carbono”, que parece a su vez una de las más fáciles para la vida), pH neutro, su gran capacidad para establecer enlaces por puente de hidrógeno… parece como si la vida en la Tierra fuera la que es porque sus fundamentos de agua-carbono son los “más inmediatos” para una forma de vida planetaria (al menos en un planeta rocoso; sería más discutible en uno gaseoso, pero eso presenta sus propios problemas). Pero sí, son imaginables “otras cosas” no basadas en el agua. [Chris en realidad se refería a otra cosa, que yo ya no fui capaz de contestarle con propiedad. Esta es su respuesta; si alguien tiene algún dato al respecto, le ruego que lo aporte:] Hola Yuri, muchas gracias por la respuesta. Tienes razón en que el agua es el mejor “medio” para que se den las condiciones para “la vida”. Pero mi pregunta pretendía hacer hincapié en un aspecto más “básico” de la vida. La vida es un proceso de reciclaje de energía (magnífico y totalmente recomendable libro del hijo de Carl Sagan, Dorion Sagan, “La termodinámica de la vida”; y algún otro de Ilya Prigogine y Erwin Schrödinger) en el que el agua juega un papel crucial. La energía de la que estamos hechos y por la que estamos vivos viene del sol, y el mecanismo para captarla y “meterla” en el proceso de la vida es la fotosíntesis (o en

- 107 -


Antonio Cantó

“el origen” otro proceso similar). Los fotones energéticos del Sol excitan la molécula de clorofila que pierde un electrón, electrón que a medida que pasa de molécula en molécula hacia un nivel energético menor (a favor de gradiente), permite que su energía (¿física?) pase a energía química creando gradientes protónicos, lo que al final pasará dará como resultado la síntesis de ATP (la energía de las células). Esto se conoce como “Esquema Z“. El problema es que la primera clorofila ha perdido ese electrón, permitiendo así que comience “la vida” (esto no es del todo exacto pero lo dejamos así); si este electrón no es reemplazado se para todo el proceso. Y ahí es donde entra el agua, que le cede un electrón a esa clorofila (y libera oxígeno), y de esta manera se puede volver a excitar por los fotones solares y seguir el eterno devenir vital… Esta pequeña reacción inicial es la clave de que estemos vivos tú y yo y de que todo el mundo sea tal y como lo conocemos. En el “origen” tuvo que ser una reacción similar. Entonces yo me pregunto, será el agua la única molécula capaz de ceder esos electrones? y si es así, proviene esa capacidad de sus características óxidoreductoras? (yo de esto no sé mucho). Y si es así, entonces el agua sí que es fundamental para que exista vida. Un cordial saludo y perdón por las molestias. Enhorabuena de nuevo por la página.

Los líquidos (y los sólidos) tienden a evaporarse a todas las temperaturas. Al hacerlo, producen presión de saturación. Cuando esta presión de saturación supera a la presión atmosférica, entonces entran en ebullición.

¿Por qué el agua se evapora muy por debajo del punto de ebullición?

- 108 -


La Pizarra de Yuri 2

Remitida por Eloi, de 27 años, residente en Barcelona: Hola Yuri: Soy un ferviente seguidor de tu blog. Te felicito, ¡es la mar de interesante!. Tengo una duda que me corroe de hace mucho tiempo y aún no he encontrado la respuesta. Es la siguiente: Si el agua de la lluvia proviene, principalmente, de la evaporación de ríos y mares. ¿Cómo se consiguen los 100ºC para llevarla a cabo? Si no puedes responderme lo entenderé perfectamente. En todo caso, muchas gracias igualmente. Un saludo,

Es fácil. ;-) Lo que necesita 100ºC es la ebullición (el momento en que toda la masa de agua comienza a vaporizarse a la vez). La evaporación, en cambio, se produce en todo el rango de temperaturas. Esto puedes observarlo en tu taza de café (o de tu infusión favorita…). Puedes ver cómo se evapora ante tus ojos, cuando genera por condensación el vaho o “humo” blanco que se desprende de todas las bebidas calientes. Y por supuesto no está a 100ºC cuando te la estás tomando, o te abrasaría la boca. :-P También se observa muy fácilmente al tender la ropa en un día caluroso (aunque no haga viento). En cuestión de minutos, la ropa está seca: el agua se ha evaporado. Pero, evidentemente, no ha hervido. En suma: que evaporación y ebullición son cosas distintas. ;-) [Paco, de Dos Hermanas, también se interesó por esta cuestión en otro mensaje; lo que me impulsó a escribir una respuesta un poco más elaborada:] De todo el mundo es sabido que los estados de la materia son 3: sólido, líquido y gas (por cierto, duda paralela, ¿en qué categoría queda el estado plasmático?). El paso de un estado a otro, se produce con un cambio de las condiciones de presión y temperatura. En el caso del agua, a una presión de una atmósfera, se sabe que se mantiene sólida por debajo de cero grados, líquida por encima de cero grados, y

- 109 -


Antonio Cantó

hasta los 100, punto de ebullición en el cual el agua pasa a evaporarse y convertirse en gas (vapor de agua). Sin embargo, si dejas un vaso de agua encima de una mesa, al cabo del tiempo, el agua desaparece (se evapora), o, cuando una superficie se moja, sin hacer nada, termina por secarse. La duda es: ¿por qué se evapora el agua, sin alcanzar su punto de ebullición, ni tan siquiera acercarse a él? Una mancha de agua en el suelo, a menos de 10 grados, y a más de cero, termina por evaporarse a pesar de estar a más de 90 grados por debajo de su punto de ebullición. ¿Ocurre esto con otras sustancias, solo con el agua, con algunas, con todas?

En realidad es que no hay tres estados de la materia, como sabe todo el mundo, sino cuatro. ;-) Y el plasma es el cuarto. Aunque, mejor dicho, el primero: por muchísimo, se tratra del más común en todo el universo conocido. Hasta el 99% de la materia nooscura de este universo estaría en estado plasmático. Con respecto a tu segunda pregunta: Como ya vimos, la evaporación es distinta de la ebullición (evaporación y ebullición son las dos formas de vaporización de un líquido). Por tanto, el punto de ebullición sólo tiene una importancia relativa durante la evaporación: la evaporación se produce más cuanto más cerca está el líquido al punto de ebullición, pero se da en todo el rango de temperaturas. Un vaso de agua dejado a pleno sol en medio del verano se evapora antes que uno dejado en la cornisa un día de invierno. Todos los líquidos están evaporándose continuamente, con independencia de su punto de ebullición. Los que parece que no lo hacen (el aceite, por ejemplo), sí lo hacen, sólo que muy despacito. Los hidrocarburos como la gasolina, por ejemplo, producen gases explosivos de manera bien conocida (a menudo, acelerados por la proximidad de un motor caliente). Esto se debe a que las moléculas de un líquido están en movimiento: el calor (a cualquier temperatura por encima del cero absoluto) se encarga de ello. No tanto como las de un gas, por supuesto, pero aún así se mueven. Este movimiento las provee de energía cinética. Esta energía cinética puede ser suficiente para superar el límite de transición de fase (transición entre estados), siempre que se den tres condiciones: la molécula debe estar lo bastante cerca de la superficie, moverse en la dirección adecuada y hacelo con la suficiente rapidez. No son muchas las moléculas que cumplen estas tres condiciones al mismo tiempo, por lo que la evaporación se da poco a poco: es un proceso lento. Adicionalmente, esta “pérdida de energía al aire” enfría el líquido restante (enfriamiento evaporativo), lo que modera la

- 110 -


La Pizarra de Yuri 2

rapidez del proceso aún más. Por eso el sudor sirve como mecanismo regulador de temperatura, al enfriar “lo que hay debajo” mientras se evapora. Un líquido esparcido en un área extensa se evapora antes porque hay una proporción de moléculas muy superior cerca de la superficie.

La evaporación se produce incluso a temperaturas muy bajas. La ropa tendida en el frío, aunque no haga viento, sigue secándose.

Si el ambiente está muy saturado de humedad el proceso se ralentiza enormemente (el aire está ya “saturado” y “acepta peor” las moléculas en evaporación); habrás observado que en los días húmedos y lluviosos a la ropa le cuesta mucho secarse (aunque no esté expuesta a la lluvia). Por el contrario, el flujo de gases (el viento, la corriente de aire) lo acelera, porque tiende a hacer que esa saturación se disipe rápidamente. Por eso la ropa se seca antes en un día ventoso que en un día sin viento (y también porque el viento “arranca” las partículas de agua). A temperaturas por debajo de cero, el agua se congela pero sigue existiendo algo de vaporización por sublimación. Debido a ese motivo, es posible tender la ropa en un día muy frío, y aún así se seca. Esta tendencia natural de los líquidos (y los sólidos) a vaporizarse produce la llamada presión de saturación. Conforme la temperatura se acerca al punto de ebullición, las moléculas se mueven mucho más y la evaporación se acelera (el “vapor sobre el café”; o el “vaporcillo” que se ve salir de un guiso antes de que eche a hervir): su presión de saturación aumenta. En un determinado punto, la presión de saturación iguala y supera a la presión atmosférica. Este es el punto de ebullición. Entonces, al vencer a la presión atmosférica, el líquido comienza a “elevarse” y permite la formación de burbujas en su interior. En ese momento, todo el conjunto del líquido empieza a vaporizarse a la vez: decimos que ha entrado en ebullición. El proceso de vaporización sigue sin ser instantáneo: sólo mucho más rápido que durante la evaporación (a altas temperaturas / presiones ciertos cambios - 111 -


Antonio Cantó

pueden provocar un fenómeno conocido como “flash boiling” o “ebullición instantánea”; este fenómeno fue la “puntilla” durante el accidente de Chernóbyl). Puede verse que si no fuera por la tendencia natural de los líquidos a evaporarse en presencia de energía, el punto de ebullición nunca se alcanzaría. Se deduce fácilmente que, si queremos mantener líquida una sustancia por encima de su punto de ebullición, la manera más fácil de hacerlo es aumentar la presión ambiental. De esa forma, el punto en el que la presión de saturación supera a la presión atmosférica está mucho más arriba; por eso el agua de refrigeración permanece líquida. Así se hace, por ejemplo, dentro de los reactores nucleares (como los PWR), a temperaturas de varios cientos de grados. Por el contrario, si la presión atmosférica es muy baja, la ebullición se produce mucho antes; ese es el motivo de que la tenue atmósfera de Marte tenga problemas para conservar el agua en estado líquido: el punto en el que la presión de saturación supera a la atmosférica es mucho más bajo, y por tanto la temperatura de ebullición también (y la evaporación es más intensa).

¿De dónde sale el agua? Sí, vale del grifo. ¿Y la del grifo? Del río. ¿Y la del río? De las nubes, al llover. ¿Y la de las nubes? Del mar, por evaporación. ¿Y la del mar?

Y… ¿de dónde sale el agua? Remitida por Raquel en representación de su hijo Tony Pastor Martín, de 11 años, residentes en Azuqueca de Henares (Guadalajara); digo yo que cuando un muchacho de once años osa hacer esta pregunta, habrá que ir hasta el fondo del universo si es preciso para contestársela. ;-)

- 112 -


La Pizarra de Yuri 2

Buenas noches!!! En primer lugar pedir disculpas, ya que no se ni escribir ni expresarme todo lo bien que me gustaría… Tengo un hijo de once años, el cual tiene una curiosidad infinita, y me ha llegado esta tarde con una pregunta que me ha parecido interesante, ¿como llegó el agua a la Tierra???. Llevo un tiempo leyendo tu blog y ahora tu página web, me alucina todo lo que escribes, es impresionante como trasmites y nos haces comprender, incluso a gente como yo, sin más conocimientos que los que me proporciona la wikipedia, y algún que otro libro que cae en mis manos sobre física de divulgación, bueno, y al grano, no se si ya habrás escrito algo sobre este tema, yo no lo he encontrado, y nos encantaría leer o conocer tu opinión al respecto. Perdona por molestarte, imagino que estarás saturado de correos de gente como yo, que busca respuestas claras. Gracias de antemano por tu atención, y de nuevo te doy la enhorabuena por tu extraordinario trabajo!!! Que tio más inteligente (como dice mi hijo…) :)

El agua llegó a la Tierra con todo lo demás. ;-) Veámoslo: El agua es óxido de di-hidrógeno. O sea, oxígeno e hidrógeno en relación 1:2, es decir H2O: dos átomos de hidrógeno unidos a uno de oxígeno. Vamos a ver de dónde salieron.

- 113 -


Antonio Cantó

Los elementos por encima del hidrógeno se forman durante las reacciones de fusión que se dan en las estrellas. En la imagen, la superficie del Sol. Sonda espacial TRACE, NASA.

El hidrógeno está por todo el universo. De hecho, la materia formada por el Big Bang fue hidrógeno en su muy inmensa mayoría. El Big Bang fue demasiado “simple” (¡ejem!, es una forma de hablar…) como para formar muchas cosas más complejas. Pero lo que formó, el hidrógeno, lo formó en grandes cantidades. Las estrellas (como nuestro Sol), que concentran buena parte de la materia del universo, están compuestas fundamentalmente de hidrógeno. Cuando se formaron las primeras estrellas, el universo sólo contenía hidrógeno y por tanto no podían aparecer cosas compuestas de otros elementos, como los planetas (y su agua). Estas primeras estrellas se llaman degeneración III o sin metalicidad (porque aún no habían surgido los metales) y aparentemente ya no queda ninguna (que sepamos). El oxígeno se forma dentro de las estrellas, como parte de sus procesos de fusión nuclear, en un proceso que se llama nucleosíntesis. ¿Cómo puede ser esto? Bueno, la idea es relativamente sencilla. Quizá hayáis oído que la fusión nuclear combina dos átomos de hidrógeno para formar uno de helio (lo he contado al menos en dos posts ;-) ). El hidrógeno tiene un protón, más otro protón de otro hidrógeno: dos protones, que es el helio. Pero con la suficiente energía, este proceso no tiene por qué acabarse aquí. Si se suma otro núcleo de hidrógeno (un protón) al de helio (dos protones), obtendremos litio (tres protones). ¡Ah, ya tenemos el primer metal! El litio es un metal. Cuando la temperatura es lo bastante alta, y dentro de una estrella puede llegar a ser muy alta, el helio (dos protones) comienza a fusionar también entre sí. Al juntarse dos - 114 -


La Pizarra de Yuri 2

núcleos de helio (2+2 protones) obtenemos berilio (4 protones): otro metal. Así surgieron las estrellas de generación II o baja metalicidad y, conforme el proceso siguió adelante, las degeneración I o alta metalicidad como la nuestra y la mayor parte de las que vemos en el cielo presente. Y cuando se suma otro núcleo de helio más, ya tenemos carbono, ese que forma la base de la vida en la tierra: el núcleo de carbono tiene 6 protones. Este proceso en tres fases (helio -> berilio -> carbono) se llama proceso denucleosíntesis triple-alfa. (Observad que estamos ignorando los neutrones, que se suman también, pero no es relevante para la explicación)

Proceso termonuclear triple-alfa, que a partir del helio forma el berilio y el carbono durante la fusión nuclear que se dan en el núcleo de las estrellas. Un "paso alfa adicional" forma el oxígeno; junto con el hidrógeno primordial y estelar, ya puede surgir el agua. Imagen original: NASA. (Clic para ampliar)

Ya hemos llegado al carbono, que no es un metal. Resulta que estos procesos alfa (fusión con núcleos adicionales de helio) pueden seguir produciéndose si la temperatura es lo bastante brutalmente alta. Cuando un núcleo de carbono (6 protones) fusiona con aún otro núcleo más de helio (2 protones)… pues ya tenemos un núcleo de 8 protones, que es exactamente el oxígeno. O sea, que en nuestra estrella ya tenemos átomos de hidrógeno (que estaba desde el principio) y átomos de oxígeno (y de helio, y de carbono, y de más cosas que van formándose por vías parecidas). Y si tenemos hidrógeno y oxígeno… pues ya tenemos todo lo necesario para hacer agua, ¿no? Las estrellas hacen cosas energéticas, como explotar, cuando llegan a determinados momentos de su vida: esto son las novas y las supernovas. Y cuando una cosa como una estrella explota… vaya, explota de verdad, pero muy en serio, de una manera que resulta difícil de imaginar. Al suceder esto, grandes cantidades de esta materia que se encuentra dentro de las estrellas salen despedidas a mucha distancia y con una velocidad asombrosa. Con lo cual, van “llenando el universo” de estos nuevos elementos. Al pasar el tiempo, la atracción gravitatoria y otras fuerzas hacen que una parte de esta materia (que incluye al hidrógeno y al oxígeno) se distribuya en forma de discos de acreción.

- 115 -


Antonio Cantó

Los discos de acreción son la “cuna” de los sistemas solares: así nacen, con una nueva estrella en el centro (o más de una…) y planetas que se van formando por más atracción gravitatoria en órbita a su alrededor. El hidrógeno y el oxígeno, cuando entran en contacto, reaccionan furiosamente a poco que el calor de estos planetas en formación sea un poco alto (y es bastante alto, porque la gravedad los comprime y al hacerlo aumenta la temperatura, aunque no tanto como dentro de las estrellas). Los motores del transbordador espacial, por ejemplo, consumen hidrógeno y oxígeno: así de energética es su reacción. Y el hidrógeno y el oxígeno, al combinarse (en el motor del transbordador espacial o en los planetas en formación), producen… H2O, agua. :-)

Lanzamiento del transbordador espacial Atlantis, visto desde cámaras en el exterior y a bordo. Los dos grandes impulsores laterales son de combustible sólido, pero los tres de la nave consumen hidrógeno y oxígeno para producir agua y energía. Al final, podemos acompañar a uno de los impulsores laterales hasta su caída al mar.

- 116 -


La Pizarra de Yuri 2

La atmósfera de Marte es demasiado tenue para retener el agua líquida en su superficie. Por ello, sólo queda en forma de hielo; el resto ha escapado al espacio exterior.

Si la gravedad del planeta es demasiado baja para retener una atmósfera con suficiente presión, o su temperatura es demasiado alta, o ambas cosas a la vez, este agua se evapora y termina por perderse en dirección al espacio exterior. Eso, por ejemplo, le pasó a Marte y probablemente también a Venus: en el segundo apenas queda agua (en forma de vapor) y en el primero, la que queda, está en forma de hielo. En la Tierra, que está dentro de lo que llamamos una zona de habitabilidad estelar, las condiciones son adecuadas para que el agua líquida se mantenga en su superficie. Por eso la vida en nuestro sistema solar surgió en la Tierra y no en cualquier otro lugar. :-) En resumen: el agua estaba aquí desde el principio, como parte de los materiales que formaron la Tierra durantre el surgimiento del sistema solar. Es posible que hubiera una aportación adicional en forma de cometas de hielo, que se forman en las regiones exteriores de los sistemas solares, pero la mayor parte del agua terrestre se formó junto al resto de la Tierra por el proceso indicado.

- 117 -


Antonio Cantó

Al principio no había mucha “agua libre” (como en los mares, océanos, ríos, lagos, vapor atmosférico, etc), sino que estaba “prisionera” con el resto de sustancias que formaron la Tierra. Con el paso de los millones de años, el agua fue “liberándose”, fundamentalmente por cinco vías distintas: •

• • •

Por enfriamiento progresivo de la Tierra primigenia, hasta el punto de que los componentes gaseosos (como el vapor de agua) quedaron retenidos en una atmósfera de presión suficiente para retener y estabilizar el agua líquida. Cuando la temperatura cayó lo bastante, comenzó a llover y el agua empezó a acumularse en las partes más profundas (océanos, mares…). Este fue el proceso de “liberación” de agua más importante. Por eso a mí me gusta decir que somos todos hijos e hijas de la lluvia. :-) Por fisiadsorción (¡vaya con la palabrita!), fijando moléculas de agua o combinando átomos de hidrógeno/oxígeno que estaban presentes en el disco de acreción del que se formó el planeta. Por fuga gradual del agua almacenada en los minerales hidratados de las rocas que forman la Tierra. Por fotólisis, donde la radiación solar es capaz de romper algunas moléculas presentes en la superficie terrestre y “dejar libre su agua”. Una vez surgida la vida, por procesos bioquímicos que liberan agua capturada del suelo, como la transpiración.

Y esta es la historia del surgimiento del agua en la Tierra. Y, de paso, de todo lo demás que conocemos. Es lo bonito de la ciencia: sus respuestas siempre dan lugar a nuevas y mejores preguntas, que terminan por explicar muchas cosas. En ciencia nunca aceptamos un “porque sí” o “porque no” o “porque es así”; somos curiosos y puñeteros. Como los niños. O no tan niños. ;-) Y en último término, añado, la más alta función de la ciencia es contestar mejor a las preguntas de los niños futuros.

- 118 -


La Pizarra de Yuri 2

Actualización 2: Estado de las centrales nucleares de Fukushima a las 19:00 (11:00 CET) del 16 de marzo de 2011 Yuri, el 16 de marzo de 2011 @ 14:32 · Categoría: Actualidad, Ciencia popular, Sociedad y civilización, Tecnología

Nota 3 sobre los accidentes nucleares de Fukushima. Ver también: Secuencia de acontecimientos en todas las centrales nucleares afectadas – Video aéreo de los daños en Fukushima I – Mediciones de radiación – Estado de los reactores afectados *** ATENCIÓN: Información caducada el 17/03/2011 *** >>> INFORMACIÓN ACTUALIZADA AQUÍ <<< Actualización 2 de la anterior: A las 19:00 hora de Japón (11:00 hora española) del 16 de marzo de 2011, según elForo Industrial Atómico de Japón (JAIF, traduciendo y ampliando sobre este documento), la situación en las centrales nucleares de Fukushima era la siguiente:

(Clic para ver mejor) Estado de la central nuclear Fukushima I a las 19:00 (local) del 16/03/2011. Información caducada el 17/03/2011. Fuente: JAIF, La Pizarra de Yuri.

- 119 -


Antonio Cantó

Estado de la central nuclear Fukushima II a las 19:00 (local) del 16/03/2011. Información caducada el 17/03/2011. Fuente: JAIF, La Pizarra de Yuri.

>>> PÁGINA DE DONATIVOS DE LA CRUZ ROJA ESPAÑOLA PULSANDO AQUÍ <<<

- 120 -


La Pizarra de Yuri 2

Actualización 1: Estado de las centrales nucleares de Fukushima a las 19:00 (11:00 CET) del 15 de marzo de 2011 Yuri, el 15 de marzo de 2011 @ 13:48 · Categoría: Actualidad, Ciencia popular, Sociedad y civilización, Tecnología

Nota 2 sobre los accidentes nucleares de Fukushima. Ver también: Secuencia de acontecimientos en todas las centrales nucleares afectadas – Video aéreo de los daños en Fukushima I – Mediciones de radiación – Estado de los reactores afectados *** ATENCIÓN: Información caducada el 16/03/2011 *** >>> INFORMACIÓN ACTUALIZADA AQUÍ <<< Actualización 1 de la anterior: A las 19:00 hora de Japón (11:00 hora española) del 15 de marzo de 2011, según elForo Industrial Atómico de Japón (JAIF), la situación en las centrales nucleares de Fukushima era la siguiente:

Estado de la central nuclear Fukushima I a las 19:00 (local) del 15/03/2011. Caducada el 16/03/2011. Fuente: JAIF. La Pizarra de Yuri.

- 121 -


Antonio Cant贸

Estado de la central nuclear Fukushima II a las 19:00 (local) del 15/03/2011. Caducada el 16/03/2011. Fuente: JAIF. La Pizarra de Yuri.

- 122 -


La Pizarra de Yuri 2

Estado de las centrales nucleares de Fukushima a las 20:30 (12:30 CET) del 14 de marzo de 2011 Yuri, el 14 de marzo de 2011 @ 15:42 · Categoría: Actualidad, Ciencia popular, Sociedad y civilización, Tecnología

Primera nota sobre los accidentes nucleares de Fukushima. Ver también: Secuencia de acontecimientos en todas las centrales nucleares afectadas – Video aéreo de los daños en Fukushima I – Mediciones de radiación – Estado de los reactores afectados A las 20:30 hora de Japón (12:30 hora española) del 14 de marzo de 2011, según el Foro Industrial Atómico de Japón(JAIF), la situación en las centrales nucleares de Fukushima era la siguiente: ***ATENCIÓN *** Esta información podría estar caducada. Actualización de las 01:45 CET del 15/03/2011 *** ***ATENCIÓN *** Esta información está caducada. Actualización de las 04:00 CET del 15/03/2011 *** >>> *** INFORMACIÓN ACTUALIZADA AQUÍ *** <<<

Estado de la central nuclear Fukushima I a las 20:30 (local) del 14/03/2011. Fuente: JAIF. La Pizarra de Yuri. Información caducada a las 04:00 CET del 15/03/2011 (Clic para ver mejor)

- 123 -


Antonio Cant贸

Estado de la central nuclear Fukushima II a las 20:30 (local) del 14/03/2011. Fuente: JAIF. La Pizarra de Yuri. Informaci贸n caducada a las 04:00 CET del 15/03/2011.

- 124 -


La Pizarra de Yuri 2

La computadora de Anticitera Yuri, el 5 de marzo de 2011 @ 12:30 · Categoría: Ciencia popular, Historia y cultura

Hace más de dos mil años, alguien creó un objeto absolutamente extraordinario. Pasarían catorce siglos de oscuridad hasta que volviera a verse algo parecido sobre la faz de la Tierra.

La costa frente a la que se produjo el naufragio de Anticitera hace unos 2.100 años, en la actualidad. Foto: Mellis (Clic para ampliar)

Agradecimiento: Escrito con la inestimable cooperación del Dr. Tony Freeth, secretario del Antikythera Mechanism Research Project. Donde se indique, las imágenes son propiedad del AMRP o de Images First. Thank you very much again, Dr. Freeth! Faltaban unas seis u ocho décadas para el año cero que no fue cuando un buque de tecnología romana y unas trescientas toneladas de desplazamiento se hizo a la mar en el Mediterráneo Oriental. No sabemos realmente quién era su armador, ni el puerto de donde partió, ni a dónde se dirigía, ni en qué fecha exacta lo hizo, ni quiénes navegaban en él. Pero se hundió en la posición 35° 53′ norte 23° 18′ este, a poca distancia de un cabo septentrional de la isla de Anticitera (o Antiquitera), entonces llamada Aigilia u Ogylos y hoy en día parte de la Grecia contemporánea. Esta isla, donde se encuentra el antiguo puerto de Pótamos Aigilii, era por aquel entonces un refugio de piratas a

- 125 -


Antonio Cantó

quienes hacía la guerra la Rodas aliada de Roma; quizá el mercante había sido capturado. Otra posibilidad es que simplemente, sobrecargado como iba, se hundiera de viejo: la madera de olmo con que fue construido ha sidodatada mediante radiocarbono entre el 177 y el 263 aC, o sea que el barco (o su maderamen, que se solía reutilizar) contaba al menos noventa años de antigüedad y puede que hasta dos siglos. O cualquier otra cosa. Han pasado dos mil y pico años; vete tú a saber qué viento se lo llevó.

Restos del naufragio de Anticitera: un fragmento del casco, construido en madera de olmo con tecnología romana, y diversos trozos de cerámica entre los que se distingue el cuello de un ánfora del siglo I a.C. Imagen obtenida a 52 m. de profundidad por miembros del Instituto Egeo, operando desde el barco Calypso del comandante Cousteau, en 1975. Foto: Aegean Institute (Clic para ampliar)

En octubre de 1900, casi veinte siglos después, un grupo de recolectores de esponjas al mando del capitán Dimitrios Kondos andaba faenando en el lugar mientras esperaban a que se disipara una fuerte tormenta que se interponía en su regreso a casa. Uno de los buceadores, Elías Stadiatos, regresó de su inmersión hablando despavorido sobre cuerpos de hombres y animales pudriéndose en el fondo. Pensando que Elías deliraba por sufrir borrachera de las profundidades, el capitán Kondos bajó a comprobarlo. Así hallaron el pecio, o lo que quedaba de él, a unos sesenta metros de profundidad. Contenía ánforas, estatuas de mármol y cobre, cerámica grecorromana y una diversidad de utensilios corrientes en los buques del último siglo antes de nuestra era. Basándose en los restos encontrados, incluyendo algunas monedas pergamensesdel 86 – 67 y efesias atribuidas al periodo 70 – 60, los arqueólogos concluyen que el naufragio tuvo que suceder entre el 85 y el 60 aC. Si fuera anterior, estas monedas no deberían estar presentes; si fuera posterior, habría objetos más tardíos con toda probabilidad.

- 126 -


La Pizarra de Yuri 2

Algunos historiadores creen que pudo tratarse de uno de los barcos que transportaban a Roma el botín obtenido porSila durante la Primera Guerra Mitridática; al parecer hay un texto de Luciano de Samosata, dos siglos y medio posterior, que menciona la pérdida de uno de estos navíos. Obviamente, esto no pasa de ser un tiro lejano. No es sólo el tiempo transcurrido entre el suceso y el comentario de Luciano: es que el Mediterráneo Oriental es uno de los primeros mares de la civilización y el paso entre Citera, Anticitera y Creta ha sido surcado por incontables navíos desde tiempos muy antiguos. Antes de que llegaran las tecnologías de navegación modernas, muchos de ellos naufragaban por mil motivos diferentes; aún sigue ocurriendo de vez en cuando, aunque muchísimo menos. Pero durante milenios, las costas mediterráneas han estado plagadas de viudas espectrales mirando eternamente al mar, a la espera de sus incontables esposos e hijos perdidos que no volvieron jamás. El extraño cargamento.

Mapa clásico del naufragio de Anticitera, sucedido alrededor del 85 - 60 aC en los pasos entre el mar Crético y el Jónico. Se encuentra en el corazón de las rutas marítimas entre el mundo griego y el romano, muy frecuentadas entonces y ahora. Se supone que el buque, viejo y sobrecargado, podría haber estado haciendo el recorrido de Atenas o Pérgamo a Roma; en realidad, no se sabe a ciencia cierta. (Clic para ampliar)

- 127 -


Antonio Cantó

La carga del barco hundido estaba fundamentalmente compuesta por copias de estatuas y otras que parecen ser más originales, entre las que se encuentra la cabeza del filósofo, la representación de un niño, el efebo de Anticitera, un lanzador de disco, un Hércules, un toro de mármol y una lira de bronce. Eran artículos probablemente valiosos (también) en su tiempo, por lo que muchos piensan que se trataba de una especie de barco del tesoro; choca entonces que eligieran un navío tan viejuno para el transporte. Otros sugieren que podía tratarse de una carga comercial relativamente corriente en un periodo de gran esplendor, desplazada en uno más de los barcos que surcaban aquellos mares, aunque la carga parece más importante que eso. E incluso un buque capturado por los piratas donde se hubiese reunido el botín obtenido en varios navíos. De nuevo, todo es posible, o cualquier otra cosa; simplemente hace demasiado tiempo y la memoria se ha perdido. Sin embargo, entre los restos sumergidos se encontró también algo distinto. Algo francamente extraño. Estaba tan deteriorado por tanto tiempo bajo el mar que al principio no hizo más que levantar alguna ceja, empezando por la de su descubridor, el arqueólogo Valerios Stais (1902). Lo que Valerios recuperó del fondo, murmurando aquello de “¡qué curioso…!”, era una especie de mecanismo construido en bronce y compuesto por treinta engranajes. El bronce fue el primer gran metal de la civilización, una aleación de cobre con estaño menos dura pero también menos quebradiza que el hierro; al quedar expuesto a la intemperie sólo se oxida en una capa de su superficie y así es capaz de resistir la corrosión (incluyendo la marina) incluso mejor que los aceros sencillos. Si hubiera sido fabricado con hierro, se habría desvanecido en las sombras del Mediterráneo y de la historia mucho tiempo atrás.

Esquema de Al-Biruni para un calendario lunisolar de ocho engranajes (996 dC). El mecanismo de Antiquitera, casi once siglos antes, presenta treinta, contaba con al menos 35 y puede que hasta 72. Imagen: Wikimedia Commons.

Durante las siguientes décadas, se recuperaron un total de ochenta y tres fragmentos correspondientes a este objeto (82 según otras fuentes). Cabe dividirlos en una pieza

- 128 -


La Pizarra de Yuri 2

central o mecanismo principal, cinco o seis secundarias y el resto terciarias, muchas de ellas poco más que esquirlas. Si quisieras verlo en persona, se conserva actualmente en la Colección del Bronce del Museo Arqueológico Nacional de Atenas. El conjunto mide treinta centímetros de alto, quince de largo y siete y medio de profundidad. Estaba dispuesto originalmente en una caja de madera de unos 34 x 18 x 9 cm, con puertas o tapas delanteras y traseras, así como inscripciones cubriendo la mayor parte del mecanismo. La caja y los paneles anterior y posterior quedaron aplastados por los restos del naufragio que tenían encima, y probablemente el mecanismo en sí se rompió también por este motivo, pero las inserciones calcáreas protegieron los restos durante todo este tiempo. La pieza que suele concentrar todo el interés, lógicamente, es el mecanismo principal que conserva veintisiete de los treinta engranajes; pero todas resultan esenciales para comprenderlo. De manera muy notable, en algunas de las secundarias se hallan inscritos unos tres mil caracteres griegos habitualmente denominados el manual de instrucciones; se estima que en el objeto completo había de diez a veinte mil. En otros fragmentos se observan finísimas marcaciones angulares milimétricas correspondientes a alguna clase de instrumento geométrico. Y todas ellas son testigos enigmáticos de un instante asombroso de la Antigüedad en el quealguien fue capaz de crear una sofisticada máquina cuyo grado de complejidad y perfección mecánica no surgiría otra vez hasta el siglo XIV europeo, mil cuatrocientos puñeteros años después. Su grado de miniaturización es aún más asombroso: pocas veces se vuelve a ver hasta la Edad Moderna. Observa esta belleza y recuerda que estamos hablando de un objeto anterior a nuestra era:

- 129 -


Antonio Cantó

Microescalas angulares múltiples en el fragmento C, vista frontal del mecanismo de Anticitera, tal como se encuentra expuesto en el Museo Arqueológico Nacional de Atenas. Imagen: Wikimedia Commons.

Así, no es extraño –y hasta se me antoja disculpable, aunque sólo sea por una vez– que los magufillos le añadan su dosis habitual de exageraciones y lo consideren un oopart creado por extraterrestres o atlantes o viajeros en el tiempo o cosas así. Nosotros, en cambio, intentaremos una aproximación más científica e histórica: no es preciso irse al mundillo de los enigmas a saldo para valorar en su justa medida un objeto verdaderamente enigmático, verdaderamente asombroso y verdaderamente extraordinario como el mecanismo de Anticitera. En la opinión de este que te escribe, nos encontramos ante el objeto más portentoso de la Antigüedad, una manifestación suprema del conocimiento perdido con la destrucción de las grandes bibliotecas del pasado. Como, por ejemplo, la Biblioteca de Alejandría.

Mecanismo de Anticitera, fragmento A (mecanismo principal), vista frontal, tal como se encuentra expuesto en el Museo Arqueológico Nacional de Atenas. Imagen:. Wikimedia Commons. (Clic para ampliar)

La verdad es que visto así y después de tirarse dos mil años bajo el agua, no parece gran cosa. Es raro, ¿verdad? Ahora, vamos a hacerle una radiografía para empezar a comprender lo que se oculta en su interior:

- 130 -


La Pizarra de Yuri 2

Radiografía del fragmento A del mecanismo de Anticitera. © 2005 Antikythera Mechanism Research Project. (Clic para ampliar)

O mejor aún, un escáner de rayos X:

- 131 -


Antonio Cantó

Cuatro "cortes" o "lonchas" del interior del mecanismo de Anticitera (fragmento A) obtenidos mediante tomografía computerizada de rayos X para el AMRP. © 2005 Antikythera Mechanism Research Project. (Clic para ampliar)

Sí. Es lo que parece: un complejo mecanismo de relojería, creado 1.200 años antes de que se desarrollaran losprimeros relojes puramente mecánicos en Al-Ándalus. Sólo hay un pequeño problema: el mecanismo de Anticitera es mucho, muchísimo más que un simple reloj. Vamos allá. El objeto. Aunque el mecanismo de Anticitera conserva treinta de sus engranajes (27 en el mecanismo principal del fragmento A y tres en los fragmentos B, C y D), los especialistas coinciden en que para tener sentido mecánico debía contar al menos treinta - 132 -


La Pizarra de Yuri 2

y cuatro y posiblemente treinta y cinco; los últimos cuatro o cinco se habrían perdido a consecuencia del naufragio y el tiempo. Algunos autores elevan la cifra, proponiendo mecanismos más complejos aún, hasta un máximo de setenta y dos. Están dispuestos en trenes compuestos; durante un tiempo se pensó incluso que podía contenerengranajes diferenciales (como en los analizadores diferenciales) para calcular las fases de la luna, aunque parece que esta hipótesis ha sido descartada por innecesaria y actualmente se considera incorrecta. Todos los dientes de los engranajes son triángulos equiláteros.

Estructura del mecanismo de Anticitera en vista lateral (sección). Las partes indicadas en color rojo no se han encontrado y son por tanto hipotéticas. © 2008 Tony Freeth, Images First Ltd; traducción de La Pizarra de Yuri.

- 133 -


Antonio Cant贸

Reconstrucci贸n por ordenador, en vista anterior y posterior, del mecanismo de Anticitera.漏 2008 Tony Freeth, Images First Ltd. (Clic para ampliar)

- 134 -


La Pizarra de Yuri 2

Reconstrucci贸n por ordenador, en vista anterior y posterior, del mecanismo de Anticitera completo en su caja, sin las puertas que lo cerraban y s贸lo con los textos recuperados.漏 2008 Tony Freeth, Images First Ltd. (Clic para ampliar)

- 135 -


Antonio Cantó

Esquema general del mecanismo de Anticitera en vista superior. © 2008 Tony Freeth, Images First Ltd. (Clic para ampliar)

El propósito primario del mecanismo era mostrar diversos datos de índole astronómica en una serie de diales circulares o esferas (en el sentido relojero) situadas en la cara frontal y posterior, referidos a una fecha. Esta fecha se indicaba haciendo girar una manivela lateral, hoy perdida; la pieza con el orificio para introducirla se conserva. Había una esfera principal en la parte delantera y dos en la trasera, con otras más pequeñas en su interior. La esfera frontal presenta dos escalas concéntricas. La exterior está indicada con los 365 días del calendario egipcio, basado en el ciclo sótico, que podía moverse para compensar el día bisiesto cada cuatro años. Cabe reseñar que el primer calendario grecorromano con años bisiestos, el juliano, no se instituyó hasta el 46 aC (aunque hubo un intento previo en Egipto, con elDecreto de Canopus, en el 238 aC; pero no tuvo éxito). El mecanismo de Anticitera precedería, pues, a este adelanto en varias décadas y puede que hasta un siglo.

- 136 -


La Pizarra de Yuri 2

Dentro de esta primera escala en la esfera frontal, hay otra marcada con los signos griegos del zodíaco clásicoy dividida en grados. En esta esfera frontal había al menos tres agujas, una para indicar la fecha seleccionada y otra para indicar la posición del Sol y la Luna respecto a los signos zodiacales helénicos. El indicador lunar está compensado para reflejar las irregularidades conocidas de la órbita de nuestro satélite; se supone que el solar tendría algún sistema parecido, pero si existió, ha desaparecido. En esta misma esfera frontal hay un indicador más para mostrar las fases de la Luna. En las inscripciones en griego se hallan varias referencias sobre Venus y Marte, lo que ha conducido a algunos autores a afirmar que el mecanismo contendría una sección adicional –hoy perdida– para indicar la posición de estos astros e incluso de todos los cinco planetas que conocían los griegos mediante trenes sucesivos hasta un total de 72 engranajes. Conservarse, sólo se conserva un engranaje adicional de utilidad desconocida, desconectado de los demás; por ello, cabe considerar especulativa esta posibilidad. La esfera frontal contiene también un parapegma, precursor de los almanaques modernos, que indicaba la salida y el ocultamiento de varias estrellas específicas indicadas mediante iniciales en griego. Parece haber referencias cruzadas a este respecto en las inscripciones grabadas por toda la máquina. Por la cara posterior tenía dos esferas en vez de una, llamadas “alta” y “baja”. La alta tiene forma de espiral, con 47 marcas en cada vuelta hasta totalizar los 235 meses del ciclo metónico. El ciclo metónico de 6.940 días, que se estudió en Babilonia y constituye la base del posterior calendario hebreo, es una aproximación bastante exacta al múltiplo común de los ciclos del sol y de la luna: equivale más o menos a 19 años tropicales y 235 meses sinódicos a la vez. Metón el Ateniense observó este fenómeno ya en el siglo V aC –de ahí su nombre– e incluso describió una fórmula correcta para corregir la pequeña diferencia entre ambos, con lo que el mecanismo de Anticitera permite esta corrección. Sobre esta base, se pueden crear y ajustar calendarios lunisolares con gran facilidad. Dicho de otra manera: en un tiempo en que la mayoría del mundo aún estaba prácticamente en el Neolítico, con un mecanismo de Anticitera tú podías llegar a cualquier sitio y levantar un calendario en cuestión de horas.

- 137 -


Antonio Cantó

Trenes de cálculo lunar de la máquina de Anticitera, vista posterior. Imagen base: © 2008 Tony Freeth, Images First Ltd (Clic para ampliar)

La esfera posterior baja está también dispuesta en forma espiral, con 223 divisiones para mostrar los meses del ciclo de Saros, originado en la cultura caldea. El ciclo de Saros es excepcionalmente interesante, pues equivale al tiempo transcurrido entre dos momentos en que el Sol y la Luna se encuentran en parecida posición con respecto a la Tierra, y por tanto entre ocurrencias del mismo eclipse. En combinación con el metónico, permite predecir los eclipses con bastante exactitud. Esta esfera posterior baja contiene además una aguja más pequeña que indica el exeligmos o triple Saros de 54 años, para corregir las imprecisiones del ciclo de Saros, dado que éste no es un número entero exacto sino que consta de 6.585 días y un tercio. Recientemente (2008), se ha descubierto también una esfera menor adicional que parece corresponder al ciclo calípico de 76 años, dividida en cuatro secciones con los nombres de los cuatro juegos panhelénicos (incluida la Olimpiada) más otros dos de menor importancia; uno de ellos permanece sin descifrar. Así, el mecanismo de Anticitera resulta ser un pasmoso computador analógico, un autómata de la Antigüedad, que suma y aplica los conocimientos de toda la media luna donde se originó la civilización occidental (Grecia, Egipto, Levante, Mesopotamia). Esa es la clase de conocimiento desaparecido que se encontraba en

- 138 -


La Pizarra de Yuri 2

lugares como la Biblioteca de Alejandría. Quien llevara consigo un mecanismo de Anticitera, estaba perfectamente ubicado en el tiempo con respecto al Sol, la Luna y las estrellas. Podía predecir las épocas de siembra y cosecha, los eclipses, las estaciones, practicar las formas de adivinación antigua (sí, lo que quieras, pero en aquella época era muy importante), todo. El mecanismo de Anticitera es un instrumento protocientífico avanzado, la herramienta perfecta para un astrólogo, un astrónomo, un astrofísico de la Antigüedad, como no volvió a ser posible hasta milenio y medio después. Con ese nivel de miniaturización, más aún. Y es único en el mundo: no se conoce ninguno más ni nada siquiera parecido. Ciertamente, no resulta nada raro que algunos lo consideren uno de esos oopart. El contexto. Pero el mecanismo de Anticitera no es un oopart, por dos motivos. Primero, porque nadie ha encontrado jamás un oopart verdadero (¡ojalá!), y este no es una excepción. El segundo, y más importante, porque cuadra con la ciencia y la tecnología de más alto nivel disponible en el periodo, y además existen escritos de aquella época que se refieren a esta clase de aparatos. Por ejemplo, el contemporáneo Cicerón (106 – 43 aC) habla en su De re publica sobre dos dispositivos creados por por Arquímedes (287 – 212 aC) que parecen alguna especie de planetario de mesa por engranajes capaz de representar posiciones astronómicas y realizar predicciones en base a las mismas. Las máquinas de Ctesibio de Alejandría (285-222 aC) o Filón de Bizancio (280-220 aC) que culminarían en tiempos de Herón de Alejandría (10-70 dC) nos evocan una memoria casi perdida de objetos alimentados por medios mecánicos, neumáticos, hidráulicos e incluso a vapor; sistemas de cálculo analógico basados en el recuento de pasos de engranajes simples y compuestos; y toda una serie de autómatas elementales, entre muchas cosas más.

- 139 -


Antonio Cantó

El indicador calípico de fechas para las festividades deportivas, entre ellas las Olimpiadas, identificado en el mecanismo de Anticitera por tomografía de rayos X. Imagen: © 2005 Antikythera Mechanism Research Project. (Clic para ampliar)

- 140 -


La Pizarra de Yuri 2

Reconstrucción de las inscripciones en el mecanismo de Anticitera, a partir de las imágenes obtenidas por tomografía de rayos X. Imagen: © 2005 Antikythera Mechanism Research Project. (Clic para ampliar)

Hizo falta un avanzado nivel teórico para concebir una máquina así. Pero también estaba disponible por aquel entonces, si bien vendría a equivaler al nivel de la física teórica que se encuentra hoy en día detrás de instrumentos como el LHC. Las partes más difíciles y complejas son el ciclo metónico y el calípico que eran bien conocidos en el periodo e incluso antes, procedentes de las culturas mesopotámicas. Se desarrollaron tras los tiempos de Hiparco de Nicea, más de un siglo tras Eratóstenes de Cirene o Aristarco de Samos; y mucho después que Pitágoras y Eudoxo de Cnidos. A principios del siglo I aC, las culturas del Mediterráneo Oriental y la helénica en particular sabían del movimiento cíclico de los astros, incluyendo la precesión de los equinoccios; conocían que era posible calcularlo matemáticamente; y eran capaces de construir mecanismos para hacerlo. Así pues, el mecanismo de Anticitera está contextualizado en su periodo histórico y no contiene nada ni está sustentado en nada que no supieran los griegos antiguos. Por tanto, no estamos ante el habitual misterio barato de pacotilla, sino ante un instrumento científico de muy alta tecnología y extrema precisión, el equivalente clásico a una nave

- 141 -


Antonio Cantó

de espacio profundo en un tiempo donde tales preocupaciones eran aún más raras que en la actualidad. De hecho, por el momento no se ha encontrado ninguno más. Existen indicios muy fuertes para pensar que hubo más, aunque sólo sea porque su grado de desarrollo y acabado hace muy difícil pensar que se tratara del primer intento de construir un dispositivo así. Pero, muy lamentablemente, estos otros objetos se han disuelto en el tiempo. Los tristes restos del mecanismo de Anticitera parecen ser el superviviente único de un tiempo perdido, cuya singularidad va a la par con su sofisticación y extrañeza. Alguien, viéndolo, podría decir: “¡pero si es sólo como un reloj viejo!”. Y sí, pero es algo muy parecido a un reloj mecánico moderno creado un milenio y medio antes de que aprendiéramos a hacer relojes mecánicos modernos. Ni el astrolabio mecánico de Al Biruni (aprox. 1000 dC), ni el reloj automático programable de Al Jazarí (también inventor del cigüeñal, aprox. 1200 dC), ni el reloj medieval de Wallingfordfueron tan complejos y ni remotamente tan compactos. Hay que irse al reloj de De’Dondi (siglo XIV dC) para encontrar mecanismos tan complejos y prácticamente a la Edad Modernapara que sean al mismo tan pequeños y compactos. Es casi como si detectáramos ahora mismo, en una órbita alrededor del Sol, una nave espacial lanzada por los sinosudistas o alguien así el año en que nació Mahoma. La interpretación. La interpretación práctica del mecanismo de Anticitera es extrema, extrema, extremadamente difícil porque, para empezar, ni sabemos de dónde salió, ni quién lo utilizaba, y no existe ninguna otra pieza ni remotamente parecida en el mundo entero para comparar. El hecho de haberlo hallado en un naufragio, perdido en tránsito, complica aún más las cosas porque no permite conocer el lugar en que se usaba habitualmente; a menos que se empleara como parte del equipo de navegación de a bordo (cosa poco probable: difícilmente un marino de su tiempo le habría hallado alguna utilidad inmediata) o fuera transportado por un pasajero en alguna clase de viaje de investigación (ve y pregunta a qué se dedicaban los ocupantes de un oscuro navío hundido dos mil cien años atrás…). El llamado manual de instrucciones, grabado por todas partes en griego con pintas de koiné, no acaba de aportar luz al respecto. No es un verdadero manual de instrucciones en el sentido actual del término, sino más bien unos apéndices de referencia, dando por sentado que el usuario sabe para qué sirve la máquina y cómo utilizarla. Tiene toda la lógica: este objeto sólo tiene sentido en manos de un científico que lo entendiera o, como rareza, en el tesoro de un rey. El idioma en el que está escrito,

- 142 -


La Pizarra de Yuri 2

más allá de vincularlo genéricamente a la cultura helénica, tampoco proporciona ningún dato en particular: el griego koiné era el “inglés” de su tiempo, una lingua franca de uso en todo el Mediterráneo, que aparece en objetos tan dispares como la piedra de Rosetta (Egipto, 196 aC) o el Nuevo Testamento (Asia Menor, aprox. 125 – 250 dC). En todo caso, sin duda, se trata de un instumento científico-técnico portátil para la realización de cálculos astronómicos o astrofísicos elementales desarrollado en el contexto de la civilización grecorromana oriental en torno a principios del siglo I aC. Es un autómata, seguramente no-programable de ninguna manera práctica, construido en bronce y madera, con sistemas de cálculo, representación y alimentación basados en la ingeniería mecánica. Incluye tablas de operación y referencia. Entendido como máquina calculadora o computadora, estamos ante un ordenador analógico de la Antigüedad, creado a partir de los conocimientos teóricos más avanzados disponibles en el periodo. Desde las profundidades del tiempo y el mar, silencioso en sus expositores del Museo Arqueológico Nacional de Atenas, el mecanismo de Anticitera aún guarda muchos misterios de los de verdad y un mensaje inquietante para nosotros. Contiene una advertencia. Nos dice que el progreso no está garantizado. Nos recuerda que las sociedades pueden retroceder, como sucedió: mil años largos, oiga, hasta que alguien volviera a hacer algo parecido. Las sociedades que dejan de aspirar a la libertad de pensamiento, que renuncian al avance de la ciencia, de las artes y de las ideas, que se acomodan o refugian en sus valores tradicionales (que a menudo no lo son tanto) y en los cantos de sirena de la superstición… se estancan, retroceden y retrocederán. Entre el mecanismo de Anticitera y el reloj de De’Dondi, su inmediato sucesor, hubo 1.400 años de tinieblas. Si el modelo de civilización que creó esta computadora de la Antigüedad hubiera podido seguir adelante, ¿por dónde andaríamos hoy, ya? PD: Se había comentado que la palabra “ISPANIA” aparecía en el mecanismo de Anticitera. El Dr. Freeth, del Antikythera Mechanism Research Project, me confirma que se trató de un error de interpretación y este nombre no se halla en el dispositivo. –

- 143 -


Antonio Cantó

El Gran Morir Yuri, el 5 de enero de 2011 @ 20:44 · Categoría: Ciencia popular

En comparación, lo de los dinosaurios no pasó de broma pesada. Hace 251,4 millones de años, algo mató al 96% de las especies marinas, al 70% de los vertebrados terrestres y a una inmensa cantidad de insectos y plantas. Fue el Gran Morir, y aún no tenemos claro por qué.

Impresión artística, científicamente rigurosa, de la vida a orillas de un río del Pérmico medio. Casi todo esto y muchas cosas más desaparecieron con el Gran Morir. (Clic para ampliar)

Si los gorgonópsidos hubieran tenido noticieros como los nuestros, seguramente habrían puesto la noticia al final, justo antes de los deportes. O a lo mejor ni siquiera eso. Los volcanes son muy espectaculares y quedan guapos en la tele, pero esto comenzó más bien como una suave erupción de lavaen la costa nororiental de Pangea. Ellos no tenían ninguna manera de saberlo, y sin embargo estaban ante el inicio de las temibles escaleras siberianas, el principio del acto final en el mayor proceso de extinción que se ha visto en el planeta Tierra jamás y que acabaría con ellos también. Los humanos, que no aparecimos por aquí hasta doscientos cincuenta millones de años después, la llamamos la extinción supermasiva del Pérmico-Triásico (P-Tr). Más brevemente, la Gran Mortandad.

- 144 -


La Pizarra de Yuri 2

O el Gran Morir. Porque eso fue exactamente lo que pasó: muerte a una escala planetaria, sobrecogedora, general. Si mañana hiciéramos estallar a mala baba todo lo queguardamos en nuestros arsenales más devastadores y sofisticados, no provocaríamos (en principio) nada ni parecido;nos vendría justito para extinguirnos a nosotros mismos, algono muy meritorio, y relativamente poco más. Puede que elinvierno nuclear subsiguiente llegara a producir una pequeña extinción. En cambio, el Gran Morir aniquiló al 96% de las especies marinas, al 70% de los vertebrados terrestres y a tantas plantas e insectos que aún andamos contándolos, entre otras cosas porque apenas quedó rastro de todos ellos. Y matar a tanto insecto sí que tiene mérito: son los seres pluricelulares más resistentes que hay. Acabó con seres tan ubicuos y resistentes como los trilobites, que llevaban aquí 270 millones de años y ocupaban prácticamente todos los nichos ecológicos marinos. Al menos una tercera parte de los insectos desaparecieron, especialmente aquellos tan grandes típicos del periodo anterior. No hubo más escorpiones marinos, que dominaban el océano. Los blastozoos se fueron también. Los helechos con semilla se extinguieron y a las gimnospermas les costó una buena temporada reaparecer. No se generó carbón durante el periodo, a diferencia de lo ocurrido característicamente en el Carbonífero precedente, lo que invita a pensar que la práctica totalidad de las plantas turberas cayeron. Hasta el 60% de todas las especies vivas dejaron de existir. Puso un gigantesco punto y aparte a la historia de la vida en el planeta Tierra, al menos por encima del nivel de las bacterias y archaeas; tanto es así, que consideramos que el Paleozoico con toda su vida primitiva termina ahí. La recuperación fue muy lenta: más de treinta millones de años. Verdaderamente, la extinción supermasiva del Pérmico-Triásico fue el Gran Morir. Y, como suele ocurrir con la muerte, también el principio del Gran Vivir que permitió el surgimiento de las formas de vida avanzadas. Eso nos incluye, claro, a ti y a mí: una extinción nos abrió el camino y otra nos lo cerrará, a menos que aprendamos a impedirlo alguna vez. Del Pérmico. El Pérmico recibe su nombre por la ciudad de Perm, situada en Rusia a caballo entre Europa y Asia, alrededor de la que se encuentran una gran cantidad de fósiles de aquellos tiempos (sobre todo en los Montes Urales). Fue un periodo geológico con una duración de casi cincuenta millones de años (comenzó aproximadamente hace 299 millones de años y terminó hace unos 250, precisamente con esta extinción) en el que ocurrieron un montón de cosas interesantes, como la evolución claramente diferenciada

- 145 -


Antonio Cantó

de los saurópsidos –que darían lugar a los reptiles, incluyendo a los dinosaurios y luego a las aves– y los sinápsidos –donde se originaron los mamíferos, o sea,nosotros–. En tiempos pérmicos, la deriva continental estaba empujando a todos los continentes contra sí mismos hasta constituir uno solo: un supercontinente gigantesco donde se concentrarían casi todas las tierras emergidas del planeta Tierra, al que llamamos Pangea. Este supercontinente estaba –lógicamente– rodeado por un superocéano aún mayor, que bautizamos como Panthalassa. Para cuando sucedió el Gran Morir, una región insular separatista a la que llamamosCimmeria había comenzado a desprenderse, desarrollando el Océano Paleo-Tetis; mientras que, al norte, Siberiaterminaba de formar la Pangea una y grande precipitándose hacia el sur. El clima pérmico varió significativamente a lo largo de tanto millón de años, desde las glaciaciones del Carbonífero final, que había provocado el colapso de la pluviselva tropical, hasta la dislocación térmica masiva que coincidió con la gran extinción. Pero la presencia de un supercontinente tan grande como Pangea hizo que se mantuvieran algunas tendencias a lo largo de todo el periodo. Por ejemplo, el clima del interior de Pangea tendía a ser supercontinental, con veranos muy calurosos, inviernos gélidos y pocas precipitaciones, lo que daba lugar a un entorno muy seco. Esto estaba matizado por fortísimos monzones, con lluvias muy intensas pero muy estacionales, más importantes cerca de las costas. Con gran probabilidad, los vientos debían ser bastante más fuertes que en la actualidad, debido a las elevadas diferencias térmicas entre el interior de Pangea y las costas y mares de Panthalassa.

Estratos de arenisca del límite Pérmico-Triásico fotografiados en Runcorn Hill, Reino Unido. (Nueva ventana o pestaña para ampliar)

- 146 -


La Pizarra de Yuri 2

La presencia de oxígeno atmosférico, que había llegado al 35% a finales del Carbonífero, descendió durante todo el Pérmico y cuando ocurrió el Gran Morir era del 16%, un poco menor que la actual (20%); seguiría descendiendo hasta bien entrado el Triásico, llegando a caer hasta el 12%. Se sospecha seriamente que esta variación del oxígeno atmosférico está estrechamente relacionada con los complejos fenómenos planetarios que condujeron a la catástrofe, y que bien podían haberse puesto en marcha mucho tiempo atrás. Un paisaje típico de Pangea a finales del Pérmico podría estar constituido por un bosque de coníferas, helechos con semillas y gimnospermas donde revoloteasen grandes blatópteros, libélulas o caballitos del diablo, sin mariposas ni aves. Tampoco había flores aún. Por entre el follaje medrarían seres como los gorgonópsidos, los dicinodontes o los primeros arcosauriformes que antecedieron a los dinosaurios. Al fondo, algunos de los grandes pareiasauriosherbívoros. Seguramente a esas alturas ya no quedaban dimetrodontes, pero sí batracosaurios y temnospónlidos. Debido al bajo nivel de oxígeno, respirar nos resultaría tan difícil como en lo alto de una gran montaña de hoy en día o cosa parecida; por lo demás, no hay ninguna razón por la que no pudiéramos sobrevivir en el lugar. Seguramente las bacterias y virus de aquel tiempo no nos afectarían, dado que no habrían tenido ocasión de co-evolucionar con nosotros. En cambio, sería de lo más razonable evitar a cualquier cosa capaz de tirar bocados, que no eran pocas. Así era nuestra Tierra vieja cuando lentamente comenzó la catástrofe ecológica más grande de todos los tiempos. Al parecer hubo varios pulsos de extinción consecutivos a lo largo de los veinte millones de años anteriores que habrían dejado a la vida en un estado convaleciente relativamente frágil. Pero el Gran Morir se concentró sobre todo en el último, de aproximadamente un millón de años de duración o puede que incluso menos. De hecho, muchos animales pudieron desaparecer en apenas 10.000 – 60.000 años, con la mortandad disparándose masivamente a partir de un determinado instante radiodatado hace 251.400.000 años, teniendo en cuenta un margen de error de treinta milenios arriba o abajo. A las plantas les costó un poco más, unos pocos cientos de miles de años. Y parece que hubo variossub-pulsos, separados 730.000 y 1.220.000 años entre sí. Pero todo apunta a que se trató de un evento súbito, una gran catástrofe repentina en términos geológicos. Y no hay muchas cosas que le puedan hacer semejante mal, tan deprisa, a algo tan feraz, tan absurdamente resistente como la vida.

Mapamundi de la deriva continental terrestre a lo largo de 800 millones de años (650 conocidos del pasado y 150 proyectados hacia el futuro).

- 147 -


Antonio Cantó

La escalera siberiana.

Las escaleras siberianas en la actualidad. Foto: Mikhail Maksimov (Clic para ampliar)

Las hipótesis sobre las causas del Gran Morir son muchas y variadas, pero para ser admisibles, deberían explicar algunos de los fenómenos observados durante este proceso. Y en el Gran Morir se produjeron varios fenómenos muy singulares, que ninguna de ellas explica hoy por hoy en su totalidad. El primero de estos fenómenos observados en los estratos geológicos del periodo es una notabilísima alteración de las proporciones globales entre los isótopos carbono12 y carbono-13 (fuente 1, fuente 2, fuente 3). En algún caso, el descenso de carbono-13 con respecto al carbono-12 llega al 42 ‰. ¿Y esto qué significa? Bueno, resulta que como ocurre con todos los átomos, se presentan en la naturaleza con una determinada proporción entre sus distintos isótopos. El carbono-12 constituye el 98,93% del carbono presente en el medio ambiente terrestre, mientras que el carbono-13 representa el 1,07%. Sin embargo, los seres vivos tienden a fijar una proporción menor del isótopo 13, y cada ser vivo lo hace además en unas cantidades determinadas; estas variaciones constituyen la llamada firma isotópica. Pero también, de manera muy característica, la presencia masiva de este carbono extremadamente bajo en isótopo 13 resulta típica en las grandes erupciones volcánicas y ciertos depósitos de gases subterráneos con origen orgánico. Extraer una conclusión directa de esta variación de las proporciones entre el carbono-13 y el carbono-12 sería muy aventurado, pero hay algo que indica con claridad: el ciclo

- 148 -


La Pizarra de Yuri 2

del carbono terrestre quedó brutalmente alterado durante la extinción supermasiva del Pérmico-Triásico. Estas alteraciones del carbono-13 se puede medir en los estratos geológicos correspondientes a todas las extinciones, pero en el caso del Gran Morir resulta espectacular: es del 2,5 – 10 ‰ a nivel global y en algunos puntos llega hasta el 42 ‰. Entonces, inevitablemente, todo el mundo mira en la dirección de otro fenómeno monumental sucedido exactamente en ese mismo momento. Hace 251 millones de años comenzaba una de las mayores erupciones volcánicas de la historia terrestre, en las orillas del continente ancestral que ahora forma parte de lo que llamamos Siberia. Como apunté al principio, no se trató de una gran explosión, sino de la efusión rápida de grandes cantidades de lava caliente y poco viscosa a lo largo del siguiente millón de años. Por las formas características que forma la lava al solidificarse en estos casos, que recuerdan a una escalera, se denominan con la palabra sueca trapp (que significa eso mismo). Y por eso a esta enorme erupción se la conoce en todo el mundo como siberian trapps (en ruso original: Сибирские траппы), que a veces se ve (erróneamente) traducido al castellano como trampas siberianas pero en realidad quiere decir escaleras siberianas.

Extensión de las escaleras siberianas en un mapa actual. (Nueva ventana o pestaña para ampliar)

Las escaleras siberianas son una de las dos erupciones más grandes ocurridas en aguas poco profundas o en la superficie terrestre de las que queda alguna pista (las hubo mayores, pero ocurrieron en el fondo oceánico, lo que matiza sus efectos). Se estima que proyectó entre uno y cuatro millones de kilómetros cúbicos de lava basáltica, cubriendo unos siete millones de kilómetros cuadrados de terreno, más una cantidad aún indeterminada pero extraordinariamente grande de gases de efecto invernadero entre los que se encontraba el CO 2. Para hacernos una idea, la erupción explosiva conocida más

- 149 -


Antonio Cantó

potente de todas las épocas (Guarapuava – Tamarana – Sarusas, durante las escaleras de Paraná y Etendeka, hace unos 130 millones de años) proyectó al exterior unos 8.600 km3 de material. Es decir: entre cien y cuatrocientas cincuenta veces menos. Digámoslo: es imposible pensar en una gran extinción, con un descenso acusado del carbono-13, y no pensar instantáneamente en una de las mayores erupciones de la historia de la Tierra que sucedía en ese mismo momento exacto. Sin embargo, tenemos un problema, y es que ni siquiera esa inmensa erupción basta para explicar una caída tan grande en el isótopo carbono-13, por varios órdenes de magnitud. Casi con total seguridad, ambos fenómenos tienen que estar relacionados de algún modo. Sería una casualidad extraordinaria, absurda, si la mayor extinción de la historia de la Tierra coincide exactamente en el tiempo con una de las mayores erupciones volcánicas conocidas y ambos hechos no tuvieran vínculo alguno. Pero no es suficiente. Hace falta algo más, algo mucho mayor para explicar lo que ocurrió. Avalancha de eventos a nivel de extinción.

Extinciones durante los últimos 542 millones de años, representadas como el porcentaje de géneros de un determinado periodo que no se encuentra en el registro geológico del siguiente. Puede observarse cómo el Gran Morir (P-Tr) destaca nítidamente sobre todas las demás.

Otra de las ideas que vienen inmediatamente a la cabeza, sobre todo desde que sabemos que a los dinosaurios se los cargó un meteorito, es que el Gran Morir fuera causado por otro de estos objetos que caen de los cielos. El problema es que no hay ningún indicio claro al respecto, y de manera muy específica no hay una capa de material de origen extraterrestre (como el iridio presente en el de los dinosaurios) en el estrato de la

- 150 -


La Pizarra de Yuri 2

extinción supermasiva del Pérmico-Triásico. En ausencia de esta clase de evidencia, la hipótesis meteorítica para el Gran Morir no pasa de suposición o conjetura. En estos momentos se postula un fenómeno en avalancha, que seguramente resultó activado por la erupción de las escaleras siberianas, pero que se amplificó enormemente debido a otros fenómenos. El primero de estos fenómenos, como ya hemos comentado, es que la vida terrestre estaba un tanto convaleciente de las miniextinciones precedentes y bajo presión por el constante descenso del oxígeno atmosférico a lo largo de todo el Pérmico. El segundo fue la formación del supercontienente Pangea, en el mismo periodo, que al concentrar las tierras emergidas en un solo lugar redujo la extensión y diversidad de las aguas poco profundas, que son las mejores para la vida. El tercero estaría relacionado con el punto exacto de erupción de las escaleras siberianas: en tierra, cerca de grandes depósitos de carbón y también de clatratos de hidratos de metano fijados al suelo. Así, la lava basáltica producida en la gran erupción de las escaleras siberianas habría incendiado este carbón, emitiendo grandes cantidades de CO2 a la atmósfera. Pero no sólo eso: también habría liberado los hidratos de metano como un fusil de clatratos (ver también aquí). Este fenómeno –que, por cierto, podría estar repitiéndose ahora mismo– sí bastaría para explicar el enorme incremento de carbono pobre en isótopo 13 registrado durante el Gran Morir. También puede liberar, de una manera análoga, cantidades significativas del muy tóxico sulfuro de hidrógeno. Tanto el metano como el sulfuro de hidrógeno son potentes gases de efecto invernadero, con lo que la temperatura terrestre habría comenzado a ascender significativamente.

Animales como el Listrosaurio sobrevivieron al Gran Morir y sus descendientes evolutivos, también a la extinción de los dinosaurios. De ellos surgieron los mamíferos modernos, como tú y yo, por ejemplo.

- 151 -


Antonio Cantó

La liberación del metano presente en los clatratos, además, puede tener otro efecto devastador para la vida cuando se produce en aguas relativamente poco profundas. Al burbujear a través del agua, le roba el oxígeno, produciendo anoxia oceánica que el incremento de la temperatura ocasionado por el calentamiento global empeora aún más (y que también ha sido medida en los estratos del Gran Morir). Así, lo que tendríamos en marcha es una especie demáquina natural de eventos a nivel de extinción que se retroalimenta a sí misma sin parar. Pudieron producirse otros sucesos paralelos más. Estos modelo de causas múltiples y orígenes distintos pero encadenadas en torno a un elemento común, que se suelen llamar modelos del asesinato en el Orient Express, son los que probablemente expliquen mejor un fenómeno tan complejo y tan enorme como el Gran Morir. Ningún agente reconocible en ese momento y lugar pudo causar semejante mortandad por sí solo y tan rápidamente; en cambio, una sucesión de causasefectos concatenados sí habría sido capaz. De esa forma, un fenómeno insuficiente pero poderoso –como la erupción de las escaleras siberianas– disparándose en el contexto adecuado habría puesto en marcha una máquina de la extinción a escala planetaria que sólo se detuvo cuando alcanzó un nuevo punto de estabilidad, un millón y pico de años después. Aunque ya tenemos datos muy sólidos, el mecanismo exacto que es capaz de matar a tanta vida aún se nos escapa. Sin embargo, el registro fósil no deja lugar a dudas: a lo largo de la historia de la vida, algo –o, más probablemente, varios algos distintos– fue capaz de provocar grandes catástrofes ecológicas que se realimentaron a sí mismas hasta exterminar a órdenes de la vida enteros. Desde mi punto de vista, las enseñanzas son (al menos) dos. Una, que no comprendiendo bien cómo sucedieron pero sabiendo que un suceso relativamente menor y lento puede activar un mecanismo aniquilador mucho más grande y veloz, resulta arriesgadísimo apostar a que algo –algo que hagamos, por ejemplo– será incapaz de poner en marcha un proceso así. Y la otra, que de la muerte siempre surge la vida, una y otra vez, y seguirá haciéndolo mientras este planeta siga orbitando en torno a un Sol mínimamente estable; algo más profundo de lo que a primera vista pueda parecer.

- 152 -


La Pizarra de Yuri 2

Radioactividad Yuri, el 27 de marzo de 2011 @ 18:14 · Categoría: Actualidad, Ciencia popular

Física nuclear básica: sobre los elementos con numerito, las unidades de medida peculiares y la naturaleza de la radioactividad. Kraftwerk, Radio-Aktivität, 1975.

Con los accidentes nucleares de Fukushima, que siguen sucediendo, hemos visto surgir de nuevo el temor arcano a la radioactividad y hemos oído hablar de un montón de cosas extrañas. Muy notablemente, de esas unidades de medida raras como los sieverts o los grays y sobre todo de esos elementos aún más raros, aquellos que olvidábamos enseguida en el instituto, seguidos por un numerito para acabar de empeorarlo: yodo131, cesio-137 y otras cosas que ya sólo sonaban de aquello otro que pasó en Chernóbyl. ¿De qué va todo esto? ¿Por qué y cuándo es peligroso? ¿Qué es, exactamente, la radioactividad? De la naturaleza de las cosas.

Lámina de oro-100, donde se han resuelto los átomos individuales organizados en su estructura metálica. Imagen obtenida con un microscopio de barrido por efecto túnel cuántico modelo Omicron Low Temperature STM, de RHK Technology electronics. Universidad Tecnológica de Eindhoven (Holanda), 2006.

- 153 -


Antonio Cantó

Tú, yo y todo lo que tocan nuestras manos y ven nuestros ojos está compuesto fundamentalmente de materia y energía, que vienen a ser dos caras de la misma moneda. Ninguna de ellas es superioro inferior a la otra, como creen algunos; y, por mucho, la más compleja y estructurada es la materia. Recordarás, seguro, que la materia que conocemos normalmente está organizada en forma de átomos, a menudo combinados en forma de moléculas. La rama de la ciencia que los estudia es la física atómica. Te acordarás también de que un átomo está compuesto por un núcleo de protones yneutrones más un cierto número de electrones en orbitales situados alrededor. Se suele decir que los electrones definen las propiedades químicas de la materia mientras que el núcleo define las propiedades físicas; esto no es exactamente riguroso y habría que hacer unos cuantos matices importantes, pero para hacernos una idea sencilla de lo que estamos hablando ya va bien. El núcleo atómico es un lugar muy interesante; lo estudia la física nuclear. Entre otras cosas importantes, la composición del núcleo atómico define qué son las cosas. Así, como suena. El factor clave es el número de protones, llamado número atómico. Por ejemplo, cuando un átomo tiene seis protones en su núcleo, es carbono y no puede ser ninguna otra cosa. Si gana otro protón, y el número sube a siete, entonces deja de ser carbono por completo y se convierte en nitrógeno, un gas a temperatura ambiente. Si aún consigue otro más, o sea ocho, es oxígeno. Y así sucesivamente. Los átomos de oro, pongamos por caso, presentan 79 protones en su núcleo. Pero si algo tiene 80, entonces es mercurio. Y si fueran 78, sería platino. Se deduce fácilmente que el elemento más básico de todos los posibles es el hidrógeno, cuyo núcleo sólo tiene un protón (si tuviera cero, no habría núcleo y por tanto no habría átomo; algunas veces, a los neutrones libres se les ha llamado el “elemento cero” bajo el nombre neutronio). Por ser el más básico de todos, el núcleo de hidrógeno es el que “más fácilmente aparece”; y debido a esta razón el hidrógeno es también el elemento más abundante del universo. De hecho, fue casi el único que generó el Big Bang – demasiado primario para producir cosas mucho más complejas– antes de que los procesos de nucleosíntesis dieran lugar a todos los demás. Estos procesos de nucleosíntesis que crearon el resto de átomos complejos se dieron –y se siguen dando –, sobre todo, en el corazón de las estrellas. Es, por tanto, rigurosamente cierto aquello tan bonito de que somos polvo de estrellas. Los átomos que nos componen y que definen lo que somos se forjaron en sus hornos termonucleares a partir del hidrógeno primordial, a lo largo de millones de años, mucho antes de que llegaran hasta aquí para formar planetas y se sumaran a nuestros cuerpos y nuestra realidad.

- 154 -


La Pizarra de Yuri 2

Representación simbólica de un átomo de helio, con escala y detalle de su núcleo compuesto por dos protones y dos neutrones. (Clic para ampliar)

¿Y los neutrones? Los neutrones son, entre otras cosas, losestabilizadores de los núcleos atómicos. Se da la circunstancia de que los protones –todos los protones, por el hecho de serlo– tienen carga eléctrica positiva (+1). Como cargas iguales se repelen, los protones tienden a repelerse fuertemente entre sí y por sí solos son incapaces de constituir núcleos atómicos. Los neutrones, con su carga eléctrica neutra (cero), estabilizan el núcleo atómico y éste permanece unido mediante lainteracción fuerte o cromática, una de las cuatro fuerzas fundamentalesen este universo. A la suma de protones y neutrones en un núcleo se le llama número másico. Este número másico es la cifra que estamos viendo estos días detrás del nombre del elemento, como yodo-131 o cesio-137 (también expresado 131I o 137Cs). Resulta que, como te he contado, un elemento tiene que mantener siempre el mismo número de protones para seguir siendo ese elemento; pero el número de neutrones puede variar, dando lugar a números másicos distintos. Estas variaciones en el número de neutrones de un mismo elemento (o sea, de un mismo número de protones) se llaman isótopos. Es decir: para un mismo elemento (mismo número de protones) pueden existir varios de estos isótopos (distinto número de neutrones). ¿Y qué pasa cuando modificamos el número de neutrones? Pues que, como hemos dicho antes, sus propiedades químicas se mantienen porque éstas dependen fundamentalmente de los orbitales electrónicos, que no varían. Es decir, a nivel químico, sigue siendo la misma cosa: carbono, nitrógeno, yodo, cesio, oro, uranio, lo que sea. Pero sus propiedades físicas pueden alterarse radicalmente. Un núcleo atómico estable, tranquilo y buen chico puede transformarse en un monstruo radiológico al cambiar su composición isotópica, o sea su número de neutrones. Por fuera sigue pareciendo lo mismo, pero por dentro ha alterado

- 155 -


Antonio Cantó

completamente su manera de interactuar con la realidad. Como en El extraño caso del doctor Jekyll y el señor Hyde.

Los tres isótopos naturales del carbono: carbono-12 (6 protones y 6 neutrones), carbono-13 (6 protones y 7 neutrones) y carbono-14 (6 protones y 8 neutrones). En los tres casos es carbono, tiene el aspecto de carbono y se comporta químicamente como carbono, por tener seis protones (y forma parte de nuestro organismo, por ejemplo). Sin embargo, sus propiedades físicas varían. Por ejemplo, mientras que el carbono-12 y el carbono-13 son estables, el carbono-14 es inestable y radioactivo: emite radiación beta, uno de sus neutrones “extras” se transforma así en un protón y el núcleo se convierte en nitrógeno-14 (que tiene 7 protones y 7 neutrones), con el aspecto y las propiedades del nitrógeno (por tener 7 protones). Dado que la mitad de la masa del carbono-14 pasa a ser nitrógeno-14 cada 5.730 años aproximadamente (más o menos lo que llevamos de civilización humana), la presencia de este isótopo natural resulta especialmente útil para la datación precisa de objetos históricos.

Radioisótopos en las playas del Archipiélago de la Realidad.

El “Archipiélago de la Realidad”. En este universo, sólo son posibles determinadas combinaciones de protones y neutrones para formar núcleos estables (el “Continente de la Estabilidad” e, hipotéticamente, la “Isla de la Estabilidad”). Alrededor, un infinito “Mar de la Inestabilidad” donde los núcleos atómicos no pueden existir. Entre unos y otros, las “Playas de la Inestabilidad”, donde sólo pueden existir durante un tiempo determinado. Estos últimos son los isótopos radioactivos. (Clic para ampliar)

No todas las combinaciones de protones y neutrones resultan estables. Por ejemplo, un núcleo atómico con diez protones y cien neutrones, o viceversa, no puede llegar a existir. De hecho, sólo unas pocas llegan a constituir núcleos estables por completo, capaces de perdurar indefinidamente: la materia común que conocemos. Los núcleos atómicos muy grandes, con muchos protones y neutrones, nunca llegan a ser

- 156 -


La Pizarra de Yuri 2

verdaderamente estables (aunque algunos pueden llegar a durar mucho tiempo, tanto como muchas veces la edad del universo). Si el núcleo de hidrógeno es el más basico de todos, con su único protón, el último isótopo de este cosmos auténticamente estable es el plomo-208: presenta 82 protones (por eso es plomo) más 126 neutrones. Por encima de él, todos son inestables en mayor o menor medida. (Para más información sobre los elementos extremos, echa un vistazo al post Aquí creamos elementos nuevos) Se dice que todas las infinitas combinaciones de protones y neutrones que no pueden constituir núcleos atómicos de ninguna manera constituyen el Mar de la Inestabilidad. Por el contrario, las combinaciones que dan lugar a núcleos estables o bastante estables conformarían el Continente de la Estabilidad y puede que la Isla de la Estabilidad. O, al menos, así llamó a todo esto Glenn Seaborg. En el límite entre estabilidad total e inestabilidad total se encontrarían las combinaciones inestables. Como si dijéramos, en las playas de este Archipiélago de la Realidad. Estas combinaciones inestables, los isótopos inestables, tienden a liberar materia o energía por varias vías distintas para transformarse en otros que sean más estables o estables por completo. Esto es la radioactividad. Por eso, los núcleos de los isótopos inestables se llaman también radionúclidos. Es decir, núcleos que emiten radiación y así adquieren más estabilidad. Muy a menudo, los isótopos inestables no saltan de golpe a isótopos estables; sino que lo van haciendo en distintos pasos, de isótopo inestable en isótopo inestable hasta que alcanzan la estabilidad. Esto es la cadena de desintegración.

- 157 -


Antonio Cantó

Valores de radiación ambiental en España tomados por la Red de Estaciones Automáticas del Consejo de Seguridad Nuclear el 26/03/2011, expresados en μSv/h. Puede observarse que la “radiación de fondo” en un día típico como este oscila entre los 0,08 μSv/h del País Vasco hasta los 0,19 μSv/h de Pontevedra, debido a su diferente configuración geológica. Datos actualizados en http://www.csn.es/index.php?option=com_maps&view=mappoints&Itemid=32〈=es (Clic para ampliar)

En la naturaleza, en el cosmos, en el planeta Tierra todos los elementos se presentan bajo la forma de distintos isótopos; unos son estables y otros no. Los isótopos inestables que aparecen en la naturaleza emiten radiación, y esta constituye buena parte de laradioactividad natural. El universo entero está lleno de esta radioactividad natural y nuestro planeta no es una excepción. Las estrellas, por ejemplo, son furiosas emisoras radiológicas. Como el Sol. Los planetas y la vida, en cambio, sólo pueden llegar a formarse cuando el nivel de energía es relativamente bajo (y por eso, para empezar, es tan difícil obtener buenas fuentes de energía abundante en la superficie de un planeta como el nuestro). Si el nivel de energía fuera muy alto, el planeta pasaría a estado plasmático y desaparecería; o, incluso con cifras mucho más bajas, toda vida resultaría esterilizada para siempre. En la práctica, los planetas están compuestos muy mayoritariamente por isótopos estables; es decir, no radioactivos. Además, como con el paso del tiempo los isótopos inestables van transformándose en estables, en un planeta determinado cada vez van quedando menos radioisótopos naturales y por tanto se va generando menos radioactividad natural.

- 158 -


La Pizarra de Yuri 2

Entonces viene cuando surge una especie inteligente –más o menos–, descubre todo esto y se le empiezan a ocurrir cosas que hacer. El alquimista atómico. Cuentan que el alquimista buscaba la piedra filosofal para, entre otras cosas, transmutar el plomo en oro. Y al final lo consiguió, cuando aprendió física atómica y se hizo ingeniero nuclear. Hoy en día, los alquimistas modernos –físicos, químicos e ingenieros nucleares– transmutan habitualmente unos elementos en otros, unos isótopos en otros y hasta crean elementos nuevos. Lo que pasa es que, por ejemplo, convertir plomo en oro cuesta un pastón en forma de energía y al final resultó que no salía a cuenta. El oro nuclear no se diferencia en nada del oro vulgar –si no, no sería oro sino otra cosa distinta– y sale muchísimo más caro. Sin embargo, en el proceso descubrió algunas posibilidades enormemente más preciadas que el oro, desde la medicina nuclear hasta las armas nucleares. Los humanos, que somos así. Y otra cosa más, de un valor inmenso, tanto que resulta difícil de describir. En la superficie de un planeta donde la cantidad de energía fácilmente disponible es ya muy baja, por los motivos que comenté más arriba, las ciencias y tecnologías del átomo le permitieron concebir una fuente de energía monumental: la energía nuclear. En la actualidad, producimos grandes cantidades de energía mediante la fisión del núcleo atómico, en las centrales nucleares. Y para el futuro, planeamos utilizar el mismo método que usa el Sol y las demás estrellas: la fusión del núcleo atómico encentrales termonucleares.

- 159 -


Antonio Cantó

La central nuclear de Cofrentes, vista desde la lejanía (Clic para ampliar)

Tan bueno salió el queso que sus riesgos nos incomodaron. Venga, en serio, resulta difícil discutir las ventajas de la energía nuclear, incluso la más atrasada de fisión. Para empezar es increíblemente potente, capaz de echar gigavatio tras gigavatio sin conocimiento, llueva, truene o haga calor. El combustible es hasta cierto punto difícil de obtener, y caro, pero una vez conseguido se puede regeneraruna y otra vez durante miles de años. Proporcionapotencia base en estado puro. En condiciones normales no contamina casi nada y sus residuos se pueden manipular en forma sólida, a diferencia del gigantesco desastre ambiental y climático ocasionado cada día más por los combustibles fósiles como el carbón y el petróleo. Se puede instalar sin destrozar por completo grandes parajes naturales. Sus posibilidades de futuro son enormes, por la vía de la fisión y sobre todo por la de la fusión. Y hasta genera un montón de riqueza local y puestos de trabajo cualificados incluso en lugares donde no abundan mucho. Dicen también que sale muy barata, pero yo eso no lo tengo tan claro y las últimas noticias que van llegando de lugares como Olkiluoto o Flamanville (yaquí) no me

- 160 -


La Pizarra de Yuri 2

ayudan a cambiar de opinión. Los posibles costes ocultos, que al final siempre pagamos entre todos, tampoco están claros: hasta el día de hoy, aún estoy por ver un informe público donde se totalicen los costes de una central nuclear desde el día en que a alguien se le ocurre la idea hasta la noche en que ya no queda nada para ver ni allí ni en ningún otro sitio. Para la mayoría de países no proporciona la tan cacareada independencia energética; simplemente, cambia los proveedores tanto de tecnología como de materiales. Su excelente respeto al medio ambiente durante la producción normal queda oscurecido por el problema de los residuos radioactivos. Y luego, claro, está el eterno asunto de la seguridad, ahora mismo en pleno ojo del huracán con lo sucedido en Fukushima. Peligro nuclear. No es mentira decir que las centrales nucleares son muy seguras, incluso extremadamente seguras. Pero tampoco lo es afirmar que, cuando sucede lo impensable, los efectos de un accidente nuclear se extienden mucho más en el tiempo y en el espacio que los de la mayoría de siniestros. En estos días, he visto a gente incluso tratando de compararlos con accidentes de tráfico, que sin duda causan muchos más muertos al año. Eso es una falacia: los efectos de un accidente de tráfico no se extienden a lo largo de miles de kilómetros cuadrados y, treinta años después, no quedan contaminantes peligrosos en las tierras agrícolas de los alrededores. Sin embargo, no es falaz comparar los accidentes nucleares con algunos accidentes industriales a gran escala, y notablemente con los que esparcen gran cantidad de contaminantes químicos. Que, por cierto, están compuestos por isótopos estables e intrínsecamente no desaparecen nunca (aunque, si se trata de moléculas compuestas, se pueden degradar con el tiempo). Como lo de Bhopal, que sigue contaminando. También quisiera recordar en este punto a las incontables víctimas de envenenamiento por arsénico en Bangladesh y otros lugares, ocasionadas cuando la población local se vio obligada a cavar miles de pozos más profundos porque el agua potable es cada vez más escasa. Y otrosmuchos más. No obstante, cuando una central nuclear casca… bien, pues existe un riesgo cierto de que escape al medio ambiente una gran cantidad de contaminantes muy extraños, algunos de los cuales son radioactivos y unos pocos furiosamente radioactivos. Resulta que, en los procesos nucleares mencionados más arriba, se producen gran cantidad de esastransmutaciones del alquimista que dan lugar a toda clase de isótopos raros e inestables. De hecho, toda la energía nuclear es una de estas transmutaciones del alquimista: convertir uranio o plutonio (o deuterio y tritio, cuando se alcance la fusión)

- 161 -


Antonio Cantó

en otras cosas, aprovechando la energía liberada en el proceso para producir calor, calentar agua y con ella mover turbinas eléctricas. (De lo del torio ya hablaremos en otra ocasión, que no es ni con mucho como lo pintan algunos.)

Yodo común (mayoritariamente yodo-127 estable) en estado sólido. El yodo-131 es inestable, radioactivo y se considera cancerígeno. Durante un accidente nuclear, suele escapar del reactor en forma gaseosa.

Los isótopos más comunes que se generan como consecuencia de estas reacciones nucleares en un reactor típico de uranio (térmico), son los siguientes por orden de abundancia: cesio-134/135 (6,8%), yodo-135/xenón-135 (6,3%), circonio-93 (6,3%), cesio-137 (6,1%), tecnecio-99 (6,1%), estroncio-90 (5,8%), yodo-131 (2,8%), prometio147 (2,3%) y samario-149 (1,1%); más una retahíla de otras sustancias, ninguna de las cuales alcanza el 1%. La mayor parte de estos productos son venenosos, pero se dispersan demasiado para que su toxicidad química sea muy relevante fuera de la instalación. El principal problema, claro, es que la mayoría son radioactivos. Es decir, radioisótopos inestables que liberan energía potencialmente peligrosa y en caso de accidente nuclear se esparcen por el medio ambiente. De todos ellos, los que más miedo dan son los que son o pueden convertirse en potentes emisores de radiación gamma. ¿Qué es esto de la radiación gamma? Tipos de radioactividad. Te conté más arriba que los núcleos inestables tienden a liberar materia o energía por varias vías distintas para transformarse en otros que sean más estables o estables por completo, que esto es la radioactividad y que por eso se llaman radioisótopos o radionúclidos. Estas vías distintas son esencialmente cuatro, llamadas alfa, beta, gamma y neutrónica. La radiación alfa (también llamada desintegración alfa o decaimiento alfa) son grupos de dos protones y dos neutrones que escapan típicamente de los átomos grandes e

- 162 -


La Pizarra de Yuri 2

inestables. Así, no se distinguen en nada del núcleo de un átomo de helio corriente, pero están desprovistos de los dos electrones que este elemento presenta normalmente; es decir, se hallan doblemente ionizados. Tienen una energía típica relativamente alta, del orden de cinco megaelectronvoltios, pero se detienen con facilidad. La piel humana los para e incluso una simple hoja de papel; protecciones sencillas como mascarillas de celulosa, monos de material plástico, gafas de seguridad y guantes de goma bastan para defenderse de ellos. Lo que es una suerte, porque cuando entran dentro del organismo resultan extremadamente peligrosos, mucho más que la radiación beta o gamma que vamos a ver a continuación. Ninguno de los productos que hemos mencionado emite radiación de este tipo, así que para el caso no nos preocupa mucho.

Capacidad de penetración en materiales de los distintos tipos de radioactividad. Imagen suministrada por el gobierno japonés a la población durante los accidentes nucleares de Fukushima. (Clic para ampliar)

La radiación beta (decaimiento beta) son electrones o su partícula deantimateria, los positrones. Ya comentamos cuando hablábamos del Mar de Inestabilidad y el Continente de Estabilidad que los núcleos con una diferencia muy grande entre su número de protones y su número de neutrones son imposibles. De hecho, cuando un núcleo atómico tiene demasiados neutrones (carga 0), uno o varios de ellos se quieren convertir en protones (carga +1) y para ello generan y expulsan uno o varios electrones (carga -1). Y al revés: cuando un núcleo atómico tiene demasiados protones (carga +1), uno o varios de ellos se transforman en neutrones (carga 0) y para ello expulsan uno o varios positrones (esa carga +1 que les sobraba). Así, el núcleo se estabiliza expulsando energía en forma de estas partículas beta (β− o β+). La radiación beta suele ser relativamente menos peligrosa. Es unas cien veces más penetrante que la alfa, pero eso sigue sin ser mucho. Una lámina de papel de aluminio la detiene eficazmente y su capacidad de afectar a la materia viva es entre diez y mil veces

- 163 -


Antonio Cantó

menor que la de las partículas alfa, incluso cuando los radioisótopos que la emiten son aspirados o ingeridos. Provoca característicamente quemaduras superficiales e irradiación de la piel u otros tejidos próximos al exterior, dado que sólo puede penetrar unos pocos milímetros en el cuerpo humano. Hace falta una gran cantidad de radiación beta, y muy potente, para causar daños graves a la salud. La radiación gamma, en cambio, es la peste. No es más que radiación electromagnética, o sea fotones, como la luz visible o los ultravioletas; pero a frecuencias muy altas y con una energía pavorosa. A diferencia de las dos anteriores puede atravesar cantidades significativas de materia y por supuesto un cuerpo humano entero. Dependiendo de su energía, hacen falta varios centímetros de materiales densos como el plomo o el hormigón para detenerla. Interacciona con la materia, incluyendo la materia viva, por tres vías distintas: efecto fotoeléctrico, efecto Compton y creación de pares. Cada una de estas interacciones suele provocar a su vez electrones o positrones secundarios que constituyen una dosis adicional de radiación beta en sí mismos.

Una protección radiológica sencilla: un “castillo de plomo” montado con bloques de este material en torno a una fuente radiológica de un laboratorio.

En las sustancias que nos ocupan, la radiación gamma se origina como efecto secundario de la emisión de radiación beta porque el núcleo resultante suele quedar excitado y necesita aliviarse eyaculando, digo emitiendo radiación gamma hasta alcanzar el estado más estable. Dado que penetra todo el organismo y no está compuesta por partículas con masa, sus efectos son más difusos y hace falta una gran cantidad de radiaciones gamma para provocar quemaduras como las características en el decaimiento alfa o beta. Sin embargo, prácticamente toca todas las células del

- 164 -


La Pizarra de Yuri 2

organismo, acelerando la ruleta del cáncer y otras enfermedades asociadas a la radiación. Los rayos X son una forma de radiación gamma de baja energía. La radiación neutrónica está compuesta, como su nombre indica, por neutrones libres que escapan de los procesos de fisión o fusión del átomo. Los neutrones así producidos tienen una energía cinética muy grande y son capaces de atravesar metros de plomo u hormigón. Hace falta una cantidad significativa de estas sustancias o de agua para que se paren. Cuando los neutrones alcanzan otra materia, como la materia viva por ejemplo, chocan con los núcleos de sus átomos y los desplazan y alteran en cascadas de colisiones. También puede deteriorarla directamente por efecto Wigner. La radiación neutrónica resulta excepcionalmente peligrosa porque tiene la capacidad de convertir otras cosas en radioactivas. Esta especie de contagio se llama activación neutrónica. Vamos, que puede hacer que tus ojos se vuelvan radioactivos, por decir algo, y es francamente malo para la salud ir por la vida con unos ojos radioactivos. Por fortuna, ninguna de las sustancias de las que estamos hablando emiten radiación neutrónica. Para recibirla, tienes que exponerte directamente a un proceso de fisión o fusión nuclear, que es lo que ocurre dentro del reactor (o de una bomba). A menos que el reactor quede abierto al exterior no deberías encontrarte con ella. La radioactividad no es una energía mágica maligna capaz de hacerlo todo, penetrarlo todo y matarlo todo como parecen creer algunos. Es un fenómeno físico sometido a leyes físicas. Específicamente, no puede producirse en ausencia de los radioisótopos que la generan. Por tanto, cuando hablamos de contaminación radioactiva, hablamos fundamentalmente de contaminación de radioisótopos. Aunque las emisiones de algunas formas de radioactividad extremadamente energéticas pueden llegar muy lejos, como en el caso de los brotes cósmicos de rayos gamma, en el nivel terrícola que nos ocupa se puede decir que si no hay radioisótopo no hay radioactividad. ¿Por qué es peligrosa la radioactividad? Pues porque como toda energía puede desarrollar trabajo, y tú no quieres que nada trabaje incontroladamente los átomos que te constituyen. Y los que forman tu ADN, aún menos. La radioactividad provoca quemaduras, daña severamente algunos órganos importantes como la médula espinal, el sistema gástrico o el sistema nervioso, altera el ADN y el sistema reproductivo y puede ocasionar cáncer y malformaciones hereditarias. ¿Cuánta radioactividad es demasiada radioactividad?

- 165 -


Antonio Cantó

Un contador Geiger sencillo moderno

Los daños ocasionados por la radioactividad al cuerpo humano dependen de varios factores. Por ejemplo, del tipo de radiación –alfa, beta, gamma o neutrónica– y de si se encuentra en el exterior del organismo o ha pasado al interior por ingestión o inhalación. Pero casi siempre decimos que los factores más decisivos (o al menos, los que mejor podemos controlar una vez se ha armado el empastre) son la dosis y el tiempo de exposición. Uno puede recibir grandes cantidades de radioactividad siempre que lo haga durante un periodo de tiempo muy breve, de la misma forma que no te quemas igual si pasas la mano por encima de la llama que si la dejas encima. Por eso, las herramientas más fundamentales del liquidador nuclear son el contador Geiger y el cronómetro. O eldosímetro, que mide cuánta radioactividad vamos absorbiendo.

- 166 -


La Pizarra de Yuri 2

Esto nos conduce a esas unidades de medida tan raras: sieverts, grays, roentgens, rems, rads, becquerels y demás fauna. Algunos creen que están para marear al público, pero la verdad sencilla es que son unidades científicas que miden cosas diferentes difíciles de comparar entre sí. Otras, simplemente, han quedado obsoletas porque ahora sabemos bastante más de todo este asunto que antes. La más básica es el becquerel (Bq), nombrada así por el físico francés Henri Becquerel. El número de becquereles nos dice cuántas desintegraciones nucleares se han producido en un material cada segundo. Es decir, cuántos de esos fenómenos emisores de radiación se han dado en un segundo. Cuantos más sean, más calentita está la cosa en términos absolutos. Cada una de las desintegraciones nucleares detectadas se llama una cuenta, y son esos clics que constituyen el sonido característico de un contador Geiger. Esto da lugar a otra unidad que son las cuentas por minuto (cpm), es decir, cuántas de esas desintegraciones hemos detectado en un minuto. Si las estamos detectando todas, evidentemente, un becquerel es igual a 60 cuentas por minuto. Sin embargo, más que cuánta radioactividad se está emitiendo, nos suele interesar el impacto de esa radioactividad sobre el medio circundante (por ejemplo, nosotros). A efectos prácticos, la exposición. Aquí la cosa se complica un poco más, porque el cálculo ya no es tan directo. La unidad tradicional para medir esto era el roentgen (R). Aunque sólo aplicable en sentido estricto para la radiación gamma / rayos X, su uso se extendió a todos los demás tipos de radioactividad. Un roentgen es la cantidad de radiación necesaria para liberar una unidad electrostática de carga en un centímetro cúbico de aire a temperatura y presión estándar; lo que intuitivamente nos dice bastante poco. En la actualidad el roentgen se considera obsoleto y ha sido sustituido por el culombio/kilo (C/kg). Aún más nos conviene saber la cantidad de radioactividad que ha sido absorbida por el material circundante, como por ejemplo tu cuerpo o el mío. Para esto surgieron dos unidades: el rad y el rem. El rad se define como la dosis de radiación necesaria para que un kilogramo de materia absorba una centésima de julio de energía. Por su parte, rem significa roentgen-equivalent-man; o, más ampliamente, roentgen equivalente a mamífero (todos los mamíferos, incluso las famosas ratas, reaccionamos a la radioactividad de manera muy parecida). El rem se obtiene multiplicando el número de rads por un factor de equivalencia que representa la efectividad de la radiación para ocasionar daños biológicos. Ambas unidades están también obsoletas, sustituidas respectivamente por el gray (Gy) y el sievert (Sv). Que son las que más hemos visto con esto de Fukushima. El gray mide

- 167 -


Antonio Cantó

la cantidad de radiación absorbida por cualquier material, y se define como la cantidad necesaria para que un kilogramo de materia absorba un julio de energía. Si te fijas en el párrafo anterior, esto son exactamente cien rads. O sea, que un rad se llama ahora centigray y un gray es igual a cien rads. Con algunas limitaciones, también se puede realizar una conversión a roentgens. Se considera, un poco al bulto, que un gray equivale aproximadamente a 115 roentgens.

El mítico contador Geiger soviético DP-5B, el “Kalashnikov de los Geigers”. Abajo, iluminado en la oscuridad. Muchos de estos antiguos contadores, protagonistas de “la otra historia nuclear”, siguen funcionando perfectamente y lo seguirán haciendo durante muchos años. (Clic para ampliar)

- 168 -


La Pizarra de Yuri 2

Y finalmente nos encontramos con el sievert (Sv), que mide la cantidad de radiación absorbida por los tejidos de un cuerpo humano o de cualquier otro mamífero. Este es el que nos interesa para saber cuánto nos está afectando la radiación. Es simplemente el resultado de multiplicar el número de grays por dos factores correctores: uno para el tipo de radiación y otro para el tipo de tejido afectado. Por ejemplo: la radiación beta o gamma tiene un factor multiplicador de 1 y los testículos u ovarios tiene otro de 0,20. Es decir, que si estamos recibiendo un gray de radiación gamma donde tú ya sabes, estamos absorbiendo 0,2 sieverts. Otro ejemplo: la radiación alfa tiene un factor de 20 y el estómago de 0,12, o sea que si nos hemos zampado una fuente de radiación alfa equivalente a un gray, nuestro estómago está absorbiendo 1,67 sieverts (1 x 20 x 0,12). Lógicamente, cuando oímos hablar de sieverts/hora (Sv/h), grays/hora (Gy/h) o roentgens/hora (R/h) se están refiriendo a la cantidad de radiación que se absorbe a cada hora que pasa (y lo mismo para el día, el mes, el año, etcétera). O sea, si nos dicen que en un lugar determinado la dosis es de 200 milisieverts/hora, una persona que permanezca ahí cinco horas habrá absorbido un sievert enterito. Cuando anuncian que el límite de seguridad para los trabajadores de la industria nuclear en la Unión Europea son son 50 mSv/año con un máximo de 100 mSv durante cinco años consecutivos están también hablando de esto. Y cuando el Consejo de Seguridad Nuclear nos cuenta que estamos recibiendo normalmente una media de 0,15 μSv/h (ojo con los milis y los micros…) significa que cada año absorbemos 1,314 mSv por la radiación natural de fondo; es decir, 0,001314 sieverts. En ochenta años de vida, 0,1 sieverts. No hace mucho publiqué en este blog un estudio sobre los extremos que puede resistir un ser vivo, y especialmente los extremos de radioactividad. Resumámoslo diciendo que un ser humano está listo para el ataúd de plomo si absorbe más de 8 o 10 sieverts, especialmente si se los lleva todos de una sola vez. El síndrome radioactivo agudo puede aparecer por encima de 1 sievert. Y entre 0,5 y 1 se observan síntomas inmediatos, como un descenso en la cuenta de glóbulos rojos de la sangre, pero generalmente no causa la muerte de manera directa. Existe disputa sobre los efectos de la radiación sobre la salud humana. Esto se debe a que son de dos tipos, llamadosestocásticos y no-estocásticos. O sea: dependientes de la suerte y directos. Cuando hablamos de estas cifras tan exactas, de sídrome radioactivo, de evenenamiento radiológico nos referimos siempre a los efectos directos (noestocásticos). Vamos, que si recibes veinte sieverts del tirón, te vas para el otro barrio sí o sí y la suerte ya no tiene nada que decir ahí. Pero si recibes cinco, por ejemplo, vas a tener una combinación de efectos estocásticos y no-estocásticos. Los no-estocásticos o directos dicen que se te va a caer el cabello, vas a sufrir hemorragias e infecciones y la

- 169 -


Antonio Cantó

cuenta de glóbulos blancos se te va a ir al demonio. También se puede decir noestocásticamente que tienes entre un cinco y un cincuenta por cien de probabilidades de morir pronto, incluso con asistencia médica. Pero en caso de que sobrevivas, no se puede saber si vas a sufrir un cáncer en el futuro relacionado con esta absorción o no. O si tus hijos van a salir estropeados o no. O cualquier otro de los males comúnmente atribuidos a la radiación. Estos son los efectos estocásticos, o sea azarosos. Y de ellos se sabe bastante menos. Si dentro de diez años te sale un cáncer de hígado, ¿será por la radiación, porque le das al vodka cosa mala o simplemente porque te tocaba? Resulta obvio que esto es mucho más difícil de calcular. Un dato generalmente aceptado es el número decánceres en exceso. Es decir, cuántos cánceres de más se dan en una población expuesta a la radioactividad sobre la cifra que cabría esperar estadísticamente en una población similar que no ha sufrido exposición significativa. Pero incluso esta cifra es un tanto especulativa, porque puede deberse a este motivo o a cualquier otro. Por ello, existe debate sobre cuáles son los niveles mínimos aceptables de radioactividad. Sabemos que por debajo de 0,5 Sv no suelen manifestarse efectos directos (no-estocásticos), pero muchos disputan que todo incremento de radiación ambiental tenderá a elevar el número de efectos estocásticos, como esos condenados cánceres. Y que, en una población numerosa, por ley de los grandes números, habrá inevitablemente víctimas de la radioactividad incluso a dosis bajas, que no llamarán mucho la atención y se achacarán a otras causas.

- 170 -


La Pizarra de Yuri 2

El símbolo internacional de peligro radiológico (arriba) y el nuevo específico para las radiaciones ionizantes (abajo).

Hace muchos años, se hizo un estudio sobre la incidencia del cáncer entre los trabajadores de la antigua Junta de Energía Nuclear. Resultó que era un 29% superior a la media de la población. Estudios más recientes, relativos a instalaciones más modernas, hablan de un escaso 2% de diferencia entre los trabajadores y cero entre la gente que vive cerca de las centrales atómicas. Aparentemente, en algún punto por debajo de los 50 milisieverts al año que estos trabajadores tienen como límite estaría la línea de seguridad total. Es decir, menos de 5,7 μSv/h sostenidos en el tiempo. En algún lugar entre los 0,15 o 0,20 μSv/h de radiación de fondo y los 5,7 μSv/h que constituyen el primer límite de los trabajadores nucleares está esa línea. Pero nadie se atreve a trazarla. Ninguna institución internacional ha osado indicar un punto por debajo del cual la exposición a la radiación se considere completamente inocua. Esto representa un problema grave para los evacuados de los accidentes nucleares, porque rara vez un político se anima a decir “esto ya es seguro otra vez, ya pueden volver a casa”. Eso de la radiación equivalente a un plátano. En estos últimos días, se ha oído también hablar mucho de la dosis equivalente a un plátano. Resulta que los plátanos presentan de manera natural una pequeña cantidad de un isótopo radioactivo llamado potasio-40. En cantidades suficientes, a veces disparan los detectores radiológicos de las aduanas. Dicen que si uno se come un plátano todos los días durante un año, absorberá 36,5 μSv. Otros apuntan otras cifras, pero van por un estilo. Se pretende decir así que la radioactividad es más segura de lo que parece: comer plátanos resulta bastante saludable. Como puede suponerse fácilmente esto es una fantochada, por dos razones. La primera es que el potasio-40 emite radiación beta en el 90% de las ocasiones y decae a argón-40 y calcio-40; el primero es estable y el segundo casi estable. O sea que su cadena de desintegración termina ahí, con sólo un 10% de emisión gamma; tal cosa lo hace distinto a los isótopos que nos ocupan y francamente menos peligroso. La segunda razón es que los seres vivos somos extraordinarios gestores del potasio, y la gran mayoría –incluyendo al potasio-40– se elimina rápidamente (la proporción de potasio40 en el potasio del organismo no varía). En palabras de Geoff Meggitt, médico, antiguo editor del Journal of Radiological Protection y ex miembro de la Autoridad para la Energía Atómica del Reino Unido, la dosis neta de un plátano es cero. Algún otro estudio sugiere una absorción máxima de 0,37 μSv tras un año de consumirlos diariamente. - 171 -


Antonio Cantó

En la práctica, todas las fuentes alimentarias combinadas suman una radioactividad total aproximada de 400 μSv al año, o sea 0,4 mSv. Esto es, menos de la tercera parte que la radiación de fondo, y casi toda ella beta. De la peligrosidad de los isótopos que están sonando. Entonces, ¿cómo son de peligrosas esas sustancias de las que hemos oído hablar recientemente? Bueno, veámoslo. En primer lugar, hay que recordar una cosa: un radioisótopo o es muy radioactivo o es muy duradero en su peligrosidad radiológica, pero ambas cosas no puede ser. La razón es sencilla: si emite mucha energía, también la pierde muy deprisa. Si emite poca, dura mucho pero irradia poco. Los sospechosos habituales en caso de accidente nuclear son los mencionados más arriba y especialmente el yodo-131, el cesio-137, el estroncio-90 y el tecnecio-99. Los que se escapan más fácilmente son los dos primeros, porque dentro del reactor permanecen en estado gaseoso y salen al exterior con la primera fisura de la vasija. El estroncio y el tecnecio, en cambio, tienen un punto de ebullición mucho más alto y se mantienen en estado sólido, con lo que sólo pueden escapar en cantidades significativas si la vasija ha reventado. Por el momento, en Fukushima no se está detectando estroncio y tecnecio fuera de la instalación, pero sí yodo y cesio. Eso significaría que las vasijas afectadas mantienen su integridad general, aunque con grietas. El yodo-131 (131I) tiene una semivida cortita, de 8,02 días. Esto de la semivida o periodo de semidesintegración es el tiempo que tarda en decaer la primera mitad de los radionúclidos presentes. Es decir, que a los 8,02 días queda el 50%, a los 16,04 el 25%, a los 24,06 el 12,5% y así sucesivamente. Normalmente se ve expresado como vida media, aunque decirlo así no sea exacto. Al grano. El yodo-131 tiende a acumularse en la glándula tiroides y no se elimina bien biológicamente. Sin embargo, esa semivida tan corta significa que se elimina a sí mismo rápidamente. Si no se producen nuevas emisiones y absorciones, en 80 días quedará menos del uno por mil.

- 172 -


La Pizarra de Yuri 2

El cesio es un metal dúctil que funde a 28,4 ºC. Su isótopo radioactivo cesio-137 es uno de los subproductos característicos de la fisión y uno de los “sospechosos habituales” en los accidentes o explosiones nucleares. Suele permanecer en estado gaseoso dentro de los reactores, por lo que escapa con las primeras grietas.

El yodo-131 emite radiación beta y gamma para transmutar en xenón-131, que es estable. La emisión primaria son rayos gamma de 364 kiloelectronvoltios y partículas beta de 190, con un máximo de 606. Ha sido vinculado con el cáncer tiroideo, especialmente en la infancia y adolescencia. La vía de entrada al organismo es típicamente mediante la alimentación, sobre todo con el consumo de leche y verduras contaminadas. El cesio-137 (137Cs) tiene una semivida mucho más larga, de 30,17 años. Es decir, que le cuesta mucho más tiempo desaparecer del medio ambiente. En el 94,6% de las ocasiones, su cadena de desintegración consta de dos pasos. El primero es una partícula beta de 512 kiloelectronvoltios que lo transforma en bario-137m. Esta “m” del final significa que ese bario es un isómero metaestable, o sea que está excitado. Para relajarse, necesita emitir radiación gamma y eso es lo que hace exactamente a continuación: radia un rayo gamma de 662 kiloelectronvoltios y se estabiliza como bario-137 normal. El cesio-137 no se da en la naturaleza: sólo apareció en la Tierra tras las primeras explosiones nucleares humanas. De hecho, a veces se usa para comprobar si un objeto es anterior a 1945. Se da la circunstancia de que es muy soluble en agua y los seres vivos tenemos mucha agua. A diferencia del yodo-131, no tiende a acumularse en un punto del organismo en particular, sino que se distribuye por todas partes; más en los músculos y menos en los huesos. Fue el agente del accidente de Goiânia en Brasil y - 173 -


Antonio Cantó

el incidente de Acerinox en Cádiz. El cesio-137 entra en el organismo a través del agua, los alimentos y también por inhalación, típicamente al caminar sobre suelo contaminado levantando polvo o manipular objetos contaminados y luego acercarse las manos a la cara. Tiene una semivida biológica de 64 a 110 días; este es el tiempo que el cuerpo necesita para eliminar la mitad por vías naturales. Su comportamiento bioquímico es parecido al del potasio. Las dosis bajas de cesio-137 no se han vinculado a ninguna patología en particular. De los experimentos realizados con animales en el pasado y tras los bombardeos de Hiroshima y Nagasaki se sabe que a dosis superiores incrementa la mortalidad general y tiene efectos teratogénicos sobre la descendencia. Sin embargo, parece que hacen falta dosis ya en el rango de los efectos no-estocásticos para que estos efectos estocásticos se manifiesten también. El estroncio-90 (90Sr) no ha sido detectado en Fukushima. Es un emisor beta puro y su cadena de desintegración tiene dos pasos: el primero lo convierte en itrio-90 inestable y el segundo en zirconio-90, ya estable. Su semivida asciende a 28,8 años. El estroncio-90 es un “buscahuesos” que se comporta bioquímicamente de manera muy parecida al calcio y por tanto se acumula en los huesos y la médula ósea. Ha sido vinculado con el cáncer óseo, el cáncer de médula ósea, la leucemia y tumores en órganos próximos, pero sólo hay pruebas suficientes de su capacidad para causar estas enfermedades en animales.

El estroncio es un metal alcalino con puntos de fusión y ebullición bastante elevados. Por ello, suele permanecer en estado sólido y sólo escapa de modo significativo al medio ambiente cuando la contención radiológica ha resultado severamente comprometida durante un accidente nuclear, en forma de isótopo estroncio-90.

Se han detectado minúsculas cantidades detecnecio-99m (99mTc) en el agua presente en el interior de la central nuclear de Fukushima I, pero por el momento no en el exterior

- 174 -


La Pizarra de Yuri 2

de la instalación. El tecnecio-99m es otro de estos isótopos metaestables excitados que emiten radiación gamma para tranquilizarse. Tiene una semivida de seis horas y decae rápidamente a tecnecio-99. Este tecnecio-99 tiene una semivida de 211.000 años y es un emisor beta muy suave y lento que va transmutando en rutenio-99. En el agua del interior de Fukushima se han encontrado también cantidades significativas de cloro-38, un emisor beta con una semivida de 37 minutos que decae en argón-38 estable; y cerio144, emisor alfa y beta con semivida de 285 días que decae finalmente (vía praseodimio-144 y neodimio-144) en cerio-140 estable. Naturalmente, si cualquiera de ellos o una combinación de los mismos llega a provocar absorciones superiores al sievert, pues entonces empezamos a freírnos radiológicamente de manera muy no-estocástica. Esto es, que nos vamos a la parte de las quemaduras por radiación, el síndrome radioactivo agudo, el muerto que anda y el ataúd de plomo en cripta de hormigón. Por otra parte, la ley CERCLA de los Estados Unidos considera todos los radionúclidos como inherentemente cancerígenos. Son muy conocidos los problemas de salud provocados por el Thorotrast (dióxido de torio) o el Radithor (radio), los sufridos por las chicas del radio o por supuesto los padecidos por las víctimas de la larga lista de accidentes radiológicos y nucleares que en el mundo han sido. El último ocurrido en España, el de launidad de radioterapia del Clínico de Zaragoza en 1990, se cargó al menos a once personas. La radioactividad es peligrosa. Pero por debajo del sievert y sobre todo por debajo del medio sievert, los efectos son fundamentalmente estocásticos y nadie sabe cómo son de peligrosos realmente en el medio y largo plazo. La Agencia Internacional para la Investigación del Cáncer (IARC), dependiente de la Organización Mundial de la Salud, incluye numerosas fuentes radiológicas en el grupo 1 de su clasificación (que viene a querer decir “agentesdefinitivamente carcinógenos para los seres humanos”). Entre estas se encuentran, al mismo nivel que el asbesto, el arsénico, el benceno o fumar tabaco, las siguientes: • • • • •

La radiación neutrónica en todas sus formas. La radiación X y gamma en todas sus formas. Los radionúclidos emisores de radiación alfa y beta depositados en el interior del organismo. El plutonio.

Los radioyodos, incluyendo el yodo-131. El radio (-224, -226 y -228) y los productos de su cadena de desintegración. El radón-222 y los productos de su cadena de desintegración.

El torio-232 y los productos de su cadena de desintegración.

- 175 -


Antonio Cantó

• •

El fósforo-32, como fosfato. En general, todas las radiaciones ionizantes.

Todos estos productos pueden considerarse, pues, como definitivamente peligrosos para la salud humana. Adicionalmente, los rayos X (radiación gamma de baja energía) fueron el primer mutágeno y genotóxico conocido. En general, se considera a las radiaciones ionizantes teratogénicas en diversos grados. Pero que sean peligrosos no quiere decir que salten a por tu cuello si pasas al lado, ni que te vayan a matar con toda seguridad a partir del mismo instante en que entras en contacto con alguno. Se parece mucho al riesgo de fumar. Depende de lo que fumes, cuánto fumes y durante cuánto tiempo. No corre el mismo riesgo una persona que aspiró humo de cigarrillos años atrás, cuando salía de fiesta, que quien lleva treinta años atizándose tres paquetes de desemboquillados diarios. Tipo de exposición, dosis, tiempo de exposición: esas son las claves.

La central nuclear de Cofrentes vista desde el pueblo (clic para ampliar)

La propuesta de la energía nuclear. Vivir es correr riesgos. Todo lo que hace el ser humano conlleva algunos peligros; sólo los muertos están completamente a salvo, si es que se puede considerar así. La cuestión es cuánto riesgo estamos dispuestos a asumir razonablemente, de manera individual o colectiva, a cambio de qué. La propuesta de la energía nuclear es clara: grandes cantidades de energía, prácticamente ilimitada si continúa su desarrollo, bastante respetuosa con el medio ambiente y dicen que hasta cierto punto económica, al precio

- 176 -


La Pizarra de Yuri 2

de unos residuos peligrosos pero relativamente fáciles de gestionar y un riesgo mínimo pero real de accidentes cuyas consecuencias para la salud colectiva se extienden en el tiempo y en el espacio. Resumiéndolo mucho, así están las cosas. A cada sociedad queda decidir si acepta o rechaza esta propuesta. Hay sociedades muy serias que la aceptan y otras al menos igual de serias que la rechazan. Las alternativas realistas en este momento son: •

• •

• • •

los combustibles fósiles como el petróleo, el carbón o el gas natural, con un coste ambiental y climático extremo (y también para la salud), que más pronto o más tarde se acabarán o resultarán muy costosos de extraer. la energía hidroeléctrica, sólo aplicable donde hay grandes ríos con desniveles significativos, con un coste ambiental local significativo. la energía eólica y solar, sometidas a variaciones y límites de disponibilidad (son un recurso intermitente), con un coste paisajístico y ambiental local moderado o más alto cuando se explotan intensivamente. los biocombustibles, con un coste ambiental y social notable. la energía geotérmica, sólo disponible en determinados lugares, con un impacto ambiental local moderado. la energía mareomotriz y undimotriz, con algunas limitaciones de disponibilidad y un impacto ambiental local moderado.

Por mucho que reduzcamos el consumo –lo que es en extremo deseable–, si Nikolai Kardashov tenía algo de razón en sus planteamientos, toda civilización tenderá a ir consumiendo cantidades mayores de energía para seguir evolucionando. Aún sin plantearnos el futuro de la humanidad, en estos mismos momentos a miles de millones de personas en el Tercer Mundo les vendría de lo más bien una fuente de energía económica, fácilmente disponible y razonablemente respetuosa con el medio, con la sociedad y con el clima, pues el desarrollo es inseparable del suministro energético. Y a todos nosotros, en todos los países, una factura de la luz más barata y ecológica. La energía nuclear de fisión y sobre todo la de fusión contienen importantes promesas en este sentido, que cada sociedad debe evaluar sin histerias ni forofismos. Recordando siempre que el progreso no está garantizado, que una civilización que no evoluciona y avanza no sólo se estanca, sino que de inmediato comienza a retroceder. La humanidad futura necesitará inmensas cantidades de energía para dejar de ser un simio de aldehuela planetaria, y la humanidad del presente necesita grandes cantidades ya para contribuir a la superación de incontables miserias e injusticias. Pero no al precio

- 177 -


Antonio Cantó

de dejar una herencia envenenada a las generaciones futuras. Eso es lo que está en juego ahora mismo: qué herencia queremos dejar a quienes vendrán detrás.

- 178 -


La Pizarra de Yuri 2

Secuencia de acontecimientos en las centrales nucleares japonesas Yuri, el 18 de marzo de 2011 @ 19:40 · Categoría: Actualidad, Ciencia popular, Sociedad y civilización, Tecnología

Nota 8 sobre los accidentes nucleares de Fukushima y las incidencias en otras centrales. Secuencia de acontecimientos en las centrales nucleares japonesas de Fukushima I y II, Onagawa y Tokai II a partir del terremoto del viernes 11 de marzo de 2011. Ver también: Videos aéreos de los daños en Fukushima I – Mediciones de radiación – Estado de los reactores afectados

"Humo blanco" saliendo de la unidad 3 de Fukushima I el 16/03/2011. Foto: Reuters/Público

Esta información se irá actualizando conforme vayan llegando más datos. Aún faltan aquí muchas cosas pero las iré añadiendo conforme se vayan sabiendo. Fuente: Ampliado y actualizado sobre esta cronología y esta del Foro Industrial Atómico del Japón. Todas las horas son locales de Japón. Viernes 11 de marzo - 179 -


Antonio Cantó

Terremoto de Sendai de marzo de 2011 y sus réplicas (nueva pestaña o ventana para ampliar)

14:46 – Se produce el terremoto de magnitud 9.0. Se confirma el cierre de todos los reactores que operaban enOnagawa (datos, operadora: Tohoku Electric), Fukushima I (Fukushima Daiichi, datos, operadora: Tokyo Electric,TEPCO), Fukushima II (Fukushima Daini,datos, operadora: Tokyo Electric, TEPCO) y Tokai II (Tokai Daini, datos, operadora:JAPC). Información del USGS: Hora del seísmo: 14:46:23, profundidad 32 Km, 38,322°N, 142,369°E, distancia a costa 129 km al E de Sendai. Central de FUKUSHIMA (37,424411 ºN,141,033332 ºE) – hora aproximada de la llegada del tsunami 15:01. 15:16 – Información de la NOAA: tsunami registrado por la boya DART 21418 (38,710556°N, 148,693611°E), a 550 km al este. 15:42 – Se pierden todas las fuentes de energía de corriente alterna en las unidades 1, 2 y 3 de Fukushima I. Este hecho es notificado al gobierno japonés (en la hora indicada) según el art. 10 de la Ley Especial de Preparación de Emergencia para Desastres Nucleares (en adelante, “la ley”). 15:45 – Los depósitos de combustible de Fukushima I resultan arrastrados por el tsunami. (Notificado en la hora indicada) 16:10 – La Comisión de Seguridad Nuclear (NSC) reúne al Cuerpo Técnico Asesor para Emergencias Nucleares. - 180 -


La Pizarra de Yuri 2

16:36 – La inyección de agua deja de funcionar en el sistema de enfriamiento de emergencia del núcleo (ECCS) en las unidades 1 y 2 de Fukushima I. Es notificado al gobierno según el art. 15 de la ley. Se establece en Tokio un cuartel General de Respuesta ante la Emergencia Nuclear. 19:03 – Se emite una declaración de emergencia nuclear para Fukushima I. Se convoca al grupo de trabajo para desastres nucleares. Nota del OIEA: La NISA japonesa informa de un incendio en Onagawa, ya apagado. Comunica queOnagawa, Fukushima I, Fukushima II y Tokai II han sido cerradas automáticamente, sin fugas de radiación. 20:50 – La prefectura de Fukushima emite una directiva de evacuación a los residentes en un radio de 2 kmalrededor de Fukushima I. 21:23 – El Primer Ministro Naoto Kan recomienda a los residentes en un radio de 3 km alrededor de Fukushima I que evacúen el área, y los que están a 10 km alrededor, que permanezcan en el interior de los edificios. •

RIA Novosti informa que “unidades especiales niponas” se dirigen a la “central nuclear de Fukushima”.

Sábado 12 de marzo

- 181 -


Antonio Cantó

Todas las unidades de la central nuclear de Onagawa alcanzaron el estado de parada en frío a las 01:17 del sábado, 12 de marzo.

01:17 – Todas las unidades de la central nuclear de Onagawaalcanzan el estado de parada en frío. 04:00 – La presión en la vasija de contención de la unidad 1 deFukushima I aumenta hasta aproximadamente 840 kPa más allá de su valor de diseño. 05:22 – Las funciones de control de presión se pierden en la unidad 1 de Fukushima II, lo que se informa al gobierno según el art. 15 de la ley. 05:32 – Las funciones de control de presión se pierden en la unidad 2 de Fukushima II, lo que se informa al gobierno según el art. 15 de la ley. 05:44 – El Primer Ministro recomienda la evacuación a los residentes que se encuentren en un radio de 10 km alrededor de Fukushima I. 07:11 – El Primer Ministro visita Fukushima I. 07:45 – Se emite una declaración de emergencia nuclear para Fukushima II. El Primer Ministro recomienda laevacuación a los residentes en 3 km alrededor de Fukushima II. 09:07 – Se abre una válvula aliviadora de presión en la vasija de presión de la unidad 1 de Fukushima I. 14:30 – Se inicia la ventilación al exterior de la unidad 1 de Fukushima I. 14:49 – Hay informes de que se ha detectado cesio radioactivo (Cs) alrededor de la unidad 1 de Fukushima I. 15:36 – Ocurre una explosión de hidrógeno en la unidad 1 de Fukushima I. 17:39 – El Primer Ministro recomienda la evacuación a los residentes en un radio de 10 km alrededor deFukushima II. 18:25 – El Primer Ministro recomienda la evacuación a los residentes en un radio de 20 km alrededor deFukushima I. 20:20 – Se inyecta agua de mar en el reactor de la unidad 1 de Fukushima I.

- 182 -


La Pizarra de Yuri 2

• • •

AFP cita al jefe del gabinete Yukio Edano declarando: “trabajamos asumiendo que hay una elevada probabilidad de que haya ocurrido (una fusión del núcleo, meltdown) en el reactor nº 1” de Fukushima I. “Con respecto al reactor nº 3, trabajamos asumiendo que es posible”. Visto también en RIA Novosti e ITARTASS. La BBC cita a Yukio Edano declarando que no creen que la contención haya resultado dañada y que por tanto no se preveían fugas radioactivas. RIA Novosti informa, citando a la agencia Kyodo, que se han producido fugas radioactivas en Fukushima I. Ynet informa, citando a la televisión NHK, que tres personas han resultado contaminadas por radiación en una localidad próxima.

Domingo 13 de marzo •

Nota del OIEA: las autoridades japonesas consideran lo sucedido en Fukushima I-1 como un accidente de nivelINES 4. Se confirma la presencia de cesio-137 y yodo-131 en el entorno de la central. Nota del OIEA: Se confirma un trabajador muerto en Fukushima II por accidente mecánico; y siete trabajadores heridos y uno irradiado por encima de los límites de seguridad en Fukushima I.

Ayuntamiento de Minamisoma, la ciudad más grande de las evacuadas (70.975 hab.) antes del tsunami y los accidentes nucleares.

05:10 – La inyección de agua falla en el sistema de refrigeración de emergencia del núcleo (ECCS) de la unidad 3 deFukushima I, lo que se informa al gobierno según el art. 15 de la ley.

- 183 -


Antonio Cantó

09:20 – Se abre una válvula aliviadora de presión en la vasija de presión de la unidad 3 deFukushima I. 13:12 – Se inyecta agua de mar al reactor de la unidad 3 deFukushima I. •

Nota del OIEA: Se confirma la ventilación de vapor a la atmósfera en la unidad 3 de Fukushima I, así como las inyecciones de agua de mar. Se notifica una lectura anómala de radiación en Onagawa, que desaparece unas horas después. Se interpreta que es radioactividad procedente de Fukushima I. Reuters informa que el reactor nº 1 de Fukushima I debía haber sido decomisionado en febrero tras 40 años de servicio, pero se prolongó su vida útil 10 años más.

Lunes 14 de marzo 04:08 – La temperatura de la piscina de almacenamiento de combustible gastado en la unidad 4 de Fukushima Iaumenta a 84 ºC. 06:10 – La presión en la vasija de contención de la unidad 3 de Fukushima I aumenta hasta aproximadamente 460 kPa por encima de su valor de diseño. Notificado a las 07:44. •

Nota del OIEA: En Fukushima I, se notifica que las unidades 1 y 2 se están alimentando con generadores móviles. En la 1 se refrigera mediante agua marina con boro. En la 2, mediante aislamiento del núcleo. La unidad 3 carece de alimentación y se ha iniciado la inyección de agua marina con boro. Pese a ello, el nivel no aumenta. Se deconoce la razón.

11:01 – Ocurre una explosión de hidrógeno en la unidad 3 de Fukushima I. 13:25 – Se descubre que el nivel de agua en el reactor de la unidad 2 de Fukushima I es bajo, por lo que se llega a la conclusión de que las funciones de enfriamiento de este reactor se han perdido también. 16:34 – Se comienza a inyectar agua marina en el reactor de la unidad 2 de Fukushima I. •

MSNBC/AP informa que los Estados Unidos han apartado a sus buques militares del área de Fukushima debido a “bajos niveles” de radiación.

- 184 -


La Pizarra de Yuri 2

• •

Reuters informa que el gobierno alemán “suspenderá la decisión” de extender la vida útil de las centrales nucleares en este país. Mainichi Daily News y otras fuentes informan que TEPCO pidió en esta fecha al gobierno japonés autorización para retirar a todo su personal de Fukushima I. El jefe del gabinete Yukio Edano y el ministro de economía se niegan. Quedarán 50 trabajadores de los 800 que se encontraban en la central cuando sucedió el terremoto (“los 50 de Fukushima“).

Martes 15 de marzo

La central de Tokai Daini (en la imagen, a la izda.) alcanzó la parada en frío a las 00:40 del martes, 15 de marzo. A las 07:15 lo conseguían también en Fukushima II.

Nota del OIEA: En el radio de 20 km alrededor de Fukushima I, se haevacuado a 184.670 personas. Se han evacuado las localidades deMinamisoma-shi (70.795 hab.),Tamura-shi (41.428 hab.), Namie-cho (20.695 hab.), Tomioka-cho(15.786 hab.), Okuma-cho (11.186 hab.), Naraha-cho (7.851 hab.),Futaba-cho (6.936 hab.), Hirono-cho(5.387 hab.), Kawauchi-mura (2.944 hab.) y Kuzuo-mura (1.492 hab.) Se han distribuido 230.000 unidades de yodo a los centros de evacuación.

00:40 – Se alcanza la parada en frío en la central de Tokai II. 05:35 – El gobierno establece el Grupo de Trabajo para el Accidente de la Central Nuclear de Fukushima.

- 185 -


Antonio Cantó

06:10 – Se escucha un sonido explosivo en la unidad 2 de Fukushima I. Se sospechan daños en la piscina de supresión de presión. Parte de un muro en el área de operaciones resulta dañado. 07:15 – Todas las unidades de Fukushima II alcanzan el estado de parada en frío. 08:25 – Humo blanco saliendo de la unidd 2 de Fukushima I. 09:38 – Se produce un incendio en la tercera planta del edificio del reactor de la unidad 4 de Fukushima I. Se extingue por sí solo poco después. 10:22 – Se registra un nivel de radiación de 400 mSv/h alrededor de la unidad 3 de Fukushima I. 11:00 – El Primer Ministro indica a los residentes en un radio de 20 a 30 km de Fukushima I que busquen refugio en interiores. 11:26 – El centro (de operaciones) en el exterior de la central de Fukushima I se evacúa a la Oficina Prefectural de Fukushima City. •

Reuters informa que el personal se ha visto obligado a abandonar la sala de control de la unidad 4 deFukushima I debido a los altos índices de radioactividad. Visto también en RIA Novosti.

Nota del OIEA: Confirma la medición de 400 mSv/h en torno a la unidad 3 de Fukushima I por la mañana. Por la tarde, en la puerta principal, se midieron 11,6 mSv/h y 600 μSv/h seis horas después, lo que indica que la radiación ha descendido. Nota del OIEA: Se informa que la contención primaria de las unidades 1 y 3 de Fukushima I está intacta. En cambio, la explosión en la unidad 2 puede haber afectado a su integridad. Se confirma el incendio en la unidad 4, de dos horas de duración. Se establece una zona de exclusión aérea de 30 km y la Guardia Costera da avisos de evacuación en un radio de 10 km alrededor de Fukushima I de 3 alrededor de Fukushima II.

• • •

Reuters informa que las autoridades rusas han detectado un leve incremento de la radiación (1 μR/h) enVladivostok, Rusia. Reuters informa que se ha detectado una “minúscula” cantidad de radiación en Tokio (yodo y cesio) y un poco superior en Saitama. El País informa que Rusia “reitera su apuesta por la energía nuclear”.

- 186 -


La Pizarra de Yuri 2

Reuters informa que la canciller Angela Merkel cerrará “para revisiones” 7 de las 17 centrales nucleares alemanas durante 3 meses. Describe la energía nuclear como una “energía de transición” mientras Alemania abandona los combustibles fósiles y se dirige hacia fuentes renovables. El ministro de economía propone una gran expansión de la red para manejar “energía verde”. Reuters informa que la Agencia de Seguridad Nuclear francesa considera los accidentes de Fukushima I de nivelINES 6. Intervención de A. C. Lacoste, presidente de la ASN.

Miércoles 16 de marzo

Mediciones de radioactividad en Japón a las 09:00 del 16/03/2011. Datos: MEXT. Elaboración del mapa: La Pizarra de Yuri. (Clic para ampliar)

Nota del OIEA: Notifica que no hay combustible cargado en el reactor de la unidad 4 de Fukushima I, que se encontraba detenido en el momento del terremoto. Hay combustible cargado en los reactores de las unidades 5 y 6, que se encontraban también detenidos por razones de mantenimiento. Los reactores 1, 2 y 3 estaban cargados y en funcionamiento.

05:45 – Ocurre otro incendio en la unidad 4 deFukushima I, que también se extingue espontáneamente.

- 187 -


Antonio Cantó

06:40 – Se siguen detectando en torno a 400 mSv/h cerca del edificio de la unidad 3 de Fukushima I. 08:37 – Se observa una enorme cantidad de humo blanco saliendo de la unidad 3 de Fukushima I. •

ABC News/AP informa que los últimos 50 trabajadores se han visto obligados a abandonar la central de Fukushima I debido a los altos índices de radioactividad. La central queda sin personal. CBS informa que se ha registrado 1 Sv/h en la central, que después descendió a 0,6 – 0,8 Sv/h.

16:00 – Helicópteros de las Fuerzas de Autodefensa (Ejército Japonés) intentan verter agua sobre la unidad 3 deFukushima I, pero se abandona el intento debido a los elevados niveles de radiación. 20:06 – CNN informa que en la central de Fukushima I hay ahora 180 trabajadores en turnos de 50. •

• •

Reuters informa que, como consecuencia de la explosión del martes en Fukushima I, hay dos trabajadores desaparecidos y daños en el tejado de la unidad. Los trabajadores se encontraban en el área de turbinas de la unidad 4. Dots Press informa, citando a la AFP y Yukio Edano, que el personal ha podido regresar a la sala de control en Fukushima I. Europa Press informa, citando fuentes de TEPCO, que las barras de los reactores 1 y 2 de Fukushima I están dañadas “al 70 y 33%”, respectivamente. Visto también en RIA Novosti.

El Reino Unido (fuente), Corea del Sur (fuente), Australia (fuente) y los Estados Unidos (fuente, fuente), entre otros, recomiendan oficialmente a sus ciudadanos que se alejen a más de 80 kilómetros de Fukushima.

Bloomberg informa que Lufthansa y Alitalia, entre otras compañías aéreas, han decidido desviar sus vuelos a Tokio hacia ciudades meridionales como Osaka. Otras compañías alteran su operatoria; por ejemplo, Air France – KLM. En cambio, Cathay Pacific y China Eastern incrementan su servicio a la capital japonesa.

Nota del OIEA: Se ha observado un nuevo incendio en la unidad 4 de Fukushima I. El nivel del agua en la unidad 5 ha descendido.

Jueves 17 de marzo - 188 -


La Pizarra de Yuri 2

• •

RIA Novosti cita al director del Instituto Kurchatov: los acontecimientos en Japón “no conducen a una catástrofe nuclear, pero la situación es grave”. Nota del OIEA relativa a los daños a las personas en el transcurso de estos accidentes nucleares en Fukushima I:

Heridos:

Imagen satelitaria de Fukushima I, tomada el 16/03/2011. De izquierda a derecha, unidades 4, 3, 2 y 1. Foto: DigitalGlobe Imagery. (Clic para ampliar)

• o o

o o o

o

o

2 empleados de TEPCO presentan heridas leves. 2 empleados de subcontrata están heridos; 1 persona con piernas rotas y 1 en “condición desconocida” fueron trasladadas al hospital. 2 personas desaparecidas. 2 personas “se pusieron súbitamente enfermas” 2 empleados de TEPCO requirieron asistencia hospitalaria durante la colocación de protecciones respiratorias. 4 personas (2 empleados de TEPCO, 2 de subcontrata) sufrieron heridas leves durante la explosión en la unidad 1 el 11 de marzo y fueron trasladadas al hospital. 11 personas (4 empleados de TEPCO, 3 de subcontrata y 4 trabajadores de la defensa civil) resultaron heridas a consecuencia de la explosión en la unidad 3 el 14 de marzo.

Irradiados:

- 189 -


Antonio Cantó

• o

o

o o • •

17 personas (9 empleados de tepco, 8 de subcontrata) sufrieron deposición de material radioactivo en la cara pero no fueron trasladadas al hospital debido al bajo nivel de exposición. 1 trabajador sufrió exposición significativa durante las “tareas de ventilación” y fue trasladado a un centro fuera del área. 2 policías expuestos a radiación fueron descontaminados. Bomberos que fueron expuestos a radiación están siendo estudiados.

AFP informa que la Comisión Europea recomienda a los estados miembros de la Unión controlar las importaciones de alimentos japoneses en busca de radiación. CNN cita al Primer Ministro de Israel Benjamin Netanyahu diciendo que “ha reconsiderado los proyectos de construir centrales nucleares civiles” y que no cree que “apostemos por la energía nuclear civil en los próximos años”. Visto también en la agencia Xinhua. Reuters cita al jefe de la Comisión Reguladora Nuclear de los EEUU, Gregory Jaczko, declarando en audiencia parlamentaria: “Va a ser muy difícil que los trabajadores de emergencia lleguen cerca de los reactores. Las dosis que podrían experimentar serían dosis potencialmente letales en un periodo de tiempo muy corto.” NBC News informa que existe una “disparidad” entre las mediciones de radioactividad proporcionadas por las autoridades japonesas y las registradas en los sistemas militares de los Estados Unidos. Creen que pueden ser superiores. La Agencia Kyodo informa, citando al gobierno japonés, que se detectaron niveles de yodo radioactivo “por encima del límite” (establecido en 300 Bq/kg) en el agua potable de Kawamata, a 45 km al noroeste deFukushima I. Descendió “por debajo del límite” en los siguientes días. El Asahi Shimbun informa, citando a representantes de TEPCO, que se han detectado niveles ínfimos deradiación neutrónica cerca de la puerta principal de Fukushima I. El 23 de marzo la agencia Kyodo confirmará esta información.

- 190 -


La Pizarra de Yuri 2

Evolución de las lecturas de radioactividad en Ibaraki (arriba) y Tochigi (abajo) del 14 al 18 de marzo de 2011. Gráficas: MEXT. (Clic para ampliar)

09:48 – Los helicópteros de las Fuerzas de Autodefensa comienzan a verter agua sobre la unidad 3 de Fukushima I. 10:40 – El Japan Times informa, citando a NISA, que la radiación en la puerta principal deFukushima I es de 10 mSv/h. •

Nota del OIEA: El OIEA confirma que se realizaron 4 descargas de agua desde helicópteros sobre la unidad 3 de Fukushima I. La situación en las unidades 1, 2 y 3, cuyos núcleos han sufrido daños, parece ser relativamente estable. Se sigue inyectando agua marina con mangueras de bomberos. La presión en las contenciones fluctúan. La unidad 4 sigue causando gran preocupación. No hay información sobre el nivel de agua en la piscina de combustible gastada, ni de su

- 191 -


Antonio Cantó

• •

temperatura. No hay tejado. Los niveles de agua en las unidades 5 y 6 han disminuido. RIA Novosti informa, citando a TEPCO, que la radioactividad en la unidad 3 ha aumentado después de que los helicópteros arrojaran agua. AFP informa que China revisará todas sus centrales nucleares y suspenderá la construcción de otras nuevas mientras se crean “nuevas reglas de seguridad”.

Viernes 18 de marzo • •

• • • • • •

El Asahi Shimbun informa que hay ahora 580 personas trabajando en Fukushima I. El Wall Street Journal informa que Alemania transfiere su embajada a Osaka, en el sur, y pide a sus nacionales que abandonen Tokio. Visto también en la agencia Xinhua. El Atlanta Journal-Constitution informa que Delta Air Lines, a menudo considerada la mayor aerolínea del mundo, suspende sus vuelos a Tokio-Haneda pero los mantiene a Tokio-Narita. El Asahi Shimbun informa que diversos países asiáticos comprobarán las importaciones de alimentos japoneses en busca de radiación. MSNBC informa que la FDA estadounidense incrementará los controles radiológicos en las importaciones de alimentos japoneses. El ABC informa que el gobierno español recomienda a sus nacionales alejarse a más de 120 kilómetros de Fukushima. Reuters informa que Alemania aplicará medidas de seguridad “drásticas” a sus centrales nucleares. Euronews informa que la Unión Europea propondrá “pruebas de resistencia voluntarias” en todas sus centrales nucleares.

Science cita al presidente de la Comisión de Energía Atómica de la India declarando que este país “revisará sus centrales, pero no las cerrará”. RIA Novosti informa que la radiación en el extremo oriente de Rusia es “normal”. ITAR-TASS cita al presidente de los Estados Unidos, Barack Obama,

declarando que la radiación de Fukushima presenta un “riesgo sustancial” para las personas y que ordenará una revisión de las centrales nucleares en su país. Bloomberg cita al jefe del gabinete japonés Yukio Edano declarando que “es

imposible pensar en” nuevas centrales nucleares para este país mientras la crisis actual no se resuelva. Reuters informa, citando a la NISA, que en la unidad 2 de Fukushima I se han detectado 0,5 mSv/h. - 192 -


La Pizarra de Yuri 2

Según el JAIF, es en esta fecha cuando se abrieron los agujeros en los tejados de las unidades 5 y 6 para evitar que continuara acumulándose presión. Sábado 19 de marzo

Trabajos para restablecer el suministro eléctrico a Fukushima. Foto: TEPCO. (Clic para ampliar)

• •

El OIEA confirma que Japón ha elevado la calificación del accidente en las unidades 1, 2 y 3 de Fukushima I desdeINES 4 a INES 5. Información de la NISA al respecto. Reuters informa a las 14:49 18/03/2011 EDT que se ha conseguido restablecer el suministro eléctrico a Fukushima I. Associated Press informa que una minúscula cantidad de radiación está llegando a California, en los Estados Unidos. Medida por la estación de Sacramento. Según el profesor Ed Morse, de la UC Berkeley, se trata de “yodo, cesio, bario y kriptón”. Graham Andrew, asesor especial del OIEA, comunica que la situación en los reactores de las unidades 1, 2 y 3 deFukushima I parece ser bastante estable. Hay preocupación por las piscinas de combustible gastado en las unidades 3 y 4. Se está intentando restablecer la energía eléctrica a toda la central. Los generadores diesel están suministrando electricidad para mantener frías las unidades 5 y 6. Las unidades 1, 2 y 3 han sido elevadas a accidente INES 5por las autoridades japonesas. En Fukushima II, la pérdida de funciones de refrigeración en las unidades 1, 2 y 4 ha sido calificada como incidente INES 3.

- 193 -


Antonio Cantó

Protestas en Hiroshima, donde la Compañía Central de Electricidad de Chogoku detuvo el lunes las obras de una nueva central nuclear en Kaminoseki, a unos 80 km de distancia. La agencia Kyodo informa, citando fuentes gubernamentales, que se ha encontrado “radiación excesiva” en leche procedente de Fukushima y espinacas recogidas en la vecina Ibaraki. Visto también en RIA Novosti.Presencia de yodo radioactivo en estos alimentos confirmada por el OIEA, en niveles que no representan un riesgo inmediato para la salud. Confirma también que se recomendó a los centros de evacuación que los evacuados consumiesen las pastillas de yodo. El Ministerio de Sanidad, Trabajo y Bienestar estudia la prohibición de venta de alimentos procedentes de la prefectura de Fukushima. Diversos medios españoles y de otros países informan de la presencia de “restos” de yodo radioactivo en el agua potable de Tokio y en las prefecturas centrales de Gunma, Tochigi, Saitama, Chiba y Niigata. RIA Novosti cita al subdirector de Rosenergoatom, Valeri Asmólov, declarando que los japoneses “están tomando bajo control” la situación.

Un resumen de situación del OIEA del 19 de marzo contiene las siguientes informaciones:

- 194 -


La Pizarra de Yuri 2

(Clic para ver mejor) Estado de los reactores de Fukushima I el 19/03/2011 según el OIEA (http://www.iaea.org/press/?p=1463)

Los seis reactores de la central nuclear de Fukushima I, en la costa este del Japón, son reactores de agua en ebullición (BWR). Un terremoto masivo sucedido el 11 de marzo cortó la potencia (eléctrica) externa a la central y disparó el cierre automático de los tres reactores que se hallaban operando en esos momentos: las unidades 1, 2 y 3. Las barras de control en esas unidades se insertaron con éxito en el núcleo de los reactores, interrumpiendo la reacción de fisión en cadena. Los reactores restantes –unidades 4, 5 y 6 – habían sido cerradas previamente por razones de mantenimiento rutinario. Los generadores diésel de respaldo, diseñados para arrancar al perderse el suministro externo, comenzaron a suministrar electricidad a las bombas para circular refrigerante a los seis reactores. Poco después del terremoto, un gran tsunami alcanzó la instalación, desactivando los generadores de respaldo. Aunque algunas baterías siguieron operativas, la central en su totalidad perdió la capacidad de mantener las funciones adecuadas de enfriamiento de reactores y circulación de agua. Este es el estado actual de los seis reactores, sustentado en la documentación y confirmado por las autoridades japonesas: Unidad 1: El refrigerante de la unidad 1 cubre aproximadamente la mitad de las barras en el reactor, lo que conduce a daños en el combustible. La alta presión en la contención del reactor obligó a los operadores a ventilar gas. El 12 de marzo, una explosión destruyó la capa exterior del edificio del reactor, por encima de la contención. No hay indicaciones de problemas con la vasija de presión del reactor o la contención primaria. El 18 de marzo, Japón asignó una calificación INES 5 a esta unidad. Unidad 2: El refrigerante de la unidad 2 cubre aproximadamente la mitad de las barras en el reactor, lo que conduce a daños en el combustible. Después de una explosión el 15 de marzo, los representantes japoneses expresaron su preocupación de que la contención del reactor podría no estar intacta por completo. Continúan los esfuerzos para bombear agua marina en el núcleo del reactor. El 18 de marzo, Japón asignó una calificación INES 5 a esta unidad. Representantes de la NISA notificaron el 18 de marzo que sigue saliendo humo blanco del edificio. Unidad 3: El refrigerante de la unidad 3 cubre aproximadamente la mitad de las barras en el reactor, lo que conduce a daños en el combustible. Una explosión el 14 de marzo destruyó la parte exterior del edificio de la unidad. Tras la explosión, los representantes japoneses expresaron preocupación de que la contención del reactor

- 195 -


Antonio Cantó

podría no estar intacta por completo. El 18 de marzo, Japón asignó una calificación INES 5 a esta unidad. Representantes de la NISA notificaron el 18 de marzo que sigue saliendo humo blanco del edificio. Continúan los esfuerzos para bombear agua marina en el núcleo del reactor. Constituye una preocupación adicional el estado de la piscina de combustible gastado en la unidad 3. Existen indicaciones de que hay un nivel de agua de refrigeración inadecuado en la piscina, y las autoridades están afrontando este problema arrojando agua al edificio desde helicópteros y mediante camiones. El 18 de marzo, las Fuerzas de Autodefensa del Japón usaron siete camiones de bomberos con este propósito. No hay datos de la temperatura del agua en la piscina.

(Clic para ver mejor) Mediciones de radioactividad en todas las prefecturas de Japón, del 16 al 19/03/2011, excepto Fukushima y Miyagi. Fuente: ATMC / MEXT

Unidad 4: Todo el combustible se había retirado del núcleo para mantenimiento de rutina y se situó en la piscina de combustible gastado. Una parte de la capa exterior del edificio resultó dañada por la explosión del 14 de marzo en la unidad 3. Se han

- 196 -


La Pizarra de Yuri 2

notificado dos incendios que se extinguieron espontáneamente, posiblemente incluyendo uno en la piscina de combustible gastado el 15 de marzo. El 18 de marzo, sigue habiendo humo visible. Las autoridades continúan preocupadas por el estado de la piscina de combustible gastado. El 18 de marzo, Japón calificó el accidente en esta unidad como de nivel INES 4. Unidades 5 y 6. Cerradas por mantenimiento antes del terremoto, no hay preocupación inmediata por los núcleos y la contención de sus reactores. Sin embargo, los instrumentos de ambas piscinas de combustible gastado han mostrado temperaturas que se incrementan gradualmente. El personal ha configurado 2 generadores diésel para alimentar la circulación en los núcleos y las piscinas de las unidades 5 y 6. Los trabajadores han abierto agujeros en los tejados de ambos edificios para evitar la posible acumulación de hidrógeno, que se sospecha la causa de las explosiones en las otras unidades. Restablecimiento de la red eléctrica. Se han realizado progresos para restablecer el suministro eléctrico a la central, aunque se desconoce cuándo se podrá disponer de alimentación en su totalidad. Evacuación. Las autoridades japonesas han informado al OIEA que la evacuación de la población en un área de 20 km alrededor de Fukushima I se ha completado con éxito. También han recomendado a la población hasta 30 km que permanezcan en interiores. Yodo. El 16 de marzo, la Comisión de Seguridad Nuclear de Japón recomendó a las autoridades locales que instruyeran a los evacuados para que se tomaran las pastillas de yodo estable (no radioactivo). Estas pastillas (y el jarabe para los niños) habían sido pre-ubicadas en los centros de evacuación. La orden recomendaba tomar una sola dosis, en cantidad dependiente de la edad. (Bebés: 12,5 mg. De 1 mes a 3 años: 25 mg. De 3 a 13 años: 38 mg. De 13 a 40 años: 76 mg. Mayores de 40 años: no necesaria) Lecturas de radiación. Los niveles de radiación cerca de Fukushima I y más allá se han elevado desde que comenzó el daño a los reactores. Sin embargo, las dosis en Tokio y otros lugares más allá de la zona de 30 km de radio siguen estando alejadas de los niveles que exigirían acciones protectoras. En otras palabras, no son peligrosas para la salud humana. En la central de Fukushima I, los niveles de radiación han presentado tres picos desde el terremoto, aunque se han estabilizado desde el 16 de marzo en cifras significativamente más altas de lo normal pero dentro del rango que permite a los trabajadores proseguir sus tareas de recuperación. - 197 -


Antonio Cantó

05:00 – Se consigue rearrancar la bomba RHR en la unidad 5 de Fukushima I. 22:00 – JAIF informa que se ha restablecido la línea eléctrica exterior a las unidades 1 y 2 de Fukushima I. Se prevé la reconexión para el domingo. “La amenaza inmediata es el daño al combustible en las piscinas de combustible gastado”. La situación continúa estable. Se sigue trabajando para enfriar. Medidas de radiación en la central: 313,1 μSv/h (11:30 local) en la puerta oeste, 2,97 mSv/h (19:00 local) al norte del edificio de servicio. 22:14 – Se consigue rearrancar la bomba RHR en la unidad 6 de Fukushima I. •

El País informa que Francia enviará robots especializados para su uso en entornos radioactivos. Previamente,Reuters había informado que no se estaban utilizando robots en Fukushima.

Domingo, 20 de marzo •

La Agencia Kyodo informa que se logró verter agua en la piscina de combustible usado de la unidad 4 deFukushima I “por primera vez” (80 Tm). También aumentaron los esfuerzos para reactivar los sistemas de refrigeración de la unidad 1 y 2, conectando cables de potencia eléctrica. Reuters cita declaraciones del director general del OIEA, Yukiya Amano, que se ha desplazado a Japón: “Mi impresión es que los japoneses han reforzado sus actividades para estabilizar los reactores (…) Espero que la seguridad y la estabilidad se recuperen tan pronto como sea posible, pero creo que aún no es el momento de decir si creo que van en buena dirección o no.” Anuncia que el OIEA ha pedido a las autoridades japonesas que incrementen la cantidad y calidad de información que les remiten. Graham Andrew, asesor del OIEA, añade: “Hay un riesgo. La cuestión es, cómo de grande es ese riesgo. (…) Creo que conforme pasan los días, y veamos la electricidad conectada a esas unidades, los esfuerzos con el agua, ese riesgo se irá reduciendo día a día (…) ¿Podría suceder algo imprevisto? Muy ciertamente… hay riesgo de que empeore“. Otro representante del OIEA indica: “Hay una gran diferencia entre lo que pasó en Chernóbyl y lo que vemos hoy en Japón (…) En Chernóbyl había una fuerza muy poderosa, una potente explosión y un gran incendio de grafito, que proyectó mucha radioactividad al exterior (…) En Japón no hay emisiones masivas de radiación.“

La Agencia Kyodo informa, citando al gobierno japonés, que el jueves 17 se detectaron niveles de yodo radioactivo “por encima del límite” (establecido en

- 198 -


La Pizarra de Yuri 2

300 Bq/kg de I-131 o 200 Bq/kg de Cs-137) en el agua potable de Kawamata, a 45 km de Fukushima I. La cifra descendió “por debajo del límite” el viernes y el sábado. Se detectaron también los siguientes niveles en otros lugares: Tochigi (77 Bq/kg de I-131, 1,6 Bq/kg de Cs-137); Gunma (2,5 Bq/kg de I-131, 0,22 Bq/kg de Cs-137); Tokio (1,5 Bq/kg de I-131); Chiba (0,79 Bq/kg de I-131); Saitama (0,62 Bq/kg de I-131); Niigata (0,27 Bq/kg de I-131). La Agencia Kyodo informa, citando a TEPCO, que se ha logrado restablecer el

suministro eléctrico a la unidad 2 de Fukushima I a primera hora de la tarde. La Agencia Kyodo informa que se han detectado niveles de radiación “27 veces superiores al límite establecido” en distintos alimentos de Fukushima e Ibaraki (límite: 2.000 Bq/kg de I-131 y 500 Bq/kg de Cs-137). Se han medido 54.000 Bq/kg de I-131 y 1.931 Bq/kg de Cs-137 en espinacas de Hitachi City, unos 100 km al sur de Fukushima I. En Ibaraki se han encontrado espinacas con 24.000 Bq/kg de I-131 y 690 Bq/kg de Cs-137. Se detectaron otros niveles de radiacion superiores al límite en otros lugares. Más genéricamente, se han medido 540 MBq/km2 de I-131 en Tochigi, 190 en Gunma y 40 en Tokio.

14:30 – El reactor 5 de Fukushima I entra en parada en frío. 19:27 – El reactor 6 de Fukushima I entra en parada en frío. Modelo de dispersión radiológica (Cs-137) de Fukushima I hasta el 20/03/2011 elaborado por el Instituto francés de Radioprotección y Seguridad Nuclear (IRSN). A escala regional, en Bq/m 3: A escala global, en fracciones sobre el máximo, con proyección hasta el día 26/03: Lunes, 21 de marzo

- 199 -


Antonio Cantó

"Humo gris" sobre la unidad 3, el día 21/03/2011. Al fondo, la unidad 4. A la izquierda, en primer plano, se aprecia parte de la 2. Foto: Reuters/TEPCO en Público

Nota del OIEA: Las autoridades japonesas confirman que los trabajadores en la central nuclear de Fukushima I han llevado los reactores de las unidades 5 y 6 a parada en frío. Esto significa que ambos reactores se encuentran a seguro, con los sistemas de refrigeración estables, bajo control y con temperatura y presión bajas en el interior. Prosiguen los esfuerzos para restaurar los sistemas en las unidades 1, 2 y 3. La unidad 4 estaba cerrada por mantenimiento, con todo el combustible retirado del núcleo, antes de que se produjera el terremoto del 11 de marzo. Nota del OIEA: Fukushima I. Unidad 1: Se restablecieron los indicadores de presión en la vasija (19/03). Unidad 2: No se ve humo saliendo de la unidad (19/03). Se ha comenzado a bombear 40 Tm de agua marina a la piscina de combustible gastado. Unidad 3: Se ha visto humo blanco saliendo del edificio, pero menos que otros días (19/03). Se empieza a echar agua desde camiones a la piscina de combustible gastado (20/03). Unidad 4: El Ejército Japonés comienza a echar agua al edificio desde camiones (20/03). Unidades 5 y 6: La temperatura en las piscinas de combustible gastado ha descendido considerablemente (20/03). Restablecimiento de la red eléctrica: Se ha conectado energía eléctrica exterior a un transformador auxiliar y los paneles de distribución de la unidad 2. Se sigue trabajando para alimentar equipos específicos de la misma. Contaminación radiológica: Se confirma la presencia de yodo-131 “por encima de límites” en tres muestras de leche, y cesio-137 “por debajo de límites” en otra. En Ibaraki, se ha detectado yodo-131 y cesio-137 “por encima de límites” - 200 -


La Pizarra de Yuri 2

• •

en vegetales (cebollas, espinacas). Se ha detectado yodo-131 “por debajo de límites” en 6 de 46 muestras de agua potable. El Mundo informa que en Iitate-mura (a 40 km de la central) se han detectado 965 Bq de I-131 por kg de agua (límite: 300 Bq/kg). Posteriormente se detectaran 163.000 Bq/kg de Cs-137 (ver más abajo). JAIF informa de 3,05 mSv/h “al norte del edificio de servicio” de la central. Reuters cita al portavoz de la Organización Mundial de la Salud declarando: “Claramente es una situación seria (…) Es mucho más serio de lo que cualquiera creía en los primeros días, cuando pensábamos que esta clase de problema podía limitarse a 20 o 30 kilómetros (…) Es seguro suponer que algunos productos contaminados han salido de la zona de contaminación.” En todo caso, indicó, no hay evidencias de que la comida contaminada haya llegado a otros países. Malcolm Crick, secretario del Comité Científico de las Naciones Unidas sobre los efectos de la radiación atómica, señaló: “Las pocas mediciones de radiación notificadas en la comida hasta el momento son mucho más bajas que las de alrededor de Chernóbyl en 1986, pero la imagen global aún está formándose.”

15:00 – La radioactividad “al norte del edificio de servicios” ha descendido a 2 mSv/h según el JAIF. 15:55 – La agencia Kyodo informa que se vuelve a ver humo blanco saliendo de la unidad 2 y humo gris de la unidad 3 de Fukushima I. TEPCO evacúa brevemente a sus trabajadores. Confirmado por el OIEA. 17:15 – La agencia Kyodo informa que sigue viéndose una pequeña cantidad de humo sobre la piscina de combustible usado de la unidad 3. Se informa que los niveles de radiación no han aumentado, pero los trabajos para restaurar el suministro eléctrico se han interrumpido. Proseguirán más tarde. •

Según la agencia Kyodo, el gobierno japonés ha prohibido la comercialización

de espinacas y “otra hortaliza con hojas” procedentes de las prefecturas de Fukushima, Ibaraki, Tochigi y Gunma. El Asahi Shimbun informa, citando fuentes de TEPCO, que se ha logrado

restablecer la refrigeración “completa” a la unidad 5 de Fukushima I. No así a la unidad 2. El Asahi Shimbun informa, citando fuentes de TEPCO, que se han registrado niveles de I-131 “126,7 veces” superiores a los normales en el agua del mar cerca de Fukushima I.

- 201 -


Antonio Cantó

El Mundo informa que la central nuclear de Fukushima I será desmantelada cuando finalice la crisis. Visto también en ITAR-Tass.

Martes, 22 de marzo

(Clic para ver mejor) Gráfica de radiación en la central nuclear de Fukushima I desde el 12 hasta el 22/03/2011, elaborada por GRS / Ministerio de Medio Ambiente (Alemania) con datos de TEPCO. Pueden observarse varios picos de 8, 11 y 12 mSv/h a partir del incendio en la unidad 4. Según el JAIF, el 15 de marzo se detectaron también 400 mSv/h "en torno a la unidad 3"; y al día siguiente hasta 1 Sv/h según la CBS. Original: http://www.bmu.de/files/bilder/allgemein/image/jpeg/japan_tepco_messung_20_gr.jpg Traducción: La Pizarra de Yuri.

Un resumen de situación del OIEA contiene las siguientes informaciones, suministradas por el asesor especial Graham Andrew a los países miembros y a la prensa:

- 202 -


La Pizarra de Yuri 2

Plano de la central nuclear de Fukushima I. (Clic para ampliar)

Situación actual Estamos viendo algunas mejoras constantes, pero la situación global en la central nuclear de Fukushima I sigue siendo muy seria. Se han detectado altos niveles de contaminación en las proximidades del complejo. El restablecimiento de potencia eléctrica a la unidad 2, del que informamos ayer, son buenas noticias. Hay corriente alterna disponible y se está realizando una prueba de carga eléctrica a las bombas, etc. Se sigue trabajando para restablecer el suministro a la unidad 3. Se sigue inyectando agua de mar a las vasijas de presión de los reactores en las unidades 1, 2 y 3. La presión en la vasija y el pozo seco de la contención en la unidad 3, que ayer estaba aumentando, ha vuelto a descender. Se arroja agua periódicamente a las piscinas de combustible usado en las unidades 2, 3 y 4. El OIEA no tiene aún información sobre el nivel y la temperatura del agua en las piscinas de las unidades 1, 2, 3 y 4.

- 203 -


Antonio Cantó

Al restablecer la refrigeración en las unidades 5 y 6, las temperaturas en sus piscinas de combustible usado continúa descendiendo. Monitorización de la radioactividad Como informé ayer, el equipo de monitorización de la radioactividad del OIEA tomó mediciones a una distancia entre 56 y 200 km de la central nuclear de Fukushima. Se han repetido las medidas de la radiación gamma y la contaminación beta-gamma en la prefectura. Estas medidas han mostrado altos niveles de contaminación beta-gamma . Las autoridades japonesas realizaron mediciones en los mismos momentos y lugares, con resultados comparables. El 20 de marzo se realizaron mediciones de la radiación gamma y la contaminación beta-gamma en más lugares. Los resultados oscilaron entre 2 y 160 μSv/h, que se pueden comparar con una radiación natural de fondo típica de 0,1 μSv/h. Entre 16 y 58 km de la central se han medido altos niveles de contaminación beta-gamma, que van de 0,2 a 0,9 MBq/m2. Se necesitarán más mediciones para estimar la posible contaminación más allá del área actualmente controlada, más lejos y más cerca de la instalación. No tenemos mediciones mostrando que los niveles de contaminación sean altos a más de 58 km de la central, pero no puede excluirse esta posibilidad. No tengo nueva información sobre las mediciones de radiación alfa. Como informé ayer, no se había detectado radiación alfa significativa dentro de la zona de evacuación (20 km). En los próximos días, el equipo de monitorización del OIEA seguirá realizando medidas en la prefectura de Fukushima. Estamos localizando datos de contaminación radioactiva para el resto de Japón. La FAO y el OIEA han suministrado algunos resultados de la monitorización de los alimentos. Las autoridades japonesas han proporcionado datos recientemente que indican la presencia de 55.000 Bq/kg de I-131 en espinacas de la prefectura de Ibaraki . Estos valores están muy por encima de los límites japoneses para el consumo (2.000 Bq/kg). Entiendo que el gobierno japonés está tomando medidas de precaución relevantes y ha indicado a cuatro prefecturas (Ibaraki, Tochigi, Gunma, Fukushima) que, de momento, no distribuyan dos tipos de hortalizas (espinacas y kakina) de estas prefecturas, así como leche de Fukushima.

- 204 -


La Pizarra de Yuri 2

El Océano Pacífico frente a Namie, prefectura de Fukushima, antes del tsunami y los accidentes nucleares. Foto: Yobito Kayanuma / gpscycling.net / Panoramio. ("Ver imagen" para ampliar)

10:35 – Se restablece el suministro eléctrico externo al cuadro de distribución de la unidad 4. 19:41 – Las unidades 5 y 6 deFukushima I conmutan a suministro eléctrico externo normal y se desconectan de los generadores diésel de emergencia. 22:46 –Se restablece la iluminación en la sala de control de la unidad 3. • • • •

La agencia Kyodo informa que se han detectado 161 μSv/h en Namie, una de las localidades evacuadas a 20 km de Fukushima I (1.600 veces el nivel normal). La agencia Kyodo informa que TEPCO comenzará a estudiar el impacto sobre el mar de los accidentes nucleares de Fukushima. Confirmado por el OIEA. La agencia Kyodo informa que los trabajadores han conseguido conectar la línea eléctrica externa al panel de alimentación de la unidad 1 de Fukushima I. CNN informa que los Estados Unidos están considerando evacuar a sus tropas de la base de Yokosuka. El lunes, “el portaaviones USS George Washington, que se hallaba allí sometiéndose a mantenimiento, se hizo a la mar para apartarse de la

pluma de partículas radioactivas que podía soplar sobre la base (…) con una tripulación reducida”. La agencia Kyodo informa que se ha conseguido restablecer la potencia

eléctrica externa a las seis unidades de Fukushima I, pero prosiguen las comprobaciones de los equipos en todas ellas antes de poder alimentarlos. Las emisiones de humos están dificultando estas tareas. Video de Russia Today. Europa Press informa, citando al Financial Times y el gobierno japonés, que TEPCO y este gobierno indemnizarán a los granjeros de las áreas afectadas por la prohibición de vender sus productos.

- 205 -


Antonio Cantó

• •

• •

Reuters informa que el terremoto y el tsunami del 11 de marzo desactivaron 5,8 gigavatios de potencia procedente de las centrales térmicas y 9,1 gigavatios de potencia nuclear con la desconexión de Fukushima I y Fukushima II. Se temen los efectos que pueda tener sobre la economía de cara al verano. Menciona la curiosidad de la “doble red” eléctrica japonesa, parte a 50 Hz y parte a 60 Hz. La agencia Kyodo informa que los Estados Unidos prohibirán la importación de alimentos japoneses de las prefecturas de Fukushima, Ibaraki, Tochigi y Gunma. La cadena CBC, el Toronto Sun y otros medios informan que se han detectado partículas radioactivas procedentes de Japón en la Columbia Británica de Canadá. El nivel de radiación asciende a 0,0005 μSv, “significativamente por debajo de la procedente de otras fuentes”. Euronews informa que vuelve a elevarse “humo blanco y vapor” de la unidad 2. Visto también en la BBC. La televisión NHK informa que se han detectado 163.000 Bq/kg de Cs-137 en el suelo de Iitate, 40 km al noroeste de la central, siendo el nivel normal de 100 Bq/kg “como máximo”.

Trabajadores con equipo protector restableciendo el suministro eléctrico a la unidad 3. Foto: TEPCO. (Clic para ampliar)

Miércoles, 23 de marzo Nota del OIEA: El gobierno japonés informa que se han encontrado sustancias radioactivas en el agua marina, cerca del canal de desagüe sur de Fukushima I. Se ha detectado yodo-131, cesio-134 y cesio-137. La Agencia Japonesa de Ciencia y Tecnología Marítimo-Terrestre (JAMSTEC) realizará más muestreos durante los próximos dos días.

- 206 -


La Pizarra de Yuri 2

16:20 – Sale gran cantidad de humo negro de la unidad 3 de Fukushima I. 17:24 – Se detiene automáticamente la bomba RHR en la unidad 5 de Fukushima I, aparentemente averiada. 22:30 – Desaparece el humo negro de la unidad 3. •

• •

CNN informa que se ha conseguido reconectar la iluminación de la sala de control de la unidad 3 de Fukushima I. También visto en la BBC. Confirmado por el OIEA. La agencia Kyodo informa que se han detectado “números minúsculos” de partículas radioactivas en Islandia. La BBC informa que, según el OIEA, sigue escapando radiación de Fukushima I pero “no están seguros” de dónde procede la fuga. Podría estar filtrándose a través de las vasijas de contención de los reactores o proceder de las piscinas de almacenamiento de combustible usado. Visto también en Reuters. El Jerusalem Post informa, citando a un subdirector de TEPCO, que “preocupa” el reactor nº 1 de Fukushima Iporque su temperatura actual asciende a 380 – 390 ºC. Fue diseñado para operar a 302 º C. Visto también en Today, Reuters.

Nota del OIEA: Llegan los primeros datos sobre la temperatura de la piscina de combustible gastado en la unidad 2 de Fukushima I: en torno a 50 ºC entre el 20 y el 22 de marzo. También se informa sobre la cantidad de combustible en todas las piscinas de la instalación y sobre las tareas que se están realizando para enfriarlas. En cuanto a la piscina común, su temperatura ascendió a 61 ºC el 21 de marzo. Video de los trabajadores y bomberos combatiendo los accidentes nucleares de Fukushima I, en Russia Today: •

Notas sobre los evacuados de Fukushima: en NPR, Bloomberg, Business Week, Wall Street Journal, Público.

- 207 -


Antonio Cant贸

- 208 -


La Pizarra de Yuri 2

Primeras imágenes de los trabajadores en la sala de control de las unidades 1 y 2 de Fukushima I, que aparentemente permanece a oscuras el 23 de marzo. Se ha informado que en esta fecha se logró restablecer la iluminación en la sala de control de la unidad 3. Fotos: NISA. (Clic para ampliar)

Resumen de situación del OIEA del que extraigo las informaciones relativas a las unidades más comprometidas: Sin suministro eléctrico, los sistemas de refrigeración en los seis reactores de Fukushima I no pueden funcionar. Muchos de los problemas que tiene la central se originan en la pérdida de alimentación eléctrica que se produjo a consecuencia del terremoto y el tsunami del 11 de marzo. El terremoto cortó el suministro externo y el tsunami desactivó los generadores diésel de respaldo. El personal japonés ha estado trabajando para restablecer el suministro a la instalación, con sus esfuerzos organizados en tres fases. Unidades 1 y 2. Los sistemas de refrigeración del reactor en estas dos unidades están severamente impedidos. Se sospechan daños al combustible nuclear en ambas unidades. Los trabajadores han logrado conectar con éxito suministro eléctrico exterior a un transformador de la unidad 2 y después a un cuadro de distribución dentro de la central. Los técnicos están realizando pruebas diagnósticas para determinar la integridad de los sistemas eléctricos del reactor. Las autoridades japonesas planean reconectar la unidad 1 algún tiempo después que la unidad 2. Debido a las condiciones degradadas del edificio de la unidad 1, esta tarea puede necesitar más tiempo que el que hace falta para la unidad 2, donde el edificio del reactor ha sufrido significativamente menos daños. Unidades 3 y 4. Los sistemas de refrigeración del reactor de la unidad 3 están severamente impedidos. Se sospechan daños al combustible del reactor y el estado de la piscina de combustible usado es incierto. La unidad 4 estaba cerrada por mantenimiento rutinario y todo su combustible fue trasladado a su piscina antes del terremoto. Por tanto, no hay preocupación [por la ausencia de] combustible en el núcleo del reactor, pero sí hay una preocupación considerable por el combustible presente en la piscina. Los trabajadores están intentando restablecer la electricidad en ambas unidades, pero sus progresos son inciertos. (…) •

Reuters informa, citando a las autoridades tokiotas, que la contaminación radiológica en el agua potable de Tokio (210 Bq/l de I-131) duplica el límite máximo para bebés (100 Bq/l) y por tanto las autoridades recomiendan no utilizarla en la preparación de alimentos infantiles. Visto también en Público, El País, El Mundo. - 209 -


Antonio Cantó

• •

CNN informa que vuelve a salir humo gris de la unidad 3 de Fukushima I. Visto también en la televisión japonesa NHK, ABC News, Público. La agencia Kyodo informa que los trabajos se han tenido que interrumpir temporalmente de nuevo por esta razón. Reuters cita a un subdirector de NISA declarando “no creemos que sea nada serio”. Confirmado por el OIEA. La agencia Kyodo informa que se han detectado 11 hortalizas con hojas contaminados en la prefectura de Fukushima, incluyendo espinacas, brócolis, nabos y coles. La televisión NHK muestra al jefe del gabinete Yukio Edano declarando que la radiación “puede afectar a las personas más allá del límite de 30 km”. La agencia Kyodo informa, citando fuentes de TEPCO, que se han detectado “haces neutrónicos” trece veces desde que comenzaron los accidentes nucleares en Fukushima I. Se midieron a 2,5 km de la central entre el 13 y el 16 de marzo, al sudoeste de las unidades 1 y 2, midiendo entre 0,01 y 0,02 μSv/h; un nivel no peligroso. El Asahi Shimbun había informado el 17 de marzo de una de estas detecciones de radiación neutrónica.

Declaración conjunta del Organismo Internacional de la Energía Atómica (OIEAIAEA), la Organización Mundial de la Salud (OMS-WHO) y la Organización de las Naciones Unidas para la Agricultura y la Alimentación (FAO)confirmando oficialmente la contaminación radiológica de diversos alimentos en Japón y la presencia de medidas de monitorización. Breve, pero incluye un interesante enlace a preguntas y respuestas sobre la materia. •

La CNN informa que 25 embajadas extranjeras han cerrado o se han mudado al sur de Tokio, incluyendo cinco europeas, como las de Alemania y Suiza.

Jueves, 24 de marzo •

La agencia Kyodo cita al jefe del gabinete Yukio Edano declarando que, según una simulación informática realizada por el gobierno japonés, los niños de un año de edad “en algunos casos pueden haber recibido más de 0,1 sieverts de radiación, incluso si estaban fuera de la zona de 30 kilómetros, siempre que hayan pasado todos los días en el exterior desde la explosión en la central nuclear de Fukushima (…) Nuestro análisis demuestra que la población fuera del radio de 30 km no está en una situación en la que tengan que evacuar o permanecer en interiores inmediatamente (pero) como medida de precaución, deberían cerrar las ventanas y permanecer en interiores tanto como sea posible”. La presidenta de la Comisión de Seguridad Nuclear señaló que la dosis acumulada por los adultos

- 210 -


La Pizarra de Yuri 2

fuera de la zona de 30 km sería más baja, pero que las personas expuestas a esta dosis deben tomar yoduro de potasio. La simulación fue realizada por el Centro de Tecnología para la Seguridad Nuclear mediante el sistema SPEEDI. 10:50 – Humo blanco parecido al vapor saliendo de la unidad 1 de Fukushima I. 11:30 – Se restablece la iluminación en la sala de control de la unidad 1 de Fukushima I. 16:14 – La bomba del RHR que había fallado en la unidad 5 de Fukushima I es reemplazada y puesta en marcha otra vez. La Autoridad Finlandesa de Seguridad Nuclear y Radiológica (STUK) informa que se han detectado minúsculas cantidades de I-131 procedente de Fukushima en Helsinki y Rovaniemi, “por debajo de 1 Bq/m 3 de aire”. También visto en la agencia AGI.

Primer plano de los daños por el incendio en la unidad 4 de Fukushima I. Foto: TEPCO. (Clic para ampliar)

La agencia Kyodo informa que Hong Kong prohibe la importación de comida japonesaprocedente de las prefecturas de Fukushima, Ibaraki, Tochigi, Gunma y Chiba al detectar yodo-131 en tres muestras. Quedan prohibidas “la leche, las bebidas de leche, la leche en polvo, las hortalizas, las frutas, la caza refrigerada o congelada, la carne, las aves de corral, los huevos de ave de corral y los productos acuáticos refrigerados o congelados que se hayan recogido, manufacturado, procesado o empaquetado el 11 de marzo o más tarde”. Quedan excluidos los alimentos que vengan certificados por las autoridades japonesas como libres de

radiación. Canadá también las restringe. Bloomberg informa que Australia y Singapur también limitan las importaciones de comida japonesa.

- 211 -


Antonio Cantó

• •

RIA Novosti informa que Rusia prohibe la importación de alimentos desde las prefecturas de Fukushima, Ibaraki, Tochigi, Gunma, Chiba y Nagano. La agencia Kyodo informa que los bancos japoneses están considerando una solicitud de préstamo realizada por TEPCO por importe de 2 billones de yenes (17.000 millones de €) para “dar varios pasos que lleven el suministro eléctrico actual a condiciones normales” y “poner en marcha instalaciones de generación de electricidad tan pronto como sea posible”. El día 30 TEPCO declarará que este préstamo “no basta” para mantener la empresa a flote y pagar los costes de los accidentes nucleares.

Nota del OIEA: Se sigue “avanzando” para restablecer el suministro eléctrico a las unidades 1, 2, 3 y 4 de Fukushima I. Confirman que las luces funcionan en la sala de control de la unidad 3. Confirman que se vio humo de nuevo en la unidad 3, lo que obligó a evacuar a los trabajadores en esta unidad y en la 4. Se siguen arrojando grandes cantidades de agua a la piscina de combustible gastado de la unidad 4, donde persiste la preocupación de que no haya bastante agua sobre los ensamblajes de combustible. Se confirma que está restablecido el suministro eléctrico a las unidades 5 y 6, que ya se hallaban en parada en frío. •

El Instituto Central de Meteorología y Geodinámica de Austria, una institución oficial, estima en este estudio quelas emisiones de Fukushima ascienden “al 20% de Chernóbyl en yodo-131 y entre el 20 y el 60% en cesio-137”, utilizando datos de estaciones de medida de la CTBTO en California y Japón. Visto en inglés en el Deutsche Welle.

Evacuados del entorno de Fukushima en un refugio de Namie. (Clic para ampliar)

- 212 -


La Pizarra de Yuri 2

• • •

• •

La agencia Kyodo informa que los accidentes nucleares están dificultando la búsqueda de desaparecidos por el terremoto y tsunami en la prefectura de Fukushima. En estos momentos, la cifra oficial de víctimas ocasionadas por estos fenómenos sísmicos asciende a 9.523 muertos y 16.094 desaparecidos, según la policía nacional japonesa. El Washington Post informa que en los análisis de seguridad deFukushima I “se desdeñaron” los riesgos de tsunami. También visto en el Sydney Morning Herald. Nota de NPR sobre los evacuados de Fukushima. También en NTDTV, Financial Times. La televisión NHK informa que hay “lo que parece vapor” sobre las unidades 1, 2, 3 y 4 de Fukushima I, filmado por uno de sus helicópteros. Es la primera vez que se observa este tipo de humareda en la unidad 1. NHK y la agencia Kyodo informan, citando a TEPCO y la NISA, que otros tres trabajadores han sufrido irradiación y dos de ellos han tenido que ser hospitalizados por quemaduras de radiación beta en los pies. Al parecer, tuvieron los pies metidos en agua mientras trabajaban y ésta se infiltró dentro de los trajes de protección, recibiendo en los mismos una exposición de 0,17 – 0,18 Sv. Tras el incidente, se evacuó al personal de la planta baja y el primer piso de la unidad 3 de Fukushima I. También visto en Reuters. Confirmado por el OIEA. Dos días después, la agencia Kyodo elevó esta cifra a 2 – 6 Sv. Según RIA Novosti, 17 trabajadores han recibido dosis altas de radiación hasta el momento. La agencia Kyodo informa, citando fuentes de TEPCO, que se han vuelto a encontrar niveles altos de radionúclidos en el agua marina hasta 30 km alrededor de Fukushima I (yodo-131, cesio-134, cesio-137). Visto también en la NHK, aquí y aquí. NHK informa que las autoridades de Tokio y cinco ciudades periféricas han retirado el aviso que recomendaba no utilizar agua del grifo para preparar comida de bebé, dado que los niveles de I-131 han descendido de nuevo por debajo del límite de seguridad. Sin embargo, en Kawaguchi, Matsudo y otra localidad se cursan avisos al detectar niveles elevados de I-131 en las depuradoras de agua potable.

• • •

La agencia Kyodo informa que las llegadas de extranjeros al aeropuerto de Narita – Tokio han descendido un 60% desde el terremoto. La agencia Kyodo informa que Singapur ha detectado radiación en verduras japonesas. ABC News informa que Rusia está comprobando un barco procedente de Japón por presencia de radioactividad.

- 213 -


Antonio Cantó

Bloomberg informa que TEPCO y otras operadoras eléctricas japonesas detienen sus planes de expansión nuclear como consecuencia de los accidentes de Fukushima. NHK informa que TEPCO combate el incremento de presión y temperatura medido recientemente en la unidad 1 de Fukushima I, al parecer con éxito. Se habría conseguido también encender las luces de la sala de control de las unidades 1 y 2. NHK cita a Ban Ki-moon, secretario general de las Naciones Unidas, apelando a “una revisión internacional de la gestión de las centrales nucleares”.

El cesio es un metal dúctil que funde a 28,4 ºC. La variante isotópica cesio-137 es radioactiva, un emisor de radiación beta y gamma que se produce característicamente a consecuencia de los procesos nucleares artificiales y suele liberarse en forma de gas durante las explosiones atómicas y accidentes nucleares. Con una vida media de 30,17 años, es soluble en agua y pasa a todos los tejidos del organismo y especialmente los músculos, con un comportamiento biológico parecido al del potasio. Sin embargo, su vida media biológica en tejidos humanos es de unos 70 días. Hoy en día, sigue siendo la principal fuente de radioactividad en el entorno de Chernóbyl.

Viernes, 25 de marzo Nota del OIEA: Se confirma la presencia de yodo-131 y cesio-137 en el agua marina, mediante muestreos tomados hasta a 30 km de Fukushima I. Nota del OIEA: Se confirma que tres trabajadores han resultado irradiados en la unidad 3 de Fukushima I,con dosis de 0,17 – 0,18 Sv. Al siguiente día, la agencia Kyodo eleva esta cifra a 2 – 6 Sv. •

La NHK informa, citando fuentes del Ministerio de Defensa, que la temperatura superficial de los reactores en las unidades 1, 2, 3 y 4 de Fukushima I“ha descendido por debajo de 20 ºC”.

- 214 -


La Pizarra de Yuri 2

• •

Reuters informa que algunos barcos están evitando el puerto de Tokio por temor a la radiación. Reuters informa que Lufthansa vuelve a volar a Tokio. Había derivado sus vuelos a aeropuertos más al sur. Alitalia también. A las tripulaciones de las aerolíneas rusas, que han operado los destinos japoneses con normalidad en este periodo, se les ha instruído para que no se reaprovisionen de agua en Tokio. La NHK informa que se ha encontrado radioactividad excesiva en una verdura cultivada en el área de Tokio(890 Bq/kg de Cs-137, siendo el límite 500 Bq/kg). La agencia Kyodo informa que de 66 menores entre 1 y 15 años que han pasado pruebas en el área de Fukushima, ninguno tiene la tiroides afectada. Confirmado por el OIEA. Los Angeles Times informa que diversos especialistas en materia nuclear están descontentos con la cantidad y calidad de la información técnica específica que se recibe de Japón. Nota de Reuters sobre los evacuados de Fukushima.

09:00 – Hay trazas de que agua contaminada de la unidad 2 de Fukushima I se está derramando al desagüe general. 18:02 – Comienzan a refrigerar la unidad 3 de Fukushima I con agua dulce en vez de salada, para evitar la acumulación de sal dentro del reactor. Resumen de situación del OIEA: Situación actual: Se sigue recuperando la instrumentación en las unidades 1, 2 y 4 de Fukushima I. Los trabajadores han vuelto a las unidades 3 y 4 después de que cesara el “humo negro” en la 3. La presión del reactor está aumentando en la 1, las lecturas de presión no son confiables en la 2 y están estables en la 3. La temperatura en la toma de alimentación de agua de la vasija del reactor está descendiendo en la unidad 1 (243 ºC) y en la 3 (aprox. 185 ºC), mientras se mantiene estable en la 2 (aprox. 102 ºC). Las unidades 5 y 6, en parada en frío, se someten a mantenimiento. Las tasas de radiación en las vasijas de contención y cámaras de supresión de las unidades 1 y 2 han descendido ligeramente. Monitorización radiológica: A distancias entre 34 y 73 km de Fukushima I, en dirección oeste, se registran de 0,6 a 6,9 μSv/h. En los mismos lugares, la contaminación beta-gamma va de 0,04 a 0,4 MBq/m 2. A distancias entre 30 y 32 km en

- 215 -


Antonio Cantó

dirección noroeste, la contaminación beta-gamma está entre 3,8 y 4,9 MBq/m 2. A 21 km se registraron 115 μSv/h y no se pudo determinar la contaminación beta-gamma. En la central nuclear afectada, la radiación ha descendido de 1,93 mSv/h a 210 μSv/h entre el 21 y el 23 de marzo; de los seis radioisótopos comprobados, sólo se han detectado dosis de I-131 por encima del límite.

Según el OIEA, la contaminación radiológica del agua, la leche y las verduras en varias prefecturas japonesas se está convirtiendo en la mayor preocupación.

Hay grandes variaciones diarias en la deposición de I-131 y Cs-137 en las diez prefecturas que las notifican. Se atribuye a la humedad y las lluvias recientes. En el distrito Shinjuku de Tokio, la deposición de I-131 se incrementó en 36.000 Bq/m 2 entre el 22 y el 23 de marzo, y la de Cs-137 en 340 Bq/m 2. El 24 de marzo, la superficie del agua marina muestreada en ocho puntos distintos presentó de 24,9 a 76,8 Bq/l de I-131 y de 11,2 a 24,1 Bq/l de Cs-137. También se tomaron muestras del aire, que están siendo estudiadas. Los límites de I-131 y Cs-137 para la comida, la leche y el agua están excedidos en un gran número de los muestreos realizados en las prefecturas de Fukushima e Ibaraki. Esto se considera ahora mismo lo más preocupante, mientras que la situación en los reactores parece menos aguda en algunos aspectos, si bien la situación general sigue siendo muy seria. •

La agencia Kyodo informa, citando fuentes de TEPCO, que el agua en el que sufrieron irradiación tres trabajadores ayer presenta un nivel de radioactividad “10.000 veces superior al normal”. Se considera indicio significativo de que el combustible en el reactor o la piscina de la unidad 3 de Fukushima I está dañado.

- 216 -


La Pizarra de Yuri 2

La televisión NHK informa verbalmente que la presencia de radioisótopos en este agua ascendía a 3,5 MBq/cm 3. La televisión NHK cita al presidente ruso Dmitry Medvédev proponiendo una normativa más estricta y unificada en todo el mundo para las centrales nucleares, así como la restricción de estas instalaciones en zonas con grave riesgo sísmico o análogo. Pide también reforzar y extender el papel del OIEA para que pueda “medir y suministrar” información más precisa sobre las centrales nucleares del mundo. La agencia Kyodo cita al jefe del gabinete Yukio Edano declarando que TEPCO no podrá beneficiarse de la limitación de responsabilidad civil a 120.000 millones de yenes (1.047 millones de €) por desastre natural dado que “es imposible bajo las circunstancias sociales actuales”. Reuters informa que dos viajeros japoneses han “recibido tratamiento

médico” en China al presentar niveles de radiación que “excedían seriamente los límites”. Se ha determinado que no son peligrosos para otras personas. Reuters informa, citando fuentes de TEPCO, que la radiación en el agua de la

unidad 3 de Fukushima I que ayer afectó a tres trabajadores podría proceder del núcleo del reactor. La agencia Kyodo informa que el gobierno japonés “recomienda” la

“evacuación voluntaria” a la población que está en un radio de 20 a 30 kilómetros alrededor de Fukushima, a quienes anteriormente se indicó que permanecieran en interiores. Numerosos medios, como el New York Times, lo interpretan como una “ampliación discreta” del radio de evacuación. El Asahi Shimbun informa, por primera vez en Japón, que el accidente nuclear de Fukushima ha alcanzado el nivel INES 6. Por el momento, no parece haber confirmación oficial de esta recalificación, que probablemente correspondería a la unidad 3 de Fukushima I.

El ayuntamiento de Futaba, la localidad más próxima a la central de Fukushima I. Actualmente la población está evacuada. ("Ver imagen" para ampliar)

- 217 -


Antonio Cantó

Sábado, 26 de marzo •

La agencia Kyodo informa que dos de los tres trabajadores irradiados ayer sufren “exposición interna” y han recibido de 2 a 6 Sv por debajo de los tobillos. Previamente el OIEA y distintos medios habían informado de 0,17 a 0,18 Sv. El límite autorizado en estos momentos para los trabajadores en Fukushima es de 0,25 Sv. Confirmada la cifra de 2 a 6 Sv por el OIEA. Según TEPCO, el agua de la unidad 3 donde resultaron irradiados recientemente los tres trabajadores presentaba una radiación de 400 mSv/h en superficie y la concentración de radionúclidos era aprox. 3,9 · 10 6 Bq/cm3 en total (detalle más abajo). La agencia Kyodo informa que se está inyectando agua dulce a los reactores para evitar la acumulación de sal procedente del agua marina que se ha venido usando. TEPCO reconoce “problemas en la gestión de la radioactividad”, refiriéndose a los trabajadores irradiados anteayer. La agencia Kyodo informa que los niveles de radiación en el agua potable de Tokio han vuelto a la normalidad. La televisión NHK informa que se sigue detectando radioactividad en el agua por encima de los límites de seguridad para bebés en la prefectura de Ibaraki, notablemente en Hitachi City. La agencia Kyodo informa que las personas irradiadas serán enviadas a hospitales por todo Japón si superan el centenar. Actualmente, los centros de referencia de emergencia son el Instituto Nacional de Ciencias Radiológicas en Chiba y la Universidad de Hiroshima. La agencia Kyodo informa que diversas agencias de las Naciones Unidas han mantenido una reunión, presidida por Ban Ki-moon, para estudiar la manera de responder “a la crisis en marcha en la central nuclear de Fukushima I“. Nikkei informa que, además de en la unidad 3, se ha detectado agua “altamente radioactiva” en los edificios de turbinas de las unidades 1 y 2 de Fukushima I. Ver composición en la unidad 1 según la NISA.

10:10 – Comienzan a refrigerar la unidad 2 de Fukushima I con agua dulce en vez de salada, para evitar la acumulación de sal dentro del reactor. 16:46 – Se restablece la iluminación en la sala de control de la unidad 2 de Fukushima I. Resumen de situación del OIEA: No se han producido cambios significativos desde ayer. A pesar de la llegada de suministro eléctrico, es demasiado pronto para saber qué instrumentación podrá recuperarse en las unidades 1, 2, 3 y 4 de Fukushima I. Continúa

- 218 -


La Pizarra de Yuri 2

detectándose radiación en el aire, el agua y la tierra a decenas de kilómetros alrededor de la instalación. (Leer el resumen completo para más detalles) Un informe de la NISA detalla los radionúclidos encontrados en el agua de la planta baja de la unidad 1 deFukushima I: cloro-38 (1,6 x 106 Bq/cm3), arsénico-74 (3,9 · 102 Bq/cm3), itrio-91 (5,2 · 104 Bq/cm3), yodo-131 (2,1 · 105 Bq/cm3), cesio-134 (1,6 · 105 Bq/cm3), cesio-136 (1,7 · 104 Bq/cm3), cesio-137 (1,8 · 106 Bq/cm3) y lantano-140 (3,4 · 102 Bq/cm3). Por su parte, según TEPCO, el agua de la unidad 3 de Fukushima I donde resultaron irradiados recientemente los tres trabajadores presentaba una radiación de 400 mSv/h en superficie y la concentración de radionúclidos era: cobalto-60 (7 · 102 Bq/cm3), tecnecio-99m (2,5 · 103 Bq/cm3), yodo-131 (1,2 · 106 Bq/cm3), cesio-134 (1,8 · 105 Bq/cm3), cesio-136 (2,3 · 104 Bq/cm3), cesio-137 (1,8 · 105 Bq/cm3), bario140 (5,2 · 104 Bq/cm3), lantano-140 (9,4 · 103 Bq/cm3) y cerio-144 (2,2 · 106 Bq/cm3), para un total aproximado de 3,9 · 10 6 Bq/cm3.

Sumio Mabuchi es nombrado "persona al cargo" de la gestión de los accidentes nucleares de Fukushima. Diversos especialistas internacionales habían criticado, entre otras cosas, que en Japón no parecía haber ningún dirigente político gestionando específicamente el problema.

NHK informa que dos de estos tres trabajadores irradiados recibirán tratamiento para quemaduras en el Instituto Nacional de Ciencias Radiológicas de Chiba. Les darán el alta a principios de la semana próxima, pero los doctores temen que “desarrollen síntomas en el plazo de tres semanas”. El tercer trabajador no presenta signos de exposición interna.

Reuters, Kyodo citan a la NISA indicando que la radioactividad en el agua del mar alrededor deFukushima I ha aumentado a 1.250 veces el nivel normal. Podrían estar refiriéndose a la información reflejada en esta nota del OIEA.

- 219 -


Antonio Cantó

• •

NHK informa que el nivel de radiación en el aire del Japón nororiental ha permanecido estable o ha descendido en los últimos días. Sin embargo, los niveles en algunas localidades son superiores al máximo anual que se considera inocuo para la salud humana. Nota de NHK sobre las evacuaciones de Fukushima. NHK informa que los operadores de las demás centrales nucleares japonesas tienen problemas para arrancar de nuevo sus reactores o transportar el combustible hasta las instalaciones, dado que las autoridades municipales les están presionando para que revisen las medidas de seguridad y congelen los proyectos de expansión. Kyodo cita al jefe del gabinete Yukio Edano declarando que es difícil saber cuándo terminará la crisis nuclear enFukushima I. Dice: “La situación actual es que estamos evitando que empeore” pero “requerirá una enorme cantidad de trabajo” para solucionarla. Anuncia que Sumio Mabuchi, un ex ministro de urbanismo, infraestructuras, transporte y turismo, ha sido nombrado “persona al cargo” del problema y “asesor especial” del primer ministro Naoto Kan. [Nota: diversos especialistas internacionales habían criticado, entre otras cosas, que en Japón no había un dirigente claro de la gestión de los accidentes nucleares]

Domingo, 27 de marzo El OIEA informa que TEPCO comienza a retirar el agua acumulada en los edificios de turbinas 1 y 2 para intentar la reactivación de algunos equipos esenciales. Se está estudiando también para el 3 y 4.

Mapa preliminar de deposición radiológica de Fukushima (dosis tiroidea a la intemperie) realizado con el sistema SPEEDI para el periodo del 12 al 24/03/2011. Línea roja sólida: hasta 10 Sv. Roja punteada: 5 Sv. Roja de puntos y rayas: 1 Sv. Naranja: 500 mSv. Amarilla: 100 mSv. Fuente: Comisión de Seguridad Nuclear del Japón (http://www.nsc.go.jp/). (Clic para ampliar)

- 220 -


La Pizarra de Yuri 2

Resumen de situación del OIEA: Sigue saliendo vapor de varias unidades. Electricidad restablecida en las salas de control de las unidades 1, 2 y 3. Radiación en las vasijas de las unidades 1, 2 y 3 descendiendo ligeramente. Presión aumenta un poco en la 1 y está estable en las 2 y 3. La temperatura desciende levemente en la 1 y 2. Se sigue bombeando agua por medios externos. Sin cambios en la unidad 4. Los tres trabajadores irradiados están aún en el hospital, en observación. Las dosis de radiación en Fukushima tienden a descender. En 7 prefecturas se ha detectado una deposición de 500 Bq/m 2 de yodo-131 y menos de 100 Bq/m 2 de cesio137 diarios entre el 18 y el 25 de marzo. El 26 de marzo, en la prefectura de Yamagata hubo deposición de 7.000 Bq/m 2 de I-131 y 1.200 de Cs-137. No hay cambios significativos en la radiación gamma detectada en las 45 prefecturas japonesas, con un ligero descenso debido a la desintegración del I-131. En el área de 30 a 41 km de la central se detectan de 0,9 a 17 µSv/h y deposición betagamma de 0,03 a 3,1 MBq/m 2. En el agua del mar hasta 30 km se detecta un descenso en la concentración de I-131 y Cs-137, que se atribuye eminentemente a la dilución. El grupo SIROCCO de la Universidad de Toulouse (Francia) está analizando estos datos. Sigue la recomendación de no beber agua potable en 7 puntos debido al I-131 (6 sólo para niños y 1 para niños y adultos). Se sigue detectando radiación en alimentos, la mayoría por debajo de límites. El OIEA confirma la estimación de que los trabajadores irradiados recientemente en Fukushima Irecibieron de 2 a 6 sieverts en las piernas. Ajustada a 2 – 3 sieverts el 29 de marzo. •

Hay confusión en los medios sobre una cifra de radiación “diez millones de veces superior a la normal” detectada en el agua del reactor 2 de Fukushima I, según fuentes de TEPCO. Al parecer pudo tratarse de una equivocación. Según NHK, Edano critica a TEPCO por haber suministrado información errónea a este respecto. Al día siguienteKyodo informa de “más de mil milisieverts” en una zanja situada en el exterior de la unidad 2, es decir más de un sievert. [Uno o dos sieverts por hora se corresponderían con esta cifra “diez millones de veces superior a la normal”, que es de una o dos décimas de microsievert por hora.] Visto

- 221 -


Antonio Cantó

también en Bloomberg. Confirmado por el OIEA; más de 1 Sv/h en una zanja fuera de la unidad 2. Lunes, 28 de marzo

La carretera que conduce a la central nuclear de Fukushima, antes del tsunami y los accidentes nucleares (clic para ampliar).

Kyodo sigue informando, citando fuentes de TEPCO, que se ha detectado más

de 1 Sv de radiación en una zanja fuera del edificio de la unidad 2 de Fukushima I. Se cree que procededel núcleo del reactor como consecuencia deuna fusión parcial, en palabras del jefe del gabinete Yukio Edano. Añadió que el gobierno se esfuerza para impedir que esta radioactividad llegue al agua marina o se infiltre a las aguas subterráneas. Visto también en Bloomberg.Confirmado por el OIEA: más de 1 Sv/h en una zanja fuera de la unidad 2. Bloomberg informa que hay presiones de los accionistas para forzar la dimisión

del presidente de TEPCO por pérdidas de 29.000 millones de dólares relacionadas con los accidentes nucleares. El Wall Street Journal reproduce unos correos electrónicos entre trabajadores de

TEPCO, con una interesante “visión desde dentro”. Bloomberg informa que en la prefectura de Fukushima “y otras” podría no plantarse arroz este año debido a la radiación. La prefectura de Fukushima es la 4ª productora de arroz del Japón. Nikkei informa que el conglomerado estatal francés Areva ha recibido una

“petición de ayuda” por parte de TEPCO. Visto también en Reuters. Xinhua informa que se han detectado “niveles extremadamente bajos” de

material radioactivo en el aire sobre las costas de China sudoriental.

- 222 -


La Pizarra de Yuri 2

Kyodo, Reuters y otros informan citando a TEPCO que se ha encontrado plutonio en muestras tomadas hace una semana en el suelo de Fukushima I. Se habría hallado en cinco puntos distintos, en una concentración que “no representa un riesgo para la salud humana”, según la empresa. Confirmado por el OIEA en dos de cinco puntos. Kyodo cita al jefe del gabinete Yukio Edano pidiendo a la población que no regrese por el momento al área evacuada: “Es muy probable que cualquier punto en 20 kilómetros [alrededor de] la central esté contaminado y hay un gran peligro [para la salud humana] en este momento”.

Martes, 29 de marzo

Estado de las unidades 4 (izda.) y 3 (dcha.) de la central nuclear de Fukushima I. (Clic para ampliar)

Kyodo cita al director general del OIEA Yukiya Amano declarando que ha propuesto a distintos países una reunión de alto nivel, probablemente en julio, para discutir asuntos como el aumento de la seguridad en las centrales nucleares y las lecciones aprendidas en Japón. También dice que la situación en Fukushima es seria y necesitará algún tiempo para estabilizarse, pero cree que podrá solucionarse con los esfuerzos de los trabajadores.

Kyodo informa que se han detectado “trazas” de materiales radioactivos en Carolina del Sur, Carolina del Norte y Florida, en los Estados Unidos.

11:50 – Se restablece la iluminación en la sala de control de la unidad 4. El OIEA confirma la presencia de plutonio en el suelo de Fukushima I. Indica que la composición isotópica de este plutonio sugiere que el material procede de la central, no de las pruebas nucleares de la Guerra Fría como se había apuntado. En todo caso, la cantidad hallada no excede significativamente de los niveles de fondo de los últimos 30 años. Detalles en la NISA.

- 223 -


Antonio Cantó

El OIEA ajusta la cantidad de radiación recibida por los trabajadores recientemente irradiados a 2 – 3 Sv. Indica que han sido dados de alta en el hospital y harán seguimiento en domicilio. El OIEA informa que están buscando el origen y recorrido del agua contaminada en las unidades 1 a 4. Se está consiguiendo evacuar agua de la unidad 1. Este informe también incorpora las últimas mediciones de radioactividad en algunas de las prefecturas afectadas. OIEA – Disponibles Powepoints: Modelo de concentración integrada tiempo / deposición de la sección de seguridad operacional del OIEA, Impacto potencial sobre el entorno marino de los laboratorios del medio marino del OIEA en Mónaco y otro sobre las consecuencias radiológicas medidas hasta el momento. Miércoles, 30 de marzo

Se acepta ya generalmente un meltdown al menos parcial en el reactor de la unidad 2 de Fukushima I (en la imagen), que sería origen de las elevadas mediciones de radiación en el agua acumulada en el exterior.

Reuters analiza algunos de los complejos problemas que tendrán los evacuados

de Fukushima para regresar a casa, si pueden regresar. Algunos especialistas estudianposibles soluciones. Un informe especial de Reuters realiza fuertes críticas contra TEPCO y la industria nuclear japonesa. Entre estas críticas se incluirían: TEPCO ignoró las advertencias sobre tsunamis de su propio ingeniero jefe de seguridad, sistemas de ventilación vulnerables a pesar de los informes sísmicos, la empresa y no el

- 224 -


La Pizarra de Yuri 2

regulador nuclear decidían sobre cuestiones de seguridad, ocultación de informes problemáticos. Ver PDF completo (en inglés). El OIEA confirma que se ha encontrado agua fuertemente radioactiva en zanjas fuera de los edificios de Fukushima I. En una zanja cerca de la unidad 2 se detectó más de 1 sievert/hora a las 18:30 UTC del 26 de marzo. Se cree que esta radiación procede de agua “que ha entrado en contacto con elementos fundidos del núcleo durante un tiempo” y ha escapado al edificio de turbinas por un camino aún sin identificar. Cerca de la unidad 1 se han detectado 0,4 mSv/h y cerca de la unidad 3 no se han podido tomar mediciones debido a los escombros. Este informe contiene otros datos sobre el estado de los reactores y la radiación en el exterior del complejo que no varían significativamente sobre días precedentes. • •

• •

• • •

Reuters informa de “humo negro” en la central nuclear de Fukushima II, al parecer ocasionado en un cuadro de distribución eléctrica. Ya se habría disipado. Kyodo cita a TEPCO confirmando que los cuatro reactores afectados en Fukushima I serán desmantelados cuando finalice la crisis. Bloomberg cita al jefe del gabinete Yukio Edano diciendo que el 5 y el 6 tampoco se podrán recuperar. Kyodo cita al primer ministro Naoto Kan declarando que considera independizar la Agencia de Seguridad Nuclear del Ministerio de Industria. Kyodo informa que el gobierno japonés ha ordenado a las compañías eléctricas mejorar sus protecciones contra tsunamis y prevenir pérdidas completas de refrigeración “en el plazo de un mes”, con medios móviles y modificaciones sobre los procedimientos actuales, como “un primer paso para mejorar la seguridad nuclear japonesa”. Reuters informa que algunos miembros del gobierno japonés podrían estar considerando la nacionalización de TEPCO. Kyodo informa que la naviera noruego-estadounidense Royal Caribbean cancela las visitas turísticas de su crucero de lujo Legend of the Seas a Japón. Kyodo informa que un grupo de 1.300 evacuados de Futaba, hasta ahora alojados en un estadio deportivo de Saitama, han sido trasladados a un centro de enseñanza que estaba cerrado pero dispone de mejores instalaciones para albergarlos. Kyodo informa que un vehículo del gobierno a control remoto pulverizará una resina para fijar la contaminación radioactiva sobre los escombros de Fukushima I y reducir así su diseminación al medio ambiente. Kyodo cita a la Agencia de Seguridad Nuclear japonesa declarando que los esfuerzos para retirar el agua “del edificio de un reactor en problemas” y una zanja - 225 -


Antonio Cantó

subterránea se han encontrado con dificultades, complicando así la posibilidad de restablecer las funciones de refrigeración. Podrían referirse a la unidad 1 de Fukushima I. También informa que ayer se detectaron altos niveles de yodo131 en el agua marina cerca de las bocas de desagüe de la central, 3.355 veces superiores al límite permitido por la ley. Reuters cita a representantes de TEPCO diciendo que el préstamo solicitado el día 24 por importe de 2 billones de yenes (17.000 millones de €) “no basta” para mantener la empresa a flote y pagar los costes de los accidentes nucleares en Fukushima I. TEPCO es la compañía privada de servicios públicos más grande de Asia.

La NISA ha informado que en la tarde del 30 de marzo los dos trabajadores desaparecidos fueron hallados muertos en el nivel –1 del edificio de turbinas de la unidad 4. Jueves, 31 de marzo (hora local japonesa)

Evacuadas de Futaba, la localidad más próxima a Fukushima I, durante su estancia en el estadio de Saitama.

Bloomberg cita al jefe del gabinete Yukio Edano declarando que “es obvio” que los reactores 5 y 6 deFukushima I tampoco podrán ser recuperados, y que Japón considera la posibilidad de enterrar las instalaciones afectadas en sarcófagos de hormigón.

Un resumen de situación de la OIEA sigue calificando la situación en Fukushima Icomo “muy seria”. Detalla los esfuerzos para evacuar el agua contaminada de las salas de turbinas e incluye información sobre la temperatura de los reactores y datos sobre las

- 226 -


La Pizarra de Yuri 2

mediciones de radioactividad en diversas prefecturas afectadas. Menciona un nuevo incidente en que tres trabajadores resultaron salpicados con agua radioactiva pero, tras ducharse, no se les detect贸 contaminaci贸n. Ir al mes de abril

- 227 -


Antonio Cantó

Mediciones de radioactividad en Japón y el entorno de Fukushima I el 16/03/2011 Yuri, el 17 de marzo de 2011 @ 16:29 · Categoría: Actualidad, Ciencia popular, Sociedad y civilización, Tecnología

Nota 6 sobre los accidentes nucleares de Fukushima. Ver también: Secuencia de acontecimientos en todas las centrales nucleares afectadas – Video aéreo de los daños en Fukushima I – Estado de los reactores afectados Actualización 28/03/2011:

(Clic para ampliar) Mapa preliminar de deposición radiológica de Fukushima (dosis tiroidea a la intemperie) realizado con el sistema SPEEDI para el periodo del 12 al 24/03/2011. Línea roja sólida: hasta 10 Sv. Roja punteada: 5 Sv. Roja de puntos y rayas: 1 Sv. Naranja: 500 mSv. Amarilla: 100 mSv. Fuente: Comisión de Seguridad Nuclear del Japón (http://www.nsc.go.jp/).

Actualización 22/03/2011:

- 228 -


La Pizarra de Yuri 2

(Clic para ver mejor) Gráfica de radiación en la central nuclear de Fukushima I desde el 12 hasta el 22/03/2011, elaborada por GRS / Ministerio de Medio Ambiente (Alemania) con datos de TEPCO. Pueden observarse varios picos de 8, 11 y 12 mSv/h a partir del incendio en la unidad 4. Según el JAIF, el 15 de marzo se detectaron también 400 mSv/h "en torno a la unidad 3"; y al día siguiente hasta 1 Sv/h según la CBS. Original: http://www.bmu.de/files/bilder/allgemein/image/jpeg/japan_tepco_messung_20_gr.jpg Traducción: La Pizarra de Yuri.

Actualización 21/03/2011:

- 229 -


Antonio Cant贸

Lecturas de radiaci贸n en el entorno de Fukushima el 21/03/2011. Cifras en 渭Sv/h. Fuente: MEXT.

- 230 -


La Pizarra de Yuri 2

(Clic para ampliar) Mediciones de radiación en la prefectura de Ibaraki entre el 14 y el 21/03/2011, de dos fuentes distintas del MEXT.

El Mundo informa que en Litatemura (a 40 km de la central) se han detectado 965 Bq de I-131 por kg de agua (límite: 300 Bq/kg). JAIF informa de 3,05 mSv/h “al norte del edificio de servicio” de la central.

Actualización 20/03/2011: •

La Agencia Kyodo informa, citando al gobierno japonés, que el jueves 17 se detectaron niveles de yodo radioactivo “por encima del límite” (establecido en 300 Bq/kg de I-131 o 200 Bq/kg de Cs-137) en el agua potable de Kawamata, a 45 km de Fukushima I. La cifra descendió “por debajo del límite” el viernes y el sábado. Se detectaron también los siguientes niveles en otros lugares: Tochigi (77 Bq/kg de I-131, 1,6 Bq/kg de Cs-137); Gunma (2,5 Bq/kg de I-131, 0,22 Bq/kg de Cs-137); Tokio (1,5 Bq/kg de I-131); Chiba (0,79 Bq/kg de I-131); Saitama (0,62 Bq/kg de I-131); Niigata (0,27 Bq/kg de I-131). La Agencia Kyodo informa que se han detectado niveles de radiación “27 veces superiores al límite establecido” en distintos alimentos de Fukushima e Ibaraki (límite: 2.000 Bq/kg de I-131 y 500 Bq/kg de Cs-137). Se han medido 54.000 Bq/kg de I-131 y 1.931 Bq/kg de Cs-137 en espinacas de Hitachi City, unos 100 km al sur de Fukushima I. En Ibaraki se han encontrado espinacas con 24.000 Bq/kg de I-131 y 690 Bq/kg de Cs-137. Se detectaron otros niveles de radiacion superiores al límite en otros lugares. Más genéricamente, se han medido 540 MBq/km2 de I-131 en Tochigi, 190 en Gunma y 40 en Tokio. Modelo de dispersión radiológica (Cs-137) de Fukushima I hasta el 20/03/2011 elaborado por el Instituto francés de Radioprotección y Seguridad Nuclear (IRSN). A escala regional, en Bq/m 3:

A escala global, en fracciones sobre el máximo, con proyección hasta el día 26/03: Actualización 19/03/2011: Primeros datos de radiación del interior de la central nuclear Fukushima I: 2,97 mSv/h “al norte del edificio de servicio”. 313,1 μSv/h en la puerta oeste. Mediciones de radioactividad en todo Japón excepto las prefecturas de Fukushima y Miyagi del 16 al 19/03/2011:

- 231 -


Antonio Cant贸

- 232 -


La Pizarra de Yuri 2

(Clic para ver mejor) Mediciones de radioactividad en todas las prefecturas de Japón, del 16 al 19/03/2011, excepto Fukushima y Miyagi. Fuente: ATMC / MEXT

Actualización 18/03/2011: Los niveles de radiación parecen estar bajando. :-)

Evolución de los índices de radiación en Ibaraki hasta el 18/03/2011. Fuente: MEXT.

- 233 -


Antonio Cantó

Evolución de los índices de radiación en Tochigi hasta el 18/03/2011. Fuente: MEXT.

Actualización 17/03/2011: Se informa de la medición de 170 μSv/h en un punto 30 km al noroeste de Fukushima.

- 234 -


La Pizarra de Yuri 2

Mapa radiol贸gico de Jap贸n el 16/03/2011. Mediciones: MEXT. Elaboraci贸n: La Pizarra de Yuri.

- 235 -


Antonio Cant贸

- 236 -


La Pizarra de Yuri 2

(Clic para ver mejor) Mediciones de radiaci贸n en todas las prefecturas japonesas el 16/03/2011. Fuente: MEXT. Traducci贸n: La Pizarra de Yuri.

Documento original aqu铆

- 237 -


Antonio Cant贸

- 238 -


La Pizarra de Yuri 2

(Clic para ver mejor) Mediciones de radiaci贸n en el entorno de Fukushima I el 16/03/2011. Fuente: MEXT. Traducci贸n: La Pizarra de Yuri.

Documento original aqu铆

- 239 -


Antonio Cantó

Actualización 3: Estado de las centrales nucleares de Fukushima a las 16:00 (08:00 CET) del 17 de marzo de 2011 Yuri, el 17 de marzo de 2011 @ 13:56 · Categoría: Actualidad, Ciencia popular, Sociedad y civilización, Tecnología

Nota 5 sobre los accidentes nucleares de Fukushima. Ver también: Secuencia de acontecimientos en todas las centrales nucleares afectadas – Video aéreo de los daños en Fukushima I – Mediciones de radiación 22/03/2011: Se ha conseguido conectar suministro eléctrico externo a todas las unidades, pero se siguen haciendo pruebas antes de alimentar los sistemas. Sin cambios significativos sobre el estado indicado en la tabla, más abajo. Nota del OIEA el 21/03/2011 (20/03/2011 a las 16:20 UTC): Las autoridades japonesas informan que los trabajadores en la central nuclear de Fukushima I han llevado los reactores de las unidades 5 y 6 a parada en frío. Esto significa que ambos reactores se encuentran a seguro, con los sistemas de refrigeración estables, bajo control y con temperatura y presión bajas en el interior. Prosiguen los esfuerzos para restaurar los sistemas en las unidades 1, 2 y 3. La unidad 4 estaba cerrada por mantenimiento, con todo el combustible retirado del núcleo, antes de que se produjera el terremoto del 11 de marzo; sin embargo, se produjeron incendios en la zona de la piscina de combustible a partir del 16 de marzo. Actualización del 19/03/2011: A las 22:00 hora de Japón (14:00 hora española) del 19 de marzo de 2011, según elForo Industrial Atómico de Japón (JAIF, traduciendo y ampliando sobre este documento), la situación en las centrales nucleares de Fukushima era la siguiente:

- 240 -


La Pizarra de Yuri 2

(Clic para ver mejor) Estado de la central nuclear Fukushima I a las 22:00 (local) del 19/03/2011. Fuente: JAIF, La Pizarra de Yuri.

- 241 -


Antonio Cantó

(Clic para ver mejor) Estado de la central nuclear Fukushima II a las 22:00 (local) del 19/03/2011. Fuente: JAIF, La Pizarra de Yuri.

Actualización del 18/03/2011: Japón eleva los accidentes en las unidades 2 y 3 al nivel INES 5. Se ha conseguido restablecer la conexión eléctrica a una parte de Fukushima I, lo cual es una muy buena noticia. :-) Se cree que la contención primaria del reactor 3 podría estar bien. Los niveles de radiación siguen bajando poco a poco. Por demás, no parece haber grandes cambios en el estado de los reactores: ver documento. Actualización 3 de la anterior: A las 16:00 hora de Japón (08:00 hora española) del 17 de marzo de 2011, según elForo Industrial Atómico de Japón (JAIF, traduciendo y ampliando sobre este documento), la situación en las centrales nucleares de Fukushima era la siguiente:

- 242 -


La Pizarra de Yuri 2

(Clic para ver mejor) Estado de la central nuclear Fukushima I a las 16:00 (local) del 17/03/2011. Informaci贸n caducada el 19/03/2011. Fuente: JAIF, La Pizarra de Yuri.

- 243 -


Antonio Cantó

(Clic para ver mejor) Estado de la central nuclear Fukushima II a las 16:00 (local) del 17/03/2011. Información caducada el 19/03/2011. Fuente: JAIF, La Pizarra de Yuri.

>>> PÁGINA DE DONATIVOS DE LA CRUZ ROJA ESPAÑOLA PULSANDO AQUÍ <<< >>> PÁGINA DE DONATIVOS DE UNICEF PULSANDO AQUÍ <<<

- 244 -


La Pizarra de Yuri 2

Y Fukushima no resistió Yuri, el 16 de marzo de 2011 @ 17:11 · Categoría: Actualidad, Ciencia popular, Sociedad y civilización, Tecnología

En estos momentos, la única buena noticia parece ser que los niveles de radiación fuera del área de seguridad siguen siendo extremadamente bajos. Ver también: Secuencia de acontecimientos en todas las centrales nucleares afectadas – Video aéreo de los daños en Fukushima I – Mediciones de radiación – Estado de los reactores afectados

Estado de las unidades 3 y 4 de la central nuclear de Fukushima I el 16/03/2011. Foto: AFP/Público

A estas alturas, ya no se puede decir honestamente –y yo lo dije– que la central nuclear de Fukushima I haya aguantado bien el terremoto y el tsunami del pasado viernes. No, es evidente que no lo ha hecho. Todos los sistemas de refrigeración del núcleo, incluso los de emergencia, se fueron al infierno a la vez provocando LOCA instantáneos de la máxima gravedad. Como consecuencia, se ha producido ya un triple meltdown (fusión del núcleo), cuatro explosiones y varios incendios radiológicos que han diseminado una pequeña cantidad de radiación al exterior del perímetro. Se ha informado de al menos un muerto, hay heridos y se pelea a la desesperada para enfriar lo que queda de los reactores con agua de mar. Cuatro accidentes nucleares en uno. Esto no es aguantar bien y decir lo contrario sería mentir. Todas las unidades que estaban trabajando en el momento que llegó la ola cascaron a la vez y a lo largo de las siguientes horas se

- 245 -


Antonio Cantó

desparramaron por completo. Buena parte del complejo está perdida sin remisión. Fukushima no resistió.

Soldados japoneses se protegen con máscaras para entrar a la zona afectada por los accidentes nucleares de Fukushima. Imagen: Reuters/Público.

¿Qué pasa en Fukushima? Pues qué va a pasar. Que se ha liado parda. Mucho. Recopilemos. Con la información disponible en este momento, aparentemente el tsunami cerró por completo todos los sistemas de refrigeración del núcleo, incluyendo los de emergencia. Como quiera que a una central nuclear no se le puede “cortar el gas”, sino que el combustible ya está dentro y sigue reaccionando por sí solo, este fracaso de los sistemas de refrigeración condujo a la pérdida de control sobre la reacción. La gravedad de esto no puede disculparse ni pasarse por alto. Sí, el terremoto fue terrible y el tsunami más. Pero no es aceptable de ningún modo que todos los sistemas de refrigeración de una central nuclear queden desactivados a la vez, por muy grave que sea la agresión sufrida. En una región conocida por sus terremotos y tsunamis de naturaleza extrema, evidentemente los estudios sísmicos estaban subestimados, como ya pasó en Kashiwazaki-Kariwa y otras instalaciones. Lo peor de todo es que se sabía y fue objeto de editoriales y protestas en Japón a lo largo de años, un debate que nos fue ocultado aquí. El terremoto y sobre todo el tsunami provocaron tres LOCA, pero LOCAzos del todo, con fracaso total de los sistemas de refrigeración de los reactores, pérdida de control sobre la reacción, hidrólisis a gran escala, explosiones de la contención exterior, fusiones del núcleo, incendios radiológicos y el personal luchando ahora mismo para enfriar lo que quede con agua de mar. En total, cuatro accidentes nucleares por el

- 246 -


La Pizarra de Yuri 2

momento, todos y cada uno de ellos ya más graves que Three Mile Island. Parece ser que la Agencia de Seguridad Nuclear e Industrial del Japón sigue aferrándose a la idea de que estamos ante un accidente de nivel INES 4. No tiene sentido a estas alturas. Los franceses de la Autoridad de Seguridad Nuclear llevan más razón cuando dicen que se trata de un sólido INES 6. Esto es mucho más gordo que Three Mile Island, y Three Mile Island fue un 5. Tratar de minimizar semejante desparramo es absurdo y manipulador, quizá bueno para la propaganda pero malo para todo lo demás, desde la seguridad nuclear hasta la correcta educación del público en esta materia. Estamos ante un accidente nuclear múltiple muy severo, relevante e histórico. En román paladino, un cisco del copón de la baraja. Pero tampoco se debe maximizarlo irresponsablemente. Dio tiempo a llevar los reactores a potencia mínima antes de perder el control. De todas las monumentales mentiras que se han escuchado estos días (también) sobre Chernóbyl, sólo hay una cosa que sea cierta: las grandes explosiones radiológicas de Chernóbyl únicamente fueron posibles porque el reactor estaba acelerado a la máxima energía cuando sucedieron sin apenas previo aviso. Los reactores de Fukushima, en principio, deben encontrarse a un nivel mínimo de energía en estos momentos. No descarto que puedan ocurrir más explosiones u otros fenómenos que provoquen diseminación radioactiva al medio ambiente, pues en Fukushima se han caído todos los palos del sombrajo nuclear, pero si fuera el caso no deberían ser tan potentes como las sucedidas en la central soviética. Eso significa menos diseminación de sustancias radioactivas y menos alcance de las mismas. Suponiendo que no nos encontremos con alguna otra sorpresa.

Explosión en la unidad 3 de Fukushima I.

- 247 -


Antonio Cantó

Racionalizando el desastre. A estas alturas, el lobby nuclear y los “expertos” que se han llenado la boca con garantías que iban desplomándose apenas acababan de pronunciarlas han perdido la credibilidad de la mayoría del público. Y con razón. Me pregunto si el tsunami, además de desactivar los sistemas de refrigeración de Fukushima, les desconectó también el encéfalo superior. O si siempre fueron así, especialitos, sólo que aparentaban muy bien. Hubo un momento en que, de tan absurdos, parecían gafes: bastaba que dijesen que algo no podía ocurrir para que sucediera en las siguientes horas. Hay que ser necio para no pensar que estábamos ante una situación extraordinaria que no se había producido antes, sobre la que no existían antecedentes y que quizás, sólo quizás, algo podía haberse roto a pesar de las primeras declaraciones. Apenas sabían lo mismo que tú y que yo sobre lo que pasaba y sin embargo se dedicaron a engañarse a sí mismos y a los demás una y otra vez hasta que ya nadie les escuchó. Me pregunto dónde quedó su prudencia, su sensatez y su sentido crítico. Si yo fuera el gran archimandrita del lobby nuclear, ahora mismo estarían en la cola del paro. Todos ellos. Y ellas. La energía nuclear no necesita defensores así. No obstante, que el lobby nuclear y los “expertos” de pastel se hayan ahorcado con su propia lengua no es razón para sacar las cosas de quicio. Esto es muy grave pero no el apocalipsis que se podría deducir viendo la portada de algunos medios y las opiniones de algunos antinucleares. Según hablan unos y otros, parece como si Godzilla fuera a salir del mar por Puerto Banús en breves minutos para comerse los higadillos de un señor de Albacete. O, dicho de otra manera, que vamos a empezar a caer todos como chinches en una fritanga radiológica que se extenderá durante generaciones incontables. Y no es así. El alcance de lo peor de Fukushima va a ser, fundamentalmente, japonés y quizá de algunas zonas periféricas; igual que el alcance de lo peor de Chernóbyl fue, fundamentalmente, ruso, bielorruso y ucranio. Hay aquí algunas leyes físicas en juego, y una de ellas afirma que la concentración tiende a disminuir con la distancia. Otra de ellas, que los daños de la radioactividad a la materia –incluyendo la materia viva– son extremadamente dependientes de la dosis y del tiempo de exposición. La pura verdad es que en la historia ha habido enormes diseminaciones de radiación a la atmósfera, como los cientos de pruebas nucleares durante la Guerra Fría, y aquí seguimos. Es más. Aunque ahora mismo no se puede poner la mano en el fuego por nada, las dosis de radiación medidas fuera del perímetro de seguridad hasta el momento son en total tan

- 248 -


La Pizarra de Yuri 2

cancerígenas y teratogénicas como un paquete de cigarrillos. Si la situación actual se mantiene mínimamente, no vamos a ver gente enfermando y muriendo a gran escala. Y que dure.

Exploración a una mujer por posible exposición a la radioactividad en Hitachi City. Imagen: Reuters/Público

Algunas consideraciones adicionales. Es una simpleza decir eso de que “aquí no hay tsunamis ni terremotos así”. Las instalaciones nucleares se construyen según unos estudios sísmicos (entre otros), que varían dependiendo del lugar donde se plantan. No son todas iguales. Los estudios sísmicos o cualesquiera otros tambiénpodrían estar subestimados en cualquier otro lugar, para las características de ese lugar. No parece irracional, por tanto, revisarlos. También cabe preguntar sensatamente de qué otras maneras podría producirse una detención simultánea de todos los sistemas de refrigeración, pues ahora resulta evidente que era posible. Pero que los estudios podrían estar subestimados en otros lugares para las características de esos otros lugares no quiere decir que lo estén. Es razonable revisarlos y hacer muchas preguntas al respecto, pero no tanto proponer la clausura inmediata de todas las centrales nucleares del mundo como están haciendo algunos. A fin de cuentas, ha hecho falta un fenómeno de naturaleza muy excepcional para provocar el desastre de Fukushima. El resto de instalaciones del planeta no plantean necesariamente un peligro inminente. Sin duda, en Fukushima se han caído un montón de mitos nucleares. Los sistemas de seguridad pueden fallar por completo y de golpe. Se puede perder el control sobre la reacción. Puede escapar radiación al medio ambiente a pesar de todas las defensas. Pero eso no quiere decir que suceda alegremente. Hay motivos para poner en tela de juicio - 249 -


Antonio Cantó

una montaña de cosas, y para hacer un millón de preguntas incómodas, pero precisamente por eso reitero lo que he dicho mil veces en este blog y en otros lugares: la política energética y el debate nuclear son extremadamente delicados y llenas de matices y puntos de equilibrio, por lo que deben basarse en criterios racionales, no en proclamas propagandísticas de unos y de otros. Debe ser un verdadero debate, donde todas las voces se oigan por igual, no sustentado en campañas publicitarias mediáticas ni tampoco en titulares apocalípticos. Una vez más, digo que esto no es –no debe ser– un partido Madrid-Barça ni una típica diatriba PSOE-PP. La energía nuclear vive siempre en un equilibrio muy delicado. Hay países perfectamente razonables que han optado por renunciar a ella, y otros igualmente razonables que han optado por apostar por ella. Precisamente porque está tan cerca de “fiel de la balanza”, ambas posiciones pueden ser correctas dependiendo de las circunstancias. Del contexto. El contexto es siempre lo más relevante. Es también indudable que va a haber un antes y un después de Fukushima. Que Fukushima ha desplazado y va a seguir desplazando ese “fiel de la balanza”. Esto no se olvidará fácilmente, ni debe hacerse. Quisiera recordar, en todo caso, que por el momento la verdadera catástrofe es la que ha sufrido el pueblo japonés a causa del terremoto y el tsunami. Hay miles de muertos, cientos de miles de desplazados, comarcas enteras borradas del mapa. También quisiera recordar que hay otros pueblos que siguen sufriendo, como Haití. Toda esa gente son hermanos y hermanas nuestros, que han padecido desgracias enormes. Por ello, apelo a vuestra compasión, vuestro humanismo y vuestra solidaridad. >>> PÁGINA DE DONATIVOS DE LA CRUZ ROJA ESPAÑOLA PULSANDO AQUÍ <<< >>> PÁGINA DE DONATIVOS DE UNICEF PULSANDO AQUÍ <<< Ver también: Secuencia de acontecimientos en todas las centrales nucleares afectadas – Video aéreo de los daños en Fukushima I – Mediciones de radiación – Estado de los reactores afectados

- 250 -


La Pizarra de Yuri 2

Grafeno, el material de los sueños (con entrevista al Nobel de Física 2010) Yuri, el 11 de junio de 2011 @ 14:00 · Categoría: Ciencia popular, Entrevistas

Entrevista exclusiva a Kostya Novoselov, premio Nobel de Física 2010.

El premio Nobel de Física 2010, Kostya Novoselov, concede una entrevista exclusiva a La Pizarra de Yuri / Público.

Aunque sea bastante lógico, no deja de resultarme curioso cómo abunda la gente altanera, áspera y suficiente entre los mediocres. En cambio, quienes realmente podrían permitirse el lujo de ir por la vida con la nariz un poco más levantada que los demás a menudo son amables, sencillos y cordiales. Este es el caso del doctor Konstantin Novoselov, que con 36 años ya puede incluir en su curriculum el Premio Nobel de Física 2010. Gracias a ese hecho, hoy puedo ofrecerte en la Pizarra de Yuri la primera entrevista exclusiva a un Nobel concedida a un blog en castellano (corrígeme si me equivoco y ha habido alguna antes; me interesaría mucho saberlo). La edición en papel de Público sacó un resumen el domingo pasado, pero esta es la versión completa. Entrevistar a un premio Nobel es siempre un desafío y uno teme no acertar con las preguntas. Así pues, en esta ocasión consulté a más personas amables, que aportaron preguntas inteligentes. Entre estas personas se encuentran Pablo García Risueño (físico, Instituto Max Planck / Instituto de Química Física Rocasolano – CSIC / European Theoretical Spectroscopy Facility – Spanish node), Dani Torregrosa (químico, autor del

- 251 -


Antonio Cantó

blog Ese punto azul pálido) o David (doctor en química, Universidad de Valencia); lo que hago constar con mi agradecimiento. Así, yo creo que ha quedado una entrevista mucho más chula. ;-) Si hay algún error en este post, es mío; si hay algún acierto, es de ellos. Konstantin, que se hace llamar por el diminutivo Kostya, nació en Nizhny Tagil (URSS) siendo 1974. Actualmente investiga en el Laboratorio de Física de la Materia Condensada de la Universidad de Manchester, en el Reino Unido; tiene la doble nacionalidad ruso-británica. Ha trabajado en una diversidad de campos y muy notablemente en procesos magnéticos. Es coinventor de la cinta de salamanquesa ( gecko tape), que sólo pega en un sentido, con diversos usos en nanocirugía, robótica y tecnologías aeroespaciales. Pero Kostya recibió el Nobel en 2010, junto al profesor Andrei Gueim, por sus “experimentos revolucionarios sobre el material bidimensional grafeno”. ¿Y qué es el grafeno? Grafeno.

Estructura del "material bidimensional" grafeno.

No es rigurosamente bidimensional, aunque así lo describa la Fundación Nobel y todo el mundo, incluso el propio Kostya. :-P A fin de cuentas, un átomo tiene espesor. Pero ese es todo su espesor: el grafeno es una estructura laminar compuesta por átomos de carbono en disposición hexagonal, unidos mediante enlaces covalentes producidos por hibridación sp2. Se trata de una alotropía del carbono, distinta del carbono amorfo,

- 252 -


La Pizarra de Yuri 2

el vítreo o eldiamante. Tampoco es exactamente unfullereno o un nanotubo (aunque el grafeno podría utilizarse para crear nanotubos, plegándolo en forma de cilindro). Más parecido es al grafito, hasta el punto de que se podría considerar al grafito como una serie de capas superpuestas de grafeno; de hecho, al pintar líneas con un lápiz (cuya mina es de grafito) aparecen trazas de grafeno. No obstante, este no es un buen procedimiento para producirlo en cantidades significativas. ¿Y qué tiene de particular este grafeno? Muchas cosas. Por ejemplo, es el material más resistente medido jamás: 200 veces más que el acero. Pero, al mismo tiempo, es mucho más ligero y tan elástico como el caucho. En palabras de Andrei Gueim, “el grafeno es más fuerte y más tenaz que el diamante, y sin embargo puede estirarse en un cuarto de su longitud, como el caucho. El área que puede cubrir es la mayor que se conoce para el mismo peso.” Otros investigadores, como Ali Reza Ranjbartoreh (Universidad de Wollongong, Australia), dicen “No sólo es más ligero, más fuerte, más duro y más flexible que el acero; también es un producto reciclable, que se puede fabricar de manera sostenible, ecológico y económico.” En opinión de Ranjbartoreh, esto permitirá desarrollar coches y aviones que usen menos combustible, generen menos polución, sean más baratos de operar y resulten menos dañinos al medio ambiente. Sus propiedades eléctricas y electrónicas resultan igualmente extraordinarias. Por ejemplo, los nanotubos de grafeno podrían reemplazar al silicio como semiconductor en los circuitos microelectrónicos avanzados; en 2008, el equipo de Gueim y Novoselov ya fueron capaces de construir con él un transistor de un nanometro, que tiene un solo átomo de espesor y diez de anchura. Ya por entonces Kostya declaró que esto podría muy bien hallarse en el límite físico absoluto de la Ley de Moore y añadió: “Está en torno a lo más pequeño que se puede hacer. Desde el punto de vista de la Física, el grafeno es una mina de oro. Podrías estudiarlo durante eras.” Conduce el calor tan bien como el diamante y es más transparente. También se le cree capaz de generar efecto Casimir. Muchos lo consideran el primer material del futuro. Pero será mejor que te lo cuente él. ;-)

- 253 -


Antonio Cantó

Kostya Novoselov durante la conferencia de aceptación del Premio Nobel. Imagen: nobelprize.org

El material de los sueños de Kostya Novoselov.

Kostya Novoselov (centro) con Mikhail Trunin (decano del FOPF-MFTI, izda.) y Yuri Samarskiy (rector del MFTI, dcha.). Foto: Sergei Vladimirov. (Clic para ampliar)

Dr. Novoselov, quiero darle muchas gracias por responder a nuestras preguntas. Es muy raro tener la oportunidad de entrevistar a un premio Nobel. Y además a uno tan joven, con 36 años. Mientras, la mayoría de nosotros ni siquiera podemos imaginar lo que se

- 254 -


La Pizarra de Yuri 2

siente cuando alguien te dice: “Kostya, te han concedido el premio Nobel”. Por cierto, ¿qué se siente en un momento semejante? Fue impresionante. Estaba muy impresionado y te das cuenta de que esto cambia tu papel para siempre. Y de que vas a tener que trabajar mucho para que no cambie también tu vida. Esto fue todo lo que se me ocurrió, que tenía que intentar que no cambiase mi vida. ¿Y lo consiguió? Sí. De hecho, conseguí regresar a la normalidad y mi vida no es muy diferente ahora de como era antes. Por cierto, ¿quién le dijo que le habían concedido el Nobel? Me llamaron por teléfono. No estoy seguro de quién llamó exactamente, porque estaba verdaderamente impresionado. No lo recuerdo pero probablemente fue uno de los secretarios de la Fundación o el presidente de la Fundación. Kostya, cuénteme el secreto: ¿cómo se gana un premio Nobel antes de los cuarenta? No hay un secreto. La mejor receta, probablemente, me la dio un buen amigo y colega hace mucho tiempo: “si quieres ganar un premio Nobel, no pienses en ello”. Así que esa es una de las recetas: nunca pienses en ello y limítate a trabajar y divertirte con lo que haces. A usted le han concedido el premio Nobel junto al Dr. Geim por realizar “experimentos revolucionarios sobre el material bidimensional grafeno”. ¿Qué es un grafeno? Imagínate el material de tus sueños, el más fuerte, el más conductor, el más duradero… es increíble. El mejor camino a la teoría; eso es el grafeno. En la práctica es uno de los pocos tejidos bidimensionales que se pueden hacer con carbono y tiene todas estas propiedades fantásticas como conductividad, transparencia, fortaleza imperecedera… ¿Y qué hizo usted con este grafeno exactamente? Estudiamos sus propiedades. Estudiamos principalmente sus propiedades electrónicas pero también algunas otras. Sin embargo, originalmente usted estudiaba el electromagnetismo, ¿no?

- 255 -


Antonio Cantó

He trabajado en varios campos distintos a lo largo de mi vida, así que cuando me lié con el grafeno no me supuso una gran diferencia. He trabajado en procesos magnéticos, superconductores, semiconductores… así que los grafenos sólo fueron otra cosa más. Convénzame: ¿por qué debería invertir mi dinero en las investigaciones sobre el grafeno? ¿De qué manera va a cambiar nuestras vidas este nuevo nanomaterial? Hay varias propiedades de este material que son únicas, mucho mejores que las de cualquier otro. Ya se puede pensar en sustituir todos los materiales existentes por grafenos, para conseguir mejores resultados en todas las aplicaciones avanzadas. Por ejemplo, a los materiales estructurales se les puede añadir unas fibras de carbono para hacerlos mucho más fuertes. O usarlo para las láminas conductoras de las pantallas táctiles: esa es otra área donde el grafeno puede resultar muy beneficioso. Pero las más importantes serán aquellas que no somos capaces de concebir todavía porque no teníamos los materiales adecuados. El grafeno es muy diferente de cualquier otro material, así que podemos ponernos a pensar en estas nuevas aplicaciones. De todas estas posibles aplicaciones, ¿cuál cree usted que se desarrollará primero? Ya hay varias aplicaciones en las que se está utilizando. Puedes comprar grafeno en varias empresas de Rusia, Europa, Asia… por ejemplo, para microscopios electrónicos de transmisión. Aunque esto es una aplicación menor. Probablemente, la primera aplicación a gran escala será en las pantallas táctiles. ¿Qué aproximación le parece más prometedora para producir grafenos industrialmente a buen precio? Ya hay técnicas para producirlos en grandes cantidades. Por ejemplo, mediante crecimiento por CVT[deposición de vapor químico asistida por agua]… se está produciendo en grandes cantidades para muchas aplicaciones. Con la crisis energética actual, y la energía nuclear comprometida a raíz de los sucesos de Fukushima, ha aumentado el interés en las energías renovables. ¿Serviría el grafeno para desarrollar nuevas células solares mucho más eficientes y baratas que las actuales? ¿Podría sentar las bases de una revolución energética? El grafeno es sólo una parte de las células solares del futuro. Hay otras muchas partes que deben desarrollarse también. Queda un camino muy, muy largo para que se desarrollen células solares significativamente más eficientes.

- 256 -


La Pizarra de Yuri 2

Algunas personas han expresado su preocupación por los posibles riesgos para la salud, y especialmente los riesgos para la salud laboral, de esta clase de nanomateriales. ¿Qué opina? Se puede observar mi vida y ver la evolución de mi salud. Probablemente, soy un conejillo de indias en estos experimentos. Me estoy exponiendo a estos materiales en el laboratorio todos los días, con bastante intensidad, así que podéis experimentarlo conmigo si queréis. Por cierto, he oído que quiere usted cambiar de campo porque ya ha pasado mucho tiempo en este… Sí. Te vas ralentizando. Estoy pensando en hacer alguna otra cosa. ¿Como por ejemplo…? Eso prefiero guardármelo. Tenía que intentarlo. ;-) Dr. Novoselov, a menudo se considera a los ganadores del premio Nobel como “heraldos de la ciencia” de cara al mundo, a la sociedad. ¿Se siente cómodo en este papel? Todos tenemos la oportunidad de educar al público en materia científica. Esta es una de las muchas posibilidades que se incrementan cuando ganas el premio Nobel, y también una responsabilidad. Por ejemplo, es una pena ver cómo la gente sobrerreacciona con este asunto de Fukushima. Por desgracia, la gente que gana el premio Nobel , aunque tenga mejores posibilidades de educar al público, no tiene necesariamente la capacidad para hacerlo. En algunos ámbitos existe una percepción de que la creatividad se está perdiendo en la ciencia moderna por un exceso de rigidez en la práctica cotidiana. ¿Cómo se puede aumentar la creatividad en el entorno de la ciencia moderna? ¿Se puede enseñar creatividad a las personas? No se puede enseñar la creatividad a las personas. Cuando las personas vienen al laboratorio, intentamos liberar sus mentes para que hagan cualquier cosa que deseen hacer, con los únicos límites de su naturaleza y su imaginación. Y no creo que falte creatividad en estos momentos. Creo que recientemente se han logrado algunos de los mejores resultados científicos. No me parece que haya un problema con ese tema.

- 257 -


Antonio Cantó

He oído hablar de sus “experimentos de los viernes”. ¿Puede decirnos en qué consisten? Hacemos cosas raras que queremos hacer, intentamos cosas que no son convencionales. Cosas que probablemente parezcan bastante extrañas al principio, pero que pueden terminar convirtiéndose en algo grande. Simplemente, tratamos de liberar la mente. ¿Qué es más importante en estos “experimentos de los viernes”: la creatividad o el conocimiento guiado por la experiencia? Nunca me planteo qué es lo más importante. Simplemente hago lo que me resulta interesante a mí. Vamos a ir un poco más lejos. ¿Qué caminos le parece que está tomando la ciencia? ¿Qué grandes avances espera en el futuro próximo? Yo sólo soy capaz de predecir el pasado, no el futuro. Pero el futuro está ahí y siempre es capaz de superar nuestras predicciones más descabelladas. Hay un montón de cosas ahí fuera donde podemos encontrar nuevas realidades. Kostya, como usted sabrá, hay gente que piensa que la ciencia y la tecnología están avanzando demasiado, demasiado rápido. Temen los posibles efectos adversos sobre la gente, el medio ambiente y la vida en general. ¿Le gustaría decir algo a estas personas? No se puede detener el progreso. No se puede detener la ciencia porque es parte de nuestra naturaleza, de nuestra curiosidad. Necesitamos a la ciencia, pero tenemos que asegurarnos de estudiar su impacto adecuadamente antes de usarla. Y esto se puede hacer siempre mejorando la ciencia, haciendo mejor ciencia. Hacer menos ciencia resulta mucho más peligroso que hacer más ciencia. Yo suelo comentar que cuando una sociedad deja de avanzar, no sólo se estanca, sino que de inmediato comienza a retroceder; y que esto es especialmente cierto para el progreso científico. ¿Está de acuerdo conmigo?:-D A las personas nos encantan las cosas nuevas. Siempre nos obligamos a usar cosas nuevas, a pensar en cosas nuevas. Es absolutamente inevitable. Si se deja de utilizar la ciencia, estas cosas nuevas no serán científicas, y esto es mucho más peligroso que utilizar las nuevas respuestas científicas. No quiero robarle más tiempo, doctor. Por cierto, ¿llegó a conocer al hamster Tisha? ;-) Sí. Era un hamster bastante metomentodo. - 258 -


La Pizarra de Yuri 2

Tengo entendido que nació usted en Nizhny Tagil, ¿no? Sí, así es. Nació en Nizhny Tagil y desde allí salió al mundo para estudiar el material de sus sueños y con ello ganar el premio Nobel. Me parece algo fabuloso. Muchas gracias. Muchas gracias a usted de nuevo, Kostya. Большое спасибо. Entrevista anterior: Sergei Krásnikov, astrofísico de Pulkovo, proponente de los tubos de Krásnikov para casiviajar en el tiempo.

- 259 -


Antonio Cantó

De paseo por Valencia con un contador Geiger soviético Yuri, el 6 de junio de 2011 @ 14:10 · Categoría: Actualidad, Ciencia popular

Tomando mediciones independientes de radiación en distintos puntos de la provincia de Valencia.

Medidas de radiación ambiental tomadas en la provincia de Valencia entre abril y mayo de 2011. (Clic para ampliar)

Diez semanas después de que comenzaran los accidentes nucleares de Fukushima, que siguen sucediendo, muchas personas siguen preguntándome si estamos seguros, si la radiación no estará llegando aquí y las autoridades no nos engañarán con los datos oficiales. Supongo que es inevitable en estas circunstancias, sobre todo teniendo en cuenta cosas como esta. Hay mucha gente que está tomando mediciones por su cuenta. Yo, como habréis visto, llevo unas semanas muy liado; pero he querido aportar también mi granito de arena a estas mediciones independientes aprovechando algunos desplazamientos que he tenido que hacer por la provincia de Valencia. Total, no cuesta tanto echarse un contador Geiger al maletero. Aunque el que vamos a usar hoy es algo más voluminoso de lo corriente en estos tiempos. ;-) Ahora todo el mundo usa esos cacharrines digitales modernos con aspecto de mando a distancia, que les dan los valores directamente en sieverts (me pregunto cómo calculan la dosis efectiva, si es que lo hacen). Yo, que soy un antiguo y un trasnochado para según qué cosas, me he propuesto medir en roentgens, como estos

- 260 -


La Pizarra de Yuri 2

otros anticuados. Es decir, la exposición radiométrica directa, lo más parecido a la respuesta para la pregunta “¿cuánta radiactividad hay aquí?”. Y con este propósito vamos a utilizar los servicios de un viejo amigo. Su nombre es DP-5V, también conocido como el Kalashnikov de los Geigers. Fue fabricado hace muchos años en un país que ya no existe, pero sigue funcionando tan bien como el primer día:

Un viejo amigo de mucho fiar: el contador Geiger ("roentgenmetro") DP-5V. (Clic para ampliar)

Quizá lo hayas visto trabajando duro en algún otro tiempo y lugar:

- 261 -


Antonio Cantó

Usando contadores DP-5 durante el accidente nuclear de Chernóbyl. Fotos: RTVE, Discovery Channel, otros (Clic para ampliar)

Utilizando la característica terminología soviética, el DP-5 es un roentgenmetro militar diseñado para ser muy sólido, muy seguro y muy fácil de usar. Puede medir con precisión desde 0,025 miliroentgens por hora de radiactividad beta-gamma hasta 200 roentgens por hora que, usando la burda conversión habitual de 115 roentgens por un gray o sievert, equivaldrían a aproximadamente 1,74 sieverts/hora. Si llegas a medir eso alguna vez, yo te sugeriría salir de donde estés tan deprisa como lo permitan tus piernas. Para entender mejor de qué estamos hablando, aquí tienes unaintroducción general a la radiactividad.

- 262 -


La Pizarra de Yuri 2

En realidad, el único inconveniente del DP-5V es conseguirle pilas: usa las antiguas A336 soviéticas de 1,5 voltios, equivalentes a las antiquísimas B de aquí, por lo que es preciso hacerle una sencilla adaptación (son 7 mm más largas que las AA occidentales corrientes). Descontando ese detalle fácilmente subsanable, esta unidad que tengo yo por aquí continúa prestando servicio sin novedad veintiún años después de que la construyeran. Vamos a aprender a manejar el DP-5V, que es muy fácil. Prácticamente todo se controla con el conmutador situado a la derecha del dial. Primero comprobaremos que las pilas no estén descargadas, poniéndolo en la primera posición, la del triángulo.

Comprobación del estado de las pilas en el contador DP-5V. Si la aguja va a parar a la línea negra, como en este caso, hay suficiente carga para trabajar.

La aguja señala un punto dentro de la línea negra del dial. Eso significa que las pilas están bien. Ahora, avancemos el conmutador un paso más, para llevarlo a la posición de mínima sensibilidad (o sea, que mediría los índices de radiación más altos, hasta 200 R/h). En esta posición hay que medir con la escala inferior del dial, la que está indicada de 0 a 200. Como es lógico, aquí en Valencia la aguja ni se mueve (¡y si se moviera, tendríamos un problema!):

- 263 -


Antonio Cantó

Midendo en la escala más alta del DP-5V (0-200 R/h). Obviamente, no se registra ninguna lectura. Esta es la única posición en la que se utiliza la escala inferior del dial. Para todas las demás posiciones, se usa la escala superior.

Hum… ¿seguro que este viejo contador sigue siendo capaz de medir algo? Bueno, vamos a comprobarlo. La sonda incluye una pequeña muestra radiactiva, que a estas alturas debería emitir unos 14 miliroentgens/hora (es radiación beta pura, por lo que no puede atravesar el blindaje metálico y no representa ningún riesgo). Ponemos, pues, el conmutador en la escala de las decenas de miliroentgens (x10) y exponemos la muestra girando la pieza móvil de la sonda hasta la posición K:

- 264 -


La Pizarra de Yuri 2

Comprobando el funcionamiento de un contador DP-5V: 1. Ajustamos el conmutador en la escala adecuada (en este caso, x 10). 2. Exponemos la fuente radiol贸gica que se encuentra en la sonda (posici贸n K encarada con la gu铆a de pl谩stico). 3. Medimos con la escala superior del dial (en todas las posiciones excepto la de "200", hay que medir con la escala de arriba, en milirroentgens por hora).

- 265 -


Antonio Cantó

Vaya, pues sí que mide. Observa que la aguja se ha estabilizado un poco por debajo de la indicación 1,4 en la escala superior del dial (la escala inferior sólo está para medir los valores máximos, hasta 200 R/h; en todas las demás posiciones del conmutador, se mide con la escala superior). Como tenemos el conmutador en la posición x10, entonces 1,4 x 10 = 14 miliroentgens por hora. Que es lo que debe medir la fuente en este contador. O sea, que aparentemente sigue yendo bien. Cuando cerramos la muestra (girando la funda metálica de la sonda a cualquier otra posición que no sea la “K”), observamos cómo la aguja cae de nuevo a cero (si la radiación de la muestra pudiera atravesar el blindaje, no caería a cero):

Midiendo "al aire" con el DP-5V en la escala x10 (mR/h).

¿Significa esto que no hay radiactividad de ninguna clase aquí en Valencia ciudad? Debería detectar al menos laradiación de fondo, ¿no? Bien, resulta que la radiación de fondo es muy débil, muy pequeñita. Para verla, tenemos que ajustar el conmutador a la escala de máxima sensibilidad (x0,1, o sea que hay que dividir por diez lo que se mida en la escala superior del dial):

Midiendo radiación beta-gamma “al aire” dentro de una vivienda en Valencia con el DP-5V en la escala x0,1, el 05/06/2011. Esos “clics” nos confirman que el universo existe y está vivo. Cada uno de esos clics, que se llaman una cuenta, es una desintegración de un isótopo radiactivo natural detectada y amplificada por el DP-5V para que podamos escucharla. Si no estuvieran ahí, este universo sería un lugar muerto o, simplemente, no existiría. - 266 -


La Pizarra de Yuri 2

Ya que estamos, vamos a aprender a contar becquerels. Una manera de hacer esto es contar cuantos clics se oyen en un minuto (yo cuento los que se oyen en cinco minutos y divido por cinco, para promediar mejor). Por ejemplo, mientras preparaba este post, he medido 22,4 cuentas por minuto. O sea, 0,37 cuentas por segundo. Esto es, 0,37 becquerels. Podemos decir, pues, que el aire en la ciudad de Valencia presenta 0,37 Bq de radiactividad beta-gamma natural (hoy está “calentito”; en otras ocasiones he registrado menos, en torno a 0,30 – 0,35 Bq). También habremos observado que la aguja medía todo el rato valores inferiores o iguales a 0,025 mR/h (0,25 de indicación x 0,1 del conmutador), con algún piquito por encima. Aplicando esa conversión un poco basta de 115 R por gray o sievert, resulta que nuestro DP-5V estaría registrando valores levemente inferiores a 0,22 μSv/h. Es decir, cifras similares a los 0,16 μSv/h que da el Consejo de Seguridad Nuclear para esta zona:

Valores de radiación ambiental medidos por el Consejo de Seguridad Nuclear el 04/06/2011. Puedes observar que oscilan entre los 0,08 μSv/h del País Vasco y los 0,20 μSv/h de Pontevedra o Madrid. Aquí por Valencia, están en 0,16 μSv/h. Si multiplicamos esta cifra por 115, para hacer la conversión "a lo bruto" a roentgens, nos salen 18 μR/h. Es decir, más o menos lo mismo que estamos midiendo con el DP-5V: una cifra ligeramente inferior a 25 μR/h (0,025

- 267 -


Antonio Cantó

mR/h). Imagen: CSN. Versión actualizada: http://www.csn.es/index.php?option=com_maps&view=mappoints&Itemid=32&lang=es

Como puedes ver, estamos todo el rato midiendo al aire. Sin embargo, la radiactividad tiende a posarse en el suelo bajo la forma de contaminación radiactiva. Vamos a ponerle su bolsita de protección (transparente a la radiactividad beta-gamma) para que no se contamine la sonda y veamos lo que mide en el suelo de esta terraza, expuesta a la intemperie:

Midiendo “al aire” en una terraza de Valencia con el DP-5V, el 05/06/2011. Básicamente lo mismo. Sin embargo, la contaminación radiactiva suele resultar arrastrada por las lluvias, y en Valencia ha llovido bastante estas últimas semanas. Típicamente, tiende a concentrarse por gravedad en los puntos más bajos de la zona. En esta ciudad, uno de los puntos más bajos de fácil acceso es el antiguo cauce del río Turia. Así pues, vamos a darnos un paseo a la caza de algún radioisótopo borde:

Midiendo la radiactividad el 23/05/2011 en el antiguo cauce del río Turia de Valencia, uno de los puntos más bajos de la ciudad, con un DP-5V. Los valores registrados se hallaban en torno a 0,025 mR/h, burdamente equivalentes a 0,22 μSv/h.

- 268 -


La Pizarra de Yuri 2

En los guardabarros de los coches se suele acumular también contaminación radiactiva, porque los neumáticos la van recogiendo durante el camino y la estampan contra los mismos. Vamos a buscar unos cuantos que estén un pelín guarretes y midamos:

Midiendo (cuidadosamente) radiactividad bajo los guardabarros de varios coches en distinto estado de limpieza y conservación, aparcados en los distritos valencianos de L'Olivereta y Patraix, la noche del 24/05/2011. Todas las mediciones estuvieron por debajo de 0,025 mR/h, coincidente con la radiación de fondo medida en la provincia por el Consejo de Seguridad Nuclear. (Clic para ampliar)

Nada, tú, qué decepción. ;-) Sin embargo, no nos vamos a conformar con esto. Hace unos días tuve que pasar por Cofrentes, así que, ¿por qué no aprovechar la ocasión para tomar algunas medidas en el entorno de la central nuclear? Si en algún punto de la provincia de Valencia tiene que haber contaminación radiactiva, será ahí, ¿o qué?

- 269 -


Antonio Cant贸

- 270 -


La Pizarra de Yuri 2

Midiendo la radiación beta-gamma frente al Ayuntamiento de Cofrentes con el DP-5V, el 13/05/2011. Los valores registrados fueron similares a los de la ciudad de Valencia y a los indicados para la zona por el Consejo de Seguridad Nuclear: valores típicos por debajo de 0,025 mR/h con algún pico levemente por encima.

Vamos a acercarnos un poco más a la central nuclear, a ver…

El mismo día medí con el DP-5V la ración beta-gamma en el jardín situado en la parte baja de Cofrentes, a 1.900 metros del reactor nuclear. Los valores eran consistentemente inferiores a 0,025 mR/h, menos que en la ciudad de Valencia o en el mismo Ayuntamiento de Cofrentes.

Vaya, cualquiera diría que está más limpio que la propia ciudad de Valencia. Bueno, vamos a ser puñeteros. Si la central nuclear estuviera emitiendo contaminación

- 271 -


Antonio Cantó

radiactiva, lo más normal es ésta pasara al agua de refrigeración para acumularse río abajo. Así pues, nos acercaremos hasta el embarcadero de las Rutas Fluviales del Júcar, que está a apenas seis kilómetros río abajo de la nuclear. Este parece un buen sitio para medir lo que las aguas van acumulando en la orilla:

Medición con el DP-5V en el embarcadero cofrentino de las Rutas Fluviales del Júcar, 6 km río abajo de la Central Nuclear, el 13/05/2011. Esta zona también estaba notablemente limpia, con valores máximos muy por debajo de los 0,025 mR/h.

Por cierto, una anécdota. En ese viaje nos pasó un poco de todo. La batería de la cámara (adquirida junto con ésta en 2010) está estropeada y se estaba agotando antes de lo previsto. El coche, un turismo moderno, también nos dio varios problemas. Y los

- 272 -


La Pizarra de Yuri 2

móviles no tenían mucha cobertura por algunos de esos montes. El único aparato que iba a lo suyo durante todo el día, sin inmutarse lo más mínimo, fue… sí, exacto, el DP5V. :-D A lo largo del recorrido también fui realizando algunas medidas. Midiendo al aire dentro de un vehículo civil (como un coche o autobús), la atenuación causada por el apantallamiento de la carrocería se estima en torno al 50%. Por ello, la aguja casi ni se mueve en la escala de máxima sensibilidad (video tomado mientras llegábamos a Cofrentes; sin audio, lo siento): La máxima medición que hemos observado en estos días fueron algo más de 50 μR/h (0,050 mR/h), al norte de Picassent, en varias ocasiones a finales de mayo (o sea, en estos últimos días). Conseguimos capturar una de estas ocasiones cuando la aguja ya empezaba a descender y pasaba por 50 μR/h. No obstante, el promedio seguía por debajo de 25 μR/h:

Uno de los picos de 50 μR/h (≈ 0,45 μSv/h), medidos con un DP-5V al norte de Picassent el 30 de mayo de 2011.

- 273 -


Antonio Cantó

La casi-máquina del tiempo del Dr. Krásnikov (con entrevista al Dr. Krásnikov) Yuri, el 26 de mayo de 2011 @ 11:16 · Categoría: Ciencia fundamental, Ciencia popular, Entrevistas

Máquinas del espaciotiempo

Aspecto hipotético de un agujero de gusano conectado con otro universo o con otro punto de este universo, por el que una nave espacial podría transitar. Imagen: NASA. (Clic para ampliar)

¿Quién no ha soñado alguna vez con viajar en el tiempo o con atravesar un portal en dirección a mundos remotos? A los ojos de mucha gente, esto son sólo fantasías o argumentos para historias de ciencia-ficción. Y sin embargo existen algunas personas, en las fronteras más inhóspitas de la física teórica, que estudian estas cuestiones en serio. Así, se convierten en los pioneros de la humanidad futura. Cuando Pitágoras o algún primo suyo dedujo que la Tierra era redonda, o cuando Eratóstenes de Cirene calculó su circunferencia, tampoco parecía que estos conocimientos tuvieran muchas utilidades prácticas: imagina dónde estaríamos ahora sin tales descubrimientos. O si Euclides de Alejandría o Apolonio de Perga hubieran dejado de ser geómetras cuando les preguntaron para qué servían todos esos dibujitos. Y si Maxwell hubiera considerado que eso del electromagnetismo no servía para gran cosa, la electrónica y las telecomunicaciones no habrían surgido jamás. Así funcionan las cosas: primero surge la ciencia pura, después viene la aplicada y finalmente se desarrolla la tecnología. Superada la Edad Media, sin ciencia pura, no hay tecnología ni progreso digno de mención. Todo lo que somos capaces de hacer ahora mismo se origina en las cosas que pensaron los teóricos de hace decenas, cientos e incluso miles de años. Todo lo que hagan las

- 274 -


La Pizarra de Yuri 2

generaciones futuras se sustentará en las cosas que piensen los teóricos de hoy en día. Una sociedad, una especie que renunciase a la ciencia teórica y a la especulación científica quedaría estancada para siempre, incapaz de avanzar, de evolucionar. Esas personas que estudian las cosas que aparentemente no sirven para nada son, en cada momento de la historia, los pioneros de las gentes que vendrán. Caminamos sobre los hombros de gigantes, y todo eso. Permíteme presentarte a uno de estos pioneros: Sergei Krásnikov. Sergei Krásnikov es doctor en Física y trabaja actualmente como investigador en el Observatorio Astronómico Central de Pulkovo. Es experto en relatividad general,teoría cuántica de campos en espaciotiempos curvos y astrofísica de partículas, ¡casi ná! La cosa no acaba ahí. En 1995, causó un impacto notable sobre la comunidad científica al proponer el tubo o metro de Krásnikov, una especie de agujero de gusano cuyos extremos se encuentran desplazados en el espacio pero también en el tiempo. Este tubo es una distorsión espaciotemporal que podría crearse de manera intencionada para viajar en el tiempo y también por el espacio a velocidades (no-locales) superiores a la de la luz. Utilizando uno de estos tubos, tendrías que viajar a tu destino por medios convencionales, pero podrías regresar a casa poco después de tu partida. Por ejemplo: sales de la Tierra en el año 2100, llegas a otro sistema solar en el 2700, y sin embargo regresas a la Tierra siendo aún el 2120. Extraño, ¿eh? Además, el Dr. Krásnikov ha trabajado también en un modelo de agujeros de gusano que podrían sostenerse a sí mismos, obteniendo así algo muy parecido a las puertas estelares estables. Vamos, que don Sergei no pierde el tiempo, ese que estudia tan profundamente, con cosillas de tres al cuarto. ;-)

El doctor Sergei Krasnikov, investigador del Observatorio Central de Pulkovo, Rusia. Foto: Alexander Friedmann Laboratory for Theoretical Physics.

- 275 -


Antonio Cantó

A pesar de todo ello, el doctor Krasnikov resulta ser una persona de lo más amable y accesible, que no ha puesto ningún inconveniente en contestar a algunas preguntas sobre su trabajo para la Pizarra de Yuri. Gracias a eso, puedo ofrecerte hoy la siguiente entrevista exclusiva con una de las personas que más saben del mundo en materia de viajes no convencionales por el espaciotiempo. Él nos lo va a contar mucho mejor de lo que jamás sabría hacerlo yo: El metro espaciotemporal de Krásnikov. Muchas gracias por su valioso tiempo. ¿Cómo es la vida cuando los extremos más exóticos del conocimiento y de la realidad constituyen su pan de cada día? La respuesta corta: interesante. La respuesta larga daría para un libro: «De consolatione physicae». Dr. Krásnikov… ¿qué es un tubo de Krásnikov? :-) Toma el espaciotiempo de Minkowski y ponle un sistema de coordenadas (esto es necesario para dar sentido a las palabras “cerca” y “lejos”). A continuación, sustituye una región de este espaciotiempo plano por otra que sea curva. Esta región se llama tubo de Krásnikov si reúne las siguientes condiciones: 1. Se encuentra por completo en el futuro desde el origen de coordenadas O (o sea, se puede decir que aparece debido a algo que sucedió en O). 2. En el futuro de O hay un punto muy distante (desde O) al que llamaremos D, que se encuentra al mismo tiempo en el pasado de un punto P muy próximo a O (por tanto, lo que describo es una “casi-máquina del tiempo”). Así pues, hay una curva de tipo tiempo (la línea de universo de una nave espacial) que comienza en O (por ejemplo, la Tierra en el año 2100), pasa por D (por ejemplo, Deneb en el 2700) y vuelve a casa en P (la Tierra en el 2120).

- 276 -


La Pizarra de Yuri 2

Un agujero de gusano es una característica topológica hipotética del espaciotiempo permitida por la Relatividad General, que en esencia constituría un "atajo" a través del mismo (aunque también podría formar un "alargamiento" o un "callejón sin salida"). Se considera generalmente que los agujeros negros realmente atravesables requerirían materia exótica con densidad de energía negativa para estabilizarse. (Clic para ampliar).

¿Qué relación tiene con los agujeros de gusano? Se podría hacer un truco similar –regresar de Deneb antes de llegar allí, según un reloj terrestre– utilizando un agujero de gusano. La diferencia crucial es que para construir un tubo de Krásnikov no necesitas cambiar la topología del espaciotiempo. Entonces, usando un tubo de Krásnikov sería verdaderamente posible viajar en el tiempo además de por el espacio, ¿no? Errrr… ¡depende de lo que entiendas por “viajar en el tiempo”! ¿Qué aspecto tendría un tubo de Krásnikov para un observador externo? El tubo es un cilindro creciente. Uno de sus extremos estaría cerca de la Tierra y el otro seguiría a la nave espacial. El cilindro está vacío por dentro, pero sus paredes son MUY densas. Este cilindro es el pasadizo por donde el viajero regresa a casa. Tengo entendido que hace falta viajar a velocidades próximas a las de la luz por dentro del tubo para que el efecto se produzca, ¿es así? Simplemente, no tiene sentido utilizar este tubo para un viaje intergaláctico a menos que te muevas a velocidad relativista con respecto a la Tierra (en el ambiente del espacio de Minkowski). De lo contrario, el viaje requeriría una cantidad de tiempo prohibitivamente grande para el piloto. ¿Que se vería o se sentiría durante un viaje así? ¿Sería peligroso?

- 277 -


Antonio Cantó

Tendrías que viajar a velocidad relativista a lo largo de un corredor MUY estrecho. Creo que es extremadamente peligroso. Dr. Krásnikov, imagínese por un momento que fuera usted un escritor de cienciaficción. ¿Cómo describiría la ingeniería de un tubo de Krásnikov? Me sentiría libre para escribir casi cualquier cosa. El tubo es sólo un ejemplo (tan simple como es posible) que ilustra el concepto de “viaje hiper-rápido” y su posibilidad. El método real para realizar viajes interestelares, si aparece algún día, seguramente será muy diferente. Everett y Roman de la Universidad Tufts han dicho que dos tubos de Krásnikov dispuestos en sentidos opuestos crearían bucles temporales y violaciones de la causalidad. ¿Es esto correcto? No mucho. Pasa lo mismo que con los agujeros de gusano. Si tienes dos tubos (o dos agujeros de gusano), puedes INTENTAR construir una máquina del tiempo con ellos. Tus posibilidades de tener éxito constituyen una pregunta abierta: habrá siempre un momento en que el universo “elija” entre dar lugar a una máquina del tiempo o a una “singularidad cuasi-regular”. Hoy por hoy no podemos ni influir en esta “decisión”, ni predecirla. Leí en algún sitio que los tubos de Krásnikov podrían crear un Anillo Romano. ¿Qué es un Anillo Romano? ¿Qué implicaciones tiene para su metro espaciotemporal? No, no veo ninguna relación obvia entre estos objetos. No sé a qué se referiría el autor. El Anillo Romano, según yo lo entiendo, es un sistema de agujeros negros que presumiblemente puede estabilizar el horizonte de Cauchy de una máquina del tiempo emergente.

- 278 -


La Pizarra de Yuri 2

Los "portales" o "puertas estelares" habituales en la ficción (como este de la serie televisiva Stargate SG1) no están prohibidos por la Relatividad General y podrían ser realizables en la práctica. Pero, hoy en día, no sabemos cómo.

Las puertas estelares de Schwarzschild-Hawking. Dr. Krásnikov, usted ha propuesto también algunas cosas muy interesantes sobre los agujeros de gusano en general. Se considera generalmente que para crear y estabilizar un agujero de gusano atravesable harían falta inmensas cantidades de materia-energía negativa. Sin embargo, según tengo entendido, usted ha sugerido que el propio fenómeno podría producir esta materia-energía negativa y por tanto se convertiría en un agujero de gusano atravesable autosostenido: algo muy parecido a una puerta estelar. ¿Es esto correcto? ¿Cómo sería posible? La idea no es mía (según a mí me consta, es de Sergei Sushkov). Su esencia es muy simple: dado que el espaciotiempo en un agujero de gusano está curvado, el vacío siempre está “polarizado” ahí. En otras palabras: debido a los efectos cuánticos, un agujero de gusano nunca está vacío, sino lleno con alguna clase de “materia”. Las propiedades de esta materia no están limitadas por lascondiciones clásicas (como la exigencia de que la densidad de energía sea positiva), y están determinadas (entre otras cosas) por la forma del agujero de gusano.

- 279 -


Antonio Cantó

Por tanto, todo lo que necesitarías (si supieses cómo crear un agujero de gusano, en primer lugar) es encontrar una forma tal que la materia producida por estos efectos cuánticos sea exactamente la misma que haría falta para mantener el agujero de gusano. Durante un tiempo pensé que había descubierto la forma necesaria para un agujero de gusano autosostenido estático. Después, sin embargo, encontré un error en mis cálculos. Así que abandoné la exigencia de que el agujero de gusano tuviera que ser estático y busqué una forma que se limitara a permitir que fuera atravesable. Resultó que el agujero de gusano más simple (que es inicialmente la solución de Schwarzschild) posee ya esta propiedad. La famosa radiación de Hawking impide que colapse durante tiempo suficiente como para permitir que un viajero lo atraviese. Pero seguiría haciendo falta una cantidad inicial de materia-energía negativa, ¿no? No. Estoy hablando de agujeros de gusano “naturales” que presumiblemente aparecieron en el universo temprano. Su entorno no fue determinado por una “civilización avanzada” que hubiera podido alimentarlos con materia a su albedrío. ¿Qué aspecto tendría uno de esos “agujeros de gusano autosostenidos de Krásnikov”? ¿Cómo sería el viaje? ¿Correrían peligro los viajeros? Son más bien “agujeros de gusano autosostenidos de Schwarzschild-Hawking”. Tendrían el mismo aspecto que un agujero negro corriente salvo por el hecho de que un viajero, después de intersecar su “horizonte“, dispondría de algún tiempo para alcanzar el otro extremo y salir de él por su otra región asintóticamente plana. Por supuesto, este viaje sería peligroso: si el viajero no es lo bastante veloz, resultará aplastado por lasingularidad. Dr. Krásnikov… ¿qué es el tiempo? ¿Qué es la longitud? ¿Qué es la anchura? ¿Y el espacio? De hecho, no hay nada tan misterioso en los conceptos de espacio y tiempo (al menos, mientras nos mantengamos dentro de la física clásica). Quizás sea difícil explicar rigurosamente estos conceptos a un niño de seis años, pero cualquier estudiante de segundo curso de carrera es capaz de comprenderlos. Describimos (con éxito) nuestro universo mediante ciertos objetos geométricos: es el espacio de Minkowski en la Relatividad Especial, o el espaciotiempo en la Relatividad General. En la física

- 280 -


La Pizarra de Yuri 2

newtoniana es el producto de un espacio euclídeo tridimensional por una línea real. Y al aplicarlos a esos objetos, palabras como “espacio”, “tiempo” y demás tienen un significado claro y riguroso. ¿Y el espaciotiempo? ;-) Pienso que es una variedad Hausdorff paracompacta, suavemente conectada, de cuatro dimensiones, provista con una métrica de Lorentz suave orientada en el tiempo. ¿Cómo demonios se puede deformar el espaciotiempo? La gente no entiende esto… ¡Esa es una buena pregunta! Sorprendentemente, conocemos una parte de la respuesta. Y la respuesta, llamada Relatividad General, es que CUALQUIER espaciotiempo no vacío está curvado. En cada punto, su curvatura está relacionada con las propiedades de la materia en ese punto, y específicamente con su presión y densidad de energía, a través de las ecuaciones de Einstein.

S. V. Krásnikov: "Es muy sencillo: todas las cuestiones sobre el tiempo, el espacio, el origen del universo, etc. son pura Relatividad General" desarrollada por Albert Einstein (en la imagen).

- 281 -


Antonio Cantó

Si una persona joven que esté leyéndonos quisiera dedicarse a esto en el futuro, ¿qué debería estudiar? Es muy sencillo: todas las cuestiones sobre el tiempo, el espacio, el origen del universo, etc. son pura Relatividad General. Una última pregunta, Dr. Krásnikov. Como seguramente sabrá, no pocas personas piensan que esto son cosas destarifadas, una especie de pérdida de tiempo muy sofisticada, sobre todo teniendo en cuenta que aquí en la Tierra hay tantos problemas graves por solucionar. ¿Qué le gustaría decirle a estas personas? Esta era una de las preguntas favoritas de los escritores de ciencia-ficción en los años ’60. No puedo añadir nada a lo que ya dijeron Asimov o Lem, así que me limitaré a hacer dos comentarios: 1. Por supuesto que responder a la pregunta de si se puede vencer la barrera de la velocidad de la luz no es la más urgente. Pero lo mismo puede decirse de CUALQUIER otro problema. ¿Como se atreven esas personas a pintar su casa, o a curar el reumatismo, cuando los niños están LITERALMENTE muriendo de hambre en África? ¡A miles! 2. Estas personas, ¿conocen alguna manera de resolver los problemas realmente importantes sin usar ordenadores, o teléfonos, o la electricidad en general? Pues tuvo que venir Faraday a perder su tiempo en problemas aparentemente inútiles para que todos esos televisores y refrigeradores que usan a diario pudieran llegar a existir. Por cierto, ¿hay algo importante que no le haya preguntado? ¡Puedes apostar a que sí! Pero habrá que dejar algo para futuras entrevistas, ¿no? Pues muchísimas gracias de nuevo, Dr. Krásnikov. Si hay algo en lo que yo pueda ayudarle, simplemente dígamelo… Si lo que vas a escribir incita a un par de estudiantes brillantes para que hagan algo en este campo, me daré por totalmente recompensado. Y yo también. ;-) Bibliografía:

- 282 -


La Pizarra de Yuri 2

Introducción a la Relatividad General e Introducción matemática a la Relatividad General , en la Wikipedia (en castellano).

Introducción al espacio, el tiempo, la materia y el vacío , y a la gravitación y los agujeros negros, disponibles en la web de la Universidad de Chile (en castellano).

Einstein, Albert (ed. 2008), Sobre la teoría de la relatividad especial y general . Alianza Editorial, Madrid, ISBN 978-84-206-6841-3 (en castellano).

Misner, C. W.; Thorne, K. S.; Wheeler, J. A. (1973), Gravitation. W. H. Freeman, San Francisco, ISBN 978-0-7167-0344-0 (en inglés).

Wald, R. M. (1984), General relativity. The University of Chicago Press, Chicago, ISBN 0-22687033-2 (en inglés).

Thorne, K. (1995), Agujeros negros y tiempo curvo: el escandaloso legado de Einstein . Ed. Crítica, Barcelona, 978-84-7423-697-2 (en castellano).

Krásnikov, S. V. (1995), Hyperfast interstellar travel in General Relativity , disponible en arXiv:gr-qc/9511068v6 (en inglés).

Krásnikov, S. V. (2006), Сверхсветовые движения в (полу)классической ото [Movimiento superlumínico en Relatividad (semi)clásica] , disponible en arXiv:gr-qc/0603060v1 (en ruso).

- 283 -


Antonio Cantó

Fukushima INES 7 Yuri, el 14 de abril de 2011 @ 15:21 · Categoría: Actualidad, Ciencia popular, Sociedad y civilización, Tecnología

Nota 9 sobre los accidentes nucleares de Fukushima Secuencia de acontecimientos en las centrales nucleares japonesas de abril de 2011. Ir a la de marzo. Ver también: Videos aéreos de los daños en Fukushima I – Mediciones de radiación – Estado de los reactores afectados – Introducción a la radioactividad

Estimaciones de exposición durante el primer año en el área de Fukushima (IRSN, Francia) (Clic para ampliar) La inmensa mayor parte de la radioactividad emitida por la central nuclear siniestrada se está desviando al Océano Pacífico, con lo que las dosis en tierra resultan moderadas.

- 284 -


La Pizarra de Yuri 2

Evacuadas de Futaba, la localidad más próxima a Fukushima I, durante su estancia en el estadio de Saitama.

Viernes, 1 de abril •

Reuters informa que TEPCO está ofreciendo salarios de hasta 5.000 dólares al día para conseguir trabajadores que se atrevan a ir a Fukushima I.

Resumen del informe de situación del OIEA: Se está bombeando el agua presente en los edificios de turbinas de las unidades 1, 2 y 3 a condensadores y depósitos. Se sigue inyectando agua dulce a las vasijas de los reactores. Las temperaturas continúan descendiendo. Mediciones de radiación: Agua por debajo de los niveles de seguridad excepto en una población de la prefectura de Fukushima. Lecturas de radiación gamma en el área de Tokio equivalentes a la radiación natural. Entre 32 y 62 km al N-NO de Fukushima, de 0,5 a 6,8 μSv/h y 0,05 a 0,45 Mbq/m2 β-γ. Se ha calculado la deposición total de yodo-131 y cesio-137 en 9 municipios entre 25 y 58 km. Hay una gran variación espacial. Promedios: 0,2 a 25 MBq/m 2 de I-131, 0,023,7 MBq/m2 de Cs-137. Los valores más altos se hallan al NO de la central. Al menos uno de los criterios de evacuación del OIEA están excedidos en Iitate. Contaminación alimentaria: No se encontró radiación significativa en diversos alimentos procedentes de Chiba, Gunma, Ibaraki, Kanagawa, Nagano, Niigata, Saitama, Tochigi y Yamagata. Analizados para I-131, Cs-134 y Cs-137. Sábado, 2 de abril

- 285 -


Antonio Cantó

• •

Reuters informa que se ha encontrado agua con un nivel de radioactividad 7,5 millones de veces superior al límite legal en la unidad 2 de Fukushima I. Reuters informa que se ha encontrado una fractura en la contención de la unidad 2 que genera lecturas de 1 Sv/h.Confirmado por el OIEA. También informa que se ha detectado agua radioactiva emanando de la unidad 2 al mar. Reuters informa que Francia quiere “nuevas reglas nucleares globales”.

Resumen del informe de situación del OIEA: Se sigue transfiriendo agua contaminada a distintos reservorios e inyectando agua dulce a las vasijas de los reactores 1, 2 y 3. Se está transfiriendo agua dulce desde una barcaza estadounidense, pero hubo que interrumpir el proceso debido a una avería. Confirman que TEPCO ha detectado agua a más de 1 Sv/h cerca de la toma de agua de la unidad 2. Mediciones de radiación: De los trabajadores en Fukushima I, 18 han recibido dosis superiores a 100 mSv y ninguno a 250 mSv, el límite establecido recientemente. Se han detectado 180.000 Bq/l de I-131 y 15.000 Bq/l de Cs-137 cerca de la salida de agua de la unidad 4. Se han añadido estaciones de monitorización en el mar. Domingo, 3 de abril •

Reuters informa que “aumenta la presión” sobre los propietarios de centrales nucleares europeas ante las posibles pruebas y cambios en la regulación. Indica que cada reactor nuclear puede dar beneficios de un millón de euros al día.

Resumen del informe de situación del OIEA: Continúan transfiriendo agua contaminada entre depósitos e inyectando agua dulce a las vasijas 1, 2 y 3. Ha llegado una segunda barcaza estadounidense con agua dulce. Se ha identificado una posible ruta para que la contaminación de la unidad 2 esté vertiéndose al mar. Las temperaturas descienden. Se ha logrado restablecer el suministro eléctrico exterior a las bombas. Monitorización de la radiación: Sin variaciones significativas sobre días anteriores. Trabajadores desaparecidos: La NISA ha informado que en la tarde del 30 de marzo los dos trabajadores desaparecidos a consecuencia del terremoto del día 11 fueron hallados muertos en el nivel –1 del edificio de turbinas de la unidad 4. Lunes, 4 de abril

- 286 -


La Pizarra de Yuri 2

Reuters informa que Japón liberará al mar más de 10.000 toneladas de agua contaminada con radioactividad 400 veces por encima del límite legal. El jefe del gabinete Yukio Edano dice que “no hay otra opción”. RIA Novosti cita al jefe del gabinete japonés, Yukio Edano, señalando que este país podría verse obligado a revisar sus objetivos de reducción de emisiones de CO2 y otros gases de efecto invernadero debido a la crisis nuclear. Reuters informa que más de 163.000 personas del área de Fukushima siguen en refugios y se esperan grandes demandas por responsabilidad civil. Según un análisis del Banco de América / Merrill Lynch, si la crisis nuclear se extiende a lo largo de dos años el coste podría ascender a unos noventa mil millones de euros(130.000 millones de dólares). Reuters cita al director general del OIEA, Yukiyo Amano, declarando que deben crearse reglamentos “más estrictos y transparentes” de seguridad nuclear y que “las preocupaciones de millones de personas en el mundo entero sobre la seguridad de la energía nuclear deben tomarse en serio”. RIA Novosti informa que Japón ha pedido a Rosatom, de Rusia, ayuda para deshacerse del agua radioactiva en Fukushima I. Visto también en Reuters, que informa sobre las “medidas desesperadas” de los trabajadores japoneses para intentar detener las fugas de agua altamente radioactiva. La ayuda solicitada a Rusia consiste en un buque especializado en el procesamiento de agua radioactiva a gran escala, utilizado para decomisionar submarinos atómicos.

Martes, 5 de abril

Esta fuga de agua radioactiva en Fukushima I pudo ser controlada entre el 2 y el 5 de abril. Fotos: TEPCO. (Clic para ampliar)

Reuters informa que la radioactividad en el agua en la unidad 2 de Fukushima I ha caído a 5 millones de veces el límite legal.

Reuters informa que la Unión Europea incrementará los controles radiológicos para la comida procedente de Japón.

RIA Novosti informa que las mediciones de radioactividad en la isla rusa de Sakhalin, frente a Japón, están dentro de la normalidad. - 287 -


Antonio Cantó

RIA Novosti informa que las autoridades sudcoreanas están preocupadas por los vertidos de agua radioactiva al Océano Pacífico.

El OIEA informa que se ha iniciado el vertido de 11.500 toneladas de agua con baja radioactividad al Océano Pacífico. El OIEA informa que se ha logrado detener el vertido al mar de agua altamente radioactiva procedente de la unidad 2. Miércoles, 6 de abril • •

RIA Novosti informa que el gobierno ruso suspende las importaciones de pescado japonés debido a la radioactividad. CNN informa que las comunidades situadas en el área de Fukushima han rechazado una oferta de “compensación inicial” de TEPCO equivalente a 12 dólares por habitante.

Resumen del informe de situación del OIEA: Están vertiendo al mar 10.000 toneladas de agua contaminada procedente de de las unidades 5 y 6 para hacer sitio al agua altamente radioactiva en las unidades 1, 2, 3 y 4. Se sigue inyectando agua dulce a las unidades 1, 2 y 3. La temperatura continúa descendiendo y la presión es estable. Mediciones de radiación: Se ha detectado un incremento de la radioactividad en el mar cerca de la instalación el 4 de abril desde 11.000 hasta 41.000 Bq/l de I-131 y de 5.100 Bq/l hasta 19.000 Bq/l de Cs-134 y Cs-137. El OIEA informa que TEPCO ha sido autorizada a inyectar nitrógeno a la vasija de la unidad 1 para prevenir otra explosión de hidrógeno. Jueves, 7 de abril •

RIA Novosti informa que el gobierno ruso ha pedido al japonés que deje de verter agua radioactiva al Océano Pacífico, y más información sobre lo que está sucediendo en Fukushima I. Reuters informa que los trabajadores en Fukushima I han tenido que abandonar la central temporalmente debido a una réplica.

Resumen del informe de situación del OIEA: Hay signos de recuperación en algunos instrumentos y equipos eléctricos. Continúan arrojando 11.500 toneladas de agua - 288 -


La Pizarra de Yuri 2

contaminada al mar. Prosigue la inyección de agua dulce a las unidades afectadas, donde la temperatura y presión siguen estables. Mediciones de radioactividad: Se detectaron trazas de I-131 y Cs-137 en el agua potable de algunas prefecturas, por debajo de los límites de seguridad. Las dosis γ en algunas prefecturas monitorizadas descienden. Se ha observado un descenso de la radiación en el agua del mar respecto a ayer. No se han detectado niveles peligrosos de radioactividad en los alimentos disponibles para el consumo. Viernes, 8 de abril

Ubicación de las estaciones de medida del MEXT en el Océano Pacífico.

El OIEA confirma que ayer se produjo una réplica de magnitud 7.1 en el área. El estado de las centrales nucleares próximas a consecuencia del mismo es el siguiente: •

Fukushima I: Sin cambios significativos en las mediciones de radiación. No se interrumpió la inyección de agua.

Fukushima II: Todos los reactores están en parada en frío desde el 15 de marzo. Sin cambios significativos.

Onagawa: Todos los reactores están en parada en frío desde el 12 de marzo. Se perdieron 2 de las 3 líneas de suministro eléctrico exterior a consecuencia del terremoto. Se perdió la refrigeración de la piscina de combustible usado, pero fue restablecida. No se observaron variaciones en las lecturas de radiación.

- 289 -


Antonio Cantó

Tokai I: En parada en frío desde el 15 de marzo, no se observaron anomalías.

Higashidori: Estaba en parada en frío por mantenimiento. Se ha perdido temporalmente el suministro eléctrico externo, pero los sistemas de emergencia actuaron correctamente. Todo el combustible está en las piscinas, cuya refrigeración no ha sufrido anomalías.

Tomari: Las unidades 1 y 2 estaban en operación. La compañía propietaria redujo la potencia al 90%.

Central de reprocesamiento y enriquecimiento de uranio de Rokkasho: Ha perdido el suministro eléctrico externo pero el de emergencia está operativo.

• • •

Reuters informa que China está preocupada por los vertidos de agua radioactiva al Océano Pacífico y que Japón los detendrá el domingo. Reuters informa que la Compañía Eléctrica de Hokkaido retrasará la explotación comercial de la unidad 3 de la central nuclear de Tomari. Reuters informa que Japón suavizará algunas restricciones sobre la comida procedente de Fukushima y Gunma, pero prohibirá cultivar arroz en zonas afectadas.

Sábado, 9 de abril

Unidad 3 de Fukushima I un mes después del inicio de los accidentes nucleares, tomada por un helicóptero sin piloto. Imagen: TEPCO.

Resumen del informe de situación del OIEA: Es preciso retirar 60.000 toneladas de agua contaminada de los edificios de turbinas y galerías de las unidades 1, 2 y 3. Se transferirá a los condensadores y a la instalación de tratamiento de basura radioactiva. Se han pedido depósitos temporales adicionales.

- 290 -


La Pizarra de Yuri 2

Se sigue inyectando nitrógeno a la vasija de la unidad 1 para evitar una explosión de hidrógeno. Como consecuencia, la presión está aumentando. Se sigue inyectando agua dulce a las unidades 1, 2 y 3. Disponen de suministro eléctrico externo pero siguen usando bombas provisionales. Las temperaturas en las unidades están estables pero muy por encima de las temperaturas típicas de parada en frío (menos de 95 ºC). Estas temperaturas son: unidad 1, 246 ºC en la toma de alimentación de agua, 119 ºC en la base de la vasija; unidad 2, 141 ºC en la toma de alimentación de agua, no informada en la base de la vasija; unidad 3, 89 ºC en la toma de alimentación de agua, 110 ºC en la base de la vasija. Sin cambios en las unidades 4, 5 y 6 ni en la instalación común de combustible gastado. Mediciones de radiación significativas: Las principales densidades de contaminación βγ se encuentran dentro del radio de 30 km, principalmente al noroeste de la central. En el agua de mar, se detecta un descenso en las proximidades de la central y un ascenso en los puntos de medición a 30 km. Domingo, 10 de abril • •

• •

Reuters informa que TEPCO tiene dificultades para detener el vertido de agua radioactiva al Océano Pacífico. Kyodo informa que se produjeron pequeños derrames de agua radioactiva en las piscinas de combustible usado de la central nuclear de Onagawa durante el terremoto del 7 de abril. RIA Novosti informa que todas las mediciones de radioactividad en el extremo oriente de Rusia están dentro de la normalidad. El Daily Yomiura cita al gobernador de la prefectura de Fukushima, Yuhei Sato, declarando que tanto TEPCO como el gobierno japonés cometieron “traición” contra el pueblo de Fukushima por sus garantías y propaganda sobre seguridad nuclear. RIA Novosti informa que unas 15.000 personas se manifiestan en Tokio contra la industria nuclear.

Lunes, 11 de abril

- 291 -


Antonio Cantó

Un grupo de sintoístas, budistas y cristianos oran en una ceremonia conjunta "para apaciguar al mar" en la playa de Yuigahama (Kamakura, prefectura de Kanagawa) el día 11 de abril. Foto: Agencia Kyodo.

El OIEA confirma que durante la madrugadase ha producido una réplica de magnitud 6.6 en el área. El estado de las centrales nucleares próximas a consecuencia del mismo es el siguiente: •

Fukushima I: Sin cambios significativos en las mediciones de radiación. Se perdió el suministro eléctrico exterior y con ello la inyección de agua a los reactores durante 50 minutos.

Fukushima II: Todos los reactores están en parada en frío desde el 15 de marzo. Sin cambios significativos.

Onagawa: Todos los reactores están en parada en frío desde el 12 de marzo. Sin cambios significativos.

Tokai II: En parada en frío desde el 15 de marzo, no se observaron anomalías.

Reuters informa que Japón ha detenido el vertido de agua radioactiva al

• •

Océano Pacífico en medio de fuertes presiones internacionales de los países de su entorno. Se han vertido 10.400 toneladas de agua con un nivel bajo de radiación, de las 11.500 previstas. Reuters informa que Singapur “seguirá estudiando” la posibilidad de implantar la energía nuclear en su territorio. Kyodo informa que TEPCO ha recibido dos billones de yenes (16.400 millones de euros) en créditos para gestionar los daños causados por el terremoto y tsunami del día 11.

- 292 -


La Pizarra de Yuri 2

Kyodo cita al primer ministro Naoto Kan informando que se ampliará el área de evacuación alrededor de Fukushima I. Visto también en el Washington Post, RIA Novosti y otros. Kyodo cita al jefe del gabinete Yukio Edano declarando que el riesgo de que se produzcan nuevas emisiones masivas de radiación es ahora “considerablemente más pequeño” que al inicio de los accidentes. El Washington Post informa sobre la situación de los evacuados.

Resumen del informe de situación del OIEA: Confirma que se han vertido al mar 10.413 toneladas de agua contaminada. Se han transportado escombros contaminados de la unidad 1 a 4 hasta una zona de almacenamiento utilizando maquinaria a control remoto. Se ha dispersado un agente para evitar la diseminación del polvo en un lado de la piscina común de combustible gastado. Se sigue inyectando agua dulce a todas las unidades afectadas, a través de los conductos de extinción de incendios, y nitrógeno a la 1. La temperatura y presión en todas permanece estable pero muy por encima de las condiciones de parada en frío. Mediciones de radiación significativas: Sin variaciones notables sobre días anteriores. Martes, 12 de abril El OIEA confirma que las autoridades japonesas han incrementado la calificación de los accidentes en las unidades 1, 2 y 3 de Fukushima I al nivel máximo INES 7 desde el nivel 5 anterior. Comunicado oficial de la NISA, donde se reseña también que las emisiones registradas hasta el momento ascienden aproximadamente a 6,3 · 1017 Bq según la NSC, algo más del 10% de las producidas por la unidad 4 de Chernóbyl.

- 293 -


Antonio Cantó

Incendio del día 12/04 en el edificio de evacuación de agua próximo a la unidad 4 de Fukushima I.

• •

Kyodo cita a un alto representante de TEPCO, Junichiro Matsumoto, declarando que “la radiación total procedente de [Fukushima I] podría finalmente ser mayor que la de Chernóbyl si las fugas persisten.” Kyodo cita al primer ministro japonés, Naoto Kan, declarando sobre el incremento de la calificación a INES 7. Asegura que la situación está mejorando “paso a paso”. Kyodo cita a un asesor del gabinete japonés, Kenkichi Hirose, negando que se vaya a aumentar el área de evacuación como consecuencia del incremento de la calificación a INES 7. Kyodo informa que se están evacuando varios municipios más allá del límite de 20 km y que se ha detectado estroncio-90 fuera del área de seguridad de 30 km. Confirmado por el OIEA. Kyodo informa que se ha producido un incendio, extinguido con prontitud, en un edificio de muestreo próximo a la salida de aguas de la unidad 4 de Fukushima I. Confirmado por el OIEA. Reuters informa citando a la agencia Jiji que la central nuclear de Fukushima podría pasar a titularidad estatal para hacerse cargo del desastre con dinero público. RIA Novosti cita a expertos nucleares rusos y de otros países sugiriendo que podría ser necesario construir sobre Fukushima un sarcófago similar al de Chernóbyl. Kyodo informa que los alcaldes de las localidades próximas a Fukushima están “desilusionados con el mito de la seguridad nuclear”.

- 294 -


La Pizarra de Yuri 2

• •

RIA Novosti informa que el número de víctimas del terremoto y tsunami que provocaron también los accidentes nucleares de Fukushima asciende ya a 27.000 personas muertas y desaparecidas. Reuters informa que los trabajadores en Fukushima I y II han tenido que evacuar temporalmente las centrales debido a una fuerte réplica. Scientific American / Nature cita a varios expertos reclamando un estudio inmediato del impacto sobre la vida marina de la “emisión artificial de radioactividad al mar más grande de todos los tiempos”. Kyodo reafirma, citando fuentes de TEPCO, que la radiación emitida por Fukushima podría llegar a ser superior a la de Chernóbyl. Al parecer, la mayor fuente de contaminación es el reactor de la unidad 2 dañado en la explosión de las 06:10 AM del 15 de marzo. Visto también en Reuters.

El OIEA informa que se está preparando la evacuación de distintas localidades fuera del radio previo de 20 km, porque podrían quedar expuestas a “más de 20 milisieverts” durante los próximos once meses. La zona entre 20 y 30 km antes denominada de “evacuación a interiores” se llama a partir de ahora de “preparación para la evacuación”. Con esta nueva calificación, se sugiere a las personas que vivan en ese territorio la evacuación voluntaria y en todo caso estar preparadas para la evacuación forzosa en caso de emergencia. Miércoles, 13 de abril

Trabajadores monitorizando maquinaria a control remoto en Fukushima I. Foto: TEPCO.

Bloomberg informa que Taiwán cancela su programa de expansión nuclear.

- 295 -


Antonio Cantó

• • •

Kyodo informa que se han capturado peces con 12.500 Bq/kg de cesio137 (25 veces el límite legal, establecido en 500 Bq/kg) en el mar frente a Iwaki, a unos 35 km de Fukushima I. Kyodo informa que el presidente de Kanshai Electric reemplazará al de TEPCO como dirigente de la patronal eléctrica japonesa. El Japan Times informa que se prohíbe la venta de setas shiitake cultivadas en exteriores en Fukushima oriental. Bloomberg informa que Hitachi Chemical y Boehringer Ingelheim podrían verse obligadas a abandonar definitivamente sus fábricas situadas dentro del área de exclusión, actualmente ya inoperativas. La industria japonesa del automóvil está viéndose severamente afectada por el cierre de otras factorías próximas a Fukushima I. Según la patronal del sector, “los empleados no pueden acceder a las fábricas y no hay perspectivas de recuperación.” Se va informando en distintos medios sobre el rechazo y la discriminación que sufren las personas evacuadas del área de Fukushima por el miedo a la radioactividad: ver aquí, aquí, aquí.

Resumen del informe del OIEA: No hay cambios en la calificación INES 7 y las nuevas medidas de protección. Se ha informado de nuevas réplicas el 11 y 12 de abril, sin efectos sobre las instalaciones nucleares. El OIEA confirma el incendio del día 12 en el edificio de evacuación de agua de refrigeración para las unidades 1 a 4. Se apagó manualmente y no hubo consecuencias radiológicas o para la seguridad general de la instalación. Se sigue inyectando agua dulce a las unidades afectadas, y nitrógeno a la 1 para evitar una nueva explosión de hidrógeno. Esto ha provocado un incremento de la presión en la unidad 1. Las 2 y 3 se mantienen a presión ambiente. Las temperaturas en las unidades 1, 2 y 3, aunque estables, se mantienen muy por encima de las requeridas para considerarlas en parada en frío. No hay cambios en las unidades 4, 5 y 6 ni en la instalación de almacenamiento común de combustible gastado. Mediciones de radiación: Las mediciones de radiación gamma tienden a reducirse en las 47 prefecturas. En Fukushima es de 2,1 μSv/h. Se detecta deposición de I-131 y Cs-137 en varias prefecturas, así como presencia de estos isótopos en el agua potable, en niveles muy bajos.

- 296 -


La Pizarra de Yuri 2

El MEXT confirma que se ha detectado estroncio-89 (13-260 Bq/kg) y estroncio90 (3,3-32 Bq/kg) en el suelo de una localidad de la prefectura de Fukushima. También se ha medido en plantas de otras cuatro localidades. Según la NISA, los tres trabajadores que fueron expuestos a altas dosis de radiación en el edificio de la unidad 3 se han sometido a más pruebas médicas, sin resultados negativos. Los dos trabajadores que recibieron dosis de varios sieverts en sus piernas hace unos días no presentan quemaduras cutáneas o eritema. Se han realizado más pruebas a los alimentos. Sólo se han detectado niveles superiores al límite en dos muestras, una de pescado y otra de espinacas. Se confirma la prohibición de distribuir hongos shiitake cultivados al aire libre en determinadas localidades. Monitorización del agua marina: Hasta 7.000 Bq/l de I-131 y Cs-137 en las proximidades de la central siniestrada. Hasta 1.000 Bq/l a 15 km de distancia.

Evolución de los parámetros registrados en los reactores 1, 2 y 3 de Fukushima I. (Clic para ampliar)

Jueves, 14 de abril (hora local japonesa) •

Bloomberg cita a un miembro de TEPCO declarando que se prevé seguir enfriando las unidades afectadas “hasta junio”, mediante la inyección de agua y la evacuación de vapor al medio ambiente (“feed and bleed”). Los ingenieros de la compañía habrían rechazado una propuesta para inundar los reactores por completo y forzar así el descenso de la temperatura. Kyodo informa que la mayor federación agrícola del Japon exige a TEPCO indemnizaciones por los perjuicios ocasionados a los campesinos del área de Fukushima. CNN informa que grupos de defensa de los animales se adentran en el área de exclusión para rescatar mascotas abandonadas. - 297 -


Antonio Cantó

• •

• •

Kyodo cita a TEPCO confirmando que hay daños en el combustible situado en la piscina de la unidad 4. Bloomberg informa que TEPCO adquirió una cantidad récord de gas natural licuado (LNG) durante el mes de marzo para sus centrales térmicas, debido a la imposibilidad de operar varias de sus nucleares. Kyodo informa que el gobierno japonés levanta la prohibición de vender hortalizas kakina de Tochigi, pero mantiene la de las espinacas. Kyodo cita al vicepresidente de la Comisión de Energía Atómica del Japón declarando que los hechos de Fukushima deberían ser investigados por una comisión internacional para “volver a ganarse el crédito de otros países”.

- 298 -


La Pizarra de Yuri 2

50 años de Gagarin. Y ahora, ¿qué? Yuri, el 12 de abril de 2011 @ 7:07 · Categoría: Sociedad y civilización

Hace medio siglo, la humanidad llevó al espacio al primero de sus hijos. Pero ahora, parece bastante estancada. Como todo el mundo está hablando hoy del pasado, yo quiero hablar del futuro.

Algunas tecnologías derivadas significativa o totalmente de la exploración espacial. Imagen: NASA, 2003. (Clic para ampliar)

- 299 -


Antonio Cantó

¡Propicios días, camarada extraterrestre! No sé si te acordarás, pero hace ahora mismo cincuenta años terrestres exactos que esa especie con cuatro patas del tercer planeta de Sol llevó al espacio al primero de sus hijos. Son unos bichos curiosos, los terráqueos estos, ¿verdad? Lo que pasa es que ahora mismo parecen bastante confundidos, estancados y con un montón de problemas. Fíjate, quién les ha visto y quién les ve. Bueno, la verdad es que problemas, problemas, han tenido siempre. Si eres un extraterrestre lo bastante friki como para interesarte por la historia de esos simios que aún no han logrado alejarse de su planeta natal y ni siquiera fabricar un mísero agujero de gusano atravesable (¿estarán los OVNIs llenos de turistas galácticos frikis?), sabrás que cuando mandaron a ese fulano Gagarin a darse una vuelta por el espacio exterior parecían decididos a aniquilarse en una guerra nuclear mientras otros muchos de sus hijos pasaban hambre y miseria. Algunos de esos problemas parece que se han arreglado un poco: el peligro de guerra nuclear no es tan inminente y muchas cosas han mejorado bastante para la mayor parte de la humanidad. Y antes de todo eso… bueno, ya sabes. - 300 -


La Pizarra de Yuri 2

Sin embargo, otros problemas se han desarrollado en este periodo. Por una parte, en tiempos recientes, han dejado que sus anticuadas economías fueran arrastradas a una crisis global a gran escala, afectando sobre todo a algunos de los países que en otro tiempo llevaban el liderazgo (sí, aún tienen países, ¿te lo puedes creer?). Aunque de eso siempre han sido capaces de salir con más o menos sufrimiento de los de siempre (también tienen clases; qué le vamos a hacer, considéralo una curiosidad, son muy primitivos, los pobres). De hecho, ya se vislumbra el surgimiento (o resurgimiento) de algunas potencias emergentes. Saldrán de esa. Lo que ocurre es que esa crisis no es sino una manifestación de otros problemas más profundos, que siempre tuvieron pero últimamente se han desarrollado. Se han multiplicado demasiado para un planeta tan pequeño y con tan pocos recursos fácilmente accesibles. Hay más del doble de humanos ahora que cuando ese Gagarin fue al espacio. Quince veces más que en la Edad Media, veintipico veces más que en tiempos de los romanos, mil cuatrocientas veces más que en los albores de la civilización. En la actualidad están vivos el 6% de los humanos que hubo jamás. Si nada lo impide, a principios de otoño de este mismo año alcanzarán los 7.000 millones de personas. Se puede discutir si el reverendo Malthus llevaba más o menos razón en sus estimaciones, si ya se han alcanzado o no los distintos picos de Hubbert, pero hay un hecho difícilmente disputable: el planeta Tierra es finito, por lo que la población no puede crecer y multiplicarse indefinidamente sin agotar los recursos más pronto o más tarde. O, al menos, convertirlos en absurdamente caros, por escasos para semejante demanda. La superpoblación provoca también burbujas de jóvenes, que muchos consideran profundamente desestabilizadoras política y económicamente. Por el extremo contrario, cuando la demografía se contrae sobreviene el envejecimiento de la población, también muy problemático en términos económicos y políticos además de receta segura para la decadencia social, cultural y civilizatoria. Es lo que ocurre cuando uno se mete en problemas serios: luego resulta muy difícil salir de ellos y no hay soluciones buenas, sino sólo males mayores y menores. Y los humanos se han metido en un problemón gordísimo con esa costumbre suya de reproducirse incontroladamente. Como suele decirse, si toda la humanidad empieza a limpiarse el culo con papel higiénico, los bosques duran un suspiro.

- 301 -


Antonio Cantó

Población mundial entre el 10.000 aC y el 2.000 dC. Fuentes: ONU, Oficina del Censo de los Estados Unidos, Population Reference Bureau, Centro de Población de la Universidad de Pennsylvania ("Historical Estimates of World Population: An Evaluation," Analytical and Technical Reports, Number 10, table 2.)

El área metropolitana de Tokio, con unos 35 millones de habitantes, es la más poblada del mundo.

Incontables problemas de la humanidad y de la biosfera terrestre están estrechamente relacionados con estos puros números: las crisis alimentarias, el hambre y la miseria que siguen persistiendo, las grandes injusticias y desigualdades, la extinción masiva de especies biológicas, el calentamiento global, las guerras por unos recursos cada vez más escasos se encuentran vinculados de uno u otro modo con el exceso de población. O, para ser más exactos, con el número de humanos en relación a los recursos disponibles

- 302 -


La Pizarra de Yuri 2

y extraíbles económicamente en el planeta Tierra. Simplemente, el aumento de habitantes va más rápido que el nivel de desarrollo científico-técnico necesario para atenderlos a todos sin cargarse la biosfera terrestre en el proceso, y siguiendo por ese camino habrá necesariamente un momento en que supere la capacidad absoluta del planeta para sostenerlos. La cosa no tiene visos de cambiar: cada mes que pasa, se añade una Comunidad de Madrid entera a la población humana. Eso no hay planeta que lo resista, y menos aún si el tiempo de vida se alarga cada vez más. O la humanidad limita radicalmente su número y su consumo de recursos, o encuentra una manera de multiplicar (y repartir mejor) estos recursos, o se enfrenta a una catástrofe monumental mal que les pese a los del pensamiento ilusorio. No es un mero futurible: a pesar del descenso de la proporción mundial de hambrientos (del 37% en 1970 al 16% en 2009), debido al mero aumento de la población un número constante de entre novecientos y mil millones de personas siguen sufriendo desnutrición, y 17.000 niños mueren de hambre cada día. Ellos ya viven la catástrofe. Además, tener todos los huevos en la misma cesta es muy peligroso. Resumido en palabras de Stephen Hawking: “No creo que la humanidad sobreviva a los próximos mil años, a menos que nos expandamos por el espacio. Hay demasiados accidentes que pueden sucederle a la vida en un solo planeta. Pero yo soy un optimista. Iremos a las estrellas.” En busca de las Indias Cósmicas. La Tierra es la cuna de la humanidad. Pero uno no puede quedarse en la cuna para siempre. –Konstantin Tsiolkovsky, padre de la cosmonáutica.

- 303 -


Antonio Cantó

Las papirelas, construidas con papiro, fueron los primeros navíos con los que la civilización minoica se adentró en el Mediterráneo para llegar hasta Egipto y otros lugares. Es posible que las naves espaciales del presente, aún tenues veleros gravitacionales, sean el equivalente cósmico a estos primeros buques.

Históricamente, las sociedades humanas que se veían enfrentadas a problemas de superpoblación y/o agotamiento de recursos recurrían a la exploración-conquista de nuevos territorios y al desarrollo técnológico para incrementar u optimizar el espacio y los recursos disponibles. Más a menudo, una combinación de ambas cosas conforme unas u otras iban quedando disponibles. Actualmente, en la superficie terrestre sólo quedan dos grandes territorios para seguir expandiéndose en busca de grandes recursos sin explotar: el fondo oceánico y algunas regiones polares como la Antártida. Ambos son bastante inhóspitos y, tarde o temprano, también se agotarán. En realidad sus recursos más accesibles están ya siendo explotados, por ejemplo a través de las plataformas petrolíferas en alta mar. Más allá, sólo está la última frontera: el cosmos. El futuro de la humanidad se halla inevitablemente en el cosmos. Antes o después, de buen grado o a regañadientes, la especie humana tendrá que hacerse definitivamente a ese océano interminable que conduce directamente a las estrellas. De lo contrario, se quedará estancada, arruinada, en decadencia y permanente conflicto, avanzando poco a poco hacia la extinción. En cierta medida, ya está ocurriendo. Hace tiempo que mucha gente se pregunta dónde están entonces las Indias Cósmicas, ese territorio inexplorado donde se desarrollará necesariamente el siguiente episodio de

- 304 -


La Pizarra de Yuri 2

la historia humana. Creo que hacerse esa pregunta en este momento constituye un error de perspectiva, porque supone que el estadio científico y tecnológico actual es el equivalente –a grandes rasgos– al principio de la era de los grandes descubrimientos oceánicos, en el siglo XV aproximadamente. Opino que la situación actual se parece mucho más a los orígenes de la navegación marítima, quizá a aquel momento en que los minoicos comenzaron a explorar las islas de alrededor, hace unos cuatro o cinco mil años. Hay un problema. La gente antigua pudo ir avanzando paso a paso, encontrando cosas que hacer y ganar en los territorios más próximos, así aprendiendo –y financiando– el salto a los más lejanos. En el océano cósmico, aún no resulta evidente por sí mismo cuáles serían esos pasos intermedios que sirvan como base a los más grandes, a menos que alguien invente algo revolucionario. Quizá incluso la comparación con los minoicos sea también excesiva, y los navegantes cósmicos humanos del presente se parezcan más a aquellos prehistóricos que ahuecaron un tronco para adentrarse en el lago a pescar algunos satélites, digo peces.

La gravedad terrestre exige hoy por hoy grandes cohetes, como este Protón-M, para acceder al espacio.

- 305 -


Antonio Cantó

Por cierto que, hablando de satélites, sólo por los que ahora mismo evitan catástrofes y monitorizan los recursos hídricos y agropecuarios para prevenir la sed y el hambre ya habría merecido la pena todo el gasto en ir al espacio. Eso sin entrar a hablar de los de telecomunicaciones, navegación por GPS o GLONASS, científicos y demás. En cuanto a los beneficios tecnológicos derivados, según los cálculos de la NASA, cada dólar gastado en el espacio genera siete a la economía estadounidense por la vía de la I+D. El próximo objetivo. El problema fundamental es, pues, cómo dar el siguiente salto –que todos sospechan enormemente más caro– sin que resulte ruinoso. Aunque hay un paso previo: determinar cuál es, exactamente, ese próximo objetivo. Esta es una cuestión curiosa y peliaguda a la vez. Recientemente, la Comisión Augustine de los Estados Unidos se ha dedicado a darle vueltas al asunto… sin alcanzar ninguna conclusión clara. De hecho, la Administración Obama no ha apostado claramente por ninguna de las opciones que planteó la Comisión, y sugiere unas ideas bastante difusas de enviar naves tripuladas a algún asteroide para 2025 y a Marte para 2030. Europa, como siempre, sigue a verlas venir; su programa Aurora sigue hablando de Marte en términos generales, pero poco más. China aún está en el proceso de ponerse al día. Las querencias de Rusia, actualmente líder comercial mundial en lanzamientos espaciales, parecen mejor definidas. Básicamente, los cosmonáuticos rusos sueñan con continuar el programa soviético de estaciones espaciales Salyut – Mir hasta el siguiente paso lógico: la creación de un astillero espacial en el “espacio cislunar”. En la práctica, en órbita baja alrededor de la Tierra. El tema se oyó con alguna fuerza cuando parecía que se iba a terminar la Estación Espacial Internacional: los rusos reclamaron varios de sus módulos para iniciar el ensamblaje de este astillero bajo el nombre OPSEK. La otra alternativa, evidentemente, es construirlo como una extensión al segmento ruso de la ISS. ¿Para qué sirve un astillero espacial? Bueno, parece bastante obvio: para construir naves espaciales. ¿Qué clase de naves espaciales? ¡Ah! Esa es la parte más intrigante de la idea. La mayor dificultad del vuelo espacial en el presente es vencer el pozo gravitatorio terrestre para hacerse al mar cósmico. La gravedad terrestre tira mucho, y por eso hacen falta cohetes poderosos –y caros–. La tarifa para salir de puerto resulta bastante elevada: entre tres mil y siete mil euros por kilo usando los cohetes rusos más - 306 -


La Pizarra de Yuri 2

económicos. Pero además, hay un problema de volumen. Existen algunos límites de tamaño bastante severos para las cosas que se lanzan dentro de un cohete o incluso a lomos del mismo. La nave de una sola pieza más grande que existe ahora mismo, el transbordador espacial estadounidense, sería comparable en tamaño con un Airbus A320. Y ya es mucho. Normalmente, las cargas que se lanzan en los cohetes tienen menos de diez metros de longitud, menos de cinco de diámetro y masas inferiores a los diez mil kilos. Las cargas en el rango de los 25.000 kilos se consideran ya excepcionales. El Skylab, que se lanzó con el último Saturno V, medía 36 metros de longitud y 6,7 de diámetro con una masa total de 77 toneladas: básicamente era una tercera etapa reconvertida, entera, en estación espacial. No es práctico ni económico realizar lanzamientos tan grandes. Las alternativas plausibles proponen generalmente cargas aún más pequeñas. Eso significa que para construir grandes naves espaciales, las carabelas del descubridor cósmico (como esta Nautilus-X, por ejemplo), hay que ensamblarlas en órbita. La existencia de un astillero espacial tripulado o algo que desempeñe una función análoga facilitaría muchísimo este proceso. Los ensamblajes automáticos y los manipuladores robóticos están muy bien, pero no hay nada ni lo habrá en bastante tiempo que supere la capacidad de un humano para encontrar un tornillo suelto y apretarlo en un plis. Hay muchos tornillos en una cosa así.

Concepto para una nave espacial interplanetaria Nautilus X, realizable hoy en día con tecnologías disponibles en la actualidad, a un coste estimado de unos 2.600 millones de euros. Vista frontal. Imagen: NASA Technology Applications Assessment Team.

- 307 -


Antonio Cantó

Disponer de naves espaciales tripuladas de propósito general capaces de recorrer buena parte del sistema solar en misiones de pocos años no debería ser ni muy difícil ni brutalmente caro. Conceptualmente, se parece bastante a construir un submarino de larga autonomía, y existen unos cuantos de esos. Por ejemplo: se estima que una de estas Nautilus-X podría costar unos 2.600 millones de euros, con un plazo de construcción de 64 meses y una autonomía de dos años, lo que permitiría ir a la órbita de Marte y volver con bastante soltura. Eso se parece bastante a los costes, plazos y autonomía de un gransubmarino de misiles balísticos. Una nave espacial modular de propósito general es también flexible. Permite ir a muchos sitios distintos para hacer muchas cosas diferentes con modificaciones relativamente menores y su tamaño se puede ampliar o reducir a conveniencia: es como tener varias naves en una. Para dirigirse a objetivos de baja gravedad como la luna o los asteroides (u otras lunas…), puede cargar aterrizadores tripulados análogos a los utilizados en el programa Apolo. Un programa completo para crear un astillero espacial y varias naves interplanetarias de propósito general, dependiendo de lo ambicioso que fuera, podría andar entre los cien mil millones de euros de la ISS y el billón de euros. Esta última parece una cifra fabulosa, y probablemente lo sea. Equivale al PIB de España durante un año. También es más o menos lo mismo que han costado ya las guerras de Iraq y Afganistán. Es menos de lo que vale el Grupo Santander. Y aproximadamente el PIB de la Unión Europea durante 23 días. O el del mundo durante menos de una semana. Hablamos de cifras enormes, pero perfectamente dentro de las capacidades humanas.

Yuri Gagarin y Sergei Korolev.

Si de momento nos apañáramos con el equivalente a cuarenta naves como la NautilusX, o con un nuevo proyecto del mismo coste que la estación espacial (es decir, unos

- 308 -


La Pizarra de Yuri 2

cien mil millones de euros), entonces estamos hablando de algo mucho más accesible. Es un importe similar a las hipotecas de alto riesgo en las cajas de ahorros españolas, menos de tres años de subvenciones agrícolas europeas directas o lo que se comió la guerra de Iraq en 2010. Es lo mismo que costó el programa Apolo, ajustado a la inflación (y que a su vez fue la quinta parte de lo que metieron en Vietnam). Es, pues, falso que no haya medios para seguir los pasos de Gagarin en el siglo XXI, sea por la vía que aquí se plantea o por cualquier otra que se considerase más adecuada. Lo que no hay es voluntad política, liderazgo, visión, amplitud de miras o sentido de la responsabilidad colectiva, y ni rastro de pelotas. Sobran pusilánimes, mediocres y mezquinos. Más que un logro tecnológico, mucho más que un modelo económico, lo que llevó a Gagarin al espacio hace ahora mismo cincuenta años fue una manera de pensar. La misma manera de pensar audaz que creó el Concorde, acabó con la viruela o fundó las comunicaciones móviles y tantas cosas más. Sin esa decisión, sin esa voluntad de transgredirlo todo, sin la audacia y la generosidad de pelear por un fin grande y bueno para todos contra todo pronóstico, las sociedades humanas no van ni a las estrellas, ni a ningún otro lugar y a largo plazo sólo les queda abierto el camino de la decadencia, de la miseria y de la extinción. ~~~ 12 de abril de 1961 – 12 de abril de 2011: 50 años del primer viaje cósmico tripulado ~~~ Yuri Alekséyevich Gagarin, en la nave espacial Vostok-1 concebida por S. P. Korolev.

Insignia de la misión Vostok-1

- 309 -


Antonio Cantó

Las tierras perdidas Yuri, el 19 de agosto de 2011 @ 15:14 · Categoría: Ciencia popular, Sociedad y civilización

Cuando ya había humanos en el mundo, hubo otras tierras, ahora desaparecidas. Algún día, resurgirán.

Impresión artística de la mítica Atlántida. La idea de los "continentes perdidos" con características mitológicas y civilizaciones idealizadas ha sido recurrente en la literatura. Si hubo "civiliizaciones antes de la civilización", no parece haber sobrevivido ningún rastro hasta el presente.

Todos hemos oído hablar de la Atlántida. Y puede que también de Lemuria, Mu y otros muchos continentes mitológicos con mayor o menor presunción de veracidad. Sin embargo, a tenor de todo lo que sabemos hoy en día sobre tectónica de placas, paleogeografía, paleoecología y demás, no parece muy probable que ninguno de ellos existiera realmente en tiempos recientes. Al menos, lo bastante recientes como para que hubiera gente por allí, alguien capaz de registrar su existencia. Nuestro planeta ha cambiado muchísimo a lo largo de sus 4.500 millones de años de historia y seguirá haciéndolo hasta que Sol se harte de hidrógeno y decida zampársenos a nosotros también. Pero lo hace muy despacio. En el medio millón de años que los homo sapiens llevamos bambando por aquí, los continentes y océanos apenas se han movido de donde están. Y sin embargo, hubo otras tierras emergidas, muy probablemente ocupadas por nuestra especie en tiempos no demasiado lejanos. Varias fueron francamente grandes, tanto como lo que hoy en día ocupa el Mediterráneo entero. Algunas, desempeñaron con toda probabilidad papeles clave en nuestra historia sin los que ahora mismo seríamos muy distintos de como somos. Pero nada queda de ellas hoy en día. Al menos, nada que

- 310 -


La Pizarra de Yuri 2

puedan ver nuestros ojos a plena luz del sol. Yacen, silenciosas y olvidadas, en las profundidades del mar. Son las tierras perdidas de la humanidad. Los ciclos de glaciación y el caprichoso nivel del mar.

Ciclos glaciales de los últimos 650.000 años, evidenciados por la concentración de CO2 atmosférico. El nivel actual es superior a 380 ppm. Datos: ONRL, NOAA. (Clic para ampliar)

Al menos durante los últimos millones de años, la Tierra ha sufrido periodos constantes de glaciación seguidos por fases de descongelación. Actualmente estamos en una de estas fases de descongelación, más técnicamente llamadas periodos interglaciares, ahora potenciado hasta la locura por el calentamiento global provocado por los seres humanos. Nadie sabe muy bien qué leyes cósmicas o telúricas rigen la parte natural de estos ciclos, pero tenemos pruebas decisivas de su existencia, alcance y repetición, que viene a darse cada cien mil años aproximadamente. En realidad, a periodos como el que vivimos ahora mismo los llamamos interglaciaresporque no son lo habitual en nuestro planeta, al menos durante el Cuaternario –nuestra época geológica–. Lo habitual es la glaciación. La Tierra cuaternaria es un planeta algo más frío de lo que conocemos, cubierta por inmensos casquetes de hielo en sus polos; este ha sido su estado “normal” durante aproximadamente el 70% del tiempo, a lo largo de los últimos dos millones y medio de años como mínimo. Uno de esos polos, la Antártida, ha permanecido constantemente congelado a lo largo de todo este tiempo.

- 311 -


Antonio Cantó

Durante estos prolongados periodos de glaciación, el nivel del mar global baja significativamente, hasta más de cien metros, incluso 120. La razón es sencilla: el agua se evapora de los océanos para acumularse en los polos bajo la forma de hielo, con lo que queda bloqueada allí y no puede regresar al mar. Y resulta que en la Tierra hay muchas zonas que se encuentran a menos de cien metros de profundidad bajo las aguas. Durante los periodos glaciales, estas regiones ahora submarinas quedan expuestas, por encima del nivel del mar. Y, como decía más arriba, algunas son francamente grandes. Tanto como subcontinentes enteros. Por ejemplo, el lugar perdido llamado Sundaland. Sondalandia, el Mediterráneo tropical de los primeros humanos.

Sondalandia hoy y durante la última edad del hielo. En el gráfico no aparecen algunas islas de cierto tamaño que también debieron quedar emergidas durante el periodo. (Clic para ampliar)

Hoy en día, llamamos Sundalandia o Sondalandia (cutre-traducciones al castellano de Sundaland) a la extensa región de penínsulas, islas, islotes y atolones del Sudeste Asiático que rodea al Estrecho de la Sonda. Este estrecho fue enormemente estratégico durante una buena parte de la historia humana, y sólo recientemente ha sido reemplazado en su importancia por el cercano Estrecho de Malaca, el pórtico marítimo entre Europa y Asia que mantiene abierta y funcionando la aldea global (el Estrecho de Malaca es más profundo y permite el paso de buques más grandes).

- 312 -


La Pizarra de Yuri 2

En el presente, esta región está ocupada por los estados modernos de Tailandia, Indonesia, Malasia, Brunei, Camboya, Vietnam y Filipinas, más la República Popular China a través de su presencia en algunas islas. Esto es, se corresponde a grandes rasgos con el Mar del Sur de China. Es una zona compleja, disputada y superpoblada con tantas esperanzas como problemas, a caballo entre el Primer, el Segundo y el Tercer Mundo. Para acabar de arreglarlo, se sospecha firmemente que algunas de estas aguas ocultan grandes bolsas submarinas de petróleo y gas natural, lo que no ayuda nada a atemperar los ánimos. Hay ya al menos una plataforma gasística operando allí y las broncas internacionales en torno a prospecciones y concesiones van y vienen cada poco tiempo, saldándose a menudo con la paralización de las actividades bajo la sempiterna amenaza de guerra. Son comunes las capturas de pesqueros y no tan pesqueros. No obstante, la última vez que corrió la sangre en serio fue en 1988, cuando China y Vietnam se liaron a tiros por un atolón de las islas Paracelso, situadas al norte de la región. Pero en el pasado, toda esta Sondalandia estaba emergida del mar y formaba una gigantesca península o subcontinente que se extendía desde Bangkok y el actual delta del Mekong hasta más allá de Java y Borneo, más una buena porción de costas a lo largo de toda la cuenca. Muchos de los islotes, atolones y bajíos que ahora apenas asoman sobre el oleaje cuando baja la marea eran islas casi tan grandes como Creta y archipiélagos no muy distintos del Jónico. La última vez que Sondalandia estuvo totalmente emergida de las aguas fue hace apenas quince o veinte mil años, a finales de la Glaciación de Würm, cuando ya había humanos de todas clases deambulando por allí. Dentro de un orden, uno puede dejar volar la imaginación ensoñando talasocracias y civilizaciones similares a las que surgirían en la cuenca del Mediterráneo diez mil años después… aunque desde luego, si las hubo, no hemos encontrado rastro alguno de su existencia. Quizás se encuentren ahora mismo sumergidas y olvidadas a cien metros bajo el mar. O, más probablemente, no. Ciñéndonos a los hechos, parece difícilmente discutible que homo sapiens sapiens – nosotros– se expandió hacia Australia y el Pacífico a través de este subcontinente de Sonda, en el periodo que va desde los sesenta mil hasta los quince mil años antes del presente. Y, durante periodos glaciales anteriores, lo hicieron algunos otros antecesores nuestros como el homo erectus.

- 313 -


Antonio Cantó

Los ríos arcaicos de Sondalandia. (Clic para ampliar)

Se debate el clima, flora y fauna exactos de Sondalandia. En general se cree que el clima próximo al ecuador durante los periodos glaciales era algo más frío y seco, o sea, más árido. Parece que pudo haber una extensa franja de sabana desde la actual Tailandia hasta casi Java, rodeada porpluviselva tropical a ambos lados y marismas de manglares en la costa. Esto de la franja de sabana es una idea sujeta a discusión en el seno de la comunidad científica. En todo caso, la tierra era –y es– arenosa y ácida, con lo que no pudo ser muy fértil; lo que los locales llaman actualmente kerangas, literalmente la tierra donde no crece el arroz. En estas kerangas suelen desarrollarsebosques de frondosas húmedas. No obstante, Sondalandia estaba irrigada por varios grandes ríos, continuación de ríos presentes. El conjunto de los mismos se denomina el complejo fluvial de Molengraaff. Entre ellos se contaba el gigantesco río Siam, o sea, el Mekong y el Chao Phraya probablemente uniéndose con otros procedentes de Sumatra y la Península de Malaca para formar a continuación un inmenso delta que desembocaba al noreste de la actual isla Natuna Besar. Si su caudal fue la mitadde la suma de todos estos afluentes modernos, este paleo-río Siam habría llevado tanta agua dulce como el Volga, mucha más que el Indo o el Nilo, y fue uno de los ríos más largos del mundo. Otros ríos de la Sondalandiapleistocénica debieron ser el Molengraaff propiamente dicho (dos afluentes nacidos en el sur de Sumatra y Borneo para unirse y desembocar al sudeste de Natuna),

- 314 -


La Pizarra de Yuri 2

uno corto siguiendo el trazado del Estrecho de la Sonda y otra densa red fluvial entre Java y Borneo. La temperatura media en la región de la Sundalandia emergida sería unos 3ºC más fría que ahora y la precipitación, no muy superior a 1.000 mm anuales frente a los 2.000 o más actuales. Su área total pudo superar los 2.200.000 km 2. La mayor parte se sumergió bajo las aguas hace más de diez mil años y no resurgirá hasta que entremos en una nueva Edad del Hielo. Al sur de Sondalandia se encontraba otra importante plataforma emergida, llamada Suhalland (¿Suhalandia?), que unía las islas modernas de Australia y Nueva Guinea. Suhalandia fue, muy probablemente, un desierto árido. Doggerlandia, la otra Tierra Media de Europa.

Mapa de Doggerlandia hacia finales del último máximo glacial (hace unos 10.000 años). No se representa la capa de hielo que cubría toda la parte norte.

Saben los nativos desde tiempos de nuestros antepasados que hay un extenso, y rico, banco pesquero a poca profundidad situado entre las actuales Gran Bretaña, Holanda y Dinamarca. Lo llaman Banco Dogger (Dogger bank), por una palabra holandesa antigua que significa… eso, banco pesquero.:-D Esta prominencia submarina, con unos 17.600 km 2 de extensión, tiene menos de 40 metros de profundidad en todos sus puntos. Pero eso no es todo. El mar circundante, lo que ahora llamaríamos el Mar del Norte, no es mucho más hondo: tiene apenas 95

- 315 -


Antonio Cantó

metros de profundidad media. Esto significa que cuando baja el nivel del agua durante los periodos glaciales, gran parte del Mar del Norte desaparece, Gran Bretaña se une a Irlanda y ambas se convierten en una península de la Europa continental a través de un extenso territorio emergido que en buena lógica suele llamarse Doggerland. En cañí podríamos bautizarlo como Doggerlandia. (Disculpadme, pero es que odio estas “traducciones forzosas” de cosas que, para empezar, jamás tuvieron nombre en español y algunas ni siquiera en ninguna lengua latina.) La parte norte de Doggerlandia estaba cubierta por el casquete de hielo glacial. Sin embargo, el sur era una tundraparecida a la del norte de Rusia o Canadá actuales, muy probablemente poblada por los humanos europeos del Mesolítico: cromañón y neandertal (en varias ocasiones se han rescatado restos arqueológicos del fondo marino en este área). Había mamuts, dientes de sable y dos especies humanas que cazaban, recolectaban y pescaban por entre la nieve y el hielo, seguramente al estilo de los pueblos esquimales modernos. Estamos en pleno Pleistoceno. Al igual que ocurre con Sondalandia, el suelo debía ser muy arenoso, pobre y frágil, con lo que no es probable que surgiera ninguna clase de preagricultura (¡y eso sin contar el frío!). También había allí paleo-ríos, y especialmente una gran cuenca que unía el Támesis y el Rhin para desembocar un poco al sur del Canal de la Mancha moderno. Doggerlandia pudo llegar a tener unos 250.000 km 2 de extensión, aproximadamente la mitad que España, con una parte significativa tapada por los glaciares. Se cree que lo poco que iba quedando de ella para el 6.200 aC fue arrasado y sumergido por una serie de gigantescas inundaciones, tsunamis y corrimientos de tierra conocidos como losCorrimientos de Storegga, que separaron Gran Bretaña del continente europeo hasta hoy. Dado que tal cosa ocurrió ya casi en tiempos históricos, algunos opinan que bien podría ser este el origen de algunos de los muchos mitos de la gran inundación o diluvio universal. Claro que, en realidad, esto podría ser aplicable igual de bien a cualquier otro de estos territorios extensos sumergidos por el agua que estamos tratando en este post. Beringia, el pasadizo intercontinental de la humanidad. Pero la tierra perdida que seguramente representó un cambio más significativo para la humanidad fue el lugar ahora llamado Beringia.

- 316 -


La Pizarra de Yuri 2

La región ártica, con las tintas batimétricas corregidas para resaltar las tierras emergidas durante los periodos glaciales, incluyendo Beringia. En la inserción, detalle de la cobertura de hielo hace 18.000 años y en la actualidad. Mapas: IBCAO, NOAA. (Clic para ampliar)

Beringia, con indicación en verde de las tierras emergidas durante el último Máximo Glacial. Estas tierras emergidas constituyeron un "puente" que pudo permitir a los pobladores siberianos desplazarse hacia América. (Clic para ampliar)

- 317 -


Antonio Cantó

Como su nombre sugiere, Beringia se encontraba en el actual Estrecho de Bering, entre la Chukotka rusa y la Alaska estadounidense de hoy en día. Es decir, entre Eurafrasia y América, o el Viejo y el Nuevo Mundo, o como lo prefieras. Durante los tiempos humanos, antes de que hubiera navegación oceánica, el Estrecho de Bering ha constituído el único punto de contacto claro y –relativamente– sencillo con América. Existe la posibilidad de que se produjeran minúsculos contactos por otras vías, pero los estudios genéticos dejan meridianamente claro que todos los pobladores autóctonos de la América precolombina procedían de Siberia y entraron al Nuevo Mundo por el lugar que ahora lleva el nombre del danés al servicio de Rusia Vitus Bering. Lo cual tiene su enjundia, porque esa no era la clase de migración que los humanos del Mesolítico pudieran emprender con facilidad. El Estrecho de Bering es un lugar maldito entre la tundra y el hielo, con un clima casi alienígena, donde incluso ahora vive muy poca gente. En pleno siglo XXI, la densidad de población de Chukotka es de apenas 0,07 habitantes por km2; dicho otra manera, unos 54.000 habitantes dispersos en un okrug casi tan grande como España e Italia juntas. La de Alaska, pese a incluir algunas zonas más meridionales y habitables, no llega a 0,5 habitantes/km 2. Por comparar, la provincia menos poblada de España –Soria– tiene 9,2 habitantes/km 2. De un lugar tan inhóspito y deshabitado, ¿cómo surge una sociedad capaz de atravesar el mar en cantidades suficientes como para iniciar la colonización de un continente entero, contando tan solo con métodos paleolíticos? Bueno, pues porque no tuvieron que atravesar el mar. Durante los periodos glaciales, una parte notable del Mar de Bering y otras costas circundantes salen a la superficie. Es un lugar infernal, pero un lugar infernal con tierra firme bajo los pies. Es decir, se convierte en una región emergida que los seres humanos podemos habitar de manera natural. De manera especialmente interesante, a pesar de hallarse tan al norte, las peculiaridades climáticas locales de la Beringia emergida permiten la aparición de un área libre de hielos en su parte central. Sigue siendo una tundra gélida, únicamente adecuada para mamuts lanudos, tigres de dientes de sable y esos bichejos duros de pelar que llaman homo sapiens: un espacio donde la gente puede más o menos vivir, cazar, desplazarse y, en suma, migrar.

- 318 -


La Pizarra de Yuri 2

La tundra de Chukotka en la actualidad (verano). El interior de Beringia podía ser un poco más árido, pero bastante parecido. (Clic para ampliar)

Veámoslo con un poco más de detalle. Buena parte de Beringia estaba cubierta por las praderas de secano que se dan en la tundra. Esta especie de estepa apta para mamuts seguía muy hacia el oeste, hasta el sur de Europa y el Océano Atlántico. Y durante las edades del hielo, no se formaron glaciares en ella porque el clima era demasiado seco. De manera natural, los campos de hielo aparecían al borde de las costas en primer lugar. Pero entonces, la nieve y la lluvia tendían a caer en sus proximidades, creando así un apantallamiento que impedía el paso de las precipitaciones hacia el interior. En tales condiciones, no se pueden formar bosques. En su lugar aparece sólo hierba, aunque con grandes calveros. Pero es suficiente para que algunos herbívoros puedan sobrevivir. Y detrás de ellos, los cazadores y carroñeros. Como los humanos, por ejemplo. El pasadizo de Beringia creó una especie de sistema de esclusas terrestres naturales para el avance de la humanidad hacia territorio americano. Conforme unas zonas se congelaban y otras se descongelaban, los habitantes de esta región (humanos, bisontes, mamuts y mastodontes) se habrían ido viendo empujados cada vez más y más hacia el sur, hasta adentrarse en la Costa Oeste, las Montañas Rocosas y las Grandes Praderas, lugares más amables desde donde las grandes migraciones transamericanas ya pudieron ocurrir. Curiosamente, al norte y al sur de Beringia había zonas de aguas libres estacionales, durante el verano. El casquete polar de gran tamaño que cubre el Ártico durante los periodos glaciales tiende a concentrarse más al oeste, aproximadamente por el Mar de - 319 -


Antonio Cantó

Barents, Mar de Kara y el Polo Norte geográfico. Esto hacía que los grandes ríos Obi y Yenisei quedaran embalsados en su desembocadura ártica, creando así el Lago Glacial de Siberia Occidental o Lago Mansiyskoye. Alguna hipótesis sugiere que hubo un gigantesco caudal circulando entre este Lago Mansiyskoye, el Mar Caspio (mucho más pequeño que hoy en día) y el Mar negro. Hubo (y habrá, cuando llegue la próxima glaciación) otras tierras perdidas, pero ya de menor tamaño y relevancia. Por ejemplo, la actual Argentina se adentraba más en el Atlántico y su costa estaba más próxima a las Islas Malvinas (pero todo ello completamente cubierto por el hielo antártico). El Mar Rojo estaba cerrado casi por completo. El subcontinente indio, unido a Ceilán (Sri Lanka). Mallorca y Menorca se encontraban unidas, así como Córcega con Cerdeña. Buena parte de las Filipinas y algunas islas griegas, también. El Mar de Azov no existía y el Mar Negro era completamente interior, con una extensión bastante menor que la actual; hay también alguna hipótesis sugiriendo que la reinundación del Mar Negro al avanzar el periodo interglacial presente estaría en el origen de las leyendas del diluvio universal, en vez de los corrimientos de Storegga indicados más arriba. La mayor parte del Báltico tampoco existía, pero da igual, porque se hallaba totalmente cubierto por el casquete de hielo. Japón estaba conectado al continente asiático por Corea y Sakhalin. El Mar de Okhotsk era mucho menor que en el presente. Estas fueron las tierras perdidas, quizá en el origen de muchas leyendas posteriores, quizá no. Y, cuando la Tierra entre en otro periodo glacial, lo volverán a ser. Entre tanto, ya que estamos de vacaciones, podemos permitirnos el lujo de imaginar.

- 320 -


La Pizarra de Yuri 2

El mundo durante la Ăşltima edad del hielo.

- 321 -


Antonio Cantó

Noruega, 22.07.2011 Yuri, el 24 de julio de 2011 @ 10:49 · Categoría: Actualidad, Sociedad y civilización

Masacre de Noruega, 22.07.2011

Yo venía hoy a hablar de mi libro, que ya ha salido de la imprenta. Pero no me siento con ánimos. Ya te lo contaré dentro de unos días. Ahora estoy jodido. Bastante jodido, la verdad. Que la mayor parte eran chavalería, coño. Adolescentes de 13, 15, 17 años. No le habían hecho ningún daño a nadie. Y los han asesinado a decenas, como si fueran corzos en una montería. Mirándoles a los ojos con la frialdad y la convicción del fanático, del inquisidor, del integrista, del imbécil. Europa no necesita invasiones exteriores para ser destruida. No ha ocurrido desde que al mogol le dio la gana darse la vuelta allá por el siglo XIII. Son cretinos salvapatrias como este y los que piensan como él, matones absolutistas envueltos en sus banderones y mitologías, quienes la han carcomido y saboteado desde dentro una y otra vez. Qué tristeza más grande. Qué dolor. Qué miedo. Y qué rabia.

- 322 -


La Pizarra de Yuri 2

El transbordador espacial se acabó. Y ahora, ¿qué? Yuri, el 14 de julio de 2011 @ 15:48 · Categoría: Actualidad, Ciencia popular, Sociedad y civilización

El incierto futuro de la exploración espacial norteamericana. Anterior: 50 años de Gagarin. Y ahora, ¿qué? (12/04/2011)

Despegue del Atlantis STS-135, en la última misión de los transbordadores espaciales.

El Atlantis, en su misión STS-135 y última de los transbordadores espaciales estadounidenses, se dispone a ensamblarse con la Estación Espacial Internacional el 10 de julio de 2011. Foto: NASA.

- 323 -


Antonio Cant贸

- 324 -


La Pizarra de Yuri 2

Lanzamientos espaciales por países en el periodo abril de 2006 a marzo de 2011. Fuente de los datos: Quarterly & semi-annual launch reports, Federal Aviation Administration (USA). (Clic para ampliar)

Hace ahora algo más de un año, escribí unadespedida prematura para el Atlantis. En aquellos momentos se daba por sentado que la misión STS-135 actualmente en curso no saldría adelante. Me alegro de haberme equivocado y de que mi transbordador espacial favorito, al final, haya cerrado esta extraordinaria aventura. :-) Pero ahora ya está: se acabó. No habrá más transbordadores. Y, con ellos, desaparece toda posibilidad para los Estados Unidos de lanzar naves espaciales tripuladas durante los próximos años. No había un reemplazo claro, el tiempo se ha echado encima y todas las alternativas siguen en el tablero de diseño o en etapas tempranas de desarrollo. A partir del próximo día 21, toda la humanidad pasa a depender de las naves Soyuz para viajar a las estrellas, más lo que puedan hacer los chinos (que tardarán algún tiempo). Aquí tienes otro post que escribí sobre el estado actual de la exploración espacial, cuya lectura te recomiendo para hacerte una idea general de la situación. Las tendencias que comentaba en él, si algo, no han hecho más que profundizarse a lo largo de estos últimos catorce meses. Cincuenta años después de Gagarin, 42 años después del primer viaje a la Luna y 25 años después de la estación espacial Mir… sólo nos queda aferrarnos a diseños de aquellos tiempos para ser capaces aún de hacer algo por ahí fuera (la Soyuz voló por primera vez en 1967 y la Estación Espacial Internacional es básicamente lo que iba a ser la Mir-2). Pero es más: comienza a asomar la patita por el horizonte el día en que habrá que retirar la E.E.I. (ya hubo un amagoque hablaba de 2016, aunque seguirá hasta por lo menos 2020) y la idea de plantear un proyecto nuevo con un alcance sólo remotamente parecido para reemplazarla provoca sudores fríos y taquicardias a todos los pusilánimes. Indudablemente, la humanidad ha menguado e involucionado mucho durante las dos últimas décadas (excepto en volumen: dentro de unas semanas seremos ya 7.000 millones), y el estado de nuestros programas espaciales lo refleja perfectamente. Las palabras del director de lanzamientos del transbordador, dirigiéndose a su gente antes de esta última misión, fueron bastante sinceras y expresivas de la sensación que corre por el programa espacial norteamericano: “El final del programa del transbordador es duro de tragar, y todos somos víctimas de unas malas políticas en Washington DC, tanto al nivel de la NASA como de la rama ejecutiva del gobierno, y esto nos afecta a todos nosotros -os afecta a la mayoría de vosotros- severamente.

- 325 -


Antonio Cantó

Me da vergüenza que no haya salido un liderazgo mejor de Washington DC. A lo largo de la historia del programa espacial tripulado, siempre tuvimos otro programa al que hacer transición: del Mercury al Gemini, y al Apolo, y al programa de pruebas ApoloSoyuz, al Skylab y luego al transbordador. Siempre tuvimos algo a lo que hacer transición. Y lo teníamos, y fue cancelado y ahora no tenemos nada, y me avergüenzo de que no lo tengamos. Francamente, como alto directivo de la NASA, me gustaría pediros disculpas porque no lo tenemos. Así que ahí estáis. Os quiero a todos. Os deseo lo mejor.” El martes pasado, algunos de los principales responsables de esta situación, los mismos que se han pasado décadas dejando sin dinero y sin recursos a la NASA, entraron en pánico y se permitieron el lujazo de pasar por la tostadora al director de la NASA Charlie Bolden, que me supongo yo que tuvo que recurrir a todas sus conchas como ex-general de los Marines para no mandarlos a pastar por ahí. Al parecer, han descubierto de sopetón que queda fatal en la tele eso de que los astronautas estadounidenses tengan que comprar billetes a Roskosmos si quieren acceder al espacio. En su estulticia, tuvieron un instante de lucidez y vislumbraron también que, si una potencia espacial abandona segmentos mayores de sus investigaciones espaciales… pues es muy posible que deje de ser potencia espacial. Y, después de años negándole a la NASA el pan y la sal, estos prohombres y promujeres acosaron a Bolden con la pregunta secundaria que les resultaba más cómoda: “¿por qué la NASA no tiene aún el plan de futuro para el lanzador pesado que nos llevará a Marte y a los asteroides próximos a la Tierra, al que se comprometió (la comprometimos)para el pasado mes de enero?”

El astronauta norteamericano Scott Kelly en la Soyuz TMA-01M rusa, camino de la Estación Espacial Internacional, el 9 de octubre de 2010. Estados Unidos pagó 56 millones de dólares por ese asiento y en 2014 pagará 63. Foto: NASA. (Clic para ampliar)

- 326 -


La Pizarra de Yuri 2

Charlie, en vez de contestar “porque lleváis veinte años dejándonos bajo mínimos y delirando a golpe de pensamiento ilusorio, porque no hacéis otra cosa que estrangularnos un poco más con cada presupuesto, porque no escucháis a los especialistas técnicos sino sólo a los gurús que os dicen lo que queréis escuchar y porque sois alérgicos a mojaros con un proyecto a largo plazo así os ahorquen”, hizo de tripas corazón con un despliegue de buenos modales, mano izquierda y diplomacia cortesana. Nobleza obliga. Tuvo buenas palabras para todo el mundo y definió cuatro líneas de trabajo sobre las que la NASA se plantea el futuro para los próximos tiempos. De todo el lamentable espectáculo, estos cuatro puntos fueron lo único que merece la pena rescatar. Veámoslos. “¿Roskosmos? Sí, hola, buenos días, quisiera comprar unos billetes para la estación espacial…” En primer lugar, lo dejó claro: al menos hasta 2015, todos los lanzamientos tripulados de los Estados Unidos se realizarán a través de la Agencia Espacial Rusa “y otros partners” (como no sean los chinos…). El asiento en una Soyuz con destino a la Estación Espacial sale a 56 millones de dólares por unidad, billete de ida y vuelta, que sube a 63 millones en 2014. Ya han firmado 18 pasajes por esos importes. Eso es lo que hay, punto pelota. Mientras tanto, seguirán apoyando el desarrollo de cohetes y naves espaciales construidos por empresas privadas, en la esperanza de que alguno de ellos pueda llegar a competir con las Soyuz. El más conocido y probablemente más adelantado de estos proyectos es el de SpaceX, con sus cohetes Falcon y sus naves espaciales Dragon. Esta es una apuesta francamente arriesgada y un tanto confusa. Se trataría, básicamente, de subvencionar con dinero público el desarrollo y operación privados de una tecnología de lanzamiento análoga a la de la Soyuz, para luego comprarle misiones (otra vez) con dinero público. Más o menos. Gene Cernan, el último hombre que estuvo en la Luna, lo describió así recientemente:

- 327 -


Antonio Cantó

Lanzamiento con éxito de un prototipo de nave espacial Dragon con el cohete Falcon-9, ambos de desarrollo privado, el 8 de diciembre de 2010. Foto: NASA.

Fue la industria espacial comercial, bajo el liderazgo y la guía de la NASA, la que nos permitió ir a la Luna y construir el transbordador y hacer todo lo que ha pasado en los últimos 50 años. [Pero] transferírselo todo sin ninguna supervisión al sector comercial, una expresión que cuestiono, va a necesitar mucho tiempo. Algunas de esas personas están muy cualificadas, pero otros [sólo] son emprendedores jóvenes con mucho dinero, y para ellos es una especie de hobby. No para todos ellos. Pero algunos dicen que pueden ir al espacio en cinco años por 10.000 millones de dólares, y hasta los rusos dicen que tardaremos por lo menos el doble si ponemos nuestros huevos en esa cesta.

- 328 -


La Pizarra de Yuri 2

No tengo mucha confianza en que ese extremo del espectro espacial comercial nos devuelva a órbita en ningún momento de los próximos tiempos. Me gustaría que toda esa gente que se autodenominan [operadores espaciales privados] me dijeran quiénes son sus inversores. Que me dijeran dónde está su mercado. Se supone que una empresa comercial debe usar capital privado. ¿Y quiénes son sus usuarios? Imagínese que nosotros, la NASA, no tuviéramos necesidad de sus servicios. No existe ningún otro mercado para ellos. Entonces, ¿esto es realmente una empresa privada, o no? ¿Es un grupo de muchachos con estrellas en los ojos, que quieren convertirse en un gran desarrollador espacial? No lo sé. No creo que lleguen ni cerca de conseguir lo que han dicho que pueden hacer. Se lo dije al Congreso y sigue siendo cierto hoy: aún no saben lo que no saben. Nosotros […] hemos estado haciendo esto durante medio siglo. Hemos cometido errores. Hemos perdido colegas. ¿No crees que hemos aprendido algo de esos errores? Puedes apostar tu vida a que sí. Ellos tienen que aprender aún de sus errores. Y, como contribuyente, no tengo el deseo de sentarme ahí y pagarles para que cometan esos errores antes de que puedan siquiera llegar adonde creen que son capaces de ir. La buena noticia es que ahora algunas de las grandes compañías aeroespaciales están tratando de entrar en ese sector. Los Boeing, Lockheed Martin, ATK, están tratando de competir en el lado comercial del negocio. Eso es un poco más alentador. Esas son las personas que han estado trabajando en todo lo que hemos hecho durante los últimos 50 años. Ellos saben cómo se puede hacer. Cernan no es el único que no ve claro el asunto. Algunos otros astronautas notables opinan que esta aproximación puede condenar a los Estados Unidos a convertirse en un operador espacial de “segunda o tercera clase”. Ojo: es posible que esta transferencia al sector privado funcione, siempre que la lleven a cabo los especialistas adecuados y se mantenga con dinero público. En principio, no hay nada que lo impida. Pero tiene muchos números para ser un proceso largo, caro y no exento de problemas. Y Estados Unidos no está solo en el mundo: hay competidores. Están los rusos, con sus Angara, sus Rus-M y el PPTS en distintos estados de desarrollo. Detrás, vienen empujando los chinos. En 2015, que es cuando está prevista la entrada en servicio de estas naves y cohetes estadounidenses de construcción privada, podrían encontrarse con una durísima competencia. Si se producen retrasos, todos los nichos podrían estar ya ocupados para cuando quieran llegar. Lo único que está claro es que, por el momento, el vuelo espacial tripulado de la humanidad queda en manos exclusivamente rusas, más lo que China pueda ir haciendo. No existe ninguna alternativa ni la habrá durante al menos los próximos cuatro años. Y

- 329 -


Antonio Cantó

en cuanto a lo de enviar cargueros no tripulados del tipo de las Progress, ya se verá cuándo consiguen poner en órbita el primero. Sin duda, nos hallamos ante una situación de lo más incómoda para los Estados Unidos.

Una Soyuz TMA-M, la más reciente actualización de la veterana nave espacial soviética, se aproxima a la Estación Internacional el 9 de octubre de 2010. Foto: NASA.

El regreso de la Orión… ¿y del Energía?

Prototipo del módulo de tripulación y reentrada del MPCV, propuesta en estos momentos como futura nave espacial tripulada de la NASA.

Con el propósito de ir más allá de las órbitas terrestres cercanas, Charlie Boden dijo que mantienen sus intenciones de resucitar la nave Orióndel descarriado Programa Constellation para volver a la Luna propuesto durante los años de Bush. La nave Orión fue cancelada después de gastarse cinco mil millones de dólares en desarrollarla, pero

- 330 -


La Pizarra de Yuri 2

ahora vuelve por sus fueros bajo el acrónimo MPCV, o sea,vehículo tripulado multipropósito (web oficial de la NASA al respecto). La idea es disponer de una nave espacial tripulada capaz de llegar hasta los asteroides y Marte… y de servir como cartucho en la recámara para el caso de que las iniciativas privadas del apartado anterior no fueran a ninguna parte (de hecho, algunos critican que el MPCV duplicaría la funcionalidad de naves como la Dragon). En esencia, la Orión es un concepto Apolo pero con más capacidades, radio de acción y autonomía. Según se plantea, debería ser capaz de hacer por sí sola viajes espaciales con dos a cuatro tripulantes de 21 días de duración, ampliables hasta seis meses mediante elementos modulares. Con una masa total de 21.250 kg, estaría compuesta por dos módulos: uno de tripulación/reentrada y otro de servicio. El módulo de tripulación/reentrada dispondría de 8,9 m3ocupables, un poco menos que los aproximadamente 10 m3 habitables de una Soyuz-TMA o los 11 de una Apolo (en ambos casos, sumando todos los espacios presurizados). El módulo de servicio, no habitable, contendría los sistemas de propulsión, el almacén y el resto de equipos tecnológicos. Para lanzar esta nave se requiere un nuevo cohete, que es el tema con el que los congresistas dieron la brasa a Charlie Boden. Tal como se plantea en estos momentos, se trataría de un lanzador pesado que combinaría tecnologías de los propulsores del transbordador espacial, de los cancelados Ares I y Ares V e incluso del Programa Apolo. Al parecer, algunos de sus motores podrían terminar siendo una copia norteamericana del motor ruso NK-33. Su nombre es SLS (space launch system) y, como comentaba hace poco Dani Marín, podría llegar a ser esencialmente un concepto similar al del cohete soviético Energía. O, si las cosas no van al final por ahí, un Ares V de bajo coste. Aunque, por el momento, no existe una estimación de costes ni un calendario específico para el desarrollo del MPCV o el SLS. La estimación preliminar es que podrían entrar en servicio en torno a 2016-2017, si bien esta parece una fecha demasiado optimista en las circunstancias actuales. Hasta Marte o por ahí. El último punto que planteó Charlie Boden en su exposición es el más delicado de todos: a dónde se va con estas mimbres. Como era de esperar, repitió la idea planteada por Obama el año pasado: a un asteroide próximo a la Tierra, en torno a 2025, y a Marte para 2030 o cosa así. También se plantea ir ocupando los puntos de Lagrange o algunas misiones a la Luna.

- 331 -


Antonio Cantó

Ese es un plan ambicioso, en el que me encantaría creer. I want to believe. Sin embargo, visto lo visto en los últimos años, hay buenas razones para el escepticismo. De momento, ni siquiera la Iniciativa Conjunta de Exploración de Marte firmada recientemente entre la NASA y la ESA supera por mucho el estadio de declaración de intenciones.

Presupuesto de la NASA 1960-2010 en millones de dólares constantes de 2007 y como porcentaje del presupuesto federal de los EEUU. Fuente de los datos: Oficina de Gestión y Presupuestos (OMB), Presidencia de los EEUU. (Clic para ampliar)

Vamos a ver si nos entendemos y recordamos un poco de dónde venimos y sobre los hombros de qué gigantes caminamos y todo eso. Desde que Kennedy dijo que se iban para la Luna hasta que Armstrong puso su pie en el maldito sitio, transcurrieron ocho años escasos. ¿Cómo se hace eso? Sencillo: metiendo un montón de voluntad, de imaginación, de determinación y de recursos. O sea, una montaña de dinero. Para ser exactos, unos 24.000 millones de dólares de la época: la mayor inversión realizada jamás por un país en tiempos de paz. Es decir, unos 150.000 millones de dólares actuales. En 1966, durante el desarrollo del proyecto Apolo, llegaron a gastarse el 4,41% del presupuesto federal para sacarlo adelante. El mismo porcentaje del presupuesto federal para 2011 ascendería a 170.000 millones de dólares sólo en un año. Y mantuvieron un gasto parecido durante casi una década. Esa es la clase de decisión política que se precisa para hacer cosas grandes. Y no parece quedar nadie, al menos en Occidente, con esas pelotas. Ni con unas ideas mínimamente realistas. A todo el mundo le gustaría apuntarse el tanto de un viaje a Marte, pero dentro

- 332 -


La Pizarra de Yuri 2

de su legislatura de cuatro años, sin que sus votantes tengan que rascarse el bolsillo y sin correr ningún riesgo político o económico. Evidentemente, eso no es posible. Con esa forma de pensar, los egipcios nunca habrían construido las pirámides o el faro de Alejandría. En realidad, con esa forma de pensar no se va a ninguna parte. Es esa forma de pensar la que nos ha llevado, ahora mismo, adonde estamos. Ni los Estados Unidos ni nadie irán a Marte racaneando mil millones de dólares de aquí y de allá, con MPCV y SLS o sin ellos. Tampoco con un presupuesto anual de 19.000 millones para toda la NASA, que tiene en marcha muchos otros proyectos. Es ridículo. El problema de fondo en este asunto no es científico o tecnológico. Hay ciencia y tecnología de sobras para ir al punto del sistema solar que nos dé la gana, y la que no está disponible aún, se puede desarrollar en pocos años sobre la base actual. La cuestión de fondo es quién se moja, cuánto y hacia dónde. Mientras esta cuestión no esté clara, todo lo demás es marear la perdiz. O, como dijo Charlie Bolden al terminar, “un programa espacial sólo tendrá éxito si múltiples parlamentos y múltiples administraciones proveen la adecuada financiación.”

Preparando la Soyuz TMA-02M para el lanzamiento. Video: Roskosmos. Lanzamiento de la Soyuz TMA-02M desde Baikonur, el 7 de junio de 2011 (secuencia con vistas desde distintos puntos – la más chula en el 03:45). Lleva a bordo 40 experimentos científicos, entre ellos uno para tratar de encontrar un mejor tratamiento contra el cáncer y otro para experimentar los cultivos en el espacio. Video: Roskosmos. Actualización: Una aportación de Pastor Cartoon inspirada por la lectura de este post:

Cartel del astronauta estadounidense: "A la ISS". Oficial ruso: "¿Tienes algo suelto?"

- 333 -


Antonio Cantó

Mi caso OVNI favorito Yuri, el 13 de julio de 2011 @ 15:16 · Categoría: Historia y cultura, Sociedad y civilización

Uno tiene sus debilidades. :-D

¡Pues anda que no machacaría yo estos tebeos cuando sólo tenía pelo en la cabeza...! :-D

Lo confieso: de muy jovencito, un servidor de ustedes hacía polvo los tebeos, libros y apariciones televisivas de Erich von Däniken,Charles Berlitz y Jiménez del Oso. Pasé de creer en los Reyes Magos y los cuatro angelitos en las cuatro esquinitas a losarqueoastronautas y los visitantes extraterrestres sin solución de continuidad. (Bueno, sonaba bastante más lógico, ¿no?). Sólo después vinieron Isaac Asimov, Iván Yefrémov, Yaroslav Golovanov y Carl Sagan. Fue a través de estos últimos que, finalmente, llegué a adquirir algún aprecio por los rancios libros de texto, los papers formales y el siempre inquietante método científico, con su desagradable costumbre de llevarte la contraria en tus credulidades más íntimas. Nadie nace enseñado, oiga. Con semejante historial, no te extrañará que me queden algunas secuelas. Una de ellas es que siempre estoy dispuesto a escuchar una buena historia de OVNIs. Pero una chula, tú. No me fastidies con que una vez viste unas lucecitas en el cielo, porque yo también y algunas sé lo que eran y otras no. Como tú, o cualquier otro. El cielo está

- 334 -


La Pizarra de Yuri 2

lleno de cosas que hacen cosas. Tampoco pretendas convencerme sin pruebas muy fehacientes de que unos hombrecillos verdes o grises se pusieron en contacto contigo, especialmente si aprovecharon la ocasión para transmitirte un mensaje beatífico dirigido a la humanidad pero a ti personalmente, en vez de a la Asamblea General de las Naciones Unidas: casos de apariciones marianas y de esquizos en estado delirante también conozco un montón. Y si vas a contarme que los verdes, los grises, los marrones o los azules te metieron no sé qué por no sé dónde, opino que cada cual es muy libre de calentarse con la fantasía erótica que más le plazca, pero es que a mí el fetish policial no me acaba de poner. O sea que gracias, pero no, gracias. (Nota al margen: Me pregunto –es un decir– por qué estos contactos suelen ser tan antropocéntricos, dándonos la brasa con iluminaciones para la humanidad y demás, en vez de ser un poco más xenocéntricos y aportar algún detalle sobre su ciencia y tecnología; lo que nos sería mucho más útil, además de una buena demostración de su veracidad.)

Una bonita nube lenticular. Imagina lo que puede llegar a parecer en condiciones atmosféricas distintas, sobre todo si está reflejando alguna luz o hay algún otro fenómeno luminoso en el aire. Existen muchas más cosas en el cielo capaces de provocar fenómenos del tipo de los OVNIs.

Entonces, ¿qué es para mí una buena historia de OVNIs? Bueno, pues para empezar, una que esté bien documentada. Me parece de coña que, en un mundo plagado de cámaras de altas prestaciones por todas partes, con tanto millón de avistamientos, contactos y penetraciones sólo se nos ofrezcan como prueba imágenes y testimonios que no valdrían ni para demostrar la existencia de la Luna. También es importante que haya un registro instrumental; a poder ser, de distintos instrumentos. Los ojos humanos son muy dados a vercaras en las nubes, por no mencionar nuestra considerable capacidad para autosugestionarnos y convencernos de cualquier cosa mediante una infinidad de sesgos cognitivos. A los instrumentos les cuesta más seguirnos la broma, pero cuando están manejados por un humano decidido a demostrar lo que ve, lo que cree,

- 335 -


Antonio Cantó

pueden llegar a hacer cosas asombrosas. Por eso es bueno que haya un registro instrumental variado, a poder ser con sistemas lo más automáticos posible. Por otra parte, la historia no tiene que presentar indicios obvios de mala fe. Es decir, de ser un montaje más o menos hábilmente orquestado para ganar dinero, promover objetivos políticos o montar una sectita (sin tampoco caer en laconspiranoia). Y si además es interesante y se lee como un buen relato, miel sobre hojuelas. Que al menos se pueda decir aquello de se non é vero, é ben trovato, demonios. Hay muy pocas historias de OVNIs que reúnan todas estas cualidades, pero según mi opinión una de ellas destaca sobre todas las demás: el incidente de Teherán de 1976. Si no es auténtico, es lo que más se le parece y además la leche en bote, con radares e instrumentos detectando anomalías coherentes, cazas de combate enzarzándose con objetos luminosos que les lanzan cosas y numerosos testigos expertos en el cielo y en la tierra, incluyendo a pilotos y generales de la fuerza aérea. De todas las historias de OVNIs que en el mundo son, no hay ninguna que me sugiera más presunción de veracidad. Y te lo dice uno de Valencia, donde el caso Manises. A decir verdad, parece una versión corregida y mejorada del caso Manises, sólo que ocurrida tres años y pico antes: poco después de la medianoche del 19 de septiembre de 1976.

Mapa de la región en 1976.

Teherán, 1976. - 336 -


La Pizarra de Yuri 2

Lo primero, el contexto. El contexto es la Guerra Fría, en una dictadura pro-occidental fronteriza con la URSS: la Persia del Shá, o sea Irán, con la que luego se harían los barbudos de ojos saltones. Este Shá (o Sah, o Shah) Mohammed Reza Palevi era el rey de una monarquía en decadencia reactivado como déspota poderoso mediante un golpe de estado promovido por los Estados Unidos y el Reino Unido, derrocando así al Dr. Mohammad Mosaddeq, el Primer Ministro elegido democráticamente pero que tuvo la mala idea de nacionalizar el petróleo iraní. Ya sabes, somos los defensores de la libertad y la democracia mientras no votes cosas raras y todo ese rollo. El Irán del Shá fue una tiranía infame, al menos tan chunga como la de los ayatolás que vendrían después, con una policía política temible llamada SAVAK–totalmente indistinguible de la estación local de la CIA–, exterminio de la oposición y toda clase de torturas y crímenes. Probablemente no era tan mala como la Arabia Saudí de hoy en día, otro lugar sobre el que todos losdefensores de la democracia pasan de puntillas, pero en materia represiva no tenía nada que envidiar a –por ejemplo– el Chile o la Rumania del mismo periodo. Sin embargo, cabe romper una lanza en su favor: mediante un programa político denominado la Revolución Blanca, trató de modernizar el país e introducir un grado de justicia social. Para los criterios de su época, el Irán del Shá era un país moderadamente secular, moderno y tecnificado. En cierta manera, parecido a la España del franquismo tardío, y de hecho hubo una relación bastante buena entre ambas dictaduras. El Shá y su esposa Farah Diba, que hacía las delicias de la prensa del corazón cañí y llegó a convertirse en un icono popular, se contaron entre los pocos dirigentes extranjeros que visitaban la España de Franco. Salvando las distancias culturales, la Teherán del Shá no era tan distinta del Madrid de la misma época. Y en Teherán había mucha más pasta, por el petróleo, aunque la Revolución Blanca fracasó en el reparto de la riqueza (o quiso fracasar) y se encontraba concentrada en unas pocas manos.

- 337 -


Antonio Cantó

Farah Diba, esposa del Shá de Irán, se convirtió en un icono popular a través de la prensa del corazón. En la imagen, el Hola nº 1100.

Basta con mirar el mapa de más arriba para comprender el interés de los Estados Unidos por Irán, y no sólo debido al petróleo. Turquía e Irán estaban situados junto al vientre blando de la URSS, sin ningún colchón ni estado satélite de por medio, así que en términos geoestratégicos tenían una relevancia extraordinaria. Aunque Churchill y Stalin se agarraron de la manita para invadir Irán y derrocar al padre del Shá durante la Segunda Guerra Mundial, porque parecía inclinarse hacia el Eje, ahora las cosas habían cambiado y la dinastía Pahlevi era la mejor garantía de estabilidad, etcétera. Así que ambos primos anglosajones invistieron de poder al Shá y los suyos, los armaron, los formaron, los equiparon con todo y se olvidaron de buenismos políticamente correctos como los derechos humanos, el imperio de la ley o las libertades democráticas, qué vulgaridad.

- 338 -


La Pizarra de Yuri 2

Un F-14 Tomcat de la Fuerza Áerea Iraní dispara un misil AIM-54 Phoenix. Este tipo de cazas y misiles, extremadamente avanzados en su época, sólo se exportaron al Irán del Shá y después fueron heredados por los ayatolás. Foto: Northrop Grumman / AP

Fuera de Estados Unidos, Irán fue el único país que recibió interceptores F-14 Tomcat (79 unidades), que por aquel entonces eran lo último y lo más plus, un supercaza sólo comparable en aquel mundo con el MiG-25. También recibió 225 cazabombarderos F-4 Phantom II y fue el segundo país al que llegaron (después del Reino Unido). También les suministraron cientos de tanques Chieftain y helicópteros, miles de blindados y decenas de miles de misiles TOW, Dragon, Sidewinder, Sparrow, Harpoon,Standard o Hawk, en sus variantes más sofisticadas, así como el supermisil aire-aire Phoenix. Y aviones Boeing747Jumbo para transportar todo eso, uno de los cuales se estrelló haciendo escala en Madrid poco antes del suceso. Cualquiera que recuerde cómo era (por ejemplo) el Ejército Español por aquel entonces comprenderá fácilmente la enormidad de lo que estamos hablando. El Irán del Shá se convirtió en uno de los países mejor armados del mundo, incluso por encima de muchos miembros de la OTAN o el Pacto de Varsovia. Los estadounidenses y británicos les suministraron también diversos radares de gran capacidad para el periodo. Entre ellos se contaban cinco Marconi S-330/S-404 Green Ginger, con casi 400 km de alcance, tan potentes que a veces saturaban la red eléctrica iraní y producían apagones. Junto a estos, operaban decenas de (entonces) modernos radares como los tridimensionales AN/TPS-43 (450 km de alcance) o los AN/FPS-88, entre otros. Vamos, que los iraníes no estaban exactamente ciegos. Y puesto que todo este material no sirve de nada si no sabes usarlo, los Estados Unidos dedicaron decenas de millones de dólares e incontables horas-hombre a formar y entrenar miles de especialistas militares. O sea, que los iraníes tampoco eran exactamente una pandilla de moros ignorantes, como diría alguno que yo me sé. Junto a ellos, trabajaba también un cierto número de asesores militares norteamericanos.

- 339 -


Antonio Cantó

Y fue exactamente en la zona más vigilada y equipada, Teherán, donde ocurrió el incidente de septiembre de 1976. Para no caer en el sensacionalismo, me limitaré a traducir el informe de la Junta de Jefes de Estado Mayor de los Estados Unidos, que se tomó mucho interés en el asunto: Luces en la madrugada. [Directivas, fechas, destinatarios, confidencialidad – desclasificado con posterioridad. El relato de los hechos se inicia en las dos últimas líneas de la primera página] En torno a las 12:30 AM [00:30], [clasificado] recibió cuatro llamadas telefónicas de ciudadanos residentes en el área de Shemiran de Teherán, diciendo que habían visto objetos extraños en el cielo. Algunos informaron de un objeto con aspecto de pájaro mientras que otros notificaron la presencia de un helicóptero con una luz encendida. No había helicópteros volando en ese momento.

Un F-4 Phantom II iraní como los que se vieron implicados en el incidente OVNI de Teherán. Foto de 1974.

[Clasificado], después de decir al ciudadano que era sólo [el planeta] Marte y que había hablado con la torre [de control] de Mehrabad, decidió mirar por sí mismo. Observó un objeto en el cielo similar a una estrella pero más grande y brillante. Decidió enviar un F-4 [Phantom II] de la báse aérea de Shahrokhi para investigar. A las 01:30 horas del día 19 el [Phantom] despegó y se dirigió hacia un punto unas 40 millas náuticas al norte de Teherán. Debido a su brillo, el objeto era visible rápidamente desde 70 millas de distancia. Conforme el [Phantom] se aproximó a una distancia de 25 millas, perdió toda la instrumentación y las comunicaciones (UHF e interfono). Rompió el contacto y se dirigió de vuelta a Shahrokhi. Cuando el [Phantom] viró alejándose del objeto y aparentemente ya no constituía una amenaza para el mismo, la aeronave recuperó toda la instrumentación y las comunicaciones. A las 01:40 se despachó un segundo [Phantom]. El [oficial de armas a bordo] adquirió un blocaje radar a 27 millas náuticas, en la posición 12 en punto, arriba, - 340 -


La Pizarra de Yuri 2

[aproximándose a una velocidad relativa de] 150 millas náuticas por hora. Cuando la distancia descendió a 25 millas náuticas, el objeto se alejó a una velocidad que era visible en la pantalla del radar y se mantuvo a 25 millas náuticas. El tamaño [del objeto en el radar] era comparable al de un avión de reaprovisionamiento en vuelo Boeing-707 [un KC-135]. El tamaño visual del objeto fue difícil de discernir debido a su brillo. La luz que despedía era [similar a] la de lámparas estroboscópicas intermitentes dispuestas en un patrón rectangular y de colores alternantes azul, verde, rojo y naranja. La secuencia de luces era tan rápida que podían verse todos los colores a la vez.

Parviz Jafari, el piloto de la Fuerza Aérea Iraní que intentó entrar en combate con el objeto no identificado, junto a su avión.

El objeto y el [Phantom] que le perseguía continuaron con curso al sur de Teherán cuando otro objeto brillantemente iluminado, de un tamaño estimado como un tercio del tamaño aparente de la luna, se desprendió del objeto original. Este segundo objeto se dirigió directamente hacia el [Phantom] con una velocidad muy elevada.

- 341 -


Antonio Cantó

El piloto intentó disparar un misil AIM-9 [Sidewinder] al objeto pero en ese instante su panel de control de armamento se desactivó y perdió todas las comunicaciones (UHF e interfono). En este punto, el piloto inició un un viraje y un descenso con g negativa para apartarse. Mientras viraba el objeto le siguió en su estela a lo que parecían ser unas 4 millas náuticas. Mientras [el piloto del Phantom] continuaba virando para apartarse del objeto primario, el segundo objeto se desplazó por el interior de su viraje y volvió al objeto primario para reunirse perfectamente con él. Poco después de que el segundo objeto se reuniese con el primario, otro objeto pareció salir del lado opuesto del primario, dirigiéndose directamente hacia abajo. La tripulación del [Phantom] había recuperado las comunicaciones, así como el panel de control de armamento, y observó cómo el objeto se aproximaba al suelo anticipando [que se produciría] una gran explosión. Este objeto pareció posarse suavemente sobre el suelo y proyectar una luz muy brillante sobre un área de 2-3 km. La tripulación [del Phantom] descendió desde su altitud de [26.000 pies] a [15.000 pies] y prosiguió observando y marcando la posición del objeto. Tuvieron algunos problemas para ajustar su visión nocturna [debido al efecto del brillo del objeto en sus ojos], así que tras orbitar Mehrabad varias veces procedieron a un aterrizaje directo. Había muchas interferencias en la banda de UHF y cada vez que pasaban por el rumbo magnético 150º desde Mehrabad perdían sus comunicaciones (UHF e interfono) y el INS [sistema de navegación inercial] fluctuaba entre 30 y 50º. El único avión civil de pasajeros que se aproximaba a Mehrabad en los mismos momentos sufrió fallos de comunicaciones en la misma zona (KZ) pero no informó que avistara nada.

- 342 -


La Pizarra de Yuri 2

La torre de control del aeropuerto internacional de Teherán-Mehrabad en 1958.

Cuando el [Phantom] se encontraba en larga final [aproximación a pista], su tripulación observó otro objeto de forma cilíndrica (con el tamaño aproximado de un Tbird a 10 millas náuticas de distancia) con luces brillantes estáticas a cada extremo y una destelleante en el centro. Al preguntar a [la torre de control], les comunicaron que no había ningún otro tráfico conocido en el área. Cuando el objeto pasó sobre el [Phantom], torre no podía verlo, pero lo captaron después de que el piloto les dijera que mirasen entre las montañas y la refinería. Al hacerse de día, la tripulación del [Phantom] fue transportada al área donde el objeto había aterrizado aparentemente. No se observó nada en el punto donde pensaban que se posó (un lago seco), pero al dirigirse al oeste del área captaron una señal de localizador muy notoria. En el punto donde la señal era más fuerte había una casa pequeña con jardín. Aterrizaron y preguntaron a sus ocupantes si habían notado algo extraño la noche anterior. Aquellas personas hablaron de un ruido fuerte y una luz muy brillante, como la del relámpago. El avión y el área donde se cree que aterrizó el objeto están siendo comprobadas en busca de posible radiación. Se remitirá más información cuando esté disponible. El tiempo en Teherán-Mehrabad el día 19 de septiembre de 1976 era: temperatura = 25,4 ºC (mín 17 ºC, máx 31 ºC); visibilidad = 6,7 millas; viento = 3,2 nudos; precipitación = 0 mm. Al otro lado de la frontera soviética, en Astara (Azerbaiyán), las condiciones atmosféricas fueron al día siguiente: temperatura = 22,5 ºC (mín 18 ºC, máx 27 ºC); punto de rocío = 19,7 ºC; presión atmosférica = 1007,8 mb; viento = 2,5 nudos (máx 3,9 nudos); precipitación = 0 mm. - 343 -


Antonio Cantó

Existe otro documento muy parecido, redactado para la DIA por un capitán del Cuartel General de la Fuerza Aérea de los Estados Unidos en Europa, con un estilo un poquito más “literario” pero que esencialmente reproduce punto por punto el informe que te he traducido aquí. Al principio de este otro documento, el oficial en cuestión temía que el incidente fuese “archivado y probablemente olvidado”. No obstante, quizá debido a su excepcionalidad, parece que el asunto tuvo algún seguimiento posterior.

Dibujo realizado por el piloto militar Parviz Jafari de su encuentro con el OVNI sobre Teherán, pasada la medianoche del 19 de septiembre de 1976.

Este caso llama poderosamente la atención por varios elementos que ya identificó la DIA en su época. Por un lado, hay numerosos testigos, en varios lugares y de varios tipos distintos: civiles en tierra, personal aeroportuario, pilotos militares, etc. Algunos de ellos entran perfectamente en la categoría de “personal cualificado”. Por otra parte, hubo detección visual e instrumental. Los instrumentos, además, son de varios tipos y en distintas circunstancias: hay una “detección activa” por parte de los radares de los cazas, y una “detección pasiva” por la vía del fallo instrumental al aproximarse al objeto, pero también al sufrir perturbaciones a mayor distancia (desde Mehrabad). Estas perturbaciones a mayor distancia resultan especialmente interesantes, dado que fueron registradas por los instrumentos a bordo de dos tipos distintos de aeronaves (los cazas y el avión de pasajeros) en una misma posición coherente (rumbo 150º desde Mehrabad). Esa es la clase de cosas que hacen los objetos reales. Los protagonistas terrestres del incidente están identificados. El controlador de torre que recibió los avisos de los ciudadanos y vio el objeto con unos prismáticos se llamaba Hussain Perouzi. La persona que dio las órdenes para que despegaran los Phantom fue el brigadier-general Nader Yousefi, que también lo había visto desde tierra. El piloto del primer Phantom era el capitán Mohammad Reza Azizkhani y el del segundo, el teniente Parviz Jafari. Muchas de estas personas han sido localizadas por distintos autores y programas de televisión, y se han ratificado repetidamente en sus declaraciones. Algunos han dado conferencias en el extranjero.

- 344 -


La Pizarra de Yuri 2

El teniente (ahora general retirado) Parviz Jafari explica su encuentro con el OVNI de 1976.

El aeropuerto internacional de Teherán-Mehrabad, en la actualidad.

Se ha dicho que un satélite DSP, cuyo propósito es detectar los lanzamientos de misiles y las explosiones nucleares, detectó una anomalía infrarroja en el sector durante una hora. No he podido confirmar este dato y muchos autores dudan de que sea real. Tampoco existe ninguna información relativa a posibles observaciones desde la Unión Soviética, justo enfrente del lugar de los hechos. Si detectaron algo, se ha mantenido oculto hasta la actualidad. No parece existir una explicación convencional del incidente que sea evidente por sí misma. A lo más que se ha llegado es a relacionar vagamente el suceso con la identificación errónea de los planetas Marte o Júpiter. Esto no es descabellado: en todas las guerras, todas las fuerzas aéreas han realizado centenares de salidas contra la luna y otros astros, que parecen otras cosas al observarlos en condiciones anómalas. Sin embargo, las identificaciones erróneas de un astro no producen imágenes en el radar ni interferencias electrónicas. Este incidente en Irán presenta analogías notables con el caso Manises. Tantas, que uno se pregunta si no estarán íntimamente relacionados. Sin embargo, en el caso iraní las observaciones instrumentales directas (radar) parecen más variadas y sólidas, hay dos cazas interviniendo en vez de uno (y ambos notifican una experiencia similar), hay testigos más variados en más puntos diferentes, hay una interacción más directa con el objeto, el objeto reacciona de manera más sofisticada y la naturaleza del mismo parece más coherente, menos dispersa.

- 345 -


Antonio Cantó

Entrevista en Cuarto Milenio con el piloto de la Fuerza Aérea española Fernando Cámara, que se las vio con el objeto del “caso Manises”. Lo interesante (o menos conocido) comienza a partir del minuto 07:35 de este primer video, en el segundo video y a partir del 2:30 del tercer video.

Cabina del piloto (arriba) y el operador de armas (abajo) de un cazabombardero F-4 Phantom II.

En ambos casos, se han vinculado las anomalías electrónicas observadas con la presencia en el área de fuerzas más avanzadas tecnológicamente. En el caso valenciano, con la Sexta Flota norteamericana en el Mediterráneo. En el caso iraní, también con los estadounidenses que abundaban por allí o con equipos soviéticos análogos operando desde el otro lado de la frontera. No obstante, esto no pasa de ser una afirmación tan falta de pruebas como la que supone sin duda que estamos ante naves extraterrestres haciendo sun, sea, sex por la Tierra. Existen muchos avistamientos OVNI, incluso algunos muy famosos, que uno puede descartar tranquilamente sin miedo de estar perdiéndose nada. Sin embargo, hay un

- 346 -


La Pizarra de Yuri 2

minúsculo número de casos que invitan a la reflexión. El caso de Teherán de 1976 (y con él, el de Manises de 1979) pertenece, sin duda, a este último grupo. ¿Significa esto que los extraterrestres o los intraterrestres o los viajeros del tiempo o los atlantes o los seres de luz nos están visitando? No. Lo más normal, lo más probable, es que tuvieran una explicación convencional que simplemente no pudo establecerse en su momento y a estas alturas ya no se puede establecer. Con muchísima probabilidad, hasta el mejor de estos casos –según mi parecer, este que te estoy contando– tuvo una razón de ser convencional. Y si fue algo distinto, nadie lo sabe. Ni tú, ni yo ni el gurú de turno. ¿Que me moje un poco más, dices? :-D Bueno, veamos. Para empezar, dejémonos de jueguecitos verbales: objetos volantes no identificados los hay todos los días, hasta que alguien les pone un helicóptero de la Guardia Civil encima y resulta que son dos payos en avioneta subiéndose del moro un cargamento de polen. De hecho, los másmejores casos OVNI serían aquellos en los que el objeto llega a ser identificado… y entonces, siempre, siempre resulta ser un objeto de naturaleza convencional, con lo que no entra en los registros ufológicos. Pero cuando hablamos de OVNIs, lo que a todos nos evoca instantáneamente no es un mero objeto-volante-noidentificado-ñá-ñá-ñá, sino presencias de naturaleza extraordinaria en la atmósfera terrestre o sus aledaños. O sea: extraterrestres o cosa parecida. Hay otras posibilidades (armas o aeronaves terrestres anómalas, experimentos sofisticados deliberadamente diseñados para confundir, etc), pero esto es a lo que nos referimos normalmente. No mareemos la perdiz.

En diciembre de 2009 despertó gran interés esta luz espiral avistada sobre Noruega. Resultó ser una prueba fallida de un SLBM ruso RSM-56 Bulava. La tercera etapa fracasó, imprimiendo al misil un movimiento rotacional incontrolado que fue dejando una estela de gases incandescentes con forma de espiral. Si la prueba no se hubiera dado a conocer, este avistamiento continuaría siendo un "objeto volante no identificado".

- 347 -


Antonio Cantó

Según mi particular opinión, no es totalmente imposible que alguno de estos casos pudiera corresponderse con una visita extraterrestre. Pero no es totalmente imposible sólo por la sencilla razón de que es posible que existan civilizaciones extraterrestres y es posible que se puedan realizar viajes interestelares prácticos por medios que a nosotros aún se nos escapan. En ese caso, algúnavistamiento podría ser alguna de estas visitas (y algo me dice que se parecería muy poco a lo que estamos acostumbrados a pensar). Eso es todo. Como dije al principio, el cielo está lleno de cosas naturales y artificiales que hacen un montón de cosas. Y la atmósfera terrestre no es un cristal perfecto, sino un lugar bastante turbulento capaz de provocar fenómenos ópticos espectaculares a poco que las condiciones meteorológicas sean un poquito bordes (los espejismos superiores son especialmente interesantes al respecto del tema que nos ocupa, entre ellos el Fata Morgana… pero, de nuevo, esto no produce efectos electromagnéticos). En general, la probabilidad de que todoslos casos OVNI constituyan fenómenos convencionales que no se pudieron identificar en su momento es altísima. El hecho de que, después de tantos años de ufología, nadie haya sido capaz de aportar ni la más mínima prueba fehaciente de que alguno de ellos sea de naturaleza más extraordinaria constituye en sí mismo un argumento poderoso a favor del escepticismo, incluso del escepticismo radical. Algunos optan por explicar esta falta de pruebas mediante conspiranoias varias como los hombres de negro y demás (es increíble, tú, siempre eficaces al 100% hasta en el más inhóspito rincón del mundo, con la cantidad de patanes y metepatas que suele haber en esta clase de servicios). Por otra parte, la presencia de tanto estafador y espabilado en el mundillo obliga a exigir pruebas contundentes de cualquier afirmación. Y en general, afirmaciones extraordinarias requieren pruebas extraordinarias. Pero, a diferencia de otras creencias, no es imposible por completo. No, no lo es. Sólo altamente improbable. Y nadie tiene la respuesta: sólo el tiempo lo dirá. Eso sí, hace tiempo que albergo una opinión, y es que un contacto auténtico sería el fin de la ufología. Más que nada, porque la realidad siempre termina superando al más descabellado ejercicio de imaginación.

- 348 -


La Pizarra de Yuri 2

Charlando sobre la ciencia española y otras cosillas con el presidente del CSIC (entrevista) Yuri, el 12 de octubre de 2011 @ 12:28 · Categoría: Actualidad, Entrevistas, Sociedad y civilización

“[…] uno sólo tiene que fijarse en […] qué situación están los países que han apostado por la ciencia desde siempre, y en cuál están los que no. La ciencia se traduce en progreso. Nada de lo que tenemos ahora se ha producido sin un avance científico, sin un avance del conocimiento. […] Una sociedad de progreso significa también una sociedad más igualitaria, y la ciencia ayuda a eso. Si perdemos eso, pues estamos simplemente dejando el progreso y toda la sociedad en manos de otros. Nuestro destino estará en manos de otros. […]” –Rafael Rodrigo, presidente del Consejo Superior de Investigaciones Científicas. Para mí, hablar de ciencia en España tiene siempre un regusto agridulce. Tengo la sensación de asistir eternamente a la historia de lo que pudo ser y no fue. Y, como ya supondrás, sustento la opinión de que una parte significativa de nuestro atraso secular y nuestros problemas actuales está estrechísimamente emparentada con la falta de ciencia en España, y de todo lo que acompaña a la ciencia y la Razón Ilustrada. Según veo yo las cosas, el “¡que inventen ellos!”ha sido tan malo como el “¡vivan las cadenas!”, y entre ambos explican una parte notable de por qué estamos como estamos. Y, me temo, estaremos. Una maldición que también sufren, en buena medida, nuestros hermanos de Latinoamérica.

- 349 -


Antonio Cantó

Rafael Rodrigo, astrofísico y presidente del Consejo Superior de Investigaciones Científicas.

Por eso, siempre me agrada conversar con personas que saben mucha más ciencia que yo y que además están en los lugares donde se mueven las cosas. Si encima tienen una visión más optimista, ni te cuento. Este es el caso del doctor Rafael Rodrigo, astrofísico y presidente del Consejo Superior de Investigaciones Científicas, que ha tenido la amabilidad de pararse a conversar con la Pizarra de Yuri sobre la ciencia española y todo lo que le quise plantear. Considéralo mi manera de celebrar la Fiesta Nacional. Rafael nació en Granada en 1953, es licenciado en matemáticas, doctor en física e investigador en astrofísica. Vinculado al CSIC desde 1975, ha sido premiado por sus colaboraciones en la NASA y la Agencia Espacial Europea. Fue coordinador del Área Científico-Técnica de Física y Tecnologías Físicas del CSIC, gestor del Programa Nacional del Espacio y de Astronomía y Astrofísica, vicepresidente de Organización y Relaciones Institucionales del organismo y en 2008 llegó a la presidencia, que viene ejerciendo desde entonces. Oye, Rafael, ¿cómo es el día a día de un presidente del Consejo Superior de Investigaciones Científicas, que suena así como muy rimbombante? (Ríe) El día suele ser largo. Largo y cargado. Si estoy en el despacho, continuamente hay visitas o reuniones de trabajo; y si estoy fuera, es todavía peor y cuando vuelvo todavía se ha acumulado más trabajo.

- 350 -


La Pizarra de Yuri 2

Pero también es muy variado. El Consejo es una institución multidisciplinar, y no sólo por las disciplinas científicas sino también por las relaciones con los distintos estamentos sociales. Eso significa que lo mismo a las diez de la mañana estás hablando con alguien de microelectrónica, como pasas a un tema de filosofía media hora más tarde, o de relación con la comunidad autónoma una hora más tarde… Eso agota mucho pero, afortunadamente, tengo un buen equipo de trabajo alrededor y eso es lo que te permite afrontar los días. Si no, sería imposible. Tú entraste de presidente del CSIC en 2008, hace ya más de tres años. ¿Qué te proponías al acceder a la presidencia? Bueno, yo venía antes de la vicepresidencia, con lo que ya conocía la dirección del CSIC. El trabajo de un vicepresidente es distinto del de un presidente, pero la propuesta que teníamos en aquel momento era hacer una transformación de la figura de organismo autónomo a la figura de agencia estatal. Y eso es lo que hemos hecho en la estructura de la organización del CSIC en estos años. La verdad es que estos años han coincidido con los de la crisis económica, han sido años duros, y eso significa que no hemos podido llevar esa transformación hasta los últimos niveles. En realidad lo que queríamos era ganar más agilidad y más competencia, porque la investigación no puede estar sometida a un corsé estricto de la Administración General del Estado, sino que tiene que ser un poco más ágil. Para los que nos perdemos un poco en cuestiones institucionales, ¿cuál es la diferencia entre un organismo y una agencia estatal?

El buque de investigaciones oceanográficas Hespérides, operado por la Armada Española y el Consejo Superior de Investigaciones Científicas (Clic para ampliar)

- 351 -


Antonio Cantó

La agencia estatal supone en principio que podías tener más autonomía, más flexibilidad, más agilidad en la gestión. Digamos que además tienes más autonomía política, en cierto sentido, y más autonomía de gestión. Y te gestionas de una manera diferente, por cumplimiento de objetivos y un poco más parecido a una empresa que a un organismo público normal. Seguimos siendo un organismo público de investigación, pero con un estatuto y un estatus diferente. ¿Hemos conseguido todo eso? ¡Pues no! Pero hemos colocado al CSIC en una posición diferente, dispuesta a seguir la carrera para conseguir todo lo que permite nuestro estatuto y la ley de agencias estatales, que en definitiva es autonomía en gestión y flexibilidad en la misma. A mí, a los que dirigís este tipo de instituciones, me gusta preguntaros… imagínate, Rafael, que mágicamente te aparecen mil millones en el presupuesto. ¿Qué sería lo primero que harías? ¡Tengo que echarle mucha imaginación…! No habría que gastarlos alocadamente. Tenemos un plan estratégico a cuatro años, eso es parte de ser una agencia estatal; los demás organismos no suelen tener un plan estratégico a medio o largo plazo. Y evidentemente tenemos programada una serie de actividades, algunas de las cuales no hemos podido realizar por falta de fondos económicos. Así pues, tendríamos que utilizarlos en esa estrategia que tenemos diseñada. Pero dentro de esa estrategia, hay dos puntos siempre fundamentales: uno es los recursos humanos y otro las infraestructuras o equipamientos. Los dos tienen que ir de la mano para que una institución pueda ser fuerte y apoyar a sus investigadores, de tal modo que puedan ser muy competitivos. Los investigadores pueden ser muy competitivos pero si no tienen el equipamiento y las plataformas tecnológicas correctas, perderán competitividad con el tiempo. Gran parte de ese dinero debería dedicarse a elevar el nivel de excelencia en el equipamiento. Pero el equipamiento sin personas es inútil; por lo tanto, también tendríamos que recuperar al personal ya formado, y ser capaces de atraer talento internacional que se incorporara a nuestros grupos de investigación. O sea que las dos cosas que haría, y no de forma inmediata sino bien pensadas y analizadas en nuestro plan estratégico, sería en recursos humanos y equipamiento.

- 352 -


La Pizarra de Yuri 2

Manifestación de jóvenes investigadores cientificos en 2009. Foto: Gabriel Pecot / Público.

Hablando de esto… tú sabes que toda la juventud investigadora española se queja amargamente, y esto no viene de la crisis sino ya de mucho antes, de la extrema precariedad en la que trabajan. Muchos de ellos se van al extranjero en busca de pastos más verdes, y esto ya era así en la época de las vacas gordas. ¿Por qué? Vamos a ver, yo creo que hay que distinguir. El hecho de irse al extranjero no es un “castigo”, es parte de la formación de un investigador joven. Cuando uno termina su tesis doctoral en un instituto de investigación o en un grupo, lo importante para él no es seguir bajo las alas o el cobijo del mismo grupo o instituto que le ha ayudado a conseguir la tesis doctoral; sino empezar una carrera un poco más independiente. Eso significa que debe salir de ese amparo, a otros institutos de investigación. Normalmente esto se hace en el extranjero, aunque se puede ir a otros institutos de España porque ya los hay tan buenos como fuera. Eso es parte del proceso de formación. El problema viene muchas veces en el vacío existente entre que acabas la tesis y consigues un contrato fuera. Ese vacío es el que conlleva la precariedad, básicamente. Existe otro problema. Dependiendo de tu disciplina, la formación no acaba cuando acabas la tesis sino que hay que seguir formándose de manera muy especializada. Eso puede durar algunos años en los que estás fuera, y uno espera que después uno pueda tener alternativas en su propio país, para poder volver. Pero nuestro sistema no es tan rico. Entonces, la vuelta se complica más. Muchos años hemos sido capaces no sólo de recuperar a esta gente que estaba formándose fuera, sino de incorporar a nuevos talentos que nunca habían tenido nada que ver con nuestra institución, fueran españoles o de otras nacionalidades. Pero eso

- 353 -


Antonio Cantó

exige recursos económicos. Sin ellos, tu capacidad de incorporación o reincorporación disminuye. Desde siempre, la carrera científica ha sido una carrera de obstáculos. Pero debería ser una carrera de obstáculos científicos, no burocráticos o de conseguir contratos. Por eso esta carrera siempre se ha considerado tremendamente difícil: no sólo por lo competitiva que es sino por los obstáculos adicionales que el sistema le pone. Mira, Rafael, yo soy muy crítico con el estado de la ciencia española. Soy consciente de que se han hecho avances, pero… ¿por qué nadie ha conseguido que la ciencia española despunte en el mundo? En ciencia no se puede despuntar en todas las disciplinas, nadie es bueno en todo. Yo creo que la ciencia española sí tiene ahora mismo nichos donde se está a muy alto nivel. Aunque, entre otras cosas, despunta y está a muy alto nivel pero luego hay que mantenerlo; y ese es un problema de este país, que no se mantienen normalmente unas inversiones y una confianza en la ciencia durante mucho tiempo, de manera continuada.

El Instituto de Investigación en Inteligencia Artificial de la Universidad Autónoma de Barcelona, perteneciente al CSIC. (Clic para ampliar)

Eso no pasa en otros países. También es verdad que no tenemos mucha tradición. ¿Cuántos años tenemos de tradición científica moderna en España… podemos decir treinta, e incluso es exagerar un poco? Comparado con los siglos que llevan otros países de nuestro entorno, hace que nos cueste un poco más de trabajo. Pero, sin embargo, estamos en la línea. Yo creo que se está en el mismo tren. A lo mejor no en el primer vagón en todas las disciplinas, pero sí a un buen nivel.

- 354 -


La Pizarra de Yuri 2

De hecho, yo suelo decir que la sociedad no conoce que estamos a tan buen nivel en algunas disciplinas. Pero, ahora mismo… Alégrame el día: ponme algunos ejemplos. Pues mira, yo creo que en ingeniería química se está a un altísimo nivel, y también en inmunología. En física de altas energías se está a un magnífico nivel, y en ciencias del espacio, astrofísica. Se es plenamente competitivo, se compite con los mejores del mundo. No sólo eso: los mejores del mundo compiten con nosotros. Nuestros laboratorios están atrayendo entre un 30 y un 40% de talentos europeos: alemanes, franceses, italianos, ingleses… yo creo que estamos siendo un foco de atención. Si eso no se mantiene económicamente, pues está claro que es muy difícil llegar arriba y muy fácil bajar rápidamente. Y España no se ha caracterizado por mantener su inversión en ciencia, por lo que no llega todavía al nivel de los países con los que queremos competir, con los que estamos compitiendo. Entonces, esto se hace muy difícil. El hecho de que España haya llegado a ser la novena potencia científica en número de publicaciones, y también en calidad en algunas disciplinas, demuestra que ha habido un esfuerzo no sólo por parte del gobierno y de la sociedad española, sino también por parte de los científicos. No somos los mejores en todo, pero somos muy buenos en muchas cosas. El otro día, un chaval de diez años me preguntó: “¿Por qué no hay naves espaciales españolas?” (Ríe) Vamos a ver, pero es que tampoco hay inglesas o… hay muy poquitas [naciones capaces de hacer eso por sí solas]. España está integrada en la Agencia Espacial Europea y viene a ser el quinto país [de la Agencia] en capacidad no sólo científica y tecnológica, sino también económica.

- 355 -


Antonio Cantó

El Nanosat-1B del Instituto Nacional de Técnica Aeroespacial (INTA) fue lanzado por un cohete Dnepr desde el Cosmódromo de Baikonur, el 29 de julio de 2009. Con apenas 22 kg de peso, contiene tres experimentos científicos y permite la comunicación entre España, las instalaciones científicas españolas en la Antártida y el buque Hespérides.

España es, digámoslo así, “el pequeño de los grandes y el grande de los pequeños.” Y claro, no tiene una Agencia Espacial Española, y por tanto no tiene naves espaciales. Pero sí participa en todas las misiones espaciales europeas, y eso es importante. Además, la participación ha ido creciendo todos los años, en cantidad y en calidad. Antes se hacían paquetes de hardware, paquetes de trabajo que tenían menos dificultad tecnológica. Pero cada vez se busca más a las empresas españolas y a los grupos de investigación para realizar las tareas más difíciles de las naves espaciales. Además, hay excepciones. El Instituto Nacional de Técnica Aeroespacial, por ejemplo, sí ha lanzado un minisatélite y un par denanosatélites. Es decir, que sí que hay naves espaciales españolas. Pero la verdad es que, cuando quieres hacer una gran nave, no la hace un solo país. De hecho, las grandes misiones espaciales se hacen en colaboración entre varias agencias… casi ningún país, por sí solo, es capaz de hacer una gran misión espacial. Necesita el concurso de industrias multinacionales, de grupos internacionales… es mi campo de trabajo y sé que los equipos suelen ser muy internacionales. La internacionalidad de la ciencia, para nosotros, es como el pan nuestro de cada día. Hablando de la industria… tampoco vemos, aquí en España, grandes industrias científico-tecnológicas. Hablo de cosas como Siemens, General Electric, Intel… no tenemos de eso.

- 356 -


La Pizarra de Yuri 2

No. Es verdad. El tejido empresarial español está constituido en su mayor parte por pequeñas y medianas empresas, que yo incluso definiría como “pequeñas y pequeñísimas”. Su tamaño es tan reducido que, obviamente, la inmensa mayoría de estas empresas no pueden tener una dedicación fundamental a la I+D. Y de las grandes empresas, muchas de ellas son multinacionales y hacen la investigación en su matriz. Sin embargo, hay honrosas excepciones. Por ejemplo, antes me preguntabas en qué éramos buenos, y también somos buenos en el sector energético. No sólo en la investigación, sino también en nuestras empresas. Ahí hay una buena alianza entre empresas, organismos públicos y universidades que está dando sus frutos; una alianza que se ha dado de manera natural y que ahora, desde el Ministerio de Ciencia e Innovación, se está intentando incentivar más. También ocurre que los españoles somos terriblemente críticos con nosotros mismos. Siempre vemos que el de al lado es mucho mejor que nosotros, y eso no es siempre así. Ha cambiado, ha cambiado. Pues hombre… por ejemplo, antes me has comentado una cosa, que efectivamente yo he oído en el extranjero: se dice que invertir en ciencia y tecnología españolas es muy complicado, porque con cada cambio de gobierno, del signo que sea, se produce un cambio de prioridades e incluso de favoritos. Con ello, se arrasa lo hecho anteriormente, se empiezan cosas nuevas, y no hay una continuidad. ¿Tienen razón? En parte. Buscamos que las instituciones científicas sean lo más independientes posible, en el sentido de que mantengan una continuidad con independencia del color del gobierno. La verdad es que tampoco todos los gobiernos hacen borrón y cuenta nueva; los Planes Nacionales de Ciencia cubren, normalmente, varias legislaturas. Eso quiere decir que aunque no haya un pacto por la ciencia firmado (que, desde mi punto de vista, debería haberlo: un pacto de estado), se mantiene una continuidad no en los presupuestos, pero sí en las ideas. Esa continuidad se mantiene no por los gobiernos, pero sí por las instituciones. Yo he tenido la oportunidad de reunirme con todos los ex-presidentes del CSIC y siempre hay matices y cambios cuando viene un nuevo equipo de presidencia, pero sí que hay una continuidad en la política general del propio CSIC. La ciencia no puede dar bandazos. Puede dar bandazos lo que está alrededor suyo, pero la ciencia no lo hace.

- 357 -


Antonio Cantó

Oye, otra cosa que me suelen preguntar por ahí fuera: ¿qué demonios es la i minúscula?

De izda. a dcha., el presidente del CSIC Rafael Rodrigo junto a los ex presidentes Elías Fereres, José María Mato, César Nombela, Emilio Lora-Tamayo, Alejandro Nieto y José Elguero. Foto: Comunicación CSIC. (Clic para ampliar)

(Ríe) Vamos a ver, yo creo que ahora ya no te la harán, porque también en Europa se está hablando mucho de innovación. En el entorno anglosajón nunca se ha hablado de I+D+i, siempre se ha hablado de R&D, research and development (I+D) y la “i” no existía. Es una parte que corresponde mucho más al sector privado que al sector público y en general al sector productivo. Yo creo que la I+D+i no significa que todo lo que se investigue tenga que tener luego un desarrollo, un proceso innovador. Pero sí es verdad que los procesos de innovación basados en resultados científicos suelen ser más duraderos y más correctos. En España se ha hablado de I+D+i, no como un trinomio que tenga que ser una suma obligatoria, sino como un elemento que añade algo más a la ciencia. La ciencia no sólo consiste en hacer una buena investigación y avanzar el conocimiento, sino en ser capaces de transmitir ese conocimiento al sector productivo. Es el sector productivo el que hace la “i”. Por cierto, ¿cuál es el porcentaje de inversión privada en I+D (o en I+D+i)? En España, muy poquito. Muy por debajo de los países de nuestro entorno. Debe estar en el 0,5% del PIB. Es decir, que incluso es menor que la inversión pública. Este es uno de los grandes déficits de este país. Mientras que en el resto de países, al menos

- 358 -


La Pizarra de Yuri 2

aquellos con los que queremos competir o a los que nos queremos parecer, la inversión privada supera a la inversión pública en I+D… en España no es así. Eso hay que invertirlo. Pero eso es fruto de nuestro sistema de industria, de pequeña y mediana empresa, que mencionábamos antes. Es tremendamente difícil, a menos que haya colaboraciones de otros tipos. Yo creo que los centros tecnológicos han ayudado ahí, sin duda, a que las empresas puedan aunar esfuerzos para hacer I+D. No individualmente, pero sí en colaboración entre ellas y con los organismos públicos y universidades. Hay que organizar el sistema de otra manera. Mientras el sector privado no dé el do de pecho en I+D, por mucho que haga el sector público, siempre se quedará cojo. Ese es uno de los problemas que muchos planteamos. Tenemos una generación de gente que sale muy formada, pero que luego tiene estas condiciones de precariedad de las que hablábamos, y que después, cuando quiere salir al mercado, resulta que en España no hay capacidad de absorber a un gran número de estas personas…. Eso es cierto, y ese es uno de los grandes problemas de nuestro país. Yo creo que ahora mismo tenemos la mejor generación de jóvenes, formada como jamás en España… y sin embargo, a muchos de ellos no los estamos aprovechando. Es decir, ha sido una inversión que en definitiva están aprovechando mucho más otras empresas, otros países, porque se están yendo fuera.

El Centro de Investigación del Cáncer, del CSIC, en Salamanca. Foto: DICYT. (Clic para ampliar)

El problema de aquí vuelve a ser el mismo. Por ejemplo, en el caso del CSIC, no todo el mundo que hace su tesis en el CSIC se queda en el CSIC. Ni tiene por qué quedarse: eso - 359 -


Antonio Cantó

sería pura endogamia y tampoco estaríamos dispuestos a aceptarla. Pero si no se queda en el CSIC, tiene un entorno muy reducido para poder buscar un puesto de trabajo en España. También es verdad que la industria española no reconoce, o no le da el valor adecuado a (por ejemplo) la titulación de doctor. Para nosotros, un doctorado significa que es una persona que ha afrontado un problema y ha sabido resolverlo. Puede enfrentarse a otros problemas y resolverlos; está más capacitado. Sin embargo, aquí prácticamente no se considera. Eso no pasa en Alemania, eso no pasa en Francia. Y no pasa porque hay empresas, industrias que invierten en I+D y saben el valor de una persona con una formación adicional. ¿Qué pasa, si aquí no la hay? Pues, evidentemente, que nuestro entorno es más débil. ¿Vamos a dejar de formar a la gente para que pueda contribuir a nuestro país? No. Lo que debemos hacer es fortalecer nuestro sistema público y privado para que esta gente, bien formada aquí y fuera, pueda tener un puesto de trabajo aquí. En definitiva, generar esa “nueva economía del conocimiento.” Rafael, en medio de una gran crisis como la que estamos viviendo, y se dice por ahí que incluso podría empeorar en los próximos meses o años… dime por qué es una pésima idea recortar, precisamente, en ciencia. Dímelo tú. No soy el mas indicado, porque soy parte. Pero uno sólo tiene que fijarse en lo que han hecho los demás países, y dónde están. En qué situación están los que han apostado por la ciencia desde siempre, y en cuál están los que no. La ciencia se traduce en progreso. Nada de lo que tenemos ahora se ha producido sin un avance científico, sin un avance del conocimiento. Uno no puede pretender que la ciencia tenga una aplicación inmediatamente, pero es obvio que si no se avanza en el conocimiento, si no se sacan nuevos adelantos… no habrá nuevas tecnologías, no habrá nuevos desarrollos y no habrá una sociedad de progreso. Una sociedad de progreso significa también una sociedad más igualitaria, y la ciencia ayuda a eso.

- 360 -


La Pizarra de Yuri 2

Logotipo de la campaña "La ciencia española no necesita tijeras", contra los recortes en I+D. (Clic para ampliar)

Entonces, si perdemos eso, pues estamos simplemente dejando el progreso y toda la sociedad en manos de otros. Nuestro destino estará en manos de otros. Si eso es lo que queremos, bueno, pues aceptémoslo. ¡O no! En un país que ha sido históricamente un erial en materia científica, donde la ciencia no ocupa el lenguaje de la calle, y con esa historia que tenemos, que pesa un montón… en un país como España, ¿cuál debería ser el papel de la comunicación social de la ciencia, de la divulgación científica? Es fundamental. Si estamos hablando del papel de la ciencia en la sociedad, lo primero que debemos hacer es comunicarle a la sociedad qué es la ciencia y cómo de útil es para ella. Yo soy un tremendo valedor de la divulgación científica. De hecho, parte de nuestras estructuras están abocadas precisamente a la comunicación social de la ciencia. Yo creo que el CSIC ha sido, me voy a permitir el lujo de decirlo, un modelo en la participación de la cultura científica del país. Muchas veces hablamos de cultura y pensamos en otros tipos de cultura, pero la ciencia es parte de nuestra cultura y mientras no lo asumamos así, iremos mal. Nos falta tradición. Y lo que tenemos que hacer es seguir empeñados en comunicar a la sociedad qué es lo que hacen los científicos. Que no lo hacen todo bien, evidentemente. Pero gracias a los científicos se tiene el nivel de progreso que se tiene. La ciencia - 361 -


Antonio Cantó

moderna no ha existido siempre. Hace dos o tres siglos, no tenía la metodología adecuada para servir a la sociedad como ahora. Hoy sí. Y yo creo, además, que la divulgación y todas las personas que la hacéis y que intentáis ayudar a que la ciencia y la sociedad permeen mucho más… habéis hecho una gran labor. Y se nota. Se nota en muchas cosas. Se nota, por ejemplo, en la percepción social de la ciencia. Cuando una encuesta reciente preguntaba “¿qué profesiones estima usted más?”, o “¿en quién tiene más confianza?”, la primera, con diferencia, eran los científicos. Denota que algo está cambiando en España. Los cambios siempre son difíciles. Hay que ser muy concienzudo, y muy continuista en la idea. También es verdad que en España no se tiene la tradición y los científicos han estado a veces encerrados en su torre de marfil, un poco separados. Eso creó una imagen negativa. Yo creo que esa imagen ya no se tiene ahora, con la cantidad de actividades que muchos científicos realizamos para llegar a la sociedad. En definitiva, no estamos sino cumpliendo una obligación. Nosotros hacemos ciencia porque la sociedad quiere que hagamos ciencia y nos paga con sus impuestos. Debemos devolverles no sólo bienestar, sino también conocimiento. 52 años sin un Nobel científico. O, poniéndonos estrictos, 105. ¿Para cuándo 3 ó 4 premios Nobel científicos en España?

El Dr. Severo Ochoa, Premio Nobel de Medicina (1959), obtuvo el galardón como ciudadano norteamericano mientras se hallaba exiliado en los Estados Unidos por causa de las persecuciones franquistas. La última vez que la medalla de oro con la efigie de Alfred Nobel viajó directamente a España para premiar a un científico fue en 1906 (Medicina, Dr. Santiago Ramón y Cajal), hace la friolera de 105 años. Nunca hemos obtenido un Nobel en Física o Química.

- 362 -


La Pizarra de Yuri 2

Yo creo que nos falta muy poco. No nos faltan los grupos o los científicos, que yo creo que esos están a un nivel que [el Premio Nobel] podría llegar en cualquier momento en muchas disciplinas, sinceramente. En lo que se refiere a excelencia, pienso que estamos ya a un nivel en que podría suceder, pero también podría suceder en Italia u otros sitios. No hay que obsesionarse con eso. Pienso que nos falta, fíjate, un poco de organización. Un poco de capacidad de lobby que, como sabes, en el entorno anglosajón no tiene las mismas connotaciones negativas que en España. Necesitamos grupos capaces de sensibilizar, comunicar que tenemos buena gente y que esta gente ha hecho descubrimientos que merecen el Premio Nobel. Nos falta esa organización. Y mientras no tengamos esa organización, esas capacidades, las cosas se complicarán. Por supuesto, esto no quiere decir que sea el lobby el que consigue el Premio Nobel. El Nobel se consigue por ambas cosas. Pero sin ese valor añadido de nuestra capacidad de influencia, que se ejerce porque estás presente en los sitios adecuados, todavía falta un poquito. Es mi impresión personal. Rafael, tú que eres astrofísico… ¿tenemos neutrinos superlumínicos o no? ;-) (Ríe) No, yo no creo que hoy en día se pueda decir eso. Yo creo que hay que repetir los experimentos. Hasta que un experimento no está repetido por diferentes grupos de investigación con los mismos resultados, no se pueden decir cosas tan alegremente. Te pregunto esto porque tengo observado un fenómeno. Cuando llegan estas noticias como la del “taquión neutrino” ;-) o el GFAJ-1, por no mencionar cada vez que se habla sobre vida extraterrestre, se produce un pico enorme en el interés del público. Además, muy magnificado por los medios de comunicación. No poca gente dice que detrás de estas noticias tan llamativas pero con una base débil puede haber estratagemas para conseguir ingresos o presupuestos extraordinarios. ¿Qué opinas? Eso sería falta de ética científica, reprobable por nuestra parte. Hasta donde yo sé, lo que suele ocurrir es que el mundo científico es extremadamente competitivo y a veces se dan resultados no como parte de una estrategia, sino porque realmente uno piensa que es así y está convencido. La recomendación que todos hemos recibido en nuestra formación es que hay que comprobar mucho, mucho los grandes descubrimientos… Pero bueno, vamos a pensar

- 363 -


Antonio Cantó

que en la ciencia, como en todas las profesiones, hay personas que no tienen una ética profesional adecuada. Lo que sí tenemos los científicos es el método para corregirlo… …ciertamente: la verificación. Eso es. No somos impolutos, porque no lo somos todos, pero sí es verdad que tenemos nuestra propia metodología para que eso no prospere. Hay otra cosa que me llama la atención. A pesar de las críticas que se le hacen a la ciencia desde algunos sectores, como las pseudociencias o incluso las religiones, me hace gracia cuando los veo proponer una especie de “reconocimiento científico” de sus planteamientos. El crédito de la ciencia es tan inmenso que hasta ellos anhelan quedar bajo sus alas. Pero, por ejemplo, ¿por qué crees que las pseudociencias siguen siendo tan populares?

Una de esas cosas que se encuentra uno por ahí. Foto: La pizarra de Yuri. (Clic para ampliar)

- 364 -


La Pizarra de Yuri 2

Mucha gente prefiere creer en que los platillos volantes nos visitan a decir: “¿dónde están las pruebas? O me lo verifica correctamente o esto no es verosímil.” La imaginación del ser humano es tan amplia que cualquier cosa le atrae. Si no entiendes algo, pero alguien te lo explica de una determinada manera, fácil, es normal creerle. Otra cosa es que luego el raciocinio te haga reflexionar y darte cuenta de que no es verdad. Te lo preguntaba porque el otro día vi en mi barrio unos carteles pegados por ahí, cuyo título era “CONFERENCIAS CIENTÍFICAS” en letras grandes. Y claro, yo me fijo en esas cosas. Entonces leo cosas del plano astral, de la llegada de Hercóbulus o de un no se qué fotónico que transformará el mundo en 2012… Bueno, pero eso es el abuso que se hace de la palabra “ciencia” para atraer al público. Eso, en definitiva, significa que la ciencia ya atrae al público y hay gente que la mal-usa para llamar su atención. Y seguramente habrá más de diez y más de veinte incautos que realmente piensen que están atendiendo una conferencia científica, pero evidentemente no. De hecho, estuve tentado de acudir para ver cómo iba aquello y plantear dos o tres preguntas… A veces es bueno hacer eso. Hay una cosa en la que nos ganan. Yo normalmente no suelo discutir con ellos en público, porque esa gente vive de la palabra. Nosotros vivimos de los hechos, y los hechos son muy difíciles de demostrar cuando no puedes usar ecuaciones o una terminología adecuada. Ellos tienen más don de palabra para rodearse de un público adepto, para convencer a la gente. Esa situación siempre es dificil para un científico. Pero hay científicos excelentes que son capaces de discutir y rebatir todas esas posiciones. Y lo hacen muy bien, con un don de palabra tremendo. No todos los científicos somos capaces de hacerlo. Es curioso el atractivo que tienen estas cosas. Yo, por ejemplo, cuando doy una charla o algo así, suelo decir que la probabilidad de que haya vida extraterrestre en el universo es muy elevada. Entonces vés cómo se abren los ojos y muchas caras se iluminan. Pero a continuación añado que la probabilidad de que nos hayan visitado es próxima a cero y veo la decepción en su mirada. ¿Asistimos a formas de neorreligiosidad paracientífica?

- 365 -


Antonio Cantó

Yo creo que es una forma de no sentirse solos en el universo. En definitiva, el ser humano siempre ha buscado “arriba” respuestas a las preguntas que se hace sobre su entorno. Creo que si ahora mismo encontráramos planetas con signos de vida en nuestro sistema solar o cualquier otro, ya no vida inteligente sino solamente vida, sería un cambio de paradigma para el propio ser humano. Y eso es tremendamente importante. Ya ni siquiera hablo de religión o de ciencia, sino de conciencia. Para terminar… ¿qué le recomendarías a un chaval, una chavala de doce, catorce, dieciséis años que quisiera ser científico? Que se anime. Que la ciencia es terriblemente atractiva y que además puede ser tremendamente divertida. Es muy exigente, pero en la exigencia que tiene de uno mismo estás continuamente aprendiendo y abriendo tu mente. Desde mi punto de vista, eso es lo más importante que puede tener intelectualmente una persona. La carrera científica, aún siendo difícil, está abierta a cualquier persona. La formación nunca está de más. Un buen científico, aunque en un momento dado deje la ciencia y esté en otras ocupaciones, siempre tiene una formación que le ayuda a seguir adelante. Mejor formación, mejor empleo. Y si quieres ser un científico, lo que te propone la ciencia es un reto continuo. Eso, intelectualmente, siempre es bueno. Por cierto… ¿cuál sería el proyecto que más te gusta de los que estáis haciendo?

Imagen del asteroide (21) Lutecia tomada por la sonda Rosetta el 10 de julio de 2010, a unos 150 millones de kilómetros de aquí. Foto: Agencia Espacial Europea. (Clic para ampliar)

- 366 -


La Pizarra de Yuri 2

¿Como gestor o como científico? Hummm… como científico. Como científico, lo que siempre me ha gustado ha sido la exploración del sistema solar. Ahora mismo hay un proyecto fantástico que va hacia un cometa. Es una nave espacial de la Agencia Espacial Europea, en la cual hay dos instrumentos construidos parcialmente en España, en el instituto del que yo provengo, el Instituto de Astrofísica de Andalucía. Ya ha atravesado el cinturón de asteroides. Hemos tomado unas fotografías, unas imágenes fantásticas y hemos sacado un montón de información sobre estos asteroides. Ahora va de camino a encontrarse con el cometa, en la órbita de Júpiter. Está ahora mismo hibernada y lo seguirá estando dos años más. Empezará a despertar para encontrarse con el cometa y después viajar con él hacia el Sol. Es una aventura maravillosa. Sí. ;-) Otras entrevistas exclusivas en la Pizarra de Yuri: Konstantin Novoselov, Premio Nobel de Física 2010 Sergei Krásnikov, proponente de los Tubos de Krásnikov para (casi)viajar en el tiempo

- 367 -


Antonio Cant贸

- 368 -



Nada existe para ser temido. S贸lo para ser entendido. --Marie Curie, descubridora del radio, primera mujer Premio Nobel.


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.