NeoFronteras 2010 Edición de invierno
Confirman existencia de la energía oscura y trazan un mapa 3D de una parte del Cosmos Esquema de distancias (en falso color) a las que se encuentran distintas concentraciones de masa.
– Se suman las pruebas a favor de la existencia de la materia y energía oscuras. El último resultado está basado en un gran estudio realizado con el telescopio espacial Hubble y telescopios en tierra. Se hizo sobre 446.000 galaxias gracias a 575 imágenes solapadas de la misma parte del cielo. Con telescopios convencionales, se registró el corrimiento al rojo de 194.000 de esas galaxias. (Sigue en página 7).
ANTROPOLOGÍA
ÍNDICE
¿Nueva especie Homo? Descubren un posible humano coetáneo tanto del ser humano moderno como del hombre de neandertal. Marzo – En unas cuevas de Siberia se han encontrado restos de ADN humano de sólo 40.000 años de edad. Este ADN apunta además hacia un linaje antiguo y distinto a los conocidos, lo que lo haría coetáneo tanto del
ser humano moderno como del hombre de neandertal. El descubrimiento apuntaría, por tanto, a que Asia estaba ocupada además por una tercera especie humana desconocida hasta ahora. (Sigue en página 78).
FÍSICA
La Mecánica Cuántica de la fotosíntesis Descubren unos mecanismos mecánico cuánticos sorprendentes y fascinantes que se dan durante parte de la fotosíntesis. Parece que un alga inventó la computación cuántica 2000 millones de años antes que los humanos. Febrero – Un equipo de la Universidad de Toronto ha hecho una gran contribución al campo de la Biología Cuántica al observar estados cuánticos muy especiales durante la fotosíntesis en algas marinas. Otro equipo australiano ha llegado a resultados similares. Según esto los sistemas biológicos tienen la capacidad de usar la Mecánica Cuántica para así optimizar procesos esenciales como la fotosíntesis. (Sigue en página 35). PULSO DE LA TIERRA Nivel CO2 389,91 ppm 74,200 ppm desde 1958
Deforestación 3250000 Hectáreas (trimestral)
Extinciones 2500 Especies (trimestral)
Cosmos y Tierra: Espacio, Física, Geología, Matemáticas, Meteorología, Química. p. 3 Vida: Biología, Ecología, Etología, Genética, Medio ambiente, Paleontología. p. 45 Hombre: Medicina, Psicología.
Antropología, Neurología, p. 86
Otros campos: General, Tecnología. p. 92 Opinión: Editorial, Humor, Críticas. p. 111
NeoFronteras EDITOR J. J. Moreno neofronteras@yahoo.es http://neofronteras.com
NeoFronteras Trimestral
PORTADA
2010 Edición de invierno 2 / 114
Presentación de este número J. J. Moreno Lo que el amable lector está leyendo en este momento es el segundo ejemplar con estructura de revista y en formato A4 del sitio web NeoFronteras. Está basado en las noticias aparecidas durante los meses de enero, febrero y marzo de 2010 en dicha página web. Al igual que el primer número está confeccionado con LaTex. Una periodista me dijo recientemente que esta maquetación es demasiado sencilla y que otros programas consiguen realizar maquetaciones que “entran por los ojos”. Puede que tenga razón y que éste sea uno de los motivos por el cual el primer número tuvo muy pocas descargas. Quizás lo contenidos no importan tanto como pensaba o simplemente la gente lee cada vez menos. O puede que, al tener los mismos contenidos que hay en la web, simplemente esta revista es superflua. Aun así, espero que el aspecto se haya mejorado respecto al primer número y que guste a aquellos a los que les gustó aquel. Incluso se han añadido algunos reportajes antiguos de la sección de “Especiales” complementarlo. Quizás este formato sea útil para realizar algunas copias físicas para algún colegio o instituto. Para los que tengan una de estas versiones en papel habría que recordarles que al final de cada noticia viene el enlace a la misma noticia en la web NeoFronteras, así como otras referencias a las que se puede acceder tanto desde la versión web como desde la versión electrónica en pdf. Aunque se ha conseguido una versión bastante depurada en errores, de nuevo es inevitable que alguno haga acto de presencia. Por adelantado vayan mis disculpas. Las ideas y sugerencias de los lectores serán siempre bienvenidas para mejorar este trabajo. No ha sido tan difícil crear este producto como a prime-
ra vista se podría pensar. Las herramientas informáticas ponen ahora en nuestras manos unos recursos que hasta hace no tanto eran impensables para personas particulares. ¡Lástima que los modelos de negocio y el mercado también hayan cambiado y que las fuerzas económicas no lo hayan hecho! Pero, esta confección y maquetación, buena o mala, exige un tiempo que el que escribe no tiene. Por tanto, esta vez será la última ocasión en la que se publique esta revista en formato trimestral. El mundo es como es y las circunstancias son como son. Lo que no puede ser no puede y además es imposible. No descarto un posible número anual con unas pocas noticias representativas, pero sin compromiso ninguno al respecto y con muy baja probabilidad de que la idea vea la luz. Para compensar este revés el lector dispone ahora en el sitio web de un enlace en cada noticia que permite crear una copia para impresión. De este modo, todo aquel que quiera una versión en papel o para su libro electrónico puede hacerse con una selección a medida de artículos que le interesen para leer más tarde. Si lo desea puede incluso hacer un ejercicio de “copiar y pegar” para crear su propia versión en formato revista de NeoFronteras. En todo caso ha sido bonito embarcarse en esta aventura de confeccionar una revista y jugar a ver cómo se creaba poco a poco, artículo a articulo, cual papel de halogenuro de plata que, bajo la luz roja, va mostrando su imagen impresionada en la cubeta de revelado. Ha sido un placer
ÍNDICE DETALLADO POR MATERIAS Espacio Física Geología Cosmos y Tierra Matemáticas Química Biología pág. 45 Etología pág. 50 Genética pág. 52 Vida Medio Ambiente pág. 59 Paleontología pág. 64 Este documento Antropología pág. 74 Medicina pág. 82 Hombre Neurología pág. 86 Psicología pág. 91 General Tecnología General Reportajes Especiales Editorial pág. 111 Opinión Humor pág. 112
c http://neofronteras.com - Creado con LATEX y paperTEX
pág. 3 pág. 16 pág. 37 pág. 39 pág. 43
pág. 92 pág. 94 pág. 100
NeoFronteras Trimestral
Espacio
2010 Edición de invierno 3 / 114
ESPACIO
El efecto de la materia oscura en la órbita terrestre Proponen una explicación de materia oscura al cambio de tamaño observado en las órbitas planetarias. J. J. Moreno, NeoFronteras
Mosaico de fotos del Sistema solar tomadas por el Voyager. Fuente: NASA.
Las aplicaciones de la materia oscura como solución a los problemas astrofísicos parecen no tener fin. Según un nuevo estudio, la materia oscura podría explicar los cambios observados en la distancia de la Tierra al Sol. El Sistema Solar viaja dentro de la Vía Galaxia y debe de atravesar regiones de materia oscura, si es que ésta realmente existe. La pregunta es cómo afectaría esto a las órbitas
de los planetas de nuestro sistema. En los últimos años los astrónomos han notado cambios en la distancia que nos separa del Sol. Esta distancia es la que se toma como base para definir la Unidad Astronómica (UA). Las medidas indican que, al menos, el semieje mayor de nuestra órbita está aumentando unos 15cm al año con un error de 4 cm. Nadie sabe la razón de este
cambio. Ahora, Lorenzo Iorio, del Instituto de Física Nuclear Nacional italiano de Pisa (Italia) sugiere que la razón puede que sea la materia oscura. Según los modelos los astrofísicos, se calcula, gracias a su movimiento, que nuestra galaxia (la Vía Láctea) debe de contener materia oscura con una densidad de 10−25 gramos por centímetro cúbico y
que esa densidad debe ser mayor cerca de objetos masivos como las estrellas, pues éstos deben de atraer materia oscura alrededor de ellos y crear un halo compuesto de dicha sustancia. Se estima que alrededor del Sol esta densidad debe ser de unos 10−19 gramos por centímetro cúbico.
Según sus cálculos el semieje mayor de la órbita terrestre debería aumentar por este efecto en 7 cm anuales, que es un monto similar al medido en la realidad. Además, según Iorio, el Sol debe de haberse encontrado ya con una masa de materia oscura 200 veces su propio peso a lo largo de su viaje galáctico de 4500 millones de años, y parte de ella habrá sido atrapada por el sistema solar, aumentándose así el halo oscuro. Iorio ha calculado el efecto de ese aumento continuo de materia oscura en nues-
tro sistema solar. Según él, las órbitas de los planetas (incluyendo el nuestro) deben de haberse encogido según aumentase esta masa y, como consecuencia (debido a la mecánica celeste y a que la órbita es elíptica), el semieje mayor tiene que haber aumentado. Según sus cálculos el semieje mayor de la órbita terrestre debería aumentar por este efecto en 7 cm
c http://neofronteras.com - Creado con LATEX y paperTEX
anuales (con un error de 5 cm), que es un monto similar al medido. Este efecto tendría implicaciones a largo término para el destino final de nuestro planeta, pues haría que cada vez nos acercásemos más al Sol. Según los cálculos de Iorio, en los próximos miles de millones de años la órbita terrestre disminuiría entre 0.2 y 0.5 UA. Si todo esto es cierto
entonces puede que la Tierra sea destruida por el Sol mucho antes de que éste se transforme en una gigante roja. Enlace: http:// neofronteras.com/?p= 2971 Fuentes y referencias: Artículo en ArXiv.
NeoFronteras Trimestral
Espacio
2010 Edición de invierno 4 / 114
ESPACIO
Estructura de las supertierras de agua Crean modelos del interior de exoplanetas con alto contenido en agua. Estarían estructurados por capas de hielo de distinto tipo. J. J. Moreno, NeoFronteras
Interpretación artística del tránsito de la supertierra GJ1214b. Fuente: ESA, L. Calçada.
La mente humana ha imaginado otros planetas en estrellas lejanas. Algunos quizás los descubramos algún día y otros posiblemente no, pero lo más fascinante es que estamos descubriendo ya mundos cuya naturaleza no imaginamos ni en las novelas de ciencia ficción. Ya hemos descubierto más de 420 exoplanetas. El pasado diciembre, por ejemplo, unos astrónomos nos contaban que habían detectado la existencia de un exoplaneta de tipo super-tierra orbitando alrededor de la estrella GJ1214 y que, según dedujeron a partir de su densidad, estaba compuesto principalmente por agua. Ese planeta tiene una masa seis veces la de la Tierra y un radio 2,7 veces el terrestres, lo que le colocaría dentro de la categoría de super-tierras (planetas con masas comprendidas entre 2 y 15 masas terrestres). Se cree que las supertierras o bien estás dominadas por gas, por rocas o por agua.
Algunos investigadores como Dimitar Sasselov y sus colaboradores ya han empezado a trabajar en este tipo de modelos sobre supertierras, en particular sobre planetas ricos en agua. Definen un “planeta agua” (o “waterplanet”) como una supertierra cuya masa está constituida en, al menos, un 10 % de agua, mientras que su núcleo o bien es metálico o está hecho de silicatos. Además, su atmósfera no tiene que contener gran cantidad de gases. Estos investigadores han modelado nueve posibles “waterplanets” en una gama de masas y contenidos de agua y han estudiado las capas de hielo cerca de la superficie y las propiedades de su océano. Encontraron que en el interior se pueden definir bien varias zonas con características y densidades distintas dependiendo de la masa total del planeta, del calentamiento producido por su estrella y de otros parámetros. Así por ejemplo, un planeta compuesto en un 50 % de agua tendría varias capas de miles de kilómetros compuestas por hielo de distintas clases, así como una corteza hecha de otra forma de hielo. Entre esa corteza y las capas interiores habría un océano de agua líquida. Este resultado podría ayudar a definir la evolución temporal de estas estructuras y proporcionar una base realista para interpretar las futuras observaciones de exoplanetas.
Un planeta compuesto en un 50 % de agua tendría varias capas de miles de kilómetros compuestas por hielo de distintas clases. A una temperatura de unos 200 grados y una atmósfera de unos 200 km de espesor este planeta no parecen tener buenas condiciones, aunque los astrónomos especularon acerca de la posibilidad de existencia de vida en un planeta así. Pero, ¿cómo sería la estructura de un planeta de este tipo? Sobre la estructura y composición atmosféricas quizás podamos saber algo directamente gracias a alguna tecnología futura de telescopios (si hay financiación), pero no podemos envía una sonda al interior de un planeta así (ni siquiera al interior del nuestro), por lo que tendremos que conformarnos con los modelos teóricos basados en la Física conocida. Los resultados de esos modelos, además de ser descriptivos, podrían proporcionar pistas a la hora de inferir la naturaleza de un exoplaneta a través de un telescopio, incluso de su interior.
c http://neofronteras.com - Creado con LATEX y paperTEX
Estructura de un planeta de agua. Fuente: Smithsonian Astrophysical Observato.
Enlace: http://neofronteras.com/?p=2979 Fuentes y referencias: Nota de prensa de la Universidad de Harvard. Nota de prensa de la ESA.
NeoFronteras Trimestral
Espacio
2010 Edición de invierno 5 / 114
ESPACIO
Nuevas imágenes de Plutón Publican nuevas imágenes de Plutón construidas a partir de datos tomados por Hubble durante los últimos años. J. J. Moreno, NeoFronteras
El espacio exterior es gigantesco, incluso sólo circunscribiéndonos a nuestro sistema solar las distancias son inmensas. Cuando se lanzó la misión New Horizon con destino a Plutón este cuerpo aún tenía la calificación de planeta. Ahora es sólo un planeta enano, denominación justa si consideramos que tiene un tamaño incluso menor que el de Eris, otro transneptuniano que orbita aún más lejos del Sol. Puede que Plutón recupere su estatus cuando la sonda pasa a su lado, o puede que se le degraden aún más. A este paso puede que incluso la NASA haya dejado existir para entonces. Plutón tarda casi dos siglos y me-
dio en completar una vuelta completa alrededor del Sol. Está tan lejos que le llega muy poca luz solar, apenas suficiente para evitar que casi cualquier gas se congele. Por esta razón urgía la necesidad de enviar una sonda a este cuerpo antes de que su excéntrica órbita le alejara del Sol y los gases de su atmósfera se conviertan en hielo durante dos siglos. Mientras que la sonda viaja a su destino, nosotros nos tenemos que conformar con la información proporcionada por los telescopios en tierra o por el Hubble. Debido a su lejanía y escaso tamaño, Plutón, incluso para el Hubble, no es más que un punto en el cielo. Pero a pesar de esa limitación se han conseguido confeccionar mapas de su su-
perficie. Gracias a los datos tomados en los últimos años, expertos del telescopio espacial han confeccionado recientemente un nuevo mapa. Constituye las imágenes más detallada hasta el momento del planeta enano y han sido publicadas en Astronomical Journal. Las imágenes individuales obtenidas por el Hubble de Plutón son sólo de unos pocos píxeles de anchas, pero gracias a una técnica de dithering, en la que se obtienen fotos múltiples desplazadas ligeramente y combinadas, se puede reconstruir computacionalmente una imagen de mayor resolución. En este caso se necesitó el equivalente a 4 años de CPU en 20 ordenadores para las reconstrucciones.
Las nuevas imágenes de Plutón revelan un mundo rico y complejo. Fuente: NASA, ESA, and M. Buie (Southwest Research Institute).
Las imágenes finales muestran detalles groseros sobre la superficie del planeta enano alrededor del cual orbita Caronte, patrones que experimentan cambios estacionales. Plutón se ha ido haciendo además más rojizo con el tiempo, mientras que su hemisferio iluminado se ha ido haciendo más brillante. Se cree que estos cambios se deben a procesos de sublimación y congelación de los gases atmosféricos dependientes del calor proporcionado por la luz solar. El cambio de color hacia uno más rojizo se dio de una manera más dramática entre 2000 y 2002. Las estaciones en Plutón son más complejas que en otros cuerpos debido a que a la inclinación del eje de rotación del planeta se suma su gran excentricidad orbital, que le hace cruzar la órbita de Neptuno. Las observa-
ciones telescópicas desde tierra mostraron que entre 1988 y 2002 la masa atmosférica de Plutón se dobló, probablemente debido a la sublimación del nitrógeno. Los datos obtenidos servirán para saber qué regiones interesantes habrá que elegir como blancos de observación cuando New Horizon sobrevuele el planeta enano en 2015. Hay detalles en las imágenes particularmente interesantes. Una zona brillante parece ser que está cubierta por escarcha de monóxido de carbono y rodeada por una región recubierta de una sustancia negro azabache (probablemente carbono). Esta zona constituye un buen blanco para las observaciones de New Horizon. En términos de color superficial y brillo Hubble revela un mundo rico
c http://neofronteras.com - Creado con LATEX y paperTEX
y variado, con regiones naranja oscuro y otras negras como el carbón. Se cree que el color se debería al efecto de los rayos ultravioletas sobre el metano, que haría a éste se transformarse en moléculas orgánicas más complejas o en carbono puro residual. Los procesos de sublimación y condensación de gases estarían también controlados por la luz solar. Plutón no sería por tanto una bola de hielo inerte, sino un mundo dinámico en el que se darían cambios atmosféricos dramáticos. Es una pena que tardemos tanto en tener una vista cercana de ese mundo. Enlace: http://neofronteras.com/ ?p=3000 Fuentes y referencias: Nota de prensa de la NASA.
NeoFronteras Trimestral
Espacio
2010 Edición de invierno 6 / 114
ESPACIO
Miden la edad del Universo con otro método Miden la edad del Universo gracias al efecto de lente gravitacional con una precisión sin precedentes. J. J. Moreno, NeoFronteras
Hace unos años, no hace tanto tiempo, no sabíamos la edad del universo con precisión. Lo más que se nos decía era que el Universo tenía una edad comprendida entre los 10.000 millones de años y los 20.000 millones de años. Así que se asumía que su edad debía de andar por los 15.000 millones de años. Después, gracias a los datos de WMAP del fondo cósmico de microondas, se vio que la edad real se acercaba bastante a ese número, aunque un poco por debajo: 13.700 (± 130) millones de años. Obviamente el WMAP no apunta a una región de cielo en donde está escrita la edad del Universo, sino que ésta se infiere indirectamente a partir de datos físicos. Concretamente WMAP mide las fluctuaciones del fondo de radiación. A partir de ahí se calcula la densidad de masa-energía y usando la Relatividad General se puede hallar su edad asumiendo un Universo plano (tipo de geometría apoyada por medidas de WMAP). Pero alguien con espíritu crítico (cosa imprescindible en ciencia) podría decir que sólo a partir de un tipo de medidas no podemos estar seguros de cómo de viejo es el Universo en donde vivimos, que hacen falta otros métodos distintos que corroboren esa cifra. Pues bien, se acaba de conocer que un equipo internacional de científicos ha realizado recientemente esto, llegando a un número bastante parecido. Para realizar este estudio se han valido de lentes gravitatorias galácticas y han llegado a una edad del Universo cifrada en 13750 millones de años con un error de 170 millones de años. Además, el resultado confirma la fuerza de la energía oscura, que se cree que es la responsable de la aceleración de la expansión de Universo. Estos investigadores usaron datos obtenidos a partir de imágenes tomadas por el telescopio espacial Hubble. Según la Relatividad General la presencia de masa-energía hace que el espacio-tiempo se curve a su alrededor. De este modo, los rayos de luz que pasen cerca de esa región no seguirán líneas rectas, sino geodésicas,
que son el equivalente a las rectas en espacios curvos. Si la concentración de masa es muy elevada (que en este caso supondremos que es una galaxia) la curvatura será pronunciada y la luz procedente de un objeto distante (generalmente otra galaxia) situado justo detrás de la lente gravitacional sufrirá una trayectoria tal que el observador podrá verlo, aunque distorsionado.
El efecto de lente gravitatoria de B1608+656 ha sido usado para calcular la edad del Universo. Fuente: Sherry Suyu, Argelander Institut für Astronomie.
Es como si la concentración de masa actuara a modo de una lente para el observador. Una galaxia de aspecto puntual se verá como un conjunto de puntos (cruz de Einstein) o unos arcos, que se corresponderán a caminos distintos tomados por la luz. En el caso de una alineación casi perfecta se verá un anillo. Aplicado el efecto a este caso, se trata de medir las distancias recorridas por la luz procedente del objeto del fondo para cada camino tomado. Teniendo en cuenta el tiempo necesario para viajar por cada camino los investigadores pueden inferir no solamente cuánto de lejos se encuentra la galaxia, sino además la escala del Universo y detalles sobre la expansión del mismo. Algunos de estos aspectos vienen determinados por la constante de Hubble que nos dice la tasa de velocidad de recesión con la distancia. Frecuentemente es difícil para los expertos distinguir entre una luz brillante lejana y otra más cercana pero
c http://neofronteras.com - Creado con LATEX y paperTEX
más débil. El efecto de lente gravitacional soluciona este problema al proporcionar múltiples pistas. Según Phil Marshall, del KIPAC, aunque se había utilizado anteriormente este efecto de la lente gravitatoria para medir la constante de Hubble nunca se había hecho con tanta precisión. Aunque los astrofísicos no saben cuándo la luz abandona la fuente que la produjo, pueden comparar los tiempos de llegada. Marshall usa una analogía para explicar el fenómeno. Según él, es como si cuatro automóviles partiera desde un punto a un lado de una gran ciudad y siguiendo caminos diferentes rodearan dicha ciudad hasta converger en un punto al otro lado. Los tiempos de llegada dependerían de los caminos tomados. Cuanto más larga fuera la ruta más tiempo llevaría recorrerla. Las ecuaciones que controlan las lentes gravitacionales pueden tener en cuenta variables como la distancia y la densidad de materia y proporcionar una mejor idea de cuando la luz abandonó la galaxia y cuánto ha viajado. En el pasado este método estaba plagado de errores, pero ahora el error es comparable al de los demás métodos. Aunque todavía tienen que tener en cuenta ciertos factores. Así por ejemplo, el polvo en la galaxia que hace de lente afecta a la luz que la atraviesa, por eso el Hubble cuenta con filtros infrarrojos para eliminar este efecto. Las imágenes contienen también el efecto de otras galaxias cercanas a línea de visión, que contribuyen al efecto de lente gravitatoria. Este equipo de investigadores quiere extender su estudio a más casos. Ya han encontrado 20 objetos susceptibles de ser estudiados. Enlace: http://neofronteras.com/ ?p=3030 Fuentes y referencias: Nota de prensa en Universidad de Stanford con vídeo. Preprint del artículo original en arXiv. Vídeo en uni-bonn (inglés). Nota en EurekaAlert. Nota en KIPAC.
NeoFronteras Trimestral
Espacio
2010 Edición de invierno 7 / 114
ESPACIO
Confirman existencia de la energía oscura Un nuevo estudio confirma de manera independiente la existencia de la energía oscura y logra trazar un mapa 3D de la estructura del Universo en una determinada región del cielo. J. J. Moreno, NeoFronteras
Materia distintintas distancias con su falso color asignado
Se suman las pruebas a favor de la existencia de la materia y energía oscuras. El último resultado al respecto está liderado por Tim Schrabback del Observatorio de Leiden y está basado en un gran estudio realizado con el telescopio espacial Hubble y telescopios en tierra.
unos datos muy cuantiosos, lo mejor es que son datos de muy buena calidad. Gracias a toda esta información los miembros del equipo que han hecho esta investigación han podido “pesar” grandes distribuciones de materia en el espacio sobre grandes distancias. El truco se basa en algo que ya hemos visto en NeoFronteras: el efecto lente gravitacional débil. La luz de fondo procedente de galaxias lejanas es distorsionada por los campos gravitatorios con los que se encuentra la luz en su camino hacia la Tierra. Y estos campos pueden ser producidos por cualquier materia con masa, como la materia oscura.
Se cree que la materia oscura forma una red sobre la que se agrega la masa que forman las galaxias y que constituye el 23 % del Universo, materia cuya naturaleza aún desconocemos. Bajo su propia gravedad estos filamentos de materia oscura se comprimen, mientras que la expansión (acelerada por la energía oscura) estira toda esta red. Como la energía oscura constituye un 72 %, la materia ordinaria (galaxias, planetas, seres humanos. . . ) represenEl detalle de este estudio es tan bueno que ha permitaría sólo un 5 % del Universo. tido confirmar de forma alternativa que el Universo está Estos astrofísicos llevaron a cabo con Hubble un estu- acelerando su expansión, fenómeno que se atribuye a la dio intensivo sobre 446.000 galaxias gracias a 575 imágenes energía oscura. Según Benjamin Joachimi, de la Universolapadas de la misma parte del cielo (1,64 grados cuadra- sidad de Bonn, la energía oscura afecta a las medidas de dos) realizadas con la cámara ACS del telescopio espacial, lente gravitacional débil por dos razones distintas. Si está imágenes que necesitaron 1000 horas de observaciones. En presente, los cúmulos de galaxias crecen más despacio y en tierra firme, y con telescopios convencionales, se registró segundo lugar cambia la manera en la que el Universo se el corrimiento al rojo de 194.000 de esas galaxias (objetos expande, dando lugar a más galaxias distantes que actúan que tenían un corrimiento cercano a 5). Además de ser más eficientemente como lentes gravitatorias. c http://neofronteras.com - Creado con LATEX y paperTEX
NeoFronteras Trimestral
Espacio
Además de este resultado han podido confirmar (una vez más) la Relatividad General, que predice que las lentes gravitatorias dependen del corrimiento la rojo. El gran número de galaxias estudiadas en esta investigación está dando lugar a un mapa más claro de cómo es el Universo en esa región y a saber cómo se encuentran distribuidas las galaxias que lo componen.
2010 Edición de invierno 8 / 114
En estudios anteriores se habían hecho reconstrucciones 2D, pero en este caso se ha hecho una reconstrucción 3D de la distribución de galaxias y de la materia que hay entre ellas. Para esta reconstrucción tridimensional o “tomografía” fue imprescindible la información de corrimiento al rojo tomada en tierra y que permite calcular distancias.
Imagen virtual en donde se representa la distribución de materia (principalmente materia oscura) en la región estudiada. En el falso color está codificada la distancia a la que se encuentra de la manera en la que se muestra en la imagen anterior. Fuente: NASA/ESA.
Estos astrónomos han denominado COSMOS a este proyecto porque, según ellos, han estudiado una muestra representativa del Universo. Otros científicos apuntan a la importancia que está tomando el efecto de lente gravitatoria débil como método de obtención de información cosmológica. Además, apuntan a la necesidad de hacer este tipo de estudios sobre otras regiones del cielo más amplias con telescopios espaciales dedicados, como los que ya se han propuesto (y todavía
c http://neofronteras.com - Creado con LATEX y paperTEX
no aprobados) tanto en la NASA como en la ESA. Enlace: http://neofronteras.com/?p=3047 Fuentes y referencias: Nota del centro de información del Hubble. Schrabback et al. Evidence for the accelerated expansion of the Universe from weak lensing tomography with COSMOS. Astronomy & Astrophysics, 2010. Copia del artículo original (pdf).
NeoFronteras Trimestral
Espacio
2010 Edición de invierno 9 / 114
ESPACIO
Supervivencia de liquen a condiciones espaciales Un experimento europeo a bordo de la estación espacial demuestra que un liquen terrestre puede sobrevivir al vacío y a la radiación espacial. J. J. Moreno, NeoFronteras
Xanthoria elegans. Fuente: ESA.
El espacio exterior es hostil, muy hostil. Mucho más hostil de lo que nos imaginamos. Cuando los astronautas viajan por él lo que hacen es llevarse un pequeño remedo de la Tierra con ellos. Una atmósfera parecida a la terrestre y unas condiciones de temperatura que hagan posible la vida. Pero aún así están sometidos a mucha ra-
diación. La radiación UV, X, gamma y las partículas de alta energía son muy peligrosas para la vida, así como los cambios extremos de temperatura que se experimentan a la sombra o al sol allí arriba. En órbita baja los astronautas cuentan con la protección de la magnetosfera terrestre para parar las partículas cargadas a alta velocidad que proceden del Sol o las que constituyen parte de los rayos cósmicos. Más allá no cuentan con ello. Por esta razón se ha llegado a plantear la construcción de magnetosferas artificiales y así hacer posible un viaje a Marte. Un viaje más allá de nuestro sistema solar sería imposible debido a que el efecto acumulado de las radiaciones, y de las mutaciones que eso implica, destruiría toda vida compleja, sobre todo humana. Pero, ¿y otras
formas de vida más simples? ¿Pudo alguna forma de vida viajar por el espacio y “sembrar” la Tierra con vida? Para poder responder a estas preguntas se diseño el experimento ExposeE, que se colocó en el exterior del módulo Columbus de la estación espacial. Con este experimento se pretendía saber la resistencia al vacío, a los rayos UV y cósmicos y a las variaciones de temperatura de diversas formas de vida terrestres. Al parecer un tipo de liquen prospera incluso en esas condiciones. Un módulo igual, el Expose-R, todavía permanece allí desde que fue colocado por una misión rusa. En la Tierra la vida ha colonizado cada rincón de este planeta, incluso en los ambientes más extremos. Hay vida incluso en la corteza terrestre a miles de metros de profundidad. Esto ha hecho pensar que en Marte pudo haber vida en algún momento.
El hecho de que algunos organismos resistan a las duras condiciones espaciales avala la posibilidad de que se dé la panspermia. Expose-E fue lanzada a bordo de la lanzadera espacial en 2008 y fue instalado en la estación espacial. En él había 664 muestras biológicas y bioquímicas en diversas bandejas, cajas y compartimentos que fueron expuestas durante 18 meses a las duras condiciones espaciales. Parte de las muestras fueron expuestas al vacío espacial, mientras que otras tenían una atmósfera que simulaba la marciana en presión y composición. La “sección marciana” contenía además filtros que simulaban la radiación que llega a la superficie de Marte. También había partes que estaba sombreadas. El liquen Xanthoria elegans resultó ser el mejor superviviente. Recordemos que los líquenes son una asociación entre un hongo y una alga (a veces una cianobacteria fotosintética). Esta especie en particular se encuentra en los lugares más inhóspitos de la Tierra, cuando se le cambia a condi-
ciones peores pasa a algo así como una “animación suspendida” a la espera de mejores condiciones. Basta añadir un poco de agua y devolverlo a su lugar para que vuelvan a prosperar. El ingrediente clave en este proceso de supervivencia espacial es el agua. En las condiciones de vacío espacial se evapora casi al instante, dejando a los organismos totalmente deshidratados. En ese estado son capaces de resistir el resto de las condiciones espaciales. Además de los líquenes muy pocos animales o plantas resisten el vacío: tardígrados y una especie de camarón con capaces, así como el mosquito africano Polypedilum vanderplank. Algunas semillas de plantas también resisten si están lo suficientemente secas. El hecho de que algunos organismos resistan a las duras condiciones espaciales avala la posibilidad de que se dé la panspermia. Idea según la cual, la vida podría viajar de un pla-
c http://neofronteras.com - Creado con LATEX y paperTEX
neta a otro a bordo de meteoritos. Sin embargo, lo peor no es el viaje en sí, sino las duras condiciones de reentrada e impacto sobre la superficie del planeta destino. Por desgracia la nota de prensa no dice nada más acerca de las demás muestras y de aquellas sometidas a condiciones marcianas. ¿Prosperan los organismos terrestres en las duras condiciones marcianas? Si es así cabe plantearse una misión de sembrado de Marte por parte de los humanos, sería el primer experimento panspérmico de la Historia. Enlace: http://neofronteras.com/ ?p=2998 Fuentes y referencias: Nota de prensa de la ESA. Supervivencia de tardígrados a condiciones espaciales.
NeoFronteras Trimestral
Espacio
2010 Edición de invierno 10 / 114
El Exposer-R en la estación espacial. Fuente: ESA.
ESPACIO
Comprueban la validez de la Relatividad General Una vez más la Relatividad General, propuesta por Einstein hace casi un siglo, sale victoriosa de otra prueba, esta vez a escala cosmológica. J. J. Moreno, NeoFronteras
La aparición de la materia y energía oscura en escena ha hecho dudar de las teorías establecidas. Según la tradición, que comenzó con el éter del siglo XIX, quizás tanto la energía como la materia oscura no existan realmente, y todo sea el resultado de nuestra mala compresión del Universo. Un blanco de esta mala comprensión ha sido la Relatividad General, teoría que, bajo esta filosofía, habría que revisar o ser sustituida por otra mejor que explicara las observaciones sin necesidad de recurrir a energías y materias enigmáticas. Al calor de este movimiento intelectual han surgido varias teorías candidatas. Ahora, el análisis de más de 70.000 galaxias por parte de científicos de las universidades de Berkeley, Zurich y Princeton demuestra que el Universo, al menos hasta una distancia de 3500 millones de años luz de nosotros, funciona bajo las reglas de la Relatividad General (RG) y produce resultados mejores que los obtenidos por otras teorías alternativas. En su análisis han tenido en cuenta el agrupamiento en cúmulos de estas galaxias, sus velocidades y la distorsión introducida en la luz por la materia implicada. Una
c http://neofronteras.com - Creado con LATEX y paperTEX
de las consecuencias a las que llegan en este estudio es que la materia oscura es la mejor explicación para describir el movimiento de los cúmulos de galaxias. “Lo mejor de ir a escalas cosmológicas es que podemos comprobar cualquier teoría alternativa de la gravedad, porque debe predecir las cosas que observamos”, dice Uros Seljak. En particular la teoría TeVeS, que modifica la RG para evitar la existencia de la materia oscura, falló completamente la prueba. Según esta teoría alternativa, la aceleración causada por la fuerza gravitatoria sobre un cuerpo no dependería solamente de su masa, sino que además dependería de la propia aceleración producida por la gravedad. Además, los resultados contradicen un informe aparecido el año pasado según el cual, el Universo primitivo, de entre hace 11000 y 8000 millones de años, se desvió de la descripción de la RG. El descubrimiento de la energía oscura, una enigmática fuerza que está acelerando la expansión del Universo, dio lugar a la aparición de las teorías f(R), según las cuales se puede explicar la aceleración de la expansión sin necesidad de energía oscura.
NeoFronteras Trimestral
Espacio
2010 Edición de invierno 11 / 114
Mapa parcial del cielo confeccionado con datos del proyecto Sloan. Representa una “porción de tarta” del universo de 7000 millones de años luz de radio. Fuente: M. Blanton, Sloan Digital Sky Survey.
Pero poner a prueba estas teorías no es fácil. Normalmente, en los experimentos cosmológicos se intenta detectar fluctuaciones en el fondo cósmico de radiación, pero las teorías de gravedad predicen relaciones entre densidad de masa y velocidad o entre densidad y potencial gravitatorio. Según Seljak, el tamaño de las fluctuaciones, por el mismo, no nos dice nada acerca de la posible teoría que pueda haber debajo. Añade que la novedad de esta nueva técnica es que los resultados no dependen de la magnitud de esas fluctuaciones. Todo empezó hace tres años cuando Pengjie Zhang del observatorio de Shanghai sugirió usar una cantidad denominada EG para poner a prueba los modelos. EG refleja la cantidad de agrupamiento en las galaxias observables y la cantidad de distorsión introducida en la luz al atravesar las galaxias, o efecto de “lente débil”. La lente débil puede hacer, por ejemplo, que veamos una galaxia redonda como si fuera ovalada. EG es proporcional a la densidad media del Universo e inversamente proporcional a la tasa de crecimiento de estructuras dentro de él. Según Seljak, esto permite librarse de la amplitud de fluctuaciones del fondo cósmico y centrarse directamente en una particular combinación que es sensible a las modificaciones de la RG. Usando datos de más de 70.000 galaxias distantes brillantes del proyecto Sloan, este investigador y sus colaboradores calcularon EG y lo compararon con las predicciones que para EG hacen las teorías TeVeS, f(R) y RG con constante cosmológica (que daría cuenta de la energía oscura) y materia oscura fría. Se encontró un valor observacional para EG de 0,39. Las predicciones de TeVeS para EG se salieron fuera de los límites de error observacional, mientras que f(R) producía un valor de EG por debajo de lo observado (aunque todavía dentro de la barra de error). Sin embargo, el valor c http://neofronteras.com - Creado con LATEX y paperTEX
de EG proporcionado por la RG encajaba muy bien con los datos observacionales. En un esfuerzo por reducir el error, y librarse definitivamente de las f(R), Seljak espera ampliar sus análisis con el catálogo BOSS, que contendrá datos de un millón de galaxias y que estará disponible en unos cinco años. Para reducir el error en un factor de diez se requeriría un proyecto más ambicioso, como el ya propuesto BigBOSS y en espera de ser aprobado. Futuras misiones espaciales como la JDEM de la NASA o la misión Euclides de la ESA podrían ayudar también en este objetivo. Por otro lado, Glenn Starkman, de Case Western Reserve University en Cleveland dice que la EG será útil para futuras baterías de test a los que someter todas estas teorías. Este investigador y sus colaboradores acaban de comprobar que una de estas teorías, denominada “Éter de Einstein”, y que usa un nuevo campo para reemplazar a la vez materia y energía oscura, no explica los patrones que se ven en el fondo cósmico de radiación. En definitiva, es un alivio que nuevos experimentos y observaciones empiecen eliminar tantas teorías que habían proliferado últimamente. No deja de ser increíble que la RG funcione tan bien a estas escalas cosmológicas y también lo haga a una diezmilésima de milímetro, como en el experimento de Holger Müller descrito hace poco en esta misma web. Son muchos órdenes de magnitud. Enlace: http://neofronteras.com/?p=3039 Fuentes y referencias: Nota de prensa de la Universidad de Berkeley. Artículo en Nature (resumen). Artículo sobre el éter de Einstein. Einstein vuelve a tener razón.
NeoFronteras Trimestral
Espacio
2010 Edición de invierno 12 / 114
ESPACIO
Kepler descubre cinco exoplanetas Kepler descubre cinco exoplanetas gigantes de muy baja densidad y muy alta temperatura. J. J. Moreno, NeoFronteras
Dibujo del tamaño de los planetas recientemente hallados comparados con Júpiter y la Tierra (los colores son inventados). Fuente: NASA.
El telescopio espacial Kepler ha cerrado el año de la Astrofísica (o abierto el nuevo año) con el descubrimiento de sus primeros planetas extrasolares. Este pequeño conjunto de exoplanetas se suman a la ya larga lista de este tipo de objetos. Como ya hemos contado en NeoFronteras, Kepler usa el sistema de tránsito (una especie de pequeño eclipse) para detectar exoplanetas orbitando alrededor de unas 150.000 estrellas situadas en una pequeña región
del cielo que mantiene bajo permanente vigilancia. Una de las ventajas de este método de detección es que, a diferencia del método basado en velocidad radial, es posible medir el tamaño de los exoplanetas. Aunque ha sido especialmente diseñado para detectar planetas similares a la Tierra en la zona habitable, Kepler puede detectar igualmente otros planetas que pasen por delante del disco de su estrella. En este caso se trata precisamente de planetas gi-
gantes, así que la noticia no es tan espectacular como cabría esperar. Pese a todo, este descubrimiento contribuye a comprender cómo surgen y evolucionan los sistemas planetarios a partir del disco de acreción y cómo se forman los planetas en él. También indica que el instrumental de Kepler funciona bien y que las expectativas depositadas en este telescopio están justificadas.
Para poder detectar planetas similares a la Tierra se necesitarán al menos de tres años de observaciones. El descubrimiento de los cinco planetas, que se han denominado Kepler 4b, 5b, 6b, 7b y 8b, fue anunciado el pasado 4 de enero en Washington por miembros del equipo investigador de Kepler en una reunión de la American Astronomical Society. El hallazgo se basa en datos correspondientes a las primeras seis semanas de observación y ya ha sido confirmado por telescopios en tierra. Estos planetas son gigantes gaseo-
sos que denominamos “júpiters calientes” por ser de la misma naturaleza que el gigante de nuestro sistema solar y orbitar tan cerca de su estrella que su temperatura es muy elevada. Se estima que las temperaturas de este tipo de cuerpos se sitúa entre 1200 y 1600 grados centígrados, temperatura equivalente a la de la lava fundida y, por tanto, demasiado elevada como para que sea posible la existencia de vida. Todos ellos orbitan estrellas más
c http://neofronteras.com - Creado con LATEX y paperTEX
calientes y grandes que el Sol. La temperatura es inferida a partir del tipo de estrella a la que orbitan y a la distancia a la que lo hacen. Cuatro de ellos son más masivos que Júpiter y el quinto tiene una masa similar a la de Neptuno. Tienen, en concreto, de 25 a 670 masas terrestres. Gracias a que se puede saber el tamaño de estos planetas, se puede calcular la densidad de los mismos, que ha resultado ser muy baja, tan baja que
NeoFronteras Trimestral la de uno de ellos (Kepler 7b) es similar a la del poliestireno expandido. Estos nuevos planetas son menos densos (entre 0.166 y 0.894 gramos por centímetro cúbico) de lo que cabría esperar según los modelos de formación de planetas gigantes gaseosos. Este tipo de contradicciones son positivas, pues permiten cuestionar las teorías existentes y hacer que la ciencia avance. Kepler 7b es 1,5 veces más grande que Júpiter, pero tiene sólo una décima parte de su masa, lo que le hace ostentar la marca de planeta más “difuso”. Probablemente sea la alta temperatura reinante en esos planetas la causa de esta densidad tan baja, aunque se desconoce el mecanismo exacto que hincha estos cuerpos. Se esperaba que los primeros exoplanetas en ser detectados por Kepler fueran precisamente este tipo de planetas, pues su tamaño y órbita cercana facilita su detección. Sin embargo, según los miembros del equipo, es sólo cuestión de tiempo que Kepler detecte otro tipo de planetas, o incluso análo-
Espacio gos al planeta Tierra. Para poder detectar planetas similares a la Tierra (que tiene un periodo orbital largo comparado con estos exoplanetas recientemente descubiertos) se necesitarán al menos de tres años de observaciones, periodo de tiempo durante el cual se hayan producido otros tres tránsitos por caso para así tener confirmación. Si finalmente se encuentran, se podrá saber la abundancia de planetas con capacidad de tener agua líquida sobre su superficie y por tanto quizás vida. De hecho, puede que se haya registrado ya algún tránsito de este tipo producido por un planeta similar a la Tierra y que la lógica cautela de los científicos haya impedido decir nada al respecto. Pese a que ya conocemos la existencia de más de 400 exoplanetas la detección de un planeta similar a la Tierra ha resultado ser bastante elusiva. Kepler detectó 175 candidatos a exoplanetas de los cuales se han podido comprobar con telescopios en tierra 50 de esos casos. Algunos fueron fal-
2010 Edición de invierno 13 / 114
sos positivos causados por sistemas binarios, pero otros resultaron ser estos exoplanetas. No obstante, esto ha permitido descubrir también dos enanas blancas (KOI 81 y KOI 74 con radios 0,9 y 0,4 el de Júpiter, y temperaturas de 13,500 K y 12,000 K, que son mayores que sus estrellas compañeras). Ahora los científicos están investigando los 125 casos restantes, pero padecen el cuello de botella de no disponer de suficiente tiempo de telescopio (convencional) para realizar las confirmaciones. Esta previsto que Kepler continúe funcionando hasta 2012, pero si se producen éxitos y continúa funcionando sin problemas técnicos lo más probable, dado el historial de la NASA al respecto, es que se extienda la misión, aunque este punto todavía no se ha comentado. Enlace: http://neofronteras.com/ ?p=2956 Fuentes y referencias: NASA.
ESPACIO
Más resultados sobre el flujo oscuro Se ha conseguido seguir el movimiento de los objetos implicados en el flujo oscuro hasta una distancia el doble de lo que hasta ahora se había hecho. El efecto parece persistir. J. J. Moreno, NeoFronteras
El cúmulo Abell 1656, o cúmulo de Coma, participa en el flujo oscuro. Fuente: Jim Misti (Misti Mountain Observatory).
Hace poco veíamos en NeoFronteras unos resultados que parecían confirmar la existencia del flujo oscuro. Al parecer, el movimiento de ciertos cúmulos de galaxias en una misma dirección puede interpretarse como si fueran atraídos por algo más allá del borde de nuestro universo visible, quizás incluso por otro universo. Puede que se deba a una gran concentración de
materia, pero esto parece imposible que suceda bajo los modelos cosmológicos actuales, que predicen una distribución más o menos homogénea de materia. Por esta razón este resultado es polémico.
Las galaxias implicadas parecen moverse a una velocidad por encima de la normal a lo largo de una línea que uniría nuestro sistema solar y una región situada en dirección de las constelaciones de Centauro e Hidra. Sin embargo, según Kashlinsky, A este flujo se le ha denominado el sentido del movimiento no está tan flujo oscuro (como sinónimo de “misclaro al no haberse descartado que se terioso”), aunque las galaxias que foracerquen hacia nosotros. En otras paman parte de él son tan brillantes colabras, no se saben si vienen o van, al mo cualquier otra. menos con la técnica empleada, que es Estos cúmulos han venido siendo poco convencional. estudiados por Alexander Kashlinsky Según este investigador, el flujo es del Goddard Space Flight Center de controvertido porque la distribución la NASA en los últimos años. Reciende materia observada en el universo temente ha conseguido seguir el movivisible no lo explica. La única explimiento de estos objetos hasta una discación, hasta el momento, es que hay tancia el doble de lo que hasta ahora materia más allá del horizonte que emse había hecho. El principal resultado puja la materia existente en nuestra es que el efecto persiste a mayores disvecindad. tancias de lo pensado, como mínimo hasta 2500 millones de años. El estuLos cosmólogos consideran el fondio ha sido publicado en Astrophysical do cósmico de microondas como el Journal Letters. marco cósmico definitivo. En referen-
c http://neofronteras.com - Creado con LATEX y paperTEX
NeoFronteras Trimestral cia a este marco ningún movimiento a gran escala tendría que tener una dirección privilegiada. La técnica usada en este estudio es muy singular. Los rayos X emitidos por el gas caliente presente en los cúmulos dispersan los fotones del fondo cósmico de microondas porque las galaxias no siguen a la perfección la expansión cósmica del espacio. La longitud de onda de los fotones dispersados cambia de una manera tal que manifiesta el movimiento individual de cada cúmulo. El resultado es un corrimiento muy pequeño de la temperatura del fondo cósmico en dirección del cúmulo. A este fenómeno se le conoce como efecto cinemático de SunyaevZel’dovich (o “KSZ effect” en inglés)
Espacio y es tan pequeño que nunca ha sido observado en un cúmulo aislado único. Sin embargo, Kashlinsky, junto a Fernando Atrio Barandela de la Universidad de Salamanca, demostró en el año 2000 que era posible extraer la débil señal del ruido de fondo mediante el estudio de un gran número de cúmulos. En 2008 usó el catálogo de 700 cúmulos de Harald Ebeling (University of Hawaii) y Dale Kocevski (University of California, Santa Cruz) y los datos acumulados por el WMAP durante 3 años para extraer esta información. Así es cómo el misterioso movimiento apareció por primera vez. El nuevo estudio se basa en la mis-
2010 Edición de invierno 14 / 114
ma técnica que el anterior, pero usando los datos de 5 años del WMAP y doblando el número de cúmulos galácticos. “Se necesita, en promedio, una hora de telescopio para medir la distancia a cada cúmulo que estudiamos, por no mencionar los años necesarios para encontrar estos sistemas en un primer momento”, dice Ebeling. Según Atrio Barandela, que se ha centrado en el análisis de los posibles errores, el nuevo estudio proporciona pruebas mucho más fuertes de que el flujo oscuro es real. En algunos casos la señal sale ahora directamente, en lugar de ser un resultado estadístico.
En este montaje los puntos coloreados son cúmulos de galaxias a distintas distancias, cuando más rojizos más lejanos. Las elipses muestran la dirección hacia la que se mueven dichas galaxias en su correspondiente color. Fuente: NASA, Goddard, A. Kashlinsky y colaboradores.
Además, Alastair Edge, de University of Durham, ordenó los cúmulos del catálogo en cuatro rodajas que representaban distintas gamas de distancia, examinando la dirección del flujo en cada una de ellas. La tendencia entre las distintas rodajas mostraba un acuerdo notable a favor de este flujo. Estos astrofísicos están actualmente trabajando en ampliar el catá-
logo para así doblar la distancia hasta ahora considerada. La mejora de los modelos de gas caliente en los cúmulos ayudará a refinar la velocidad, eje y dirección de movimiento. Y nuevos datos del WMAP, así como los que obtenga Planck, también ayudarán a perfeccionar el estudio. Quizás al final sepamos que nuestro universo no está solo en el Multiverso antes de saber si nosotros esta-
c http://neofronteras.com - Creado con LATEX y paperTEX
mos solos en la galaxia. Enlace: http://neofronteras.com/ ?p=3040 Fuentes y referencias: Nota de prensa de la NASA. Nuevos datos sobre el flujo oscuro. Vídeo de la NASA.
NeoFronteras Trimestral
Espacio
2010 Edición de invierno 15 / 114
ESPACIO
Resuelven el problema de la “catástrofe de la materia oscura fría” Una simulación computación logra explicar la falta de presencia de materia oscura en galaxias enanas introduciendo las consecuencias que tendrían las explosiones de supernovas. J. J. Moreno, NeoFronteras
Fotogramas de las simulaciones sobre formación galáctica. Fuente: Katy Brooks.
Hay un tema recurrente en la Astrofísica moderna que no deja de dar problemas y aparentemente no tiene una solución satisfactoria, pese a que a veces es un estorbo y otras un ingrediente. Se trata, naturalmente, del problema de la materia oscura: esa parte de masa del Universo que no vemos y cuya naturaleza desconocemos. La materia oscura es un ingrediente fundamental o básico en los modelos cosmológicos. Sin materia oscura de uno u otro tipo (fundamentalmente a los cosmólogos les basta con considerar si es fría o caliente) los modelos cosmológicos no funcionarían. De hecho, la materia ordinaria
suele ser un simple condimento a la receta que prácticamente no se tiene en cuenta. El grueso de la evolución cosmológica está protagonizado por la materia oscura, que crea una red irregular sobre la cual se condensa por gravedad la materia ordinaria y, por tanto, las estrellas que vemos. Las galaxias, según esta visión, son en su mayoría materia oscura y se desprecia la influencia de la materia ordinaria en el proceso de formación. Durante cerca 20 años los científicos han intentado resolver una discrepancia en los modelos de materia oscura fría. Problema al que han denominado “catástrofe de la materia oscura fría”. Ahora un grupo de científicos internacionales dirigidos por Lucio Mayer, de la universidad de Zurich, creen haber resuelto esta paradoja en la simulación de formación de galaxias enanas. La presencia de materia oscura fría en los modelos resuelve muchos problemas cosmológicos y permite describir, entre otras cosas, la distribución de galaxias a gran escala. Sin embargo, cuando se trata de aplicarlo a galaxias enanas, del orden de decenas de miles de años luz de tamaño, el modelo fracasa. Básicamente, la predicción dice que la región central de estas galaxias debería rotar a una velocidad mayor de lo que lo hace en la realidad. Lo que implica una mayor cantidad de materia oscura fría presente en ese tipo de galaxias de la que realmente hay. Hasta ahora los intentos de resolver esta paradoja han terminado en fracaso. Sin embargo, un grupo internacional parece que por fin ha resuelto el problema.
Durante la explosión de supernovas no solamente se expulsa materia ordinaria, sino que también se empuja a la materia oscura. Y este mecanismo expulsa masa de la parte central de la galaxia. En sus simulaciones computacionales tuvieron en cuenta, por primera vez, no solamente la influencia de la materia oscura en la formación de este tipo de galaxias, sino además el comportamiento altamente complejo de la materia ordinaria (bariónica). Las simulaciones se realizaron a alta resolución con varios supercomputadores de la NASA, que totalizaban 250 microprocesadores, y se necesitaron 2 meses para poder realizarlas. Estos científicos muestran que durante la explosión de supernovas no solamente se expulsa materia ordinaria, sino que también se empuja a la materia oscura. Este proceso
c http://neofronteras.com - Creado con LATEX y paperTEX
logra expulsar suficiente cantidad de materia oscura fuera de la parte central de la galaxia como para que la velocidad de rotación de ésta coincida con lo observado. Enlace: http://neofronteras.com/?p=2972 Fuentes y referencias: Nota de prensa de la Universidad de Zurich Artículo en Nature. Vídeo en Youtube sobre las simulaciones.
NeoFronteras Trimestral
Física
2010 Edición de invierno 16 / 114
FÍSICA
Sobre la flecha del tiempo Nuevas especulaciones tratan de explicar la aparente existencia de la flecha del tiempo. Según la nueva idea el pasado surge de la “cristalización” del futuro. J. J. Moreno, NeoFronteras
Los momentos en los que, cuando éramos niños, descubríamos por Navidad los juguetes que nos habían dejado desaparecieron hace mucho por siempre y para siempre. Quizás los podamos vivir a través de nuestros hijos o sobrinos, pero el pasado no retornará jamás. Tampoco volverá el momento en que besamos a nuestro primer amor o esos tiempos en los que ese familiar tan querido toda-
vía estaba entre nosotros. Esos momentos sólo están en la memoria, ese lugar tan frágil de nuestra mente. A veces, cuando la nostalgia nos aplasta y estamos temerosos de un futuro incierto o escaso, soñamos con que, de algún modo, podamos volver al pasado. Podemos, incluso, fantasear con máquinas del tiempo conceptuales y descubrir, un tiempo más tarde, que otro investigador ha encontrado el defecto definitivo que invalida tal máquina y justifica la ausencia de crononautas en el momento presente. Desconocemos la naturaleza del tiempo, de hecho ningún físico teórico serio puede afirmar que conoce tal naturaleza. Ante la ausencia de pruebas, el mundo académico de la Física Teórica se divide en dos bandos: los que creen que el tiempo existe y los que creen que el tiempo no existe y es una propiedad emergente de algo, todavía por conocer, más fundamental. Pero desconocer la naturaleza del tiempo no impide seguir haciendo física, e incluso trabajar en problemas físicos considerando el parámetro tiempo. Una de las paradojas con la que conviven los físicos es considerar un tiempo reversible en sus ecuaciones que está en clara contradicción con la existencia de la flecha del tiempo en la vida cotidiana, flecha que apunta siempre desde el pasado hacia el futuro. Una flecha que nos dice que las tazas de té que se caen al suelo no se recomponen espontáneamente y que los objetos calientes se enfrían en un ambiente más frío por sí solos, tal y como el segundo principio de la Termodinámica nos enseña. También nos dice que no podemos volver al pasado, ni siquiera a los mandos de un DeLorean DMC-12.
El futuro está dominado por la Mecánica Cuántica, el pasado por la visión clásica, y la transición se da en el presente. Pero, salvo este pequeño detalle termodinámico, todas las demás ramas de la Física contienen implícitamente la ausencia de tal flecha. Si, por ejemplo, resolvemos las ecuaciones de Einstein de la Relatividad General para un determinado modelo cosmológico, extraeremos una solución para el espacio-tiempo en su conjunto, “un bloque”, que contiene “la solución” para todo tiempo. Es lo que algunos autores denominan bloque de universo en evolución o EBU en sus siglas en inglés. En los diagramas habituales de espacio-tiempo usados en Relatividad el pasado, el presente o el futuro no tienen un estatus espacial. Precisamente, y gracias a esto último, es posible representar un diagrama en el que el espacio y el tiempo se unen en una única entidad: el espacio-tiempo. El Universo es ese bloque fijo de espacio-tiempo, así que ningún instante es especial. Este concepto es el que se ha venido usando hasta ahora por los físicos teóricos. c http://neofronteras.com - Creado con LATEX y paperTEX
Puede que la Relatividad sea exótica para muchos de los lectores, pero el amigo lector debe tener en cuenta que la precisión de su GPS depende de esas “exóticas” correcciones relativistas. Tanto la Relatividad como la Mecánica Cuántica forman parte de la vida cotidiana, aunque no lo queramos ver. Pese a que el problema de la flecha del tiempo y la naturaleza del mismo están lejos de ser resueltos, algunos físicos piensan sobre estos enigmas e intentan encontrar aproximaciones, ideas o conceptos que nos acerquen a su solución, la mayor parte de las veces infructuosamente. George Ellis y Tony Rothman, respectivamente de la Universidad de Ciudad del Cabo (Sudáfrica) y de la Universidad de Princeton (EEUU), publican un resultado al respecto. Según su modelo de universo, el pasado se “cristaliza” a partir del futuro. La clave está en la naturaleza de la Mecánica Cuántica.
NeoFronteras Trimestral
Física
Ellis y Rothman introducen un nuevo tipo de bloque de universo y estudian algunas sus propiedades. Según ellos todo debe cambiar si se tiene en cuenta la Mecánica Cuántica, pues entonces el pasado, el presente y el futuro tienen características distintas bajo este prisma. El proceso no se da de manera uniforme y la cristalización no se da completamente en el presente. Así, la naturaleza del futuro es completamente distinta de la naturaleza del pasado. Si los efectos mecánicocuánticos son significativos, el futuro muestra los típicos síntomas de la rareza cuántica que incluyen la dualidad, incertidumbre, entrelazamiento, etc. Así por ejemplo, un objeto puede existir en dos lugares a la vez, o dos partículas pueden estar correlacionadas incluso aunque estén separadas una larga distancia entre sí. El pasado, sin embargo, está siempre fijo. Con el paso del tiempo, después de que se haya producido un proceso irreversible del vector de estado, la reduc-
2010 Edición de invierno 17 / 114
ción se da, el pasado emerge y la previa indeterminación cuántica es reemplazada por la certidumbre clásica. Por ende, el futuro está dominado por la Mecánica Cuántica, el pasado por la visión clásica, y la transición se da en el presente. El pasado se cristaliza a partir del futuro en el presente. El modelo es todavía una simple idea sobre la que habría que trabajar más y ver adónde lleva. El tiempo presente sería donde esta transición tiene lugar, pero el proceso no se da de manera uniforme y la cristalización no se da completamente en el presente. Según recuerdan estos físicos hay pruebas experimentales sobre la posibilidad de retraso de regiones aisladas, donde todavía permanece la indeterminación y en donde la transición desde “probabilidad” a “certidumbre” tiene lugar después. Esto significa que la estructura de la transición del futuro al pasado es más compleja de lo que a primera vista se podría sugerir.
Movimiento de una partícula en una línea de universo controlada por un camino aleatorio. A la izquierda los eventos están determinados hasta el tiempo t1 pero no después. A la derecha los eventos están determinados hasta que t2 > t1 , pero no después. Fuente: Ellis y Rothman.
Por tanto, según estos investigadores, la visión del Bloque de Universo en evolución o EBU debe dejar paso a una nueva visión CBU o Bloque de Universo en Cristalización, que refleje esta transición cuántica de indeterminación a certidumbre. Esta nueva visión (o modelo) combina Relatividad y Mecánica Cuántica, pese a que la primera no contiene flecha del tiempo y la segunda tiene a la ecuación de Schrödinger como ecuación de evolución, que es reversible en el tiempo. Según ellos esta visión explica la flecha del tiempo. La flecha del tiempo aparece simplemente porque el futuro no existe todavía. El modelo es todavía una simple idea sobre la que ha-
c http://neofronteras.com - Creado con LATEX y paperTEX
bría que trabajar más y ver adónde lleva. Obviamente, también se necesitarían algunas predicciones que permitieran alguna comprobación experimental, pues, de otro modo, sólo se trataría de un simple juego intelectual. Debajo del árbol de Navidad me encontré un libro de texto de Física del año 2200 enviado desde el futuro, ardo en deseos de poder echar un vistazo a su contenido. Sólo se me ha puesto una condición: no contar nada en estas páginas al respecto. Enlace: http://neofronteras.com/?p=2957 Fuentes y referencias: Artículo en ArXiv.
NeoFronteras Trimestral
Física
2010 Edición de invierno 18 / 114
FÍSICA
Darwinismo cuántico Se discute sobre un proceso de selección que explique la transición del mundo cuántico al clásico. J. J. Moreno, NeoFronteras
Los automóviles no son una superposición simultánea de un Ferrari y un Lamborghini, no se difractan al pasar por una calle estrecha y no pasan al otro lado de una montaña por efecto túnel si no se ha horadado un túnel real. Multitud de ejemplos nos dicen que el mundo macroscópico no se comporta cuánticamente. Pero todos los experimentos realizados con partículas pequeñas no dicen que el mundo microscópico es tan extraño como la propia teoría cuántica nos dice. Si la Mecánica Cuántica tiene pretensiones de ser universal hay que dar una explicación convincente a esta transición entre el mundo microscópico y el macroscópico. Esfuerzos se han hecho en este sentido, aunque, de momento, parece que no tienen mucho éxito. Una de las últimas ideas al respecto fue introducida el año pasado (en un artículo publicado en Nature) por Wojciech Zurek, de Los Alamos National Laboratories y está basada en una suerte de “darwinismo cuántico”. Probablemente no sea la explicación definitiva al problema, pero al menos parece curiosa. ¿Existe realmente un darwinismo cuántico? Según los que apoyan esta hipótesis se explicaría la transición que sufre la realidad de pasar a ser explicada por unas reglas cuánticas a ser explicada por otras clásicas. Según esta idea el ambiente en la Mecánica Cuántica jugaría un papel importante en el proceso. Veamos cómo se considera al ambiente tradicionalmente. En el caso microscópico de un electrón, átomo o molécula se suele ignorar el efecto del ambiente o incluso se trata de aislar a estos entes del “ruido” producido por él. Es en esas condiciones cuando estas entidades muestran el comportamiento cuántico habitual. De este modo un electrón en una superposición de estados permanecerá siempre así si conseguimos aislarlo indefinidamente del ambiente. Sin embargo, el mundo real es cruel incluso para una pequeña partícu-
la y la información cuántica de ella de dispersará en dicho ambiente destruyéndose su estado original en el momento que nos descuidemos. Hasta ahora nada nuevo que no supiéramos. Lo novedoso de la idea de Zurek es que en ésta el ambiente funciona como un canal de información y las propiedades del mismo son la clave para entender el darwinismo cuántico. Todos los instrumentos de medida macroscópicos que tenemos obtienen la información de los experimentos a través de este canal. Así por ejemplo, un sensor luminoso registrará la llegada de un fotón emitido por un sistema dado, y nos aportará información.
Sin embargo, no podemos observar todo el ambiente (que sería virtualmente todo el Universo), sino que nos concentramos en la pequeña fracción de él que tiene interés para el sistema. Según Zurek, y esto es el quid de la cuestión, sólo los estados cuánticos que pueden ser transmitidos a través del ambiente del modo adecuado y con múltiples copias pueden ser observados a escala macroscópica. Esto elimina varios tipos de información cuántica, quedando lo que él denomina “estados punteros” que sería lo que se observa clásicamente. Así que la visión clásica del Universo estaría determinada por los estados supervivientes a la transmisión a través del canal de información del ambiente. Sólo sería posible observar los estados seleccionados por ser éstos los mejor adaptados y haber sobrevivido a este proceso de transición. De ahí vendría el nombre de darwinismo cuántico, debido a este proceso de selección. A primera vista parece que
c http://neofronteras.com - Creado con LATEX y paperTEX
quizás el término no es muy adecuado, pues aunque hay presión de selección no parece haber ni reproducción ni variación genética. ¿Se da realmente una evolución darwinista en el mundo cuántico o simplemente es algo que se le parece? John Campbell, un investigador independiente no relacionado con Zurek, sostiene en un artículo reciente que, efectivamente, es darwinismo. Artículo que, al fin y al cabo, nos sirve sólo de excusa para sacar ahora el tema del darwinismo cuántico. No es la primera vez que se trata de utilizar ideas darwinista en Fisica, Smolin, hace ya bastantes años, introdujo un concepto de este estilo para explicar por qué el Universo es como es. Según él se habría producido una selección de universos hasta conseguir universos del estilo del nuestro. Los algoritmos genéticos utilizados en informática son populares en algunos campos del conocimiento y también se basan en este tipo de ideas. Básicamente en todo sistema darwinista tenemos un proceso de copia (reproducción), una variación en las copias (mutaciones) y una selección (supervivencia) de las copias determinada por sus características. Según Campell el darwinismo cuántico podría cumplir este criterio, aunque no lo demuestra. Lo malo de estas y otras ideas “esotéricas” es que no están muy desarrolladas técnicamente. Les falta formulación (en el artículo de tal Campbell no aparece ni una sola ecuación) y, sobre todo, no se proponen experimentos realizables que permitan “seleccionar” a esta teorías entre otras alternativas. Al fin y al cabo, la mayor presión de selección quizás se dé en el ambiente del mundo académico y en el laboratorio, que pueden dar al traste con una buena y bonita idea, pero no fue elegida por la Naturaleza. Enlace: http://neofronteras.com/ ?p=2969 Fuentes y referencias:Artículo original de Zurek., Artículo de Campbell en ArXiv.
NeoFronteras Trimestral
Física
2010 Edición de invierno 19 / 114
FÍSICA
Multiverso y principio antrópico Reportaje sobre las distintas teorías e hipótesis propuestas acerca del multiverso y el principio antrópico. J. J. Moreno, NeoFronteras
La cantidad de cosas que podemos imaginar es muy superior a las cosas que realmente existen. No solamente podemos concebir animales mitológicos como el unicornio, cuyo cuerno es mágico, sino mundos paralelos o incluso universos alternativos. Podemos imaginar estos universos e incluso imaginar para ellos sus propias leyes de la Física que sólo se aplicarían en esos otros universos. Si se pueden concebir toda una serie de universos exóticos, entonces surge la gran pregunta: ¿por qué el Universo, nuestro universo, es como es?, ¿por qué la carga del electrón es la que es?, ¿por qué la velocidad de la luz vale lo que vale?, ¿por qué el protón pesa lo que pesa? Nuestro universo depende de esta serie de parámetros y de muchos otros. La nucleosíntesis primordial, la formación de estrellas, la evolución de las galaxias, la aparición de la química compleja o de la misma vida dependen del valor de esos parámetros. En general, el valor de muchos de esos parámetros no se puede deducir a partir de otros o, por lo menos, no sabemos cómo. Deseamos, eso sí, que la Física, conocida o por conocer, se desprenda elegantemente de principios fundamentales, que no haga falta que nosotros introduzcamos desde fuera valores ad hoc o parámetros medidos, sino que los valores de éstos sean los que son porque no les queda más remedio que ser así debido a algo más fundamental. De otro modo no hacemos mucha Física Teórica, sino física descriptiva. Pero la situación actual es que simplemente debemos de creer, por ejemplo, que la carga o masa del electrón es la que es y ya está. Pero es justo aquí donde tenemos el problema. La vida, tal y como la conocemos es muy sensible a cambios en estos parámetros fundamentales. Si cambiamos la masa del proc http://neofronteras.com - Creado con LATEX y paperTEX
tón, aunque sea sólo un poquito, las reacciones nucleares de fusión conocidas no se pueden dar, no hay elementos, no hay química y no hay vida. Encima el principio copernicano nos dice que no debemos considerarnos especiales; y especiales en este caso significa, prácticamente, constituir un auténtico milagro, una posibilidad remota entre todas las posibles combinaciones que darían lugar casi siempre a un universo estéril. Aunque una solución al dilema es no dar una importancia especial a la presencia de vida. En este punto, uno puede introducir argumentos metafísicos para salvar el escollo, o puede sugerir que, en realidad, lo que hay es un multiverso compuesto por una infinidad de universos. La inmensa mayoría estarían deshabitados y unos pocos permitirían la existencia de vida (como hay muchos esto es siempre posible aunque sea con una probabilidad remota). Nosotros estamos aquí porque la sintonía fina de esos parámetros ha hecho que la vida sea posible. Esto sería una solución antrópica al problema. Como vemos, el principio antrópico se puede utilizar para explicar por qué las leyes de la Física son las que son. Según este argumento, si fueran diferentes no habría aquí nadie para planearse preguntas. Pero el principio antrópico es un argumento claramente circular que no explica nada. Cuando nos ponemos a elucubrar sobre otros universos tenemos un problema epistemológico fundamental, y es que no podemos hacer ciencia sobre ellos. Por definición no podemos entrar en contacto con ellos, hacer medidas, experimentos y comprobar su Física. Es decir, no podemos aplicar el método científico. Si el lector sostiene que hay un universo compuesto por gominolas no habrá nadie que le pueda rebatir científicamente la teoría. Esta solución es la favorita de los teóricos de cuerdas, pues ellos tienen un problema inmenso en su modelo, ya que propone la existencia de una cantidad tremenda de estados de vacío distintos, y una solución a ese problema consiste en colocar cada uno de ellos en un universo diferente. Pero, ¿realmente es la vida tan sensible a esos pequeños cambios en los parámetros del Universo? Resulta que, según estudios recientes, no necesariamente es así. El desastre ocurre cuando cambiamos uno de los parámetros pero dejamos los demás tal cual. Alejandro Jenkins y Gilad Pérez exponen, para ilustrar esto mismo, una analogía en un artículo recientemente publicado en Scientific American. Si tenemos un automóvil que sólo se mueva en latitud sin poderse mover en longitud lo más normal es que tengamos un accidente, a no ser que nos movamos en una cuadrícula perfecta. Si nos podemos mover tanto en latitud como en longitud tendremos suficiente libertad como para evitar el desastre. Estos físicos han investigado la Física de universos alternativos con diferentes conjuntos de leyes físicas.
NeoFronteras Trimestral
Física
Universo sin fuerza débil Pérez y sus colaboradores imaginaron cómo sería un universo sin fuerza nuclear débil. Hay posibilidades peores que eliminar esta fuerza. Sin fuerza nuclear fuerte no podemos mantener a los quarks unidos o formar núcleos atómicos; sin electromagnetismo no tenemos ni luz, ni átomos ni química; y sin gravedad no tenemos estrellas, galaxias o planetas. A primera vista uno pensaría que en un universo sin fuerza nuclear débil el desastre también estaría garantizado, pues esta fuerza permite la transformación de protones en neutrones (con emisión de neutrinos) y, por tanto, la creación de los elementos tal y como los conocemos. Incluso la nucleosíntesis primordial depende de la fuerza nuclear débil y no se produciría hidrógeno o helio, que constituyen el combustible termonuclear de las estrellas. Además, en el interior del Sol cuatro protones se transforman en un núcleo de helio que tiene dos neutrones en su núcleo, produciéndose energía en el proceso. Sería similar con el resto de los elementos hasta el hierro. Sin esta fuerza no habría nada de esa nucleosíntesis. Sin embargo, el equipo de Pérez descubrió que sí es posible un universo habitable sin fuerza nuclear débil. Para ello habría que compensar esta carencia con un mecanismo que permitiera la obtención de los elementos. Tal mecanismo sería una mayor presencia de antimateria en el universo primitivo. De este modo se crearía más deuterio (isótopo pesado del hidrógeno con un protón y un neutrón) en lugar de hidrógeno elemental. Este isótopo junto al hidrógeno normal permitiría reacciones de fusión que produjeran helio 3 (cuyo núcleo tiene dos protones y un neutrón) en el interior de las estrellas, estrella que serían más débiles y frías que las que conocemos, pero que crearían elementos más pesados que darían lugar a planetas. Planetas que tendrían que orbitar más cerca de sus estrellas (un equivalente a la Tierra tendría que orbitar seis veces más cerca de su Sol) si quisiéramos hallar agua líquida sobre su superficie. Además, la longevidad de estas estrellas sería lo suficientemente larga como para permitir la evolución de la vida. En ese universo no habría supernovas de tipo II, pues no habría manera de obtener el fogonazo de neutrinos necesario para su explosión, pero sí habría supernovas de tipo I para esparcir nuevos elementos en el espacio. La tabla periódica de los elementos estaría restringida hasta llegar al hierro, pero aunque no habría elementos más pesados, éstos no son necesarios para la vida tal y como la conocemos. Pero la ausencia de elementos pesados (algunos radiactivos como el uranio y el torio) sí tendría implicaciones en la tectónica de placas, Sin radiactividad no habría fuente de calor interna en los planetas de tipo terrestre que se prolongara en el tiempo y, por tanto, no habría tectónica. Parece que la fuerza nuclear débil no es necesaria, pero entonces nos podemos plantear por qué está presente en nuestro universo. Lo más normal es que no estuvieran o ésta fuera tan débil que virtualmente no existiera, situación que incluso parece encajar mejor en un modelo estándar de partículas “mejorado”. Universo sigma menos c http://neofronteras.com - Creado con LATEX y paperTEX
2010 Edición de invierno 20 / 114
Pero la intensidad de la fuerza nuclear débil no es el único parámetro con el que jugar en el modelo estándar de partículas. En 2008 el grupo de Jenkins estudió una posibilidad más exótica si cabe. Si cambiamos lo suficiente la intensidad de interacción entre los quarks o cambiamos sus masas no se pueden obtener núcleos de carbono estables (u otros núcleos) que permitan la vida. Pero si cambiamos ambos a la vez se obtienen combinaciones que sí dan lugar a universos con vida. Si, por ejemplo, se ajustan las masas de los quarks up y down para que el protón sea más pesado que el neutrón (y no al revés como en realidad sucede), la nucleosíntesis primordial produce principalmente deuterio y tritio (que en este caso sería estable y no radiactivo) y a partir de ellos el resto de los elementos gracias a la fusión nuclear del interior de las estrellas. También habría planetas, algunos de ellos con agua líquida que permitiría la existencia de vida. Aunque esa agua sería agua pesada, la bioquímica sería muy parecida. También se puede imaginar un universo en el que el quark extraño es más ligero, mientras que el quark down es más pesado. En este mundo tendríamos protones y partículas Σ- para formar núcleos atómicos. Aunque es un universo radicalmente distinto al nuestro, es posible la existencia y generación de elementos con una química que permita la aparición de vida. Sin embargo, si las masas de estos tres quarks son muy similares tal cosa no parece posible y obtenemos un universo letal para la vida. Problema con la constante cosmológica Por desgracia, este tipo de ideas no parecen funcionar para el caso de la constante cosmológica. Ésta depende de la energía del vacío que, según la Mecánica Cuántica, es muy alta. Es tan alta que el Universo se habría expandido a un ritmo tan endiablado que no se tendrían que haber formado estrellas o galaxias. Parece que hay algún mecanismo que compensa esa energía con un precisión tan alta (hasta la cifra decimal número 100) como para que el resultado final sea una constante cosmológica prácticamente nula (no exactamente cero si consideramos que la energía oscura es lo que queda de esa energía del vacío). Estos investigadores no han logrado encontrar un cambio en otro parámetro que pueda compensar variaciones en éste. Así que al final puede que sea necesaria la idea de una multitud de universos que forman parte de un multiverso. La inflación cósmica que se dio al principio del Big Bang parece sugerirlo. Se cree que nuestro universo surgió de una pequeña región de falso vacío que se expandió muy rápidamente (la inflación cósmica), luego ha estado expandiéndose mucho más lentamente. Nosotros sólo vemos una parte de ese enorme universo: el universo visible o la burbuja de Hubble (Hubble bubble). Esto se debe a la velocidad finita de la luz. Pero otras regiones de ese falso vacío también pueden haber experimentado esa inflación cósmica. Estas regiones deben de haber dado lugar a otros “bolsillos” que hayan generado otros universos igualmente gigantescos con sus propias leyes de la Física. El espacio entre bolsillos se expandiría a tal velocidad que el contacto entre estos universos sería imposible.
NeoFronteras Trimestral
Física
2010 Edición de invierno 21 / 114
Así que estaríamos de nuevo ante una situación para la cual podemos proponer el principio antrópico.
como Hawking para crear universos “hijos”). Estos universos bebés sufrirían a su vez inflación y así sucesivamente en un proceso multigeneracional de producción de nueSelección darwiniana de universos vos universos. Cada universo tendría su propio conjunto No tan rápido. Lee Smolin diseñó hace tiempo un sis- de leyes físicas (sus propias mutaciones), pero habría una tema para crear universos propicios para la vida de mane- selección de universos entre aquellos con facilidad para rera “natural”. Para ello utilizó argumentos prestados de la producirse. Los universos incapaces de generar evolución teoría darwiniana y así eliminar diseñadores o casualida- estelar morirían sin descendencia. des tan tremendas que violen el principio copernicano. Los universos que mejor se reproducirían serían entonces, De entre todos esos universos que hemos mencionado antes por definición, aquellos que tienen las leyes físicas más los habría que permitirían la formación estelar y otros no. adecuadas para la formación de estrellas, y por tanto de Aquellos que dieran lugar estrellas y, por tanto, a agujeros seres vivos. Nuestro universo es como es, según esta idea, negros, podrían crear universos bebé a partir de la singula- porque es el resultado de un proceso de selección. ridad de su interior (sistema propuestos por otros teóricos
Es posible un universo habitable sin fuerza nuclear débil. Para ello habría que compensar esta carencia con un mecanismo que permitiera la obtención de los elementos. Principio entrópico
Hay que hacer notar que es impresionante que tales predicciones se puedan deducir de un principio general tan La hipótesis de Smolin no es la única que la fértil ima- simple. Aunque no está claro si se puede llevar esta hipóginación de los físicos teórica ha generado para resolver tesis mucho más allá. el problema de por qué nuestro universo es como es. Este Tampoco nos libramos del razonamiento circular del prinmismo mes, Raphael Bousso y Roni Harnik (de la univer- cipio antrópico, pues podemos pensar que el Universo es sidad de Berkeley y Stanford respectivamente) cuelgan en como es porque si fuera diferente la complejidad necesaria para observarlo no estaría presente. arXiv un artículo al respecto. Según ellos algunas propiedades del Universo se pueden ¿Habría que reemplazar el principio antrópico por el prinobtener o derivar a partir de la idea de complejidad. Qui- cipio entrópico? La idea es como mínimo atractiva dado zás la búsqueda de combinaciones de parámetros que den lo poderosa que parece ser, y quizás termine por aceptarse lugar a elementos, que a su vez den lugar a una química aunque no tenga mucha utilidad. Si al menos se carga el orgánica rica que de lugar a la vida, esté influyendo dema- principio antrópico para sustituirlo por otro habrá meresiado en nuestro modo de estudiar este problema. Bajo su cido la pena, aunque sea a costa de sustituirlo por algo punto de vista el aumento de entropía en cualquier parte demasiado parecido. del Universo es una consecuencia de la complejidad que hay allí y un argumento mejor que la presencia de vida Aunque da igual lo que podamos justificar, pues podemos imaginar infinitos universos: con y sin entropía, sin basada en “unidades de carbono conscientes”. Mediante el uso de este argumento de aumento de la en- relatividad, no causales, no cuánticos, sin inercia, con vatropía, Bousso y Harnik logran obtener las propiedades de rias dimensiones de tiempo, llenos de gominolas. . . Al final un universo promedio en el cual la complejidad aumenta siempre habrá algo que no podamos explicar del Univerhasta que alcanza un nivel en el que hay vida y testigos so, sobre su origen o sobre la manera que tiene de ser. Ni que lo observan. siquiera la invención de una Prefísica generadora de todas Según sus razonamientos y deducciones es posible llegar las Físicas posibles sería suficiente y ni siquiera se podría a una serie de predicciones: unos observadores arbitrarios demostrar científicamente. se encuentran a sí mismos en un universo plano, éste uni- Pero todo esto no es sino entretenimientos de unos seres verso está dominado por el vacío y rodeado por un baño que representan al Universo pensándose a sí mismo, como de cuantos relativistas que no sería ni muy diluido ni muy usted, querido lector. concentrado y que aparentaría ser un fondo térmico. Además, las longitudes de onda características de esos cuantos Enlace: http://neofronteras.com/?p=2977 Fuentes y referencias: son del orden de la raíz cuarta de la energía del vacío. Como podemos ver se parece mucho a nuestro propio uni- Scientific American (número de enero). verso. Éste es plano, está dominado por el vacío y sus Foto cabecera: Ohio University. procesos de producción de entropía han generado recien- Artículo de Gilad Perez. temente un baño de radiación: la radiación infrarroja emi- Artículo de Jenkins tida por polvo galáctico calentado por las estrellas. Esta Reportaje de Smolin sobre selección cosmológica. radiación está marginalmente diluida, es relativista y tiene Artículo original de Smolin. Artículo de Bousso y Harnik. una longitud de onda del orden de 100 micras.
c http://neofronteras.com - Creado con LATEX y paperTEX
NeoFronteras Trimestral
Física
2010 Edición de invierno 22 / 114
FÍSICA
Protocolo óptimo de vacunación Según unos investigadores si se vacuna periódicamente y al ritmo adecuado se puede detener una epidemia incluso si hay pocas vacunas disponibles. J. J. Moreno, NeoFronteras
Virus de la gripe A. Fuente: Harvard School of Public Health.
Ahora que parece que la gripe A no va a diezmar la población mundial y, por tanto, se puede hablar sobre el tema de las pandemias sin parecer sensacionalista o “conspiranoico”, podemos tratar un resultado reciente sobre este asunto. Curiosamente no versa sobre Biología Celular, Genética, anticuerpos o diseño de vacunas, sino sobre la dinámica de las epidemias y su modelización matemática. Quizás los lectores no saben que el tema de las pandemias se viene investigando desde hace años para así adoptar protocolos de actuación (al menos en los países civilizados) para el caso de que llegue alguna. Los humanos representamos el mayor caldo de cultivo que haya existido jamás para virus y bacterias oportunistas. Las leyes de la evolución nos dicen que tarde o temprano, sobre todo a
esta tasa endiablada de reproducción humana, surgirá un microorganismo que diezmará la población. No es ciencia ficción, porque ya pasó varias veces en el pasado, como con la peste negra, la conquista de América, la gripe del 18, el SIDA, etc. Por tanto, es conveniente saber cómo actuar en el caso de que se produzca. Una opción puede ser no hacer nada, dejar que se reduzca la población mundial y dar así un alivio al planeta y a una civilización que de otro modo perecerá víctima de su propio hiperconsumo y estulticia. Como ésta es una lotería a la que probablemente pocos quieran apuntarse, puede que sea mejor idear medidas que eviten la tragedia. Cerrar colegios y centros de enseñanza, reenfocar el transporte público o usar mascarillas pueden ser estrategias válidas, sobre ellas se han realizado ya estudios. Un trabajo bonito se hizo sobre un juego que algunos efectuaban con billetes de curso legal. Básicamente, el juego (Where’s George) consistía en seguir la pista en Internet a unos billetes de dólar (sobre los cuales se sabían sus números de serie) para así saber adónde viajaban. Los datos fueron utilizados por un grupo de investigadores para ver cómo se podrían propagar las epidemias. Tradicionalmente se asumía que, de algún modo, aparecía un brote de una enfermedad en un lugar y a partir de él se extendía la epidemia, pero el juego de los billetes demostró que el transporte moderno (sobre todo el aéreo) hacía que aparecieran muchos brotes casi simultáneamente en muchos lugares. Así que la situación actual es mucho peor de lo esperado. Algunos matemáticos se han dedicado a construir modelos de propagación de enfermedades o (como en el caso que vamos a relatar) al estudio de protocolos sobre modelos que nos digan qué estrategia es mejor a la hora de vacunar a la población.
Según estos investigadores lo ideal es una serie de microcampañas o pulsos de vacunación periódicos. Un caso lo hemos visto recientemente en España con la gripe A. La vacuna iba a llegar tarde y no había unidades para toda la población. Así que se decidió vacunar sólo a un porcentaje de la población (inferior al de otros países), principalmente a grupos “de riesgo”. Cuando esto se supo empezaron a surgir colectivos que reclamaban su derecho a ser vacunados. Al final, cuando se vio que no era tan grave, ha pasado lo contrario y muchos (probablemente influenciados por teorías de la conspiración) defienden su derecho a no ser vacunados. Pero esta situación puede que se dé tarde o temprano de nuevo. Puede que no haya tiempo de fabricar vacunas su-
c http://neofronteras.com - Creado con LATEX y paperTEX
ficientes, entonces ¿qué estrategia seguir?, y ¿cuándo y cómo realizar dicha campaña de vacunación? Una buena campaña debe de salvar vidas, pero también tiempo y recursos. La intuición nos dice que para parar la epidemia cuantos más individuos se vacunen rápidamente mejor. Si vacunamos simultáneamente a todos la enfermedad simplemente desaparece. Pero no siempre se tiene la capacidad de utilizar la fuerza bruta. Michael Khasin, de Michigan State University, y sus colaboradores sugieren una estrategia basada en modelos matemáticos. Según ellos, una campaña adecuada, aunque li-
NeoFronteras Trimestral
Física
mitada en el número de vacunas disponibles, puede evitar la pandemia, pero sólo si se realiza de la forma adecuada. Según ellos es posible acelerar la erradicación de una enfermedad contagiosa con una serie de vacunaciones periódicas. Según ellos, cuando la cantidad de vacunas es limitada esta estrategia es la mejor. El problema con las poblaciones grandes es que la dinámica de la enfermedad puede dar lugar a un estado en el que una fracción de la población permanece infectada durante mucho tiempo. Esto es el resultado de un proceso aleatorio de infección y reinfección, que también depende de la tasa de recuperación y la tasa de defunciones. Este ruido o fluctuaciones residuales hacen que exista siempre esta infección residual. Las fluctuaciones más grandes pueden hacer, sin embargo, que la enfermedad desaparezca por completo. A veces lo hace de manera espontánea, como ejemplo tenemos la enfermedad del sudor inglesa, que aterrorizo a la Europa de los siglos XV y XVI y que desapareció mucho antes de que llegara la ciencia moderna para identificar al microorganismo responsable. Pero, precisamente, así es cómo debe actuar una campaña de vacunación: provocar una gran fluctuación que con un poco de suerte haga que la enfermedad entre en una tasa de extinción exponencial. Estos investigadores han estudiado cuál sería el protocolo de vacunación óptimo que permitiría entrar en ese régi-
2010 Edición de invierno 23 / 114
men. Según ellos lo ideal es una serie de microcampañas o pulsos de vacunación periódicos. Llegaron a esta conclusión al darse cuenta que el protocolo de vacunación óptimo sigue una solución de un problema variacional de minimización de acción sobre un sistema Hamiltoniano (en este caso sujeto a la condición de la tasa promedio de vacunación). Para el que no entienda el lenguaje de la frase anterior, sólo decirle que se trata de un problema típico en Física. Lo mejor de este resultado es que es independiente del modelo usado (para una tasa de vacunación pequeña en promedio). Lo malo es que el efecto perseguido depende fuertemente de la frecuencia a la que se producen los pulsos de vacunación, sobre todo para el caso no estacionario en el que una población estocástica está modulada periódicamente en el tiempo. Para poder entrar en ese régimen de extinción exponencial antes mencionado hay que administrar los pulsos de vacunación para que se ajusten a la frecuencia propia de oscilación que modula la enfermedad (en teoría una frecuencia específica para cada enfermedad). Sería algo así como entrar en una especie de “resonancia negativa” para la cual el sistema decae exponencialmente. Si la frecuencia de pulsos de vacunación no se ajusta a esa frecuencia propia, entonces el resultado obtenido puede ser incluso peor y que la epidemia se extienda aún más.
La trayectoria más probable en el modelo estocástico SIR de individuos susceptibles de infección (x1 ) frente a infectados (x2 ), ambos reescalados para N (población total). La línea a trazos muestra una trayectoria determinista hacia el estado endémico y la línea continua muestra, a partir de ese punto, la trayectoria más probable que da lugar a una extinción de la epidemia inducida por una fluctuación. Fuente: Michael Khasin.
De manera intuitiva lo podemos visualizar como que el número de infectados, pese a fluctuar, tienden ser mayor o menor por oleadas periódicas. Si justo cuando se da uno de los extremos vacunamos a la población contrarrestamos la dinámica del sistema, al igual que cuando detenemos poco a poco un niño que se columpia. El resultado puede ser interesante, pues no siempre se dispone de muchas vacunas a la vez, son perecederas o tienen
c http://neofronteras.com - Creado con LATEX y paperTEX
un efecto limitado en el tiempo por culpa de las mutaciones de los agentes infecciosos. Aunque quizás sea más difícil averiguar la frecuencia propia de la epidemia que desarrollar una vacuna para la enfermedad que la causa. Enlace: http://neofronteras.com/?p=2960 Fuentes y referencias: Artículo en ArXiv.
NeoFronteras Trimestral
Física
2010 Edición de invierno 24 / 114
FÍSICA
No es sencillo crear el dinero cuántico Un nuevo protocolo podría permitir a los bancos la creación de billetes cuánticos infalsificables incluso para el propio banco. J. J. Moreno, NeoFronteras
Las raíces de la criptografía cuántica datan de la década de los sesenta, cuando Stephen Wiesner, un estudiante de doctorado en la Universidad de Columbia, intentó publicar sus ideas del dinero cuántico de clave pública imposible de falsificar. Esta idea era tan avanzada para su tiempo que difícilmente alguien entendió el potencial de la misma, por lo que no se hizo más investigación al respecto. En la mente de este científico, un billete de dólar debería de contener 20 trampas de luz, pequeños dispositivos capaces de almacenar un fotón cada uno. Cada billete estaría identificado además por un número de serie único. Las trampas de luz serían rellenadas con 20 fotones que tuvieran el estado de polarización dispuesto al azar en una disposición que sólo el banco (presumiblemente un banco central) conocería. Sólo podrían leerse (dejarlos escapar) y restaurarlos (reintroducirlos en las trampas) por el banco que supiera la exacta secuencia de filtros polarizadores necesarios para poder leer este “número de serie cuántico”. La idea central es que el banco pueda crea estados cuánticos que se puedan verificar, pero que nadie, excepto quizás el propio banco, puede clonar o falsificar. En teoría, como los estados cuánticos son imposibles de copiar, no se podría falsificar un billete de este tipo, pero alguien que deseara comprobar la autenticidad del billete tendría que llevarlo al banco en cuestión. Aunque la idea es brillante nadie ha tenido éxito, hasta el momento, en la construcción física de una trampa de fotones lo suficientemente robusta, por lo que el concepto no es más que un problema académico. Esto no impide que desde el punto de vista teórico se siga investigando al respecto, sobre todo en el perfeccionamiento de los protocolos implicados. Además, la idea de Wiesner ha servido en los últi-
mos años de inspiración para la criptografía cuántica. Ahora, unos investigadores del MIT introducen unos protocolos “libres de colisiones” con los cuales ni siquiera el banco podría preparar copias idénticas de dinero cuántico, a diferencia de otros sistema propuestos con anterioridad. El principal problema es que si asumimos el concepto de que el banco conoce la configuración de cada billete (aunque sea secreta) alguna organización criminal podría hacerse con la información y dedicarse a la fabricación cuántica de billetes. La seguridad del sistema residiría en la dificultad de hacerse con dicha descripción secreta.
Pero la creación de billetes cuánticos que ni los bancos puedan copiar ha resultado más difícil de lo pensado. Además, sería también interesante conseguir un billete cuya autenticidad pudiera ser comprobada por cualquiera sin necesidad de ir al banco emisor. Se necesitaría, por tanto, alguna técnica asimétrica que permitiera al banco crear un dinero cuántico incopiable sobre el que cualquiera pudiera saber si es falso o no. Algo similar a este concepto se da en el sistema criptográfico de clave pública RSA, que se basa en la dificultad de factorizar números muy grandes y en la facilidad de multiplicarlos. En el sistema RSA hay una clave pública para cada destinatario que conoce todo el mundo, así que todo el mundo puede cifrar, pero sólo el dueño de la clave privada puede descifrar los mensajes que recibe cifrados con su clave pública. Este sistema de cifrado
c http://neofronteras.com - Creado con LATEX y paperTEX
no requiere de ningún sistema cuántico y basta un ordenador digital, tanto para cifrar como para descifrar, pero no hay computador lo suficientemente potente que pueda quebrar el sistema. Es el sistema que usted utiliza para conectarse a su banco por Internet. La idea sería crear un sistema asimétrico similar para el caso del dinero cuántico. Andrew Lutomirski y su equipo del MIT sugieren un nuevo tipo de dinero cuántico al que denominan “libre de colisiones”. La idea se basa en un estado cuántico diferente para este tipo de dinero. Este estado es una superposición de muchísimos términos no relacionados entre sí y es creado por una superposición igualmente grande de medidas. Esto garantizaría que ni el banco podría reproducir el mismo estado en un plazo razonable de tiempo. Además, la autenticidad de cada billete se podría comprobar fácilmente con un algoritmo basado en cadenas de Markov. Sin embargo, los autores del artículo no han podido proporcionar una demostración de que el sistema está totalmente libre de colisiones. El sistema requiere un pequeño acto de fe como el que se requirió cuando se introdujo RSA por primera vez. Todo sistema basado en la imposibilidad de resolver un problema matemático en tiempo polinómico con un ordenador convencional puede ser resuelto rápidamente con un ordenador cuántico. Esto se ha demostrado para el caso de la factorización de números grandes. Así que puede ser que en el colmo de los colmos cuánticos el futuro dinero cuántico libre de colisiones sea finalmente falsificado gracias a futuros ordenadores cuánticos. Por cierto, si tales ordenadores se crean el primero en caer sería precisamente RSA. Enlace: http://neofronteras.com/ ?p=2955 Fuentes y referencias: Artículo en ArXiv, U. Klagenfurt., MIT.
NeoFronteras Trimestral
Física
2010 Edición de invierno 25 / 114
FÍSICA
¿Cómo detectar la energía oscura? Unos físicos proponen un experimento de laboratorio para medir la energía oscura directamente. J. J. Moreno, NeoFronteras
A finales de la década de los noventa los astrofísicos se vieron sorprendidos por las medidas de supernovas de tipo Ia. Este tipo de estrellas en explosión constituyen “candelas estándar” de las que se puede saber su brillo intrínseco. Midiendo el brillo observado se puede calcular la distancia a la que se encuentran. El problema vino del análisis de los datos, pues todo parecía indicar que la expansión del Universo se estaba acelerando. Después del escepticismo general, los científicos se han ido convenciendo de que el efecto de las supernovas es real y que la expansión del Universo se está acelerando, con lo que el Cosmos estará cada vez más diluido hasta que llegue un día en el que carezca prácticamente de materia. La explicación que se ha dado habitualmente para este efecto, a falta de otra explicación física mejor, es la existencia de una energía oscura (denominada oscura porque ignoramos su naturaleza y que no hay que confundir con la materia oscura) que rellenaría el Universo y que constituiría el 70 % de la masa-energía del mismo. Su valor sería de 10−10 julios por metro cúbico. El efecto de la energía oscura sería similar a una gravitación negativa. Desde entonces se discute sobre la naturaleza de esta energía oscura, incluso algunos han negado la existencia de la misma, proponiendo que lo que vemos es una ilusión por estar en un sitio privilegiado. Otros incluso han llegado a proponer cambios en la ley de la gravedad. No es extraño que proliferen todo tipo de teorías al respecto, porque a día de hoy no tenemos ninguna medida directa de tan misteriosa energía. Lo que sería muy interesante es diseñar algún dispositivo de laboratorio que midiera directamente esa energía. Pues bien, eso es precisamente lo que Martin Perl y Holger Mueller, de la Universidad de y Berkeley respectivamente, proponen en un artículo re-
ciente. Aunque la cifra dada antes de 10−10 julios por metro cúbico parece muy pequeña de medir no lo es tanto para el estándar habitual de los laboratorios. Por ejemplo un campo eléctrico de 1 voltio por metro tiene una densidad de energía de 10/ −12 julios por metro cúbico, que es cien veces más pequeña que la anterior.
Esquema de cómo una densidad de energía oscura no uniforme puede ser detectada. Las regiones en gris son regiones con una pequeña fracción menos de energía oscura. Fuente: Martin Perl y Holger Mueller
Obviamente hay grandes diferencias entre un caso y otro, pues la materia ordinaria siente muy fácilmente los campos eléctricos y no tenemos ni idea de la naturaleza de la energía oscura. Ni siquiera podemos desconectar esa energía para así apreciar la diferencia, simplemente está siempre ahí, no tenemos un punto de referencia sobre el que medirla. Una posibilidad es que la energía oscura no sea completamente uniforme, sino que presente un gradiente. Si es así entonces sería posible medir el efecto de ese gradiente gracias a un interferómetro atómico. Al menos, según estos dos investigadores. Un interferómetro atómico se basa en las propiedades ondulatorias de las partículas descritas por la Mecánica cuántica. Al igual que las ondas luminosas pueden interferirse entre sí
c http://neofronteras.com - Creado con LATEX y paperTEX
si las disponemos de las trayectorias adecuadas, podemos hacer algo similar con haces de partículas, incluso con átomos. En este caso lo que Perl y Mueller proponen (no han realizado ningún experimento al respecto) es medir cambios en las fase de las ondas asociadas a haces de átomos que sigan trayectorias distintas. Si hay un gradiente en la energía oscura sería posible cancelar el efecto de todas las demás fuerzas y poner de relieve la presencia de la energía oscura. Sugieren usar apantallamientos convencionales que aíslen el sistema de campos electromagnéticos e interferómetros atómicos para cancelar el efecto de la gravedad. Calculan que se podrían realizar medidas con una precisión sin precedentes. En experimentos de interferometría con un solo átomo ya se ha llegado a medir la fuerza gravitatoria con una precisión muy alta. Creen que con la actual tecnología se podría detectar esa energía oscura directamente. No obstante, hay varios escollos en su proyecto. Por un lado no se tiene ni idea de la naturaleza de la energía oscura o si realmente presenta un gradiente. Y tampoco es seguro que pudiera ejercer una fuerza sobre los átomos del experimento. Aunque se aumentara sin parar al precisión de una experimento así quizás nunca se detectara la energía oscura, incluso si ésta existiera realmente. Encima podría haber otras fuerzas que estropearan las medidas del dispositivo. En todo caso merecería la pena apostar por la realización de un experimento así. Si el resultado fuera positivo seguro que sus descubridores recibirían el Nobel de Física. Enlace: http://neofronteras.com/ ?p=2990 Fuentes y referencias: Artículo en ArXiv.
NeoFronteras Trimestral
Física
2010 Edición de invierno 26 / 114
FÍSICA
Más entropía de que lo creíamos Calculan que en el Universo hay 30 veces más entropía de lo que previamente se creía. J. J. Moreno, NeoFronteras
Campo estelar. Fuente: NASA.
Usted, amigo lector, es una singularidad termodinámica. Representa un alto nivel de complejidad y orden respecto a su entorno. Entorno que se degrada continuamente (y no sólo desde el punto de vista económico y social). El grado de desorden de un sistema lo podemos medir a partir de la entropía, cuanto más alta sea ésta, más desordenado está dicho sistema. Según el segundo principio de la termodinámica, en todo sistema cerrado siempre aumenta la entropía. Si un ser humano en crecimiento no
se degrada es porque exporta entropía a su alrededor, o en otras palabras, no es un sistema cerrado. Conforme nos hacemos mayores los mecanismos biológicos de reparación que mantienen ese orden van fallando y al final morimos. No obstante, la entropía total del Universo, que es el sistema aislado más grande que podemos considerar, aumenta sin cesar. El Universo partió de un grado muy alto de orden y por tanto con una entropía muy baja. Desde entonces la entropía no ha hecho más que aumentar. Algunos señalan a este aumento de entropía como el mejor indicador de la flecha del tiempo, que siempre va del pasado al futuro y nunca al revés. Usted, amigo lector, así como el que esto escribe, desaparecerá algún día, y la entropía ganará esa pequeña batalla particular. Pero, ¿y todo lo demás? A los físicos les gusta imaginar futuros distantes, tan distantes que casi no los podríamos ni imaginar si no fuera por la ayuda de las potencias de diez. Les gusta pensar, a través de experimentos mentales, acerca de la capacidad del Universo de sustentar vida en ese remoto futuro, aunque seguro que esa vida no sea humana. De algún modo quieren una brizna de inmortalidad obtenida por mediación de sus representantes futuros. Seres vivos que al igual que ellos piensen, sientan y sueñen. Quizás, creen, que si alguien sueña y siente, entonces ellos (nosotros) también lo hacen (hacemos) de alguna manera.
La contribución más alta a la entropía total viene de los agujeros negros, sobre todo de los agujeros negros supermasivos. La capacidad de producir trabajo y, por tanto, la capacidad de crear islas de baja entropía (como usted y yo) disminuye a medida que la entropía total del Universo aumenta. Llegado un punto de entropía máxima, cuando ya no haya energía libre disponible, no habrá máquinas termodinámicas en funcionamiento de ningún tipo (ni siquiera motores de gasolina) y por tanto tampoco habrá vida. ¿Cómo de lejos estamos de ese punto? El gato de Cheshire contestaría: “depende de en dónde nos encontremos en este momento”. Ahora, unos físicos de la Australian National University han descubierto que el Universo contiene 30 veces más entropía de lo que creíamos y, por tanto, estamos más cerca del fin de lo que suponíamos. Lo malo es que no saben todavía dónde situar ese fin. Chas Egan y Charley Lineweaver han llegado a esta conclusión después de tener en cuenta la entropía de los objetos del Universo visible, desde las estrellas hasta el fondo cósmico de microondas pasando por los agujeros negros. Incluso han contabilizado la entropía que correspondería a la materia oscura. La contribución más alta a la entropía total viene de los agujeros negros, sobre todo de los agujeros negros supermasivos. c http://neofronteras.com - Creado con LATEX y paperTEX
Todo ese espectáculo cósmico maravilloso que nos rodea, todas esas estrellas y galaxias en casi perpetua danza contribuyen a la entropía total, pero, según Lineweaver, esta contribución es prácticamente despreciable si la comparamos con la entropía de los agujeros negros supermasivos de los centros galácticos. Estos investigadores han medido cuanta entropía hay ahora. Para saber durante cuanto tiempo el Universo será capaz de sustentar algún tipo de vida, hace falta saber la máxima entropía que puede éste aguantar. El próximo paso que quieren ahora dar será precisamente el cálculo de esa muerte térmica. No es tarea fácil, en un Universo en expansión acelerada, el vacío se enfría muy rápidamente. Además, puede que antes de que llegue la muerte térmica otros tipos de apocalipsis cosmológicas se hayan dado ya. Enlace: http://neofronteras.com/?p=2986 Fuentes y referencias: Nota de prensa. Artículo en ArXiv.
NeoFronteras Trimestral
Física
2010 Edición de invierno 27 / 114
FÍSICA
Sobre la formación de miniagujeros negros en el LHC Realizan un cálculo relativista según el cual es posible crear miniagujeros negros a partir de choques entre partículas a muy alta energía. J. J. Moreno, NeoFronteras
Cuando se iba a poner en marcha el LHC, algunos conspiranoicos y gente con afán de notoriedad advirtieron que tal evento iba a suponer el fin del mundo. Según ellos, las colisiones de ese acelerador iban a producir agujeros negros que se tragarían la Tierra y a todos sus habitantes. La cosa incluso llegó a los tribunales. Lo que los científicos pudieron en duda fue tal cataclísmico final. El LHC no va a producir colisiones más poderosas de las que los rayos cósmicos ya producen en la atmósfera terrestre, así que no hay que temer ningún mal. Incluso si tales agujeros negros se formaran, éstos decaerían en otras partículas rápidamente sin causar daños. Lo que los científicos no pusieron en duda fue la posibilidad de creación de esos objetos. De hecho, se supone que se podrían producir, lo que significaría un magnífico descubrimiento. Pero nadie había realizado un cálculo preciso sobre esta posibilidad. Ahora, un modelo computacional que usa la Relatividad General publicado en Physical Review Letters (en prensa) predice por vez primera que una colisión entre partículas puede dar lugar a la creación de un miniagujero negro. Aunque era un resultado que se esperaba es importante conocer los detalles de este proceso. Para formar un agujero negro sólo se necesita comprimir suficiente masa en un volumen lo suficientemente pequeño, el resto lo hace la gravedad. En un agujero negro la curvatura del espacio-tiempo producida por la masa es tan pronunciada que nada, ni siquiera la luz, puede escapar de él. En el caso del colapso de una estrella hay implicadas millones de toneladas, en el caso de un agujero de negro obtenido mediante colisión de partículas esa masa es minúscula, pero la clave es la misma: comprimirla en un volumen lo suficientemente pequeño co-
mo para que la fuerza de gravedad ya opere sola. La Relatividad General nos dice que tanto la masa como la energía gravitan, y que incluso la gravedad gravita (de ahí la dificultad de las ecuaciones de Einstein). Entonces, como la masa y la energía son dos aspectos de una misma cosa, da igual si concentramos una o la otra para obtener el mismo resultado.
Fotogramas de la simulación en la que dos partículas chocan y producen un mini agujero negro. Fuente: Frans Pretorius.
La “conjetura del aro” indica cuánto se tiene que comprimir una partícula de determinada masa para que dé lugar a un agujero negro. A groso modo, si tenemos dos partículas que colisionan, basta que lo hagan con una energía por encima de la energía de Planck para que el fenómeno de formación de un agujero negro se dé. Además, cálculos realizados en los setenta sugerían que una colisión entre partículas podría dar lugar a un agujero negro, pero en el modelo se asumía que las partículas ya eran agujeros negros de partida, por lo que el argumento era ligeramente circular. Por tanto, había indicaciones de que el proceso se podría dar, pero no había pruebas teóricas sólidas en las que se tuvieran en cuenta todos los actores implicados. Recientemente, Matthew W. Choptuik y Frans Pretorius, ambos
c http://neofronteras.com - Creado con LATEX y paperTEX
de la Universidad de Princeton, han simulado colisiones que incluyen los complejos detalles matemáticos de la Relatividad General. Trabajo del que se ha hecho eco el servicio de noticias de Science. Por simplicidad lo hicieron con unas partículas hipotéticas conocidas como estrellas bosónicas, que son modelos que describen las estrellas como si fueran esferas hechas de un fluido. Aunque esto es una aproximación, por otro lado tuvieron que tener en cuenta las interacciones gravitatorias entre las partículas en colisión usando Relatividad General. Para poder realizar esta simulación se vieron obligados a utilizar cientos de ordenadores. Pudieron comprobar que se obtenían agujeros negros si las dos partículas en colisión llevaban una energía total de un tercio de la energía de Planck. Pero la energía de Planck es un límite fundamental, tan elevado que probablemente nunca lo podremos alcanzar, ni tampoco un tercio de la misma ni muy por debajo de ella. De hecho, el LHC alcanzará una energía máxima que está cuatrillones de veces (por decir algo) por debajo de la energía de Planck. Por tanto, parece que nos es imposible crear agujeros negros con esta receta. ¿Estamos por tanto “a salvo” de que el LHC genere estos miniagujeros? Según Choptuik no necesariamente. Si asumimos que el espacio es tridimensional no podremos alcanzar la energía suficiente, pero si hay otras dimensiones espaciales compactificadas, como sostienen algunas teorías, la energía necesaria podría ser muy inferior. Pero Choptuik se muestra cauto y admite que de ser así se sorprendería extremadamente. Enlace: http://neofronteras.com/ ?p=2980 Fuentes y referencias: Copia del artículo en ArXiv.
NeoFronteras Trimestral
Física
2010 Edición de invierno 28 / 114
FÍSICA
Descubren un antihipernúcleo Logran sintetizar un núcleo de antimateria compuesto por tres nucleones que contiene un quark extraño. J. J. Moreno, NeoFronteras
Según el modelo estándar de partículas, la materia se organiza en tres familias. La primera está formada por el quark arriba, el quark abajo (ambos partes constituyentes de neutrones y protones), el electrón y el neutrino del electrón (ambos leptones). La segunda está formada por el quark encantado, el quark extraño, y los leptones muón y neutrino muónico. La tercera familia está compuesta por los quark cima y fondo y los leptones tau y neutrino del tau. Todas estas partículas tienen espín semientero y por tanto son fermiones (que responden a las Estadís-
tica de Fermi-Dirac). Para organizar estas partículas están: los gluones (literalmente “pegamentones”) que unen los quarks entre sí, siendo los responsables de la fuerza nuclear fuerte; los fotones, responsables de las interacciones electromagnéticas; y las partículas W + , W − y Z0 , que controlan las desintegraciones y son las responsables de la fuerza nuclear débil. Estas partículas mediadoras tienen todas espín entero y responden a la estadística de Bose-Einstein, son, por tanto, bosones. De todo esto se sacan dos conclusiones. La primera es que, desde que se fueron agotando las letras griegas para las partículas compuestas y los norteamericanos entraron en este campo de la Física de Altas Energías, se usa una terminología bastante poco elegante no basada en palabras grecolatinas. La segunda es que toda la materia que nos rodea, vemos y tocamos está formada solamente por la primera familia del modelo. El resto pare-
ce sobrar. Así por ejemplo, podemos tener protones y neutrones solamente a base de quarks arriba y abajo. Con neutrones y protones podemos crear los núcleos de todos los elementos de la tabla periódica, incluyendo sus isótopos, y añadiendo electrones tenemos los átomos. Para obtener las partículas de la segunda y tercera familias, o combinaciones de ellas, hay que concentrar mucha energía en un punto, y esperar a que se formen de manera espontánea partículas exóticas, gracias al equivalente masa-energía, aunque al poco tiempo se desintegren en partículas más corrientes. Muchas veces se forman pares de partícula-antipartícula. Algo parecido sucedió al comienzo del Big-Bang, cuando se formaron muchas de estas partículas exóticas, pero todas desaparecieron al poco tiempo. Ahora sólo se dan en fenómenos naturales de altas energías o en nuestros aceleradores.
En cada colisión del RHIC se producen cientos de partículas que hay que analizar. En este caso gracias al detector STAR. Fuente: Brookhaven National Laboratory.
La síntesis de partículas a partir de energía no es sencilla, cuanto más pesadas son las partículas a sintetizar más energía se necesita, y las partículas de la segunda y tercera familia son bastante pesadas (cada vez más pesadas). Además, no es posible obtener quarks aislados así que hay que crear partículas compuestas (bariones o mesones) que las contengan. La manera para hacerlo es acelerar partícu-
las corrientes en un acelerador hasta una velocidad próxima a la de la luz (velocidad a la que tienen mucha energía cinética) y hacerlas chocar entre sí. Para poder hacer esto las partículas en cuestión tienen que estar cargadas eléctricamente y aprovecharse de campos electromagnéticos para poder acelerarlas y confinarlas. Además, como se tarda un tiempo en acelerarlas, y no se puede cons-
c http://neofronteras.com - Creado con LATEX y paperTEX
truir un túnel muy largo, se las hace girar en un anillo. Aquí surge el primer problema. Toda partícula cargada en aceleración (y forzarla a girar en círculos es una forma de aceleración) emite radiación sincrotón, perdiendo energía en el proceso. Así que para alcanzar alta energía se necesita meter más energía de la que se pierde por radiación sincrotón. Una manera de solucionarlo es uti-
NeoFronteras Trimestral lizar partículas pesadas (como por ejemplo protones), que generalmente son partículas compuestas que no dan colisiones limpias, pero que permiten alcanzar mucha energía sin mucha pérdida por radiación sincrotón. El colmo de los colmos es hacer chocar núcleos de átomos pesados como el oro, haciendo circular iones de este elemento por un acelerador. Una instalación que se dedica precisamente a esta tarea es el Colisionador de Iones Pesados Relativistas o RHIC en Brookhaven National Laboratory. Consiste en un acelerador de casi cuatro kilómetros de circunferencia. Recientemente, los científicos que allí trabajan han sintetizado el antinúcleo (núcleo compuesto por partículas de antimateria) más masivo hasta la fecha, publicando su hallazgo en
Física Science Express el pasado cuatro de marzo. Como es un antinucleo tiene una carga eléctrica negativa en lugar de positiva. Contiene concretamente un antiprotón, un antineutrón y una partícula neutra denominada antilambda. Es el primer antinúcleo en ser creado que contiene un antiquark extraño, pues esta antilambda contiene un antiquarks arriba, un antiquark abajo y un antiquark extraño. Según Horst Stoecker, de la Asociación alemana Helmholtz, este descubrimiento podría tener unas consecuencias sin precedentes en nuestra visión del mundo, pues esta antimateria abriría la puerta a una nueva dimensión en la carta de núcleos. Hasta hace poco se creía que la síntesis de este tipo de núcleos era imposible.
2010 Edición de invierno 29 / 114
Este descubrimiento podría ayudar a la creación de modelos de estrellas de neutrones y a explorar las asimetrías fundamentales en el universo primitivo, justo una fracción se segundo después del Big-Bang. Los físicos que se dedican a este negocio usan frecuentemente tablas periódicas de los elementos que son tridimensionales. En ellas se tiene en cuenta no solamente los distintos isótopos, sino un número cuántico extra denominado extrañeza que depende de la presencia de quarks extraños. Para la materia ordinaria este número cuántico vale cero. Cuando hay más de uno de estos quarks entonces a estos núcleos se les llama hipernúcleos o antihipernúcleos si son de antimateria. Este descubrimiento consiste en la síntesis del primer antihipernúcleo.
Tabla periódica en la que se tiene en cuenta la extrañeza (eje vertical), el número de protones (Z) y el número de neutrones (N). La parte negativa de los ejes corresponde a las antipartículas. Los antielementos se denotan por una línea horizontal sobre su símbolo. El núcleo reciéntenme descubierto está abajo a la izquierda marcado es rosa. Fuente: Brookhaven National Laboratory.
En estrellas colapsadas, como una estrella de neutrones, puede ocurrir que la extrañeza no sea nula, por lo que este hallazgo podría ayudar a distinguir entre modelos que describan estados exóticos de la materia que traten de explicar esos objetos. En el pasado se ha especulado con la posible existencia de objetos colapsados compuestos principalmente de materia extraña (de quarks extraños). Este hallazgo podría además ayudar a entender la violación de la simetría fundamental entre materia y antimateria. Como ya sabemos, durante el Big Bang se produjo un exceso de materia sobre antimateria y por esta razón el Universo no es solamente una nube de radiación, sino que hay materia y prácticamente no hay antima-
teria. Este problema de la asimetría de materia-antimateria constituye un problema aún por resolver en Física. Con el RHIC se alcanzan densidades de energía comparables a las existentes unos pocos microsegundos después del Big Bang, pero en las colisiones entre iones de oro se producen quarks y antiquark en la misma cantidad. La ruptura de esta simetría se tuvo que producir, por tanto, a una energía aún mayor o ser muy sutil. Para poder intentar solucionar este misterio se puede tratar de medir desviaciones sutiles entre materia y antimateria. Zhangbu Xu, del Brookhaven, cree que hay buenos expectativas de que futuras medidas en el RHIC permitan resolver este misterio. El equipo del detector STAR ha encontrado
c http://neofronteras.com - Creado con LATEX y paperTEX
que la tasa a la que los antinúcleos es producida es consistente con lo esperado si nos basamos en la estadística de la sopa de quarks que se generan en las colisiones. Extrapolando los resultados obtenidos, los científicos de esta institución creen que podrán descubrir antinúcleos aún más pesados en las colisiones próximas. Según algunas predicciones hay núcleos el doble de pesados que el descubierto que contienen quarks extraños y que pueden ser especialmente estables. Enlace: http://neofronteras.com/ ?p=3032 Fuentes y referencias: Nota de prensa de Brookhaven National Laboratory.
NeoFronteras Trimestral
Física
2010 Edición de invierno 30 / 114
FÍSICA
Einstein vuelve a tener razón Un experimento realizado con una precisión 10.000 mayor que los anteriores confirma la validez de la Relatividad General. J. J. Moreno, NeoFronteras
La Física es el paradigma de ciencia experimental, es el ejemplo típico utilizado en todos los tratados de epistemología. En ciencia unos modelos se suceden a otros y, sobre todo en la Física, engloban a los antiguos. Así por ejemplo, la Relatividad, en sus modalidades de Relatividad Especial y General, engloba a la Mecánica newtoniana. Sólo cuando las velocidades son cercanas a la de la luz la Mecánica de Newton y la Relatividad Especial difieren, ganando ésta última. En el mundo cotidiano de bajas velocidades las dos teorías proporcionan los mismos números, los mismos resultados. Aunque siempre podemos recurrir a un acelerador de partículas para comprobar los efectos relativistas con bastante precisión. Algo similar se puede decir de la gravedad, es difícil ver diferencias entre la gravedad newtoniana y la Relatividad General si las masas implicadas son pequeñas. Pero en este caso “pequeño” puede significar una masa planetaria. Si queremos ver cruces o anillos de Einstein tenemos que apuntar nuestros telescopios a sistemas galácticos o esperar a un eclipse de sol para ver cómo cambian las posiciones relativas de las estrellas cuando el Sol curva el espacio que hay entre ellas y nosotros. Por tanto, probar con precisión la Relatividad General es bastante difícil. En los últimos tiempos, debido a los efectos atribuidos a la masa oscura y a la energía oscura, se ha propuesto que quizás dichas entidades no existan y que lo que haya que hacer es modificar la Relatividad General para explicar esos efectos. Entonces, habría que sustituir esta teoría por otra teoría mejor que la englobe. Incluso se han hecho diversas propuestas teóricas al respecto. Esto se ve además alimentado porque se necesita mucha precisión en experimentos realizados en tierra para poder distinguir los efectos de la Relatividad General (RG). Ahora, un nuevo experimento de interferometría de haces atómicos ha comprobado la Relatividad General
con una precisión 10.000 veces mejor de la que se tenía anteriormente, demostrando que, de momento, Einstein sigue teniendo razón. Según Holger Müller, de la Universidad de Berkeley, el resultado muestra, una vez más, que la teoría de Einstein describe el mundo real. Según Müller el experimento demuestra, en concreto, que la gravedad cambia el flujo del tiempo, un concepto fundamental en RG. El fenómeno se denomina corrimiento al rojo gravitacional debido a que las longitudes de onda de la luz se alargan por efecto de la gravedad.
Trayectorias (no a escala) de los haces de cesio con sus oscilaciones asociadas. Fuente: Nature.
Para realizar el experimento Müller y sus colaboradores se han valido de una propiedad cuántica: que las partículas materiales llevan asociadas una onda. Así por ejemplo, la onda asociada a los átomos de cesio que se mueven en el haz de este experimento oscila con una frecuencia de 3 × 1025 veces por segundo. Cuando este haz de átomos cesio superenfriados (cerca del cero absoluto) entra en el banco experimental se encuentra con un pulso láser cuidadosamente sintonizado. Según las reglas de la Mecánica Cuántica cada átomo de cesio entra en dos realidades alternativas. En una el láser lo empuja hacia arriba una diezmilésima de milímetro, dándole un pequeño empujón. Esta distancia, aunque es minúscula a la escala humana, es muy grande a la
c http://neofronteras.com - Creado con LATEX y paperTEX
escala atómica. En la segunda el átomo permanece inmutable dentro del pozo gravitatorio terrestre, en donde el tiempo transcurre más lentamente, pues según la RG el tiempo es distinto para distintas alturas sobre el campo gravitatorio terrestre (para su vecino de arriba el tiempo transcurre más rápidamente que para usted). Las longitudes de onda y frecuencias de ambos casos difieren ligeramente debido a esta diferencia temporal. Se puede decir entonces que se producen “dos haces” de átomos en vuelo, uno levemente por encima del otro (separados una diezmilésima de milímetro) y con trayectorias ligeramente curvadas que sufren distinta intensidad de campo gravitatorio terrestre, aunque desde el punto de vista de la Mecánica Cuántica forman una única entidad. Sin embargo, ambas trayectorias deben interferir entre sí (se pueden hacer incluso experimentos de interferencia con sólo una partícula) y producir un patrón de interferencia similar al que produce la luz. Como es muy difícil de medir la frecuencia de las ondas de materia del haz del cesio, estos investigadores se valieron de la interferencia entre las ondas de materia de los dos tipos descritas anteriormente. Al igual que un interferómetro óptico crea patrones de interferencia entre ondas luminosas, un interferómetro atómico crea patrones de interferencia entre las ondas de materia de haces atómicos. Como la materia oscila muy rápidamente, y sus longitudes de ondas asociadas son muy pequeñas, un sistema así puede usarse para medir distancias o tiempos mucho más pequeños que con la luz. La RG predice exactamente cómo de despacio debe pasar el tiempo para los estados de “átomos inferiores” respecto a los “superiores”, necesitándose una precisión de una parte en 100 millones. Esto exige una precisión 10.000 mayor que la usada en los experimentos de hace 30 años, cuando dos relojes atómicos sincronizados se
NeoFronteras Trimestral desfasaban cuando a uno ellos se le lanzaba a gran altura con un cohete. Los átomos del experimento sufrieron una caída libre de 0,3 segundos de duración y las ondas de materia que estaban a una altura mayor (ver diagrama) sintieron una diferencia de tiempo 2 × 10−20 segundos respecto a las que estaban un poco más abajo. Debido a la alta frecuencia, y a que el interferómetro era capaz de medir distancias muy cortas, el experimento
Física podía medir con una precisión de 9 dígitos, lo que equivale a medir diferencias de tiempo de 10−28 segundos (tómese el lector una pausa para recapacitar sobre este número). Aunque este resultado tiene implicaciones teóricas, también las tiene prácticas, algo que hasta hace poco nadie lo hubiera creído. El sistema GPS usa ya correcciones relativistas y si queremos aún más precisión se deberá tener en cuenta este otro efec-
2010 Edición de invierno 31 / 114
to. Si en el sistema GPS usamos el mejor reloj atómico con una precisión de 17 dígitos, se puede determinar la posición con una exactitud de un milímetro, pero si elevamos el reloj un metro sobre el suelo (en donde la gravedad es más débil) su exactitud decae en un dígito. Así que, si queremos mejores relojes, necesitamos conocer mejor la influencia de la gravedad, según dice Müller.
Parte del banco experimental con el que se ha realizado el experimento. Fuente: Damon English, UC Berkeley.
Según este investigador, otra implicación importante de este resultado es que demuestra la profunda perspicacia de Einstein acerca de que la gravedad es una manifestación de la curvatura del espacio-tiempo, que es uno de los descubrimientos más grandes de la humanidad. Müller está ya construyendo un interferómetro atómico aún más preciso con la esperanza de medir el mismo
efecto con un milímetro de separación. Si lo consigue quizás pueda encarar el reto de hacerlo con un metro de distancia. Si pueden separar haces atómicos un metro de distancia y hacerlos interferir entre sí podrían incluso medir la famosas y esquivas ondas gravitatorias. Algo que tendrían que realizar en un lugar especialmente aislado, como las minas de Dakota del Sur en donde ya se realizan experimentos de
c http://neofronteras.com - Creado con LATEX y paperTEX
Física. Enlace: http://neofronteras.com/ ?p=3016 Fuentes y referencias: Nota de prensa de la Universidad de Berkeley. Artículo original en Nature (resumen).
NeoFronteras Trimestral
Física
2010 Edición de invierno 32 / 114
FÍSICA
Tambor de Schrödinger “macroscópico” Un grupo de científicos tiene éxito a la hora de poner un sistema macroscópico en una superposición de estados. J. J. Moreno, NeoFronteras
Una de las varias propiedades “mágicas” del mundo microscópico que describe la Mecánica Cuántica es la superposición de estados. De este modo, un electrón convenientemente preparado puede estar en dos estados de spin distintos a la vez. Pero por alguna razón, cuando nos vamos a objetos más grandes, este tipo de estados superpuestos desaparecen. De ahí la broma de Schrödinger sobre la posibilidad de tener un gato vivo y muerto a la vez. Lo mismo se puede decir del amigo de Wigner. Como obviamente no vemos gatos de Schrödinger en el mundo clásico y cotidiano que nos rodea, se tuvieron que inventar mecanismos que hicieran que las leyes extrañas de la Mecánica Cuántica (MC) no se dieran en el mundo macroscópico. Así por ejemplo se introdujo la decoherencia, que básicamente dice que se mantendrán las leyes de la MC siempre y cuando no se perturbe mucho al sistema cuántico, de otro modo colapsará hasta un estado clásico. Desde hace un tiempo se viene especulando que, aunque no veamos gatos de Schrödinger, quizás si podamos preparar otros objetos mesoscópicos en extraños estados cuánticos. Así por ejemplo, habría moléculas, proteínas o virus de Schrödinger. Lo que superaría todos los sueños sería un sistema de este estilo que fuera más allá del mundo mesoscópico. ¿Qué tal un estado cuántico superpuesto en el mundo macroscópico, aunque el sistema sea chiquito? Esto es precisamente lo que ha logrado el equipo de Andrew Cleland en la Universidad de California en Santa Barbara, pues han conseguido un “tambor de Schrödinger” que se puede ver a simple vista (según la nota de prensa), aunque sólo mida 30 micras de longitud. En este caso los estados se refieren a los estados posibles de vibración de una pequeña lámina que hace las veces de tambor cuántico. Hay un estado de vibración que es el de mínima energía posible (el estado fundamental) y so-
bre él otros estados excitados de mayor energía. Como el sistema está bajo las leyes de la MC dichas energías se dan de manera discreta en cuantos de energía. El sistema es similar a las moléculas, que pueden vibrar, excitarse al recibir energía y devolver esa energía en forma de fotones infrarrojos cuando vuelven al estado fundamental. En el experimento consiguieron hacer vibrar la lámina de un resonador mecánico en dos estados a la vez: el fundamental y el primer estado excitado. Dicho en lenguaje de la calle, la lámina estaba quieta y vibrando a la vez.
El dispositivo empleado. Fuente: O’Connell y colaboradores.
Este resultado muestra que los principios de la MC pueden ser aplicados a los objetos cotidianos además de a las partículas en la escala atómica. Hasta el momento nadie había visto un sistema cuántico que mostrase superposición de estados con un tamaño tan grande, y en el cual intervienen billones de átomos. El montaje consistió en una lámina vibrante sujeta por un extremo de unas 30 micras de longitud. Esta “paleta” estaba conectada a un circuito eléctrico superconductor que obedece las leyes de la MC. Este tipo de circuito fue desarrollado para la computación cuántica, pudiéndose usar sus qubits a modo de termómetro. Todo el sistema estaba enfriado hasta una temperatura de una décima de grado kelvin por encima del cero absoluto. A esa temperatura la paleta se encuentra en el estado fundamental de mínima energía. Entonces usaron
c http://neofronteras.com - Creado con LATEX y paperTEX
el circuito para imprimir a la paleta un empujón con una energía específica, llevando la paleta al primer estado excitado. Por tanto, podían escoger el estado de vibración de la paleta. Quedaba por hacer lo más difícil: su superposición. Consiguieron poner el circuito en una superposición de estados “empujar” y “no empujar” y lo conectaron a la lámina. Como el circuito y la paleta estaban entrelazados cuánticamente era de esperar que la paleta pasara a una superposición de estados. A través de una serie de experimentos pudieron demostrar que efectivamente la paleta estaba en una superposición de estados, y vibraba y no vibraba simultáneamente. Algunos físicos están encantados con el resultado, pues demuestra que las leyes de la MC se mantienen a escalas más grandes de lo que se creía hasta ahora. Si se puede poner en una superposición de estados un objeto con billones de átomos, ¿por qué no un automóvil en una superposición de estados “detenido” y “en movimiento”? Según Cleland el tamaño sí importa, cuanto mayor sea el objeto más fácil que el estado cuántico sea destruido por las fuerzas del exterior. El ambiente es grande y complejo. “Es la interacción con este sistema increíblemente complejo lo que hace que la coherencia cuántica desaparezca”, dice Cleland. Pese a todo sostiene que hay muchas razones para intentar esto mismo con objetos cada vez más grandes. Por el camino se puede aprender mucho sobre la relación entre MC y gravedad, por ejemplo. Además cree que un resonador cuántico puede ser útil para alguna aplicación práctica. “Debe de haber alguna aplicación interesante, pero, francamente, no tengo una ahora”, dice. Enlace: http://neofronteras.com/ ?p=3043 Fuentes y referencias: Nota de prensa.; O’Connell, A. D. et al. Nature doi:10.1038/nature08967 (2010).; Noticia en Nature.
NeoFronteras Trimestral
Física
2010 Edición de invierno 33 / 114
LOGÍA
Gravedad e información cuántica Según algunos estudios teóricos la gravedad emergería de la información cuántica. Esto de que la información cuántica juegue un nuevo papel en la gravedad quizás ayude a encontrar un camino hacia la unificación de diversas ideas en Física. J. J. Moreno, NeoFronteras
Una de los conceptos con lo que se está jugando últimamente en Física Teórica es que la gravedad sea un fenómeno emergente, es decir que surja o aparezca de la interacción de elementos simples. En Biología tenemos varios ejemplos de propiedades emergentes, como el movimiento de un banco de peces a partir del movimiento simple de cada unos de los peces (básicamente consiste en fijarse en lo que hacen los peces que son próximos vecinos y obedecer unas reglas sencillas). También sabemos que la mente surge de la interacción de las neuronas entre sí, aunque la mente como tal no está en ninguna de ellas de forma aislada. Por tanto la mente es un fenómeno emergente. También se ha tratado de encontrar este tipo de concepto en Física Fundamental (en el magnetismo y en otras campos de la Física Condensada también aparecen propiedades emergentes). En estas páginas ya vimos las diversas ideas que tratan de encontrar una teoría cuántica de la gravedad a partir de interacciones básicas exóticas de elementos simples (lazos cuánticos, graficidad, símplices causales, etc.). Hace unos meses Erik Verlinde, de la Universidad de Amsterdam, propuso que la gravedad puede que aparezca como propiedad emergente de la interacción de elementos más simples. Verlinde sugería que la gravedad es meramente una manifestación de la entropía del Universo. Su idea se basa en la segunda ley de la Termodinámica, que dice que la entropía siempre crece en un sistema cerrado. Según su sugerencia, las diferencias de entropía entre distintas partes del Universo generan una fuerza que redistribuye la materia de una manera que maximiza la entropía y que esta fuerza es a la que llamamos gravedad. Quizás lo más interesante de esta aproximación es que simplifica dramáticamente el andamiaje teórico que soporta la Física Moderna. A pesar de
que tenía limitaciones, pues, por ejemplo, sólo predice la gravedad Newtoniana, también tenía ventajas, como la capacidad de dar cuenta de la magnitud de la energía oscura, valor con el que las teorías convencionales han estado luchando todo este tiempo. Pero probablemente lo más importante del trabajo de este físico sea la idea poderosa de que la gravedad es esencialmente un fenómeno de información.
Representación simbólica de la geometría de una agujero negro. Fuente: MIT.
Ahora, Jae-Weon Lee, de la Universidad de Jungwon (Corea del Sur), y sus colaboradores han conseguido relacionar la teoría de la gravedad einsteniana a partir de la idea de información cuántica y lo han hecho tomando un camino ligeramente distinto al de Verlinde. En el corazón de esta idea está la difícil cuestión sobre qué pasa con la información cuando entra en un agujero negro, algo que ha estado intrigando a los físicos desde que Hawking se fijó en el problema. Después de varias décadas, y alguna que otra apuesta, no hay un consenso sobre si la información desaparece o está en algún sitio. Una cosa es segura, y es lo que se afirma en el principio de Landauer: el borrado de un bit de información siempre aumenta la entropía del Uni-
c http://neofronteras.com - Creado con LATEX y paperTEX
verso en una cierta cantidad y requiere una específica cantidad de energía mínima. Jae-Weon y colaboradores asumieron que este proceso de borrado puede ocurrir en el horizonte de sucesos de un agujero negro. Si es así, el espaciotiempo tiene que organizarse a sí mismo de una manera que maximice la entropía en el horizonte. Es decir, se genera una fuerza al estilo de la gravedad. Esto es interesante por varias razones. Estos físicos asumen la existencia de espacio-tiempo y su geometría y simplemente preguntan sobre de qué forma debe empezarse a borrar la información. Además relacionan gravedad e información cuántica por primera vez. En los últimos años muchos resultados en Mecánica Cuántica han apuntado a un aumento de la importancia del papel que la información parece jugar en el Universo. Algunos físicos están convencidos de que las propiedades de la información no provienen del comportamiento de los portadores de información, como los fotones o electrones, sino que la información en sí misma es el cimiento fantasmal sobre el cual el Universo es construido. Hasta el momento la gravedad rondaba alrededor de esta idea, pero sin haberse encontrar una relación teórica. Ahora, al saberse que la información puede jugar también un papel fundamental en la gravedad, puede que se allane el camino hacia algún tipo de unificación entre Mecánica Cuántica y Relatividad General, algo con lo que se ha estado soñando desde hace muchas décadas sin conseguirlo. Enlace: http://neofronteras.com/ ?p=3051 Fuentes y referencias: Technology Review Artículo de Jae-Weon Lee. Artículo de Erik Verlinde.
NeoFronteras Trimestral
Física
2010 Edición de invierno 34 / 114
FÍSICA
Viendo a través de opacos Sabiendo cómo matemáticamente la luz es dispersada por un objeto opaco se llegar a compensar el efecto y ver a través de él. J. J. Moreno, NeoFronteras
Objeto transparente y opaco con sus respectivas matrices de transmisión. Fuente: American Physical Society.
Las personas no son transparentes, al menos no son físicamente transparentes. Si lo fueran se podría mirar a su través y podríamos ver cómo tienen sus órganos internos. En ese caso los estudios de anatomía se tornarían más sencillos e interesantes, pero también se facilitaría enormemente la diagnosis de ciertas enfermedades. No haría falta tampoco recurrir a los dañinos rayos X para saber si hay o no un tumor. Pero la realidad es que la carne humana es opaca. La razón médica es una buena motivación para el estudio de cómo es la dispersión de la luz en estos casos. Si de alguna manera somos capaces de saber cómo es quizás podamos explorar el interior del cuerpo humano (o un seno sospechoso de contener un tumor) de una manera segura
y barata. Aunque esto también tiene importancia en la industria, como en los análisis no destructivos empleados en el control de calidad o, como veremos más adelante, en la alta tecnología microelectrónica. Los tejidos humanos (o el papel, la pintura, etc) son opacos porque la luz que intenta atravesarlos se dispersa de una manera complicada que parece aleatoria. A veces este tipo de problemas son tratados desde el punto de vista matemático como “problemas inversos”. Básicamente, en un modelo al uso, se sabe lo que entra, se sabe lo que sale, se sabe cómo son las interacciones interiores (en el caso aquí tratado cómo se dispersa la luz) y se hacen cambios de una manera inteligente en lo que se supone hay en el interior para saber como es éste, pero de tal modo que el modelo dé lo mismo de salida que las medidas tomadas en el mundo real. Por tanto, cualquier avance en este campo, es interesante. Recientemente un grupo de científicos franceses del ESPCI ha mostrado que es posible enfocar la luz que atraviesa materiales opacos y detectar objetos ocultos en su interior. Los resultados del experimento aparecen en Physical Review Letters. Los investigadores han empezado con un sistema sencillo para así demostrar que su idea funciona. Concretamente estudiaron cómo se dispersaba la luz en el óxido de zinc, que es un componente muy común de las pinturas blancas. Estudiando esto fueron capaces de construir un modelo numérico basado en lo que se denomina matriz de transmisión, que incluía 65.000 números que describen la manera en la que la capa de óxido de zinc afecta a la luz. Entonces usaron la información contenida en esta matriz para ajustar un haz de luz específicamente diseñado que atravesara la capa opaca y que se enfocara al otro lado.
Esta técnica abre la posibilidad de que los opacos puedan ser buenos elementos ópticos en dispositivos a escala nanométrica. Alternativamente, pudieron medir la luz que emergía del opaco y, gracias al uso de esta matriz, reconstruir una imagen de un objeto situado detrás del mismo. Quizás lo más sorprendente de los resultados es que el experimento muestra que los materiales opacos pueden servir como elementos ópticos de alta calidad, comprables a las lentes convencionales, una vez que se ha construido una matriz de transmisión con el suficiente detalle. Además de poder ver a través de opacos, esta técnica abre la posibilidad, por tanto, de que los opacos puedan ser buenos elementos ópticos en dispositivos a escala nanométrica, nivel al que la construcción de lentes trasparentes y otros componentes es particularmente difícil. Aplicada esta técnica a objetos relativamente transparentes se puede usar la matriz de transmisión para obtener c http://neofronteras.com - Creado con LATEX y paperTEX
reconstrucciones topográficas de muestras, y así usarlo para seguir procesos dentro de células vivas, por ejemplo. Aunque no está claro si se puede generalizar esta aproximación a materiales con altos niveles de dispersión, se tienen esperanzas de que se pueda obtener información del interior de tejidos biológicos no transparentes, con lo que se podría aplicar al diagnóstico médico y a la investigación biológica. Enlace: http://neofronteras.com/?p=3037 Fuentes y referencias: Nota de prensa en EurekaAlert. Artículo original (resumen). Reportaje en Physics Spotlight.
NeoFronteras Trimestral
Física
2010 Edición de invierno 35 / 114
FÍSICA
La Mecánica Cuántica de la fotosíntesis Descubren unos mecanismos mecánico cuánticos sorprendentes y fascinantes que se dan durante parte de la fotosíntesis. Parece que un alga inventó la computación cuántica 2000 millones de años antes que los humanos. J. J. Moreno, NeoFronteras
Alga Chroomonas. Fuente: NOAA.
Si alguien nos dice que durante la fotosíntesis se utiliza la Mecánica Cuántica no nos debería extrañar lo más mínimo. Al fin y al cabo la célula fotoeléctrica del ascensor o las placas solares del tejado (si es que se tienen) funcionan bajo los mismos principios. La explicación al efecto fotoeléctrico tiene ya 105 años, fue dada por Albert Einstein y por ello recibió el Nóbel de Física. Todo el mundo sabe, por tanto, que la Mecánica Cuántica debe jugar un papel esencial en la fotosíntesis, pero los detalles del proceso se desconocían. Cuando uno estudia Mecánica Cuántica (MC) por primera vez se decepciona un poco, pues su introducción suele ser fenomenológica. Uno espera ver gatos de Schrödinger y en su lugar ve, como máximo, cuantos de energía y niveles en el átomo de hidrógeno o en el pozo cuadrado. Es decir, a lo más que se suele llegar es a la ecuación de Schrödinger. Lo más fantástico y sorprendente viene normalmente después, y para ello se necesita un buen andamiaje matemático basado en los espacios de Hilbert. Es entonces cuando se ven las bases de la MC, sus postulados, la preparación de estados, la superposición de los mismos, el colapso de la función de ondas, la paradoja EPR y, como no, el gato de Schrödinger. Hacer experimentos para estudiar estos detalles de la MC es muy difícil, normalmente todo se va al traste con la menor perturbación, por eso a veces hay que enfriar el sistema a estudiar hasta temperaturas cercanas al cero absoluto, momento en que cesa toda vibración. De ahí que sea tan difícil conseguir el famoso computador cuántico. Tener una partícula en una superposición de un par de estados es todo un logro. Pues bien, al parecer las plantas llevan haciendo esto mismo desde hace miles de millones c http://neofronteras.com - Creado con LATEX y paperTEX
de años. Un equipo de la Universidad de Toronto ha hecho una gran contribución al campo de la Biología Cuántica al observar estados cuánticos muy especiales durante la fotosíntesis de algas marinas. Otro equipo australiano ha llegado a resultados similares. Según Greg Scholes, líder del proyecto canadiense, sus experimentos muestran que los sistemas biológicos tienen la capacidad de usar la MC para así optimizar procesos esenciales como el de la fotosíntesis. La fotosíntesis usa diferentes sistemas bioquímicos. En un primer paso están las “antenas” o los complejos que captan la luz y la llevan a los centros de reacción en donde se suceden otros procesos que finalmente dan lugar a energía química utilizable por la planta. Cuando un fotón alcanzan una de estas antenas transfieren su energía a los electrones de la misma, pero esta energía se puede perder si no es transferida rápidamente a otra molécula. En el alga Chroomonas CCMP270, por ejemplo, estas antenas tienen 8 moléculas de pigmentos tejidas en una estructura proteica más grande, y cada pigmento absorbe luz de una diferente gama de frecuencias (color) del espectro electromagnético. La ruta a lo largo de estas moléculas es importante porque cuanto más largo sea el viaje más pérdidas de energía se pueden producir. Desde un punto de vista clásico la energía debería viajar por un camino aleatorio por ellas. Por tanto, los investigadores esperaban que la energía de un pulso láser no se transfiriera desde la antena a los centros de reacción de manera eficiente y parte se perdiera. Este equipo de investigadores aisló estas antenas o complejos de captación de luz de dos especies distintas de alga marina y estudió su funcionamiento a temperatura ambiente (a 21 grados centígrados) gracias a la espectroscopía electrónica bidimensional. Para ello se valieron de un láser de femtosegundo con el que iluminaron esos complejos y así remedar el proceso natural de absorción de luz. El pulso de este tipo de láser es tan corto que se pueden vigilar más fácilmente los procesos que se suceden después de la iluminación sin la interferencia del haz que iluminó, aunque esos procesos sean muy rápidos. Entre los fenómenos que se pueden observar está el movimiento de la energía por las moléculas especiales que están unidas a una proteína. Al excitar con el pulso láser se consigue que los electrones de las moléculas de pigmentos salten a un estado excitado. Al volver a sus estados fundamentales se emiten fotones con longitudes de onda ligeramente diferentes que se combinan para formar un patrón de interferencia determinado. Estudiando este patrón los científicos pudieron estudiar el estado de superposición que se creaba. Los investigadores se vieron sorprendidos al observar
NeoFronteras Trimestral
Física
claramente la supervivencia a largo plazo (cuatro veces más prolongados de lo esperado) de estados mecanicocuánticos relacionados con ese movimiento de energía. Este tiempo (400 femtosegundos o 4 × 10−13 s) es lo suficientemente largo como para que la energía del fotón absorbida ensaye todos los posibles caminos (¿recuerda esto a la integral de caminos de Feyman?) a lo largo de la antena, permitiendo que viaje sin pérdidas. Durante un tiempo la energía de la luz absorbida reside en varios lugares a la vez. Es decir, que hay una superposición coherente de estados cuánticos. En esencia la antena realiza una computación cuántica para determinar la mejor manera de transferir la energía. El descubrimiento va en contra de la idea supuesta que sostiene que la coherencia cuántica sólo puede ocurrir a temperaturas muy bajas cerca del cero absoluto, porque le calor ambiental la puede destruir. Se desconoce cómo se las arregla este sistema fotosintético para realizar esta proeza, pero se especula que quizás se deba a la propia estructura de la proteína. Según Scholes, este resultado podría significar que las leyes de probabilidad mecánico-cuánticas prevalecen sobre las leyes clásicas en los sistemas biológicos complejos, incluso a temperatura normal. La energía puede entonces fluir eficientemente de una manera contraintuitiva (bajo la perspectiva clásica) y atravesar de manera simultánea varios caminos alternativos a través de las proteínas. En otras palabras, los complejos de captación convierten la luz en una onda que viaja desde la antena a los centros de
reacción sin pérdida de energía. Scholes se plantea si los organismos desarrollaron esta estrategia mecánico-cuántica de captación de energía solar como una ventaja adaptativa. Según él es como si el alga “conociera” la Mecánica Cuántica 2000 millones de años antes que los humanos. La pregunta que queda por resolver es obvia: ¿se dan este tipo de fenómenos mecánicocuánticos en otros procesos biológicos? Paul Davies, director del BEYOND Center for Fundamental Concepts in Science con sede en Arizona, cree que la Naturaleza ha tenido miles de millones de años para evolucionar aprovechándose de las ventajas cuánticas, y que probablemente las explota de manera eficiente cuando puede. Sospecha que el funcionamiento de muchas estructuras biológicas nanométricas sólo se podrán entender completamente con referencias a la coherencia, efecto túnel, entrelazamiento y otros procesos cuánticos no triviales. El desafío será identificar dichos procesos en el ambiente ruidoso de la célula. Enlace: http://neofronteras.com/?p=3012 Fuentes y referencias: Nota de prensa de la Universidad de Toronto. Artículo en Nature. Artículo en Nature (resumen). Artículo en ArXiv. Noticia en Science. Noticia en Physicsworld.
PUBLICIDAD
c http://neofronteras.com - Creado con LATEX y paperTEX
2010 Edición de invierno 36 / 114
NeoFronteras Trimestral
Geología
2010 Edición de invierno 37 / 114
GEOLOGÍA
La glaciación Sturtian cubrió toda la Tierra de hielo Encuentran nuevas pruebas de que una capa de hielo se extendía hasta el ecuador hace 716,5 millones de años. J. J. Moreno, NeoFronteras
La vida en la Tierra está íntimamente ligada a la geología terrestre, a la climatología terrestre o a nuestro lugar en el Cosmos. La historia biológica está sujeta y ha estado sujeta a toda una infinidad de contingencias. Altérese alguna de estas contingencias y esa historia cambiara totalmente. Pero como son experimentos regulados por dados de tirada única, nunca podremos saber qué hubiera pasado si las cosas hubieran sido distintas. Hace más de setecientos millones de años este planeta estaba prácticamente cubierto por el hielo debido a la
glaciación Sturtian. Al periodo geológico correspondiente se le ha llamado Criogénico por esta razón. La vida en la Tierra, que era esencialmente microbiana en esa época, estaba en aprietos. Si esta edad del hielo hubiera sido un poco más cruel, aquí no estaríamos ninguno para filosofar sobre este asunto, o al menos no todavía. Pero la Naturaleza se mostró misericordiosa, los hielos se retiraron y se liberó oxígeno. Entonces aparecieron, probablemente por primera vez, las primeras formas complejas de vida pluricelular.
En estos parajes del Yukón han encontrado pruebas sobre las glaciones Sturtian La cumbre oscura se formó en los trópicos de hace 716 millones de años. Fuente: Francis A. Macdonald/Harvard University.
Saber cómo de intensa fue esta glaciación o hasta donde se extendió es, por tanto, importante a la hora de entender la historia biológica de la Tierra y nuestros orígenes más remotos. Por esta razón este tema ha sido un tema de discusión acalorada entre los expertos del campo. Por un lado están los que sostienen que la glaciación no cubrió completamente el planeta y por otro los que dicen que sí lo hizo. Ya hemos cubierto este tema en NeoFronteras varias veces. Ahora, un grupo de geólogos ha encontrado nuevas pruebas de que un océano de hielo se extendía hasta el ecuador hace 716,5 millones de años, proporcionando mayor precisión al estudio de este evento de “bola helada” o “bola de nieve”. El grupo de científicos, liderado por científicos de la Universidad de Harvard, ha basado su estudio en antiguas rocas tropicales que ahora se pueden hallar en una región remota del noroeste de Canadá (la deriva continental las c http://neofronteras.com - Creado con LATEX y paperTEX
habría llevado en este tiempo mucho más al norte de su original localización tropical). Han publicado su hallazgo en Science que, en esencia, vendría a corroborar el hecho de la Tierra estaba cubierta totalmente por el hielo durante esa época. Según Francis A. Macdonald, del departamento de la Tierra y Ciencias Planetarias de la universidad antes menciona, ésta sería la primera vez que se demuestra que la glaciación Sturtian se dio en latitudes tropicales. Según los datos obtenidos por este científico y sus colaboradores, esta glaciación duró, como mínimo, 5 millones de años. La supervivencia de la vida eucariota a lo largo de este periodo indica que había disponible agua líquida superficial y luz del sol sobre la Tierra. Los primeros animales surgieron por esa época y dieron lugar a la mayor proliferación de eucariotas conocida. Incluso durante una glaciación global como ésta, había un gradiente de temperatura sobre la Tierra, dándose una
NeoFronteras Trimestral
Geología
dinámica en el hielo: su flujo, su adelgazamiento y la formación parches de aguas abiertas que proporcionaron un refugio a la vida. Según Macdonald, el registro fósil sugiere que todos los grupos principales de eucariotas, con la posible excepción de los animales, existían antes de la glaciación Sturtian. La pregunta es si se dio un fenómeno de bola de hielo sobre el planeta, ¿cómo sobrevivieron los eucariotas?, ¿estimuló este periodo la aparición de los animales? “Desde el punto de vista evolutivo no siempre es una mala cosa para la vida terrestre encarar un estrés severo”, añade. Las rocas analizadas por estos científicos proceden de los territorios del Yukón en Canadá y muestran depósitos y otros signos de glaciación. Fueron capaces de determinar, basándose en el magnetismo y en la composición de estas rocas carbonatadas allí encontradas, que hace 716,5 millones de años se encontraban a 10 grados de latitud. Debido al alto albedo proporcionado por el hielo, los modelos climáticos hace tiempo que predicen que si los océanos son cubiertos por el hielo hasta los 30 grados de latitud, entonces todo el océano se congelaría rápidamente. Según Macdonald los nuevos resultados indicarían que el hielo se encontraría a todas las latitudes durante la gla-
c http://neofronteras.com - Creado con LATEX y paperTEX
2010 Edición de invierno 38 / 114
ciación Sturtian. Los científicos no saben qué causó esta glaciación o qué la terminó, pero este investigador dice que esa edad de 716,5 millones de años encaja con la edad de una gran región ígnea de 1500 kilómetros que va de Alaska a la Isla Ellesmere. Esto haría coincidir la glaciación, o su término, con una gran actividad volcánica. Si la actividad volcánica puso fin a esa glaciación entonces tendríamos que estar muy agradecidos a esos volcanes, porque estaríamos aquí gracias a ellos. Este evento no fue le único desafió glaciar al que la vida en la Tierra sobrevivió. Se cree que hace 2300 millones años otro evento similar también cubrió todo el planeta de hielo. Pero esa es otra historia. Enlace: http://neofronteras.com/?p=3034 Fuentes y referencias: Nota de prensa de la Universidad de Harvard. Artículo en Science (resumen). Crisis biológica previa a la bola de nieve. El primer metazoo (por ahora). Sobre el cambio climático de hace 635 millones de años. Nueva teoría sobre la explosión del Cámbrico. Sobre el retraso en la aparición de la vida compleja.
NeoFronteras Trimestral
Matemáticas
2010 Edición de invierno 39 / 114
MATEMÁTICAS
Nuevo algoritmo cuántico Un algoritmo cuántico permitiría resolver sistemas de ecuaciones lineales muy rápidamente. J. J. Moreno, NeoFronteras
La predición del tiempo meteorológico exige resolver sistemas de ecuaciones muy grandes. Fuente: University of Wisconsin-Madison.
Aunque la realización física de la computación cuántica es muy difícil y todavía no contamos con dispositivos que efectúen este tipo de computación de manera práctica, ya disponemos de algunos algoritmos que harán de estás máquinas las computadoras tan potentes que imaginamos, capaces de resolver exponencialmente rápido algunos de los problemas más duros. Uno de los primeros algoritmos en ser desarrollado hace años fue el que permite factorizar números compuestos (los que no son primos) en sus factores primos. Este algoritmo permitirá quebrar el sistema RSA de cifrado imperante ahora en los sistemas de comunicaciones. Otros algoritmos
cuánticos permiten la búsqueda muy rápida en bases de datos. Pero hay más algoritmos interesantes. Uno de los más recientes permitiría resolver muy rápidamente sistemas de ecuaciones lineales. Sistemas que típicamente podemos simbolizar por Ax=b. Hay métodos muy sencillos para encontrar las soluciones de sistema de ecuaciones lineales. Cualquiera que haya ido a la escuela y halla prestado atención los sabe aplicar. Esto es más o menos trivial para un par de ecuaciones con dos incógnitas, pero resulta un trabajo muy largo cuando se consideran un mayor número de variables y ecuaciones. A veces hay miles o millones de incógnitas y ecuaciones por sistema que sólo un ordenador potente puede resolver. Pero son justamente ese tipo sistemas lineales grandes los que nos podemos encontrar en la realidad para problemas científicos o de ingeniería, como la predicción del clima. No son problemas teóricamente duros, pues si tenemos N incógnitas y ecuaciones, el tiempo de resolución crece linealmente con N (al menos) con un ordenador moderno. Pero incluso así, a veces se necesita demasiado tiempo para resolver sistemas enormes, incluso con un superordenador. Ahora, Aram W. Harrow de University of Bristol y Avinatan Hassidim y Seth Lloyd del MIT proponen un algoritmo cuántico para resolver este tipo de problemas. El algoritmo se basa en la ventaja que los qubits tienen frente a los bits, pues pueden estar en una superposición de estados y ser “0” y “1” a la vez. El algoritmo codifica en una superposición todas las posibles soluciones del sistema, englobando todos los posibles valores de las constantes que están al lado derecho del sistema de ecuaciones (la b de antes). A partir de esta solución universal se puede extraer la solución particular que se busca sin necesidad de calcularla.
Con el nuevo algoritmo la resolución sería más rápida, pues la dificultad del problema no crecería con el númeoro de ecuaciones . La ganancia de tiempo sería enorme. Si con un ordenador convencional tratamos de resolver un sistema de N ecuaciones tardaremos como mínimo 1000 veces más si N es 1000 veces más grande. Pero con el nuevo algoritmo se haría mucho más rápido, aunque N sea muy grande, pues la dificultad del problema no crecería en este caso con N. Aunque todavía no hay ordenadores cuánticos, Lloyd especula con la posibilidad de aplicar pronto este método de manera indirecta en Astronomía para obtener imágenes libres de defectos al aprovecharse de la naturaleza cuántica de los fotones.
c http://neofronteras.com - Creado con LATEX y paperTEX
No deja de ser curioso que desde hace tiempo se viene intentando crear sin éxito algoritmos cuánticos que resuelvan problemas de tipo NP rápidamente (que crecen no polinómicamente según aumenta el tamaño del problema) y que, sin embargo, ahora se proponga uno para un problema mucho más sencillo, pero quizás más práctico. Enlace: http://neofronteras.com/?p=2965 Fuentes y referencias: Phys. Rev. Lett. 103, 250501.
NeoFronteras Trimestral
Matemáticas
2010 Edición de invierno 40 / 114
MATEMÁTICAS
Matemáticas y predicción de comportamiento criminal Un modelo matemático predice que un control policial riguroso puede eliminar completamente los puntos calientes de crímenes de una clase, pero simplemente desplaza los de otro tipo. J. J. Moreno, NeoFronteras
Martin Short. Fuente: UCLA.
¿Le gusta la serie Numb3rs? Entonces quizás le agrade saber que la serie no está tan lejos de la realidad como en un principio se podría pensar. El antropólogo Jeffrey Brantingham y los matemáticos Martin Short y Andrea Bertozzi, todos de la Universidad de California en Los Ángeles, han usado las Matemáticas para calcular cómo los movimientos de criminales y víctimas crean oportunidades para el crimen y cómo la policía puede reducir esta criminalidad. Jeffrey Brantingham estudia además a los cazadores-recolectores del norte de Tíbet. Según él los criminales se comportan esencialmente como cazadores-recolectores: forrajean en busca de oportunidades para cometer un crimen. El comportamiento de los cazadores-recolectores que les hace elegir entre un ñu y una gacela es el mismo tipo de cálculo que usa un criminal para elegir entre un Honda o un Lexus como objetivo de su crimen. Estos investigadores han estado analizando la naturaleza de los puntos calientes en donde se dan crímenes a través de modelos matemáticos sofisticados para así determinar los patrones de comportamiento criminal del sistema urbano. Según ellos, sus resultados no solamente se pueden aplicar a Los Ángeles, sino a otras ciudades El modelo matemático que han obtenido es no lineal y desarrolla patrones complejos tanto en el espacio como en el tiempo. Al parecer, las ecua-
ciones implicadas en este modelo, que son similares a las que describen las reacciones moleculares, la difusión o terremotos y sus réplicas, explican cómo se forman los puntos calientes locales donde se dan los crímenes. Según el modelo de estos investigadores hay dos clases de puntos calientes. El primero, que se denomina “supercrítico”, surge cuando pequeñas explosiones de crímenes sobrepasan un determinado umbral y crean una ola de crimen local. El segundo, que se puede denominar “subcrítico” sucede cuando un factor particular, como pueda ser la presencia de un punto de venta de droga, provoca una gran explosión de crímenes al atraer a los criminales. Los dos tipos aparentan ser iguales a primera vista, pero no lo son. Si simplemente se localizan en un mapa los puntos calientes y no se estudia con cuidado las diferencias, los distintos tipos pasan desapercibidos. Este modelo permite distinguir los dos casos antes citados. Estos dos tipos de puntos calientes son distintos sobre todo desde el punto de vista de la acción policial, bajo la cual se comportan de manera muy distinta. Las ecuaciones indican que un control policial riguroso puede eliminar completamente los puntos calientes subcríticos, pero simplemente desplazan la variedad supercrítica. Por tanto, añadir más presencia policial en unos casos hace que el crimen se desplace a otros lugares y otras veces consigue erradicar el crimen. Desde el punto de vista matemático los dos tipos de respuesta frente a la presencia policial se pueden estudiar haciendo un análisis matemático relacionado con la teoría de bifurcaciones. Según Bertozzi, aunque el modelo está idealizado, los parámetros que aparecen en él se pueden conocer de manera muy precisa para así poder obtener una predicción fiable. Ya han utilizado los datos criminales de los últimos diez años que tiene el departamento de policía de Los Ángeles. De
c http://neofronteras.com - Creado con LATEX y paperTEX
todos modos, esperan perfeccionar el modelo más adelante y así mejorar las predicciones. Lo que quizás sea más interesante es que el modelo podría ser capaz de predecir donde se están formando los puntos calientes subcríticos y así la policía podría atajar el problema antes de que empeore. Sin embargo, los autores del mismo se muestran más cautos, aunque optimistas. Como este tipo de estudio acaba de empezar, los investigadores necesitarán años hasta que se comprenda la dinámica fundamental de los sistemas en los que se da el crimen y poder así hacer buenas predicciones y diseñar estrategias adecuadas. En Biología o Ingeniería han trabajado sobre este tipo de modelos desde hace décadas y llevan ventaja. Entre los objetivos de estos investigadores estaría explicar por qué si a uno le roban la casa es posible que le suceda de nuevo o le pase a su vecino. Quizás los ladrones se sienten cómodos en el vecindario. Sostienen que el cálculo que hay detrás de ese comportamiento, de entrar en un área en la que crean escapar impunes, es el mismo que hay detrás de la gente que busca peleas en bares o planea atentados terroristas con bombas. El trasfondo es que el comportamiento humano en estos casos no es tan complejo como se cree, sobre todo cuando no se pretende explicarlo todo (no se pretende decir si un individuo en concreto cometerá un crimen). Hay aspectos del comportamiento humanos que pueden ser entendidos fácilmente con una estructura matemática formal. Según los autores, son precisamente estas regularidades del comportamiento las que se pueden comprender matemáticamente. Enlace: http://neofronteras.com/ ?p=3026 Fuentes y referencias: Nota de prensa de UCLA. Artículo original en PNAS (resumen).
NeoFronteras Trimestral
Matemáticas
2010 Edición de invierno 41 / 114
MATEMÁTICAS
Cine y Matemáticas Descubren que las películas han evolucionado en el tiempo para que la duración se sus secuencias se ajusten al patrón de atención humano. J. J. Moreno, NeoFronteras
dad de Cornell (Ithaca, Nueva York) han descubierto que el cine de Hollywood sigue una estadística que encaja cada vez mejor con nuestra capacidad de mantener la atención. Aunque, naturalmente, los directores, productores y montadores no son conscientes de ello, el cine sigue una ley matemática en este aspecto. En el estudio analizaron 150 películas estrenadas entre 1935 y 2005, tanto dramáticas, como comedias, como de acción, midiendo la duración de sus secuencias (un trabajo un tanto laborioso). El patrón que encontraron seguía el mismo que controla la atención humana y que fue descubierto en los años noventa en la Universidad de Texas gracias a cientos de pruebas con unos voluntarios: el ruido rosa.
Las películas cinematográficas se montan a partir se muchas secuencias. Salvo que la película sea una excentricidad sueca, koreana, vietnamita o iraní, de esas que tanto gustan a los críticos y tanto torturan al público, normalmente se trata de mantener la atención de la audiencia administrando convenientemente la duración de esas secuencias. Los humanos somos unos seres que normalmente huimos del aburrimiento y nos podemos cansar de casi todo (incluso de nuestra pareja). Una película con todas las escenas de una duración determinada nos aburriría, independientemente del tiempo de duración de las escenas o de la propia película. Pues bien, James Cutting y su equipo de la Universi-
El análisis matemático se hizo echando mano de la transformada de Fourier que permite obtener el espectro de frecuencias de fenómenos oscilatorios. Comprobaron que la intensidad de las “ondas” aumentaba según decrecía su frecuencia, un patrón conocido como ruido rosa o fluctuaciones 1/f. Es el mismo patrón que, por ejemplo, Benoit Mandelbrot (el del conjunto homónimo) encontró en las inundaciones anuales del Nilo (antes de que la presa de Asuán las anulara y destruyera con ello la fertilidad de las tierras que antes anegaba). También se usa en música como señal de prueba en mediciones acústicas. El espectro del ruido rosa es semejante al espectro medio acumulado de la música sinfónica o de instrumentos armónicos como el piano o el órgano. También aparece en procesos físicos turbulentos. Se llama ruido rosa por una analogía con la luz, pues la luz blanca estaría enriquecida con rojos (frecuencias bajas) si se comportara como este tipo de ruido, y aparecería entonces de color rosa.
En el estudio analizaron 150 películas estrenadas entre 1935 y 2005, tanto dramáticas, como comedias, como de acción. Lo más interesante es que encontraron que las películas han evolucionado en el tiempo y cada vez se ajustan más al ruido rosa 1/f. Cutting cree que la obediencia de las películas a ley 1/f se debe a que resuenan con el ritmo y duración de la atención humana. Asumido esto inconscientemente por los profesionales del medio, se impondría esta ley tanto al filmar como en la sala de montaje para así tener más audiencia.
calidad cinematográfica) como “Star Wars Episodio III” sigue la ley 1/f casi a la perfección. Quizás, al final, puede que los críticos tengan algo de razón, aunque una película iraní siga siendo una tortura para muchos. Enlace: http://neofronteras.com/?p=3017
Fuentes y referencias: Copia artículo original (en pdf). Foto de cabecera: cartel de la película “Los sobornados”, Aunque películas de acción como “La jungla de cris- Columbia Pictures. tal II” siguen la ley 1/f bastante bien, admirablemente lo rosa y lo negro no parecen relacionarse bien, ya que la exNota: cepción son precisamente las películas de cine negro, que En general una película está compuesta por actos, que a generalmente no obedecen esta ley 1/f, y cuyas secuencias su vez se componen se secuencias, que a su vez se composiguen más bien un patrón aleatorio. Por otro lado, una nen de tomas, que a su vez se componen de fotogramas. película en las antípodas (de temática y probablemente de En este estudio se han fijado concretamente en las tomas c http://neofronteras.com - Creado con LATEX y paperTEX
NeoFronteras Trimestral
Matemáticas
para el análisis. Para ello tuvieron que desarrollar un software que detectaba las tomas, porque los existentes no funcionaban bien. En un primer paso usaron un análisis de autorregresión (una herramienta matemática) con el que descubrieron que con el tiempo se han ido montando las películas de tal modo que se producen agregados de tomas de similar longitud. Los tiempos de duración de las tomas y cómo esa duración fluctúa en el tiempo se puede considerar como si fuese un movimiento ondulatorio. Así que hicieron además un análisis de Fourier de los datos obtenidos para calcular los espectros de frecuencia de las películas y ver a que tipo se ajustaban. Este espectro representaría, más o menos, la relación entre la longitud de las tomas y cómo de frecuentemente aparecen. Vieron que este espectro había evolucionado en el tiempo y que ca-
2010 Edición de invierno 42 / 114
da vez se ajustaba mejor a la relación de la inversa de la frecuencia (1/f) del ruido rosa. Este tipo de ruido se encontró anteriormente en individuos que observaban algo al medir sus tiempos de reacción y cómo éstos fluctuaban. Así que los autores dicen que debe haber de haber una conexión entre las dos. Sin embargo, el comportamiento es más complejo de lo que a primera vista parece. Hay “ventanas temporales” de observación para las cuales las tomas se comportan como ruido blanco (con frecuencias más o menos al azar que proporcionan un espectro plano). Muchas veces el ruido rosa y blanco aparecen mezclados, por lo que los resultados y análisis no son tan categóricos como parece a primera vista, habiendo también gran dispersión estadística, sobre todo entre películas (aunque sean de la misma época).
Comparativa matemática entre distintas películas. Fuente: Attention and the Evolution of Hollywood Film; James E. Cutting, Jordan E. DeLong and Christine E. Nothelfer, Psychological Science published online 5 February 2010.
c http://neofronteras.com - Creado con LATEX y paperTEX
NeoFronteras Trimestral
Química
2010 Edición de invierno 43 / 114
QUÍMICA
La biogasolina un poco más cercana Consiguen obtener biogasolina en un proceso en dos etapas de manera eficiente y barata a partir de azúcares, con lo que la meta de obtener este combustible a partir de desperdicios vegetales está más cerca. J. J. Moreno, NeoFronteras
El segundo paso puede consistir en la fermentación de los azúcares para producir alcohol etílico o etanol. Pero el etanol tiene algunos inconvenientes, como el de poseer sólo dos tercios de la energía de la gasolina. Además, el propio proceso de fermentación y el destilado necesario para separar el alcohol del agua desperdician energía. Ahora, investigadores de University of WisconsinMadison han desarrollado un nuevo proceso en dos etapas que produce, a partir de azúcares y compuestos derivados vegetales (denominados HMF), un producto tan rico en hidrocarburos como la gasolina, con lo que se podría usar el resultado obtenido o “biogasolina” en automóviles y aviones sin ningún problema.
Fuente: Wally Wilhelm/USDA.
Una vez pasada la fiebre de los biocombustibles y llegado a la conclusión de que en su más amplio desarrollo supondrían un desastre para los parajes naturales del planeta, los científicos siguen investigando sobre el uso de desperdicios agrícolas para producir estos biocombustibles. Como ya sabemos, los desperdicios agrícolas están compuestos principalmente por celulosa. La idea es romper los enlaces que hay entre los azucares que forman las largas cadenas de celulosa con una enzima y en un segundo paso usar estos azúcares en la fabricación de biocombustibles.
James Dumesic y sus colaboradores ya habían desarrollado previamente un método para transformar de manera eficiente HMF en alcanos, que son los compuestos que están presentes en la gasolina, pero requería unos productos químicos llamados quetonas muy costosos, y además la reacción no se detenía y seguía produciendo otros compuestos en el proceso, como el ácido fórmico, que no forman parte de la gasolina. Este equipo de investigadores sabía de la existencia de unos catalizadores químicos que a partir de azúcares obtenían compuestos con anillo pentagonal denominados GVL, así que, en lugar de tratar de detener la reacción antes descrita, decidieron determinar si se podría diseñar un sistema para transformar GVL en alcanos líquidos sin necesidad de usar quetonas.
Si tuvieran éxito se tendría un sistema eficiente en tres pasos para transformar, de una manera económica, desperdicios agrícolas en combustibles renovables. Estos investigadores informaron en Science sobre el éxito obtenido en su empresa. Según dicen se puede obtener biogasolina en un proceso en dos fases a partir de HMF procedentes de desperdicios vegetales usando dos catalizadores comerciales baratos. En la primera fase los investigadores hacen pasar una disolución de GVL sobre un catalizador de alúmina-sílice que rompe los anillos de las moléculas de GVL y los transforma en buteno. En la siguiente fase exponen el buteno a alta presión a otro catalizador, produciéndose cadenas largas de alcanos en el proceso. El sistema es muy eficiente, ya que el 95 % de la energía contenida en los GVL termina en los alcanos obtenidos. Además, en el proceso se genera una corriente de dióxido de carbono como subproducto que se puede comprimir y bombear directamente en el subsuelo para su secuestro a largo plazo. La combustión de la biogasolina produce c http://neofronteras.com - Creado con LATEX y paperTEX
también dióxido de carbono, pero como las plantas usaron dióxido de carbono atmosférico para sintetizar la celulosa el balance final de emisión de este gas es negativo. El proceso es impresionante, pero el eslabón débil de la cadena sigue siendo el primero: la transformación de celulosa en HMF de manera eficiente y robusta. Dumesic dice que él y sus colaboradores están ahora enfocando sus esfuerzos hacia la resolución de precisamente ese desafío. Si tuvieran éxito se tendría un sistema eficiente en tres pasos para transformar, de una manera económica, desperdicios agrícolas en combustibles renovables. Enlace: http://neofronteras.com/?p=3027 Fuentes y referencias: Noticia en science. Artículo original en Science (resumen).
NeoFronteras Trimestral
Química
2010 Edición de invierno 44 / 114
QUÍMICA
Un paso más hacia la fotosíntesis artificial Un nuevo catalizador nos acerca un poco más hacia la meta de producir hidrógeno de manera barata a partir de la luz del sol sin la mediación caras células fotovoltaicas. J. J. Moreno, NeoFronteras
En presencia de luz, un sistema catalizador divide el agua. Fuente: Benjamin Yin.
Desde hace décadas se experimenta con catalizadores que permitan obtener hidrógeno a partir del agua y la luz del sol. El sistema sería muy sencillo: en presencia de luz solar el agua activada por un catalizador se dividiría, produciendo burbujas de hidrógeno y oxígeno que podrían ser utilizados como combustible o para producir electricidad. Por desgracia, pese a que algunos funcionan, no parece que sean muy eficientes o económicos. Sin embargo, con los actuales problemas de crisis energética y cambio climático, este tipo de tecnología ha recibido un nuevo impulso y empiezan a aparecer resultados nuevos y prometedores. Uno de los resultados más recientes al respecto viene de una colaboración entre la Universidad Emory y el Instituto de Química Molecular de París. Han logrado desarrollar un nuevo catalizador de este tipo (o WOC en sus siglas en inglés) que permite la producción de oxígeno, y que sería más económico y rápido que otros desarrollados con anterioridad. El logro fue publicado en Science el pasado
11 de marzo. Algunos sistemas que se desarrollaron en el pasado permitían solamente la producción de hidrógeno, mientras que el oxígeno se combinaba con el catalizador destruyéndolo en el proceso, por lo que al cabo de un tiempo la producción de hidrógeno se detenía. Encima, algunos de estos catalizadores estaban basados en elementos caros como el platino. Para que un catalizar WOC sea viable necesita ser selectivo, estable y rápido. Además, la homogeneidad también es deseable, ya que aumenta la eficacia y hace que el catalizador sea más fácil de estudiar y optimizar. El nuevo catalizador tiene todas estas cualidades y está basado en un elemento como el cobalto que no es muy escaso en la corteza terrestre. Potencialmente podría ayudar al desarrollo de la energía solar. La idea de este tipo de catalizadores es imitar la fotosíntesis, que se produce de manera natural en las plantas, para producir combustibles de una manera limpia. El próximo paso de este grupo de investigadores consistirá en la incorporación de este tipo de catalizador en un sistema de fotólisis de agua alimentado por energía solar. A largo plazo la meta es producir oxígeno e hidrógeno a partir del agua y cuya combinación en una célula de combustible produciría electricidad. El hidrógeno también podría ser utilizado como combustible en una máquina térmica o para la producción de otros combustibles. En el balance final no habría emisión de gases de efecto invernadero, obteniéndose otra vez agua como producto final. Los desafíos técnicos principales para lograr un sistema de producción de energía de este tipo son el desarrollo de un colector de luz solar, un catalizador para producir oxígeno tipo WOC (como el recientemente conseguido) y un catalizador para producir hidrógeno. Los tres componentes necesitan ser mejorados, pero el catalizador tipo WOC es el más difícil de
c http://neofronteras.com - Creado con LATEX y paperTEX
conseguir. El objetivo de estos investigadores era conseguir un catalizador WOC libre de estructura orgánica, debido a que los componentes orgánicos se combinan con el oxígeno y se autodestruyen en el proceso. Las enzimas son catalizadores naturales, pero las enzimas naturales que forman parte del sistema fotosintético de las plantas son las menos estables de la Naturaleza y unas de las de más corta vida debido a que realizan la función más dura de todas. Craig Hill, de la Universidad de Emory y participante en el proyecto, dice que han logrado duplicar este proceso natural mediante el copiado de las características esenciales de la fotosíntesis y usándolas en un sistema sintético libre de carbono. El WOC que han conseguido es mucho más estable que su correspondiente enzima natural. Hasta ahora se han desarrollado unos 40 catalizadores de tipo WOC, pero todos ellos tenían serias limitaciones, como el contener componentes orgánicos que se oxidaban durante el proceso. Hace dos años este mismo grupo de investigadores desarrollaron un catalizador homogéneo, rápido y libre de carbono pero que estaba basado en rutenio, que es un elemento escaso y caro. A partir de entonces han experimentos con cobalto, que es mucho más abundante (no tanto como creen los investigadores) y barato que el rutenio. Este nuevo catalizador ha demostrado incluso ser más rápido que el basado en rutenio. Enlace: http://neofronteras.com/ ?p=3046 Fuentes y referencias: Nota de prensa de Universidad de Emory. Artículo original en Science (resumen). Web sobre energía limpia en Universidad de Emory.
NeoFronteras Trimestral
Biología
2010 Edición de invierno 45 / 114
BIOLOGÍA
Higueras castigadoras Las higueras castigan a las avispas que no cooperan correctamente con ellas y tratan de obtener beneficios sin pagar el precio acordado. J. J. Moreno, NeoFronteras
De entre todas las frutas, los higos son aquellos cuya historia es mejor olvidar a la hora de comérselos. Pero son un bello ejemplo de colaboración o cooperación entre especies muy distintas. Las higueras, pese a lo que parece, son unos árboles muy modernos. La carencia de flores es sólo aparente, pues éstas se encuentran en el interior de los higos inmaduros. El problema viene a la hora de polinizarlas. Las higueras han encomendado la tarea de su polinización a las avispas. Es aquí donde la historia se hace interesante, representando el ejemplo favorito de relación mutuamente beneficiosa entre dos especies. El higo inmaduro constituye el lugar donde determinadas especies de avispas van a poner los huevos, un sitio que sus larvas van a considerar acogedor para crecer, pues están protegidas y tienen aporte de comida. La maduración del higo, la cría de las larvas de avispa y la generación de polen están sincronizadas de tal modo que las avispas pueden polinizar las flores de otros higos. La higuera proporciona el incentivo de comida gratis y un refugio, pero a cambio consigue la polinización cruzada. Este tipo de relación se remonta a hace unos 80 millones de años, cuando se cree que surgió por primera vez. Pero esto no siempre es así. Como en toda relación social compleja siempre puede haber tramposos que quieran aprovecharse del sistema y obtener los beneficios sin pagar un precio. En este caso puede haber avispas que quieran usar los higos, pero que no quieran polinizarlos. La higuera se las ha ingeniado para crear un sistema de castigo para que la simbiosis no se transforme en parasitismo: dejar caer los higos que no han sido polinizados por la avispas, matando así a su descendencia. Este castigo podría ser esencial a la hora de mantener la relación tal y como es. Charlotte Jandér, del Smithsonian Tropical Research Institute, publica en Proceedings of the Royal Society
este hallazgo sobre el destino de la descendencia de las avispas tramposas. Jandér evaluó la habilidad de seis especies diferentes de higueras para regular la relación y evitar a las avispas tramposas. Introdujo manualmente avispas libres de polen y avispas que portaban polen en unas bolsas especiales que rodeaban ramas de higuera con sus respectivos higos. Las avispas se abrieron paso al interior de los higos para depositar allí sus huevos. La investigadora pudo comprobar que la higuera dejaba caer los higos en los que se habían introducido avispas libres de polen antes de que las crías de avispa maduraran.
Higos. Fuente: Marcos Guerra.
Algunas especies de avispas transportan el polen de manera pasiva en sus cuerpos, mientras que otras lo recolectan activamente en unos receptáculos especialmente diseñados. Cuando las avispas gastan tiempo o energía en recolectar polen son premiadas, cuando no es así son sancionadas. Curiosamente, en los casos de polinización pasiva, en los que las avispas no necesitan realizar ningún esfuerzo, el castigo está ausente, incluso cuando no hay polinización. Parece que la sanción está presente sólo en los casos en los que ésta es necesaria o tiene sentido aplicarla. Según esta investigadora la sanción parece ser una fuerza necesaria en el mantenimiento de ésta y otras relaciones de beneficio mutuo. Según ella, en su estudio vieron menos engaño cuando las sanciones eran más fuertes. Resultados similares se han en-
c http://neofronteras.com - Creado con LATEX y paperTEX
contrado en las sociedades humanas y en los insectos sociales. “Es muy atractivo pensar que los mismos principios generales podrían ayudar a mantener la cooperación tanto entre las especies como dentro de ellas”, afirma. Aclaración sobre la higueras cultivadas: Las higueras que se cultivan para producir higos son en realidad mutantes de higueras silvestres. Se cree que se empezaron a cultivar por esquejes hace unos 10.000 años. Son una variedad llamada partenocárpica, en la que la fruta madura sin necesidad de polinización. Además se queda pegada al árbol y su fruto es más dulce y agradable. Este tipo de higueras domesticadas son estériles ya que no producen semillas, recordemos que las reproducimos por esquejes. En las silvestres, cuando la avispilla pone los huevos (y deposita el polen) la higuera premia a las larvas produciendo un fruto más suculento que se queda en la rama y no cae al suelo. A la vez que las larvas crecen se producen las semillas. En realidad, para el caso de la variante mutante que cultivamos, el árbol “se equivoca” y produce un premio similar al destinado a las avispas sin que medie contraprestación alguna. En la naturaleza esta variedad mutante habría desaparecido en la primera generación. ¡Suerte que alguien la encontró y cultivó! Aunque dado el éxito del cultivo, la higuera doméstica sí saca algo de esta nueva relación simbiótica, pues se reproduce gracias al ser humano, aunque se obtengan clones. Nuestro papel es similar al de las avispas. Otros mutantes que también comemos: almendras dulces, nectarinas, plátanos. . . Enlace: http://neofronteras.com/ ?p=2974 Fuentes y referencias: Nota de prensa en EurekaAltert. Artículo en Proceedings of the Royal Society (resumen).
NeoFronteras Trimestral
Biología
2010 Edición de invierno 46 / 114
BIOLOGÍA
Sobre el origen de las branquias Las branquias podrían haber aparecido por la necesidad del intercambio iónico entre el cuerpo del pez y el medio que lo rodea, en lugar por la necesidad de el intercambiar de gases. buscarla en el equilibrio químico que el pez debía de mantener con su entorno. De este modo las branquias primitivas ayudarían al intercambio de iones de sodio y potasio entre el cuerpo y el agua. Cosa que sucedería, por ejemplo, al cambiar de un ambiente más marino a otro más fluvial o viceversa. Esta función de intercambio iónico la pueden llevar a cabo las larvas a través de la piel o los peces con estructuras branquiales denominadas cestas branquiales. Según Rombough se acumulan las pruebas que apuntan a que las branquias habrían evolucionado para este menester, haciéndose más complejas con el tiempo y finalmente siendo reutilizadas para el intercambio de oxígeno. La evolución transcurre por caminos impredecibles. EsRombough y sus colaboradores han estudiado la trutamos acostumbrados a creer que las disposición de los cha arco iris, que es un animal típico de laboratorio, para órganos o su arquitectura son perfectas, que son el resulaportar más pruebas. La idea era ver si las branquias sirtado perfecto de millones de años de evolución biológica. vieron o no como intercambiadores de iones en un princiPero esto no es así. Todo fruto evolutivo es el resultado de pio. Si esto fue así todavía deberían retener parte de esta un compromiso entre lo que se quiere lograr, y que dotará facultad. de un mayor éxito reproductor a la especie de turno, y aquello de lo que se parte. Se acumulan las pruebas que apuntan a que las Un organismo es como una casa remodelada una y otra branquias habrían evolucionado para el vez con el paso de los años, con nuevas habitaciones añaintercambio iónico. didas, algún tabique menos en algún otro sitio, una cocina convertida en cuarto de baño, etc. Desde el punto de vista Colocaron las truchas en un contenedor con dos combiológico no se derriba nunca la casa y se construye otra partimentos, uno para la cabeza donde están las branquias desde cero, sino que se reutiliza lo que hay, incluso pay otro para la cola. Entonces midieron los niveles iones y ra funciones distintas para las que fueron concebidas en de oxígeno en ambos sitios. Después de 15 días las branun principio. A veces lo obtenido no es tan perfecto como quias estaban intercambiando más iones que el resto del cabría esperar. cuerpo. Se necesitó otros 10 días para que sucediera lo Las alas de las aves fueron una vez los brazos de algún mismo con el oxígeno. Esto sugeriría que las branquias se dinosaurio, y probablemente sus plumas fueron diseñadas desarrollaron primero para el intercambio de iones y luego primero como aislante térmico o en rituales de apareafueron “recicladas” para el intercambio gaseoso. miento antes que para el vuelo. Hay multitud de ejemplos Algunos investigadores apuntan que sería interesante al respecto, ¿son las branquias uno de ellos? estudiar los genes implicados para ver qué genes apareLa lógica y los libros de texto nos dicen que las bran- cieron primero, si los del intercambio de iones o los relaquias de los peces surgieron o evolucionaron para que los cionados con el intercambio gaseoso, así como estudiarlo peces (o sus ancestros) pudieran respirar. Pero según nue- en peces con diseño más primitivo, como la lamprea o el vos estudios realmente emergieron para ayudar a mantener esturión. el equilibrio químico u osmótico con el ambiente. Rombough apunta, por otro lado, a la contaminación Peter Rombough, de Brandon University en Manito- industrial como una gran causa de preocupación. La acba (Canadá), y sus colaboradoran así lo mantienen en un tividad humana está envenenando las aguas del mar con artículo publicado en Proceedings of the Royal Society B. metales pesados. Las larvas de peces, que dependen de las Según la teoría aceptada tradicionalmente, las bran- branquias para intercambiar iones con sólo dos semanas quias surgirían como estructuras muy simples para ayudar de edad, pueden ser mucho más vulnerables a este tipo de en la respiración en los antepasados de los peces. Luego, contaminantes de lo pensado. Si se bloquea el intercambio según éstos evolucionaban hacia seres más activos debido iónico los peces simplemente mueren. a los hábitos de depredación, se fue incrementando el tamaño y complejidad del sistema branquial para así captar Enlace: http://neofronteras.com/?p=2973 más oxígeno del agua. Fuentes y referencias: En la última década se han propuesto teorías alterna- Noticia en Science. tivas en las que se decía que quizás la mejor explicación Artículo en Proceedings of the Royal Society B (resupara el origen de estas estructuras anatómicas habría que men). J. J. Moreno, NeoFronteras
c http://neofronteras.com - Creado con LATEX y paperTEX
NeoFronteras Trimestral
Biología
2010 Edición de invierno 47 / 114
BIOLOGÍA
Sobre la reproducción asexual y sexual Dos resultados recientes intentan explicar por qué la reproducción sexual es tan frecuente y por qué hay algunos casos de reproducción asexual. J. J. Moreno, NeoFronteras
a nuevas y antiguas enfermedades. También nos dicen que las especies que se reproducen sexualmente pueden evolucionar más rápidamente, aunque el mecanismo mediante el cual hay una selección natural de los propios mecanismos evolutivos está poco claro (¿evolucionan los propios mecanismos evolutivos?). Por otro lado, algunos científicos menos ortodoxos, como Lynn Margulis, ya propusieron hace tiempo que, en realidad, la reproducción sexual se da porque los organismos que la usan están atrapados en ella por ser pluricelulares y que cuando tienen una oportunidad prescinden de ella. Ahora veremos dos casos sobre este tema que han aparecido recientemente en la literatura científica. Según Maurine Neiman del UI College of Liberal Arts and Sciences los organismos vivos tienen buenas razones para usar la reproducción sexual. En un artículo publicado en Molecular Biology and Evolution (el artículo aparece en Conchas de distintas variedades de caracoles Pota- portada), ella y sus colaboradores examinan la teoría de mopyrgus antipodarum. Fuente: Cortesía de Univer- la reproducción sexual. sity of Iowa.. El estudio se centra en la reproducción de variedades Siempre se nos ha dicho que la reproducción sexual presen- del caracol de agua dulce de Nueva Zelanda Potamopyrgus ta muchas ventajas sobre otros sistemas de reproducción. antipodarum, que poseen tanto reproducción sexual como La reproducción sexual requiere más tiempo y energía que asexual según a la variedad en particular a la que pertela asexual, pero es mucho más frecuente entre los organis- nezca. En concreto, analizaron el genoma mitocondrial (las mos vivos, así que debe de proporcionar más beneficios. mitocondrias se heredan siempre por vía materna en caso Al fin y al cabo el sexo es casi ubicuo. de reproducción sexual) de estos caracoles, encontrando Nos dicen que gracias a ella se produce una mayor va- que la reproducción sexual había conseguido acumular la riabilidad genética y así los individuos resultantes pueden mitad de mutaciones dañinas en sus genomas que la reenfrentarse a nuevos problemas, cambios en el entorno y producción asexual.
La reproducción sexual ayuda a evitar la acumulación de mutaciones perjudiciales. Éste es el primer estudio en comparar la acumulación de mutaciones en una especie cuyos individuos coexisten tanto en reproducción asexual como sexual. Neiman sostiene que esto constituye la primera prueba directa de que la reproducción sexual ayuda a evitar la acumulación de mutaciones perjudiciales. Neiman planea continuar su investigación sobre evolución para aclarar las ventajas que ofrece la reproducción sexual y una mejor comprensión del valor de la conservación de la diversidad genética dentro de las poblaciones, especies y comunidades ecológicas. Por otro lado, los rotíferos de la clase Bdelloidea no han usado la reproducción sexual durante 30 millones de años (algunas fuentes dicen que durante 40 millones de años o más). Según las supuestas ventajas de la reproducción sexual, estos animales microscópicos pluricelulares de c http://neofronteras.com - Creado con LATEX y paperTEX
agua dulce deberían haber desaparecido hace tiempo. Estos invertebrados emplean un sistema curioso para librarse de los patógenos: se dejan secar y llevar por el viento, una vez que entran de nuevo en contacto con el agua dulce vuelven a la vida. En NeoFronteras ya publicamos hace tiempo unos resultados interesantísimos sobre transferencia horizontal de genes en estos invertebrados. Paul Sherman y Chris Wilson, ambos de Cornell University, han realizado experimentos sobre los animalillos mencionados, publicando los resultados en Science (aparece también en portada). Estos rotíferos han confundido a los científicos durante mucho tiempo, pues son animales completamente asexuales. Deberían de haber sido víctimas de parásitos y patógenos hace mucho tiempo, pero en su lugar han proliferado en 450 especies distintas. Estos animales se reproducen por clonación y, en teoría, conservan las misma carga ge-
NeoFronteras Trimestral
Biología
nética generación tras generación, salvo por el efecto de las mutaciones ocasionales (o de la transferencia horizontal de genes). Recordemos que la reproducción sexual, al tener copias de los genes del padre y de la madre, efectúa una nueva combinación genética para la descendencia. Se cree que este “barajado” de genes proporciona una defensa frente a parásitos y patógenos. Quizás el hecho de que estos animalillos se dejen desecar y llevar por el viento a otros lugares compense
2010 Edición de invierno 48 / 114
la supuesta escasa variabilidad genética y resuelva el misterio. Wilson infectó a propósito poblaciones de rotíferos con un hongo letal y encontró que todos morían al cabo de unas pocas semanas. Entonces desecó otras poblaciones infectadas y los mantuvo en ese estado durante diversos periodos de tiempos. Descubrió que cuanto más tiempo habían permanecido desecados más éxito tuvieron a la hora de volver a la vida, libres de infección, una vez les proporcionó agua.
Rotífero infectado por hongos. Fuente: cortesía de Kent Loeffler, Kathie T. Hodge y Chris Wilson.
En una segunda tanda de experimentos Wilson dispuso de rotíferos deshidratados e infectados por el mismo hongo en una cámara de viento. Pudo comprobar que los rotíferos fueron capaces de dispersarse y establecer nuevas poblaciones libres del hongo asesino. Después de siete días de viajar en el viento se conseguían tantos rotíferos libres del hongo como 3 semanas de deshidratación sin viento. Por tanto, la desecación y el viaje con el viento proporcionaba la oportunidad de prosperar sin las presencia de esa infección, permitiendo la aparición de poblaciones sanas. Según Sherman estos animales están jugando esencialmente un juego evolutivo de escondite en el espacio y en el tiempo. Pueden dejarse llevar por el viento para así colonizar parches de hábitat libres de parásitos donde se puedan reproducir rápidamente (gracias a su reproducción asexual) y partir de nuevo a otros lugares antes de que el
c http://neofronteras.com - Creado con LATEX y paperTEX
parásito los ataque. Esto les permite evadir a sus enemigos sin la necesidad de reproducción sexual, empleando un mecanismo que ningún otro animal puede usar. Enlace: http://neofronteras.com/?p=2992 Fuentes y referencias: Nota de prensa de la Universidad de Iowa. Accelerated Mutation Accumulation in Asexual Lineages of a Freshwater Snail (resumen). Nota de prensa de Cornell University. Anciently Asexual Bdelloid Rotifers Escape Lethal Fungal Parasites by Drying Up and Blowing Away (resumen). Entrevista al investigador en la NPR (podcast en inglés). Incorporación natural de ADN foráneo en animal complejo.
NeoFronteras Trimestral
Biología
2010 Edición de invierno 49 / 114
BIOLOGÍA
Sí hay “reina roja” evolutiva en bacterias y virus La evolución de virus está poderosamente controlada por la interacción entre las especies más que por la adaptación al medio. no son capaces de adaptarse a la infección viral. El estudio mostraría por primera vez la hipótesis de los años setenta de “la reina roja”, introducida por Leigh Van Valen. El nombre viene de un pasaje de “Alicia en el país de las maravillas” de Lewis Carroll, en él hay un personaje -la Reina Roja- que explica precisamente a Alicia que se necesita correr todo lo que se pueda para poder mantenerse en el mismo lugar. Aplicado a la evolución esta hipótesis vendría a decir que las especies están en una constante carrera por la supervivencia y tienen que evolucionar continuamente para poder defenderse a ellas mismas a lo largo del tiempo. Steve Paterson dice que históricamente se asumió que la evolución estaría controlada por la necesidad de adaptarse a medio o al hábitat. La hipótesis de la reina roja desafiaría esta idea apuntando a que realmente la mayor parte de la selección aparecería de las interacciones de coevolución entre las especies y no de la interacción con el medio. Microfotografía de unos virus atacando una bacteria. “Esto sugeriría que los cambios evolutivos se crean por Fuente: Wikipedia. adaptaciones de “toma-y-daca” por especies en combate Científicos de la Universidad de Liverpool proporcionan permanente. Esta teoría es ampliamente aceptada por la una prueba experimental que muestra que la evolución es- comunidad científica, pero esta es la primera vez que hetá poderosamente controlada por la interacción entre las mos sido capaces de mostrar pruebas de ello en un experimento con seres vivos”, dice Paterson. especies más que por la adaptación al medio. Este equipo de investigadores observó la evolución de Estos científicos usaron virus de rápida evolución para virus en cientos de generaciones de bacterias infectadas por poder observar cambios sobre cientos de generaciones en ellos. Encontraron que cuando la bacteria puede desarro- un tiempo prudencial. Como ya hemos visto en NeoFronllar defensas, los virus evolucionan a un ritmo más rápido teras, no es la primera vez que se utilizan microorganismos y generan una mayor diversidad que cuando las primeras para este tipo de experimentos evolutivos. J. J. Moreno, NeoFronteras
En este experimento los virus evolucionaban dos veces más rápido cuando a su vez se permitía a las bacterias evolucionar. Encontraron que para cada estrategia de ataque por parte de los virus, las bacterias se adaptaban para defenderse a sí mismas, disparando un ciclo sin fin de cambios coevolutivos en una especie de carrera de armamentos. Además, compararon este comportamiento con el resultante de tener un blanco fijo mediante la deshabilitación de la maquinaria bacteriana que les permitía adaptarse a los virus. Según estos investigadores los resultados obtenidos mostrarían que la interacción entre especies provoca una mayor diversidad genética en la población comparada con la situación en la que las bacterias son incapaces de adaptarse al ataque del virus. En este experimento los virus evolucionaban dos veces más rápido cuando a su vez se permitía a las bacterias evolucionar. El próximo paso de estos investigadores será entender
c http://neofronteras.com - Creado con LATEX y paperTEX
cómo la coevolución cambia cuando la interacción entre especies se basa en la cooperación en lugar de en el ataquedefensa. Una ida que viene fácilmente a la cabeza es que es más fácil que la evolución esté controlada por las relaciones interespecíficas que por el medio cuando se trata de microorganismos, pues para éstos el medio representa una fracción pequeña de los retos a los que se enfrentan. Quizás, para especies en donde el medio tiene más peso, la coevolución no sea tan importante. Enlace: http://neofronteras.com/?p=3025 Fuentes y referencias: Nota de prensa de la Universida de Liverpool No hay “reina roja” en la especiación.
NeoFronteras Trimestral
Etología
2010 Edición de invierno 50 / 114
ETOLOGÍA
Altruismo en chimpancés silvestres Descubren comportamientos altruistas en chimpancés en el mundo natural. Entre otras cosas algunas veces adoptan a los huérfanos. J. J. Moreno, NeoFronteras
Fredy y Victor. Fuente: Tobias Deschner, Max Planck Institute for Evolutionary Anthropology.
Tras el reciente terremoto de Haití hemos podido ver muestras de solidaridad local e internacional. Personas que altruistamente ayudan a las demás sin esperar nada a cambio, quizás sólo por sentirse bien con ellas mismas. Pero los seres humanos no somos los únicos que nos comportamos altruistamente. Nuestros parientes los chimpancés muestran características que se pueden considerar casi humanas, incluida la del altruismo. Un ejemplo lo tenemos en el caso de Víctor, cuya madre murió de carbunco. Al poco que fue adoptado con gran generosidad por Fredy. Fredy compartió su hogar con Victor cada noche y lo llevó sobre su espalda. Incluso le dio parte de su comida. A pesar de sus nombres humanos, estos personajes son chimpancés, pero son reales. El comportamiento de Fredy sugiere que estos animales son menos egoístas de lo que podríamos pensar, sobre todo si consideramos que esto se dio en el mundo natural y no en una jaula de un zoo. Los investigadores han ido acumulando pruebas de comportamiento altruista en varias especies que incluyen ratas, hormigas y diversas especies de monos. Sin embargo, no está claro que estos comportamientos encajen en la definición científica de altruismo: la ayuda espontánea a los demás sin que se espere ninguna recompensa. Hasta tiempos recientes a los etólogos les ha sido difícil detectar comportamientos altruistas en chimpancés, al menos en estudios en cautividad. Sin embargo, gracias a experimentos más refinados esto ha empezado a cambiar. Algunos de estos estudios los vimos ya en NeoFronteras. Por ejemplo, podríamos recordar un estudio de 2007 realizado por Michael Tomasello, del Instituto Max Planck, y sus colaboradores. En sus experimentos colocaban a un chimpancé en una habitación con una clara visión de unas apetitosas piezas de fruta que estaban fuera de su alcance al otro lado de una puerta cerrada. Un segundo chimpancé tenía la posibilidad de abrir la puerta al primero para que así se hiciera con la fruta, pero no recibía nada a cambio. c http://neofronteras.com - Creado con LATEX y paperTEX
En el 80 % de las veces el segundo chimpancé era generoso y ayudaba al primero, pese a no recibir recompensa. Sin embargo, estos experimentos se realizaron con animales en cautividad cuyo comportamiento puede estar contaminado por su exposición a los humanos y no reflejar un comportamiento natural real. Así que Tomasello y Christophe Boesch se pusieron a buscar pruebas de comportamiento altruista en chimpancés silvestres. Durante 3 décadas Boesch y su equipo han estado estudiando chimpancés en el parque natural de Taï, en Costa de Marfil. Observaron 18 casos de chimpancés adultos que adoptaban crías cuyas madres habían muerto. Consideraron adopción como el comportamiento que un adulto muestra hacia un huérfano durante al menos 2 meses y que comprende el compartir comida y esperar a la cría para que alcance al grupo mientras viaja a un nuevo sitio. Este tipo de comportamiento es el mismo que mostraría una madre frente a sus pequeños. En 10 de esos 18 casos fueron machos los que efectuaron la adopción. Esto es algo bastante sorprendente si tenemos en cuenta que los machos de chimpancé hacen más bien poco por su propia descendencia. La duración de estas adopciones estuvo comprendida entre los 3 meses y los 5 años y era costosa en tiempo, comida y problemas para los que adoptaban. En una ocasión, por ejemplo, Fredy tuvo que abrir 196 nueces para compartirlas con Victor. Este comportamiento entre el adoptado y el su padre sustituto es un signo claro de altruismo, según estos investigadores. Boesch sostiene que el altruismo puede no mostrarse tan frecuentemente en cautividad porque los animales en ese estado no necesitan ayudarse entre sí para sobrevivir. Sin embargo, no todos los investigadores están de acuerdo con esta conclusión. Joan Silk, de University of California en Los Ángeles, no duda de que haya comportamientos altruistas, pero que quedan cuestiones sin resolver. Cree que puede que los chimpancés que adoptan sí esperan una recompensa de algún tipo, como mayores favores en el acicalamiento por parte de los demás o más aliados en sus guerras sociales. Derek Penn, de University of Louisiana, dice que 18 adopciones en 27 años de estudio son muy pocas, sobre todo si se tiene en cuenta que algunas de las adopciones fueron efectuadas por familiares muy cercanos. Quizás las adopciones fueran el resultado de confundir a los huérfanos con su propia descendencia, dice Penn. Enlace: http://neofronteras.com/?p=2989 Fuentes y referencias: Noticia en Science. Artículo en PLoS One. Chimpancés cooperativos y altruistas. Altruismo en chimpancés.
NeoFronteras Trimestral
Etología
2010 Edición de invierno 51 / 114
ETOLOGÍA
Reconocimiento facial en las abejas Las abejas, con su diminuto cerebro, son capaces de reconocer imágenes arregladas a modo de rostros humanos. J. J. Moreno, NeoFronteras
“The Bee in Tradescantia” por fesoj vía flickr.
Cualquiera que haya trabajado en el reconocimiento de formas o caracteres sabe que es una tarea difícil, al igual que el reconocimiento de caras. Los programas informáticos que tratan de efectuar esas tareas son complejos y exigen un hardware potente. Por eso, cuando Adrian Dyer de Monash University entrenó a unas abejas para que asociaran caras humanas representadas en fotos con un premio azucarado hubo cierta sorpresa, sobre todo cuando estos insectos no necesitan reconocer caras humanas en su vida diaria. Martin Giurfa, de la Universidad de Toulouse, se enteró de este resultado y se puso a pensar sobre el asunto. Obviamente las abejas no reconocían caras humanas como tales, lo más probable, era que las abejas simplemente habían sido entrenadas a reconocer algo que, al fin y al cabo, para ellas eran unas “flores” un poco más raras que las demás. La cuestión más importante era saber qué estrategia usaban para discriminar caras. Giurfa se preguntó si las abejas aprendían a reconocer configuraciones de arreglos relativos de rasgos faciales. Así que este francés contactó con Dyer y sugirió que comprobarán de una manera sistemática qué rasgos aprendían las abejas a reconocer en las fotos de caras del experimento de Dyer. Los resultados obtenidos los han publicado recientemente (ver referencias). Junto con Aurore Avargues-Weber, estos investigadores primero comprobaron si las abejas podían aprender a distinguir entre imágenes simplificadas de caras. Estas imágenes simplificadas consistían en dos puntos que simbolizaban los ojos, una línea vertical que simbolizaba la nariz y otra horizontal para la boca. c http://neofronteras.com - Creado con LATEX y paperTEX
Se consiguió que las abejas distinguieran entre dos tipos de caras simbólicas. Las abejas retornaban a aquel tipo de cara que las recompensaba con el premio azucarado. Así que las abejas distinguían patrones que estaban organizados a modo de caras humanas, pero ¿podrían aprender a categorizar caras?, ¿podrían ser entrenadas a distinguir entre patrones que simbolizan caras de otros que no lo hacen?, ¿podrían decidir si una imagen pertenece a una clase o la otra? Para responder a estas preguntas Avargues-Weber entrenó a las abejas mostrándolas cinco pares de imágenes diferentes, en donde una imagen era siempre una cara y la otra un patrón de puntos y líneas. Recompensaba a las abejas cuando visitaban las caras y no cuando visitaban las otras imágenes. Más tarde, una vez entrenadas, se les mostró un juego completamente nuevo de imágenes que no habían visto antes. Las abejas reconocieron y escogieron las fotos con las caras y no las demás. Por tanto, las abejas no aprendían a memorizar imágenes, sino que aprendían los arreglos relativos de los rasgos que aparecían en las fotos, y aprendían a reconocer aquellos que para nosotros simbolizan caras. ¿Cómo de robusto es este sistema de reconocimiento en las abejas?, ¿funcionarían igual con caras más complejas? Para responder a estas preguntas los investigadores embebieron las caras simbólicas en fotos con forma de rostros. Las abejas volvieron a reconocer las caras de puntos y rayas, pero cuando se movían lo suficiente las posiciones relativas de estos puntos y rayas (ojos, nariz y boca) las abejas ya no reconocían esas imágenes como caras y las trataban con un patrón desconocido. Las abejas aprender a reconocer patrones (incluso aquellos que se asemejan a rostros humanos) porque esta capacidad es la misma estrategia que les sirve para sobrevivir en el mundo natural, en donde tienen que reconocer entre diferentes tipos de objetos, como las flores. Aunque las abejas reconocen patrones que simbolizan rostros humanos, esto no significa que puedan reconocer rostros específicos de personas individuales, pero los investigadores no informan de experimentos realizados para demostrar este punto. Lo verdaderamente sorprendente es que las abejas tienen esta capacidad de reconocimiento con un cerebro minúsculo, cuando nosotros tenemos una buena proporción del nuestro dedicado en exclusiva a este tipo de problemas, o usamos programas y ordenadores potentes para lo mismo sin conseguirlo de manera efectiva. Girfa sostiene que si queremos desarrollar sistemas automáticos de reconocimiento facial podríamos aprender mucho de la abejas. Enlace: http://neofronteras.com/?p=3015 Fuentes y referencias: Nota de prensa., Artículo original en Journal of Experimental Biology
NeoFronteras Trimestral
Genética
2010 Edición de invierno 52 / 114
GENÉTICA
Nuestro genoma procede en un 8 % de virus Nada menos que un 8 % de nuestro genoma está compuesto por secuencias genéticas de origen vírico, heredadas de nuestros más remotos antepasados durante millones de años. J. J. Moreno, NeoFronteras
Modelo de bornavirus. Fuente: Wikipedia.
¿Qué es el hombre? Sabemos que esta pregunta casi ha monopolizado el pensamiento humano desde que empezamos a tener escritura, pero quizás alguno de nuestros antepasados del Paleolítico ya se la planteaba al calor del fuego de campamento bajo un firmamento tachonado de estrellas. Probablemente ya en esa época nos autocolocamos en un sitio especial de esta supuesta creación, como hijos de los dioses que soñamos ser. A partir de entonces, sobre todo desde el descubrimiento del método científico, estamos realizando un viaje que nos aleja cada día más de esa supuesta divinidad. No sólo la Tierra no está en el centro del Sistema Solar, ni el Sol ni nuestra galaxia ocupan ningún centro de nada. También somos el producto de una evolución biológica guiada por reglas darwinistas ciegas, producto de una multitud de contingencias. Compartimos con el resto de animales muchas bases neurológicas, e incluso nuestro lenguaje y cultura no son sino un producto mejorado y ampliado de los mismos mecanismos que ya están presentes en otros seres. Los ejemplos son múltiples y cada día habrá más. Al nacer multitud de bacterias nos colonizan. Algunas de ellas nos benefician, otras, más oportunistas, nos atacan. Usted tiene 10 bacterias por cada célula somática de su cuerpo. Se calcula que un apreciable porcentaje de su peso lo forman esas bacterias. También los virus nos atacan, conquistando por un tiempo la maquinaria genética de nuestras células. Una historia tan larga de infecciones no puede haber dejado ninguna señal o resto sobre nuestros genes. Ahora, un estudio reciente ha cuantificado cuánto de nuestro genoma está formado por secuencias genéticas proce-
c http://neofronteras.com - Creado con LATEX y paperTEX
dentes de un determinado tipo de virus. Nada menos que un 8 % de nuestro genoma está compuesto por secuencias genéticas de origen vírico, heredadas de nuestros más remotos antepasados durante millones de años. Cédric Feschotte y Keizo Tomonaga, de la Universidad de Texas y Osaka respectivamente, publican el estudio en Nature. Estos investigadores muestran que tanto en el genoma humano, como en el de otros mamíferos, hay secuencias que derivan de la inserción de bornavirus, que son virus de ARN cuya replicación y trascripción sucede en el núcleo celular. Según ellos, estos genes pueden causar mutaciones que pueden también derivar en enfermedades y desórdenes psíquicos, especulando así sobre sus consecuencias médicas. La asimilación de secuencias víricas en el genoma receptor se denomina endogenización. Ocurre cuando el ADN vírico se integra dentro de los cromosomas de las células reproductivas que generan los óvulos o espermatozoides. Por tanto, son transmitidos a la siguiente generación. Hasta ahora se creía que sólo los retrovirus eran capaces producir este proceso en los vertebrados. Pero estos investigadores han demostrado que también los no retrovirus, como los bornavirus, son capaces de lograr el mismo resultado. Los bornavirus (o BDV en sus siglas en inglés) toman su nombre de una ciudad alemana que sufrió una epidemia en 1885 que afectó a los caballos. Los BDV infectan una amplia gama de mamíferos, incluyendo humanos. Son únicos por afectar a las neuronas, consiguiendo establecer una infección persistente en el cerebro del anfitrión. Su ciclo reproductivo transcurre por entero en el núcleo celular. Por tanto, no es de extrañar que estos virus hayan dejado un registro de pasadas infecciones en el genoma de los mamíferos. Un 8 % de nuestro genoma está compuesto por secuencias genéticas de origen vírico. Estos investigadores estudiaron los 234 genomas eucariotas que hasta ahora se han secuenciado en busca de cadenas genéticas similares a las que portan este tipo de virus. Encontraron toda una plétora de estas secuencias en muchos mamíferos, así como en el ser humano. Especulan que estas inserciones víricas podrían ser una fuente de mutaciones en las células cerebrales que produjeran diversas enfermedades mentales, como la esquizofenia o los trastornos del ánimo como el trastorno bipolar. De todos modos esta hipótesis, propuesta hace tiempo, es controvertida. Enlace: http://neofronteras.com/?p=2964 Fuentes y referencias: Nota de prensa de la Universidad de Texas., Artículo en Nature., Artículo en Nature.
NeoFronteras Trimestral
Genética
2010 Edición de invierno 53 / 114
GENÉTICA
Estuvimos en peligro de extinción Hace poco más de 1 millón de años los seres humanos casi se extinguen, y su población permaneció baja hasta muy recientemente. J. J. Moreno, NeoFronteras
Unos científicos de University of Utah sugieren que hace 1,2 millones de años la población humana era tan pequeña que se podría considerar en peligro de extinción. En aquel tiempo había unas pocas especies homo, como Homo erectus, H. ergaster y el precursor del H. sapiens, pero totalizaban solamente una población efectiva (un indicador de la diversidad genética) de 18.500 individuos con capacidad reproductora. La población total podría ser de un máximo de 55.000 individuos. Quedan ahora unos 25.000 gorilas con capacidad reproductora y unos 21.000 chimpancés en la misma situación. A estos otros primates ya los consideramos en peligro de extinción, por tanto, nuestros antepasados de hace 1,2 millones de años también lo estarían. Esto contrastaría con la idea que podemos asumir a partir del registro fósil, según la cual, nuestros antepasados se estaban expandiendo a lo largo de África, Asia y Europa. Para poder llegar a esta conclusión estos científicos han utilizado argumentos genéticos. Se sabe que los humanos modernos (pese a nuestro variado aspecto) tienen una variabilidad genética mucho más pequeña que la de otros primates. Para explicar este hecho se han propuesto diversas teorías, como la existencia de cuellos de botella recientes que impidieran a una proporción significativa de la población reproducirse o simplemente vivir lo suficiente para ello, quizás debido a un desastre natural. Pero el estudio genético de Lynn Jorde sugiere que la población humana (y por tanto su diversidad genética) sufrió un retroceso hace poco más de un millón de años. Para poder hacer esta estimación el grupo de investigadores usó los datos procedentes de las dos secuenciaciones completas del genoma humano que hay. En particular buscaron elementos genéticos móviles denominados “secuencias Alu”, que son secuencias de ADN que se mueven entre distintas regiones del genoma, pero lo ha-
cen a un ritmo muy bajo. Se mueven muy de tarde en tarde, y una vez que lo hacen permanecen en la región durante generaciones, actuando como marcadores al igual que los fósiles en los estratos. Luego su presencia denota una edad muy antigua para la región en la que se encuentran. Como estas regiones han sido modificadas hace mucho tiempo pueden servir para descartar efectos más recientes del tipo “cuello de botella”.
Las regiones que contienen estas secuencias, al igual que cualquier otra región, han ido acumulado mutaciones a lo largo del tiempo, cuanto más antigua era una región más mutaciones había acumulado. Por tanto, los investigadores pudieron estimar la edad específica de cada región basándose en la diversidad de nucleótidos. Posteriormente compararon los nucleótidos de estas regiones antiguas con la diversidad promedio en los dos genomas secuenciados para así estimar el tamaño de la población efectiva y la diversidad genética de los humanos modernos en relación a la de nuestros antepasados. Estimaron que la población efectiva de hace 1,2 millones de años en unos 18.500 individuos y una diversidad genética de entre 1,7 y 2,9 veces mayor que la actual. Jorde sostiene que el actual tamaño de la población humana se debería al descubrimiento de la agricultura y ganadería hace unos 10.000 años, pero
c http://neofronteras.com - Creado con LATEX y paperTEX
que antes la población humana no debía de ser muy numerosa y que permaneció baja durante más de un millón de años. En cuanto a las causas de esa escasez de humanos, sugiere que hace un millón de años tuvo que haber algún evento que devastara la población humana, como pasó con el supervolcán Toba de Indonesia, que casi aniquiló a todos los humanos de hace 70.000 años. Este resultado nos puede sorprender, pero el problema quizás sea el prejuicio “mecaninista” que tenemos respecto a la evolución. Básicamente, la evolución se basa en lo contingente y no podemos predecir qué sucederá en el futuro con seguridad. Y lo contingente afecta a veces negativamente, tanto que el 99,99 % de las especies que han existido están ya extintas. Se puede decir que en una primera aproximación toda especie está ya extinta. Lo más probable es que una especie en peligro de extinción finalmente se extinga. Pero basta que aparezca algo nuevo para que todo se invierta y dure mucho más tiempo, como en nuestro caso con la invención de la agricultura. Por otro lado, aunque una especie sea muy numerosa, cambios minúsculos en el ecosistema o un cambio en el clima debido a un supervolcán pueden hacer que una especie, o varias, desaparezcan para siempre. Hay un pensamiento fabuloso salido de esta lotería. Es el que nos dice que si estamos aquí es porque pertenecemos a una cadena evolutiva ininterrumpida que se remonta al origen de la vida. En ningún momento, ni siquiera por un instante, se rompió ninguno de los eslabones que la forman y que han estado alineados en el tiempo durante estos 3500 millones de años. Bajo este punto de vista, nosotros y todas las especies que nos rodean, somos un milagro. Enlace: http://neofronteras.com/ ?p=2981 Fuentes y referencias: Artículo original en PNAS (resumen), imagen: Wikipedia.
NeoFronteras Trimestral
Genética
2010 Edición de invierno 54 / 114
GENÉTICA
¿Cómo resistieron las primeras plantas la desecación? Logran desentrañar algunos de los mecanismos moleculares implicados en la resistencia de algunas plantas y semillas a la desecación. J. J. Moreno, NeoFronteras
El musgo Physcomitrella patens. Fuente: David Cove
Hace cientos de millones de años se desarrolló una batalla épica en contra de los elementos. La vida, que hasta entonces había prosperado solamente en los océanos, intentaba la conquista de tierra firme. La primera línea de ataque la constituían las plantas, algas sencillas que dieron lugar a los antepasados de los humildes musgos y hepáticas. Casi todo iba en su contra, no tenían raíces, ni sistema vascular, ni semillas, ni tejidos externos resistentes que las protegieran de la extrema desecación y de la intensa radiación solar. Sólo la presión de selección de un ecosistema,
ya repleto en su medio acuático, las empujaba más allá del límite de supervivencia. Si usted, amigo lector, puede leer estas líneas es gracias (entre otros muchos factores contingentes) a que esas plantas tuvieron finalmente éxito y allanaron el camino a otras especies posteriores. Finalmente la vida colonizó tierra firme y sobre ella evolucionaron otros seres más complejos, incluidos los humanos. Pero todavía, en las zonas húmedas de los bosques actuales, perviven los descendientes directos de esos héroes casi anónimos, plantas sencillas que nos recuerdan aquella batalla. Recapacite sobre este hecho la próxima vez que pasee por un bosque de hayas y vea el musgo sobre las ramas y troncos de esos magníficos árboles. ¿Cómo lo consiguieron?, ¿qué armas usaron para tal conquista? Un trabajo reciente realizado por científicos de Washington University en St. Louis arroja un poco más de luz sobre los hechos épicos que se dieron hace 480 millones de años sobre la seca superficie de este planeta llamado Tierra. El mayor desafío al que se enfrentaban las primeras plantas era sobrevivir al desecamiento. Un peligro al que no estaban expuestas en el mar. Tuvieron que desarrollar estrategias que les permitían deshidratarse y rehidratarse cíclicamente y no morir en el proceso. Porque la vida, ante todo, quiere perpetuarse, quiere seguir siendo, seguir sobreviviendo.
Quatrano especula que si logran desentrañar todos los mecanismos que controlan la desecación quizás se pueda crear algún día plantas más resistentes a la sequía. La mejores pistas sobre cómo consiguieron las plantas desarrollar esta estrategia las podemos encontrar en las briofitas actuales, grupo que incluye a los musgos y hepáticas. Los musgos tienen una notable tolerancia a sobrevivir a la sequía. Algunos musgos pueden terminar tan secos que se deshacen entre los dedos que aquel que los agarra, pero si se humedecen vuelven a la vida en minutos, como si de un Lázaro vegetal se tratara, y comienzan otra vez a fabricar proteínas y más tarde a realizar la fotosíntesis. El trabajo que ahora exponemos fue publicado el pasado 29 de enero en la revista Science y revela varios mecanismos bioquímicos que permiten a estos musgos sobrevivir a la desecación. Paradójicamente, las plantas con flores, que son las más modernas que aparecieron en la Tierra, perdieron esta capacidad de sobrevivir a la desecación. Esta tolerancia está limitada solamente a sus semillas, que pueden desecarse c http://neofronteras.com - Creado con LATEX y paperTEX
para pasar el invierno y volver a la vida en primavera. Ralph Quatrano y sus colaboradores decidieron estudiar el musgo Physcomitrella patens, que ha venido usándose como modelo en este tipo de estudios. Intentaban estudiar los diferentes mecanismos moleculares regulatorios que permiten sobrevivir a la desecación tanto en musgos como en semillas y así comprobar si son los mismos. Previamente se había demostrado que la supervivencia de las semillas a la desecación dependían de la hormona ABA y de la molécula regulativa ABI3. Las hormonas vegetales, como las animales, son compuestos químicos que en pequeñas cantidades tienen efectos importantes en el desarrollo y crecimiento. Así por ejemplo, la liberación de hormonas vegetales produce el súbito crecimiento del tallo florar de las lechugas y que hace que dejen ser tan interesantes para su consumo humano. ABI3 es un factor de transcripción, una molécula que
NeoFronteras Trimestral
Genética
se une a secuencias específicas de ADN próxima a un gen, regulando y controlando el copiado del gen en ARN mensajero (este copiado es el primer paso en la síntesis de la proteína codificada por un gen). Se creía que ABI3 y ABA disparaban algunos genes para que expresaran proteínas especiales durante el secado de las semillas y que así protegieran las células. En 1995 Quatrano, David Cove y sus colaboradores demostraron que ABA estaba presente y en funcionamiento tanto en semillas como en P. patens. Más tarde se vio que ABI3 también estaba presente en el musgo, pero que éste tenía al menos tres copias. Al crear un musgo transgénico sin copias de genes de ABI3 en su genoma se pudo separar los papeles de ABA y ABI3 respecto a la tolerancia a la desecación. Técnicamente los musgos pueden ser tolerantes a la sequía o la desecación. P. Patens es tolerante a la sequía, soportando breves periodos de ausencia de agua, pero no es tolerante a la desecación. Tratando a este musgo con ABA se pudo conseguir que fuera más resistente, haciendo que fuera tolerante a la desecación. El mismo tratamiento sobre el musgo transgénico sin ABI3 no aumentaba su resistencia a la ausencia de agua. Por lo tanto, para tener un musgo resistente a la desecación se necesita tanto ABA como ABI3. En el reciente estudio se ha conseguido explicar los caminos moleculares que controlan el sistema ABA/ABI3. Se ha conseguido, por ejemplo, identificar 22 genes regulados por este mecanismo en el musgo, siendo muy similar en las semillas. Se creía que las proteínas codificadas por estos genes protegen las células de las semillas de los daños causados por la pérdida de agua, como pueda ser un mal plegado de las proteínas o la pérdida de integridad de la membrana celular. La sorpresa vino cuando estos investigadores trataron con ABA al musgo transgénico, pues creían que esto no afectaría a ese conjunto de genes. Pero sucedió lo contrario, algo que no tenía mucho sentido. Para resolver el enigma estudiaron los procesos de desc http://neofronteras.com - Creado con LATEX y paperTEX
2010 Edición de invierno 55 / 114
hidratación y rehidratación por separado. En ambos casos, en el musgo natural y en el transgénico, los 22 genes se activaban durante la deshidratación, pero solo el silvestre los expresaba durante la rehidratación. En el caso transgénico la rehidratación comenzaba bien, pero en 15 minutos el ARN mensajero implicado desaparecía. Es decir, ABI3 estabilizaba el ARN mensajero cuya creación viene dada por ABA y permitía la síntesis de este ARN durante la rehidratación. En otras palabras, ABI3 no prepara los tejidos para la desecación, sino que ayuda a la rehidratación después de la desecación. Quatrano teoriza que las primeras plantas en colonizar tierra firme eran tolerantes a la desecación como algunas briofitas actuales. Cuando aparecieron las plantas vasculares se abandonó esta tolerancia a favor de adaptaciones nuevas que incluían el desarrollo de las raíces, cutículas de cera que protegían la superficie y estomas que controlaban la pérdida de agua. Pero los genes relacionados con la resistencia a la desecación no se perdieron, sino que fueron reutilizados en las esporas y semillas. Quatrano especula que si logran desentrañar todos los mecanismos que controlan la desecación quizás se pueda crear algún día plantas más resistentes a la sequía. Así que este cuento épico de un pasado distante quizás tenga incluso aplicaciones prácticas en un mundo cada vez más superpoblado. Enlace: http://neofronteras.com/?p=3011 Fuentes y referencias: Nota de prensa de Washington University en St. Louis (incluye vídeo). Artículo original en Sciencie (resumen). Foto centrada de esta página: Fósil de Cooksonia pertoni, la primera planta vascular terrestre conocida que vivió hace 425 millones de años. Esta pequeña planta no tenía ni raíces ni hojas. Fuente: Hans Steur, Ellecom, The Netherlands.
NeoFronteras Trimestral
Genética
2010 Edición de invierno 56 / 114
GENÉTICA
Más datos sobre el origen de la visión Nuevas pistas encontradas en las hidras nos hablan otra vez sobre el origen de la visión en los animales. J. J. Moreno, NeoFronteras
Hidra. Fuente: Todd Oakley, UCSB.
Usted, amigo lector, que lee estas líneas, lo hace gracias a sus ojos, al sentido de la vista. Al igual que otros animales, puede contemplar el mundo de la misma manera a como lo hacía un trilobites de hace 500 millones de años. Los ojos se inventaron varias veces, y de varias maneras distintas, a lo largo de la historia evolutiva. Pero, ¿cuándo y cómo podemos señalar el origen de la visión? Antes de que existieran ojos propiamente dichos ya había receptores sensibles a la luz y proteínas que operaban en ellos. La proteína rodopsina de nuestra retina es la heredera de aquellas proteínas ancestrales que surgieron hace cientos de millones de años. Desde hace un tiempo, investigadores de la Universidad de California en Santa Bárbara han estado investigando sobre este tema, descubriendo nuevas aspectos sobre el origen de la sensibilidad a la luz de los animales, especialmente sobre el camino genético que creó las primeras proteínas sensibles a la luz. Para ello estudian un animal acuático miembro de los Cnidaria que ha estado entre nosotros durante cientos de millones de años: la hidra. Este grupo es el conjunto de animales que incluye corales, medusas y anémonas marinas. La razón de esta elección es que los genes opsin, responsables de la sensibilidad a la luz, están presentes en las hidras, pero no en las esponjas, que se supone que son animales que aparecieron antes en la historia evolutiva. De esto se deduce que los primeros precursores de estos genes pudieron surgir hace más de 600 millones de años, cuando aparecieron los primeros Cnidaria. La hidra usa proteínas tipo opsin sobre todo su cuerpo, pero están concentradas alrededor de la boca y cerca de la punta del animal. Como las hidras son predadores se especula que usan los sensores de luz para encontrar prec http://neofronteras.com - Creado con LATEX y paperTEX
sas. Aunque las hidras no tienen ojos propiamente dichos u órganos receptores de luz complejos, sí tienen el camino genético necesario para ser sensibles a luz. En el pasado NeoFronteras ya publicó un resultado sobre este tema proveniente de la misma universidad. En ese caso se cubría la noticia de que habían logrado documentar con precisión las mutaciones específicas que tuvieron lugar en el transcurso de la evolución para que surgiera esta nueva característica natural de la sensibilidad a la luz en algunos seres vivos. Mostraron muy claramente qué mutaciones específicas en un gen particular duplicado (opsin) permitieron a los nuevos genes interactuar con diferentes proteínas de una manera nueva. Hoy en día, estas maneras diferentes de interaccionar están por debajo de la compleja maquinaria genética implicada en la visión que está en varios grupos animales, y que incluye a los humanos. Pero una cosa es que haya unas proteínas sensibles a la luz y otra que la información de que se ha detectado luz sea recibida por algo o alguien. Ahora, Todd H. Oakley y sus colaboradores han determinado qué gen de canal iónico está relacionado con la sensibilidad a la luz en este animal, que es el mismo canal iónico usado en la visión humana. Publican sus hallazgos en Proceedings of the Royal Society B. Hay muchos genes implicados en la visión y hay un gen que determina el canal de iones responsable de dar comienzo al impulso nervioso en las neuronas implicadas en la visión. Este gen controla la salida y entrada de iones en el canal, actuando a modo de puerta. Por tanto, controla el impulso nervioso, es decir, la señal que dice que se ha detectado luz. El gen estudiado es también de tipo opsin, y está presente en la visión de los vertebrados. Usado de un modo diferente también tiene un papel en la visión de otros animales, como los insectos. Aunque la visión en los insectos apareció más tarde en la historia evolutiva que la maquinaria visual encontrada en hidras y vertebrados. “Este trabajo recoge estudios previos sobre la hidra realizados en mi laboratorio y continua desafiando el malentendido de que la evolución representa una marcha de progreso en escalera, con los humanos situados en la cima”, dice Oakley. “En su lugar, ilustra cómo todos los organismos (humanos incluidos) son una mezcla compleja de características antiguas y nuevas.” Si ahora ha sido capaz de leer esta noticia es porque hace unos 600 millones de años unas caprichosa secuencia de mutaciones dieron con proteínas sensibles a la luz en el más humilde animal y además éste pudo enterarse del ello. Enlace: http://neofronteras.com/?p=3041 Fuentes y referencias: Nota de prensa de Universidad de California en Santa Bárbara. El origen genético de la visión.
NeoFronteras Trimestral
Genética
2010 Edición de invierno 57 / 114
GENÉTICA
Secuencian el genoma de Naegleria La secuenciación del genoma de Naegleria ayuda a comprender cómo fue el primer eucariota, a acotar el genoma mínimo y a analizar rutas metabólicas exóticas que además quizás puedan servir de fuentes de energía. Gould. Por eso, si nos remontamos aún más hacia atrás en el tiempo, y hablamos de microorganismos, es normal que la gente con pocas inquietudes pase del tema en cuestión. Pero los microorganismos son los reyes de la creación. Fueron los únicos habitantes de este planeta durante miles de millones de años y, aún hoy en día, la vida en la Tierra sería imposible sin ellos. Somos poco más o menos que agregados sofisticados de microorganismos. En cada célula de nuestro cuerpo todavía viven en endosimbiosis las mitocondrias, unas bacterias degeneradas que nos proporcionan energía. Incluso ignorando este hecho, usted, amigo lector, tiene en su cuerpo 10 bacterias por cada célula somática. La historia de la vida es una historia larga, con eventos únicos, eventos fundamentales que la cambiaron para siempre. Una de esas transiciones fue el paso de células procariotas sin núcleo, como las bacterias y arqueas, a células eucariotas nucleadas. Se cree que ese evento ocurrió Naegleria en fase flagelada. Fuente: Lillian Fritz-Laylin, hace unos 1500 millones de años. Casi no tenemos restos fósiles de aquella época, así que tenemos que ingeniárnosUC Berkeley. la para averiguar que pasó. Una de las maneras es mirar La importancia científica de un descubrimiento o su impor- en genomas de distintas especies. En esos libros genéticos tancia mediática a veces no coinciden. El descubrimiento está relatada parte de esa historia si hacemos un ejercicio de un nuevo fósil de dinosaurio, con o sin plumas, suele de “literatura comparada”. Ésta es una de las razones por tener cierto impacto mediático. Pero los dinosaurios, tan las que se secuencias organismos: para saber más sobre el cinematográficos ellos, no son nuestros antepasados bioló- pasado. gicos, no deberían tener tanta importancia, aunque exciten Uno de los genomas recientemente secuenciado es el de nuestra imaginación. Incluso la fauna de Burguess Sha- Naegleria gruberi. Esta criatura es bastante peculiar desde le, con sus extrañas criaturas, no suele importar mucho, el punto de vista biológico y su genoma nos puede ayudar aunque esté relatada con la magnífica prosa de Steven J. a entender la transición de procariotas a eucariotas. J. J. Moreno, NeoFronteras
Han identificado un conjunto de 4000 genes que, según estos científicos, probablemente sea parte del más primitivo genoma eucariota. El trabajo lo han llevado a término científicos del Department of Energy Joint Genome Institute (JGI) de la Universidad de Berkeley y expertos de la Universidad de Lancaster en el Reino Unido. Naegleria es una ameba común del suelo que se dedica a la caza de bacterias. Los ejemplares secuenciados se aislaron, en este caso, del barro de una arboleda de eucaliptos en el campus de la Universidad de Berkeley. Cuando este organismo se encuentra bajo estrés le crecen flagelos, que son orgánulos similares al de los espermatozoides, y se pone a nadar en busca de mejores territorios. Además, tiene una tercera identidad; si las condiciones del suelo se vuelven muy duras, entonces se transforma en un duro quiste y espera tiempos mejores. Según Simon E. Prochnik, un proceso como éste de transformación en un flagelado a partir de un estado amec http://neofronteras.com - Creado con LATEX y paperTEX
boideo es muy raro. Prochnik y sus colaboradores han descubierto que este organismo tiene, lógicamente, paquetes de genes dedicados a todas estas “personalidades”. Su genoma contiene nada menos que 15.727 genes codificadores de proteínas, que es un número comparable a los 23.000 en humanos. La razón por la que Naegleria tiene tantos genes se debe a su complicado estilo de vida. La mayoría de los organismos unicelulares tiene pocos genes. Según Prochnik, al ser un organismo tan versátil, su genoma debe contener la información necesaria para sobrevivir en la variedad de ambientes en los que lo hace y bajo distintas gamas de estrés a las que está sometido. Estos investigadores compararon el genoma de Naegleria con el genoma 16 eucariotas que iban de los hongos a los humanos pasando por plantas y protozoos. Al ser
NeoFronteras Trimestral
Genética
un organismo libre no parásito, que no ha perdido parte de sus genes y funciones, ha posibilitado una comparación más amplia y permite hallar más proteínas que estaban en los eucariotas ancestrales. Han identificado un conjunto de 4000 genes que, según estos científicos, probablemente sea parte del más primitivo genoma eucariota. El número de genes encontrado sorprendió a los investigadores porque en comparaciones previas, que incluían a microorganismos parásitos, se llegó a un número inferior, probablemente debido a que los parásitos delegan parte de sus funciones a los genes del ser que los hospeda. Este resultado puede ayudar, por tanto, a determinar el número de genes mínimo que permitan una vida independiente. Esta es la primera comparativa genética que incluye no solamente a Naegleria, sino además a representantes de los seis grupos de eucariotas secuenciados, como chromalveolata, diatomeas, el microorganismo causante de la malaria,
2010 Edición de invierno 58 / 114
microbios de marea roja, amebas o parásitos como giardia. Entre otros resultados interesantes de este estudio está que puede ayudar a arrojar luz sobre cómo se mueven las células, cómo se envían señales unas a otras o cómo metabolizan nutrientes. Naegleria usa pseudópodos en su fase ameboidea en sus desplazamientos para cazar bacterias, pero cuando la comida desaparece desarrolla flagelos desde “la nada” y los usa para nadar a mejores territorios de caza. Pero los pseudópodos y los flagelos usan diferentes proteínas para el movimiento. El primero basado en actina, que crea un andamiaje en el interior de la célula. El segundo está basado en la tubulina. Como este organismo tiene ambos sistemas puede ayudar a los científicos a entender el origen de este sistema paralelo durante la evolución de los eucariotas.
Microfotografía por microscopía electrónica de barrido (izquierda) de la fase de quiste de Naegleria. A la derecha fase ameboidea del mismo microorganismo. Fuente: Lillian Fritz-Laylin, UC Berkeley.
Cuando los científicos sometieron a poblaciones de Naegleria a escasez de alimento comprobaron que casi todas cambiaban rápidamente a su forma flagelada, por lo que el cambio del sistema basado en actina a otro de microtúbulos está altamente regulado y sincronizado en toda la población. El genoma de este microorganismo también revela cómo produce energía. Puede usar oxígeno para “quemar” nutrientes como glucosa o ácidos grasos, o, si no hay oxígeno, usar otros nutrientes y rutas metabólicas, produciendo hidrógeno como subproducto. Este último mecanismo le permite sobrevivir a la hipoxia en el ambiente cenagoso en donde vive. Alguno de estos expertos especula que esto quizás pueda servir para producir biocombustibles si se consigue comprender bien esta última ruta metabólica. La secuenciación del genoma de Naegleria es un pa-
c http://neofronteras.com - Creado con LATEX y paperTEX
so más. La comparativa entre sí de más genomas del árbol evolutivo de los eucariotas nos ayudará a comprender la evolución de animales más complejos y a empezar a comprender de dónde venimos nosotros. Porque la ciencia básica sólo pretende contestar a las preguntas básicas de siempre: ¿de donde venimos?, ¿qué somos?, ¿adónde vamos?. . . Estos científicos han ayudado un poco más a aclarar como fue el tataratatara. . . taratabuelo microbiano de usted, querido lector. Enlace: http://neofronteras.com/?p=3031 Fuentes y referencias: Nota de prensa de UC Berkeley con vídeo. Artículo en Cell (resumen).
NeoFronteras Trimestral
Medio Ambiente
2010 Edición de invierno 59 / 114
MEDIO AMBIENTE
Tejados blancos reducen el efecto “isla de calor” Según un modelo informático se podría reducir la temperatura de las ciudades si se pintarán de blanco todos sus tejados. J. J. Moreno, NeoFronteras
Fuente: American Geophysical U., Maria-José Viñas.
En vista del inmenso problema climático que se nos avecina se han llegado a proponer toda clase de ideas locas. Las más descabelladas versan sobre geoingeniería, que básicamente tratan de tomar el control sobre el clima, algo que la Tierra ha venido haciendo de forma automática desde hace miles de millones de años, y que pasaría a estar en manos de los humanos. Es sin duda una inmensa responsabilidad. Algunas de estas propuestas tratan de conseguir que llegue al suelo una menor cantidad de luz solar a través de algún tipo se sombrilla espacial o aumentando el albedo de
la Tierra, es decir de aumentar la cantidad de luz reflejada por la Tierra. Esto podría conseguir rebajar en unos grados la temperatura media mundial, aunque no de manera adecuada para cada lugar y sin detener la acidificación de los océanos, que es un problema de igual magnitud que el aumento de la temperatura. Hace un tiempo se propuso una variante de esta idea consistente en pintar de blanco los tejados de los edificios. Su efecto sería similar al de los casquetes polares, pero además se conseguiría ahorrar energía (y por tanto emisiones de dióxido de carbono) en verano al haber menos necesidad de usar el aire acondicionado. Aunque a primera vista parecía una broma, no lo es tanto. Ahora, un grupo de científicos del National Center for Atmospheric Research de EEUU ha demostrado con un modelo informático que el sistema sería útil, al menos en las ciudades. Según ellos, pintar los tejados de blanco es un método efectivo de reducir el calor urbano. Aunque dicen que habría que trabajar más en la idea, necesitándose más investigación al respecto antes de imponer algo así. El estudio ha sido publicado en Geophysical Research Letters. Las ciudades son particularmente vulnerables al cambio climático porque son más cálidas que las áreas rurales. El negro asfalto, los tejados alquitranados y otras superficies absorben mucha luz solar y se calientan, creando un efecto de isla de calor que hace elevarse la temperatura de 1 a 3 grados o más respecto al campo. Los tejados blancos pueden compensar en parte este efecto.
Las ciudades son particularmente vulnerables al cambio climático El modelo computacional sobre el que estos investigadores han trabajado simula la cantidad de luz solar que es absorbida y reflejada en áreas urbanas de una ciudad prototipo en diversas localizaciones en el mundo. Los resultados obtenidos indican que si se pintaran de blanco los tejados se podría reducir el efecto de isla de calor en un 33 %, algo bastante interesante, sobre todo en los días más calurosos del verano. Los autores del estudio advierten que el modelo es sencillo y que las ciudades que se tienen en cuenta están idealizadas y no representa ciudades reales específicas. En una ciudad real, además, se va acumulando polvo o suciedad que reduce el efecto a lo largo del tiempo. Como resultado de este efecto, y dependiendo del clima local, la temperatura dentro de los edificios también disminuye, por lo que se ahora energía y emisiones. Los investigadores indican que unas ciudades se beneficiarían más que otras de este efecto dependiendo de la densidad de tejados, del tipo de construcción y de la localización de la ciudad. Al parecer el efecto es más importante en latitudes medias de clima templado. ¿Podemos hacer algo a nivel individual? En una entrec http://neofronteras.com - Creado con LATEX y paperTEX
vista concedida a la NPR hace unas semanas, el investigador que propuso esta idea decía que depende de si nuestro tejado lo pintamos nosotros mismos o le pagamos a otro para hacerlo. Si es lo segundo la inversión no se amortiza en nuestra cuenta de electricidad, pero si somos nosotros los que le damos a los arreglos caseros entonces sí. En edificios de nueva construcción siempre se amortiza, y desde el punto de vista climático es siempre bueno. Pero hay un factor que a veces se olvida: puede que la idea sea menos efectiva en invierno en esas mismas zonas templadas donde un tejado pintado de blanco es tan efectivo en verano. Al absorber menos luz solar puede que gastemos más en calefacción con tejados blancos. ¿Terminaremos por reconfigurar nuestras casas según la estación del año en la que nos encontremos? Enlace: http://neofronteras.com/?p=2999 Fuentes y referencias: Nota de prensa del National Center for Atmospheric Research.
NeoFronteras Trimestral
Medio Ambiente
2010 Edición de invierno 60 / 114
MEDIO AMBIENTE
Un cambio climático desastroso puede llegar sin avisar Según un estudio los cambios climáticos dramáticos pueden aparecer súbitamente sin que medie ninguna señal de alarma previa y habiéndose cruzado el punto de retorno. cil de lo que se creía predecir cuándo se producirá un rápido cambio en los sistemas naturales de la Tierra. Esto representa una preocupación para los científicos que tratan de identificar los momentos claves del cambio que harán que el clima terrestre cambie súbitamente y se produzca un desastre a nivel global. El ecólogo Alan Hastings dice que muchos científicos están buscando signos de alarma que anuncien cambios Área cubierta por el hielo en sep- súbitos en los ecosistemas naturales tiembre de 2009 comparada con el en la esperanza de solucionar el propromedio de septiembre entre 1979 blema o prepararse para él. “Nuestro y 2000 (línea magenta). Fuente: estudio encuentra, desafortunadamenU.S. National Snow and Ice Data te, que el régimen de cambio con potenciales grandes consecuencias puede Center/map.. ocurrir sin aviso ninguno”, dice. “Esto Un estudio de la Universidad de Ca- significa que algunos efectos del camlifornia en Davis dice que es más difí- bio climático sobre los ecosistemas sóJ. J. Moreno, NeoFronteras
lo se pueden ver una vez que los efectos son dramáticos. El retorno del sistema hacia un estado deseable será difícil, si no imposible”. El estudio de Hastings y Derin B. Wysham se centra en modelos ecológicos, pero sus hallazgos pueden ser aplicables a otros sistemas complejos, especialmente aquellos relacionados con la dinámica humana, como la explotación de recursos pesqueros o la dinámica de los mercados financieros. Este investigador es uno de los expertos mundiales en el uso de modelos matemáticos para entender los sistemas naturales. Sus actuales estudios van desde la investigación de la dinámica de las poblaciones de salmón y bacalao al modelado de la respuesta de plantas y animales en respuesta al cambio climático global.
La mayoría de los científicos están de acuerdo en que el cambio climático está causando ya efectos medioambientales. La mayoría de los científicos están de acuerdo en que el cambio climático está causando ya efectos medioambientales, tales como cambios en la frecuencia e intensidad en las precipitaciones, sequías, olas de calor, incendios forestales, aumento del nivel del mar, menor suministro de agua en regiones áridas, mayor cantidad de plagas que afectan los cultivos y bosques o expansión de patógenos tropicales que afectan a humanos hacia otras zonas. Temen que lo peor esté por llegar. El asesor presidencial John Holdren (no implicado en este estudio) afirmó recientemente que los científicos temen los momentos clave de cambio, umbrales más allá de los cuales un aumento pequeño adicional de la temperatura media u otra variable climática dé como resultado un cambio dramático que afecte al sistema climático. Entre estos puntos clave Holdren
lista los siguientes: - La desaparición completa de hielo del Océano Ártico en verano, que pueda dar lugar a un cambio profundo en la circulación oceánica y patrones climáticos a lo largo de todo el hemisferio Norte. - La aceleración en la pérdida de hielo en Groenlandia y la Antártida que conduzca a un cambio en el ritmo de aumento del nivel del mar por encima de 2 metros por siglo. - La acidificación de los océanos debida a la absorción de dióxido de carbono, que produciría una perturbación masiva en las redes de tróficas oceánicas. El resultado es alarmante e invita a la reflexión, sobre todo si nos fijamos en la aplicación de este tipo de modelos a los mercados. La explosión en cadena de las burbujas inmobiliarias a
c http://neofronteras.com - Creado con LATEX y paperTEX
lo largo del mundo y el efecto dominó económico que ha hecho caer una economía tras otra sin previo aviso, nos recuerda a aquellos que con modelos similares predecían que en algún momento eso iba a pasar, aunque no pudieran decir exactamente cuándo. A esos físicos y economistas se les hizo el mismo caso que el que se hace a los actuales climatólogos y ecólogos: casi ninguno. Al igual que la actual crisis a sorprendido a muchos, el punto de no retorno en el clima mundial también pillará por sorpresa a más de uno, que dirá: “¿ahora?, ¿no iba a ser dentro de un siglo?” Enlace: http://neofronteras.com/ ?p=3008 Fuentes y referencias: Nota de prensa de UC Davis. Artículo original (resumen).
NeoFronteras Trimestral
Medio Ambiente
2010 Edición de invierno 61 / 114
MEDIO AMBIENTE
Corales, algas y formación de nubes Según la temperatura de los océanos suba el coral dejará de emitir un compuesto químico que ayuda a la formación nubes, con lo que subirá aún más la temperatura. J. J. Moreno, NeoFronteras
No es fácil predecir el clima y algunos (sobre todo los negacionistas) ponen en duda las predicciones de los modelos climáticos. No es porque el tiempo atmosférico sea un sistema caótico (que lo es), ya que el clima no es caótico o no se cree que lo sea. La razón es que, además de la imposibilidad de tener en cuenta todos los factores implicados, en el clima hay sistemas de retroalimentación. Sistemas no lineales que, a partir de los cambios en las condiciones climáticas actuales, responden positivamente al cambio (retroalimentación positiva) o negativamente (retroalimentación negativa). Nos interesan sobre todo que estos últimos sean potentes, pues nos garantizan cierta estabilidad climática. Por otro lado, los primeros tienden a sacarnos de la actual situación y llevarnos hacia otro estado más cálido. Así por ejemplo, el deshielo ártico descubre tierra oscura que absorbe más luz solar, contribuyendo de este modo aún más al calentamiento. Descubrir ciclos de retroalimentación positiva es siempre una mala noticia, mientras que descubrir un ciclo de retrolimentación negativa es una buena noticia. New Scientist se hace eco del descubrimiento de uno de estos ciclos de retroalimentación positiva (últimamente no hay buenas noticias respecto al clima). Según la temperatura de los océanos suba, el coral dejará de emitir un compuesto químico que ayuda a la formación nubes, con lo que subirá aún más la temperatura, al menos localmente. Hace cinco años Graham Jones, y su equipo de Southern Cross University en Lismore (Australia), demostraban que las algas que viven simbióticamente en los corales producen dimetil sulfito o DMS, que liberado a la atmósfera contribuye a la formación de nubes. El DMS producido por el coral es arrastrado por el viento a la atmósfera y allí se oxida formando un aerosol de partículas sulfurosas que atraen el vapor de agua, produciendo las gotitas de condensación acuosas que forman las nubes. Por tanto, la formación de nubes sobre los arrecifes coralinos produciría sombra y contribuiría a que su temperatura no se elevase. Éste no es el único caso de control biológico del tiempo atmosférico, ya vimos en su día en NeoFronteras algunos ejemplos más (ver referencias). Ahora, este mismo grupo de investigadores ha descu-
c http://neofronteras.com - Creado con LATEX y paperTEX
bierto que si la temperatura del océano se eleva solamente 2 grados centígrados, algunas de estas algas dejarán de producir DMS y como resultado se formarán menos nubes, exponiendo al coral a mayor irradiación solar y mayor temperatura, lo que impedirá aún más la producción de este compuesto químico. En el estudio analizaron una especie de coral que se encuentra en la isla Heron en Queensland (Australia), sometiéndolo a diferentes temperaturas del agua y registrando la emisión de DMS. Descubrieron que cuando la temperatura subía de la normal de 24 grados a 26 grados centígrados se dejaba de emitir DMS. Es el primer estudio que mide el efecto de la temperatura del agua y su relación con el DMS que entra en la atmósfera. Un sistema obvio que explicaría el fenómeno sería la pérdida por parte del coral de las algas simbióticas que viven en él al aumentar la temperatura. Sin algas productoras de DMS ya no habría emisión de este compuesto. El hallazgo apoya trabajos anteriores de Jones en los que se decía que aguas demasiado cálidas en la región de la Gran Barrera de Coral dieron lugar en los años noventa a bajos niveles de DMS. Jones sospecha que el DMS juega un papel importante en el clima regional del norte de Queensland. Además, sostiene que en invierno los vientos del sureste transportan DMS a bosque tropical, produciendo lluvia durante el periodo monzónico, mientras que los vientos del noreste serían los responsables de lluvias en otras regiones. Sin embargo, se necesitan efectuar más estudios al respecto para demostrar estos puntos. En todo caso este hallazgo nos dice lo complejo y frágil que puede ser el clima terrestre y la interrelación entre clima y biología. Enlace: http://neofronteras.com/?p=3019 Fuentes y referencias: Artículo original. Las bacterias hacen llover. Nubes y algas. Foto cabecera: Office of Insular Affairs, EEUU.
NeoFronteras Trimestral
Medio Ambiente
2010 Edición de invierno 62 / 114
MEDIO AMBIENTE
La fertilización oceánica puede ser desastrosa La fertilización oceánica con hierro haría proliferar diatomeas tóxicas productoras de neurotoxinas. J. J. Moreno, NeoFronteras
Diatomeas del género Pseudo-nitzschia. Fuente: Brian Bill, NOAA.
Hace algún tiempo se propuso que una forma de luchar contra el calentamiento global consistiría en arrojar hierro al océano. La razón sería una supuesta carencia de este elemento en las aguas del mar que limitaría el crecimiento de seres fotosintéticos. Así, vertiendo hierro, el fitoplancton podría proliferar mucho más y tomar el exceso de dióxido de carbono. Sus cuerpos, al caer al fondo o ser comidos y defecados por otros seres, fijarían el carbono en el fondo marino, carbono que antes estaba en la atmósfera produciendo efecto invernadero. No hace falta decir que esta idea de geoingeniería era bastante polémica. Ya se habían proyectado experimentos a gran escala en los que se iban a arrojar miles de toneladas de hierro cuando se demostró, como vimos por aquel entonces en NeoFronteras, que el sistema no era muy efectivo. Ahora se ha demostrado que no solamente esta idea no sería efectiva, sino que además sería perjudicial, al menos según investigadores de University of Western Ontario. La idea de la fertilización oceánica se basa en experimentos realizados en la década de los noventa cuando se comprobó que depositando cantidades muy pequeñas de hierro se producía una explosión de fitoplancton. Al parecer las aguas oceánicas son ricas en muchos nutrientes, pero son bastante pobres en hierro. Esto derivó hacia un proyecto, mucho más comercial, de regulación climática terrestre usando este método. Pero en esta investigación reciente se ha demostrado que la fertilización con hierro aumenta las probabilidades de que se desarrollen diatomeas tóxicas. En concreto, las diatomeas afectadas por la fertilización pertenecerían el género Pseudo-nitzschia, un grupo de especies conocidas por producir la muerte y enfermedad de miles de mamíferos marinos y aves a lo largo de la costa de Norteamérica. En humanos produce lo que se llama amnesia por envenec http://neofronteras.com - Creado con LATEX y paperTEX
namiento por moluscos. Frecuentemente las autoridades tienen que prohibir en primavera y verano la comercialización de este tipo de marisco debido a la presencia de este problema. La capacidad de producir neurotoxinas por parte de estos microorganismos se descubrió en la costa atlántica canadiense en 1987. Se ha especulado con que un envenenamiento de este tipo causara el raro comportamientos de las aves en las costa californiana en 1961, incidente a partir del cual Alfred Hitchcock se inspiró para filmar “Los pájaros”, una película clásica de 1963 rodada en Bahía Bodega. En una serie de experimentos realizados a bordo por estos científicos en el Golfo de Alaska se pudo comprobar que el enriquecimiento con hierro hace que las poblaciones de este tipo de diatomeas doblaran el nivel de toxina en sus células, creando las condiciones para que las especies tóxicas tengan ventaja sobre las especies no tóxicas. Estos factores aumentan las posibilidades de daño ecológico de la fertilización oceánica. También comprobaron que el añadido de trazas de cobre hacía aumentar aún más la concentración de toxina (ácido domoico) en los tanques en donde se hacían los experimentos. Según Charles Trick, de University of Western Ontario, esto es una indicación más de que no somos los amos de la Naturaleza cuando intentamos manipulaciones ecológicas a gran escala. Cualquier secuestro positivo de carbono debe contrarrestar las evidentes consecuencias medioambientales que no habían sido tenidas en cuenta con anterioridad. Para otros expertos del campo los resultados no son una sorpresa, pues en otros experimentos se vio que este tipo de diatomeas aparecían en abundancia, así que era de esperar que apareciera la toxina correspondiente tarde o temprano. En otros artículos ya se relataba el aumento de este tipo de toxina en aguas oceánicas recogidas en mar abierto en donde se había experimentado con fertilización con hierro, aunque sin la realización de experimentos controlados como en este caso. A pesar de todo, varias compañías pretenden vender créditos de carbono a cambio de este tipo de fertilización oceánica. Enlace: http://neofronteras.com/?p=3044 Fuentes y referencias: Nota de prensa de University of Western Ontario. Artículo original en PNAS (pdf). Más datos sobre fertilización oceánica. La fertilización del océano no arregla el efecto. . . Assmy, P., Henjes, J., Klaas, C. & Smetacek, V. Deep-Sea Res. 54, 340-362 (2007); Marchetti, A. et al. J. Phycol. 44, 650-661 (2008); Martin, J. H., & Fitzwater, S. E. Nature 331, 341-343 (1988); Pollard, R. T. et al. Nature 457, 577-580 (2009).
NeoFronteras Trimestral
Medio Ambiente
2010 Edición de invierno 63 / 114
MEDIO AMBIENTE
Mariposas y cambio climático Consiguen demostrar la relación entre la aparición temprana de mariposas con el cambio climático causado por el ser humano. que las mariposas aparecen 10 días antes de lo que lo solían hacer hace 65 años y sostiene que esto estaría ligado al cambio climático inducido por el ser humano debido a sus emisiones de gases de efecto invernadero. Según los autores el trabajo revelaría, por primera vez, una conexión causal entre aumento de gases de efecto invernadero, calentamiento regional y cambios en la cronología de un evento natural. Los investigadores encontraron que sobre ese periodo de 65 años la aparición media de individuos adultos de la mariposa marrón común australiana (Heteronympha merope) se ha desplazado temporalmente 1,6 días por década en Melbourne (Australia). El hallazgo es único porque esta aparición temprana representa una relación causal con el simultáneo aumento de la temperatura media del aire en la región, que ha experimentado una subida de 0,14 grados centígrados por década, calentamiento que es de Heteronympha merope. Fuente: Royal Botanic Garorigen antropogénico. dens & Domain Trust. Michael Kearney, líder del artículo, dice que el hallazgo Los glaciares desaparecen, el nivel del mar sube, los hielos podría ayudar en nuestra habilidad para predecir el futuro árticos se retiran, el permafrost se funde creando “bosques impacto del cambio climático en la biodiversidad. Según borrachos” y casas en ruinas, las especies de montaña emi- él, el desplazamiento temporal de eventos biológicos estagran más hacia arriba, el coral desaparece. . . Y ahora las cionales representa un desafío para las especies, alterando mariposas aparecen más pronto en primavera. Al menos la cadena alimenticia y la competitividad presentes en el esto es lo que afirma un grupo de investigadores de la Uni- momento de la puesta de huevos. Este tipo de estudios versidad de Melbourne. permitirán un mejor pronóstico de estos desplazamientos El estudio, que aparece en Biology Letters, demuestra y a comprender mejor sus consecuencias. J. J. Moreno, NeoFronteras
En este estudio se ha logrado relacionar directamente la aparición temprana de mariposas con un aumento regional de la temperatura, y que este aumento de temperatura está causado por las emisiones humanas. El equipo de investigadores crió orugas de esta mariposa en laboratorio para medir el impacto fisiológico de la temperatura sobre su ritmo de desarrollo. Usaron los datos obtenidos de esos ensayos para crear un modelo sobre el efecto de las tendencias climáticas históricas en la región de Melbourne y sobre la velocidad de desarrollo de esta especie. Entonces combinaron todo esto con los resultados obtenidos de modelos climáticos globales para la misma región sobre el mismo periodo de tiempo. Pretendían examinar así si la variabilidad climática natural o la influencia climática humana sobre clima explicaban la razón del aumento de la temperatura del aire observada en Melbourne. Los expertos ya habían observado que ciertos eventos biológicos están ocurriendo progresivamente más pronto en primavera en las últimas décadas. Según Karoly, en es-
c http://neofronteras.com - Creado con LATEX y paperTEX
te nuevo estudio se ha logrado relacionar directamente la aparición temprana de mariposas a un aumento regional de la temperatura y a que este aumento de temperatura está causado por una mayor concentración de gases de efecto invernadero debido a las emisiones humanas. Enlace: http://neofronteras.com/?p=3042 Fuentes y referencias: Nota de prensa de Universidad de Melbourne. Artículo original. Nota editorial sobre medio ambiente. Michael R. Kearney, Natalie J. Briscoe, David J. Karoly, Warren P. Porter, Melanie Norgate, and Paul Sunnucks. Early emergence in a butterfly causally linked to anthropogenic warming. Biology Letters, 2010; DOI: 10.1098/rsbl.2010.0053.
NeoFronteras Trimestral
Paleontología
2010 Edición de invierno 64 / 114
PALEONTOLOGÍA
Los arrecifes coralinos son fuente de diversidad Los arrecifes de coral son cunas de la biodiversidad, actuando como motores que crean y difunden especies a otros lugares. J. J. Moreno, NeoFronteras
Fuente: NASA.
Desde que se empezaron a investigar científicamente los arrecifes coralinos se descubrió que son los equivalentes oceánicos de las selvas tropicales en cuanto a biodiversidad se refiere. Ahora, un nuevo estudio que ha tenido en cuenta el registro fósil no sólo afirma que efectivamente esto es así, sino que además son el origen de multitud de especies marinas, incluso de grupos como las almejas o caracoles que se creía que se habían originado en la costa. De este modo, los arrecifes coralinos serían la cuna de la biodiversidad oceánica. Hasta ahora se creía que muchas especies que habitan los arrecifes habían emigrado desde otros ecosistemas, como las aguas someras de la costa, hacía esos bellos parajes. Wolfgang Kiessling, del Museo für Naturkunde (Berlin), así también lo creía cuando inició esta investigación espoleado por estudios anteriores. Tuvo que cambiar de idea cuando consideró las pruebas que encontró. Él y sus colaboradores empezaron a estudiar fósiles de animales que vivieron en el lecho marino, recopilando un amplio registro en la literatura científica y añadiendo sus propios descubrimientos. El estudio se remonta incluso a fósiles de hace 540 millones de años, cuando empezaba la vida animal compleja. Se centraron en el origen de 6615 géneros de invertebrados, basándose en qué tipo de ecosistema aparecieron por primera vez. El estudio revela que 1426 de esos géneros se originaron en ambientes coralinos, un 50 % más que en las aguas someras costeras. Además, comprobaron que los arrecifes contribuyeron a la diversidad de otros hábitats, porque muchos miembros de los géneros originados en los ambientes coralinos terminaron por emigrar a otros ecosistemas distintos. De
c http://neofronteras.com - Creado con LATEX y paperTEX
este modo, la mayor parte de los géneros se originarían en los arrecifes y luego se expandieron a otros hábitats. Se muestran además sorprendidos por este resultado inesperado. Los autores descartan que el resultado sea un artefacto, ya que los arrecifes son, en realidad, escasos. Si hubiera un sesgo en los datos, éste iría en contra del resultado. Por razones desconocidas el fenómeno parece que tuvo una actividad más acusada durante el Paleozoico, periodo que comprende el inicio de la vida animal compleja. Especulan que quizás lo que ocurrió después de ese periodo es que, al sembrar de especies el resto de los ecosistemas, los arrecifes perdieron el monopolio de cunas de la biodiversidad como lo habían sido en el pasado. Según otros expertos lo que hace que los arrecifes sean cunas de diversidad es la variedad de nichos ecológicos, la variedad de espacio físico, flujo de agua y oportunidades ecológicas que ofrecen. Además, la competitividad por el espacio y la comida producen una gran actividad evolutiva que crea nuevos nichos. Si esta actividad es alta se abren breves ventanas de oportunidad para surjan nuevas especies. Paradójicamente los arrecifes coralinos son bastante vulnerables, al menos en la actualidad. Otro resultado importante es que los arrecifes no parece que ayudaran a la recuperación después de las extinciones masivas, como la que ocurrió al final del Paleozoico, que eliminó al 90 % de la vida marina. Según Richard Aronson, del Florida Institute of Technology y no participante en el estudio, esto se debería a que el proceso de reconstrucción de los arrecifes es muy difícil, pues éstos se quedan muy afectados después de ese tipo de eventos, siendo incapaces de recuperar la anterior rica y compleja biodiversidad durante mucho tiempo, pues primero deben construir su propia viabilidad como ecosistema. El estudio revela que 1426 de 6615 géneros se originaron en ambientes coralinos. Puede que precisamente los eventos de extinción en los arrecifes jugaran un papel muy importante en las extinciones masivas, contribuyendo al declive de todos los ecosistemas marinos. Las implicaciones de este estudio son claras. En la actualidad los arrecifes de coral están en un proceso acelerado de degradación y destrucción. Entre los problemas que sufren están el blanqueo del coral, la acidificación del agua, la subida del nivel del mar, su sobreexplotación, la pesca con veneno, la pesca con dinamita, etc. Esto tendrá consecuencias a largo plazo desde el punto de vista evolutivo para otros ecosistemas y para la biodiversidad marina en general.
NeoFronteras Trimestral
Paleontología
2010 Edición de invierno 65 / 114
La gran barrera de coral es visible desde el espacio. Ni siquiera el ser humano puede competir en tamaño construyendo algo así (ni siquiera con La Gran Muralla China). Mide 2600 km, pero cuesta creer que está creada por unos animales con un tamaño de sólo unos milímetros. Fuente: NASA.
Cuando perdemos un arrecife coralino no solamente estamos perdiendo uno de los lugares más bellos que albergan vida sobre la Tierra, sino que perdemos las oportunidades de recuperación de especies ya condenadas a la extinción por la presente crisis de la biodiversidad. Los expertos alertan sobre este asunto. Si la degradación de los arrecifes modernos continúa se puede dar un efecto dominó ecológico que afecte terriblemente al resto de los
c http://neofronteras.com - Creado con LATEX y paperTEX
ecosistemas. Enlace: http://neofronteras.com/?p=2963 Fuentes y referencias: Artículo en Science. Noticia en Science.
NeoFronteras Trimestral
Paleontología
2010 Edición de invierno 66 / 114
PALEONTOLOGÍA
El color de los dinosaurios Se ha logrado identificar el color de las plumas de algunos dinosaurios fósiles por vez primera. J. J. Moreno, NeoFronteras
eran sus presas, qué vegetales comían (los coprolitos son una fuente valiosa de información). . . Pero los fósiles no nos dicen de qué color eran, por lo menos hasta ahora. El color de los dinosaurios de las películas se debía a la imaginación de los artistas. Recientemente, unos paleontólogos han podido descubrir que el terápodo Sinosauropteryx tenía cerdas o precursores de plumas en tramos alternos de color naranja y blanco en su cola de manera similar a un lemur moderno. En futuros estudios se podrá describir con mayor precisión los patrones de coloración de este animal extinto.
Mike Benton, de the University of Bristol, dice que la investigación de su equipo proporcionará una mejor comprensión de la función de las plumas y su origen. En esFósil de Sinosauropteryx. Fuente: Instituto Nanjing. ta investigación participan también investigadores de la Los dinosaurios siempre nos han fascinado, incluso antes Universidad de Pekin, del University College Dublin y de de que se rodara “Parque Jurásico”. Quizás se deba a esa Open University. En particular desean poner fin al debate pinta de lagartos terribles salidos de nuestras peores pe- sobre si las plumas aparecieron para el vuelo, como aislansadillas. Sus fósiles nos pueden dar una idea de cómo de te térmico o para comunicación (rituales de apareamiento, voluminoso era su cuerpo, qué musculatura tenían, cuáles camuflaje, amenaza. . . ).
Las plumas aparecerían primero como agentes para el despliegue de color y luego evolucionaron para desempeñar el papel de aislantes térmicos y para el permitir el vuelo. Las plumas simples o cerdas de Sinosauropteryx sólo estaban presentes en determinadas partes del cuerpo, por lo que su supuesta función termorreguladora (aislante térmico) sería muy limitada. Y lo que sí se sabe seguro es que las plumas aparecieron antes que las alas u otras estructuras destinadas al vuelo. Según creen estos investigadores las plumas aparecerían primero como agentes para el despliegue de color y luego evolucionaron para desempeñar el papel de aislante térmico y para el permitir el vuelo. Esta reutilización de determinados rasgos anatómicos para destinarlos a otros usos es típica de la evolución, pues nunca se rehace un organismo desde la nada. El fósil encontrado en China pertenece a un dinosaurio carnívoro de 1,2 metros y de unos 125 millones de años cuya espalda, cola, cabeza, cuello estaban recubiertos con precursores de plumas que formaban franjas irregulares de color. Contaría con una cresta formada por el mismo tipo de estructuras. El color lo han podido averiguar gracias al análisis de los melanosomas que todavía contenían los fósiles, y que en origen se corresponderían a un color blanquecino o naranja según el caso. Los melanosomas son orgánulos de color (contienen melanina) que están presentes en las estructuras del pelo y de las plumas de los mamíferos y aves modernos, y que proporcionan los colores negro, gris, naranja y marrón. Hay tanto eumelanosomas como phaeomelanoc http://neofronteras.com - Creado con LATEX y paperTEX
somas, que suministran una gama de color gris-negra o una naranja-marrón respectivamente. Como los melanosomas son parte integral de las proteínas resistentes que forman las plumas, pueden sobrevivir a la desaparición de estas últimas y conservarse durante cientos de millones de años si se dan las condiciones de fosilización adecuadas. Es la primera vez que se informa sobre la presencia de estos orgánulos en plumas de dinosaurios. La estructura del melanosoma revela el color en particular al que dieron lugar cuando formaba parte de las plumas, estructura que se puede determinar mediante el uso de microscopía electrónica. Esta técnica de análisis fue desarrollada el año pasado en la Universidad de Yale. El equipo de investigadores no encontró estructuras responsables para otros colores como amarillos, azules o morados. Este descubrimiento apoyaría la teoría según la cual las aves evolucionaron a través de una larga línea de terápodos (dinosaurios carnívoros), y que la combinación única de plumas, alas, esqueleto ligero, metabolismo elevado y sistema nerviosos y visual mejorados de las aves evolucionó paso a paso durante 50 millones de años de evolución de los dinosaurios en el Jurásico y Cretácico. Según Benton el hallazgo permite explorar aspectos de la vida y comportamiento de los dinosaurios y aves primitivas que vivieron hace más de 100 millones de años.
NeoFronteras Trimestral
Paleontología
2010 Edición de invierno 67 / 114
Ahora están estudiando la parte del genoma que con- vestigador, la historia evolutiva en detalle de las plumas. trola el desarrollo de las plumas, que junto a los datos paleontológicos les permitirá diseccionar, según este in-
Reconstrucción artística del terápodo Sinosauropteryx, que tendría plumas de colores. Fuente: Chuang Zhao y Lida Xing.
Aunque a partir de ahora muchos paleontólogos buscarán melanosomas en el registro fósil, va a ser difícil averiguar el color de otros dinosaurios. Además de que no todos los dinosaurios tenían plumas o sus precursores, éstas o sus restos se conservan mal y no suelen fosilizarse.
Enlace: http://neofronteras.com/?p=2988
Fuentes y referencias: University of Bristol. Vídeo. Fucheng Zhang, Stuart L. Kearns, Patrick J. Orr, Michael Así que hace unos 125 millones de años unos dinosau- J. Benton, Zhonghe Zhou, Diane Johnson, Xing Xu, and rios pelirrojos utilizaban su primitivas plumas para comu- Xiaolin Wang. nicarse algo entre sí, y luego a partir de ahí surgieron las Fossilized melanosomes and the colour of Cretaceous diaves que surcan ahora los cielos. Quizás no tengamos ya nosaurs and birds. Nature advanced online publication, 27 dinosaurios, pero tenemos unos dignos descendientes. January 2010. c http://neofronteras.com - Creado con LATEX y paperTEX
NeoFronteras Trimestral
Paleontología
2010 Edición de invierno 68 / 114
PALEONTOLOGÍA
Huellas de 565 millones de años Encuentran huellas fósiles que sugieren la presencia de locomoción animal antes de la explosión del Cámbrico. Peter J. Bentley, autor de “El científico camuflado”, dice en uno de los capítulos de su libro que la Edad de Piedra debería llamarse la Edad de los Tejidos, pues por es época el ser humano empezó a confeccionar tejidos para vestirse, pero que al ser más perecederos que las piedras nos han quedado pocos restos de tejidos y muchas más piedras. Con el registro fósil pasa algo parecido, la concepción que tenemos de la historia biológica de este planeta depende en gran medida de los restos fósiles dejados por animales con partes duras: huesos, dientes, caparazones, conchas. . . Los animales de cuerpo blando rara vez fosilizan. Seguro que habrá habido toda una serie de animales fantásticos sobre este planeta que, una vez extinguidos, no han dejado ningún registro de su existencia y, desafortunadamente, nunca los conoceremos. A veces los animales (por desgracia no las plantas) dejan algo tras de sí incluso aunque ninguna parte de su cuerpo se haya fosilizado: sus huellas. El surco dejado por un gusano o las pisadas de un dinosaurio impresas en el barro de la orilla de algún lago cretácico también se consideran fósiles. Cuanto más nos remontamos hacia los orígenes de la vida compleja multicelular más importantes son este tipo de fósiles, porque al principio, cuando no había casi depredadores, no había una carrera de armamentos que creara dientes, caparazones o pinzas con los que atacar o defenderse. Recientemente se han descubierto surcos dejados por algún animal hace 565 millones de años, casi en la noche de los tiempos de la vida compleja. Este registro de locomoción animal fue encontrado en Terranova (Canadá) y ha sido analizado por un equipo internacional de científicos. Las marcas fueron descubiertas en Mistaken Point, un lugar que ha sido frecuentado por paleontólogos innumerables veces, pero habían pasado desapercibidas hasta ahora. Han identificado un
total de 70 surcos que indican que algunas criaturas ya se arrastraban por el fondo de los océanos ediacararenses de manera similar a como lo hacen las anémonas. Los surcos miden unos 13 mm de anchos y entre 5 y 17 cm de largos.
Surcos de hace 565 millones de años delatan antigua locomoción animal. Fuente: Oxford University.
Según Alex Liu, de Oxford University, las marcas que han encontrado indican que el animal o animales en cuestión tenían algún tipo de control muscular durante su locomoción. Esto es excitante, según él, porque sería la primera prueba de que las criaturas de esa época ya contaban con músculos que les permitían moverse en busca de comida o huir de sus enemigos. Fueron descubiertas en un lugar frecuentado por paleontólogos innumerables veces, pero habían pasado desapercibidas hasta ahora. Los investigadores compararon estas marcas con las dejadas por la anémona marina moderna Urticina, encontrando muchas similitudes. Esto sugeriría que animales similares a las
c http://neofronteras.com - Creado con LATEX y paperTEX
anémonas, quizás en forma de disco, ya usaban musculatura para moverse al igual que las anémonas modernas. Ya se habían encontrado pruebas de la existencia de movimiento animal en el periodo Cámbrico (hace entre 542 y 488 millones de años), aunque son muy escasas. Esto hizo creer a los paleontólogos que los primeros organismos complejos eran estacionarios y no se movían. Se asemejarían, según esta visión, a los hongos (recordemos que los hongos no son plantas aunque su estudio se encuadre dentro de la Botánica). Los pocos restos fósiles del Ediacarense (hace 630-542 Ma) con los que se contaba representaban animales pasivos con forma de hoja de helecho anclados al fondo. El descubrimiento ahora de animales móviles en el Ediacarense, unos 30 millones de años antes del Cámbrico, es especialmente significativo y arroja luz sobre el mundo antes de que se diera la explosión del Cámbrico, en la que una gran variedad de animales aparece súbitamente en el registro fósil. Liu sostiene que, aunque no son capaces de decir qué animales ediacarenses crearon esas marcas, hay pruebas de que tenían músculos y tejidos con colágeno que daban a sus cuerpos cierta rigidez. Además, sugiere que la ecología del ambiente marino de esa época era más compleja de lo que se creía. Según este descubrimiento, por lo tanto, los primeros “pasos” dados por la vida compleja en este planeta se dieron hace 565 millones de años como mínimo. Enlace: http://neofronteras.com/ ?p=2996 Fuentes y referencias: Nota de prensa de la Universidad de Oxford. First evidence for locomotion in the Ediacara biota from the 565 Ma Mistaken Point Formation, Newfoundland (resumen).
NeoFronteras Trimestral
Paleontología
2010 Edición de invierno 69 / 114
PALEONTOLOGÍA
Los velociraptores probablemente no eran dinosaurios Las aves no descenderían evolutivamente de los dinosaurios terópodos, sino que serían los raptores, considerados hasta ahora dinosaurios, los que descenderían de aves. J. J. Moreno, NeoFronteras
Un estudio publicado en PNAS proporciona más pruebas más de que las aves no descienden evolutivamente de los dinosaurios terópodos, desafiando la teoría aceptada desde hace décadas sobre el origen del vuelo. El nuevo estudio se realizó sobre un espécimen descubierto en 2003 en China, y en el se usó modelos tridimensionales para analizar las capacidades voladoras del animal. Concluyen que este animal emplumado probablemente planeaba desde los árboles. El peso de las pruebas sugiere ahora que no solamente las aves no descenderían de los dinosaurios, sino que algunas especies, que hasta ahora se habían considerado dinosaurios, descenderían en realidad de las aves. Según John Ruben, de Oregon State University y autor de un comentario sobre ese trabajo, se ha logrado romper con la idea convencional de hace 20 años según la cual las aves evolucionaron a partir de los dinosaurios. Según él ya había demasiadas inconsistencias en esta teoría, que veinte años de estudios morfológicos y de otros tipos han revelado. El nuevo estudio añade más. Según Ruben las aves y los dinosaurios probablemente compartan antepasados comunes, pero evolucionaron por caminos separados durante millones de años, dando lugar a las aves y a los raptores. Pequeños animales como los velociraptores, que hasta ahora eran considerados dinosaurios (incluso en el cine de Holywood), probablemente eran aves sin plumas. Aunque los raptores parecen dinosaurios, tienen más rasgos en común con las aves que con los dinosaurios terópodos como el Tiranosaurio. Ruben cree que las pruebas finalmente dicen que estos animales eran descendientes de las aves y no de los dinosaurios. Otro estudio de Florida State University levantó las mismas dudas el año pasado.
En este estudio más reciente han trabajado los expertos de University of Kansas Larry Martin, David Burnham y Amanda Falk, así como Enpu Gong de la Universidad de Noroeste de China. Han estudiando un fósil maravillosamente bien conservado correspondiente a un animal con plumas y cuatro miembros que utilizaba para volar al que se denominó en su día Microraptor.
Modelo de Microraptor. Fuente: David Alexander, PNAS Early Edition.
El animal se asemejaría a un avión biplano con cuatro alas. Desde que se descubrió este fósil había cierta controversia sobre la capacidad para el vuelo de este animal, que se sumaba a la cuestión de si unos animales arbóreos con cierta capacidad para el vuelo se hicieron terrestres dando lugar a otros animales o si animales terrestres bípedos desarrollaron plumas y alas y levantaron el vuelo. Aunque se habían hecho simulaciones matemáticas y computacionales nadie se había molestado en realizar un modelo físico. Estos científicos han llegado a construir modelos físicos del animal en cuestión con los que probar la capacidad de planeo de este ser, tanto en túneles de viento como en el mundo real (ver vídeo en las referencias). Sobre un modelo de esqueleto de Microraptor los investigadores añadieron un cuerpo de arcilla sobre el que pegaron plumas de aves modernas (de faisán) y a partir de este modelo construyeron otro más ligero de espuma de poliuretano con el que efectuaron varios lanzamientos con los que demos-
c http://neofronteras.com - Creado con LATEX y paperTEX
traron las capacidades para el planeo de este ave. Los estudios sobre el planeo realizados con esta estructura concluyen que a este animal no le sería práctico levantar el vuelo desde el suelo, por lo que debería de planear desde los árboles de modo similar a como lo hacen las actuales ardillas planeadoras. Muchos expertos creen que animales planeadores de esas características serían los antepasados de las aves. Esto hace de los dinosaurios terópodos, que habitaban el suelo, candidatos poco realistas a la hora desarrollar alas o el vuelo, y ser los antepasados de las aves. Según Ruben es más realista creer que ciertas aves perdieron la capacidad de volar y evolucionaron a animales terrestres como los raptores. En otros estudios ya se había puesto de manifiesto que la posición de ciertos huesos y músculos es crítica a la hora de tener una capacidad pulmonar que permita el vuelo sostenible en las aves, característica que no tenían los dinosaurios terópodos. Quizás la prueba más significativa sea que se han encontrado fósiles de aves en el registro fósil por debajo (algo que indica una evolución previa) de los fósiles de dinosaurios de los que supuestamente descendían. Esto indicaría que la evolución en este caso sería en sentido contrario a lo establecido. Obviamente no se ha dicho la última palabra sobre este asunto y quizás nuevos fósiles nos digan nuevas cosas acerca de este fascinante tema. Enlace: http://neofronteras.com/ ?p=3018 Fuentes y referencias: Artículo en University of Kansas con vídeos. Nota de prensa en University of Kansas. Artículo original en PNAS (resumen). Nota de prensa en Oregon State University.
NeoFronteras Trimestral
Paleontología
2010 Edición de invierno 70 / 114
PALEONTOLOGÍA
Huellas de tetrápodos demasiado antiguas Encuentran huellas de tetrápodos que son más antiguas que los fósiles de los animales de los que supuestamente descienden. J. J. Moreno, NeoFronteras
Huellas y modelo de la mano (izquierda) y disposición de las huellas con un modelo de cómo se pudieron dejar. Fuente: Per Ahlberg et al., Nature 463 (2010).
La búsqueda de los primeros tetrápodos es la búsqueda de nosotros mismos. Esos primeros tetrápodos fueron los primeros vertebrados que se aventuraron fuera del agua y de los cuales supuestamente descendemos nosotros. En el ártico canadiense se han conservado algunos fósiles de los animales a partir de los que evolucionaron (animales de transición denominados elpistostégidos), fósiles que han proporcionado valiosas pistas sobre la evolución de los primeros vertebrados terrestres. Ahora, Grzegorz Niedźwiedzki y su equipo de la Universidad de Varsovia han descubierto en Polonia unas controvertidas pisadas y señales fósiles (ictitas) que unos tetrápodos dejaron en el barro hace 395 millones de años. Estiman que el animal que produjo las huellas debía medir unos 2,5 m de longitud. Las montañas Świetokrzyskie (sur de Polonia), en donde se han encontrado estas huellas, pertenecen a una formación correspondiente a la costa sur del supercontinente Laurasia, en el Devónico, una vez que el supercontinente único Pangea se hubo fragmentado. Hasta el momento se creía que los primeros tetrápodos (o animales con cuatro patas) evolucionaron a partir de los elpistostégidos. A estos últimos pertenecen Tiktaalik y Panderichthys, que son los elpistostégidos más
10 millones de años. Hasta ahora se creía que los primeros tetrápodos no surgieron hasta hace 377 millones de años. A partir de estos tetrápodos surgirían más tarde los reptiles, dinosaurios, mamíferos, etc. La solución que sugieren los paleontólogos polacos es que los elpistostégidos serían una vía muerta evolutiva en lugar de un supuesto “eslabón”. En las huellas se aprecian perfectamente las señales dejadas por los dedos, por lo tanto no hay duda que fueron dejados por animales con patas en lugar de por animales de transición. Además, las señales dejadas en el antiguo cieno indican que el animal caminaba en diagonal, lo que exige una coordinación de sus miembros imposible para un animal con aletas como Tiktaalik. Tampoco se aprecian señales de arrastre de vientre o cola, quizás porque el animal probablemente flotaba parcialmente en aguas someras. Se trata pues de un auténtico tetrápodo. La superficie que hay alrededor de las pisadas está increíblemente bien conservada, con grietas producidas Fuente: Grzegorz Niedzwiedzki. por el barro según éste se secaba y seLo malo es la evidente contradic- ñales dejadas por las gotas de lluvia. Según Niedźwiedzki el animal que ción entre ambos hallazgos, pues los animales que dejaron esas huellas en dejó esas huellas caminaba a lo largo lo que hoy es Polonia serían más an- de una laguna marina somera o algo tiguos que los animales de los que similar en la costa. Los fósiles de insupuestamente creíamos que habrían vertebrados del entorno así lo parecen partido. Pues este animal coexistió demostrar. Tradicionalmente se creía con los elpistostégidos durante unos que los primeros animales terrestres antiguos conocidos, con 386 millones de años. Los elpistostégidos no tenían verdaderas patas y en su lugar tenían aletas más o menos sofisticadas, de ahí que sean considerados animales de transición que habrían evolucionado a partir de peces.
c http://neofronteras.com - Creado con LATEX y paperTEX
NeoFronteras Trimestral
Paleontología
2010 Edición de invierno 71 / 114
emergieron de ríos o lagos de agua dul- males dejar el ambiente marino para ir dadores?, ¿aguas pobres en oxígeno?, ce. a tierra: ¿puesta de huevos en un sitio ¿más recursos alimenticios?. . . No lo No está claro qué hizo a estos ani- seguro fuera del alcance de los depre- sabemos seguro.
La solución que sugieren los paleontólogos polacos es que los elpistostégidos serían una vía muerta evolutiva en lugar de un supuesto “eslabón”. Niedźwiedzki y su equipo esperan encontrar restos fósiles que ayuden a recabar más información sobre el ser que dejó esas huellas y, sobre todo, que justifiquen este hallazgo. Encontrar huesos ayudaría a explicar la relación entre los primeros tetrápodos y los animales con aletas de los que procedían. Si el hallazgo se confirma habrá
que repensar el origen de los primeros tetrápodos y quizás haya que rescribir los libros de texto. Aunque todavía queda la posibilidad de que algo esté enmascarando las huellas. Otros paleontólogos ya están atacando el nuevo descubrimiento, pues unas simples huellas es poco para demoler el modelo aceptado. También cuestionan la edad de las rocas don-
de se han hallado.
Enlace: http://neofronteras.com/ ?p=2959 Fuentes y referencias: Artículo en Nature. Nota de prensa de la Universidad de Uppsala.
PALEONTOLOGÍA
Explicando el misterio de Prototaxites Dan con una teoría que parece explicar el origen y la naturaleza de los fósiles de Prototaxites. J. J. Moreno, NeoFronteras
Tapetes de hepáticas formando Prototaxites bajo el efecto de la gravedad. Fuente: Kandis Elliot.
En abril de 2007 NeoFronteras cubrió una noticia interesante que en aquel momento tuvo cierto éxito (en aquella época no había explotado esto de la web 2.0). La noticia trataba sobre una nueva explicación para los fósiles de Prototaxites. Según esa teoría, estos fósiles se corresponderían a setas gigantes de varios metros de altura, que se elevaban sobre las primeras plantas en los paisajes silúricos de hace 400 millones de años. Pues bien, ahora proponen una nueva teoría que negaría la naturaleza fúngica de estos fósiles y que los relacionaría con las hepáticas. Los fósiles de Prototaxites siempre han sido controvertidos desde que fueron descritos por primera vez en 1859. Se asemejan a troncos de árboles, pero son de una época anterior a la existencia de cualquier tipo de árbol. El c http://neofronteras.com - Creado con LATEX y paperTEX
análisis isotópico sugiere que se trata de hongos, pero la estructura de tejidos que muestran no se parece a la de los hongos. Algunos análisis bioquímicos indican que se asemejarían a las plantas, pero hay pruebas de que eran heterótrofos, algo poco común en plantas. Todas estas contracciones hacen que sea muy difícil identificar la naturaleza de los seres que produjeron estos fósiles. Se ha propuesto que eran algas gigantes, hongos o líquenes. Ahora Linda Graham y sus colaboradores creen haber resulto el misterio, y muestran sus pruebas en un artículo en American Journal of Botany. Según ellos se trataría de mantos de hepáticas enrollados sobre sí mismos por efecto de la gravedad. Los Prototaxites se dieron durante el Silúrico y Devónico hace entre 420 y 370 millones de años. Tienen una anatomía tubular sin ramas. Un corte transversal revela una estructura de anillos similar a la que se puede encontrar en los troncos de árboles actuales. Su tamaño varía, pero pueden llegar a tener una longitud de 8,8 metros y un diámetro de 1,37 m. Este tamaño haría de Prototaxites el organismo más grande de los periodos Silúrico y Devónico. Graham y sus colaboradores hipotetizan que estos fósiles estarían compuestos de mantos o tapetes enrollados por la acción del viento, del agua o de la gravedad y formados por restos parcialmente degradados de diversos organismos, principalmente hepáticas, pero también cianobacterias y hongos. Como esto recuerda vagamente a los tapetes o mantos producidos por las modernas hepáticas del género Marchantia, los autores del trabajo estudiaron esta hepática bajo la perspectiva del ambiente volcánico y cálido del Devónico y compararon los resultados con fósiles de Prototaxites, en especial un corte laminar realizado
NeoFronteras Trimestral
Paleontología
en 1954 por Chester A. Arnold. El estudio estructural comparativo (merece la pena echar un vistazo a las fotos del artículo original) muestra que Prototaxites y la hepática moderna Marchantia polymorpha tiene una estructura externa, una anatomía interna y un sistema nutricional similares. A pesar de que las condiciones bajo las que se encuentran los seres en esas condiciones de descomposición y desecación, algunos tejidos de M. polymorpha sobreviven a la degradación y cuando uno de estos tapetes se enrolla forma estructuras con la apariencia de círculos concéntricos. Las hifas de hongo asociadas a las hepáticas sobreviven a este proceso, lo que sugiere que los tubos ramificados encontrados en los fósiles serían hifas de hongo. Mientras que los tubos finos de los fósiles se corresponde-
2010 Edición de invierno 72 / 114
rían a filamentos de cianobacterias que los investigadores han encontrado también en las estructuras formadas por M. polymorpha. Graham y sus colaboradores han encontrado que el crecimiento de M. polymorpha era 13 veces superior en un medio rico en glucosa que sin ella. Los análisis isotópicos indican que menos del 20 % del carbono de las hepáticas crecidas en glucosa viene de la atmósfera. La cantidad de isótopos estables de carbono en M. polymorpha crecida con distintas cantidades de cianobacterias reproduce la gama medida en los fósiles de Prototaxites. Por tanto, la presencia de glucosa y de cianobacterias en mayor o menor medida explicaría la relación isotópica de carbono encontrada en los fósiles de Prototaxites.
Microfotografías en las que se comparan estructuras anatómicas encontradas en M. polymorpha y en fósiles de Prototaxites. Fuente: Linda E. Graham y colaboradores.
En resumidas cuentas, el estudio explicaría tanto la estructura anatómica de Prototaxites como su relación isotópica, resolviendo un misterio ya antiguo. Quizás un tapete enrollado de hepáticas sea menos espectacular que una seta de 8 metros de altura, pero nos habla mejor de cómo era el mundo en esa época. Según este resultado las hepáticas serían un componente muy importante en los ecosistemas del Devónico. Es increíble que todavía estas plantas estén
c http://neofronteras.com - Creado con LATEX y paperTEX
entre nosotros. Enlace: http://neofronteras.com/?p=3010 Fuentes y referencias: Nota de prensa de American Journal of Botany. Artículo original en American Journal of Botany. Setas de 6 metros de hace 400 millones de años.
NeoFronteras Trimestral
Paleontología
2010 Edición de invierno 73 / 114
PALEONTOLOGÍA
La extinción de la megafauna australiana Según un estudio reciente fue el ser humano, y no el clima, el causante de la extinción de la megafauna australiana. J. J. Moreno, NeoFronteras
Ya hemos hablado aquí de la posible extinción de la megafauna de América a manos de los primeros humanos que llegaron a ese continente hace 12.000 años. También de la llegada de los maoríes a Nueva Zelanda entre los siglos X y XIII, que produjo una extinción similar. ¿Pasó algo parecido con la llegada del ser humano a Australia hace 40.000 años? Según un estudio reciente publicado en Science, hay suficientes pruebas de que el ser humano, y no el clima, fue el causante de la extinción de la megafauna australiana. Megafauna que estaba compuesta por marsupiales gigantes, grandes reptiles y aves no voladoras. Los dos científicos australianos autores del estudio sostienen que la mejora en los métodos de datación muestra claramente que la megafauna coexistió con los humanos un periodo de tiempo muy corto después de que los humanos habitaran la isla. Posiblemente fueron los hábitos de caza de dichos humanos los que forzaron la extinción de esas especies, especies que estaban muy desprotegidas frente al nuevo invasor y que no tuvieron tiempo de adaptarse. Recordemos una vez más que, bajo el punto de vista del cazador, siempre es más rentable cazar primero a los animales más grandes porque la relación ganancias/inversión es más alta. Una vez extintas las especies más grandes en un área dada se pasa a cazar las siguientes más grandes y así sucesivamente. Según Richard Roberts y Barry Brook, de University of Wollongong y University of Adelaide respectivamente, los nuevos métodos de datar huesos y dientes de especies extintas demuestran que la megafauna fósil y las herramientas aborígenes no son todas del mismo periodo de tiempo. Según Brooks, el debate acerca de las posibles causas de las extinciones
del Pleistoceno tardío se ha prolongado durante los últimos 150 años, dividiendo a los expertos del campo entre aquellos que culpaban al clima del hecho y aquellos que responsabilizaban a los humanos. Pero Australia fue colonizada durante un tiempo en el que el clima era relativamente benigno, lo que apoyaría la idea de que fueron los humanos los que causaron las extinciones. El impacto humano debido a los hábitos de caza o a la perturbación del hábitat fue la fuerza más probable que dirigió la extinción.
Reconstrucción de Palorchestes azael, un marsupial extinto de media tonelada que comparte similitudes con el perezoso gigante americano, Fuente: Cortesía de Peter Schouten.
Sin embargo, se descubrió una localización (Cuddie Springs) en la que parecía que se había dado una anomalía al patrón general. Allí se encontraron huesos de canguros gigantes, de
c http://neofronteras.com - Creado con LATEX y paperTEX
aves gigantes y de Diprotodon, que fue el mayor marsupial que hubo en Australia, con un tamaño equivalente al de un rinoceronte actual. Además, esos huesos estaban en las mismas capas sedimentarias que las herramientas de piedra fabricadas por los aborígenes. Esto hizo hacer creer a los científicos que hubo un gran solape temporal (y por tanto una presencia compatible) entre estos animales y los humanos. No obstante, una mayor precisión en la datación de los objetos encontrados realizada recientemente indica que los artefactos humanos y los huesos de megafauna encontrados allí fueron mezclados durante miles de años, mucho tiempo después de que estos animales desaparecieran. Por lo tanto, no hubo una supervivencia atípica de megafauna en este sitio. Roberts dice que, dado que la gente llegó a Australia entre hace 60.000 y 50.000 años, el impacto humano fue la fuerza más probable que dirigió la extinción, o bien debido a los hábitos de caza o bien debido a la perturbación del hábitat provocada por los humanos. Además, Brooks sugiere que las afirmaciones previas sobre los restos de una supuesta megafauna encontrados en la Isla Canguro, Victoria Este y Papua Nueva Guinea habría que considerarlas bajo sospecha a la luz de este nuevo hallazgo.
Enlace: http://neofronteras.com/ ?p=2983
Fuentes y referencias: Nota de prensa de University of Adelaide Artículo de Science original (pdf). La rápida extinción de los grandes mamíferos. Sobre el color de los moas.
NeoFronteras Trimestral
Antropología
2010 Edición de invierno 74 / 114
ANTROPOLOGÍA
Inscripciones de 60.000 años de antigüedad Encuentran “inscripciones” de hace 60.000 años grabadas en fragmentos de cascarones de huevos de avestruz, lo que quizás indicaría la existencia de pensamiento simbólico ya por esa época. J. J. Moreno, NeoFronteras
Algunos fragmentos de cáscaras de huevos de avestruz con “inscripciones” grabadas de 60.000 años de antigüedad. Fuente: Pierre-Jean Texier, Diepkloof Project.
Usted, amigo lector, esta leyendo esta noticia en un texto escrito. Pudiera ser que este texto estuviera escrito sobre una piedra, una tablilla de barro, un papiro o un pergamino, pero probablemente lo esté sobre una pantalla. Aunque aún puede imprimirlo sobre papel, pues algunos, incluso ahora que la tinta electrónica se está asentando, no nos hemos liberado todavía del fetichismo del papel. Necesitamos “tocar” el texto. El caso es que la humanidad ha utilizado diversos soportes para escri-
bir textos. Desde el hueso de Ishago, en donde hace más de 35.000 años alguien anotó lo que se consideran los primeros números, a los átomos de xenon con los que IBM dibujó su logotipo de escala atómica hace ya unos cuantos años. Con cualquier escritura siempre se intenta mandar un mensaje, transmitir información. Puede que sean las obras perdidas de Sófocles en la destrucción de la Gran Biblioteca de Alejandría o el indeleble feo graffiti de la pared a la vuelta de la esquina. Lo ma-
ravillo, lo increíble, es que funciona. Alguien en algún lugar del espaciotiempo escribe algo sobre un soporte, plasmando sus ideas y sentimientos con ese acto, y, si el soporte perdura lo suficiente, puede ser leído por otra persona más tarde. De este modo el lector puede analizar el pensamiento del autor, o recrear en su mente los personajes que el narrador entretejió en una maravillosa trama como modelo explicativo de la vida humana.
La diversidad de los motivos encontrados en estos fragmentos es impresionante y serían prueba de comunicación gráfica, de expresión artística o de autoconsciencia de los que los grabaron. Puede incluso ocurrir que aquel que escribe nos hable desde mucho más allá de su tumba. Tuvo que ser maravilloso desenterrar la biblioteca de Asurbanipal de Nínive y leer, en la escritura cuneiforme de las doce tablillas de barro, la epopeya de Gilgamesh después de más de 4600 años desde que el mítico babilonio supuestamente reinara en Uruk.
tal y como lo conocemos lleva mucho tiempo por aquí. Ya vimos en NeoFronteras cómo nuestros antepasados construían instrumentos musicales hace 35.000 años, por lo que el pensamiento abstracto o simbólico, algo que se cree único de nuestra especie, debe ser muy antiguo, y es muy posible que no apareciera hace poco y súbitamente.
mano, tendrían 100.000 años de antigüedad, hallazgo que se sumarían a otro previo similar de 77.000 años de antigüedad encontrado en la misma localización.
El equipo de investigadores de Blombos, dirigido por Pierre-Jean Texier de la Universidad de Burdeos, sostiene que esto supondría la existencia de una tradición simbólica continua de La escritura no tiene más de 5000 Unos años atrás se encontraron larga duración. Sin embargo, otros araños, puede que incluso haya apareci- pistas en Sudáfrica según las cuales queólogos cuestionaron que las marcas do en más de un momento y se per- ciertos diseños encontrados en la cue- encontradas en esa cueva representen diera. En todo caso, el ser humano va Blombos, de posible origen hu- verdaderamente un pensamiento simc http://neofronteras.com - Creado con LATEX y paperTEX
NeoFronteras Trimestral bólico. Ahora, este mismo equipo ha encontrado unos fragmentos de cascarones de huevos de avestruz con “inscripciones” humanas inequívocas y que son las más antiguas que se conocen, nada menos que hasta 65.000 años de edad. Estas rayas, marcas y patrones geométricos serían las pruebas más antiguas de pensamiento simbólico. Desde 1999 estos investigadores han estado trabajando en otra localización distinta a la cueva Blombos: el refugio Diepkloof al oeste del Cabo y a unos 180 km de Ciudad del Cabo. Este abrigo contiene pruebas de que di-
Antropología versas culturas humanas usaron herramientas de piedra a lo largo del tiempo. Pero lo más fascinante es que en los últimos años han ido descubriendo hasta 25 de estos fragmentos de huevos de avestruz en 18 capas arqueológicas distintas, y datadas desde una antigüedad de 65.000 años a 55.000 años. Es decir, había una tradición de miles de años. Estos fragmentos están decorados con diversos motivos grabados que incluyen líneas paralelas, cruces y líneas repetitivas no paralelas. Además este equipo encontró patrones que parecen haber cambiado en el tiempo. Así, algunos de lo motivos encontrados, con
2010 Edición de invierno 75 / 114
forma de bandas, se encuentran solamente en las capas más antiguas y luego desaparecen. Algunos de los fragmentos parecen haber sido perforados con alguna herramienta para así practicar un agujero en la parte superior del huevo. Los arqueólogos sugieren que los huevos perforados de esta manera podrían haber servido de recipientes para el agua, tal y como lo han hecho históricamente los cazadores-recolectores del desierto de Kalahari. La gente del Kalahari decora los huevos de avestruz usados como cantimplora para indicar el dueño o qué contienen. Quizás hace 60.000 años era igual.
Otros fragmentos. Fuente: Pierre-Jean Texier, Diepkloof Project.
El equipo concluye que el nuevo hallazgo constituiría la prueba más antigua de la existencia de tradición gráfica entre la población prehistórica de los cazadores recolectores. Según otros expertos del campo, la diversidad de los motivos encontrados en estos fragmentos es impresionante y serían prueba de comunicación gráfica, de expresión artística o
de autoconsciencia de los que los grabaron, por lo que sí serían prueba de la existencia de pensamiento simbólico. Sin embargo, el arqueólogo Thomas Wynn, de University of Colorado, dice que estos investigadores todavía tienen que demostrar que esas marcas requieren de pensamiento simbólico. ¿Qué querrían decir con esas líneas? ¿Qué sentían esas personas?
c http://neofronteras.com - Creado con LATEX y paperTEX
¿Cuáles eran sus anhelos? Enlace: http://neofronteras.com/ ?p=3028 Fuentes y referencias: Noticia en Science. Artículo original en PNAS.
NeoFronteras Trimestral
Antropología
2010 Edición de invierno 76 / 114
ANTROPOLOGÍA
Hace 3 millones de años andábamos igual que ahora Nuestros antepasados de hace 3,6 millones de años ya adoptaron una postura erguida al caminar, pese a tener rasgos anatómicos simiescos pensados para vivir en los árboles. J. J. Moreno, NeoFronteras
Detalle de una de estas huellas.
Nosotros, como únicos primates que podemos andar sobre dos piernas, nos sentimos especiales. Nuestros antepasados, al erguirse sobre el suelo y poder mirar más allá, no solamente pudieron ver antes a sus enemigos y sobrevivir, sino que realizaron un acto que creemos único por su significado simbólico. Con ello, además, tuvimos las manos libre para hacer otras cosas, como usar herramientas y crear tecnología, aunque ésta fuera de piedra. Por eso, toda noticia de Paleoantropología que hable de cuándo conseguimos esta postura erguida nos parece importante. Hace tres millones de años nuestros antepasados pasaban todavía bastante tiempo en los árboles, la cuestión es si bajaron al suelo y a partir de entonces comenzaron una larga carrera evolutiva hacia el bipedismo o si ya entonces tenían la capacidad fisiológica de poder andar a dos patas de manera eficiente. Ahora David Raichlen, de University of Arizona, y sus colaboradores de University at Albany y de City University of New York’s Lehman College ha aportado pruebas experimentales que indican que los primeros homínidos de hace 3,6 millones de años ya podían caminar como los humanos actuales. Hace más de 30 años se descubrieron las huellas dejadas por un homínido cuando hace 3,6 millones de años andaba sobre cenizas volcánicas. Esas huellas fósiles, que tienen un valor iconográfico sólo comparable a las huellas dejadas por Neil Armstrong en la Luna, tienen todavía más valía científica y su significado en la evolución humana se ha debatido desde entonces. Estos investigadores han analizado tridimensionalmente estas huellas llegando a la conclusión de que muestran claras señales de bipedalismo, haciendo del Australopithecus afarensis la única especie viva del área en aquella época capaz de tal proeza. Esta especie incluye a Lucy, cuyo esqueleto es el más completo que se conserva a día de hoy de Australopithecus afarensis. Hay varios rasgos en las caderas, piernas y espalda que indican que esta especie podría caminar sobre dos piernas mientras estaba en el suelo. Pero la curvatura de los dedos c http://neofronteras.com - Creado con LATEX y paperTEX
de las manos y pies y orientación de los hombros indican que Lucy y otros miembros de su especie además pasaban bastante tiempo en los árboles. Esta morfología difiere de nuestro propio género que abandonó la vida en los árboles hace 2 millones de años. Desde que se descubrieran las huellas de Laetoli los científicos han debatido sobre si indicaban o no que el ser que las dejó allí andaba sobre dos piernas como lo hacen los chimpancés actuales o como lo hacen los humanos modernos. Para resolver este dilema este grupo de investigadores ha realizado el primer estudio biomecánico de las huellas, comparándolo con experimentos en los que capturaron el movimiento de los pies de voluntarios sobre una superficie cubierta con arena. Los humanos que se prestaron a los ensayos caminaron de dos maneras distintas: la manera habitual y lo más aproximadamente posible a como lo haría un chimpancé. Se recolectaron moldes tridimensionales de las huellas dejadas en ambos casos para compararlas con las huellas de Laetoli. Analizando la profundidad relativa de las huellas, así como las dejadas por el talón y los dedos, llegaron a la conclusión que los homínidos de hace 3,6 millones de años ya caminaban como lo hacen los humanos, con una postura erguida. Al parecer la clave está en la profundidad de la señal dejada por los dedos, que es más profunda que la dejada por el talón cuando la postura es encorvada. El resultado ha sido una sorpresa para los investigadores, pues esperaban una postura más simiesca en el Australopithecus afarensis. Las huellas de Laetoli tienen la misma profundidad para los dedos y el talón, tal y como sucede en las huellas dejadas por humanos modernos. Según Raichlen, esta forma de caminar es muy eficiente desde el punto de vista energético, lo que sugiere que la reducción de costo energético fue importante a la hora de la evolución del bipedalismo, siendo su origen previo a la aparición de nuestro propio género. Si las huellas de Laetoli fueron dejadas por la misma especie a la que perteneció Lucy, como la mayoría de los expertos creen, este resultado tendría implicaciones interesantes en la cronología de los eventos evolutivos que finalmente permitieron la aparición del ser humano. Quizás lo más fascinante sea que este estudio sugiere que cuando nuestros “antepasados” tenían una anatomía pensada para pasar mucho tiempo en los árboles ya habían desarrollado una manera muy eficiente de andar sobre dos piernas, de la misma manera a como lo hacen los humanos modernos. Esos antepasados nuestros de hace 3,6 millones de años no estaban comprometidos a vivir a tiempo completo en los árboles o en el suelo, sino que no fue hasta un millón de años más tarde cuando se dio la transición. El hecho de que un animal arborícola como Lucy tuviera una manera moderna de andar sería un testamento de la importancia de la eficiencia energética de moverse sobre dos piernas.
NeoFronteras Trimestral
Antropología
2010 Edición de invierno 77 / 114
Comparativa entre las huellas dejadas por humanos al andar con dos posibles posturas y una de las huellas dejadas hace 3,6 millones de años en Laetoli. Fuente: David Raichlen y colaboradores.
Enlace: http://neofronteras.com/?p=3045 Fuentes y referencias: Nota de prensa de University of Arizona.
c http://neofronteras.com - Creado con LATEX y paperTEX
“Laetoli Footprints Preserve Earliest Direct Evidence of Human-like Bipedal Biomechanics”. Artículo origianl en PLoS One.
NeoFronteras Trimestral
Antropología
2010 Edición de invierno 78 / 114
ANTROPOLOGÍA
¿Nueva especie Homo? Restos genéticos sugieren que hace 40.000 años habría otra especie Homo compartiendo el mundo con humanos modernos, neandertales y quizás con el hombre de Flores. J. J. Moreno, NeoFronteras
Uno de los temas científicos que más interesan a los seres humanos es el de la Paleoantropología. Saber sobre nuestros propios orígenes parece que nos fascina. Pero que nos interese no significa que sepamos bien sobre el tema, ni siquiera lo poco que los científicos del campo saben al respecto. Uno de los prejuicios o malentendidos más común es colocarnos (¿autoentronizarnos?) como la cumbre de un proceso evolutivo en permanente progreso. No es así, somos fruto de la casualidad y nuestra aparición en la Tierra no era inevitable. De hecho, pudo surgir perfectamente una especie inteligente durante la era de los dinosaurios sin necesidad del advenimiento del reino de de los mamíferos. La evolución no tiene una dirección específica y menos aún hacia un progreso en pos de organismos cada vez más complejos. No es así, la evolución funciona en todas las direcciones y tiene éxito allá donde encuentra un hueco. Por eso las ballenas perdieron sus extremidades y volvieron al mar o ciertos parásitos se simplifican hasta la mínima expresión. La evolución no tenía “necesidad” de crearnos, ni estaba dirigida hacia nosotros cuando dio con los Homo gracias a la contingencia. Otro de los prejuicios que normalmente aparece es la secuencia en escala de progreso de unos homínidos sucediéndose unos a otros, cada vez menos encorvados y cada vez más “modernos”. En realidad, la Naturaleza, a través de procesos de especiación y evolución, radió varias especies de homínidos a lo largo de millones de años. De este modo, la manera correcta de ver la evolución del género Homo (o de cualquier otro grupo de especies) es a través de un árbol filogenético. Ese árbol fue podado reiteradamente por diversos procesos de extinción y ahora sólo quedamos los Homo sapiens sapiens. Muchos de esos mal llamados “eslabones perdidos” que se encuentran de vez en cuando no son nuestros antepasados directos, sino una rama paralela que desapareció.
Si la estructura evolutiva es la de un árbol surge inmediatamente la pregunta de si dos o más de alguna de esas especies convivieron en el tiempo en la Tierra. Se ha podido demostrar que en algunos casos así fue, al menos con especies viviendo en distintas partes del mundo.
Entrada a la cueva Denisova. Fuente: Nature.
Para el caso de compartir el territorio la situación es menos clara y todavía hay debate científico al respecto, sobre todo en las especies más recientes como Homo sapiens (nosotros) y Homo neandertalensis (hombre de neandertal) en Europa. En este caso se llega al colmo de los prejuicios y contaminación política e ideológica al sugerir algunos que fuimos nosotros los que liquidamos a los neandertales a base de violencia e incluso canibalismo, aunque las pruebas al respecto sean inexistentes. Lo más curioso es que los que normalmente opinan así suelen ser miembros de la progresía política, los mismos que sostienen que el hombre es bueno por naturaleza y sobre esa idea edifican su proyecto de edificio político. Todo se complica aún más por la dificultad de encontrar restos fósiles de unas especies que tampoco eran
c http://neofronteras.com - Creado con LATEX y paperTEX
muy abundantes y sobre un periodo geológico de sólo unos pocos millones de años. Los huesos que se encuentran a veces no están propiamente fosilizados (mineralizados), sino que simplemente se han conservado hasta el día de hoy. A veces no hay huesos y sólo tenemos herramientas de piedra y, a veces, ni siquiera eso. Toda esta introducción sirve para prepararnos sobre la importancia de un descubrimiento reciente acerca del descubrimiento de una nueva especie Homo. En unas cuevas de Siberia se han encontrado restos de ADN humano de sólo 40.000 años de edad. Este ADN apunta además hacia un linaje antiguo y distinto a los conocidos lo que lo haría coetáneo tanto del ser humano moderno como del hombre de neandertal. El descubrimiento apuntaría, por tanto, a que Asia estaba ocupada en ese tiempo no sólo por neandertales y sapiens, sino además por una tercera especie humana desconocida hasta ahora. Este hallazgo sería el descubrimiento más excitante realizado en el campo sobre ADN antiguo de los últimos tiempos. Este descubrimiento complica una vez más la historia evolutiva humana reciente, ya de por sí bastante complicada desde que se descubrió el hombre de Flores (o “hobbit”), un supuesto humano de pequeño tamaño que vivió en la isla de Flores y cuya naturaleza está aún debatiéndose en círculos académicos sin llegar a ninguna conclusión (razón por la cual las noticias al respecto no son cubiertas por NeoFronteras). Por un lado están los que afirman que era un sapiens con deformidades y por otro los que dicen que era una especie distinta. Si al final se confirman todos estos hallazgos se podría llegar a la conclusión de que, con al menos cuatro especies coetáneas, la biodiversidad humana de hace 40.000 años era bastante notable. El árbol filogenético tendría al menos cuatro ramas “vivas con hojas” en esa época. La historia sobre este hallazgo comienza en 2008 cuando Michael Shun-
NeoFronteras Trimestral kov y Anatoli Derevianko, de la Academia Rusa de Ciencias en Novosibirsk, encontraron un hueso de dedo en la cueva Denisova, en las montañas Altai de Rusia. La cueva, que tiene una amplitud arqueológica temporal que cubre 100.000 años, tiene tanto restos neandertales como de humanos modernos en forma de herramientas de piedra y restos óseos. El hueso que nos ocupa fue datado por radiocarbono con una edad comprendida entre hace 48.000 y 30.000 años. Más tarde, Svante Pääbo, Johannes Krause, y sus colaboradores de Instituto Max Planck de Antropología Evolutiva de Leipzip (Alemania) molieron 30 miligramos de ese hueso y
Antropología extrajeron una secuencia de ADN mitocondrial de 16.569 bases de longitud gracias a una nueva técnica desarrollada por el grupo de Pääbo. Entonces compararon esa secuencia con las presentes en 54 personas vivas de distintas partes del mundo, restos genéticos de humanos de hace 30.000 años de otra localización rusa y con secuencias genéticas de seis neandertales. La gran sorpresa fue hallar que, mientras que las secuencias neandertales diferían en 202 posiciones de nucleótidos, la diferencia respecto al hombre de la cueva Denisova difería en 385 posiciones respecto al hombre moderno. Comparando estos datos con los
2010 Edición de invierno 79 / 114
datos genéticos disponibles sobre el chimpancé y el bonobo pudieron calcular que el nuevo homínido compartió con los neandertales un antepasado común hace un millón de años, por lo que se separó del linaje común antes de que lo hicieran entre sí neandertales y humanos modernos. Por tanto el hueso en cuestión pudo pertenecer a una especie humana extinta que emigró de África mucho antes de que lo hicieran nuestros “parientes” conocidos. Svante Pääbo no se pudo creer el resultado y según sus propias palabras “sonaba demasiado fantástico como para ser verdad”.
Interior de la cueva Denisova. Fuente: Instituto Max Planck.
No se sabe muy bien quién era este homínido. Estos investigadores sostiene que era demasiado tarde para el Homo erectus, que emigró de África hace unos 1,8 millones de años. Y es demasiado pronto para H. heidelbergensis, que apareció en África y Europa hace 650.000 años y que muchos investigadores consideran el antepasado común de neandertales y humanos modernos. Se especula que quizás se trate de una especie
pre-heidelbergensis o una post-erectus (por decir algo). De momento el equipo de Pääbo no ha dado al nuevo linaje un nombre, al menos hasta que se sepa más acerca de él. El próximo paso será la secuenciación de ADN nuclear de ese mismo trozo de hueso. Quizás, si tienen suerte, podamos saber más sobre esta misteriosa especie humana, sobre todo si consiguen secuenciar casi todo el genoma. Si es así sería el genoma
c http://neofronteras.com - Creado con LATEX y paperTEX
humano más antiguo en ser secuenciado hasta la fecha. Enlace: http://neofronteras.com/ ?p=3052 Fuentes y referencias: Nota de prensa del Instituto Max Planck. Noticia en Science. Articulo original en Nature (resumen).
NeoFronteras Trimestral
Antropología
2010 Edición de invierno 80 / 114
ANTROPOLOGÍA
Los neandertales tenían pensamiento simbólico Encuentran abalorios y pigmentos de maquillaje que pertenecieron a los neandertales, lo que implica que tenían capacidades cognitivas superiores. J. J. Moreno, NeoFronteras
Una de las conchas horadadas (izquierda) e imágenes de aumento de restos de pigmentos (derecha). Fuente: PNAS; João Zilhão.
¿Qué define al ser humano? ¿Qué nos caracteriza exclusivamente y cuándo empezó a darse? Hay animales que utilizan herramientas, que tienen un lenguaje primitivo o tienen una cultura muy simple. Unos pocos tienen incluso consciencia de sí mismos y se reconocen en el espejo. Sin embargo, parece que el ser humano es el único que utiliza maquillaje o usa ornamentos. ¿Nos sirve esto como criterio? Una de las cosas que más impresionan al visitar restos arqueológicos
del antiguo Egipto es la representación de la vida cotidiana. En las pinturas de las paredes aparecen a veces escenas en las que los personajes están en la peluquería o se hacen la manicura. Parecen sacadas del presente y no hay dudas de que esos humanos de hace 4000 ó 5000 años vivían, salvando la distancia tecnológica, como nosotros. Recientemente ha salido un estudio respecto al maquillaje que utilizaban, pero ¿cuándo comenzaron estas prácticas?
Desde hace tiempo se vienen encontrando restos de abalorios que una vez, hace miles de años, mucho antes que los antiguos egipcios, pertenecieron también al Homo sapiens. Pero antes del Homo sapiens había otros seres que no eran tan distintos de nosotros. Ahora se ha publicado una investigación en la que se afirma que los neandertales usaban ya ornamentación corporal, que es una expresión artística, lo que sugeriría que eran capaces de un pensamiento avanzado.
Esta sería la primera prueba de que hace unos 50.000 años los neandertales estaban organizados simbólicamente. La creencia popular es que los neandertales tenían unas capacidades cognitivas inferiores a las del Homo sapiens, que en definitiva eran brutos o estúpidos, pero este resultado va en contra de ese prejuicio.
en lo que hoy es Murcia (sureste de neandertales se atribuyeron a la conEspaña) en las cuevas de los Aviones taminación de los estratos o eran muy y en el abrigo de Antón. discutibles.
Los análisis químicos de los pigmentos rojos y amarillos encontrados sugieren que los usaban como cosJoão Zilhão, de University of Bris- méticos. La práctica de la ornamentol, y sus colaboradores examinaron tación corporal es aceptada ampliaconchas marinas que una vez usa- mente por los antropólogos como una ron un grupo de neandertales, descu- prueba de comportamiento moderno briendo que algunas habían contenido y pensamiento simbólico entre los hupigmentos y otras incluso habían si- manos primitivos, pero no estaba redo perforadas, probablemente para su conocido, hasta ahora, en los neanderuso en un collar. tales. Materiales similares encontraEstas conchas fueron encontradas dos con anterioridad en asentamientos c http://neofronteras.com - Creado con LATEX y paperTEX
Esta sería la primera prueba de que hace unos 50.000 años, es decir, 10.000 años antes de que los humanos modernos llegaran a Europa, los neandertales estaban organizados simbólicamente. Demostraría, por tanto, la evolución independiente de capacidades cognitivas avanzadas en el linaje Neandertal. Los residuos rojizos encontrados contienen lepidocrocita y hematite. El negro estaría compuesto por pirita tri-
NeoFronteras Trimestral turada, que daría un efecto igual al que cabría esperar de una preparación cosmética. Por otro lado, el pigmento amarillo está compuesto por natrojarosita, un mineral de hierro que también se usó como cosmético en el an-
Antropología tiguo Egipto. La elección de conchas de Spondylus como contenedor para estas recetas quizás esté relacionada con los impresionantes colores púrpuras, rojos o violetas que tienen estas conchas, y
2010 Edición de invierno 81 / 114
que también estaría relacionada con algún comportamiento simbólico o ritual, al igual que lo ha estado en muchos otros contextos arqueológicos en todo el mundo.
Conchas horadadas para ornamentos corporales. Fuente: PNAS; João Zilhão.
Este investigador considera que la naturaleza de los intercambios culturales y genéticos ocurridos entre neandertales y humanos modernos, que por esa época encontraron en contacto en Europa, se dio a un mismo nivel, nivel que se habrían alcanzado de manera independiente por ambas partes. Un argumento a favor de este pensamiento simbólico es que aunque con este hallazgo se demuestra que ya tenían esa capacidad hace 50.000 años, probablemente ya estaba presente mucho antes, de la misma manera que no se puede decir que los humanos modernos carecían de la capacidad cognitiva necesaria para inventar la bomba atómica hasta la Segunda Guerra Mun-
dial. La clave de este descubriendo está en la medida precisa del contenido de los distintos isótopos de carbono presentes en los restos orgánicos, que ha permitido datar con precisión estos restos. Este análisis se realizó en la unidad de radiocarbono de la Universidad de Oxford. Algunos paleoantropólogos explican por qué las pruebas existentes de arte y pensamiento abstracto son tan escasas en el caso de los neandertales, a diferencia de en el Homo sapiens. Según ellos sería por factores sociales y demográficos. Los neandertales tendrían densidades de población muy bajas y por tanto carecían de la red
c http://neofronteras.com - Creado con LATEX y paperTEX
social amplia necesaria para una comunicación simbólica entre los grupos y dentro de ellos. Los humanos modernos acogieron el comportamiento simbólico cuando fue ventajoso para ellos, y cuando su poblaciones fueron lo suficientemente estables en el tiempo como para mantener vivas estas tradiciones.
Enlace: http://neofronteras.com/ ?p=2967 Fuentes y referencias: Nota de prensa de la Universida de Bristol Artículo original en PNAS.
NeoFronteras Trimestral
Medicina
2010 Edición de invierno 82 / 114
MEDICINA
Formación de carcinógenos en humo de tabaco El humo del tabaco, una vez impregna las paredes, mobiliario o ropa, sufre cambios químicos al reaccionar con otros contaminantes produciendo aún más carcinógenos. J. J. Moreno, NeoFronteras
El “humo de tercera mano” parece aún más peligroso de lo que se creía. Según una serie de experimentos realizados en Berkeley Lab en superficies de celulosa contaminadas con residuos de nicotina procedentes de humo de tabaco se ha encontrado que la presencia de algunos carcinógenos se multiplica por 10 después de una exposición de tres horas a los contaminantes del medio. La nicotina procedente del humo del tabaco se pega a virtualmente a cualquier superficie y permanece allí mucho tiempo después de que el cigarrillo que originase el humo se haya apagado. Impregna los suelos, paredes, moqueta, muebles o alfombras durante semanas o meses (e incluso la ropa y piel humana). Además reacciona con los contaminantes que hay en interiores y exteriores, principalmente con el ácido nitroso, produciendo potentes carcinógenos como las nitrosaminas específicas del tabaco o TSNAs en sus siglas en inglés. Según Hugo Destaillats, investigador del Berkeley Lab, las TSNAs están entre los agentes carcinógenos más amplios y potentes presentes tanto en el tabaco sin quemar como en el humo de tabaco. Este investigador y sus colaboradores realizaron experimentos en los que se usó celulosa como modelo de superficie interior de una casa y se expuso a ésta al humo de tabaco. Al cabo de tres horas comprobaron que los niveles de TSNAs se habían multiplicado por diez respecto a la cantidad originalmente presente. En el ambiente del experimento se había introducido ácido nitroso en una concentración de 60 partes por mil millones en volumen, que es aproximadamente la cantidad alta aunque razonable que se puede encontrar en interiores. La fuente en interiores de este compuesto son las instalaciones de gas mal ventiladas y en exteriores los vehículos con motores de explosión interna. A veces pueden darse filtraciones de este compuesto en la cabina de camiones o en el interior de otros vehículos. Los TSNAa están ausentes del hu-
mo recién emitido por el tabaco, aunque éste contiene otras nitrosaminas como NNA. También se encontró que, debido al mecanismo antes descrito, se formaba NNN y NNK, que también son potentes carcinógenos. Según estos investigadores el humo de tercera mano representa un peligro importante para la salud a través de la exposición dérmica, polvo, inhalación e ingestión. En particular sería especialmente peligroso para los niños pequeños debido a sus especiales hábitos de comportamiento.
Máquina fumadora usada. Fuente: Berkeley Lab.
El estudio sostiene que ventilar abriendo la ventana de la habitación en la que se está fumando no elimina el peligro del humo de tercera mano. Tampoco fumar en exteriores es una mejora, según uno de los coautores. La razón es que los fumadores que salen fuera a fumar traen al interior los residuos de nicotina en la piel y en su ropa una vez han terminado de fumar. Una vez en el interior empiezan a formarse compuestos del tipo TSNA. Los peligros del humo de segunda mano se han documentado muy bien. Entre sus consecuencias están las enfermedades cardiovasculares, el cáncer, enfermedades pulmonares y defectos de nacimiento. Sin embargo, sólo recientemente las autoridades son conscientes de la amenaza que esto supone. Cualquiera que haya entrado en una habitación, vehículo o ascensor
c http://neofronteras.com - Creado con LATEX y paperTEX
donde haya fumado alguien sabe que el olor persiste durante mucho tiempo. Aunque los científicos eran conscientes de que los componentes volátiles del tabaco impregnaban las superficies y que finalmente podrían reaccionar con el ambiente, este estudio es el primero que cuantifica la reacción de estos compuestos con el ácido nitroso del ambiente. El trabajo también se aplica a los cigarrillos electrónicos, que consisten en tubitos en los que se vaporiza eléctricamente una disolución de nicotina. Se supone que proporcionan una experiencia similar a la de fumar sin que produzcan cáncer. Además, como no hay combustión los usuarios de este tipo de dispositivos pueden saltarse las restricciones impuestas por las leyes. Igual que en los cigarrillos normales los residuos de nicotina expuestos al ambiente producen los mismos componentes cancerígenos. Según Kamlesh Asotra, del University of California’s TobaccoRelated Disease Research Program, este estudio podría ser sólo la punta del iceberg. En el artículo publicado por estos científicos se sugieren varias medidas a tomar para reducir este peligro. Además de implementar ambientes 100 % libres de humos en lugares públicos, sugieren la autorestricción del uso del automóvil en áreas residenciales. Y en los edificios en donde se haya fumado aconsejan reemplazar moquetas, cubiertas de paredes y el mobiliario contaminado. Estos investigadores están ahora estudiando la estabilidad a largo plazo de las TSNAs producidas en interiores mediante este proceso. Además, intentan estudiar la química que hay detrás de la formación de estos compuestos. Enlace: http://neofronteras.com/ ?p=3009 Fuentes y referencias: Nota de prensa de Berkeley Lab., Artículo original en PNAS.
NeoFronteras Trimestral
Medicina
2010 Edición de invierno 83 / 114
MEDICINA
Proteínas humanas que funcionan en plantas Al insertar en plantas moribundas una proteína implicada en desarrollo del cáncer en humanos las hace revivir. compartidas por hongos y bacterias. Pero hay más puntos en común, como vamos ahora a ver. Al insertar en plantas moribundas una proteína que juega un importante papel en el desarrollo del cáncer en humanos, se ha podido comprobar que las hace revivir. De este modo, se mostraría una relación evolutiva entre plantas y humanos. Además, este resultado quizás ayude a estudiar la mencionada proteína y su función en el desarrollo del cáncer en humanos. La aminopeptidasa M1 o APM1 es crítica para que las plantas puedan desarrollar su sistema radicular. La Arabidopsis (típica planta usada en laboratorio para estudios genéticos) muere si carece de esa proteína, pero puede ser “rescatada” si esta proteína se restaura. Wendy Peer, de Purdue University, ha encontrado que si en lugar de esa proteína se inserta otra que se encuentra en humanos, y denominada aminopeptidasa de respuesta a la insulina o IRAP (en sus siglas en inglés), el éxito en Arabidopsis thaliana. Fuente: Uniprot. la recuperación de la planta también se produce. Nos creemos tan distintos de las plantas que si llegara Según Peer, IRAP y APM1 están en el mismo grupo un alienígena a la Tierra quizás nos sentiríamos biológica- y añade que la actividad de estas proteínas debe ser un mente más cercanos a él que a las plantas de este planeta, proceso tan fundamental que se ha conservado a lo largo pero sería erróneo. Hace miles de millones de años, inclu- de la historia evolutiva. La proteína habría cambiado muy so las plantas y los animales compartieron un antepasado poco durante todo el tiempo transcurrido hasta el presencomún. Ciertas rutas metabólicas son esencialmente las te desde la aparición del antepasado evolutivo común de mismas entre ambos tipos de seres, incluso también son plantas y animales. J. J. Moreno, NeoFronteras
Este resultado mostraría una relación evolutiva entre plantas y humanos. Además, quizás ayude al estudio del papel desempeñado por esta proteínas en el desarrolo del cáncer en humanos. Dice que el hallazgo supone un avance en la comprensión de esta clase de proteínas, porque puede ser posible realizar estudios con plantas en lugar de con animales, ofreciendo a los investigadores más control y opciones. Al parecer hay más herramientas disponibles en Arabidopsis para estudiar esta clase de proteínas de las que están disponibles en animales. Las personas con la función de IRAP alterada desarrollan frecuentemente leucemia y otros tipos de cáncer, lo que quiere decir que si se opera un cambio en esta proteína (o más bien en el gen que la produce) las personas son poco tolerantes a él y enferman. Entender cómo funciona esta proteína en las plantas puede ayudar a comprender cómo funciona en humanos, afirma Peer. La función de APM1 no se entiende del todo en plantas. Se cree que este tipo de proteínas elimina aminoácidos en las proteínas, activando o desactivando la proteína en cuestión en el proceso. Además, su equivalente humano
c http://neofronteras.com - Creado con LATEX y paperTEX
degrada los acúmulos de proteínas relacionados con el Alzheimer. Peer desea entender qué proteínas tienen APM1 como blanco y cómo las cambia. Junto con Angus Murphy lleva años trabajando en el problema. Estos dos investigadores identificaron mutantes de Arabidopsis que carecían de APM1 e insertaron APM1 modificado, en el que suprimían algún aminoácido, en estos mismos mutantes para determinar si la APM1 modificada podía rescatar estas plantas El próximo paso será determinar la proteína blanco de APM1 para así entender por qué APM1 es tan importante en el crecimiento de las raíces en las plantas. Enlace: http://neofronteras.com/?p=3024 Fuentes y referencias: Nota de prensa de Purdue University. Artículo original en Plant Physiology.
NeoFronteras Trimestral
Medicina
2010 Edición de invierno 84 / 114
MEDICINA
¿Cómo se corre descalzo? Corremos de distinta forma dependiendo de si lo hacemos descalzos o no. Hacerlo descalzo incluso produce menos lesiones que con calzado si lo hacemos bien. J. J. Moreno, NeoFronteras
Diferencias entre correr calzado o descalzo. El pie se posa de diferente manera y el impacto es distinto. Fuente: cortesía de Daniel Lieberman, Department of Evolutionary Human Biology.
Hace no tanto tiempo no había zapatillas con cámara de aire o suelas sofisticadas de gomaespuma que amortiguaran el impacto al correr. Antes incluso, los humanos no usaban ningún tipo de calzado. Incluso ahora mismo todavía hay comunidades cuyos habitantes andan y corren descalzos. Esto era lo normal y podemos pensar, en un
principio, que se facilitaba porque el suelo estaba cubierto por hierba u hojas y, por tanto, era más mullido que una calzada romana o el duro hormigón o asfalto modernos. El ser humano ha evolucionado para ganar en carreras de fondo frente a otros animales, para eso estamos mejor adaptados que para la carrera de velocidad, tipo de carrera esta última en la que casi todos los demás animales nos ganan. Nuestra capacidad termorreguladora es, al parecer, fundamental para ganarlos en carreras de fondo, aunque nuestras piernas y pies sufran más que las cuatro patas de otros animales. De hecho, es casi milagroso que podamos andar sobre sólo dos piernas, algo que todavía ningún robot ha conseguido remedar con tanta eficacia. Sin embargo, los humanos modernos, pese a usar un calzado tan cómodo y sofisticado, sufrimos frecuentemente lesiones en las rodillas. ¿Acaso andamos o corremos peor que nuestros antepasados? Pues parece ser que sí, y la culpa es precisamente del calzado que usamos. Un grupo de científicos ha descubierto que los humanos corremos de distinta forma dependiendo de si lo hacemos descalzos o no. En el caso de correr descalzos o con un calzado mínimo los humanos tendemos a evitar golpear con el talón, en su lugar recibimos el impacto en la parte anterior del pie o en la parte media. Haciendo esto se evitan daños potenciales equivalentes a soportar tres veces el peso de nuestro cuerpo de manera reiterada. Daniel E. Lieberman, de Harvard University, dice que las personas que corren descalzas lo hacen de una manera sorprendentemente diferente. Según él un corredor de ese tipo, al tocar suelo con la parte central o anterior de su pie, casi no recibe impacto por colisión, a diferencia de los que corren calzados.
Se puede correr descalzo por las superficies más duras sin que se sienta siquiera incomodidad o dolor. Mucha gente cree que correr descalzo es peligroso y produce daños, pero según Lieberman se puede correr descalzo por las superficies más duras sin que se sienta siquiera incomodidad o dolor. Correr calzado, según él, es mucho más peligroso. Todo lo que se necesita es una piel callosa en la planta del pie que evite cortes en la piel. Recordemos que, para el asombro de muchos, de vez en cuando aparece algún deportista que corre descalzo y, sin embargo, no parece lesionarse más que sus compañeros.
Los investigadores encontraron un patrón llamativo. El 75 % de los que corrían calzados sufrían 1000 impactos en los talones por milla recorrida. Los que corrían descalzos, sin embargo, posaban el pie suavemente utilizando la parte media o anterior del mismo.
Impactar con el talón cuando se corre descalzo o con un mínimo calzado es doloroso y provoca grandes fuerzas de colisión laterales cada vez que se posa el pie, para evitarlo los corredores sin calzado evitan ese tipo de colisiones Lieberman, junto a sus colaboradores de University of mediante la disminución de la masa efectiva del pie que se Glasgow y Moi University estudiaron diversos corredores, detiene al tomar tierra. El impacto es absorbido principalincluidos algunos keniatas, que clasificaron en tres grupos: mente por el resto de la pierna, que actúa como un muelle los que corrían siempre descalzos, los que siempre usaban o resorte. calzado y aquellos que habiendo corrido calzados se pasaLa razón a esta diferencia hay que buscarla en la evoluron al bando opuesto. ción. Nuestros antepasados los australopitecus tenían mec http://neofronteras.com - Creado con LATEX y paperTEX
NeoFronteras Trimestral
Medicina
nos desarrollado el arco del pie, pero los Homo, por el contrario, consiguieron desarrollar un arco fuerte y grande para usarlo a modo de muelle. Lierberman dice que nuestros pies fueron hechos para correr. Durante millones de años nos proporcionaron la capacidad de mantener carreras de resistencia. Pero en la década de los 70 se inventó el calzado deportivo y millones de años de evolución fueron desafiados súbitamente. Incluso en los tiempos anteriores de civilización se usaban, a lo más, sandalias, mocasines o calzados ligeros con pequeños tacones. El calzado moderno, por el contrario, está diseñado para absorber el impacto en los talones, y que así sean más cómodos, incorporando algún tipo de almohadillado en los tacones. Aprender a correr descalzo no es tan sencillo si estamos acostumbrados a hacerlo con zapatillas deportivas. La carrera con los pies descalzos usa los músculos de diferente manera, así que si usted se ha acostumbrado a impactar con el talón durante toda su vida, la transición a la carrera descalza debe ser lenta y progresiva para que así se
fortalezcan los músculos implicados. Este investigador espera que este estudio no solamente explique este tipo de carrera, sino que en el futuro proporcione además pistas sobre cómo evitar y prevenir lesiones que ahora afectan a un alto porcentaje de corredores. Su esperanza es que la aproximación proporcionada por la Medicina Evolutiva al estudio de las lesiones deportivas pueda ayudar a la gente que corre a hacerlo mejor, durante más tiempo y que se sientan bien mientras lo hacen. Lieberman ha creado un sitio web en donde educa a los corredores acerca de todo esto. Enlace: http://neofronteras.com/?p=2994 Fuentes y referencias: Nota de prensa de la Universidad de Harvard. Web de Lieberman. Vídeo. Foot strike patterns and collision forces in habitually barefoot versus shod runners (resumen).
PUBLICIDAD
c http://neofronteras.com - Creado con LATEX y paperTEX
2010 Edición de invierno 85 / 114
NeoFronteras Trimestral
Neurología
2010 Edición de invierno 86 / 114
NEUROLOGÍA
Logran almacenar información en tejido cerebral in vitro Consiguen almacenar patrones específicos de actividad neurológica en tejidos cerebrales in vitro. J. J. Moreno, NeoFronteras
Localización del hipocampo en el cerebro humano. Fuente: Macalester College.
A veces la ciencia se acerca a la ciencia ficción, pero lo hace a una velocidad tan lenta que no nos damos cuenta. La posibilidad de que un tejido cerebral siga en funcionamiento in vitro y con la capacidad de almacenar recuerdos parece de ciencia ficción o, al menos, así lo parecía. Ahora, Ben W. Strowbridge y Phillip Larimer, ambos de Case Western Reserve University School of Medicine, han conseguido ser los primeros en almacenar patrones específicos de actividad neurológica en tejidos cerebrales in vitro. Los neurocientíficos clasifican la memoria en tres tipos: memoria declarativa (que almacena los hechos o recuerda eventos específicos), memoria procedural (que es la que nos permite tocar el piano o montar en bicicleta) y memoria de trabajo (un tipo de memoria a corto plazo que nos permite, por ejemplo, memorizar el número de teléfono que vamos a marcar). Strowbridge y Larimer estaban interesados en identificar los circuitos neuronales específicos responsables de la memoria de trabajo. En particular pretendían estudiar un tipo especial de neuronas presentes en el hipocampo denominadas células musgosas, y que frecuentemente están dañadas en humanos con epilepsia. La motivación era que algunas personas con epilepsia sufren déficit de memoria, por lo que se plantearon si había una conexión a nivel fundamental entre las células musgosas y el circuito de la memoria. Así que se pusieron manos a la obra y aislaron tejidos cerebrales de ratón. Además, lograron descubrir una
c http://neofronteras.com - Creado con LATEX y paperTEX
manera de recrear la memoria de trabajo in vitro. La ventaja de las células musgosas, a diferencia de otras neuronas, es que pueden mantener su actividad habitual aunque estén dispuestas en pequeñas láminas de tejido. Esta actividad eléctrica espontánea de estas neuronas fue crítica a la hora de descubrir los restos de memoria en esa región cerebral. Cuando estimularon con unos electrodos las láminas de hipocampo comprobaron que la actividad espontánea en las células musgosas lograba “recordar” qué electrodos habían sido activados. Esta memoria duraba unos 10 segundos, que es más o menos lo que dura un recuerdo típico en la memoria de trabajo en las personas. No es una casualidad que este efecto de memoria se haya dado en el hipocampo, que es la región cerebral asociada a los recuerdos a corto plazo en humanos. Strowbridge afirma que es la primera vez que alguien ha logrado almacenar información en la actividad espontánea de tejidos de mamífero. Estos investigadores midieron la frecuencia de “inputs” sinápticos en las células musgosas para determinar cómo se retiene la memoria en el hipocampo. Al igual que en nuestros propios recuerdos, la memoria que estos investigadores lograron recrear en láminas de tejido in vitro se almacenaba en muchas neuronas a la vez. La memoria no se daba pues en las células aisladas, sino en una población de células. Larimer y Strowbridge encontraron además que el efecto memoria ocurría gracias a un raro tipo de célula denominada células granulares semilunares que, por cierto, fueron descritas en 1893 por Ramón y Cajal y que han estado en las oscuridad académica durante más de un siglo hasta que fueron redescubiertas por el grupo de Strowbridge en 2007. Las células granulares semilunares son el tercer tipo de células cerebrales que este grupo ha descubierto. Las células granulares semilunares tienen un forma de actividad inusual persistente en el tiempo que les permite mantener la memoria y conectar a las células musgosas. Este resultado fue la clave central del artículo publicado. Estos investigadores están ahora estudiando cuánta información pueden almacenar en el hipocampo. Les llevó cuatro años ser capaces, de manera reproducible, de almacenar 2 bits de información durante 10 segundos. Creen que sus hallazgos deberían progresan más rápidamente ahora que saben lo que están buscando y han encontrado el circuito cerebral que realmente mantiene la memoria a corto plazo. Enlace: http://neofronteras.com/?p=2954 Fuentes y referencias: Case Western Reserve University. Nature.
NeoFronteras Trimestral
Neurología
2010 Edición de invierno 87 / 114
NEUROLOGÍA
Reconstruyen movimientos a partir de señales cerebrales Consiguen reconstruir el movimiento 3D de una mano a partir de las señales eléctricas producidas por el cerebro usando un método no invasivo y portátil. J. J. Moreno, NeoFronteras
Esquema del sistema de botones utilizado en el experimento. Fuente: Bradberry y colaboradores.
Lentamente, pero sin pausa, las neurociencias adelantan que es una barbaridad. Recientemente, un grupo de científicos ha conseguido reconstruir el movimiento 3D de una mano a partir de las señales eléctricas producidas por el cerebro usando un método no invasivo. El logro, que se publicó el pasado 3 de Marzo en Journal of Neuroscience, allanaría el camino a la utilización de un sistema computacional portátil para el control con el pensamiento de brazos robóticos o sillas de ruedas eléctricas. Esto supondría
un gran avance para personas con algún tipo de parálisis. Hasta ahora los científicos habían usado métodos invasivos y sistemas no portátiles para la reconstrucción de los movimientos de la mano. En este estudio José ContrerasVidal y sus colaboradores de University of Maryland situaron formaciones de sensores sobre las cabezas de los cinco participantes en el experimento y registraron la actividad eléctrica cerebral usando una técnica denominada electroencefalografía. A los voluntarios se les pidió que desde un botón central apretaran otros ocho botones en una secuencia aleatoria en 10 tandas (ver dibujo). A la vez que se registraba el movimiento de sus manos se registraba su actividad cerebral. Después, los investigadores se dedicaron a descodificar la actividad cerebral y consiguieron asociar los movimientos tridimensionales específicos de la mano a patrones de actividad eléctrica. “Nuestros resultados muestran que la actividad cerebral eléctrica adquirida desde el cuero cabelludo porta suficiente información como para reconstruir los movimientos continuos de la mano”, dice Contreras-Vidal. Los investigadores encontraron, en particular, que el sensor 34 proporcionaba la información más precisa. Este sensor iba colocado sobre una zona del cerebro denominada córtex sensomotriz, que es la región asociada a los movimientos voluntarios. Además, los sensores sobre el lóbulo parietal inferior también proporcionaron información útil. Se sabe que esta otra región ayuda a guiar el movimiento de los miembros. Por tanto, estos resultados confirmarían la validez del método utilizado.
Cuando esta tecnología esté madura podrá ser utilizada por personas que tengan desórdenes neuromusculares severos como esclerosis lateral amiotrófica, lesiones medulares... El estudio tiene implicaciones para el futuro desarrollo de tecnologías que comuniquen el cerebro con un ordenador. Cuando esta tecnología esté madura podrá ser utilizada por personas que tengan desórdenes neuromusculares severos como esclerosis lateral amiotrófica, secuelas de ictus o lesiones medulares, para que así puedan tener control sobre tareas complejas sin necesidad de tener electrodos implantados en el cerebro. Además, este resultado tiene importancia desde el punto de vista de análisis de laboratorio o de la vigilancia clínica de funciones cerebrales. Una aplicación interesante sería el poder ayudar con este tipo de técnica a personas con parálisis a controlar con
c http://neofronteras.com - Creado con LATEX y paperTEX
el pensamiento el cursor que aparece en la pantalla de su ordenador. Ahora mismo los sistemas que existen requieren del paciente un largo entrenamiento para que puedan tener éxito. Contreras-Vidal cree que el periodo de entrenamiento se podría reducir y necesitar menos esfuerzo si se tiene en cuenta este nuevo resultado. Enlace: http://neofronteras.com/?p=3033 Fuentes y referencias: Nota de prensa. Artículo en Journal of Neuroscience (resumen). Entrevista al investigador en la NPR (podcast en inglés).
NeoFronteras Trimestral
Neurología
2010 Edición de invierno 88 / 114
NEUROLOGÍA
Trascendencia y Neurología Un estudio logra relacionar determinados aspectos del pensamiento religioso con daños en regiones específicas del cerebro. J. J. Moreno, NeoFronteras
cerebro o por una parte específica de él? De ser así, esos sentimientos serían un mero subproducto de nuestros cerebros, una sensación inducida físicamente. Pues al parecer esto es precisamente lo que se ha demostrado recientemente. En un estudio reciente en pacientes con tumores cerebrales se pone de manifiesto que parte del córtex parietal regula estos aspectos religiosos. A estos pacientes se les tuvo que quitar parte de esa región cerebral y después de la operación se vieron aún más atraídos hacia las experiencias trascendentes.
Durante los últimos años los científicos se han ido interesando sobre los aspectos neurológicos del pensamiento religioso, produciéndose diversas teorías sobre su origen y utilidad biológica. Sin embargo, los estudios de resonancia magnética nuclear en creyentes y no creyentes no han demostrado, hasta ahora, que exista una región específica que regule este aspecto. Por tanto, se suponía que los aspectos religiosos debían de estar regulados por el cerebro en su conjunto y no por un área específica. El estudio de Cosimo Urgesi, de la Universidad de Udina en Italia, y Los puntos rojos señalan la localización de un tumor sus colaboradores contradice esta conclusión; estudio que en el córtex parietal izquierdo. Fuente: C. Urgesi y se ha publicado en Neuron recientemente. colaboradores.
Para un creyente la trascendencia, por definición, transciende el propio yo y todo lo terrenal. Los sentimientos de fe, de paz interior y espiritualidad los vive de verdad, pero se supone que vendrían dados por el más allá. ¿Qué pasaría si esas sensaciones fueran producidas por el propio
Este grupo de científicos sometió a 88 pacientes aquejados de cáncer cerebral a un cuestionario que cubría diversos aspectos de la trascendencia antes y después de someterlos a la operación quirúrgica que extirparía su tumor. La segunda ronda de preguntas se efectuó entre 3 y 7 días después de la operación.
Este estudio podría ser el primer resultado significativo en este campo de la espiritualidad. El cuestionario se centraba en aspectos y componentes de la autotrascendecia: creencia en un poder superior, capacidad de perderse uno mismo por unos instantes, sentirse conectado espiritualmente de una manera profunda con otras personas o con la Naturaleza... También se les preguntaba si creían en la percepción extrasensorial, los milagros y otros fenómenos metafísicos.
valación angular derecha, puntuaron más alto en la escala espiritual (según el test) que aquellos aquejados del mismo tipo de cáncer, pero que lo tenían en la parte frontal. Una vez pasados por el quirófano la diferencia en puntuación entre unos y otros se acentuaba. Además, pudieron comprobar que aquellos que perdían ciertas áreas del córtex parietal debido a la operación mostraban la puntuación Estos pacientes sufrían dos clases de cáncer: gliomas, más alta. que afectan a las células que rodean las neuronas, y meninEn pacientes con tumores situados en otras regiones giomas, que afectan solamente a la membrana que envuel- cerebrales, o afectados por meningiomas, no se observó ve el cerebro. Debido a la naturaleza de estas dos clases cambio alguno o un especial sentimiento religioso o trasde tumores, los médicos tuvieron que eliminar neuronas cendente. de 48 pacientes del primer caso porque el tumor se había Los investigadores concluyen que estas regiones norextendido, mientras que los del segundo caso no sufrieron malmente inhiben el pensamiento trascendente y el daño pérdidas de neuronas. causado en ellas por el tumor o por la cirugía dispara este Aquellos pacientes aquejados de gliomas que tenían el tipo de sentimientos. El córtex parietal posterior está retumor situado en la parte posterior de sus cerebros, que in- lacionado con la capacidad de proporcionar la ubicación y cluían el lóbulo parietal inferior, córtex temporal y circun- posición del cuerpo humano en el espacio, así que su daño c http://neofronteras.com - Creado con LATEX y paperTEX
NeoFronteras Trimestral
Neurología
podría afectar esta sensación y hacer creer a la persona afectada que su yo trasciende la realidad del aquí y ahora. El resultado apoyaría la idea de que la experiencia mística surge a partir del sentimiento de verse desconectado espacialmente del propio cuerpo. Este podría ser el primer resultado significativo en este campo de la espiritualidad, fenómeno que por otra parte es muy complejo y esencial en el ser humano. Al parecer, aunque anteriormente muchos pacientes que habían sido sometidos a este tipo de operaciones sufrían cambios emocionales de este tipo, ningún investigador se había tomado la molestia de evaluarlo, ya que se considera que era algo perteneciente a la esfera personal de la gente. Según Urguesi, el resultado muestra que algunas características complejas de la personalidad son más maleables de lo que previamente se creía. Especula que la baja actividad de las regiones parietales en personas con daños cerebrales podría predisponerles a los sentimientos de trascendencia y, quizás, a religiones como el budismo que enfatizan ese tipo de experiencias. Uffe Schjødt, de la Universidad Aahus de Dinamarca y no implicado en este estudio, dice que, efectivamente, se ha comprobado una mayor actividad de esta región cerebral en aquellos que están rezando o meditando, pero crítica la oportunidad perdida a la hora de poder haber preguntado
2010 Edición de invierno 89 / 114
más cosas a los pacientes antes y después de la operación, sobre todo respecto a sus experiencias religiosas. En estudios futuros este grupo de investigadores pretende medir otros aspectos de la espiritualidad para determinar cuánto duran estos sentimientos espirituales en los pacientes, así como inducir este estado en pacientes sanos mediante técnicas no invasivas basadas en la estimulación magnética transcraneal. Con esta técnica se puede “apagar” temporalmente una región cerebral específica y ver los efectos que produce. Así se podrían delimitar mejor las regiones implicadas en el sentimiento religioso. En todo caso, no deja de ser inquietante que un aspecto tan particular como el de la trascendencia dependa de una mera actividad neurológica. Una pesadilla para el religioso, pero también para el ateo, que en un momento dado puede caer en ese tipo de sentimientos sin poderlo evitar. Enlace: http://neofronteras.com/?p=3006 Fuentes y referencias: Nota de prensa en Eureka Alert. Artículo en Neuron (resumen). Noticia en Science. Noticia en Nature.
NEUROLOGÍA
Se puede saber qué película se está recordando Logran saber, a partir de la actividad cerebral, en cuál de tres posibles películas cortas una persona está pensando. J. J. Moreno, NeoFronteras
Fotogramas de los tres cortos que se usaron en el experimento. Fuente: Professor Eleanor Maguire.
Aunque la libertad de expresión siempre ha estado controlada en mayor o menor medida, incluso en los regímenes democráticos, la libertad de pensamiento literal ha sido efectiva en cualquier parte, siempre y cuando esos pensamientos no se expresaran en público, claro.
mos con otros a los que denominamos secretos. Nuestra convivencia, nuestra sociedad o nuestra libertad se basan, en parte, en esta capacidad. Una buena pesadilla sería un mundo en el que todo el mundo dijese gratuitamente toda la verdad constantemente.
dría ser un crimen de pensamiento, o en “Minority Report” cómo se podría condenar a un futuro delincuente sin que éste hubiese cometido aún el crimen. Ahora que estas historias u otras similares como “Blade Runner”, “Un Mundo Feliz” o “Fahrenheit 451” se van cumpliendo y Holanda se aproxiPor otro lado, una capacidad de ma cada vez más a la “Fuga de LoLa corriente de pensamiento de lectura de pensamiento en manos gan” o a “Soylent Green”, no está de nuestra mente es la parte más íntima equivocadas sería una pesadilla aún más vigilar a los vendedores de miedo de nuestro yo, de nuestro ser. Damos peor. Las novelas de anticipación co- que ya colocan cámaras por las calles, salidas a parte de ellos y nos queda- mo “1984” ya nos sugerían cómo poc http://neofronteras.com - Creado con LATEX y paperTEX
NeoFronteras Trimestral pues serán los que intenten ponerlas en nuestras mentes. Pero dejando a un lado los componentes éticos, los resultados científicos en el campo son fascinantes. En NeoFronteras venimos informando desde hace tiempo sobre la capacidad de lectura de pensamiento usando técnicas neurológicas. Ahora, un sistema informático ha sido capaz de predecir, a partir de la actividad cerebral, en cuál de tres posibles películas cortas una persona está pensando. El resultado fue obtenido por científicos del Wellcome Trust Centre for Neuroimaging en University College London dirigidos por Eleanor Maguire, y proporciona pistas sobre cómo funciona el almacenamiento de información en nuestra memoria. El trabajo es una extensión de los estudios realizados anteriormente por el mismo equipo, y publicados el año pasado, sobre la memoria espacial. En ese caso se trataba de la grabación del patrón de actividad del hipocampo cuando los voluntarios estaban en una habitación virtual. El hipocampo es la región cerebral responsable del aprendizaje y la memoria. “En nuestros experimentos previos buscábamos recuerdos básicos, como
Neurología la localización de alguien en el ambiente”, dice Maguire. “Lo que es más interesante es mirar a recuerdos episódicos”. Los recuerdos episódicos son los recuerdos habituales que incluyen mucha más información sobre dónde estamos, qué estamos haciendo o qué sentimos. Maguire espera examinar cómo son afectados por el paso del tiempo, el envejecimiento y las lesiones cerebrales. Para explorar cómo son almacenados este tipo de recuerdos, los investigadores mostraron a diez voluntarios tres cortos y se les pidió que memorizaran lo que veían. Los cortos eran muy simples y compartían características similares, que incluían una mujer realizando tareas en un ambiente urbano. Los tres tenían la misma duración: siete segundos. Así por ejemplo, en uno de los cortos se veía a la mujer bebiendo café en un vaso de papel en la calle antes de que lo tirara a la papelera. En otro corto se veía a otra mujer echando una carta al buzón de correos. Después del visionado se pidió a los voluntarios que recodaran los cor-
2010 Edición de invierno 90 / 114
tos mientras se registraba su actividad cerebral con un sistema de resonancia magnética nuclear. El flujo sanguíneo del cerebro es medido por el sistema de resonancia a la escala de voxels o píxeles tridimensionales. En este caso cada voxel incluía aproximadamente a unas 10.000 neuronas. El algoritmo computacional interpretaba los cambios voxel por voxel para así saber cómo cambian los patrones de actividad con el tiempo. El programa estudió entonces estos patrones de actividad e identificó qué cortos habían sido evocados por los voluntarios. Martin Chadwick, autor principal del artículo de Current Biology en el que se describen los resultados, dice que las predicciones del algoritmo estuvieron por encima de lo esperado debido al azar. Este resultado sugiere, según él, que nuestros recuerdos se almacenan en un patrón regular. Aunque hay toda una red completa de áreas cerebrales que apoyan la memoria, los investigadores se centraron en el estudio de lóbulo temporal medio, un área profunda dentro de lo que se cree que es la parte más involucrada en los recuerdos episódicos y que incluye el hipocampo.
A partir de cómo cambiaban en el tiempo los patrones de actividad el programa identificó qué cortos habían sido evocados por los voluntarios. Los investigadores encontraron que las áreas clave relacionadas con el almacenamiento de recuerdos fueron el hipocampo y sus inmediaciones. Sin embargo, el algoritmo computacional logró un mayor éxito cuando analizaba la actividad en el propio hipocampo. Esto sugeriría que esta parte es la región más importante relacionada con el almacenamiento de recuerdos episódicos. En particular tres áreas del hipocampo (la posterior derecha, la frontal izquierda y la frontal derecha) parecen estar relacionadas con esta tarea y se
observó de manera consistente en todos los participantes del experimento. En el estudio previo se encontró que la parte posterior derecha estaba implicada, lo que reforzaría la idea de que es la parte donde se guarda la información espacial. Sin embargo, no está claro todavía qué papel juegan las otras dos regiones. Maguire dice que, ahora que tiene una visión más clara de cómo se almacenan nuestros recuerdos, espera examinar cómo son afectados por el paso del tiempo, el envejecimiento y las lesiones cerebrales.
c http://neofronteras.com - Creado con LATEX y paperTEX
Enlace: http://neofronteras.com/ ?p=3036 Fuentes y referencias: Nota de prensa de Wellcome Trust Centre for Neuroimaging. Artículo original. “Minority report” económico Un paso más en la lectura del pensamiento Decisiones cerebrales predecibles. Más cerca de la lectura del pensamiento. Los amnésicos tampoco pueden visualizar el futuro.
NeoFronteras Trimestral
Psicología
2010 Edición de invierno 91 / 114
PSICOLOGÍA
Tener más ingresos económicos que los demás es lo que realmente importa Según un estudio el dinero hace feliz siempre y cuando le haga a uno más rico que a los vecinos. J. J. Moreno, NeoFronteras
Muchas novelas y tratados se han escrito acerca del dinero, sobre su capacidad de corrupción de las personas y, sobre todo, de la clase política. Recientemente hemos visto en España la explosión de la burbuja inmobiliaria y la estafa piramidal que la creó (al parecer antes nadie parecía querer verla). Ahora que los bancos, constructoras, políticos y medios de comunicación están tratando de reconstruir este fraude o de hacer que la burbuja se desinfle agónicamente al estilo japonés, no está de más estudiar uno de los mecanismos psicológicos que puede que hagan a la gente apuntarse a esos timos piramidales. Este tipo de comportamientos mediante el cual la gente se suma a todo tipo de burbujas están descritos en los manuales de Economía desde que en la Holanda del siglo XVII se dio la crisis de los tulipanes. En aquella época nuevas variedades de estas flores empezaron a cotizar muy alto en el mercado y se empezó a especular sobre ellas. Por un bulbo de la apreciada especie Semper Augustus se podían pedir 5.500 florines (el precio de una casa). Pero de la noche a la mañana los precios cayeron (cosa inevitable porque las plantas se reproducen) y
arruinaron a más de un “inversor”. Las burbujas inmobiliarias no suelen caer tan rápidamente y los economistas nos dicen que, a no ser que se manipule el mercado, la curva de descenso de precio es simétrica con la de subida y con la misma duración. También nos dicen que las burbujas tienen bases psicológicas, aunque no nos digan cuáles.
locidad máxima legal? Quizás un pequeño estudio de expertos de las Universidades de Warwick y Cardiff nos ayude a arrojar un poco de luz sobre este asunto tan oscuro. Según ellos el dinero hace más feliz sólo si mejora el rango social. Además, encontraron que simplemente estar bien pagado no es suficiente. Para proporcionar más felicidad la gente debe percibir que está mejor pagada que los amigos y colegas de trabajo.
Fuente: Netfalls, vía Flickr.
Los investigadores estuvieron buscando explicar por qué la gente de las naciones ricas no son más felices en promedio ahora que hace 40 años, pese a que durante este tiempo el crecimiento económico ha proporcionado un incremento sustancial de sus ingresos en promedio.
Se nos ha repetido hasta la saciedad que el dinero da la felicidad cuando se es muy pobre, pero si se tiene lo suficiente para vivir ya no lo hace. También sabemos que en el primer mundo vivimos mejor y con mejor salud que Felipe II con todo su imperio. Entonces, ¿por qué perseguimos todos el vil metal?, ¿por qué deseamos un automóvil más potente y caro, pese a que nuestro utilitario nos lleva igualmente y puede también superar la ve-
Chris Boyce, de la Universidad de Warwick, dice lo siguiente: “Nuestro estudio encontró que el rango social de los ingresos del individuo predice muy bien la satisfacción general en la vida, mientras que el monto real de esos ingresos y el promedio de ingresos de los demás aparentemente no tienen ningún efecto. Ganar un millón de libras al año no parece ser suficiente para hacerte feliz si los amigos que conoces ganan dos millones de libras al año.”
“Ganar un millón de libras al año no parece ser suficiente para hacerte feliz si los amigos que conoces ganan dos millones de libras al año.” El estudio titulado “Money and Happiness: Rank of Income, Not Income, Affects Life Satisfaction” aparece en Psychological Science. Para poder realizarlo los investigadores analizaron datos sobre los ingresos económicos y la satisfacción vital obtenidos durante 7 años con la encuesta British Household Panel Survey (BHPS), que es una muestra representación longitudinal de familias británicas. Aunque primero examinaron cómo estaba relacionada la satisfacción en
la vida con el dinero que ganaba cada persona, encontraron, sin embargo, que la satisfacción se relacionaba más fuertemente con el rango de los ingresos del individuo si se comparaba con la gente del mismo género, edad, nivel de estudios y del mismo área geográfica. El resultado explicaría por qué hacer ricos a todos los miembros de una sociedad no necesariamente aumenta la felicidad general, porque solamente tener más ingresos que los demás es lo
c http://neofronteras.com - Creado con LATEX y paperTEX
que realmente importa. Sin duda el estudio dice mucho sobre la naturaleza humana, aunque ya sospechábamos que algo así tenía que haber Enlace: http://neofronteras.com/ ?p=3049 Fuentes y referencias: Nota de prensa de la Universidad de Warwick.
NeoFronteras Trimestral
General
2010 Edición de invierno 92 / 114
GENERAL
Estructura del lenguaje y estructura social La estructura de las lenguas estaría determinada parcialmente por la estructura social de los individuos que las hablan. J. J. Moreno, NeoFronteras
Psicólogos de la Universidad de Pennsylvania y de la Universidad de Memphis han publicado un estudio sobre evolución lingüística que desafía la hipótesis tradicional de por qué las lenguas difieren unas de otras a lo largo del mundo. El estudio propone que los idiomas humanos pueden adaptarse como organismos biológicos al medio social más de lo que se creía y que las lenguas más populares y corrientes tienen construcciones más simples para así facilitar su supervivencia. Según el pensamiento tradicional las lenguas se desarrollan debido a cambios al azar a lo largo de la deriva histórica. Así por ejemplo, el inglés y el turco son lenguas muy diferentes porque se basan en historias que las han separado mucho, tanto en el espacio como en el tiempo. Durante años ésta ha sido la tesis ortodoxa de los lingüistas. En el nuevo estudio publicado en PLoS se ofrece una nueva hipótesis que desafía la explicación de la deriva. Gary Lupyan y Rick Dale realizaron un estudio estadístico a gran escala en el que analizaron más de 2000 lenguas diferentes de todas las partes del mundo. El objetivo era comprobar si el ambiente se correlacionaba con ciertas propiedades lingüísticas. Los investigadores encontraron relaciones entre las propiedades demográficas de las lenguas, tales como la dispersión global, y la complejidad gramatical de esos idiomas. Las lenguas que tenían más hablantes, y por tanto que estaban más difundidas por el mundo, tenían las gramáticas más sencillas (especialmente su morfología) que las lenguas que eran habladas por unas pocas personas circunscritas a una pequeña región. Por ejemplo, las lenguas habladas por más de 100.000 personas eran, como mínimo, seis veces más probables de tener conjugaciones simples en sus verbos que las lenguas habladas por menos de 100.000 personas. Las poblaciones más grandes tienden a tener pronombres más simples
y un número fijo y pequeño de casos y géneros. Además no emplean prefijos o sufijos complejos en sus gramáticas. Una consecuencia es que las lenguas con una larga historia de adultos que la aprenden han terminado siendo más sencillas de aprender con el tiempo. A pesar de que un indeterminado número de investigadores habían predicho la relación entre relaciones sociales y estructura lingüística, esta es la primera vez que se efectúa un estudio estadístico a gran escala para comprobarlo.
Distribución geográfica de las 2236 lenguas incluidas en el estudio. Fuente: PLoS One.
El resultado traza una conexión entre la evolución del lenguaje humano y los organismos biológicos. Así como organismos muy distantes pueden converger hacia estrategias evolutivas similares en nichos específicos, las lenguas pueden adaptarse al ambiente social en donde son usadas y aprendidas. Según Lupyan, el idioma inglés puede parecer difícil a la hora de deletrear o debido a sus excepciones a las reglas, pero sus verbos son muy fáciles de conjugar y sus nombres adquieren el plural con una simple “s” en la mayoría de los casos. En comparación, las lenguas del oeste africano tienen docenas de maneras de construir el plural, y en otras (turco, aimara, ainu. . . ) el verbo “saber” incluye información acerca del origen del conocimiento del hablante. Esta información se expresa frecuentemente usando reglas complejas, que en los idiomas más extendidos del globo, como el mandarín, no
c http://neofronteras.com - Creado con LATEX y paperTEX
se dan. Lupyan y Dale denominan a este efecto social sobre los patrones gramaticales “hipótesis de nicho lingüístico”. Las lenguas evolucionan dentro de nichos socio-demográficos particulares. Aunque todas las lenguas se aprenden de pequeño, la introducción de aprendices adultos en determinadas lenguas (por ejemplo a través de la emigración) significa que los aspectos de la lengua más difíciles de aprender por los adultos son menos proclives a ser transmitidos a la siguiente generación. El resultado es que las lenguas habladas por más gente sobre regiones geográficas grandes han terminado por ser morfológicamente más simples a lo largo de muchas generaciones. Un misterio sin resolver es por qué las lenguas con pocos hablantes son tan complejas de partida. Una posibilidad, explorada por los investigadores, es que las características tales como el género o los sistemas de conjugación compleja, aunque dificultan a los adultos aprender la lengua, pueden facilitar el aprendizaje de la misma en la infancia gracias a que proporcionan una red de información redundante que puede indicar al niño el significado de las palabras y cómo encadenarlas a las demás. Los resultados y la teoría de estos investigadores no intentan explicar por qué una lengua específica tiene la gramática que tiene. Incluso, como los hallazgos son estadísticos, se pueden encontrar muchas excepciones a la teoría. Sin embargo, proporciona un análisis amplio de cómo los factores sociales influyen sobre la estructura de las lenguas, y muestra que la relación entre lengua y cultura no es para nada arbitraria. Enlace: http://neofronteras.com/ ?p=2991 Fuentes y referencias: U. de Pennsylvania., Artículo en PLoS., Las palabras menos usadas evolucionan más., El lenguaje como producto de la evolución cultural., Origen genético del lenguaje humano.
NeoFronteras Trimestral
General
2010 Edición de invierno 93 / 114
GENERAL
Cooperación y fuerzas históricas Según un estudio las fuerzas históricas y sociales explican la presencia de cooperación en las sociedades populosas. J. J. Moreno, NeoFronteras
Los investigadores han estado intrigados durante mucho tiempo por la presencia de actos voluntarios de coope-
ración, respeto, beneficio mutuo, amabilidad, etc., incluso cuando hay coste para el individuo que realiza ese acto. Aunque las fuerzas evolutivas pueden explicar la aparición de este tipo de actos en sociedades pequeñas, así como su presencia en grupos de primates, no lo pueden hacer para grandes sociedades de grupos no emparentados, tales como aquellas en las que vivimos los humanos en la actualidad. Un estudio realizado por varios expertos, y publicado el pasado 18 de Marzo en Science, sugiere que la naturaleza cooperativa de cada sociedad es al menos parcialmente dependiente de fuerzas históricas, como las creen-
cias religiosas y el crecimiento de las transacciones del mercado. El estudio encuentra además que el alcance en el uso del castigo por parte de la sociedad para forzar el cumplimiento de las normas aumenta o disminuye con el número de personas en dicha sociedad. Richard McElreath, de la Universidad de California en Davis, sostiene que tanto las comunidades pequeñas como las grandes regulan la cooperación (defensa mutua, protección, etc.) de diversas maneras, porque diferentes mecanismos de vigilancia y aplicación de las normas funcionan mejor a diferentes escalas de la sociedad.
Los investigadores encontraron que un castigo declarado, las creencias religiosas que puedan actuar como una forma de castigo psicológico y la integración en el mercado estaban correlacionadas con la equidad o justicia en los experimentos. Según él, en una pequeña ciudad de Kansas, por ejemplo, se puede depender de la reputación y del hecho de que todo el mundo conoce a todo el mundo. Sin embargo, en una ciudad como Nueva York los residentes necesitan de algún mecanismo, como el castigo, que puede operar en ausencia de un sistema fiable basado en la reputación. McElreath, junto a otros 14 investigadores de diferentes países y continentes, participó en el proyecto que ha estudiado este tipo de conceptos. Este grupo de investigadores dice haber demostrado por qué las comunidades se coopera de diversas maneras, desde la defensa mutua a la protección. La gente participa en estos actos de beneficio mutuo aunque tengan un coste individual. Gracias al uso de experimentos de comportamiento en 15 diferentes poblaciones, el estudio buscaba medir la
influencia de tres mecanismos diferentes (castigo, integración del mercado y creencias religiosas) que pudieran mantener la cooperación dentro de las sociedades. Definen integración en el mercado como el alcance de las reglas para comprar y vender bienes usadas por los individuos en transacciones anónimas. Los investigadores encontraron que un castigo declarado, las creencias religiosas que puedan actuar como una forma de castigo psicológico y la integración en el mercado estaban correlacionadas con la equidad o justicia en los experimentos. Enlace: http://neofronteras.com/ ?p=3050 Fuentes y referencias: Nota de prensa de UC Davis. Artículo original (resumen). Zanahoría mejor que palos.
c http://neofronteras.com - Creado con LATEX y paperTEX
Sobre la aparición de la cooperación. Cooperación y evolución. Colonias extensas de mohos mucilaginosos. ¿Sentido de la injusticia en los perros? Altruismo bacteriano. Modelo matemático sobre el altruismo. Cooperación, reputación, rumores y hechos. Sobre las bases fisiológicas de las normas sociales. El sentido de la justicia viene en parte determinado genéticamente. Cooperación y castigo en modelo teórico. Tenemos un impulso igualitario innato. Confirman la región cerebral relacionada con el sentido de la justicia. La amenaza de castigo crea la cooperación. Chimpancés cooperativos y altruistas.
NeoFronteras Trimestral
Tecnología
2010 Edición de invierno 94 / 114
TECNOLOGÍA
Resultados en computación cuántica Varios resultados nos acercan un poco más hacia la computación cuántica. J. J. Moreno, NeoFronteras
Imagen de microscopia en falso color de un punto cuántico. Fuente: University of New South Wales.
La realización física de la computación cuántica es muy difícil. Los dispositivos con los que ahora contamos son muy complicados, caros de mantener y manejan muy pocos qubits. Son, en realidad, curiosidades de laboratorio. Pero constituyen la avanzadilla de lo que tal vez llegue en un futuro. Ya se han alcanzado pequeños logros en este campo. Uno reciente ha sido conseguido por Gina Passante, de University of Waterloo, y sus colaboradores. Han demostrado experimentalmente que es posible encontrar las soluciones
al polinomio de Jones, que es un problema que aparece en teoría de nudos, usando un ordenador cuántico sencillo. El polinomio de Jones tiene importancia no solamente en teoría de nudos, sino que también la tiene en Mecánica Estadística y Teoría Cuántica de Campos. Aunque la aproximación al polinomio de Jones es un problema clásico, es muy difícil de resolver por métodos convencionales, pero puede resolverse fácilmente con un modelo cuántico sencillo. En este caso han usado un sistema de 4 qubits realizado gracias a un proceso de resonancia magnética nuclear. Es el primer caso de implementación de un problema resuelto por computación cuántica determinista con un modelo de un bit. El algoritmo utilizado ha sido el DGC1 (o deterministic quantum computation with one quantum bit, en inglés). Lo de 1 bit se refiere a que sólo se tiene control para preparar un bit en el estado inicial del sistema. Los estados de 4 qubits y 3 qubits están preparados inicialmente en un estado al azar. Para almacenar estos qubits los investigadores usaron los núcleos de los cuatro átomos de carbono presentes en moléculas de ácido transcrotónico y aplicaron pulsos de radiofrecuencia para sacar ventaja del efecto de resonancia magnética nuclear. El algoritmo pudo identificar los distintos nudos en un 91 % de las veces. Esperan que en un futuro puedan usar esta implementación para nudos más grandes y poder determinar el tamaño de los mismos antes de que los errores del ruido cuántico lo impidan.
Se ha conseguido colocar deliberadamente un electrón en un punto cuántico. Pero este tipo de computación cuántica que usa iones o moléculas individuales es muy farragosa. Lo ideal sería contar con dispositivos de estado sólido similares a los actuales chips y hechos de silicio o semiconductores tradicionales, sistemas sobre los que hay una extensa tradición tecnológica. Recientemente se ha conseguido demostrar experimentalmente por primera vez dos métodos para colocar deliberadamente un electrón en dispositivos de este tipo. Esto constituye un paso más en la consecución de la meta de construir un computador cuántico basado en el control del spin de electrones en dispositivos de estado sólido y usar éstos a modo de qubits. Los responsables son Andrew Dzurak y Andrea Morello, ambos de instituciones de investigación australianas. En un caso se trataba de localizar electrones solitarios en puntos cuánticos realizados en silicio. Los puntos cuánticos son como átomos artificiales para los electrones confinados en ellos.
c http://neofronteras.com - Creado con LATEX y paperTEX
En el otro resultado se consiguió localizar electrones que estaban unidos a átomos normales. El estado cuántico de un electrón viene dado por su spin y se puede utilizar éste como estado para construir qubits, pero es necesario un control exquisito de los electrones implicados. La idea es utilizar varios de estos electrones y superponer sus estados de tal modo que se puedan realizar varias operaciones cuánticas sobre esa superposición. Esto daría lugar a un procesamiento “en paralelo” sin precedentes. Enlace: http://neofronteras.com/?p=2966 Fuentes y referencias: Phys. Rev. Lett. 103, 250501. Appl. Phys. Lett. 95, 242102 (2009); doi:10.1063/1.3272858. Nano Lett., Article ASAP DOI: 10.1021/nl901635j. Nota de prensa de University of New South Wales.
NeoFronteras Trimestral
Tecnología
2010 Edición de invierno 95 / 114
TECNOLOGÍA
Avances en la electrónica del grafeno Nuevos avances en la confección de circuitos electrónicos realizados en grafeno nos dicen que algún día contaremos con una nueva nanoelectrónica. Pero son los investigadores de IBM los que parecen haber confeccionado con tanto éxito transistores basados en grafeno que han pulverizado el record en frecuencia de reloj. Un transistor de radiofrecuencia fabricado por esta compañía ha alcanzado los 100 GHz (100.000 millones de ciclos por segundo). Al parecer DARPA está muy interesada en este tipo de aplicaciones para la nueva generación de dispositivos de comunicación. En este caso el grafeno se hace crecer por epitaxia usando un proceso compatible con el empleado en la fabricación de dispositivos de silicio. IBM espera también emplear este tipo de electrónica en nuevos circuitos integrados. El nuevo transistor utiliza una arquitectura de puerta metálica superior y un aislante basado en polímeros y óxido de alta constante dieléctrica (los detalles dados por IBM son un tanto vagos por obvias razones). La longitud Ilustración del transistor de grafeno. Fuente: IBM. de la puerta es modesta, de 240 nm, dejando amplia liHace no tantos años describíamos en NeoFronteras los pri- bertad para la optimización de su comportamiento y a su meros pasos del grafeno. Antes de esa época no se sabía miniaturización. siquiera que el grafeno pudiera existir de forma aislada Pero la frecuencia alcanzada excede la mejor lograda y estable. Son las láminas de grosor atómico constituidas en silicio, situada en los 40 GHz. En otros transistores por carbono que forman el grafito. basados en grafeno se habían obtenido marcas de sólo 26 Los primeros experimentos de extracción de grafeno se GHz. basaban en sistemas tan rudimentarios como pegar una lámina de cinta adhesiva sobre un trozo de grafito y retirarla de él con la esperanza de haberse llevado alguna lámina de grafeno. Mucho se ha avanzado desde entonces en el campo. Las esperanzas una vez depositadas en este material como substrato para una electrónica avanzada nanotecnológica parece que se van cumpliendo. El grafeno tiene propiedades eléctricas, ópticas, térmicas y mecánicas únicas. Los átomos de carbono se disponen en el grafeno en forma de una red hexagonal. Por esa monocapa los electrones pueden circular a 1.000.000 m/s, mucho más rápido que en el silicio y una fracción importante de la velocidad de la luz*, lo que le hace candidato a una electrónica rápida, unas 100 ó 1000 veces más rápida que la basada en silicio. Si esta tecnología al final se puede desarrollar, el negocio podría ser multimillonario. La oblea en cuestión y un detalle de su superficie que J. J. Moreno, NeoFronteras
muestra los circuitos. Fuente: Penn State.
En los últimos días se han producido un par de noticias al respecto. En un primer caso, investigadores de Penn State han conseguido “obleas” de 100 mm de diámetro sobre las que han podido grabar múltiples circuitos. Para sintetizar estas obleas utilizan un proceso de sublimación de silicio, que en definitiva se basa en calentar una lámina de carburo de silicio en la que los átomos de silicio de la superficie escapan de ella hasta que sobre la misma sólo queda una monocapa o bicapa de carbono que finalmente forma el grafeno. La plusmarca de 10 cm de diámetro dobla la marca anterior y se espera llegar a los 20 cm pronto.
c http://neofronteras.com - Creado con LATEX y paperTEX
* Esta característica incluso le ha hecho merecedor al grafeno de un episodio en la serie “The Big Bang Theory” recientemente. Enlace: http://neofronteras.com/?p=2997 Fuentes y referencias: Nota de prensa de Penn State. Nota de prensa de IBM. Grafeno en NeoFronteras.
NeoFronteras Trimestral
Tecnología
2010 Edición de invierno 96 / 114
TECNOLOGÍA
Células solares de fibras de silicio Células solares económicas hechas de hilos de silicio embebidos en plástico son flexibles, absorben mucha más luz y tienen una alta tasa de conversión eléctrica. J. J. Moreno, NeoFronteras
Microfotografia de la célula solar. Fuente: Caltech, Michael Kelzenberg.
Hay una carrera tecnológica a la hora de conseguir células solares eficientes y baratas que permitan un aprovechamiento realista de la energía solar. Todas las semanas hay un nuevo logro al respecto, pero no parece que estas ideas terminen cuajando. Una de las más recientes es la desarrollada por científicos del Caltech. Se basa en el uso de hilos de silicio embebidos en un substrato de polímero (plástico). Con esta idea pretenden conseguir células solares flexibles que absorban mucha luz y así convertir esa luz en electricidad. La tecnología de silicio fotovoltaica es la más madura, pero tiene que competir con la industria electrónica que es capaz de pagar un precio muy alto por las obleas de silicio monocristalino ultrapuro. Algunas ideas de obtención de células baratas se basan precisamente en el uso de la menor cantidad posible de silicio, como la técnica de cortar obleas ultrafinas, pues sólo importa la superficie y no el volumen. En este caso se consigue usar una pequeña fracción del silicio que se emplea en las células solares comerciales. Además, según Harry Atwater, director del Instituto Resnick del Caltech, estas nuevas células sobrepasan el límite de absorción de luz de los materiales convencionales, incluso de aquellos que utilizan microestructuras para atrapar la luz. La capacidad de atrapar luz es un factor muy importante en las células solares, pues una buena cantidad de luz suele ser reflejada por la superficie. En este caso se absorbe el 96 % de la luz incidente de una longitud de onda específica y un 85 % si consideramos el total del espectro solar visible. Un artículo sobre este logro aparece en Nature Materials. Muchos materiales, como la pintura negra, absorben bien la luz, pero no generan electricidad. Por el contrario, algunos semiconductores pueden generar electricidad con c http://neofronteras.com - Creado con LATEX y paperTEX
la luz absorbida pero no absorben mucha luz. El sistema de formaciones de hilos de silicio desarrollado por este grupo de científicos logra convertir entre un 90 % a un 100 % de los fotones absorbidos en electricidad. En términos técnicos los hilos están muy cerca de la eficiencia cuántica perfecta. Otra cosa distinta es si esa electricidad se puede sacar fuera como energía usable, algo que rebajaría esa eficiencia. La clave de este sistema radica en que la luz, cuando incide en una fibra o hilo, es parcialmente absorbida y parcialmente dispersada, pero la luz dispersada puede terminar siendo absorbida por otra fibra. Además, esto ocurre con independencia de la densidad de hilos en la formación, algo que sorprendió a los investigadores. Según estos científicos basta con cubrir entre el 2 % y el 10 % de la superficie de la célula con hilos de silicio para que el sistema funcione. Cada fibra de silicio mide entre 30 y 100 micras de longitud y sólo una micra de grosor en diámetro. Éstas representan solamente un 2 % del volumen de la célula, siendo el resto polímero transparente. Todo esto significa que se pueden construir células muy eficientes que además sean baratas y consuman poco material. El producto final es flexible y se podría manufacturar y transportar en rollos, lo que lo haría aún más barato en costos finales. El próximo paso a dar por estos investigadores es aumentar el voltaje de operación y el tamaño de la célula (ahora sólo tienen prototipos de 1 centímetro cuadrado). Esperan que células de cientos de centímetros cuadrados funcione tan bien como sus hermanas pequeñas.
Esquema de la célula solar compusta de fibras de silicio en matriz de polímeros. Fuente: Caltech, Michael Kelzenberg.
Enlace: http://neofronteras.com/?p=3020 Fuentes y referencias: Nota de prensa del Caltech. Kelzenberg et al. Enhanced absorption and carrier collection in Si wire arrays for photovoltaic applications. Nature Materials, 2010; DOI: 10.1038/nmat2635.
NeoFronteras Trimestral
Tecnología
2010 Edición de invierno 97 / 114
TECNOLOGÍA
Explicando el límite de Shannon Los códigos de corrección de errores presentes en toda línea digital de comunicación moderna permiten usar Internet o un teléfono móvil con fiabilidad. J. J. Moreno, NeoFronteras
Claude Shannon. Fuente: Bell Labs.
Lo más probable es que usted, amigo lector, lea esto a través de la pantalla de su ordenador, pero para que lo pueda leer la información que constituye esta nota ha tenido que viajar un largo trecho. Primero desde un ordenador corriente a un servidor en Utah, y luego desde ese servidor hasta su ordenador (o eventualmente a cualquier otro del mundo). Parte del tramo ha sido por viejos cables de cobre telefónicos y parte por otras vías. Gracias a que la velocidad de transmisión es lo suficientemente alta usted puede ver esta página en una fracción de segundo y ver todas las fotos contenidas en ella en unos pocos segundos más. Pero para que eso sea posible ahora ha habido que recorrer un largo camino teórico. Detrás de ese click de ratón sobre un icono hay mucha tecnología y ciencia. Hasta hace no tanto los usuarios de ordenadores se conectaban a otros ordenadores a través del módem. En los primeros años ochenta la velocidad de transmisión a través de esos dispositivos llegaba a un máximo de 9,6 kilobits por segundo. Si se intentaba transmitir a más velocidad aparecía un intolerable número de errores que destruían los datos. Entonces, un grupo de ingenieros desarrollaron un sistema de corrección de errores que aumentó la velocidad de transmisión de los modems en un 25 %. ¿Se podía aumentar aún más? Todos sabemos ahora que sí fue po-
sible, pero los ingenieros que desarrollaron esos nuevos sistemas contaban con una ventaja: sabían el límite teórico máximo al que se podía transmitir información. Al igual que un ingeniero industrial sabe que puede aumentar el rendimiento de una máquina térmica (un motor de gasolina por ejemplo) hasta el rendimiento teórico máximo alcanzado por una máquina de Carnot (maquina termodinámica conceptual diseñada en el siglo XIX), los ingenieros de comunicaciones conocían el límite de Shannon. Claude Shannon publicó en 1948 un artículo que esencialmente creó la disciplina de la teoría de la información. Este trabajo es probablemente uno de los más brillantes trabajos científicos a los ojos de los que lo han leído. Shanon, que trabajo en el MIT desde 1956 al 1978, demostró que un canal de comunicación cualquiera puede ser caracterizado por dos factores: el ancho de banda y el ruido. El ancho de banda es la gama de frecuencias (ópticas, electromagnéticas, eléctricas, etc) que pueden ser usadas para la transmisión de la señal, mientras que el ruido es cualquier cosa que afecta negativamente a esa señal. Shannon mostró que, dado un canal con un particular ancho de banda y un ruido característico, se puede calcular la velocidad máxima a la que se puede enviar información sin sufrir errores. Llamó a esta velocidad o ritmo de transmisión “capacidad del canal”, pero se conoce ahora como límite de Shannon. En un canal ruidoso la única manera de alcanzar cero errores es añadir cierta redundancia en la transmisión. Por ejemplo, si usted trata de transmitir un mensaje de tres bits, como 001, puede enviarlo tres veces: 001001001. Si hay un error y se recibe 001011001 en lugar de lo enviado entonces la persona que lo recibe puede estar segura de que lo correcto es 001. Tal método de añadido de información extra a un mensaje para co-
c http://neofronteras.com - Creado con LATEX y paperTEX
rregir los errores se denomina código de corrección de errores. Cuanto más ruidoso es el canal más necesidad hay de añadir información extra para compensar los errores. Pero según crece el código la transmisión se hace más lenta, pues se envían más bits de información. El código ideal minimiza el número extra de bits de corrección (con lo que aumenta la velocidad de transmisión de información útil) y maximiza la capacidad de corrección de errores. Obviamente la estrategia de enviar un mensaje repetido tres veces es un código de corrección terrible. Con este método se disminuye el ritmo de transmisión de información útil a un tercio. Encima es todavía vulnerable a errores, pues si se dan dos errores simultáneos en los lugares adecuados no se puede recuperar el mensaje original. Shannon creía que era posible construir códigos de corrección mejores. De hecho, fue capaz de demostrar que para un canal de comunicación cualquiera debe haber un código de corrección que permita la transmisión muy cerca del límite de Shannon. En dicha demostración no se proporcionaba ninguna receta de cómo construir dicho código. En su lugar el trabajo descansaba en el cálculo de probabilidades. Si, por ejemplo, usted quiere enviar cuatro bits a través de un canal ruidoso entonces hay 16 posibles mensajes de cuatro bits. La demostración de Shannon asignaría a cada unos de esos posibles mensajes su propio código de corrección aleatorio. Centrémonos en el caso en el que el caso para el cual el canal ruidoso requiera 8 bits para transmitir mensajes de 4 bits. En este caso, el receptor, al igual que el emisor, tendrá un “libro de códigos” que correlacionará los 16 posibles mensajes de 4 bits con 16 códigos de 8 bits. Como hay 256 secuencias posibles de 8 bits hay, como mínimo, 240 que no aparecerán en el libro de códigos. Si el receptor recibe una de esas 240 secuencias sabrá que un error
NeoFronteras Trimestral
Tecnología
se ha introducido en el mensaje. Pero de los 16 códigos permitidos sólo habrá probablemente uno que encaje mejor con la secuencia recibida. Shannon mostró que, estadísticamente, si se consideran todas las posibles asignaciones a los mensajes con códigos al azar, debe haber uno que se aproxime al límite de Shannon. Cuanto más largo sea el código más cerca estará de ese límite. Un sistema de 8 bits para codificar mensajes de 4 bits no queda muy cerca de ese límite, pero un código de 2000 bits para un mensaje de 1000 bits sí que se aproxima bastante. Obviamente el esquema de Shannon no es práctico, pues un libro de códigos que use un código asignado al azar para cualquier mensaje posible, de pongamos 1000 bits, sería enorme (no cabría en ningún disco duro del mundo). Pero la demostración de Shannon nos dice que siempre existe la posibilidad de que existan códigos que se acerquen al mencionado límite, aunque no los conozcamos. La búsqueda de tales códigos duró hasta la década de los noventa, pero sólo porque el mejor código conocido, e inventado en el MIT, fue ignorado durante 30 años: el creado por Robert Gallager.
Bretagne presentaron en un congreso una serie de códigos sobre los que afirmaban que estaban a mitad de camino del límite Shanon (todo un logro). Como no venían del campo de la Teoría de la Información y no tenían pruebas formales elegantes para defenderse de tal afirmación, los asistentes casi se rieron de ellos en sus caras. Sin embargo, más tarde se demostró que tenían razón. A estos códigos se les llamó “turbo-códigos”. Los turbo-códigos son iterativos y se basan en suponer cuál es el mensaje codificado. Cada suposición sucesiva se utiliza de semilla en el decodificador y como resultado se obtiene con el tiempo una propuesta cada vez más refinada. Idealmente, repitiendo el proceso una y otra vez, se puede conseguir que el error sea tan pequeño como se quiera. Los buenos resultados obtenidos por los turbo-códigos hicieron que algunos científicos investigarán en el campo, descubriendo por el camino que un conjunto de códigos descubiertos en 1960 por Robert Gallager funcionaban tan bien como los turbocódigos. Al parecer esos códigos tan buenos habían pasado desapercibidos hasta entonces. Los códigos Gallaer usan lo que se llama bits de paridad, que son bits exEn 1993 Alain Glavieux y Clau- tras que contienen información acerca de Berrou de la École Nationale Su- del mensaje. Un bit de paridad puede périeure des Télécommunications de indicar, por ejemplo, si la suma de un PUBLICIDAD
c http://neofronteras.com - Creado con LATEX y paperTEX
2010 Edición de invierno 98 / 114
triplete específico de bits de un mensaje es par o impar, el siguiente bit de paridad dice lo mismo sobre el siguiente triplete y así sucesivamente. Bajo este esquema, la información de dos bits del triplete expresa información relevante acerca del tercero. Iterativamente se pueden ir probando sucesivas suposiciones al mensaje que converjan a una que se aproxime todo lo que se quiera al mensaje original. A día de hoy los códigos de Gallager son la mejor aproximación conocida al límite de Shannon para un canal de comunicación dado, incluso mejores que los turbo-códigos. Están integrados en las líneas de transmisión de datos. Incluso en cada ordenador o teléfono móvil actuales se pueden encontrar chips dedicados para decodificar códigos de Gallager. Mientras tanto Gallager, que no sospechó lo buenos que sus códigos podían ser, es todavía profesor emérito en el MIT. Así que si ahora usted puede usar su teléfono celular o descargarse esta página web es porque antes, unos señores, con lápiz y papel, desarrollaron los trucos necesarios para que eso sea posible. Enlace: http://neofronteras.com/ ?p=2984 Fuentes y referencias: Nota sobre Shannon del MIT. Nota sobre gallager del MIT.
NeoFronteras Trimestral
Tecnología
2010 Edición de invierno 99 / 114
TECNOLOGÍA
¿Futuros microprocesadores líquidos? Intentan remedar con gotitas de disoluciones químicas recubiertas de lípidos una red neuronal con capacidad de procesamiento de información. J. J. Moreno, NeoFronteras
Esquema de red neuronal húmeda basada de gotitas recubiertas de lípidos.
rebro líquido mínimo que dé lugar finalmente a un computador ‘húmedo’. “La gente se da cuenta ahora que el mejor procesamiento de información que tenemos son nuestros cerebros y, como estamos encontrando con que el silicio tiene sus limitaciones en términos de procesamiento de información, necesitamos explorar otras aproximaciones, que es exactamente lo que estamos haciendo nosotros aquí”, añade Zauner. El proyecto, en el que participan varias instituciones internacionales, durará tres años y comprende tres objetivos complementarios. El primer objetivo es desarrollar la ingeniería necesaria para crear gotitas recubiertas de lípidos (grasas) inspiradas en las células biológicas, que contendrían un medio químico excitable, y conectarlas en una red de comunicación a través de la cual puedan pasarse una señal química unas a otras. El segundo objetivo es diseñar una arquitectura de procesamiento de información basada en este sistema y demostrar la capacidad de la misma a la hora de procesar información. El tercer objetivo es establecer y explorar el potencial y limitaciones de esta arquitectura de gotitas. “Nuestro sistema copia algunas características clave de las redes neuronales del cerebro y se excitará, se autorreparará y se autoensamblará”, dice Planque. Les quedan tres años por delante. A ver si hay suerte y tienen éxito.
Se está investigando una nueva clase de tecnología de procesamiento de información inspirada por los procesos químicos que se dan en los sistemas biológicos. Maurits de Planque y Klaus-Peter Zauner (bioquímico y científico de la computación respectivamente) acaban de recibir una subvención de la Unión Europea de 1,8 millones de euros para investigar en este sentido. La idea de estos investigadores es adaptar los procesos cerebrales a un escenario de procesamiento ‘húmedo’ de la Enlace: http://neofronteras.com/?p=2968 información. Lo harán mediante el uso de disoluciones de sustancias químicas que se comporten como los transisto- Fuentes y referencias: Nota de prensa de University of Southampton. res de un microchip. Según Zauner lo que están tratando de desarrollar es un ce-
PUBLICIDAD
c http://neofronteras.com - Creado con LATEX y paperTEX
NeoFronteras Trimestral
Reportajes especiales
2010 Edición de invierno 100 / 114
HISTORIA Y TECNOLOGÍA
Refrigeradores, medio ambiente y la bomba atómica El refrigerador sin partes móviles que Szilard y Einstein desarrollaron en los treinta podría, una vez modernizado, ser más ecológico que los diseños actuales. No fue ésta la última vez que los dos físicos colaboraron. J. J. Moreno, NeoFronteras
Plano del refrigerador.
Esta historia enlaza frigoríficos, bombas atómicas, el calentamiento global y a dos genios, uno muy conocido y otro no tanto. Une la gran Física y la Física cotidiana, el pasado y el presente. Vamos a hablar de dos encuentros que mantuvieron los físicos Leo Szilard y Albert Einstein en el pasado, uno prolongado y calmo, mientras que el otro más corto y apresurado. Estos dos físicos contribuyeron a la historia del siglo veinte, apoyaron el nacimiento de la bomba atómica y se arrepintieron; y puede que ahora, muertos hace tiempo, ayuden a impedir el calentamiento global y eviten, o traten de evitar, el fin del mundo y de la civilización una vez más. En los años treinta Einstein ya había alumbrado la Teoría General de la Relatividad y se le consideraba un genio de la Física. Como en aquella época los genios no estaban especializados, o simplemente eran genios, colaboró con el húngaro Leo Szilard en el desarrollo de un sistema de refrigeración sin partes móviles. Leo Szilard, que había sido alumno de Einstein, hizo su tesis doctoral sobre Termodinámica, así que el proyecto no le era totalmente extraño. c http://neofronteras.com - Creado con LATEX y paperTEX
Desde 1926 a 1933 trabajaron juntos en este proyecto. Se cree que la mayor parte del trabajo la realizó Szilard, con Einstein actuando más bien como consultor o asesor. Este fue, por tanto, el primer encuentro del que hablamos. En aquella época el uso de refrigeradores no estaba extendido y los que había sufrían averías. Se puede pensar que la razón para trabajar en ese campo fue la monetaria o que simplemente fue por la mera satisfacción de conseguir inventar algo, pero en todo caso la motivación inicial para desarrollar frigoríficos domésticos mejores provino de una noticia que apareció en los periódicos por aquellas fechas y en la que se narraba la muerte de una familia entera cuando el gas de su frigorífico se escapó debido a una avería mecánica. Estos físicos pensaron que si se diseñaba un sistema sin partes móviles las probabilidades de un fallo mecánico que dejara escapar el gas se reducirían mucho. En 1930 estos dos hombres sacaron adelante una patente (suiza) de un refrigerador por absorción sin partes móviles que usaba una mezcla de gases para refrigerar y no necesitaba de motor ninguno. Aunque en un principio este sistema se llegó a usar en frigoríficos domésticos, al final fue sustituido por sistemas más eficientes que usaban compresores eléctricos y gas freón. Así que el invento de Szilard y Einstein, de Física cotidiana, terminó cayendo más o menos en el olvidó. En los refrigeradores posteriores (y en los modernos) un motor eléctrico comprime y expande un gas y así se consigue trasladar el calor de una parte a otra, da igual si se trata de un frigorífico o de un aparato de aire acondicionado. Hasta hace no tanto, en los sistemas de refrigeración se empleaban gases como el freón que al escaparse a la atmósfera destruían la capa de ozono. Estos gases están ahora prohibidos. Esta prohibición fue un gran éxito de los acuerdos internacionales y nos dice que todavía hay espacio para la esperanza en la escena política. Pero los gases que lo sustituyeron no son del todo inocuos y contribuyen al efecto invernadero. No deja de ser una paradoja que para defendernos del calor calentemos más el planeta, tanto por el uso de estos gases en sistemas de refrigeración como por el uso de electricidad proveniente de la quema de combustibles fósiles para alimentarlos. Lo peor es que la demanda de todo tipo de sistemas de refrigeración no hace nada más que crecer, sobre todo en los países en vías de desarrollo. No podemos prescindir de ellos, ya que se necesitan para mantener los alimentos frescos en buenas condiciones. Pero por otro lado el calentamiento global nos pisa los talones, puede que incluso ya nos haya adelantado y que el mundo tal y como lo conocemos desaparezca inevitablemente. Ahora Malcolm McCulloch, de Oxford University y que dirige un proyecto para el desarrollo de dispositivos que
NeoFronteras Trimestral
Reportajes especiales
puedan usarse sin electricidad, se ha fijado en el antiguo diseño de Einstein y Szilard. Su equipo trabaja en el perfeccionamiento del sistema para que pueda ser usado en frigoríficos domésticos en la actualidad. En el diseño de Einstein y Szilard no se usa freón ni gases similares, se usa amoniaco, butano y agua. Se aprovecha del hecho de que los líquidos hierven a una temperatura más baja cuando la presión disminuye. El efecto es similar a cuando los montañeros suben a una montaña muy alta, como allí la presión atmosférica es menor que a nivel de mar, el agua les hierve a más baja temperatura. De este modo en la cumbre del Everest la temperatura de ebullición del agua es de sólo 69 grados centígrados. A un lado del sistema hay un contenedor denominado evaporador que contiene butano. Cuando se introduce otro vapor en el evaporador la presión decrece y por tanto también lo hace la temperatura de ebullición del butano que, para evaporarse, necesita tomar energía en forma de calor del entorno y así conseguir hervir. Esta es la parte que refrigera. En los sistemas tradicionales un compresor se encarga de cambiar la presión en el sistema y, en general, funcionan mejor que el diseño original de Einstein y Szilard. El calor extraído por el evaporador va a parar al condensador (la rejilla cálida de la parte de atrás de nuestro frigorífico) y de éste al aire circundante. Recordemos que todos estos sistemas no crean frío, sino que trasladan calor de una
c http://neofronteras.com - Creado con LATEX y paperTEX
2010 Edición de invierno 101 / 114
parte a otra con ayuda de energía. La parte de donde se extrae el calor termina siendo más fría que el entorno. McCulloch cree que utilizando una mezcla especial de gases y mejorando un poco el diseño original se puede cuadriplicar la eficacia del sistema. La única energía que se necesita es la que hay que poner para calentar la bomba, cosa que se podría hacer con energía solar. En este diseño no se usa electricidad. El uso de calor para producir refrigeración no deja de ser paradójico, pero la Termodinámica lo explica convenientemente. El uso de energía solar en sistemas de refrigeración no es nueva y ya se ha planteado con anterioridad. La idea es buena porque justo cuando más se necesita la refrigeración es cuando más sol hay. Hace escasa semanas, por ejemplo, se presentaba otro sistema de refrigeración basado en energía solar directa (sin mediación fotovoltaica). Un sistema alternativo a los tradicionales sistemas de refrigeración son los basados en campos magnéticos, concepto que todavía está en fase de desarrollo y que prescinde de gases de refrigeración, aunque usa electricidad. Lo bonito del sistema de Einstein y Szilard es que no necesita de partes móviles y, por tanto, su mantenimiento es muy bajo. Su uso ideal sería para áreas rurales del tercer mundo, sobre todo si son soleadas. Aunque de momento se trata sólo de un prototipo y está lejos de ser comercializado, es prometedor.
NeoFronteras Trimestral
Reportajes especiales
Hasta aquí la parte de Física cotidiana, de Física amable, de la pequeña Física. Justo cuando Einstein y Szilard dejaron de colaborar en este proyecto la situación política de su continente se hizo aún más turbulenta. O fue precisamente por esta razón por la que estos dos europeos siguieron trayectorias profesionales y vitales separadas durante unos años, aunque similares desde el punto de vista personal. Szilard tuvo que escapar del régimen nazi en 1933, estableciéndose finalmente en los Estados Unidos. Einstein también hizo lo mismo. Recordemos que los dos eran judíos. Una vez en América el húngaro colaboró con Enrico Fermi y juntos descubrieron que era posible la fisión nuclear sostenida del uranio. Hasta entonces Einstein creía que su famosa formula E = mc2 era una curiosidad académica y que nunca se podría transformar materia en energía de forma práctica. Creía que para romper un núcleo atómico se necesitaría tanta energía como la que se podría extraer del sistema. Los intentos de fisión se realizaban por aquel entonces con protones y eran bastante infructuosos. Como tanto el protón como el núcleo atómico tienen carga
2010 Edición de invierno 102 / 114
positiva, es decir del mismo signo, las fuerzas electrostáticas hacen que se repelan, siendo muy difícil la absorción del protón por parte del núcleo. Es la misma razón por la cual es tan difícil la fusión nuclear controlada. Pero en aquella época se dieron cuenta de que el uso de neutrones permitía la fisión nuclear y que la reacción en cadena abría las puertas al arma nuclear. Por aquel entonces el régimen nazi ya había demostrado su “respeto” por las minorías étnicas, mostrándose tan cruel como parecía. Además Alemania puso en marcha el proyecto de la bomba atómica alemana. Uno de los que trabajaron en proyecto nuclear alemán fue Werner Heisenberg, un genio de la Física y uno de los padres de la Mecánica Cuántica. Aunque en un principio había sido perseguido por el régimen, terminó siendo el director de ese proyecto. La visión de un régimen nazi dispuesto a conquistar el mundo debía de ser sobrecogedora, terrible. Tenían no sólo la capacidad intelectual y tecnológica de conseguir el arma nuclear, sino además la carencia de escrúpulos suficiente como para usarla.
La visión de un régimen nazi dispuesto a conquistar el mundo debía de ser sobrecogedora, terrible. El segundo encuentro entre Szilard y Einstein del que hablamos fue en agosto de 1939. Szilard, alertado por el proyecto alemán y conocedor de la posibilidad de crear una bomba basada en la energía nuclear, visita a Einstein para pedirle ayuda. Quería usar la fama e influencia de su amigo. La amistad entre ellos se había reforzado durante esos años en los que los dos pensaban en cómo hacer frigoríficos domésticos. Szilard no era tan famoso como Einstein, tenía menor capacidad de influencia, pero tenía un información importante que el sabio de origen alemán desconocía. En aquella reunión le habla de la reacción nuclear en cadena y de la factibilidad de construir un arma nuclear, posibilidad que los nazis ya estaban investigando. Le convence para escribir una carta al presidente Franklin Delano Roosevelt en la que se le solicitan iniciar un proyecto nuclear norteamericano (de hecho escribieron varias cartas). Finalmente el proyecto Manhattan de construcción de la bomba atómica fue aprobado, proyecto en el que Szilard participó activamente. Einstein, por su parte, no participó más en nada relacionado con ese asunto una vez enviadas las cartas. Fabricar por primera vez armas nucleares no fue fácil y se utilizaron los recursos de una nación poderosa para hacerlo, así como el esfuerzo de muchos científicos e ingenieros. Se necesitaron varios años para alcanzar la meta. Cuando las bombas estuvieron preparadas Alemania ya había perdido la guerra, pero Japón seguía combatiendo a los EEUU. Japón no tenía proyecto nuclear en marcha, pero era un país orgulloso y culpable del bombardeo de Pearl Harbor. El motivo principal y original para la cons-
c http://neofronteras.com - Creado con LATEX y paperTEX
trucción del arma nuclear había desaparecido, pero ahora otra clase de genio estaba fuera de la botella y en manos de los políticos y asesores. Hubo voces para que las bombas no fueran usadas y Szilard intentó convencer a Harry Truman para que las arrojaran sobre un lugar despoblado a modo de demostración en lugar de sobre población civil. Truman, escuchando a sus consejeros, no hizo caso a Szilard y eligió la última (y original) de esas dos opciones con el resultado que todos sabemos. El horror que el uso de las bombas nucleares produjo sobre Szilard le hizo dejar ese campo, pasándose finalmente a la Biología. Luchó el resto de su vida contra la proliferación de armas nucleares y a favor de la paz. Einstein condenó el uso del arma nuclear contra Japón y luchó a favor de la paz y en contra de la carrera de armamentos, participando en la redacción del manifiesto Russell-Einstein que estimuló más tarde las conferencias de paz Pugwash. Cinco meses antes de su muerte dijo que el gran error de su vida fue la carta que envió a Roosevelt. Pasaron décadas de guerra fría y en algunos momentos el mundo estuvo al borde de sufrir un holocausto nuclear. Nos libramos, más menos, de esa pesadilla, pero sigue agazapada dispuesta a sobresaltarnos mientras que otro inmenso problema se cierne sobre el horizonte: el cambio climático. Los dos científicos ya han desaparecido, pero desde el olimpo de los seres inmortales ayudan una vez más al género humano para que la civilización no desaparezca de la faz de la Tierra víctima de su propia estupidez.
NeoFronteras Trimestral
Reportajes especiales
2010 Edición de invierno 103 / 114
BIOLOGÍA
Cóctel digestivo de plantas carnívoras Las plantas carnivoras son fascinantes y presentan una gran variedad. J. J. Moreno, NeoFronteras
Cuando uno es pequeño y todavía está descubriendo el mundo muchas cosas producen fascinación. Pero si te gusta la naturaleza, los bichos y las plantas nada es comparable a cuando llega el día en el que te hablan de las plantas carnívoras. Ese día escuché boquiabierto como algunas de ellas rodeaban a la víctima, generalmente un pequeño insecto, con cientos de pelillos terminados en gotitas de un líquido pegajoso de color escarlata. Eran las droseras, que tenían una pinta de extraterrestres que no podían con ella. La atrapamoscas, por otro lado, era la más espectacular. Como si fueran pequeñas ratoneras, las hojas que constituían sus trampas se cerraban súbitamente sobre sí mismas atrapando a la presa. Entonces al insecto, encerrado vivo en el interior de esta trampa, le esperaba una digestión lenta de dos semanas. La existencia de una planta con movimiento era algo absolutamente increíble y sólo tenía comparación con la asombrosa sensitiva o mimosa púdica. Te decían que las plantas carnívoras habían evolucionado en zonas pantanosas y húmedas en donde había escasez de ciertos elementos que tenían que obtener de los pobres insectos. Pero el profe no conseguía aclararte si eran autótrofas o heterótrofas, por lo que todavía te quedaba algo de curiosidad que te empujaba a saber más sobre el asunto y la convicción definitiva de que los mayores no lo sabían c http://neofronteras.com - Creado con LATEX y paperTEX
todo, incluso las cosas que deberían de saber. Las plantas jarro eran las más exóticas y vivían en junglas lejanas. Tenían unas jarritas o cántaros a modo de trampas. Las paredes de éstos eran muy escurridizas y a veces estaban recubiertas interiormente de pelillos orientados hacia abajo. Si un insecto tenía la poca fortuna de caer en uno de ellos no tenía escapatoria, su destino era terminar en el líquido digestivo del fondo. Entre estas plantas carnívoras había una familia que tenían un nombre extraño, mitológico, homérico: nepentes. Las nepentes procedían de lugares con nombres exóticos como Nueva Caledonia, Borneo, Sumatra y similares. Sus jarros, colgados de no se sabe muy bien dónde, parecían muy grandes en las fotos y me gustaba fantasear con la posibilidad de que también “comieran” pequeñas ranas y otros animales. Incluso, en el más desenfrenado de los sueños, uno podía concebir una mutante gigante que comiera animales más grandes o incluso humanos, quizás después de hacerlos dormir. Aunque, esta idea provenía de una fusión de “La invasión de los Ladrones de Cuerpos” y “La Pequeña Tienda de los Horrores”. Pero los pantanos brumosos rodeados de árboles recubiertos de musgo húmedo y las selvas tropicales en donde te tenías que abrir paso cortando con el machete lirios sangrientos y salamandras doradas* estaban muy lejos de la
NeoFronteras Trimestral
Reportajes especiales
rural meseta castellana. Era imposible hacerse con alguno de estos ejemplares y sólo la fantasía, desbocada, proporcionaba algo de satisfacción.
Dionaea muscipula
Posteriormente el mercado todopoderoso empezó a comercializar este tipo de plantas. Tenían un precio alto, pero merecía la pena. Podías ir a la floristería y hacerte con una atrapamoscas, o planta “Venus” en su nombre comercial. ¡Qué tontería de nombre! ¡Pero si en Venus no hay vida y estas plantas nada tienen que ver con el sexo y el amor! El caso es que la excitación por comprar, por fin, uno de estos ejemplares era incontenible. Venían con una etiqueta plástica clavada en la tierra turbosa en la que crecían, y sobre ella estaban escritas las instrucciones en varios idiomas extraños. Luego descubrí que uno de los idiomas era el nerlandés, pues Holanda era algo así como la “mafia” internacional en el comercio mundial de flores y plantas. Pero en ese momento sólo el inglés era reconocible y gracias a un diccionario era posible traducir el texto. Según las instrucciones la humedad ambiental era importante (malo, malo, en Castilla) y sobre todo no había que “marear” a la planta haciendo saltar las trampas frecuentemente. Investigar sobre el sistema de disparo era entretenido. En cada lado de la hoja que forma cada trampa hay exactamente tres pelillos sensibles que activan el cierre de la misma. Pero sólo si se estimulan dos de los pelos de manera consecutiva se dispara la trampa. Así se eluden estímulos que ocasionarían cierres innecesarios por impacto de objetos inanimados (y por tanto no orgánicos) como las gotas de lluvia. Este sistema es de una importancia vital, ya que los cierres en balde suponen un despilfarro energético que la planta no se puede permitir. La trampa, en condiciones normales, puede realizar unas siete capturas efectivas. Descubrí que si se activaba artificialmente una de estas trampas sin que hubiera objeto orgánico alguno dentro, la trampa se abría al poco tiempo. La atrapamoscas tenía pues un sistema de detección que analizaba si dentro había un producto que pudiera metabolizar, si no había nada, o el objeto era inorgánico se abría de nuevo antes incluso de tratar de digerirlo. Bueno, sólo había que esperar a que algún insecto cayera en una de las trampas. Pero harto de esperar, y agotada toda la paciencia que el estado de excitación permitía, al final uno terminaba c http://neofronteras.com - Creado con LATEX y paperTEX
2010 Edición de invierno 104 / 114
colocando manualmente a una pobre mosca (incapacitada para el vuelo, claro) sobre una de las trampas. Al principio la mosca se resistía a su cautiverio y peleaba con fuerza, pero las espinas que rodeaban la trampa, a modo de barrotes de una extraña cárcel, le impedían salir. Luego la trampa se sellaba herméticamente y ya nada podía entrar o salir hasta pasadas dos semanas. Ver a través de la trampa, gracias a una luz convenientemente colocada por detrás, a la mosca en proceso de ser digerida era fascinante. Aunque, la verdad sea dicha, esta “radiografía verde” no proporcionaba mucha información. ¿Cómo la digería? ¿Cómo evitaba que se pudriera? ¿Qué quedaría al final de la mosca? No todas los insectos eran igualmente apetecibles para esta planta. Las hormigas y las moscas demasiado grandes no le solían sentar bien y estropeaban la trampa definitivamente. Lamentablemente, cuando comprabas una de estas plantas implícitamente suscribías un “contrato” no escrito en el que aparecía el siguiente texto: “Esta planta se autodestruirá en unas semanas, y todo lo que intente para impedirlo sólo retrasará levemente el fatídico final.” El ambiente seco era definitivamente criminal y tarde o temprano te quedabas sin la atrapamoscas. Recientemente incluso han llegado a comercializar plantas jarro, tanto nepentes como sarracenias. Las sarracenias son como embudos que surgen del suelo y las hay de diversos colores y tamaños. Pero quizás las más interesantes de las plantas jarro son las nepentes. Éstas son realmente grandes y vienen en una maceta que hay que suspender de algún sitio. Sus odres o jarritos, que se descuelgan grácilmente por debajo de la base del tiesto, están rellenos en parte de un misterioso líquido en donde digieren a sus incautas víctimas. He tenido una de estas plantas colgada dentro de la ducha del cuarto de baño (el sitio más húmedo que se me ocurrió) durante muchos meses hasta que hace poco los calores inmisericordes del verano se la cargaron definitivamente.
Nepenthes Bicalcarata.
A diferencia de otras plantas que absorben todos sus nutrientes del suelo en el que crecen, las plantas carnívoras, como hemos visto, tienen sistemas para atrapar insectos, digerirlos y absorber el nitrógeno y fósforo de sus cuerpos, elementos que el suelo en el que viven no les puede proporcionar.
NeoFronteras Trimestral
Reportajes especiales
2010 Edición de invierno 105 / 114
Cada una de estas enzimas se encarga de dividir o descomponer un tipo concreto de compuesto orgánico. Así, la quitina, que recubre el cuerpo de los insectos y que forma el exoesqueleto de los mismos, es degradada por las quitinasas. Tengamos en cuenta que los fluidos digestivos crean un ambiente agresivo frente al cual la propia planta también debe protegerse adoptando medidas. Esta capacidad de digestión de las presas parece haber surgido independientemente en los distintos linajes de plantas carnívoras, de las que se conocen más de 6oo especies. No se trata solamente de digerir y ya está. Además de tener que dividir complejas moléculas orgánicas, se las tienen que ingeniar para evitar que bacterias y hongos se aprovechen del festín que se reservan para ellas. Este botín, en forma de insecto, es como comida en una despensa y, por tanto, deben evitar que la presencia de microorganismos lo malogre de alguna manera. Para ello crean compuestos orgánicos especiales que inhiben la proliferación de estos microorganismos. Algunas plantas carnívoras, como la Heliamphora no ha logrado desarrollar enzimas digestivas y tienen que delegar la digestión, precisamente, en determinas bacterias que sí las producen, pagando un pequeño precio por los servicios prestados. Pero no todo está resuelto en el mundo de las plantas carnívoras. Por más de un siglo los científicos han perseguido la receta química del fluido interior de los jarros de las Nepenthes, familia que consta de más de cien especies. Hasta hace poco no se sabía muy bien el cóctel que las nepentes usan para digerir a los insectos que caen en sus jarros y sólo se conocían dos de sus componentes. Pero no sólo pueden ser insectos sus víctimas, también pueden ser presas suyas los ciempiés, las ranas y ocasionalmente pequeños pájaros o ratones. Aunque estos dos últimos sólo pueden ser víctimas de las que tienen las trampas más grandes como las nepentes. Por tanto, además de insectívoras algunas de ellas son “verdaderamente” carnívoras. Incluso hay también alguna especie coprófaga que engaña a algunos pájaros con unos frutitos y, mientras que las aves se los comen, esperan a que depositen sus excrementos en el jarro. Excrementos de los que la planta extrae los elementos que necesita. Pero el colmo de los colmos son las plantas “vegetarianas”. Nepenthes ampullaria, por ejemplo, se aprovecha del detritus vegetal que cae del dosel vegetal de la selva y que, al parecer, digiere en sus jarros. Algunas especies de Utricularia atrapan y digieren algas y la Pinguicula rosettes atrapa polen de otras plantas. Recordemos que a las plantas carnívoras sólo les interesan unos pocos elementos (en la mayoría de los casos sólo nitrógeno) de sus víctimas, pero necesitan dividir las complejas moléculas orgánicas de los que forman parte para extraerlos. Ésto lo consiguen digiriendo sus cuerpos con enzimas. Las plantas carnívoras no producen ácidos como el de nuestro estómago, pero producen estas enzimas. Entre las que se han sido identificadas formando parte del jugo digestivo de estas plantas están las quitinasas, esterasas, lipasas, peroxidasas, fosfatasas, preteasas o ribonucleasas. c http://neofronteras.com - Creado con LATEX y paperTEX
Recientemente los científicos japoneses Tatsuro Hamada y Naoya Hatano han descifrado el complejo cóctel digestivo y las enzimas antibacterianas de la Nepenthes alata. Su estudio se publicó en la revista Journal of Proteome Research y ha servido de excusa para redactar este artículo.
NeoFronteras Trimestral
Reportajes especiales
2010 Edición de invierno 106 / 114
La identidad de la miríada de proteínas implicadas en esta maravilla evolutiva ha sido un misterio hasta ahora y algunas de estas sustancias puede que sean de aplicación práctica en medicina y agricultura pronto. No hace falta ser muy listo para ver usos comerciales a un bactericida o fungicida copiado de los que producen estos seres.
componentes. Han aislado y secuenciado las proteínas encontradas y las han comparado con proteínas conocidas para encontrar análogos estructurales y funcionales. Para evitar contaminaciones de proteínas de insecto analizaron sólo jarros recién abiertos. Han descubierto que, además de agua, el fluido de los jarros de la Nepenthes alata contiene principalmente siete compuestos. Tres de ellos sólo se pueden encontrar en esta especie e incluyen enzimas que inhiben la proliferación bacteriana y la podredumbre cuando la planta digiere la presa. Son una proteína similar al thaumatin, la beta-1,3glucanasa y una quitinasa de clase IV. Quizás otras especies de nepentes tengan también sus enzimas únicas y particulares, aunque para saberlo tendremos que esperar. Seguro que hay muchas más cosas que saber sobre estas fascinantes plantas que nos llenarán de asombro y admiración. Plantas que pertenecen a un mundo fantástico, casi irreal, un mundo lleno de prodigios y fenómenos fabulosos. Mientras tanto quizás nos desinfectemos una herida o lavemos la fruta que vamos a comer con un producto basado en bactericidas procedentes de plantas carnívoras. Como curiosidad última sólo recordar que el nombre de nepentes viene de un pasaje de “La Odisea” en el que se describe a la reina de Egipto dando una pócima llaNepenthes alata. Foto: Singer Photos, vía Flickr. mada nepenthes pharmakon a Helena. La paradoja es que Mira tú por donde estas curiosas plantas podrían te- etimológicamente nepenthes significa “sin sufrimiento” (ne ner aplicaciones prácticas. Aunque no sería la primera vez, = no, penthos = pena, sufrimiento), cosa con la que sepues algunas plantas carnívoras se usan tradicionalmente guro no estarán de acuerdo los insectos y otros animales en ciertas regiones para cortar la leche, y de otras se han que caen en sus trampas. En todo caso, por muy larga que obtenido algunas sustancias farmacológicas. sea la digestión en estas plantas, no lo será tanto como la Hamada y Hatano usaron técnicas punteras del mun- digestión milenaria del monstruo Sarlacc de “El Retorno do de la proteómica para identificar y analizar todos los de Jedi”. Pero ésa es otra historia.
Sarracenia rosea
* Con permiso del que concibió Macondo. Referencias: - Proteome Analysis of Pitcher Fluid of the Carnivorous Plant Nepenthes alata (resumen). - Spectroscopy Now.
c http://neofronteras.com - Creado con LATEX y paperTEX
-
The International Carnivorous Plant Society. Preciosa galería. Comercio de plantas carnívoras 1. Comercio de plantas carnívoras 2.
Las fotos usadas proceden de: Sarracenia.com.
NeoFronteras Trimestral
Reportajes especiales
2010 Edición de invierno 107 / 114
EXTREMOFILIA
El río Tinto y sus extremófilos En el río Tinto pululan multitud de microorganismos extremófilos que nos pueden ayudar a entender cómo fueron los comienzos de la vida en la Tierra. J. J. Moreno, NeoFronteras
La vida quiere ser, quiere seguir existiendo, quiere seguir propagándose. Para ello utilizará todos los mecanismos de la evolución para poder adaptarse o para adaptar el medio que la alberga. A un organismo unicelular, cuya sucesión de generaciones es más rápida, le será más fácil evolucionar o adaptarse. Los reyes de la biosfera son los microorganismos y nosotros, como seres pluricelulares que somos, sólo ocupamos el rincón de complejidad que ellos nos dejan. Estaban aquí miles de millones de años antes de que apareciéramos sobre la faz de la Tierra y continuarán por aquí mucho tiempo después de que nos hayamos ido. No es de extrañar que sean precisamente los microorganismos los que se hayan adaptado a los ambientes más inhóspitos posibles. A estos seres los llamamos extremófilos por vivir en lugares extremos, por prosperar en ambientes que para los demás son letales. Tenemos microorganismos que soportan la radiación de un reactor nuclear, a otros que viven a 100 grados centígrados y alta presión o, por el contrario, a muy bajas temperaturas; también tenemos algunos que viven en mec http://neofronteras.com - Creado con LATEX y paperTEX
dios con altísimo contenido en sal o a otros en una elevada acidez. Recordemos que desde hace miles de años el ser humano utiliza ciertos sistemas para conservar los alimentos. Todos ellos consisten en eliminar a los microorganismos que descomponen nuestra comida y en crear un medio para que no prosperen. Así por ejemplo, teníamos los salazones antes de que los fenicios comerciaran a lo largo del mar Mediterráneo y todavía nos queda el bacalao salado y el jamón curado como casos actuales que nos los recuerdan. También teníamos escurtidos, en los que se usa la acidez del vinagre para conservar. Gracias a esto podemos conservar hortalizas o podemos cocinar escabeches que se conserven largo tiempo. Los pepinillos en vinagre y el escabeche de atún todavía tienen éxito en la actualidad. También hervimos los alimentos y los guardamos herméticamente para así tener conservas. Recientemente hemos empezado a usar las propiedades del frío e incluso hemos descubierto la capacidad de la radiación para conservar alimentos. No deja de ser chocante que haya seres que so-
NeoFronteras Trimestral
Reportajes especiales
2010 Edición de invierno 108 / 114
brevivan precisamente a todos esos ambientes que matan Los minerales de la región que “contaminan” el río Tina casi todos sus congéneres. to se formaron en el fondo del mar hace entre 300 millones y 350 millones de años, en el Carbonífero, gracias a la actividad hidrotermal. Constituyen uno de los mayores depósitos piríticos del mundo. El entorno del río Tinto se ha explotado para extraer minerales desde que hace unos 5000 años comenzaran a hacerlo tartesos e íberos. La explotación la continuaron fenicios y posteriormente los romanos, que acuñaron monedas con el oro y la plata procedente de allí. Una compañía británica empezó la explotación en el siglo XIX, principalmente para extraer cobre, pero también hierro y manganeso. La explotación de las minas de Río Tinto continuó hasta que la producción de cobre declinó en los ochenta, y la de plata y oro en los noventa. Cuando se dejó de explotar se planteó la recuperación del río eliminando su “contaminación”. Los análisis preliminares, para sorpresa de muchos, en lugar de confirmar que el río estaba totalmente muerto, arrojaron que las aguas bullían de formas de vida extrañas. Así por ejemplo Acidithiobacillis ferrooxidan vivía de Los extremófilos suelen ser procariotas como las bacte- la oxidación del hierro contenido en las aguas. Pero la corias y arqueobacterias, que son los seres con vida indepen- munidad microbiana era mucho más compleja que eso, hadiente más simples, pero también pueden ser eucariotas bía tanto procariotas como eucariotas, y tanto productores (con núcleo celular). primarios como consumidores. De los muchos extremófilos que ya se han descubierto nos vamos a centrar en una clase en especial para este reportaje: los acidófilos, o “amantes del ácido”. Y de los muchos lugares en los que estos amantes de los entornos ácidos pueden vivir nos fijaremos en uno en particular: el río Tinto. El río Tinto se encuentra en Huelva, en el suroeste de España, y debe su nombre al color rojizo de sus aguas. Éstas están contaminadas con toda clase de metales y compuestos metálicos procedentes de un entorno rico en minerales, en especial hierro a una concentración de unos 20 Microfotografías por epifluorescencia de bacterias preg/l. Además su pH está entre 1,7 y 2,5 (cuanto más ba- sentes en el río Tinto. Fuente: E. González-Toril, E. jo es el pH más acidez se tiene, el pH neutro es pH=7), Llobet-Brossa, E. O. Casamayor, R. Amann y R. principalmente debido a la presencia de ácido sulfúrico. Es Amils. decir, es un entorno muy ácido y tóxico. Este ecosistema no soporta formas de vida pluricelular compleja (aunque se hayan observado ocasionalmente rotíferos y larvas) pero los eucariotas unicelulares son abundantes y más diversos que los procariotas. Los seres del río Tinto contradicen, por tanto, la teoría que afirma que los ambientes extremos deben estar dominados por eubacteria y arqueas, pues la presencia de eucariotas es, en este caso, muy importante. En la base de la pirámide están los eucariotas fotosintéticos y procariotas quimiolitotróficos. Ambos se encargan de producir la energía y los compuestos orgánicos que inician la cadena trófica. Sobre los primeros diremos que son algas unicelulares que utilizan clorofila y realizan la fotosíntesis, pero los segundos son quizás más interesantes. Los organismos quimiolitotrofos que hay allí son autótrofos. Es decir, son capaces de obtener la energía necesaria para su supervivencia a partir de la materia inorgánica, en este caso de las propias rocas. Son, en general, seres aeróbicos y dependen del oxígeno atmosférico para oxidar En el ecosistema de río Tinto se puede encontrar a los compuestos minerales. Oxidan, compuestos de hierro y ejemplares como esta Euglena mutabilis. Fuente: Lin- azufre obteniendo energía en el proceso. Una de estas reacda Amaral-Zettler. ciones es la oxidación de ión ferroso (F e2+ ) de la pirita a c http://neofronteras.com - Creado con LATEX y paperTEX
NeoFronteras Trimestral
Reportajes especiales
férrico (F e3+ ). Como se extrae poca energía de esta reacción las bacterias tienen que procesar grandes cantidades de mineral.
Diatomeas del río Tinto. Fuente: Abnabel López Archilla.
Si un trozo hierro cae al río dura muy poco tiempo, como de hecho ha pasado con alguna vagoneta de la antigua explotación minera, que rápidamente es devorada por los microbios. Entre los microorganismos allí presentes se pueden citar a Acidithiobacillus sp., Leptospirillum ferrooxidans, Acidiphillium sp. o a Ferromicrobium sp. Pero los estudios morfológicos revelan la presencia de muchos eucariotas, incluyendo hongos, varias algas verdes, protistas ameboides, flagelados, diatomeas, levaduras y ciliados. Estudios basados en análisis genéticos demuestran incluso una mayor diversidad eucariótica que la observada con el microscopio. ¡Hay miles de especies distintas de microorganismos de todo tipo! El grado de biodiversidad del Tinto no ha sido descrito en ningún otro hábitat similar. Incluso hay casos de relaciones interespecíficas complejas, como simbiosis entre algas y hongos. Junto con procariotas quimiolitotroficos, los protistas fotosintéticos constituyen los otros productores primarios del río y añaden a sus aguas un tono verdoso. Cuando el observador se acerca a la orilla del río queda impresionado por el profundo color rojo y anaranjado, pero en su mayoría estos tonos corresponden a los precipitados de hierro que hay en el lecho del río o en las rocas y que son formados por los quiomiolitrotóficos. De hecho, son estos microorganismos los que forman estromatolitos a partir de los precipitados. El agua, en sí, no está tan roja y contiene un ligero tono verdoso. Aunque con ese pH hay que manejarla con cuidado, porque una salpicadura sobre la ropa deja una marca permanente. ¡Y no se le ocurra beberla! Uno de los descubrimientos más curiosos es que el pH tan ácido es mantenido así precisamente por la propia comunidad microbiana. El río Tinto, por tanto, no estaría así debido a la contaminación producida por la actividad minera, sino que este ecosistema era así cientos de miles de años antes de que esta actividad comenzara. Es decir, es la vida la que ha modelado y transformado su medio para adecuarlo a sus necesidades, en lugar de adaptarse a él como sucede en otros ecosistemas ácidos. Podemos también considerar que el hierro, además de actuar como tampón para el mantenimiento de un pH constante, sirve como protector de la radiación y de la oxidación. En un hipotético sitio en donde no haya ozono c http://neofronteras.com - Creado con LATEX y paperTEX
2010 Edición de invierno 109 / 114
que proteja del los rayos UV un sistema así puede ser un lugar acogedor para la vida. Conocemos un lugar que quizás pudo ser así: Marte. Al considerar las importantes concentraciones de hierro presentes en Marte y las propiedades fisicoquímicas de este elemento se planteó el estudio del río Tinto como posible modelo de vida marciana primitiva. Acercarse al río Tinto sería como hacer un viaje hacia atrás en el tiempo y en el espacio a la superficie de un Marte de hace miles de millones de años, cuando allí había agua líquida sobre la superficie. Por eso la NASA ha investigado e investiga este ecosistema, y razón por la cual ahora sabemos mucho más de él. Uno de los programas de estudio que se hizo en este lugar se denominó precisamente MARTE (Mars Astrobiology Research and Technology Experiment). En el se ensayaron, además, futuras tecnologías de exploración marciana. El robot Opportunity encontró jarositas en la zona de Marte sobre la que aterrizó. Este mineral está compuesto principalmente por sulfatos de hierro hidratados y aparece en zonas ricas en agua con bajo pH en donde haya esos compuestos. En la cabecera del río Tinto, en donde el pH puede ser inferior a 1, las jarositas son abundantes (no se forma por encima de un pH=3). Se cree que esa región de Marte en donde aterrizó esa sonda es el lecho fosilizado de un antiguo océano que posiblemente se extendía sobre las vastas planicies septentrionales de Marte. El río Tinto es, por tanto, el entorno terrestre más parecido a como podría haber sido Marte hace 4000 millones de años.
Chlamydomonas es un alga flagelada. Fuente: Linda Amaral-Zettler.
Pero aunque nunca haya habido vida en Marte (la más probable posibilidad) el río Tinto es importante porque podría ser clave para descubrir rutas metabólicas antiguas que ya no son utilizados aquí en la Tierra por los demás microorganismos que viven en condiciones menos extremas. El río es un modelo excelente de un mundo primitivo anóxico y rico en hierro, como era la Tierra hace miles de
NeoFronteras Trimestral
Reportajes especiales
2010 Edición de invierno 110 / 114
millones de años; así como también para un modelo en el Y todo esto está a la vuelta de la esquina, en la provinque aparecen concentraciones de oxígeno crecientes, como cia de Huelva. Merece la pena hacer una visita en un fin precisamente ocurrió en la Tierra una vez que se inventó de semana. Ya sabe, es como viajar a Marte o a la Tierra la fotosíntesis. primitiva, un mundo en el que sólo había microorganismos.
Fotos no acreditadas: NeoFronteras.
c http://neofronteras.com - Creado con LATEX y paperTEX
NeoFronteras Trimestral
Editorial
2010 Edición de invierno 111 / 114
Se cancela la vuelta a la Luna J. J. Moreno Los medios se han hecho eco de la cancelación de los planes para volver a la Luna que el anterior presidente norteamericano encargó a la NASA. Aunque no hay recortes presupuestarios, sino todo lo contrario, los nuevos “antiplanes” han caído como un jarro de agua fría sobre los entusiastas de la astronáutica. La realidad es que esto significa que nos quedamos sin la vuelta a la Luna en mucho mucho tiempo, incluso sin viajes tripulados por parte de EEUU durante una buena temporada. No habrá lanzador ni ligero ni pesado, ni tampoco una cápsula que lleve a los astronautas a algún sitio, ni la posibilidad de lanzar megatelescopios con el Ares V. Todas estas metas han sido canceladas, incluyendo la propuesta de lanzadores alternativos supuestamente más baratos y más rápidos de desarrollar. Los nuevos planes tienen unos objetivos un tanto confusos e indefinidos, aunque cargados de buenas intenciones. Por un lado delega en la industria privada la construcción de cohetes que permitan llevar cargas y astronautas al espacio, y hace centrarse a la NASA en la vigilancia del clima y en el desarrollo de nuevos sistemas de propulsión. También se asigna presupuesto para que la estación espacial continúe hasta el 2020. Empecemos por lo último. La estación espacial internacional ha sido el mayor error astronáutico de las últimas décadas. Mantener ese chisme allí para que unos astronautas se aburran tomándose la presión arterial y comprobando, una vez más, que, efectivamente, sus huesos se descalcifican es un despropósito económico y científico. Ese objeto no es una estación espacial, pues a partir de allí no parten misiones a ningún sitio. Ni es un buen hotel espacial, ya que al no girar sobre sí misma no hay gravedad artificial, con las consecuencias ya sabidas desde hace décadas sobre la salud humana. Y tampoco es un laboratorio espacial, pues los experimentos llevados a cabo allí no han producido ningún resultado de relevancia científica. Los pocos cristales de proteínas crecidos en microgravedad que puedan haber sintetizado allí constituyen probablemente el gramo de materia orgánica más caro que jamás ha existido. La estación no vale ni los chistes que se gastan sobre sus inodoros. Pero ya es tarde, ya se han consumido vidas de astronautas, lanzaderas espaciales y una ingente cantidad de dinero en ese satélite inútil. La estación espacial es comparablemente absurda a los propios transbordadores espaciales, que en principio fueron pensados para que saliera barato el acceso al espacio y finalmente han salido carísimos en dinero y vidas humanas. Los van a jubilar, pero no tienen ningún sustituto. Los astronautas norteamericanos tendrán subir al espacio con las Soyuz rusas por un tiempo. Quizás ya no quede más remedio que mantener las estación espacial en órbita. Pero un par de Saturno V con un par de Skylab lo hubieran hecho mejor y de una manera más económica. Eso recuerda la necesidad fundamental de contar con un lanzador pesado, algo que la NASA ya no va construir. Esto es un inmenso error, porque la industria no podrá proporcionar nada similar. Aunque Boeing y otras compañías cuentan con lanzadores, su uso sale caro por c http://neofronteras.com - Creado con LATEX y paperTEX
kilogramo en LEO y no pueden garantizar la seguridad en el caso de vuelos tripulados. Además, confiar el futuro de la astronáutica en una compañía como SpaceX, fabricante del Falcon, es una temeridad. Esta compañía sólo cuenta con un lanzamiento exitoso (y muchos fracasos). Aunque es verdad que su producto es barato, unos hipotéticos astronautas preferirían jugar a la ruleta rusa o subir al K2 antes que montarse en uno de sus cohetes. En el pasado la NASA ya delegó en compañías privadas para este tipo de menesteres. Em elagún caso el resultado fue el consumo de muchos millones de dólares y absolutamente ningún resultado. El único punto interesante de los nuevos planes es el desarrollo de nueva tecnología espacial. Durante 60 años se ha venido utilizando la misma tecnología. Recientes logros en propulsión iónica o de plasma permiten soñar con un viaje rápido a Marte o con la visita a algún asteroide. La alternativa de misiones, tripuladas o no, de años de duración es la prehistoria espacial. Sólo el equipo en tierra para mantenerlas sale carísimo y la espera es inaguantable. La misión a Plutón es tan larga que durante el viaje el cuerpo transneptuniano ha sido descalificado de su categoría de planeta, aunque puede que cuando la sonda llegue allí ya no exista ni la NASA. Pero, para colocar esas naves de nueva propulsión en el espacio primero se necesita un lanzador pesado que no existe ni existirá en un futuro a medio plazo. ¿Cómo lo van a hacer? ¿Con el mítico unicornio?, perdón, ¿con el ascensor espacial? Tampoco parecen estar claros los nuevos objetivos científicos, salvo por eso de vigilar el clima. Algo que se puede hacer muy bien con unos cuantos satélites. ¿Se construirán al final los interferómetros espaciales para ver exoplanetas? ¿Se intentará explorar el océano de Europa o los lagos de metano de Titán? ¿Se traerán de vuelta muestras marcianas? ¿Se examinará el hielo lunar in situ? No lo sabemos. La misión para el estudio de la energía oscura fue cancelada, así como muchos otros proyectos científicos interesantes, útiles y baratos. ¿Los resucitarán ahora? Probablemente no. En definitiva, es bueno haber cerrado parte de la sangría económica actual y futura de la NASA, pero los planes que sustituyen a los antiguos no están definidos y puede que esto sea peor. Es verdad que la NASA está ahora lejos de esos tiempos en lo que inspiraba ilusión o sueños de aventura, y tenía capacidad de obtener resultados asombrosos en poco tiempo. También están lejos los tiempos en los que contaba con un apreciable porcentaje del PIB norteamericano. Quizás este tipo de cosas siempre salen caras, pero si encima el dinero disponible se administra mal es aún peor. Preguntado un astronauta durante el reciente aniversario lunar sobre aquella gesta dijo que lo más asombroso de todo aquello fue ir a la Luna y no haber vuelto en 40 años. Esperemos que todo salga bien al final.
NeoFronteras Trimestral
Humor
2010 Edición de invierno 112 / 114
HUMOR
Ecuación de Drake sentimental La probabilidad de tener una novia apropiada es 1 en 285000 según un economista. J. J. Moreno, NeoFronteras
Frank Drake junto a su ecuación. Fuente: Western Washington University.
Cuando el científico no tiene nada que hacer mata moscas con el rabo, dicen. El resultado que vamos a relatar no tiene ninguna importancia científica (salvo para la antropología del mundo científico) y casi habría que ponerlo en la sección de humor, pero es difícil resistirse al juego, como han hecho otros medios de comunicación. Peter Backus, un economista de la Universidad de Warwick (RU), “explica” en un artículo por qué no tiene novia. Según él, un simple cálculo inspirado en la ecuación de Drake sugiere que la probabilidad de conseguir una novia apropiada es muy baja. Todos conocemos ya la famosa ecuación de Drake que, en teoría, sirve para estimar la cantidad de civilizaciones que hay en nuestra galaxia con las que nos podríamos comunicar. Como esto es muy difícil de hallar, la ecuación divide el problema en pequeños trozos. Tal número de civilizaciones avanzadas capaces de comunicarse por radio lo podemos simbolizar por N y sería el producto de varios números relacionados con las siguientes cantidades:
- Las estrellas presentes en nuestra galaxia. - La fracción de ellas que tiene planetas. - La fracción de ellas que tiene planetas propicios para la vida. - La fracción de esos últimos que realmente desarrollan vida. - La fracción de los anteriores en los que evoluciona vida inteligente. - La fracción de seres inteligentes que desarrollan tecnología capaz de emitir señales de su presencia. - El tiempo durante el cual esa civilización emite las señales. Pues bien, por analogía, Backus elabora una ecuación similar (¿ecuación de Drake-Backus?) en la que los términos de la misma son: - La población del Reino Unido. - La fracción de personas del RU que son mujeres. - La fracción de mujeres que viven en Londres. - La fracción de londinensas que tienen una edad apropiada. - La fracción de las anteriores que tienen estudios universitarios. - La fracción de las cuales Backus encuentra atractivas. - El tiempo en años durante los cuales Backus está vivo y durante los cuales puede tener encuentros con posibles parejas. Él calcula que sólo hay 10.510 mujeres que satisfacen estos criterios, algo que no está mal dado que además socializa con gente de similar edad. Sin embargo, cuando tiene en cuenta otros factores más, como que ellas le encuentren atractivo a él, o que estén solteras (número que decae con el tiempo) sólo obtiene 1 ó 10 posibles novias.
Se podría usar análisis de histocompatibilidad para hacer que el cálculo fuera más objetivo. Para la cuestión del atractivo Backus ha tenido en cuenta sólo factores subjetivos, pero según él se podría usar análisis de histocompatibilidad para hacer que el cálculo fuera más objetivo. Se ha demostrado que las mujeres se ven más atraídas por hombres que tengan un sistema inmunitario distinto al suyo, algo que saben por el sentido del olfato de manera instintiva.
O quizás el problema de Backus es que dedica demasiado tiempo a cálculos inútiles en lugar de salir por ahí a conocer mujeres, o bien que es un centralista y chovinista que no tiene en cuenta al resto de las mujeres que viven fuera del Londres o fuera de su país. O puede que no quiera tomar riesgos o conformarse como hacen los demás, terminar con una mujer incompatible y finalmente divorciarse como hace ya un 50 % o más de la Si Backus, siendo economista en una universidad de población. prestigio de una gran ciudad, lo tiene mal, es de imaginar Enlace: http://neofronteras.com/?p=2970 que los físicos o matemáticos de otros lugares lo tendrán Fuentes y referencias: aún peor (razón por la cual hay que considerar a la serie Información en la web de Peter Backus. “The Big Bang Theory” como un programa de ciencia fic- “Artículo” original en pdf. ción a partir de la tercera temporada). c http://neofronteras.com - Creado con LATEX y paperTEX
NeoFronteras Trimestral
c http://neofronteras.com - Creado con LATEX y paperTEX
Humor
2010 Edici贸n de invierno 113 / 114