VALLE DE LA CIENCIA VOL II

Page 1

Valle de la Ciencia Lecturas

Vol.II

Alberto Requena R.

Valle de la Ciencia

Lecturas

Vol. II

Alberto Requena R.

Catedrático Emérito de Universidad Académico Numerario de la Academia de Ciencias de la Región de Murcia.

Datos de Catalogación Bibliográfica

Valle de la Ciencia Lecturas

Alberto Requena.

ISBN:

Materia: Ciencia y Tecnología

Formato: 160 x 235 Páginas 276

Todos los derechos reservados:

Queda prohibida, salvo excepción prevista en la Ley, cualquier forma de reproducción, distribución, comunicación pública y transformación de esta obra sin contar con autorización de los titulares de propiedad intelectual. La infracción de los derechos mencionados puede ser constitutiva de delito contra la propiedad intelectual (arts 270 y sigs. Código Penal)

DERECHOS RESERVADOS

©2023 por Alberto Requena Rodríguez.

Valle de la Ciencia Lecturas

Alberto Requena.

ISBN

Depósito Legal:

Equipo Editorial

Editor: Alberto Requena

Técnico Editorial:

Equipo de Producción

Director:

Técnico:

Diseño de Cubierta: Alberto Requena

Impreso por:

IMPRESO EN ESPAÑA- PRINTED IN SPAIN

Esta publicación está dedicada al Valle de Elda y a sus lectores y seguidores. Su actual directora, que ejerce y gestiona con eficacia y acierto probados, hace un tiempo, me permitió comprometerme a escribir sobre Ciencia y lo hago encantado. Desde entonces, cada quince días se publica en el Blog Valle de la Ciencia, mi aportación. Es un placer para mi esta colaboración. Sigo aprendiendo mucho de lo que la Ciencia ha aportado. La labor que supone, que un periódico acoja en sus páginas, materiales o virtuales, la difusión de la Ciencia, es muy importante para, desde el conocimiento, contribuir a la libertad de las personas que ello conlleva. Resulta emocionante transmitir aspectos de la Ciencia, importantes para nuestras vidas.

Naci en esta tierra bendita de Elda.

Todo mi cariño para ella y sus gentes.

Agradecimientos

A todos los que de alguna forma han participado en la factura de estos textos, colaborando, leyendo, sugiriendo o corrigiendo. Un agradecimiento especial a María Emilia Candela, siempre animosa y atenta a sugerir y aportar inteligentemente. De ella aprendo mucho.

Nuestro agradecimiento expreso al Valle de Elda y a su Directora Susana Esteve Maciá, por la audacia de incluir en su ámbito la divulgación científica. A Marta Ortega López le agradezco su constante asistencia.

iv Agradecimientos

Prólogo

El profesor Alberto Requena saca a la luz un nuevo volumen recopilatorio de los artículos que publica cada quince días en el periódico digital Valle de Elda, en su blog titulado "Valle de la Ciencia".

Me ruboriza que me agradezca, cada vez que tiene ocasión, el hecho de tener su propio blog en el periódico para difundir sus conocimientos y reflexiones sobre ciencia.

Para valledeelda.com y sus lectores es todo un privilegio que nuestro paisano, Alberto Requena, Catedrático Emérito de la Universidad de Murcia y Académico numerario de la Academia de Ciencias de la Región de Murcia, nos explique conceptos y hechos que parecen habitar en exclusividad en la inalcanzable galaxia de la Ciencia, con un vocabulario que necesita traducción simultánea.

Algunas personas son profesores durante toda su vida y Alberto Requena es un ejemplo: transmite la pasión por el conocimiento y la urgencia de que todo el público pueda acceder al mismo, y más en un mundo que avanza -no sabemos muy bien hacia dónde- y en el que es imprescindible no quedarse atrás, o demasiado atrás. Sus crucigramas para divertirse y comprobar-reforzar lo aprendido no tienen precio.

La curiosidad de este profesor no tiene límites y en sus artículos se sumerge en los más variados temas. Nos hace comprender que la física cuántica, los elementos químicos de la tabla periódica y los átomos tienen que ver con nuestra realidad más de lo que creíamos, aunque parezcan lejanos. Sus textos rebosan el entusiasmo que siente cuando investiga y desmenuza conceptos, ideas o reflexiones y también cuando nos los explica a través de su vasta cultura científica para que sus lectores los podamos digerir. Es la mejor manera de contribuir a la sociedad de la información y, como periódico, esto no tiene precio.

Infinitas gracias.

Prólogo v

Prefacio

Este libro pretende recoger y dejar constancia de una serie de reflexiones sobre temas diversos, pertenecientes a distintos campos científicos. Por una razón u otra, han sido cuestiones de interés en algún momento, presente o pasado. Representan aportaciones singulares, que alguno de los miembros de la Humanidad ha sido capaz de desvelar y poner al descubierto. Los demás, hemos aprendido de sus relatos.

La curiosidad es una virtud insaciable. Debemos ser humildes y reconocer que no sabemos por qué mantenemos la curiosidad en cualquier tiempo y lugar. El descubrir, tiene una cara oculta que se desvela cuando corremos la cortina que cubre el transfondo y, en realidad, lo que descubrimos son muchos más interrogantes que los que teníamos cuando abordamos una cuestión y creemos haberla resuelto. Pero seguimos insistiendo. No nos conformamos. Esa especie de impulso bíblico que animaba a aquél niño a querer meter toda el agua del mar en aquel hoyo que había practicado en la arena, tiene mucho que ver con el impulso permanente que nos anima a conocer más y más. No hay final, parece, pero insistimos sin perder el aliento.

Imaginen, si nos enfrascamos en un proyecto, consistente en poner negro sobre blanco, cuestiones científicas que, por alguna razón, te apasionan, te interesan o quieres desvelar las entrañas que lo explican. Podría ser labor de toda una vida. En todo caso, es una bendiciòn poderse dedicar a esos menesteres en un momento dado, dedicando tiempo, esfuerzo y atención a temas que te han ido quedando pendientes y te gustaría razonar, conocer y, en casos, desvelar.

La Ciencia avanza y el conocimiento acumulado se incrementa a pasos agigantados. Dentro de poco habrá que revisar los fundamentos. No es posible abarcarlo todo y no va resultando nada trivial, discernir qué es lo imprescindible para seguir avanzando. La Sociedad precisa elevar el nivel de conocimiento utilizable y es una buena razón para que los científicos comprendan que también tienen como obligación transferir ese conocimiento al que han accedido privilegiadamente. Es una gran tarea la que queda por delante. Entre todos, podemos lograrlo.

Alberto Requena

Catedrático Emérito de la Universidad de Murcia Académico numerario de la Academia de Ciencias de la Región de Murcia

Otoño de 2023

Prefacio vii

Contenido

TRAZADO 1

Trazo 1.1 Expresión acústica, 1.

Trazo 1.2 Naturaleza creativa, 7.

Trazo 1.3 Vagabundos del espacio, 11

Trazo 1.4 Cuántica neural, 15.

Trazo 1.5 Un agujero negro en el barrio, 21.

Trazo 1.6 Verde oscuro kernowita, 25.

Trazo 1.7 Sonidos y emociones, 29.

Trazo 1.8 Hacia un superorganismo, 35.

Trazo 1.9 COVID-19 en aguas negras, 39.

Trazo 1.10 En un cronon, 49.

Trazo 1.11 Pan de la cerveza, 49.

Trazo 1.12 Acidez atómica, 53.

Trazo 1.13 Luz que alimenta, 59.

Trazo 1.14 El cuerpo se enfría, 65.

Trazo 1.15 Agiua del cielo, 69.

Trazo 1.16 Segunda vida, 73.

Trazo 1.17 Del calor a la electricidad, 77.

Trazo 1.18 Looros estocásticos:bocas sin cerebro, 83.

Trazo 1.19 Nuevos ojos, 89.

Trazo 1.20 Mesón con encanto, 93.

ix

SOLUCIONES A LAS PALABRAS CRUZADAS DEL TRAZADO 1, 101 - 124

TRAZADO 2

Trazo 2.1 Proteínas con la basura, 127.

Trazo 2.2 Robots sin ley, 133.

Trazo 2.3 Torio nuclear, 141.

Trazo 2.4 Percepción del tiempo, 145

Trazo 2. 5 Ventilación, 151

Trazo 2.6 Energías renovables, 157.

Trazo 2.7 Esclerosis múltiple: demasiado tiempo con ella, 163.

Trazo 2.8 Fuera de control, 169.

Trazo 2.9 Terraform, 175.

Trazo 2.10 Kilonova, 189.

Trazo 2.11 La heredabilidad de la inteligencia, 185.

Trazo 2.12 Sobrepeso y tiempo de sobrepeso, 189.

Trazo 2.13 Polvo inteligente de arroz, 193.

Trazo 2.14 Risa que puede matar, 199.

Trazo 2.15 Competición por la captación de CO2, 205.

Trazo 2.16 Cocinando nanografito, 209.

Trazo 2.17 Recursos escasos, 215.

Trazo 2.18 Biometría del aliento, 219.

Trazo 2.19 Cerebro máquina, 225.

Trazo 2.20 Escatología física, 229.

SOLUCIONES A LAS PALABRAS CRUZADAS DEL TRAZADO 2, 237 - 262

x Contenido

TRAZO 1.1

Expresión acústica.

La música y el lenguaje se plasman en una expresión acústica. Hay una equivalencia entre el acento musical y la métrica del lenguaje, en las lenguas románicas, al menos. Ambas características establecen y determinan la estructura informativa del mensaje, al permitir enfatizar distintas partes o incorporar motivos. Las denominadas frases, que son las unidades de referencia, se dan tanto en el habla como en la música. La única diferencia es que en el ámbito musical el "fraseo" esté normalizado, concretándose en una combinación determinada de la duración de las notas y de los silencios, mientras que en el lenguaje hay un intervalo continuo en la variación posible y se establecen silencios significativos, alteraciones de ritmo e intensidad.

Tanto la música como el lenguaje comparten el que las variaciones de frecuencia del sonido son las que establecen la línea melódica, no la frecuencia absoluta. En el ámbito musical hay pruebas más evidentes, como lo demuestra el hecho de que cuando una composición musical se transporta a otra tonalidad, el oyente no lo aprecia, pese a que se han modificado las frecuencias, pero como son las variaciones las

que se perciben y esas se mantienen, no se puede percibir. Algo similar ocurre con la velocidad, que si es constante no la percibimos, de hecho no notamos que giramos con la Tierra, nada menos que a 1670 kilómetros por hora, lo que supera la velocidad del sonido que es de 1235,52 km/h y no lo percibimos y cuando subimos en bicicleta ya nos apuran unos 40 kilómetros por hora.

Ciertamente, los intervalos musicales están bien establecidos, abarcando desde los de segunda hasta la octava, con sus armonías y disonancias, en función de la coincidencia parcial o no de las crestas y valles de las ondas acústicas que generan. Por el contrario, en el lenguaje ocurre que no hay ninguna restricción en cuanto al tamaño de los intervalos. Fonemas iguales con significados distintos se concretan por la tonalidad. Ocurre en las lenguas tonales (el español no lo es, pero quedan vestigios como ocurre en los términos esta y está y en las preguntas. El chino mandarín si lo es: por ejemplo, ma en primer tono significa madre, en segundo tono puede significar sésamo, en tercer tono puede significar caballo, en cuarto tono regañar y sin tono es una partícula interrogativa). En el ámbito musical se requiere una especificación precisa del valor del intervalo en una escala, mientras que en el lenguaje no. Ciertamente, el hábito suaviza las disonancias o la rugosidad del lenguaje, al incorporar la componente cultural, cosa que actúa en la música del mismo modo. El neurofisiólogo Samir Zeki, estudia con detalle la respuesta neuronal a la percepción, concluyendo lo que el refrán de forma lapidaria establece "contra gustos no hay nada escrito". Por otro lado, tanto la música como el lenguaje utilizan la combinatoria, aunque tengan restricciones. En ambos casos, se parte de un numero finito de elementos (notas y conjunto de letras) y se generan combinaciones. Es muy común operar de forma recursiva, aplicando reglas de forma reiterativa sobre el resultado de la operación anterior. Esta forma de operar implica desarrollar un potencial infinito. Las notas se combinan dando lugar a motivos y una combinación de estos

Pg. 2 VALLE DE LA CIENCIA. Valle de Elda A. Requena

da lugar a frases musicales, secciones, movimientos y, por último, obras completas. Alternativamente, en el lenguaje, los fonemas, que son las unidades mínimas de referencia y se combinan dando lugar a sílabas, y estas dan lugar a palabras, sintagmas, cláusulas, oraciones y discursos. La sintaxis subyacente en ambas es la que justifica el poder generativo. En suma, hay reglas y restricciones que operan y limitan la combinatoria. La variedad de aquéllos, nos permite distinguir dialectos o entre distintos idiomas, como ocurre también con los estilos musicales, gracias a las diferencias en el vocabulario y las reglas aplicables en cada uno de los idiomas, tanto lingüísticos como musicales.

La sintaxis tiene como objetivo la generación de jerarquías partiendo de un elemento o núcleo. Tanto en las frases musicales como en las oraciones gramaticales, se generan estructuras arborescentes que agrupan notas o acordes en un caso y palabras en otro, para dar lugar a motivos o palabras agrupadas en compases o sintagmas. Tanto en el ámbito musical como en el lenguaje se hace visible la simetría de la disposición de los compases y la métrica regula, al segmentar los constituyentes prosódicos en secuencias de tamaño similar. Se rompe la simetría, cuando se pasa de la secuencia lineal a la estructura jerárquica, tanto en música como en lenguaje. Ello es debido a la generación de estructuras asimétricas.

En una secuencia musical hay una nota denominada tónica, que representa la frecuencia de referencia de la secuencia y las restantes notas forman un pasaje, en el que aunque se desvían del tono más estable al que, finalmente, retorna la melodía. Acontece como si la nota tónica proyectara un conjunto de relaciones armónicas que se van modificando a lo largo del pasaje, aún cuando, incluso, puede no estar presente. En música, la importancia de una nota deriva de las relaciones jerárquicas que mantiene con otras notas, dentro de lo que se denomina escala o tonalidad musical. En el clave

TRAZO 1.1 Expresión acústica Pg. 3

bien temperado, se trata de que se mantengan las disposiciones relativas de tonos y semitonos que conforman las diferentes escalas.

En el lenguaje, ocurre otro tanto con la estructura argumental, de forma que se establecen una serie de relaciones sintácticas y semánticas entre un núcleo o sintagma y los elementos que lo acompañan. La estructura argumental se proyecta en los predicados gramaticales y en la estructura de la oración. Un verbo siempre anticipa argumentos (complementos) que le acompañan y se completa con constituyentes gramaticales. Estos complementos son la prolongación del verbo en la oración, lo que establece una analogía con las notas que prolongan la tónica en la secuencia melódica. Por ejemplo, en la oración "José compró algo a alguien" el verbo compró anticipa sus acompañantes (por ejemplo, aquí, el objeto que se compra y la procedencia del objeto). La diferencia entre estas estructuras es notoria, por cuanto en música son jerarquías de tonalidad que amparan relaciones armónicas entre las notas, mientras que en el lenguaje las relaciones implican el significado que mantienen las palabras del enunciado entre si. Es decir, la analogía se establece entre las relaciones armónicas y las relaciones semánticas. Los principios de organización son parecidos, mientras que la forma de construirlos es distinta.

Es frecuente referir el lenguaje musical. El ritmo determina la sintonía de nuestro cerebro y sincronizamos acciones con él, desde bailar, hasta cantar o aplaudir y lo toma automáticamente. El cerebro se adapta automáticamente al ritmo de la voz que escucha. La sincronización del cerebro con los sonidos pone de manifiesto mecanismos que facilitan el aprendizaje del lenguaje. Es fácil inferir la utilidad de la música en los procesos cerebrales implicados en las tareas cognitivas más elevadas de la especie humana. Las analogías tienen la virtud de facilitar la comprensión

Pg. 4 VALLE DE LA CIENCIA. Valle de Elda A. Requena
TRAZO 1.1 Expresión acústica Pg. 5
Pg. 6 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 1.2

Naturaleza creativa.

Las crisis son los periodos más proclives a la reflexión. En muchos casos resulta doloroso, pues tiempos dilatados de dedicación se van al traste y con ellos la forma de vida. No es menos cierto que nichos de actividad surgieron de acuerdo con los parámetros imperantes en otra época, incluso con escalas de valores bien distintos a los actuales. Hay acuerdo generalizado en admitir que hemos abusado de la Naturaleza, hasta un grado que, en algunas parcelas, los procesos se han hecho prácticamente irreversibles. Tenemos un deber moral de minimizar la incidencia de la actividad humana en el Medio Ambiente, porque es el legado de unas generaciones para con las que le siguen. Nadie estamos exentos de contribuir a paliar los desastres provocados.

La sostenibilidad no es un concepto escolástico o académico que no alcanza a todo el mundo. Muy al contrario, nos compete a todos, por constituirse en un valor ético de imperativo moral. Creyentes o no, compartimos un entorno que no podemos dilapidar, evitando que otros lo disfruten posteriormente. La vorágine de vida que venimos llevando, nos sitúa en una posición irreverente con la Naturaleza. Producimos bienes y servicios sin imputar los costes del agravio que infringimos en el Medio Ambiente, lo que significa que no nos importa el deterioro que provocamos. Los procesos de producción lejos de optimizar los recursos que utiliza, dilapida, en muchos casos, los inputs, convirtiendo la producción en insostenible.

TRAZO 1.2 Naturaleza creativa Pg. 7

Muchos de los bienes y servicios que producimos los humanos artificialmente, no han contemplado la sabiduría de la propia Naturaleza que ha enfrentado problemas idénticos a los que queremos resolver, pero lo ha hecho con la parsimonia que le caracteriza y logra optimizar el resultado de forma contundente. Aprender de ella no nos viene mal. Las marismas depuran el agua y bien pudieran servir de ejemplo para idéntica finalidad. Los ecosistemas optimizan los procesos que propician, incrementando la capacidad de producción de alimentos, lo que propicia la generación de vida, de forma equilibrada, que nada tiene que ver con la explotación de la tierra para la producción agrícola y ganadera que practicamos los humanos.

La Naturaleza tiene un sentido de obsolescencia que nada tiene que ver con la programada para renovar equipamientos, como hacen muchos productores de bienes de equipo. Las hifas de los moluscos permiten fijarlos a las rocas, pero temporalmente, pasados un par de años, se disuelven y desaparecen, sin dejar residuos. La desecación es un proceso necesario para muchos procesos, cono forma de evitar la proliferación microbiana que arruina los productos. El tardígrafo ha encontrado la forma, de manera natural. Se seca completamente y vive durante meses, incluso años, pero es capaz de regenerarse y retornar a la actividad normal. Ha resuelto una cuestión de mucha envergadura, cuya utilidad inmediata podría ser encapsular vacunas y no necesitar la refrigeración como forma de evitar el crecimiento de colonias microbianas. Muchos insectos y coleópteros capturan el agua de la atmósfera. La escasez de agua, incluso en territorios cuya atmósfera alberga mucha humedad y transportarla desde lugares remotos, no deja de ser una forma de dilapidar recursos con una logística exigente, propia de otros momentos históricos. La tecnología que disponemos hoy permite otras soluciones más acordes con el Medio Ambiente.

Pg. 8 VALLE DE LA CIENCIA. Valle de Elda A. Requena

Son muchas las soluciones a problemas que enfrentamos los humanos, que la Naturaleza los ha resuelto y de forma eficaz. Miramos a otra parte, cuando las soluciones que nos brinda la Naturaleza, merecen la reflexión, dada su capacidad creativa, como ha evidenciado en muchos problemas a los que ha dado solución eficaz. Las plantas no consideran que el dióxido de carbono sea un veneno, como lo hacemos nosotros. Lo capturan y lo convierten en cadenas de almidón y glucosa. Ha encontrado un catalizador capaz de propiciar la formación de carbohidratos y los plásticos biodegradables están muy cercanos a este proceso. Imitar las plantas es tan beneficioso y rentable como eficaz.

La Naturaleza exhibe una capacidad creativa notable y debiera ser una fuente de inspiración para una Humanidad que tiene muchos problemas derivados de la falta de consideración de procesos sostenibles en su actividad. Nos va en ello la supervivencia. Y son momentos estos, en los que esta reflexión es importante que la hagamos, con objeto de que un nuevo amanecer, que llegará, nos brinde nuevas perspectivas que respeten la biodiversidad, base de la estabilidad ecológica de este planeta, que sigue siendo el único entorno que podemos disfrutar. Todos.

TRAZO 1.2 Naturaleza creativa Pg. 9
Pg. 10 VALLE DE LA CIENCIA. Valle de Elda A. Requena

Vagabundos del espacio.

No tiene solamente interés académico el estudio de los agujeros negros. Desentrañar el Universo, forma parte del proceso de llegar a conocer nuestro origen y responder a uno de los interrogantes que más nos ha agobiado desde el principio de nuestra existencia. La materia oscura se estima que constituye hasta el 85% de la masa total del Universo. La materia oscura se denomina así, por no emitir radiación electromagnética y no interactuar con ninguna forma conocida de radiación electromagnética. El problema es que su existencia se tiene que inferir a partir de efectos gravitacionales que se evidencian en estrellas o galaxias. Es una masa no visible pero evidenciable.

Es razonable suponer que su origen está en las estrellas más antiguas, que ya han sido sometidas al proceso de vida, consistente en que han nacido, se han desarrollado y finalmente han muerto, en una especie de replicación antropomórfica, como si se tratara de un ser vivo. Cuando las estrellas han consumado miles de millones de años, colapsan y se convierten en un agujero negro. La característica de este final de una estrella es que genera un cadáver que tienen un campo gravitatorio tan descomunal que no hay nada que pueda escapar a su atracción. Es la oscuridad eterna la que reina en estas estructuras capaces de atrapar toda la luz y no dejar escapar nada. Este relato supone que el agujero negro es el final del proceso estelar.

TRAZO
1.3
TRAZO 1.3 Vagabundos del espacio Pg. 11

Ahora bien, el alemán Hasinger, director de la Agencia Espacial Europea, propone que este punto, en lugar de ser el final, es el principio y que se formaron inmediatamente después de que tuviera lugar el Big Bang. La columna vertebral del Universo, la materia oscura, emite radiación en la región espectral de Rayos X, como se ha detectado en el caso de agujeros negros supermasivos, cuyo peso equivale a miles de millones de soles, que se traga todo cuanto se le acerca y al hacerlo de forma masiva, es cuando emite rayos X, como se ha detectado en el satélite Chandra, destinado a estudiar los agujeros negros. Lo realmente nuevo es que estos rayos X emitidos correspondían a las edades muy tempranas del Universo hasta el punto de que eran anteriores a las estrellas mas viejas. Esto confrontaba con la teoría al uso de que los agujeros negros procedían de las estrellas al colapsar.

Pero las contradicciones no acaban aquí, ¿de dónde procede la enorme masa de los agujeros negros? La única explicación que encuentra Hasinger es que los agujeros negros no se forman a partir de las estrellas en proceso de fallecer, sino en los instantes primigenios del Universo. Pudieron formarse de todos los tamaños y pueden estar por todas partes. Los podrían haber, incluso en número superior a los objetos visibles. Hay uno en nuestra Galaxia. Una prueba puede ser el denominado planeta X al que se atribuye la alteración de las trayectorias del cinturón de asteroides que orbitan más allá de Neptuno y Urano, aunque nunca se ha dado con él, por lo que bien pudiera ser un agujero negro.

Podían haber diseminados por el espacio una enorme cantidad de agujeros negros, que se ajusten a la masa que falta por descubrir, que justifica los comportamientos anómalos de estrellas y planetas, sin que nunca se haya dado con los cuerpos capaces de originarlos. Por otro lado, no es suficiente la masa bariónica actual para justificar el que estrellas y cuerpos celestes se mantengan en armonía y unidas disciplinadamente. Es necesario el concurso de esta masa oculta

Pg. 12 VALLE DE LA CIENCIA. Valle de Elda A. Requena

bajo los agujeros negros para poder explicar el status actual del Universo. Una propuesta hasta ahora en vigor asumía que debían haber otras partículas elementales, todavía no conocidas que se denominaron wimps, que nunca se han encontrado. Como afirma Hasinger, porque nunca han existido.

El premio Nobel 2020, Genzen ha localizado un agujero negro en el centro de nuestra Galaxia, La Via Láctea. Señala la importancia de que lo podamos estudiar y quizás llegaremos a explicar por qué nuestra Galaxia tiene forma de disco giratorio, mientras que otras parecidas son elípticas.

La enorme atracción gravitatoria de los agujeros negros, hace inviable la aproximación, limitada ésta por el denominado horizonte de sucesos. No podríamos, como humanos, aproximarnos para mirar, ni nuestros artilugios tecnológicos podrán hacerlo. Tenemos que conformarnos con indicadores indirectos, como son la incidencia sobre otros objetos celestes que aparentemente exhiben comportamientos anómalos. La cuestión es que de ser válida la teoría ahora formulada, tenemos que estar dispuestos a encontrarlos por todas partes en este Universo que nos acoge. Auténticos vagabundos del espacio que podemos encontrarnos en cualquier esquina. Poco a poco avanzamos. No cabe duda de que llegaremos a saber la intimidad del Universo y cada vez estamos más cerca de dilucidar cómo venimos de donde venimos.

TRAZO 1.3 Vagabundos del espacio Pg. 13
Pg. 14 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 1.4

Cuántica neural.

TRAZO 1.4 Cuántica neural Pg. 15

La Física y la Química Cuántica se han popularizado bastante. Eso sí, como referencia. No solo en el terreno de la broma, como para indicar algo exótico en los monólogos televisivos o referir algo complicado en el lenguaje cotidiano, sino como algo que parece que está destinado a no comprenderse, aun cuando dicen que funciona. Otra cosa es que se puedan poner ejemplos fácilmente, de esos que la vida cotidiana nos ofrece a diario y que los tenemos que usar, aunque no los comprendamos en su intimidad. Ciertamente, conforme la Ciencia ha descubierto y descrito más cosas, cada vez menos evidente es la ley que subyace en los instrumentos o dispositivos que la tecnología crea. Hoy abrimos el capó de un automóvil y no pone al descubierto los mecanismos que esconde, ni siquiera los principales. El misterio de la Cuántica parece cernirse con la connivencia de muchos. Ni es tan así, ni mucho menos se conoce tan poco como se dice. También es cierto que, a base de tópicos, se acepta como inextricable. La situación descrita tiene mucho parecido con la que encontramos en el cerebro. Muchas cosas se han dicho, algunas veces tímidamente, más por intuición que tras evidencias que a veces proponen cosas audaces, que luego se corroboran. En la década de los noventa se sugirieron efectos cuánticos en los denominados microtúbulos constituidos por unas proteínas relacionadas con la conciencia. Cuando se formuló era impropio, por cuanto se pensaba que los efectos cuánticos no se ponían de manifiesto en sistemas biológicos, dado que a la temperatura que normalmente están y el papel del agua

que mantiene húmedos a todos los tejidos, venían a propiciar la decoherencia, lo que significa que los estados cuántícos dejan de estar descritos por una superposición y la materia pierde sus rasgos cuánticos más genuinos. Hemos avanzado considerablemente, de forma que ya se han desvelado componentes cuánticos en el proceso de la fotosíntesis y se sugiere su participación en procesos olfativos o en el "sugerente" movimiento de migración de las aves.

La conciencia cuántica fundamenta en el comportamiento de los microtúbulos el desarrollo de la cognición cuántica. Se llega a proponer que el efecto de la anestesia general al desconectar la conciencia, hace intervenir estados cuánticos alterando el espín electrónico. Todo indica que la olfacción acontece por intervención del efecto túnel en la acción de los neurotransmisores. El entrelazamiento cuántico de núcleos de fósforo, parece estar en la base del disparo de las neuronas. Hay muchos aspectos, por tanto, en los que se ha avanzado en la comprensión del funcionamiento del cerebro, que alientan a seguir investigando, desde la convicción de que se están poniendo los elementos apropiados para desvelar uno de los misterios más celosamente ocultos. Ahora, se tiene la virtualidad de poder interpretar experimentos y no solo conjeturar comportamientos sin acceso a la corroboración universal. No olvidemos que el ámbito científico requiere la observación y la repetibilidad, como bases para disponer de un pronóstico que permita calificarlo como científico. Lo demás, incluidas las contabilidades objeto de las estadísticas, son un conjunto de datos tratados bajo la óptica de una Ciencia, la Estadística, pero no por ello aportan rigor científico a los resultados obtenidos, sino solo al tratamiento. En el mejor de los casos podría acercarse a la concepción de riguroso, pero para ser científico, requiere algo más. Una perversión del lenguaje que, cuando quiere darle seriedad a algo, le endosa el carácter científico, aun cuando casi nunca lo sea.

Pg. 16 VALLE
CIENCIA.
Elda A. Requena
DE LA
Valle de

Cerebro y conciencia son escenarios complejos, pero ello no implica que su concurso sea imposible, incompatible o fuera de lugar. Ciertamente, los organismos vivos están sujetos a múltiples interacciones y sometido a una temperatura que es la fisiológica, que propicia interacciones capaces de destruir cualquier sistema coherente, generando la denominada decoherencia. Por el contrario, todo parece indicar que hay procesos en los que cabe el comportamiento cuántico. Las neurociencias han pretendido, desde siempre, desentrañar cómo funciona el cerebro. Una cuestión es la red de células y procesos de señal que constituyen el sistema nervioso central y la conexión con otros sistemas. Aunque no totalmente, se ha avanzado mucho con las técnicas de imagen y parte de la estructura se ha desvelado. Recientemente se ha encontrado una conexión entre el sistema linfático y las meninges, lo que evidencia el contacto entre el sistema nervioso y el inmune. La relación entre estructura y función están menos explicadas en el momento actual, de forma que las bases anatómicas del cerebro no llegan a explicar las bases funcionales o ayudarnos a comprender la mente, como suscriben Adams y Petruccione.

El sistema nervioso está constituido por el cerebro y la médula espinal. El cerebro humano está compuesto por cerca de cien mil millones de neuronas. Son las responsables de la actividad eléctrica del cerebro y están soportadas por las células gliales que llevan a cabo las funciones. El cerebro consta de materia gris y blanca, la primera constituida por los cuerpos celulares, mientras que la segunda fundamentalmente está compuesta por los axones enfundados en mielina para permitir las conexiones y el transporte de las señales generadas en las distintas partes del cerebro, distribuido en red y que se ordena en diferentes secciones. Las células nerviosas son la parte principal del sistema nervioso central, constituido por una red que se extiende a lo largo del cuerpo transmitiendo la información, disparando o dejándolo de hacer en las neuronas, controlado por el denominado potencial de acción.

TRAZO 1.4 Cuántica neural Pg. 17

Una neurona dispara cuando el potencial aumenta por encima del potencial umbral, lo que supone que el gradiente de iones cargados eléctricamente, contenidos en la membrana celular, se difunden.

La comunicación entre las neuronas implica transmisión de señales químicas y eléctricas. La liberación de neurotransmisores tiene que ver con la transmisión eléctrica. Cuando un potencial de acción se propaga por una neurona, alcanza el axón terminal, abriendo la puerta a los canales iónicos, que estimulan la exocitosis, liberación de los neurotransmisores en el hueco sináptico. Los neurotransmisores se difunden y establecen enlaces a receptores especiales en las terminaciones dendríticas, abriendo otros canales de iones. Esta es la forma en que los iones entran en las células nerviosas y alteran el potencial de membrana, un potencial de acción en la célula nerviosa postsináptica.

Desde la Biología se han hecho muchos intentos tratando de explicar la fisiología de la consciencia. Una de las versiones trata de identificar una correlación neuronal utilizando las tecnologías de neuroimagen estudiando los cambios en la actividad neuronal entre los estados conscientes y los no conscientes así como los estados alterados de conciencia. Una de las dificultades es la cuantificación de experiencias subjetivas echando mano a teoría de redes y disciplinas como la física o la filosofía. Es un campo abierto a lo que pueda agregar la física cuántica.

Ciertamente, desde que en 1913 se propuso la aportación por Bohr de su modelo atómico, en el que los electrones ocupaban niveles de energía discretos, que siguieron a los avances de Planck para la comprensión de la radiación del cuerpo negro, la explicación de Einstein del efecto fotoeléctrico y el trabajo de Compton con los rayos X, dando el espaldarazo experimental a la naturaleza cuántica de la luz. Así comenzó la Mecánica Cuántica. Apartir de ese preciso

Pg. 18 VALLE DE LA CIENCIA. Valle de Elda A. Requena

momento, la materia, sin distinción, incluyendo a la materia biológica, está sujeta a la descripción cuántica. Desde luego, la Cuántica siempre ha estado rodeada de extrañeza, cuando menos, lo que ha contribuido a la fascinación que mantiene. Tanto para Einstein como para Planck, la radiación se comportaba como onda o como partícula, hasta que de Broglie sugirió que la materia que parecía discreta, a veces se comportaba como tal. También, como onda se ponía de manifiesto los fenómenos de interferencia. Pese al principio de incertidumbre, la teoría ha evidenciado su acierto en la descripción de los sistemas microscópicos.

Lo interesante resulta ser cuando en el marco matemático en el que se formula la Mecánica Cuántica, un sistema físico se asocia a un estado cuántico que contiene toda la información del sistema y para dos estados cuánticos que describen un sistema, también lo describe una combinación lineal de ellos. De aquí nace la superposición de estados, lo que origina un efecto no trivial. La denominada coherencia cuántica cuantifica la relación entre los estados de una superposición. El entrelazamiento cuántico entre diferentes estados cuánticos en el ámbito orgánico, tiene como referencia al espín (propiedad genuinamente cuántica), que es una propiedad de las partículas elementales que concreta el comportamiento en un campo magnético. El efecto túnel es otro de los candidatos para explicar el comportamiento cuántico del material biológico, incluyendo la conexión entre los electrones y los modos vibracionales moleculares que acontecen en el denominado efecto túnel inelástico. Poco a poco nos vamos acercando a la comprensión de las intimidades de la materia. Hace mucho que la magia está descartada y los intrincados procesos, en especial los relacionados con la materia viviente, poco a poco se van aclarando. Aparte de la curiosidad científica, precisamos completarlo.

TRAZO 1.4 Cuántica neural Pg. 19
Pg. 20 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 1.5

No cabe duda que los agujeros negros son uno de los objetivos a desvelar en la Cosmología actual. Este año que acaba, felizmente, de terminar, 2020, ha premiado con el Nobel a dos investigadores que han dedicado toda su vida científica a estudiar los agujeros negros, Andrea Chez, cuarta mujer que lo recibe, desde Marie Curie, norteamericana de la Universidad de California en Los Angeles, el alemán Reinhard Genzel de Berkeley, junto al inglés Roger Penrose, profesor emérito de Oxford.

Los ingredientes del Universo se generaron en el Big Bang. El balance hoy conocido, arroja las siguientes cifras: entre un 65% y un 70% corresponden a la denominada energía oscura, a quien se atribuye una fuerza que acelera la expansión constatada del Universo. Entre un 20% y un 25% es materia oscura, de la que no se sabe mucho, como ocurre con la energía oscura y cuyos efectos se constatan en el comportamiento de las Galaxias. Y resta, solamente entre un 5% y un 10% que es la materia ordinaria, para la que se ha desarrollado la física conocida. Se la conoce como materia bariónica, por estar constituida por bariones que incluye a electrones, protones y neutrones.

Solo por las proporciones en las que se dan energía y materia oscura, se vislumbra que constituyen un ámbito de investigación que vale la pena destacar por lo poco desvelado hasta el presente y la importancia cuantitativa en el

TRAZO 1.5 Un agujero
barrio Pg. 21
negro en el
Un agujero negro en el barrio.

Universo. La materia oscura no emite radiación electromagnética y no interactuaría con ella de ninguna forma. Esto representa dificultades para detectarla, ya que solamente se puede inferir su presencia a partir de sus efectos gravitacionales en el movimiento de las estrellas o las galaxias, y también en anisotropías inexplicables en el fondo cósmico de microondas

No es un problema nuevo, dado que en 1933 Zwicky ya propuso la presencia de una masa no visible que afectaba a las velocidades de rotación orbital de cúmulos de Galaxias. Una incógnita es si la materia oscura se compone de agujeros negros creados tras el Big Bang. Están invalidados observacionalmente los agujeros negros de hasta diez masas solares. En tiempo recientes las observaciones mediante interferometría Láser, el afamado observatorio de ondas gravitacionales LIGO, ha detectado fusiones de agujeros negros hasta de 30 masas solares, por tanto, muy masivos. En la teoría de la inflación se predice la formación de agujeros negros tras la gran explosión. Potencialmente se podrían explicar la materia oscura y otros problemas pendientes. Son candidatos para explicar la materia oscura, al no emitir luz. Uno de los elementos característicos es que las Galaxias rotan más rápido de lo que debieran si su masa fuere la que podemos detectar. La materia oscura proporciona esa atracción adicional que facilita que las estrellas que constituyen las Galaxias no salgan despedidas por la fuerza centrífuga.

Chez y Genzel han sido premiados por haber descubierto un agujero negro supermasivo, equivalente a cuatro millones de veces nuestro sol, en el centro de nuestra Galaxia, bautizada como Sagitarius A*, o abreviadamente SgrA* y en una región que emite ondas de radio de mucha intensidad. Con un radio inferior a 17 horas luz está situada a menos de 26.000 años luz de nuestro Sistema Solar, porque a esa distancia está situada la estrella S2 de la misma Constelación de Sagitario, con un radio de 7 soles. El mate-

Pg. 22 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 1.5 Un agujero negro en el barrio Pg. 23

rial estelar y de polvo que atrae, gira cada vez más deprisa, conforme se acerca y debido a la viscosidad se calienta y cuando la temperatura es elevada emite radiación, que es lo que ha permitido su detección. Cuanto más cerca está el material del agujero negro, más intensa es la emisión de radiación.

La aportación singular se concreta en que, mientras los agujeros negros estelares están predichos por la teoría, los trabajos de estos científicos evidenciaron. mediante la observación. que existían también en el corazón de las galaxias. La transcendencia radica en que, hasta ahora el debate se centraba en si los agujeros negros eran anteriores a las galaxias o viceversa. Ahora, el debate se ha llevado a que ambas se han formado al tiempo y debe haber interacción entre ambas. El interrogante sobre la Naturaleza del Universo, ahora va mejor encaminado para saber cómo se formó. Es muy interesante desvelar estos interrogantes, con el aliciente adicional de que los agujeros negros son espacios en los que no rigen las leyes de la Física conocidas. Representa un paso hacia el conocimiento de la gravedad y de la Cuántica y sus relaciones. Nadie hubiera dicho, hace un tiempo, que tendríamos un agujero negro en nuestro barrio cósmico. Esto lo cambia todo.

Pg. 24 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 1.6

Verde oscuro kernowita.

Por muy seguros que estemos de lo que hacemos y conocemos, siempre hay resquicio para la novedad. No parece fácil que en un ámbito como el de la minería, geología, cristalografía, se den sorpresas descubriendo cosas hasta ahora ignoradas. Pero es así. Un nuevo mineral desconocido ha emergido para sorpresa de propios y extraños. Sucedió cuando un grupo de científicos analizaba una roca extraída hace, nada menos que 220 años en las explotaciones mineras de Cornualles. Kernow que es la denominación de Cornualles en el dialecto local, córnico, da nombre al mineral ahora descubierto.

Durante mucho tiempo se confundió con la denominada liroconita, que es un mineral del tipo fosfato, aunque con arsénico, es decir un arseniato, hidroxilado e hidratado con cuatro moléculas de agua, de cobre y aluminio, de color entre azul celeste y verde o verde azulado, de carácter vítreo o resinoso y apariencia entre transparente a traslúcido. Se suele asociar a otros minerales como: olivenita, calcofilita, clinoclasa, cornwallita, strashimirita, malaquita, cuprita o en la roca limonita.

Ciertamente, este tipo de cosas viene a suscitar la inseguridad de que lo analizado se haya efectuado concienzudamente, como para considerar los resultados definitivos. Resulta, cuando menos increíble, que muestras obtenidas hace dos siglos ahora revelen que no son lo que se pensaba que eran. Solamente hay dos muestras, ambas en el Museo

TRAZO 1.6 Verde oscuro kernowita Pg. 25

de Historia Natural de Londres y las minas hace más de un siglo que dejaron de tener activas.

En el reino mineral, no es una situación frecuente, pero en el reino animal, si es muy frecuente que se descubran nuevas especies con mucha frecuencia. En el ámbito humano, la cosa es más peliaguda, por cuanto los descubrimientos suponen procesos o mecanismos que no se imaginaron relevantes y pasado el tiempo, con mejores técnicas, se profundiza con otro detalle y se pone de manifiesto algo que anteriormente se ignoraba.

Al margen de los fabricados por el hombre, que no consideramos aquí, como los semiconductores, las baterías o los imanes, el número de minerales conocido se sitúa en torno a 5200 diferentes, como recoge la Asociación Internacional de Mineralogía. No hay que descartar aquellos que se formaron a partir de condiciones en las que materiales que no suelen coincidir en la Naturaleza, pudieron ponerse en contacto y tuvieron lugar reacciones químicas. Las fundiciones y tuberías geotérmicas y las minas resultan ser entornos especialmente indicados para que surjan nuevos minerales. No quedan al margen los cajones de los museos, pongamos por caso.

No cabe duda que estos minerales nuevos, no incluidos en el "paquete de origen" nos hace percibir como una nueva época en la Historia de la Tierra. Hoy se considera el Holoceno, con una extensión de unos 11.000 años, que se funde con el antropoceno que representaría la actualidad. No cabe duda que en el futuro se encontrarán materiales procedentes de los de hoy, como el acero, materiales de construcción, aleaciones, junto a los derivados de materiales radiactivos en forma de recursos y los materiales sintéticos elaborados en los últimos tiempos. Habrá un horizonte diferenciado, donde quedará el registro geológico como huella de nuestro tiempo, que será diferentes al de otras épocas anteriores, a

Pg. 26 VALLE DE LA CIENCIA. Valle de Elda A. Requena

las que los científicos del futuro, estudiarán, cuando no quede registro histórico, como ocurre en la actualidad cuando se descubren horizontes que desvelan el clima de épocas pretéritas o modos de vida de nuestros antecesores.

No pone en duda nadie que está teniendo lugar un cambio en el Planeta. Pero somos parciales cuando pensamos que lo único que está cambiando es el clima. Los cambios están afectando a todos los niveles, incluyendo la geología, al igual que la atmósfera o los mares. Muchos productos han sido objeto de uso de forma generalizada, por dar con la fórmula oportuna que requiere el ser humano en un momento dado para suplir una necesidad, soslayándola o aliviándola. Tenemos in mente muchos ejemplos de productos que han logrado ser usados de forma general en un tiempo dado, porque los automóviles, las lavadoras o los bolígrafos, cada uno con sus materiales singulares han logrado alcanzar a la mayoría de la gente, al menos en sectores amplios del Humanidad.

Aunque parezca algo fuera del guión, como hemos visto, es perfectamente factible la aparición de nuevos minerales, que pudieron tener un presente brillante en el pasado, pasar desapercibido mucho tiempo y emerger de nuevo para caracterizar una nueva época. Los arqueólogos del futuro reconstruirán nuestra época actual y ¿se asombrarán?

TRAZO 1.6 Verde oscuro kernowita Pg. 27
Pg. 28 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 1.7

Sonidos y emociones.

La música es un lenguaje que opera en la esfera de las emociones (comunicación), agregando perfiles artísticos y culturales. Como ocurre con todo lo humano desconocido, tiene atribuciones genéticas, aunque no está ausente el entrenamiento, que dota de capacidades técnicas para su ejecución, que no solamente incluye destrezas de manipulación, dado que afecta a zonas encefálicas variadas como son el cerebelo, cuerpo calloso, córtex motor y plano temporal. Según Arias, el hemisferio derecho tiene que ver con aspectos melódicos, mientras que el ritmo y otros aspectos formales tienen que ver con el hemisferio izquierdo. Se ha estudiado, como indica Arias a través de disfunciones, las relaciones entre percepción y/o producción con sus ingredientes de intensidad, tono, timbre, ritmo y grafía y la forma de afectar la componente emotiva selectivamente.

Al margen del ámbito neurológico en el que las patologías inducen a la reflexión sobre la incidencia de los distintos elementos musicales sobre las emociones y conductas, casi de forma inevitable, las reflexiones sobre la interacción de la música con los humanos, se sitúa en el ámbito del séptimo arte con harta frecuencia. El cine ha sido el campo artístico más genuino para trasladarnos de forma evidente las emociones ligadas a la música, al utilizar a ésta para trasladarnos a una situación de complicidad.

TRAZO 1.7 Sonidos y emociones Pg. 29

El término música rememora a las musas y relaciona sus orígenes con ella. Sonido, silencio y tiempo se combinan evocando, comunicando y convocando emociones. Podemos afirmar que es un lenguaje de las emociones. Físicamente, tras la música están los sonidos producidos por las vibraciones cuando se propaga, básicamente a través del aire. El número de vibraciones genera la frecuencia o el tono. Cada instrumento responde a una tesitura que es la extensión tonal que abarca. Mientras que el oído se extiende entre 20 y 20.000 herzios, la flauta se sitúa en torno a 4000 herzios, el violín en torno a 8000 herzios. El piano se extiende desde el La-1 (A0) cuya frecuencia es de 27,5 Hz hasta el Do7 (C8) que corresponde a la tecla 88 y cuya frecuencia es de 4186,1 Hz. Una soprano emite frecuencias entre 5223, 251 Hz y 2093 Hz, una contralto lo hace entre 329,628 Hz y 1318,51 Hz, un tenor lo hace entre 261,626 Hz y 1046,50 Hz y un bajo entre 164,814 Hz y 659,255 Hz. Además del tono, se incluye la intensidad que viene dada por la amplitud de la onda que transmite el sonido, mientras que las características acústicas del instrumento emisor generarán la composición de los armónicos que genera son las que componen lo que se denomina timbre. No suena igual un violín Straudivarius que uno de aprendizaje del instrumento.

Combinando el ritmo al que se ejecutan los sonidos, marcando los intervalos de tiempo y las variaciones de las frecuencias que perfilan lo que denominamos melodía, la música está servida. El cerebro es quien la disfruta, como evidencian las técnicas de neuroimagen funcional, como la PET (tomografía de emisión de positrones) y la resonancia magnética funcional. Las conclusiones de los estudios realizados consideran que, entre los primeros desarrollos de los seres humanos se encuentra el de la consonancia y regularidad temporal, pero el ámbito cultural en el que nos movemos es el que determina los elementos que se aceptan. Se ha detectado que a partir de los 6 meses de edad se aprecian los intervalos consonantes, así como escalas con tonos y semitonos.

Pg. 30 VALLE DE LA CIENCIA. Valle de Elda A. Requena

El aspecto melódico es propio del hemisferio derecho y la técnica para interpretar es propia del hemisferio izquierdo. La percepción musical afecta a los dos hemisferios. Cuando la música con escaso valor placentero incide en una disminución de la activación de la corteza orbitofrontal y cingular anterior, incrementando la activación del perineo y el giro parahipocampal derecho, según afirma Arias que corrobora los estudios de PET. Por otro lado en los estudios llevados a cabo con resonancia funcional la música que implica disonancias activa la amígdala, el hipocampo y el parahipocampo y otras estructuras cerebrales implicadas en la estimulación emocional negativa. En cambio, la música que traducimos como placentera activa la circunvolución frontal inferior, la ínsula superior, el estriado ventral y el opérculo rolándico, según afirma Arias.

Por otra parte, las componentes que perfilan el sonido y la música provocan una respuesta emocional que se localiza en partes diferentes del cerebro. Así, en el hemisferio derecho se procesa el timbre, en el izquierdo el ritmo y los aspectos secuenciales, mientras que la melodía afecta a los dos hemisferios, según evidencian los estudios de PET. El tono parece estar localizado en el cortex auditivo derecho. La melodía parece afectar a la periferia del hemisferio derecho y los intervalos tonales parecen afectar más al hemisferio izquierdo. El hecho de que en muchas ocasiones sigamos el ritmo marcando con los pies golpeando el suelo, o con las manos sobre la mesa haciendo uso o no de algún elemento rígido que se encuentre al alcance,

no son mas que la expresión de elementos emotivos desencadenados, como el baile, al igual que las sensaciones que se perciben en la columna al escuchar alguna música en concreto. Se pone en marcha el sistema de recompensa ante la percepción que supone una diferencia sustancial con otras emociones.

TRAZO 1.7 Sonidos y emociones Pg. 31

Sin duda los autores de las bandas sonoras de las películas de cine, hacen uso de los aspectos placenteros o de cualquier otro tipo de incidencia de la música sobre el organismo humano, para orientar la situación melodramática que proporciona abrigo a los escenarios que se crean. Hay muchos ejemplos de ello, desde la película de 1939 protagonizada por Bette Davis titulada en español Amarga Victoria en la que la música anticipa los acontecimientos relacionados con la muerte hasta las simpatías propiciadas por la música en King Kong, rodada en 1933 o la música punzante de Psicosis, más reciente que contribuyen a crear el clima de suspense tan genuino de su director Hitchcock. Los sentidos se agudizan con la música. Los sonidos disonantes son propios de las películas de terror. En el fondo hay una imitación de la Naturaleza en la que vivió el hombre y tuvo que aprender a activarse ante determinados sonidos que le avisaban de peligros inminentes, desde un ruido que conlleva la rotura de una rama, hasta un aullido en la noche. Las melodías, activan otras zonas cerebrales, pero las tomografías han evidenciado que estas zonas son las mismas que se activan con otros estímulos eufóricos, como la comida, el sexo y, desgraciadamente, las drogas. Cuando se analizan las zonas activadas con las recompensas, las emociones o la excitación, se repara en que la sangre fluye a esas zonas, precisamente.

Finalmente destacamos que las sensaciones se desencadenan, independientemente de la calidad técnica de la música, lo que hace que las respuestas sean bastante comunes con los efectos de determinados ruidos, que son sonidos desestructurados. Los centros emocionales, son, de esta forma, accesibles directamente, con la componente de vulnerabilidad que esto conlleva. Hay una región que esta en estudio en estos momentos y es la de los infrasonidos y ultrasonidos, no captados por el sistema auditivo, pero que pudiera afectar al sistema emocional también, de forma subrepticia. Es posible que el ansia, ña tristeza y las reacciones extremas como palpitaciones o temblores, puedan desencadenarse por

Pg. 32 VALLE DE LA CIENCIA. Valle de Elda A. Requena

sonidos no audibles. Hay experiencias que se aproximan a ello.

Como casi siempre, todo el mundo no se ve afectado de la misma forma, pero es suficiente con la evidencia de que ocurre que los sonidos afectan a nuestras emociones. Cuestión delicada de manejar, por cuanto es un elemento distorsionador de la conducta, ajeno a la voluntad del individuo al que afecta, de no estar advertido. El asociar un acorde de Do mayor con ambientes alegres, puros, guerreros, inocencia o sencillez, o que el acorde de MI bemol Menor se asocia con algo espantoso u horrible, o que el acorde de La mayor es alegre, propio de declaración de amor, juventud, aplauso, etc. encontrará su explicación sin mucho tardar, pero solamente es una parte de la jugada. Hay muchas más implicaciones que no deberán pasar inadvertidas. Poco a poco se va descubriendo todo. Es cuestión de paciencia.

TRAZO 1.7 Sonidos y emociones Pg. 33
Pg. 34 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 1.8

Hacia un superorganismo.

Estamos aprendiendo muchas cosas todos, no solo los investigadores en el campo del sistema inmunológico. La lucha sin cuartel por alcanzar la inmunidad frente a la severa amenaza, no solo sin cuartel, sino sumamente agresiva que este coronavirus ha traído consigo, hace que la atención se focalize en sus andanzas, pretendidamente para evitarlo. Muchas son las incógnitas que aún se ciernen y no se dispone de contestaciones para todas ellas, ni mucho menos. Con mucha razón traemos a colación aquello de que los árboles impiden ver el bosque. No es menos cierto que se ha puesto de actualidad un mundo, que sabíamos que estaba ahí, aunque conviviendo con él con relativa armonía, no nos preocupaba como ahora lo hace. Por ejemplo, todo indica que tanto la gripe como los constipados, son dolencias derivadas de la vida en comunidad. En cuanto nos hemos protegido de los demás, obligadamente por el coronavirus, su presencia ha pasado a ser anecdótica. Ahí estaba y está, solo que ahora no lo sufrimos. Es una incógnita si seguirá estando o lo podremos erradicar, como hicimos con la viruela, ¡ojalá!

De paso, ahora, como nunca antes, nos percatamos de que los virus son compañeros de existencia de los humanos y ¡de qué manera! Se estima que nos acompañan, nada menos que 350.000 millones de ellos, lo que supone una cantidad diez veces superior a la de bacterias que conviven con nosotros. Y, al igual que ocurre con las bacterias, unos son perjudiciales y asociados a enfermedades, mientras que otros son o pueden ser beneficiosos para nuestra existencia. La

Hacia
superorganismo Pg. 35
TRAZO 1.8
un

conclusión parece clara en el sentido de que no solo estamos constituidos por células humanas que esporádicamente resultan ser invadidas por microbios, sino que somos portadores de bacterias, hongos y virus que conviven con y en nuestras células. Se estima que hasta un 50% de nuestro cuerpo corresponde a materia no humana.

Hasta hace poco tiempo, una década a lo sumo, no se tenía conciencia de la existencia del viroma humano que coloniza nuestras células. Tal como está compuesto nuestro organismo, como apunta Pride, que acumula proteínas, lípidos e hidratos de carbono, es un medio de cultivo extraordinario para los microbios. Muchos microbios han sabido acomodarse en este medio. Los virus precisan, por su constitución, de las células para poder multiplicarse. Desde la publicación del genoma, lo que ha conllevado el abaratamiento de la secuenciación, ha explotado la aplicación de ésta en todos los campos. También en el virológico, encontrándose en cualquier parte del organismo, desde la cavidad bucal, hasta el hígado, sangre, donde antes era inimaginable su existencia, incluido el líquido cefaloraquideo o el líquido sinovial e incluso en la leche materna. En el sistema nervioso solamente se conocía el caso del herpes, ahora hay cientos de virus en esta parte, considerado hasta ahora estéril. Todo parece indicar que desde el nacimiento nos acompañan y en especial en el intestino. Después aire, agua, alimentos etc. se encargan de acabar la dotación.

Unos son perjudiciales y otros no. Ahora se ha visto con claridad que muchos virus acechan a las bacterias, son bacteriófagos, se introducen en las bacterias, se apoderan de su aparto reproductor y una vez que han conseguido reproducirse la abandonan destruyendo a la bacteria que los albergaba. Su capacidad de desplazamiento es muy notable, habiéndose detectado que atraviesan células, membranas, mucosas en busca de las bacterias a colonizar. Solamente que, en aquellos lugares, como el sistema nervioso central, en el que

36
Pg.
VALLE DE LA CIENCIA. Valle de Elda A. Requena

no hay casi bacterias, la ausencia de éstas, hace que desaparezcan por inanición. Este mecanismo de actuación de los fagos no es distinto del practicado en otros ambientes, suelo, agua, etc. en el fondo somos un soporte más para su actividad.

El viroma es personal y no puede decirse que intransferible, al menos en parte. Se estima que en un 25% está compartido por las personas convivientes, a través del contacto y de los elementos comunes utilizados, sin que sea determinante el mantener relaciones íntimas para compartir viroma parcialmente. Varía por regiones geográficas, en función del sexo, la alimentación y el ambiente, que también contribuyen a las diferencias.

Virus y bacterias configuran un submundo en el que unas y otros condicionan su existencia e inciden en la nuestra. Falta saber quiénes toman la iniciativa y, por tanto, quienes se adaptan a quienes. Hace unos años, se pensaba que el microbioma, radicado en el intestino y se creía que tenía un carácter pasivo, mientras que hoy se sabe que su dinámica es cambiante y constante, aunque haya una parte de ella que se mantiene estable. Experimentos ya realizados apuntan a la intervención en el cerebro de los enfermos de Alzheimer de herpesvirus, que en organoides cerebrales han generado placas amiloides, propias de la enfermedad en humanos. Conocer cómo se comportan si es en beneficio o en perjuicio nuestro e ingeniar procedimientos para ponerlos a favor de la salud, permitirá desarrollar el sueño del superorganismo más fuerte. ¡Cuánto queda por saber! Que cierto es aquello de que solo sé que no se nada. ¡Cada día que pasa más cierto!

TRAZO 1.8 Hacia un superorganismo Pg. 37
Pg. 38 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO

1.9

COVID 19 en aguas negras.

En todas partes podemos encontrar rastro de COVID 19, no solo en los escenarios habituales en los que nos movemos los humanos, sino en los bajos fondos protagonistas de los ámbitos posthumanos que se suceden tras el tránsito por los organismos y que forman parte de la preocupación de las administraciones por no afectar demasiado al Medio Ambiente.

Con anterioridad a la pandemia, en las instalaciones de aguas residuales que se precien ya se controlaban drogas disueltas, que pueden permitir investigaciones sobre productos ilegales e incluso la búsqueda de virus que permitan establecer alertas sanitarias. Es una tarea que permite identificar elementos de interés en el consumo y delimitar áreas de alerta. Pesticidas, antibióticos productos farmacéuticos o de cuidado personal, alcohol, tabaco, es posible detectarlos en las aguas residuales.

Las muestras se suelen tomar de forma automática con sistemas instalados en las plantas depuradoras. Las aguas negras cambian de composición a lo largo del día y las procedentes de áreas residenciales presentan picos por la mañana y por la noche, por lo que la recolección de las muestras suele acumularse en periodos de un día, 24 horas. Hay varias formas de hacerlo, por ejemplo, tomando el mismo volumen cada 15 minutos o volúmenes distintos a lo largo del día. En todo caso, unos cuantos litros por día. El producto recogido se refrigera, conforme se va colectando y el acumulado en 24 horas es el que se somete a análisis. Para un análisis entre 100 y 600 mililitros son suficientes.

COVID
El análisis del COVID 19 se efectúa más fácilmente en la materia fecal sólida, mientras que para las drogas la componente en aguas
19
negras Pg. 39
TRAZO 1.9

líquida es más adecuada, por lo que se filtran las muestras para apartar a materia sólida, dado que son excretadas, fundamentalmente a través de la orina. Según la droga concreta, el análisis químico es diferente y busca concentrar la muestra evitando todo lo que puede estorbar para realizarlo. Las moléculas concretas se identifican mediante cromatografía líquida y espectrometría de masas, logrando la primera la separación de los componentes individuales y la segunda identifica con qué probabilidad está presente cada uno de los posibles componentes incluidos en grandes bases de datos, aportando el resultado probable y la abundancia del mismo.

El COVID 19, al igual que otros virus, se busca mediante test PCR, como los aplicados a humanos en las muestras colectadas en la nariz o la boca con las torondas típicas Se amplifica el ARN COVID que pudiera estar presente. Esto se lleva a cabo con una pequeña porción de ARN que aparece en el genoma SARSCoV-2, que se utiliza como sonda para encontrar ARN sospechoso. Esta sonda busca porciones de ARN con las que coincide, presentes en la muestra y si encuentra que están presentes, el ARN viral se copia suficientes veces para que pueda detectarse. El proceso se lleva a cabo a una temperatura suficientemente elevada para desnaturalizar el ARN sin destruirlo completamente, con lo que se evita el riesgo para los que lo manipulan. Naturalmente, esta identificación no permite concretar en una persona infectada en una comunidad, pero es un indicador de la presencia de COVID 19 en un área determinada. También es cierto, que la presencia viral puede darse en mucha gente varios meses después de la infección. Ytambién lo es que el virus se desnaturaliza y se disuelve en las aguas residuales, de forma que unas aguas negras limpias, tampoco significan la no presencia del COVID 19.

La cuestión así relatada implica que la localización de una porción concreta de ARN es imprescindible, como lo es cuando se buscan otros virus, como ocurre con la hepatitis. En el caso de las drogas hay una mayor flexibilidad con otra técnica como el denominado cribado (screening) que se usa en Medicina para detectar una enfermedad en individuos que no padecen la dolencia. Detectando enfermedades de forma prematura se pueden reducir los efectos. Ello implica cumplir con determinadas condiciones

Pg. 40 VALLE DE LA CIENCIA. Valle de Elda A. Requena

como que la enfermedad sea una causa común de morbimortalidad, detectable en fases pre-sintomáticas, que se empleen pruebas diagnósticas efectivas, con un mejor tratamiento temprano que en la época sintomática y con un daño inferior en la intervención que en el tratamiento no precoz. Tienen su crítica, también, basada en que no suelen ser inocuos, tienen coste y no disminuyen la incertidumbre clínica. En el caso de las drogas se analiza un número muy elevado de compuestos en un cribado general y se puede detectar cuando está o no presente una droga, pero no en qué cantidades. En el caso de las drogas, también hay que señalar que lo que se examina en las aguas negras son las moléculas metabolizadas por el organismo y que aparecen en la orina, por tanto, exige el conocimiento detallado del proceso que sigue en el cuerpo humano.

Finalmente nos referiremos a las aguas residuales desde el punto de vista de soporte vírico, trayendo a colación la distancia que solemos poner los humanos con las aguas residuales, al considerarlas como efluentes potencialmente complicados como para que se requiera un cuidado profesional para aproximarse. El contenido de microbios en las aguas residuales implica la secreción de enzimas capaces de degradar el ARN rápidamente. El riesgo de infección es relativamente muy bajo y por el tiempo de transporte y tratamiento en las plantas depuradoras habrían muy pocos virus viables en ellas. Esto hace que el riesgo potencial de infección no sea muy diferente del correspondiente a cualquier otra carga de patógenos ya existentes en las aguas negras y las precauciones son similares a las que ya se tienen usualmente.

TRAZO 1.9 COVID 19 en aguas negras Pg. 41
Pg. 42 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 1.10

Parece inevitable que cuando oímos o leemos el término laser rememorar la Guerra de las Galaxias, igual que al referir el tiempo nos trae a colación un reloj, de los muchos que pueden haber. No se le ocurre a todo el mundo la conexión, que la hay. Independientemente de los conceptos implicados y de la relatividad del tiempo, no está mal que aclaremos algunas ideas.

El concepto social de tiempo, se va gestando desde que el ser humano contempla la Luna y repara que se mueve en ciclos regulares, que podía asociar a una cantidad más o menos fija en relación con los embarazos que recorrían hasta 10 periodos lunares. Por el contrario, parecía que su periodicidad no servía para predecir los cambios estacionales, para lo que se desvelaba más útil tomar como referencia al Sol, de lo que hay constancia que en torno a 1500 a.C. los babilonios ya habían parametrizado en un periodo de 365 días, a lo que los Caldeos precisaron aún más, incorporando los signos del zodiaco que correspondían a 12 divisiones que darían lugar a los denominados meses. Hay constancia de que los aztecas dispusieron en torno a 1479 d.C. la denominada piedra del Sol en la pirámide de Tenochtitlán, que se exhibe en el Museo Naciona de Antropología de Méjico y que es un disco monolítico de basalto con inscripciones de carácter simbólico y semanas meses y siglos aztecas de 52 años.

TRAZO 1.10 En un cronon Pg. 43
En un cronon.

Siguiendo la secuencia podemos referir la clepsidra egipcia datado en torno a 1350 a.C., consistente en un recipiente que deja escapar agua y el nivel indica la hora. En torno a 1300 a.C. se data el obelisco debido a Ramses II, de cuya sombra se deducía el día de los 365 de que constaba el año, que comenzaba con la referencia de Sirio cuando se alzaba por la mañana en línea recta siguiendo al Sol. La clepsidra de Alejandría se sitúa en torno al 200 a.C., debida a Ktesibios. Hiparco de Nicea aportó el Astrolabio cuyos orígenes se sitúan en la Grecia clásica. Apolonio (225 AC), aunque el que lo difundió fue Hiparco que nació en Nicea, Asia Menor (la actual Iznik, en Turquia) alrededor del año 180 AC, pero estudió y trabajó en la isla de Rodas y que permitía conocer la hora y la latitud en la navegación y que se mantuvo en vigor desde 220 a.C hasta el siglo XVIII en que apareció el sextante. El reloj de velas que marcaban el tiempo e hizo su aparición en torno al año 900 d.C. cuando el rey anglosajón, Alfredo el Grande dividió el dia en tres partes de ocho horas. Posteriormente, en el siglo XVIII se empleó un recipiente graduado lleno de aceite que indicaba las horas mediante su nivel a medida que se iba consumiendo. El reloj de sol hizo su aparición en el siglo XII y se puede ver en la Catedral de Chartres con un gnomon que se colocaba en un orificio según la estación. Parecido a los de aceite o las velas, se construyó el de arena en 1300 y se emplearon hasta el siglo XVI. Controlaban desde la duración de un sermón hasta el periodo de trabajo en las fábricas. El primero surgió en Siena. El primer reloj de maquinaria se debe a Dondi, a mediados del XIV, del que tuvo uno el emperador Carlos V y desapareció en el incendio del Convento de Yuste. Incorporaba el escape, que es la parte que bloquea y libera el rodaje a intervalos constantes, proporcionando la constancia en el batir y transmisión de la energía almacenada para hacer avanzar los indicadores del tiempo. Es el tic tac de cualquier tipo de reloj, que proporciona la regularidad. Haciendo empleo de este mecanismo, surgieron los relojes mecánicos que emplean pesas para su movilización. Se incorporó el péndulo sugerido por

Pg. 44 VALLE DE LA CIENCIA. Valle de Elda A. Requena

Galileo en el siglo XVII y posteriormente los de pesas con una y dos agujas y escape de áncora que es el encargado de armonizar el batir del péndulo modulado por el rozamiento. Lo logra con una oscilación solidaria con el péndulo y conectada a una rueda dentada y al eje de las manecillas El áncora contacta con los dientes de la rueda de escape en cada semioscilación. Deja pasar un diente de la rueda en cada oscilación completa del péndulo, con lo que gira el mismo ángulo cada vez y cada contacto impulsa el áncora y mantiene la amplitud de las oscilaciones. Comienzan a miniaturizarse las maquinarias y aparecen los relojes de bolsillo. El reloj de escape centrífugo llega en Conneticcut de la mano de Christian Clausen a finales del XIX, en los que un brazo arrastra un hilo y un peso interviniendo la fuerza centrífuga. Resultó ser tan ingenioso como inexacto, por cierto. En 1904 Cartier diseña el reloj de pulsera, que ya se había propuesto en 1888 como reloj de pulsera femenino.

La compensación de la temperatura va culminando el proceso de mejora constante desde la aparición del péndulo en escena, que ya utilizaba como referencia de precisión, el segundo por día. Hasta el siglo XX se logra incrementar la precisión a menos de un segundo por día. Aparecen los relojes eléctricos que logran alcanzar la centésima de segundo por dia. A estos les suceden los osciladores de cuarzo que emplean un cristal de cuarzo y aparecen en 1917 y posteriormente irrumpen los relojes atómicos en 1949. En suma, la necesidad de medir el tiempo, motivado por controlar los cambios de estaciones, poder predecir las citas contraídas como consecuencia del comercio, y un largo etcétera, se ve satisfecha en sus aspectos económicos y sociales, es decir macroscópicos.

No es todo. La precisión de un mecanismo de medida radica en el patrón de medida, que es convencional, ya que hay que determinar las veces que se repite. Los relojes de cuarzo oscilan a una frecuencia muy regular. El patrón tiene

TRAZO 1.10 En un cronon Pg. 45

que ser muy regular. Aquella aventura que propició Napoleón al implantar el sistema métrico decimal en el que el metro se definió como la diezmillonésima parte de un cuadrante de meridiano terrestre, por cierto, de París a Barcelona, fue evolucionando en la dirección de la regularidad y adoptó la referencia del segundo como una duración de 9.192.631.770 oscilaciones de la radiación emitida en la transición hiperfina entre dos niveles del estado fundamental del isótopo 133 del átomo de cesio, a una temperatura de 0 Kelvin que es la que se adoptó en el Sistema Internacional de Unidades. Para tiempos inferiores, poco frecuentes en la vida ordinaria, se emplean décimas, centésimas o milésimas de segundo.

Pero hay otras escalas para otros aspectos e introducimos como referencia, el denominado tiempo de Planck, también conocido como cronón, como unidad mínima de tiempo a la que podemos acceder. Se define como el tiempo que tarda un fotón en recorrer la, igualmente llamada, longitud de Planck que, a su vez, es la unidad mínima de espacio que puede ser medido Esta distancia es 1.616252 x 10-35 metros.

En 1955 Wheeler propuso la denominada teoría de la espuma cuántica intentando describir lo que sucede en estas escalas y sugirienro un espacio-tiempo espumoso con unas turbulencias generadas por unas partículas virtuales a velocidades enormes. Las características que macroscópicamente le atribuimos se desvanecen en estas escalas. Realmente el concepto de medida deja de tener sentido y el tiempo que tarda en recorrer un fotón, por tanto a la velocidad de la luz, la distancia de Planck, es la unidad de tiempo límite que podemos medir. Este tiempo de Planck equivale a 5.39124 x 10-44 segundos.

Todo lo que ocurre, como mucho, acontece en un cronón, nunca en menos, aunque, últimamente está en cuestión esto, también. Un abrir y cerrar de ojos equivale a una décima de segundo y ese es un tiempo enorme en comparación con

Pg. 46 VALLE DE LA CIENCIA. Valle de Elda A. Requena

el cronón. Si lo pensamos bien, vivimos, permanentemente en el pasado. Todo acontece en diferido. Reaccionamos en tiempo real para lo que la vida, el mundo macroscópico nos impone. Nos defendemos de los depredadores reaccionando en la escala de tiempo a la que pueden ocurrirnos las cosas negativas, y aquí la evolución ha ido seleccionando a los sujetos capaces de reaccionar en el "presente", de forma que los mas lentos quedaron atrás. Nuestra conciencia se estima que funciona en la escala de unos pocos milisegundos, aunque el inconsciente accede a tiempos inferiores. El habla o la música acontecen en una escala de milésimas de segundo.

Pero hay escalas de tiempo significativas en áreas de conocimiento concretas. Los tiempos genuinos se acomodan a los escenarios en los que una escala de tiempo sea significativa. Las reacciones químicas transcurren en tiempos inferiores al picosegundo. Ello conlleva que el reloj necesario para acceder a contemplar en directo una reacción química debe situarse en una escala inferior al picosegundo(10-12s), como es el femtosegundo (10-15s). En su libro Femtoquímica, Ahmed Zewail narró una historia muy divertida que situó a principios del siglo XX en que un ricachón norteamericano instituyó un premio a quien respondiera con pruebas al interrogante de si un caballo al galope mantiene en algún instante las cuatro patas en el aire. Hubieron de transcurrir varios años, hasta final de la década de los veinte en que un fotógrafo con un obturador de milésimas de segundo captó la instantánea del caballo con las cuatro patas en el aire. Dispuso de un reloj capaz de situarse en la escala en la que ocurre el acontecimiento. La Química en riguroso directo requiere del femtosegundo, por las razones anteriormente introducidas. De otra forma, siempre estamos analizando el pasado, la reacción ya transcurrió cuando la observamos. Habrá que modernizarse. No digo nada si hablamos de satisfacer los deseos en un cronón. ¡Eso sí que es desear al límite:

TRAZO 1.10 En un cronon Pg. 47
Pg. 48 VALLE DE LA CIENCIA. Valle de Elda A. Requena

1.11

Pan de la cerveza.

El guano es una sustancia formada con los excrementos de ciertas aves marinas localizada en las costas del Pacífico Sur, que se utiliza como abono. En el siglo XIX se explotó intensamente, en especial el procedente de Perú, que llegó a representar hasta el 83% de los ingresos fiscales. Puede contener en torno a un 16-18 % de humedad, un 1014 % de nitrógeno, un 10-12% de pentóxido de fósforo, P2O5 y un 2-3% de óxido potásico, K2O, además de calcio, magnesio y micronutrientes. Los pueblos locales lo habían utilizado con éxito para mantener la producción de sus cosechas restaurando el nitrógeno del suelo mediante estiércol y el guano era una forma eficaz de lograrlo. Está presente el oxalato de amonio, que procede de aves marinas. Una alternativa es el producto, también natural, denominado salitre (nitrato de chile) mezcla de nitrato sódico (94%) y nitrato potásico (1.5%) y otras sales como cloruro sódico (1%), muy ricos en nitrógeno utilizable (hasta un 16%), porque es soluble y se descompone fácilmente y las plantas pueden asimilarlo. Hay que referir que está "prohibido" en el ámbito de la denominada agricultura ecológica, pese a que es un producto natural (contradicción como tantas otras en este ámbito). Tanto el guano como el salitre fueron empleados en los cultivos del mundo entero en el siglo XIX. La decadencia de estos productos siguió. A finales de ese siglo ya se inició la preocupación por las reservas y se buscaron alternativas para devolver el nitrógeno a la tierra.

La primera alternativa se buscó en el aire, dado que el nitrógeno se encuentra en una proporción de un 78%, aunque las plantas no pueden asimilarlo en la forma en que se presenta con el enlace fuerte entre los dos átomos de nitrógeno.

TRAZO 1.11 Pan de la cerveza Pg. 49 TRAZO

La aportación de Fritz Haber y Carl Bosch consistió en transformar ese nitrógeno del aire para obtener amoniaco que ya se podía utilizar en la fabricación de fertilizantes asimilables por las plantas. Hay que recordar que, sin la capacidad de producción que impulsó la creciente población mundial, hoy no podría haber alcanzado el nivel que ha logrado. El Nobel de 1918 para Haber y en 1931 para Bosch, en ambos casos asociado a la síntesis del amoniaco, lo que no deja de ser curioso en este amplio margen de tiempo. Haber tiene otras páginas asociadas al gas cloro, de las que no podría estar orgulloso, ya que la Humanidad resultó con graves atentados en la guerra química que desencadenó su uso. En el contexto en el que se formuló la propuesta de la síntesis del amoniaco, cuando el objetivo prioritario era la alimentación de la población mundial. Hasta entonces, la idea había sido que una mayor población requería poner en producción más tierra. La idea ahora era aumentar la productividad de la tierra, dado que esta era limitada. De aquí surgió la idea de no más tierra, sino "pan del aire". Realmente no fue solo del aire, sino con el concurso de combustibles fósiles, que acompañan siempre a los procesos productivos. Con el tiempo resultó ser un proceso muy contaminante y de muchas dificultades desde la sostenibilidad ambiental que hoy lo ponen en tela de juicio, por la demanda actual de fertilizantes que es incompatible con las ideas de cuidado del Medio Ambiente. El proceso de Haber-Bosch consume mucho gas, que es la fuente de hidrógeno al que se une el nitrógeno para obtener el amoniaco. Requiere una gran cantidad de calor, ya que se estima que la energía que emplea este proceso a nivel mundial llega a alcanzar hasta el 2% de la producción mundial de energía. Gran cantidad de presión, también, posibilitan la ruptura de enlaces de nitrógeno y unión a los de hidrógeno, para formar el amoniaco, con las muletas de catalizadores que son compuestos de metales de transición.

En todo caso, lo que no presenta dudas es que la producción agrícola requiere como elementos básicos, en primer

Requena
Pg. 50 VALLE DE LA CIENCIA. Valle de Elda A.

lugar, la presencia de nitrógeno y además, la presencia de potasio, fósforo, agua y, desde luego, la radiación solar. El nitrógeno, por otro lado, forma parte de un ciclo en el que las plantas, una vez agotado su tiempo de vida, lo devuelven al suelo para que otras plantas lo empleen en su crecimiento y ciclo vital. El nitrógeno es vital. El consumo de las plantas, corta el ciclo ya que, al consumirlo, no regresa a la tierra, con lo que hay que emplear alternativas para esa reincorporación del nitrógeno para sostener la producción agrícola.

La propuesta actual de investigadores de la Universidad alemana de Würzburg es audaz, ya que logra la conversión de nitrógeno en amoniaco a temperatura ambiente y poca presión. El boro y la cerveza son los protagonistas. Por tanto, no emplea metales de transición. Una reacción propia de la atmósfera superior fue la inspiración de emplear al quinto elemento más ligero del sistema periódico, como es el boro. El agua como elemento promotor de la compleja secuencia de reacciones que tienen lugar en la conversión a amoniaco, casualmente presente en una de las muestras, promovió su incorporación. Posteriormente la presencia de un ácido sólido, fue suficiente para que se desarrollara el proceso, es decir un proceso en medio ácido. La utilización de la cerveza coronó un proceso en la que la etapa de acidificación se garantizaba con ella y se obtuvo el resultado apetecido.

La aportación significativa es que la presencia de elementos ligeros pueden ser protagonistas de los procesos más complejos que requiere la química de las cosas esenciales. Hay mucho camino por recorrer relacionado con la eficacia y lograr que sea una alternativa industrial capaz de competir con el actual procedimiento de obtención de amoniaco. Los beneficios potenciales son de tal envergadura que merece la pena la dedicación y esfuerzo invertido en este campo.

TRAZO 1.11 Pan de la cerveza Pg. 51
Pg. 52 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 1.12

Acidez atómica.

En la antigua Babilonia, al igual que en Egipto se empleaban sustancias en metalurgia, tintes o curtidos de piel animal con unas características capacidades de actuar como disolventes de sustancias indeseables. Los alquimistas precisaban disolver metales para coadyuvar en la obtención del oro a través de la transmutación. Alternativamente, también se emplearon aguas ardientes, obtenidas a partir de cenizas (kali, ceniza vegetal en árabe) que hoy reconocemos como bases. Fue Boyle el primero en describir las propiedades de los ácidos, indentificando su capacidad de disolución de sustancias, otorgar color azul a algunos pigmentos vegetales, que pierden sus características, justamente cuando se ponen en contacto con las bases. Sabor ácido y efervescencia al contacto con el mármol u otros carbonatos.

Lavoisier propuso un argumento para justificar sus propiedades basado en el contenido de oxígeno. Davy a principios del XIX encontró que el ClH, por ejemplo, y otros, no contenía oxígeno y poseía propiedades ácidas lo que promovíó identificar al hidrógeno y no al oxígeno, como el genitor de las características ácidas, reconocido por Liebig a mediados del XIX al comprobar que en las reacciones de los metales con los ácidos se desplazaba al hidrógeno para formar las sales. Faraday remató la espiral al descubrir la conductividad de las disoluciones acuosas de ácidos y bases, lo que motivó la formulación de la teoría de la disociación de los electrolitos en disolución, teorizada por Arrhenius que le llevó a formular que en un medio acuoso, los ácidos se disocian produciendo

TRAZO 1.12 Acidez atómica Pg. 53

iones positivos (protones) e iones negativos (aniones) con lo que ácidos son las sustancias que se disocian produciendo iones H3O y bases las que producen OH.

La dificultad de la teoría de Arrhenius es que solo se puede aplicar a disoluciones acuosas, pero se detectan propiedades ácido-base en medios no acuosos. EL danés Brönsted y el inglés Lowry formularon en 1923 la propuesta que soslaya la necesidad de disolución acuosa, estableciendo que ácidos los las sustancias tanto moleculares como iónicas que pueden ceder iones H+ y bases serían las sustancias que aceptan iones H+. La teoría conllevaba un comportamiento relativo, dado que cuando un ácido cede un protón se forma un anión negativo que tiene capacidad para atrapar a un protón para convertirse en ácido. Ácidos y bases conjugadas se producen poniendo en juego un protón entre uno y la otra. Lewis estudió la distribución de electrones en las moléculas calificadas como ácidos y como bases concluyendo que para que pudieran neutralizarse, era necesario que se estableciera un enlace covalente coordinado en el que los dos electrones del enlace los aporte el mismo átomo, de forma que, ácido es la sustancia capaz de aceptar un par de electrones y base la de cederlos para formar ese enlace covalente coordinado. La propuesta de Lewis incluye las anteriores de Arrhenius y Bronsted Lovry, además de generalizar a medios no acuosos y sin transferencia protónica.

La acidez de las moléculas se determina fácilmente, tanto teórica como experimentalmente y el pH o índice de hidrógeno, definido como el logaritmo de la concentración de iones hidronio contenidos en una disolución, cambiado de signo, caracteriza el índice de acidez de una disolución acuosa. Lo que hasta el presente no era posible es determinar la acidez de un átomo de una superficie. El carácter ácido, como hemos visto es crucial para comprender el comportamiento químico de una sustancia. La facilidad con la que acepta o libera protones, se denomina afinidad protónica. En molécu-

Pg. 54 VALLE DE LA CIENCIA. Valle de Elda A. Requena

las es fácil medirla. Cuando se trata de una superficie, en función de la estructura del entorno las afinidades difieren. Diebold, en la Universidad de Viena ha empleado la microscopía de fuerza atómica para para determinar la afinidad protónica de los átomos a nivel individual.

Hasta ahora era prácticamente imposible determinar la acidez individual de un átomo en una superficie. El interés radica en que, en el ámbito de la catálisis, las diferencias superficiales son notables, y hay que conformarse con valores medios, por muy iguales que sean, en principio, los átomos estudiados, pero se comportan químicamente de forma diferente en función del entorno. De esta forma, hasta ahora, no se podía identificar qué átomos producían qué cosa, con lo que no se podía ajustar a escala atómica en una superficie. La cuestión es relevante, por ejemplo, en la producción de hidrógeno, al buscar catalizadores más eficaces, en lo que se emplea en la actualidad mucho talento y dinero.

Wagner, del equipo investigador narra que estudiaron superficies de óxido de indio y en la investigación colocaron un grupo OH en la punta del microscopio de fuerza atómica que, a su vez, se colocó sobre un átomo concreto de la superficie y se midió la fuerza que actuaba entre el OH de la punta del microscopio y el OH de la superficie de óxido de indio, lo que depende de la distancia que los separa, que permitió determinar la curva de fuerza que caracteriza la atracción entre el oxígeno del óxido de indio de la superficie y los protones que retienen o liberan. De ello depende el comportamiento de la superficie que, desde el punto de vista de la catálisis resulta crucial, porque las irregularidades de aquélla inciden de forma significativa en las reacciones químicas.

Se está cada vez más cerca de desvelar el comportamiento detallado de las reacciones químicas en superficies. Ahora se dispone de tecnología que permite estudiar la afinidad protónica de los átomos de forma individual. La acidez

TRAZO 1.12 Acidez atómica Pg. 55

atómica es una propiedad retornada por la tecnología en ese refuerzo incesante en el que la Ciencia produce Tecnología, que refuerza a la Ciencia, para inducir nuevos interrogantes en esa espiral infinita en la que la profundidad de conocimiento no cesa. Lejos de ideas extravagantes de suficiencia científica para explicar el todo, no parece finalizar ni la curiosidad ni los interrogantes.

Pg. 56 VALLE DE LA CIENCIA. Valle de Elda A. Requena
TRAZO 1.12 Acidez atómica Pg. 57
Pg. 58 VALLE DE LA CIENCIA. Valle de Elda A. Requena

1.13

Luz que alimenta.

Cuando pensamos en la alimentación, casi monográficamente acudimos a la idea material de los alimentos, cultivados o criados, espontáneos o salvajes, incluso naturales y artificiales. No obstante, la idea motriz es la energía y más concretamente la luz solar. La luz visible no solo es esencial para la visión, por tanto, para la ubicación óptima de los seres humanos y también, para la mayoría de los animales, pero de forma singular para los vegetales que en la cadena trófica mantienen a los anteriores de forma definitiva.

La luz es un elemento esencial para los vegetales. Su supervivencia y crecimiento depende de ella. Ni mucha ni poca, los vegetales requieren dosis concretas. Con poca luz sufren, crecen más despacio y afloran debilidades, que se manifiestan con una falta de color y tonos esencialmente amarillentos. Con excesiva iluminación también tienen problemas, como son presentar colores blancos, hojas resecas, aspectos apagados e incluso inclinación de las plantas hacia la parte que evita la luz directa. Como siempre la calidad viene asociada a la moderación.

Pero no pensemos que la iluminación acaba con la presencia del fruto o las hojas en la planta. Como promedio se estima que los vegetales frescos tienen una vida útil de un par de semanas. La luz acelera la transpiración y la respiración y provoca celeridad en la degradación. Una de las razones fundamentales de aplicar cera a las superficies de los cítricos es

TRAZO 1.13 Luz que alimenta Pg. 59 TRAZO

lograr una capa que evite la transpiración que merma el peso de la carga considerablemente en el transporte a los mercados alemanes, por ejemplo. Con el paso del tiempo se ve afectado el color y la textura. Para el comercio es importante destacar que la luz afecta de igual modo a los vegetales no pigmentados y acorta sensiblemente la vida útil pasando, por ejemplo, en el caso de la coliflor de 11 días en ausencia de luz a solamente 3 en presencia de luz. No todas las luces son igualmente eficaces en provocar los procesos de degradación, sus coloraciones, que derivan de la frecuencia o longitud de onda de las mismas, afectan de distinta forma a la degradación, dado que unas frecuencias resultan ser absorbidas y otras no, de forma que, según los procesos de absorción de cada material vegetal, así afecta la luz de las distintas frecuencias

Se ha detectado que en los envases de los vegetales no pigmentados hay mayor presencia de dióxido de carbono y menor de oxígeno en función de estar iluminados o en la oscuridad. La tasa respiratoria es mayor cuando están iluminados, aunque en las plantas está compensado por la actividad fotosintética. La respuesta a la presencia de luz, depende de la parte que se analice, hoja raíz, tallo o inflorescencias y su posición en el tallo. Una vez cosechados los frutos, el mantenimiento óptimo requiere oscuridad y bajas temperaturas, para minimizar la degradación y extender la vida útil en las mejores condiciones. La exigencia del consumidor aflora en la exposición de los materiales para la adquisición, al requerirles las mejores condiciones visuales para ser atractivos.

El proceso encerrado en la producción vegetal, desde el primer momento, consiste en la conversión de la energía lumínica que tiene lugar durante la fotosíntesis. El Sol es quien sostiene la vida en la Tierra, gracias al proceso fotosintético, mediante el cual las plantas convierten la energía solar en energía química y la almacenan en las moléculas orgáni-

Pg. 60 VALLE DE LA CIENCIA. Valle de Elda A. Requena

cas que sintetizan, en los enlaces que se establecen entre los elementos que la componen. Es el mecanismo conocido más eficiente de captura de energía que se conoce y que pretendidamente se imita en los captadores solares de todo género y condición que el ingenio humano ha producido. Una de las formas de conversión de energía solar en energía química requiere el empleo de catalizadores. Son productos naturales, pero la mayoría sintéticos, que facilitan las reacciones químicas, en este caso de formación de enlaces que guarden y mantengan la energía capturada a través de la fotosíntesis. Uno de los grandes retos de la Humanidad consiste en fabricar catalizadores sintéticos, por tanto, que permitan producir combustibles solares gracias a la fotosíntesis. Esto requiere, desde siempre, conocer cómo la Naturaleza efectúa esta conversión para poder replicarla tecnológicamente. Hasta el presente se ha conocido con detalle el funcionamiento de los fotosistemas, que son las enzimas que realizan el proceso, cómo funcionan las moléculas implicadas, como la clorofila, pero los detalles de la conversión de la energía solar en un flujo de electrones que desencadenan las reacciones químicas, en lo que técnicamente se denomina transferencia de carga, es algo que ha permanecido en el anonimato.

El advenimiento de la mecánica cuántica que permite tratar a nivel teórico estos problemas y llevar a cabo simulaciones se ha abordado, tras muchos intentos a lo largo y ancho del planeta científico, estudiar las propiedades del estado excitado de las moléculas de clorofila que están implicadas en el denominado Fotosistema II, como ahora ha llevado a cabo Pantazis y su equipo Asi se ha descubierto que el par específico de cofactores redox, activos, que son una molécula de clorofila y una de feofitina, son los responsables de convertir la energía de excitación de la luz solar en un estado de transferencia de carga, que es el pr4ecursor de las transformaciones siguientes. Se ha detectado direccionalidad en la separación de carga que no están relacionados con pro-

TRAZO 1.13 Luz que alimenta Pg. 61

piedades intrínsecas y disposición de los cromóforos, que es lo que se ha pensado hasta ahora, sino que están gobernados por el campo electrostático de la proteína que los circunda. Este aspecto es de suma importancia, no solo para la comprensión de cuanto ocurre, sino a efectos de la síntesis de materiales que lo puedan imitar. Nos viene a decir que si importantes son los cromóforos, más lo es la matriz sobre la que están situados. De esta forma los componentes son importantes, pero el material en el que se incrustan es decisivo.

Vemos, como muchos de los conocimientos adquiridos llegan a un punto en el que es necesaria una ruptura conceptual para penetrar en la profundidad. La tecnología es imposible que avance, si la Ciencia no desvela las entrañas. Seguramente, espoleados por la necesidad de obtener combustibles que puedan liberarnos del yugo de la no sostenibilidad de los de origen fósil, la Ciencia se haya visto espoleada. No olvidemos la mayor, que focalizamos la conversión de luz solar en energía, que es el proceso que nos alimenta. Gracias a él, vivimos.

Pg. 62 VALLE DE LA CIENCIA. Valle de Elda A. Requena
TRAZO 1.13 Luz que alimenta Pg. 63
Pg. 64 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 1.14

La energía que libera el metabolismo humano, una quinta parte se emplea en el desarrollo de trabajo y el resto se libera en forma de calor, que para mantener las condiciones tanto ambientales como internas en las que nos desenvolvemos. El organismo humano es homeotermo, lo que conlleva que mantiene la temperatura en un intervalo estrecho de alrededor de un grado centígrado. Cuando se dan subidas externas de temperatura se pone en funcionamiento el mecanismo de termorregulación que conlleva cambios fisiológicos. En el caso del ejercicio muscular la intensidad de la actividad genera una disipación de energía que el riego sanguíneo difunde hacia a piel para liberarlo al exterior, pero en los músculos se da una sobrecarga circulatoria a la que va asociada un incremento de la frecuencia cardíaca. Cuando en el exterior hay una disminución de temperatura el flujo sanguíneo se incrementa para perder calor a través de la piel. Ante episodios de una temperatura exterior superior a la corporal la evaporación del sudor es la forma de rebajar la temperatura corporal, produciendo una refrigeración del organismo. Hay muchas variables implicadas en la termorregulación, desde la propia constitución de la persona, hasta las patologías, pasando por la edad, la adaptación o aclimatación, el grado de humedad que incide en la sudoración, el viento que al disminuir dificulta la evaporación del sudor, por descontado el vestido y las enfermedades, muchas de las cuales inciden en la sudoración como las dolencias pulmonares, renales, cardíacas o las diabéticas.

TRAZO 1.14 El cuerpo se enfría Pg. 65
El cuerpo se enfría.

Se propone el hipotálamo como centro de control de la temperatura corporal. Se detectan dos tipos de temperatura, la denominada central, propia del cerebro, vísceras, músculos y sangre y la periférica, propia de la piel, las extremidades, músculos periféricos, etc, que es la variable. Hay factores reconocidos que inciden como sexo, actividad reciente o ingesta. El resultado es una oscilación entre 36.5 ºC y 37,2 ºC. Presenta altibajos con máximo en torno a las 6-10 de la noche y un mínimo entre 2-4 de la madrugada. Los niños entre seis meses y un año presentan el valor máximo de 37,6 ºC.

La cifra de referencia de 37 ºC, proviene del médico alemán Wunderlich que la determinó en 1851, efectuando mediciones muy numerosas a unas 25.000 personas, llegando al intervalo entre 26.2 ºC y 37,5 ºC, que de forma simplificada se ha aproximado en 37 ºC. En 1992 se cuestionó esta referencia a partir de un estudio llevado a cabo en la Universidad de Maryland que concluyó en 36,8 ºC. Recientemente, en 2017, de nuevo un estudio realizado en el Reino Unido llegó a 36,6 ºC. Se han formulado toda suerte de justificaciones, incluyendo la incidencia de los medios tecnológicos disponibles en los distintos momentos en que se realizaron los estudios.

Ahora, la hipótesis es más audaz, proponiendo que la temperatura corporal está bajando. Parsonnet y colaboradores ha analizado datos de hasta 83.900 temperaturas de combatientes en la guerra de Secesión tomadas entre 1862 y 1930 y concluyeron que la temperatura corporal está bajando. Al considerar idénticas tecnologías de medida de temperatura, descartaron que fuera esta la razón que explicara la disminución. Mediciones llevadas a cabo posteriormente concluyeron que las mujeres nacidas en la última década del siglo XIX exhibían una temperatura superior en 0,32 ºC a las nacidas a finales de la década de los noventa del siglo XX. En el caso de los hombres, la disminución ha sido de 0,59ºC. Por térmi-

Pg. 66 VALLE DE LA CIENCIA. Valle de Elda A. Requena

no medio hay un descenso de 3 centésimas por década.

Se indica la incidencia de las infecciones en este proceso. En el siglo XIX eran comunes las enfermedades inflamatorias crónicas. La incidencia de los antibióticos a partir de los años cuarenta del siglo pasado puede justificar el descenso de la temperatura corporal, por el decremento de procesos inflamatorios. Es un teme controvertido, no obstante, por la falta de concreción, en algunos casos, de las condiciones en las que se han tomado las temperaturas. También es cierto que ha habido cambios en estos tiempos que pueden alterar las cifras detectadas. Puede que la temperatura corporal sea una de las señales del cambio. Los sistemas de salud actuales deberían permitir llevar a cabo estudios con datos más precisos que pudieran revelar una disminución de temperatura corporal, paralela, pero de signo contrario al preocupante aumento de la temperatura media exterior que plasma el cambio climático de forma incontrovertible. En este caso, el progreso es el que ha permitido una disminución de la temperatura corporal. Nada dramático, pero reconforta que no todo suba.

TRAZO 1.14 El cuerpo se enfría Pg. 67
Pg. 68 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 1.15

Agua del cielo.

En la atmósfera de nuestro planeta, en forma de vapor, como nubes y cristales de hielo alcanza la cifra de una milésima parte de toda el agua que existe. Esta cantidad, enorme, determina los procesos implicados en la regulación del clima y conforman el ciclo hidrológico el desarrollo de una peculiar química de la atmósfera y, finalmente, establecen el marco en el que se desarrolla la vida. Un 96% está en forma gaseosa y un 4% en forma líquida y hielo, en las nubes.

El agua de la atmósfera se encuentra en su mayoría en forma de vapor de agua, lo que denominamos humedad que, aun siendo menos visible que las formas líquidas o sólidas de las nubes, lluvia, nieve o el granizo, siempre está presente, por muy desértico que sea el ambiente, en cantidades diversas, pero siempre presente. De siempre el hombre se ha preocupado por su presencia, en especial cuando podría haber precipitación y de qué forma lo haría y en qué cantidad retornaría al suelo del que procede. El flujo de energía entre el ambiente y la Tierra determina las características de la atmósfera y el ciclo hidrológico. La energía procedente del Sol llega a la Tierra y resulta absorbida por los distintos materiales que la conforman, que después emitirán esa energía en forma de radiación de otra longitud de onda diferente a la que le llegó. Se establece un balance entre la absorción y la emisión de energía, de forma que. si absorbe más energía que la que emite, se calentará y en caso contrario se enfriará. La distancia de la Tierra al Sol determina la cantidad de energía que llega y resulta ser casi constante. De este balance emerge una temperatura casi constante media de 15 grados. No se suele

69
TRAZO 1.15 Agua del cielo Pg.

decir, pero el vapor de agua atmosférico es el gas de efecto invernadero (natural) más abundante y con mayor capacidad de absorción. Las nubes evitan, al tiempo que la radiación entre de forma franca y reflejan parte de la radiación evitando que se incremente el calentamiento. También devuelven por reflexión radiación procedente de la Tierra. Sin nubes durante el día, los días son muy calurosos. Sin nubes durante la noche, las noches resultan ser muy frías.

La dinámica del agua atmosférica es decisiva. Si toda el agua en forma de vapor se precipitara al tiempo cubriría la Tierra con una capa de 25 milímetros de espesor. Como la distribución en la atmósfera no es homogénea, en el ecuador la altura sería de 50 milímetros y en los polos de apenas 3 milímetros. Si reparamos que anualmente la precipitación puede alcanzar un metro, el agua de la atmosfera se recicla unas 40 veces por año.

Cómo lograr la precipitación a voluntad ha sido una pretensión permanente en la Historia de la Humanidad. Muchos intentos se han dado y se siguen proyectando. La física implicada en estos procesos es implacable y los avances son muy limitados. La cuestión radica en recolectar el agua de la atmósfera de forma eficiente. Los absorbentes pasivos implican una desorción por etapas relacionado con la irradiación solar que, al ser variable, implica la necesidad de sistemas de recolección alternativos. Los compuestos orgánicos formados por polímeros y metales ofrecen la opción de una absorción ininterrumpida al tiempo que liberan el agua. Estos polímeros hidroactivos son capaces de suministrar hasta 6 gramos de agua por gramo de absorbente y por día con humedades relativas de un 90% , logrando una eficiencia de un 71% en la distribución.

La atmósfera es una fuente ubicua de agua potable. Las tecnologías de captura a partir de niebla o rocío permiten disponer de agua en los lugares de producción. Sin embargo,

Pg. 70 VALLE DE LA CIENCIA. Valle de Elda A. Requena

tanto la necesidad de energía, la intermitencia de la producción y las restricciones derivadas del clima, a través del viento, la temperatura y la humedad, han impuesto unos costes en la generación de agua que invalidan las propuestas de su captura. La condensación activa que tiene elevados rendimientos en un amplio rango de condiciones climáticas, se ve penalizada por el coste de la energía eléctrica al requerir entre 600 y 800 watios-hora por kilogramo de agua. Esto ha impulsado el ensayo con desecantes, líquidos o sólidos sobre bases de compuestos organometálicos y disoluciones higroscópicas que capturan agua del aire húmedo de la atmosfera durante el tiempo nocturno y lo desorben o se evapora durante el día, al producirse un incremento de la presión de vapor del contenedor y dándose la subsiquiente condensación del agua absorbida. Combinando los materiales fototérmicos y la luz solar se han construido colectores pasivos de agua atmosférica. Al final, las cinéticas de absorción-desorción son las determinantes, así como la disposición de luz solar diurna, lo que conforma sistemas de etapas absorción-desorción iterativas. Las propuestas mas recientes incorporan materiales mixtos basados en polímeros y estructuras organometálicas. El agua se colecta espontáneamente y de forma eficiente, con un consumo de energía externo mínimo y sin dispositivos condensadores y evaporadores complementarios. El agua queda retenida en un clúster, con enlaces débiles que se regeneran en el proceso de desorción. Una prometedora oferta desde la química útil y verde.

TRAZO 1.15 Agua del cielo Pg. 71
Pg. 72 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 1.16 Segunda vida.

En el planeta Tierra acusamos las consecuencias de la sobreproducción de bienes y la obsolescencia asociada a la factura contemporánea. La desigual distribución de la riqueza entre los pueblos hace que una parte viva en la sobreabundancia, mientras que la otra parte está sumida en la indigencia. El primer mundo está sobrecargado de elementos que ya han caducado en sus prestaciones y pasan a engrosar la larga lista de residuos de los que las sociedades quieren deshacerse. Fue un problemática la producción, con un largo recorrido para tener la idea que resolvía un problema, materializar el invento, concretar su desarrollo y lanzarlo al mercado para cubrir una necesidad, todo lo cual no fue nada fácil, y en algunos casos, los que superaron todas estas pruebas, llegaron a ser una innovación, cuando la sociedad los aceptó por las ventajas de todo tipo, sobre las alternativas que anteriormente cubrían o soslayaban el problema.

Los reportajes gráficos que nos encaran con las dramáticas consecuencias de los plásticos de los que nos desprendemos con gran impunidad, sin ninguna consideración a un Medio Ambiente, del que algunos se consideran, disparatadamente, dueños y señores, nos imponen razonar sobre una conducta, la humana, que puede limitar severamente el futuro de nuestra descendencia, de no poner remedio a los disparates de maltrato al que sometemos nuestro entorno, sin la más mínima consideración. No es de extrañar que haya muchos científicos ocupados en dilucidar mecanismos, procesos, alternativas, que permitan reconvertir los residuos en productos de nuevo uso.

TRAZO 1.16 Segunda vida Pg. 73

Los plásticos son esos objetos de deseo que han permitido un avance notable en el abaratamiento y disposición de instrumentos de todo tipo y piezas de cualquier diseño, sustitutivos de los caros y trabajosos objetos equivalentes metálicos o de madera, según el caso. De los múltiples tipos de plásticos que circulan por el mercado, las poliolefinas, representan mas de la mitad de los plásticos que diseñamos, en forma de juguetes, envases de alimentos, botellas de agua, piezas de tejido, vehículos, muebles, y un largo etcétera. Podemos distinguir dos grandes clases, el polietileno (PE), tanto el de baja densidad, el lineal de baja densidad y el de alta densidad y, por otro lado, el polipropileno (PP). Simples o con aditivos logran convertirse en productos estables, presentar rigidez incorporando talco, compuestos minerales, incluso carbono y fibra de vidrio. Desde el punto de vista técnico se han logrado productos fantásticos, fuertes, ligeros, estables, resistentes, de forma que sus aplicaciones han sido muy extendidas. La cuestión es qué hacer cuando ya no lo necesitamos.

La madera y sus derivados comienzan su degradación directamente bajo la acción de las componentes ultravioleta del espectro electromagnético. Cambia de color y el deterioro ya se observa a la vista en las primeras capas de la madera. La humedad atmosférica altera constantemente sus dimensiones. Como material orgánico que es, se ve sometida a la acción de los microorganismos que encuentran en ella sustento para sus microscópicas vidas: hongos cromógenos, de pudrición que atacan a la pared celular, mohos que pueden convertirse en agentes de pudrición o los insectos que se alimentan de la celulosa de la madera.

En el caso de los plásticos estos procesos no se dan y recordemos que ofrecen resistencia y duración de vida que implican dificultades para descomponerlos. La propia estructura de las poliolefinas, no incluyen grupos químicos que pudieran ser interesantes como productos derivados en el

Pg. 74 VALLE DE LA CIENCIA. Valle de Elda A. Requena

proceso de desintegración o deconstrucción. Los productos derivados de la descomposición tienen menor interés para el uso posterior, lo que viene a incidir en el interés económico que pudiera tener el proceso de reciclaje.

La propuesta que se hace Aaron Sadow desde un Instituto de investigación sobre reciclado de plásticos, consiste en utilizar lo que se conoce sobre los plásticos en la actualidad, en relación con el ensamblaje de las largas cadenas de polímeros. Es decir, actuar al revés, rompiendo algunos enlaces de carbono-carbono de las cadenas formadas en la polimerización y manejar esas cadenas rotas para transferirlas a un grupo terminal de aluminio para que sea capaz de generar especies reactivas. En resumen, se trata de polimerizar empleando catalizadores, como si se tratara de polimerización de alquenos, cosa que es bien conocida. Estos productos intermedios que se obtienen se convierten, mediante procesos bien conocidos en alcoholes o ácidos grasos, útiles en procesos de química sintética, para producir desde detergentes, hasta cosméticos. La catálisis permite controlar la longitud de las cadenas que se forman. Los productos así obtenidos, tienen la virtualidad de ser biodegradables, cosa que no era posible con los polietileno y polipropileno de partida. Los productos finales no se acumulan en el medio ambiente, sino que tienen un ciclo final de vida. La segunda vida, es así, biodegradable. Cierre de ciclo, elegante y efectiva. Con segunda vida, vale la pena.

TRAZO 1.16 Segunda vida Pg. 75
Pg. 76 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 1.17

Del calor a la electricidad.

Salvo algunos que se sitúan al margen, voluntariamente, todo el mundo sabe y ha experimentado ese enunciado del primer principio de la Termodinámica que dice que "la energía no se crea ni se destruye, sino solamente se transforma". Por tanto, todas las formas de energía son equivalentes y la conversión entre ellas está asegurada. La energía lumínica, emblemática de la luz solar, bien sabemos que se captura y se le convierte en calor o en electricidad, a través de los procesos denominados térmico o fotovoltaico, respectivamente. Menos conocida, pero no por ello menos usual resulta ser la conversión de energía calorífica en energía electromagnética, energía lumínica, que es el proceso por el que el Sol nos alimenta de forma constante. Cualquier fuente calorífica genera ondas electromagnéticas en función de la temperatura a la que se encuentre. Lo hemos comprobado en muchas ocasiones cuando nos hemos situado en las proximidades de una chimenea y hemos comprobado que, estando a distancia, el calor de la leña ardiendo, nos alcanza a manos, piernas y cualquier órgano que se encuentre próximo a ella. Pasa la energía a través del aire desde los leños incandescentes hasta nosotros mediante el mecanismo de radiación, que conlleva la generación de ondas electromagnéticas, en este caso pertenecientes a la región infrarroja del espectro electromagnético. Elevando la temperatura, la radiación que se produce es de mayor frecuencia y pasa a ser del visible, como ocurre con el Sol y esa es la que llamamos luz. Incrementado toda-

TRAZO 1.17 Del calor a la electricidad Pg. 77

vía mas la temperatura la emisión sería en la región ultravioleta y así sucesivamente hasta alcanzar los rayos X, los rayos gamma y los rayos cósmicos. Quedándonos con el fundamento: el calor que es una forma de energía, se convierte en otra forma de energía, en los casos citados, electromagnética.

La energía eléctrica es otra manifestación posible de la energía. Procede de la conversión de la energía hidráulica o térmica o nuclear o fotovoltaica o eólica o geotérmica o mareomotriz o, en general, de cualquier otra forma posible. Los conductores eléctricos son materiales que transportan la energía gracias al movimiento de los electrones del material del que están constituidos. En 1834 el físico francés Peltier descubrió un efecto consistente en que cuando una corriente eléctrica atravesaba una soldadura entre dos metales distintos, ésta absorbía o generaba calor dependiendo del sentido en el que fluía la corriente en la soldadura y lo hacía proporcionalmente al cuadrado de la intensidad de la corriente. La incidencia, hoy, de este descubrimiento es notable, por cuanto, sin fluidos, sin pérdidas, ni elementos móviles, podemos tener refrigeración que, como dijimos en otra ocasión, puede servir para provocar la condensación del agua contenida en la atmósfera y hoy se usa para refrigerar muchos ordenadores, en particular los portátiles. La clave para entender este proceso es que los electrones a baja temperatura ocupan todos los niveles de energía posibles, comenzando en el más bajo y ocupados sucesivamente en orden creciente de energía. La máxima energía alcanzada se denomina energía de Fermi. Al poner en contacto dos materiales metálicos, los electrones pasan del metal con niveles más altos al metal que los tiene más bajos, hasta que se igualan. Esto supone que un material adquiere carga positiva y el otro negativa, según pierda o gane electrones. Pero esto implica que aparece un potencial eléctrico que Volta identificó en su día y por ello se emplea como referencia su nombre en la unidad de potencial: voltio. Al aumentar la temperatura algunos electrones aban-

Pg. 78 VALLE DE LA CIENCIA. Valle de Elda A. Requena

donan sus niveles para ocupar algún nivel por encima del de Fermi. El material es determinante para lo que ocurre en cada una de las partes de la soldadura. Al hacer circular la corriente cambia la energía de los electrones en la soldadura y aparecerá una diferencia de potencial, lo que se denomina discontinuidad, que genera una absorción de calor o un desprendimiento del mismo, proporcional a las cargas que atraviesan la soldadura, es decir la intensidad de la corriente. A esto se denomina efecto Peltier. Ai pues, una corriente a través de una soldadura, genera una diferencia de temperatura.

Por el contrario si generamos una diferencia de temperatura en una soldadura, en la parte caliente los electrones se verán excitados en la parte caliente, que serán menores en la parte fría, con lo que fluirán de la parte caliente a la parte fría. De esta forma una diferencia de temperatura genera una corriente eléctrica, a aparecer un potencial, que se incrementará hasta que el campo resultante detenga el flujo de cargas. Si formamos un bucle, al dar la vuelta completa, como la diferencia de potencial no será nula, se establece una corriente. En resumen, si calentamos las soldaduras a diferentes temperaturas tenemos un generador de corriente eléctrica, debido al efecto Seebeck, que es la denominación del proceso. Este es el proceso con el que se construyen los módulos termoeléctricos. Se ha empleado en las sondas espaciales fijando el foco caliente con material radiactivo y el foco frío con un radiador que disipa el calor al espacio.

Capacidad termoeléctrica, resistividad eléctrica y conductividad térmica son las magnitudes clave. Se ha evidenciado que con una diferencia de 300 ºC se alcanza un rendimiento de un 8% del ideal y con diferencias de unos 25 grados se alcanza un 1%. Nuestra piel con la propuesta de relojes termoetéctricos o las pulseras termoeléctricas para alimentar móviles. Aquí juega un papel decisivo la temperatura ambiental, que de ser 10 ºC a ser 35 ºC puede representar un 8ªC en el primer caso al haber una diferencia de unos 25ºC a

TRAZO 1.17 Del calor a la electricidad Pg. 79

prácticamente nada en el segundo caso. La automoción es un campo fértil para esta propuesta al disipar en forma de calor hasta dos tercios de la energía nominal del combustible fósil y los gases de escape pueden alcanzar hasta 700 ºC, por lo que si mantenemos un refrigerante a unos 100 ºC el rendimiento puede alcanzar hasta un 60 %.

Pg. 80 VALLE
CIENCIA.
Requena
DE LA
Valle de Elda A.
TRAZO 1.17 Del calor a la electricidad Pg. 81
Pg. 82 VALLE DE LA CIENCIA. Valle de Elda A. Requena

Loros estocásticos: Bocas sin cerebro.

El lenguaje popular sentencia a los que hablan demasiado, "sin fuste", como papagayos y así califica a los que repiten la "lección", "de pe a pa" sin titubear en la toma de aliento. Generalmente, la sociedad soslaya a todos aquellos que hablan sin descanso, sin permitir el más mínimo respiro a la reflexión. Todos conocemos a alguien (él o ella) con quien es difícil hablar, porque no dejan respiro, de forma que puedas colocar tu frase, tu opinión, tu punto de vista, porque no logras tener entrada en la conversación. Yo tengo una anécdota con una persona que fue Consejera de Educación con la que coincidí en la cola del mostrador de Iberia en el antiguo aeropuerto de Alicante; tras un buen rato que tardamos en llegar al mostrador, anduvimos por la planta baja hasta alcanzar las escaleras mecánicas, después subimos a la primera planta, anduvimos hasta alcanzar el puesto de la Policía Nacional, pasamos el control, giramos a la derecha, anduvimos por un pasillo infinito con las salas de espera a la izquierda, una tras otra, hasta la última, como a unos trescientos metros y al llegar me dijo " a ver si nos vemos otro día que no has dicho nada"; la cosa no era que no hubiera contestado, sino que no me dio la oportunidad. Tampoco ha habido oportunidad después, cosa asociada frecuentemente a los que hablan demasiado, que no son creíbles sus propuestas, puesto que son sin compromiso, con el mismo valor de todo cuanto han dicho. La irreflexión es síntoma de falta de compromiso, de veracidad, de credibilidad. Así solemos los humanos juzgar a los que practican el "arte" del "hablar sin descanso", con poca o nula intervención del cerebro.

TRAZO 1.18 Loros estocásticos: bocas sin cerebro Pg. 83
TRAZO 1.18

La cuestión que planteamos a la vista de este escenario, es la consabida capacidad de que se está dotando en la actualidad a los robots provistos de inteligencia artificial. Hace relativamente poco tuvo lugar una sesión pública en la que intervinieron el escritor Arturo Pérez Reverte y Chema Alonso, por parte de Telefónica sobre el proyecto Maquet que trata de sumirse en el análisis de cómo la IA puede copiar, reproducir o cambiar el estilo de un autor. Habían entrenado un sistema de IA empleando los servicios de Google Cloud sobre los textos de "El Capitán Alatriste" y habían reescrito de forma autónoma un pasaje de Iñigo Balboa y el espadachín Malatesta, que pretendidamente intentaba simular el escritor, copiando el estilo. El evento se enmarcaba en los titulados Encuentros Zenda Libros: ¿Es posible una IA que escriba como un autor de novelas? Circula por Internet la grabación. Se puede concluir que la ayuda que se puede obtener de la IA a la hora de la creación literaria puede ser de interés, para escritores de categoría intermedia. Siempre como ayuda. Obviamente en los primeros balbuceos de la IA en este campo, no es posible esperar otro nivel, pero demos tiempo al tiempo.

Han pasado muchas cosas en muy poco tiempo. El modelo que se ha rescatado para desarrollar las aplicaciones de la Inteligencia Artificial consiste en utilizar las redes neuronales como gestores de conocimiento. De este modo, entrenando previamente a un sistema, supervisado o no, con la información de que se disponga, llega a "aprender" y succionar el conocimiento. OpenAI ha desarrollado la serie de plataformas GTP-n (Generative Pre-trained Transformer) que son modelos de lenguaje autorregresivo que emplea el aprendizaje profundo para producir textos que simulan la redacción humana. La versión GTP-2 la censuró su productor por considerarla demasiado peligrosa. La actual versión GTP-3 es un modelo de lenguaje que predice lo siguiente en función de los datos previos. Eso quiere decir que cada vez que lo hace, para responder a una pregunta, puede dar distinta respuesta. El entrenamiento ha sido efectuado usando todos los libros

Pg. 84 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 1.18 Loros estocásticos: bocas sin cerebro

escritos y disponibles en la red, desde Wikipedia hasta millones de páginas web y documentos con rigor científico. Tras esa "lectura" creó las conexiones propias de las redes neuronales ncluyendo hasta 175.000 millones de parámetros organizados en 96 capas (la GTP-2 solamente contenía 1.500. GTP-3 puede programar, diseñar y conversar sobre economía y política.

La cuestión es que el sistema no comprende el contexto y dado que en el aprendizaje ha empleado muchos millones de páginas, la respuesta puede ser alucinante. El hecho que provocó la retirada de la versión GTP-2 fue el sesgo que se advertía en las respuestas. De ello se infiere que la nube no está equilibrada, ni armonizada, de forma que, en suma, se obtiene una interpretación con sesgo racista o de género, por ejemplo, como es el caso, mucho más cuando no se utiliza en su totalidad Internet, Básicamente no es ese el proceso que sigue el humano en el aprendizaje. Al no estar supervisado, las conclusiones pueden ser contradictorias. En suma, el sistema no comprende.

De siempre se ha preferido la inteligencia a la fuerza bruta. La situación actual de la escritura autónoma es la de una boca sin cerebro, lo denominado como "loro estocástico". Ser consciente del contexto implica estar dotado de sentido común. Eso es lo que falta, sentido común. En el fondo, el aprendizaje humano se lleva a cabo en el seno de un sistema supervisado, ya que el niño, continuamente resulta "corregido" en sus interpretaciones erróneas, evitando el sesgo asociado al aprendizaje no supervisado que evita el suministro de criterios para ir clasificando el conocimiento en sus niveles apropiados, respondiendo a parámetros culturales, sociales, humanos, en suma. La consecuencia es que no es afortunado el conocimiento acumulado sin ningún criterio de valoración. Internet solamente no es suficiente, por mucho que pueda contener. Son, en el fondo cuestiones que nos hacen replantearnos la información que extraemos directamente de

Pg. 85

internet, sin filtros y otorgando credibilidad y confianza a contenidos no supervisados. En algún momento surgirán las buenas prácticas en Internet que nos permitan confiar en aquello a lo que accedemos, cosa que hoy no presenta garantía alguna. Al igual que en la vida ordinaria que hay muchos "papagallos", en Internet se reproducen, quizás en un nivel corregido y aumentado. Cuando abramos una página, preguntémonos si es el caso y pasemos página, porque es difícil que nos interese, cuando no hay ninguna seguridad en que a lo que vamos a acceder no tiene por qué estar garantizado.

El camino que deambula la Inteligencia Artificial es arduo y complicado, pero tiene una virtud de mucho alcance, porque nos obliga a replantearnos nuestras propias acciones, nuestras reflexiones y en el fondo nuestra escala de valores, al enfrentarnos con la crudeza de los resultados de cuyo análisis deducimos mucho sobre nosotros mismos. Y esto, siempre es muy positivo.

Pg. 86 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 1.18 Loros estocásticos: bocas sin cerebro Pg. 87

Pg. 88 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 1.19

Nuevos ojos.

Siendo la vista, como es, uno de los órganos humanos más importantes y valiosos, técnicamente es muy deficiente, por cuanto su rango de operación es la región espectral más estrecha del espectro electromagnmético. La denominada región Visible del espectro solamenete cubre entre unos 400 nanometros y 750 nanometros. Cualquier otra región especrtral, desde ondas de radio a rayos cósmicos, pasando por microondas, inferrarrojo, ultravioleta, rayos X, rayos gamma tienen un ancho de banda enormemente superior a la región visible. Es mucho mas lo que no vemos que lo que vemos, sería el resumen.

Desde siempre, ha sido un objetivo lograr ampliar el margen del rango de visión humano. Lo más grande se acometió con los telescopios y lo mas pequeño con los microscopios. Unos y otros permitieron estudiar y conocer cosas o muy grandes o demasiado pequeñas para que la longitud de onda del visible permitiera percibirlas. La física de la visión requiere emplear una longitud de onda inferior al tamaño del objeto que se observa, ya que de lo contrario la interacción de la luz con el objeto no podrá darse. Si nuestro metro no incluye divisiones de milímetro, difícilmente podemos apreciar esta longitud. De forma similar, longitudes de onda mas cortas, permiten escudriñar entornos de tamaño más pequeño.

La fotografía no es mas que un intento de suplir al ojo humano capturando lo que es capaz de "ver" un dispositivo.

TRAZO 1.19 Nuevos ojos Pg. 89

Nació en Francia en 1826 de la mano de Nicéphore Niépce, que empleó una lámina de peltre, que es una aleación de estaño, cobre, antimonio y plomo, blando, de color blanco, poco reactivo y que funde en torno a 200 ºC. La placa la recubrió de betún diluido en aceite de lavanda y registró la imagen tras ocho horas de exposición. Ha evolucionado mucho la técnica hasta hoy, en que en los teléfonos inteligentes que utilizamos tecnología de vanguardia que multiplica por un factor muy elevado las capacidades de las mejores cámaras de hace muy poco tiempo.

Ahora el reto está situado en ver más y mejor en las cámaras instaladas en los teléfonos y dispositivos de visión artififcial. El infrarrojo de onda corta, designado por el acrostico anglosajón SWIR (Short Wave Infra Red) permite registros de imágenes en escala de grisis muy nitidas. La explicación es que, al contrario que la luz visible, las longitudes de onda del infrarrojo de onda corta, penetra sin dispersarse apenas a través de la lluvis, la niebla o la bruma. La luz visible se ve dispersada por el agua del aire y origina una especie de velo que desdibuja os detalles al limitar la visibilidad. Por tanto, las cámaras que incluyen este tipo de longitudes de onda del infrarrojo de onda corta proporcionan una vision clara, muy valiosa cuando se trata de incorporarla a vehículos autónomos o en la fotografía aérea, por ejemplo.

Este tipo de cámaras ya existe, solamente que es una tecnología costosa. La tecnología básica de las cámaras es de silicio y combinarla con otras tecnologías no es sencillo. La propuesta actual consiste en combinar capas de semiconductores que incluyen germanio y germanio-estaño, del grupo del silicio. Esta disposición permite la integración de tecnologías basadas en uno u otro elemento por su similitud en la Tabla Periodica. Esta tecnología de capas permite que cada una de ellas genere pixels en los chips y cada pixel es capaz de capturar la misma imagen en distintos rangos del espectro infrarrojo. El efecto es como si viéranos un objeto aplicando distin-

Pg. 90 VALLE DE LA CIENCIA. Valle de Elda A. Requena

tas luces. En las pinturas se puede utilizar el pixel de GeGeSn y se detectan las capas de pintura y se puede analizar la evolución de la obra identificando lo que hay debajo de lo pintado, que es el rastro que ha dejado impreso el pintor.

El detector que ahora se propone es sensible a dos rangos del especro infrarrojo de forma fácil, invirtiendo la tensión de polarización. Así, se pasa de forma muy sencilla de detectar luz del infrarrojo cercano a detectar infrarrojo de onda corta, con lo que se amplia el rango de aplicación del sensor. El interés adicional de esta opción es la posibilidad de detectar sustancias con distintas propiedades de absorción en los dos rangos de longitudes de onda operativos. Los líquidos incoloros son un campo de aplicación muy importante. El ojo humano no es capaz de detectar diferencias en liquidos siendo incoloros, por ejemplo benceno y tolueno, o alcohol. Las propiedades de absorción en los dos rangos de longitudes de onda son diferentes y una cámara que permite examinar en el rango NIR y SWIR, puede hacerlo.

El progreso científico permite el desarrollo de nuesvas tecnologías, que a su vez potencian otras ya establecidas. Es una cadena de unión que nunca acaba, sino que suscita el descubrimiento de nuevos eslabones. Mejoramos las condiciones de vida a través de la investigación y el desarrollo que lo incouye en herramientas y dispositivos que lo utilizan para potenciar las capacidades humanas. Cesar o interrumpir este proceso, como ha ocurrido en nuestro pais demasiadas veces y con intensidad variable, es una torpeza que nos sitúa en desventaja con respecto a otros que son capaces de entender la importancia de la investigación. Hemos llegado hasta el punto en que nos encontramos, gracias a la investigación y el desarrollo del conocimiento. Pero tenemos que llegar mucho más lejos. No hay por qué poner límites. Lo mejor está por llegar.

TRAZO 1.19 Nuevos ojos Pg. 91
Pg. 92 VALLE DE LA CIENCIA. Valle de Elda A. Requena

Mesón encanto.

El principio del Universo, en el que se formó el espacio, el tiempo y la materia fue bautizado irónicamente, si no sarcásticamente, como Big Bang o gran explosión, por el promotor de la teoría que competía con esta concepción, Fred Hoyle, partidario de un universo estacionario, denomina Big Bang o gran explosión. La propuesta original y anterior, fue de Lemaitre que propuso el concepto de átomo primigenio, coincidente con aquélla. Cuando el modelo cosmológico de la teoría estándar aborda el tratamiento de la singularidad en el origen llega a una expansión y creación conjunta de materia, espacio y tiempo. Una misma cantidad de materia, que incrementa su densidad, conforme se acerca a la singularidad, donde la densidad de materia y energía se hacen infinitas, superando a la densidad de Planck, con lo que no son aplicables las ecuaciones, incapaces de tratar los infinitos que se generan. En este punto deja de ser aplicable la teoría de la relatividad para poder explicar lo que ocurre y habría que recurrir a una teoría que incorporase la gravedad en el marco de la mecánica cuántica, no accesible todavía en la actualidad. Lo que pudiera haber ocurrido antes del Big Bang no es accesible, al no haber tiempo antes de su creación en aquel, al margen de alguna propuesta como la del modelo cíclico en que el Universo se expande, hasta que comienza a contraerse y otra vez a empezar.

Una cuestión relevante implicada en el Big Bang es la simetría entre materia y antimateria. El significado íntimo de

TRAZO
1.20
TRAZO 1.19 Mesón encanto Pg. 93

este concepto es similar a una equivalencia. Materia y antimateria son aparentemente idénticas (eso es simetría), en el interior de los átomos se mantiene la apariencia, aun cuando las cargas eléctricas se han intercambiado. Son idénticas, aun cuando las cargas han cambiado. Las partículas constituyen la materia, las antipartículas forman la antimateria. Tenemos acceso a antipartículas desde hace mucho tiempo, como los positrones y los antiprotones, antipartículas de los electrones y de los protones. Los positrones fueron predichos por Dirac en 1928 y descubierta experimentalmente en 1932 por Anderson al fotografiar huellas de los rayos cósmicos en una cámara de niebla. Convive con nosotros en una técnica a la que alguna vez nos han sometido o hemos oído que se ha aplicado en algún allegado nuestro, como es el PET (Tomografía por Emisión de Positrones) que es una técnica de medicina nuclear que obtiene imágenes de la distribución de determinadas moléculas, proporcionando su función, lo que complementa a otra técnica denominada TAC (Tomografía Axial Computerizada) o la RMN (Resonancia Magnética Nuclear) para producir imágenes útiles en oncología, u otras ramas de la medicina. Dirac pensó y escribió que no esperaba que se viese nunca al positrón. También se equivocaba, como vemos.

Sabemos producir y manejar individualmente antipartículas, como vemos en el PET, pero lo que no logramos todavía es provocar la interacción de dos antipartículas como un positrón y un antiprotón para lograr un átomo de antihidrógeno. La cuestión de fondo es que, si en el Big Bang se formaron materia y antimateria en equilibrio, cómo se explica que no se aniquilaran reconvirtiéndose en energía. Un equipo de físicos de la Universidad de Oxford, están efectuando experimentos en el Gran Colisionador (LHC) y acaban de anunciar la observación de una extraña partícula que aparece en el cambio de materia a antimateria, que pudiera contener el germen para explicar por qué no ocurrió la aniquilación tras el Big Bang.

Pg. 94 VALLE DE LA CIENCIA. Valle de Elda A. Requena

La partícula descubierta que han bautizado como "mesón encanto", contiene las dos versiones del quark de materia y antimateria y pasa de un estado al otro. Los seis tipos de quarks conocidos: arriba, abajo, extraño, cima, fondo y encanto y sus correspondientes antiquarks, constituyen la materia y la antimateria, uniéndose en tríos para generar los protones y los neutrones, que están en la intimidad de todos los núcleos atómicos conocidos. Todo está constituido por átomos. La cuestión es que mientras que todas las partículas hasta ahora conocidas, tienen una antipartícula de las mismas características, con excepción de la carga eléctrica que es la opuesta, el mesón encanto, ahora descubierto, puede ser él mismo y su antipartícula a la vez. Una vez más nos enfrentamos con la superposición cuántica, que en este caso da lugar a dos partículas, con su propia masa, versiones de la más pesada y la más ligera. El mesón encanto oscila entre partícula y antipartícula. Las diferencias de masa detectadas son de 10-38 gramos. La cantidad de experimentos realizados aporta datos que en el análisis estadístico supera la significación de "cinco sigma", requerido en la física de partículas.

La conclusión es que las oscilaciones entre la forma de materia y antimateria son muy lentas en este caso y es muy difícil medir antes de que el mesón se descomponga, ya que se desintegra antes de que haya tenido la oportunidad de oscilar. La gran cantidad de datos que aporta el colisionador, LHC, soslaya esta dificultad, para alcanzar las conclusiones, registrando hasta más de 30 millones de mesones encanto, tras su formación en las colisiones del LHC.

Una vez observado el hecho, ahora toca comprender el proceso de oscilación, en la seguridad de que estamos ante la clave de la explicación de la asimetría de materia - antimateria en un Universo que cifrando su génesis en el Big Bang, no debiera aportar nada más que simetría. Puede que sea la clave para explicar cómo es que el Universo está en pie, y

TRAZO 1.20 Mesón encanto Pg. 95

nosotros podamos disfrutarlo, con las "pejigueras" que a veces nos aporta. Una ventana a nuestro origen que puede desvelar uno de los mayores misterios de nuestra existencia.

. Pg. 96 VALLE DE LA CIENCIA. Valle de Elda A. Requena
TRAZO 1.20 Mesón encanto Pg. 97
Pg. 98 VALLE DE LA CIENCIA. Valle de Elda A. Requena

SOLUCIONES A LAS PALABRAS CRUZADAS

DEL TRAZADO 1

SOLUCIONES AL TRAZO 1.1

Expresión acústica.

A. Requena VALLE DE LA CIENCIA. Valle de Elda Pg. 103

SOLUCIONES AL TRAZO 1.2

Naturaleza creativa.

Pg. 104 VALLE DE LA CIENCIA. Valle de Elda A. Requena

SOLUCIONES AL TRAZO 1.3

del espacio.

Vagabundos
A. Requena VALLE DE LA CIENCIA. Valle de Elda Pg. 105

SOLUCIONES AL TRAZO 1.4

Cuántica neural.

Pg. 106 VALLE DE LA CIENCIA. Valle de Elda A. Requena

SOLUCIONES AL TRAZO 1.5

A. Requena VALLE DE LA CIENCIA. Valle de Elda Pg. 107
Un agujero negro en el barrio.

SOLUCIONES AL TRAZO 1.6

Verde oscuro kernowita.

Pg. 108 VALLE DE LA CIENCIA. Valle de Elda A. Requena

Sonidos y emociones.

SOLUCIONES AL TRAZO 1.7
A. Requena VALLE DE LA CIENCIA. Valle de Eld Pg. 109

SOLUCIONES AL TRAZO

Hacia un superorganismo.

1.8

Pg. 110 VALLE DE LA CIENCIA. Valle de Elda A. Requena

SOLUCIONES AL TRAZO 1.9

COVID 19 en aguas negras.

A. Requena VALLE DE LA CIENCIA. Valle de Elda Pg. 111
Pg. 112 VALLE DE LA CIENCIA. Valle de Elda A. Requena
SOLUCIONES AL TRAZO 1.10 En un cronon.

SOLUCIONES AL TRAZO 1.11

Pan de la cerveza.

Requena VALLE DE LA CIENCIA. Valle de Elda Pg. 113
A.

SOLUCIONES AL TRAZO 1.12

Acidez atómica.

Pg. 114 VALLE DE LA CIENCIA. Valle de Elda A. Requena

SOLUCIONES AL TRAZO 1.13

Luz que alimenta.

A. Requena VALLE DE LA CIENCIA. Valle de Elda Pg. 115

SOLUCIONES AL TRAZO 1.14

El cuerpo se enfría.

Pg. 116 VALLE DE LA CIENCIA. Valle de Elda A. Requena

SOLUCIONES AL TRAZO 1.15

Requena VALLE DE LA CIENCIA. Valle de Elda Pg. 117
Agua del cielo. A.

SOLUCIONES AL TRAZO 1.16

Segunda vida.

Pg. 118 VALLE DE LA CIENCIA. Valle de Elda
Requena
A.

SOLUCIONES AL TRAZO 1.17

Del calor a la electricidad.

Requena VALLE DE LA CIENCIA. Valle de Elda Pg. 119
A.

SOLUCIONES AL TRAZO 1.18

Loros estocásticos: bocas sin cerebro.

Pg. 120 VALLE DE LA CIENCIA. Valle de Elda A. Requena

SOLUCIONES AL TRAZO 1.19

Requena VALLE DE LA CIENCIA. Valle de Elda Pg. 121
Nuevos ojos. A.

SOLUCIONES AL TRAZO 1.20

Mesón encanto.

Pg. 122 VALLE DE
CIENCIA. Valle de Elda
Requena
LA
A.

A. Requena VALLE DE LA CIENCIA. Valle de Elda Pg.123

TRAZADO 2

TRAZO 2.1

Proteínas con la basura.

Los plásticos son un auténtico problema una vez que los catalogamos como residuos. La contaminación por plásticos es una de las cuestiones de auténtico nivel global que amenaza con tener consecuencias desastrosas de no mediar medidas que lo controlen. Han proporcionado un servicio a la Humanidad de primer orden, pero hemos abusado de ellos, despreciando la incidencia de unos productos artificiales que contaminan en una proporción preocupante, tierras y mares, superficies sólidas y fluidos planetarios vitales, mucho más allá del efecto estético que afean nuestra existencia.

Los números son impresionantes, porque si consumimos unos 30 kilos anuales de plástico per cápita, estamos aportando unos 210 millones de toneladas anuales a nivel planetario, cifra que se convierte en aterradora si extendemos la estimación a una generación o a la vida, según la esperanza de la misma actualmente.

Las opciones de reciclaje actualmente son varias. Las alternativas más neutras son las que tratan los plásticos biodegradables, cuyo proceso de degradación genera residuos que hay que almacenar o enterrar. Esto exige terreno disponible para tal finalidad, lo que detrae territorio para fines pri-

TRAZO 2.1 Proteínas con la basura Pg. 127

marios, en el mejor de los casos, porque no es creíble que sean otro tipo de terrenos los que se puedan dedicar a estos menesteres, en ninguna parte. Por otro lado, los productos del proceso de biodegradación no son neutros y alteran las condiciones del ecosistema próximo. El proceso de descomposición de vasos, utensilios, bolsas, etc, biodegradables sufren una descomposición anaeróbica liberando metano, que es justamente uno de los gases implicados en el calentamiento global. Un elevado número de vertederos permite el escape de este gas a la atmósfera. A nivel mundial puede superar el 30% de las instalaciones. Solamente cuando acaban en depósitos para compost o abono en los que la descomposición es aeróbica la transformación es en dióxido de carbono y agua, pero, al menos se evita el metano. La cuestión que se enfrenta es como tratar el problema del reciclaje de plásticos. Una vez más la Naturaleza mara e indica una salida. La sabiduría no está donde queramos, sino donde se encuentra. El mundo científico y tecnológico no descansa buscando soluciones que nos permitan vivir mejor y hacer lo propio con los que nos sucederán.

Las proteínas son los compuestos orgánicos más importantes relacionados con nuestra existencia como humanos. No se almacenan en el organismo, como ocurre con los carbohidratos y los lípidos, con lo que no tenemos reservas de proteínas, por ello la exigencia de ingerirlas en cantidades apropiadas a nuestro organismo en cada momento. Una de sus importantes funciones es la implicación en la generación, mantenimiento y regeneración del armazón celular de nuestro organismo y de los seres vivos en general, animales o vegetales. Apartir de ellas se generan las enzimas y las hormonas. Huesos, músculos, piel, sangre y cartílagos se deben a ellas. Nuestro mundo está hecho de proteínas.

Las proteínas son polímeros formados en largas cadenas de moléculas de referencia o monómeros denominados

Pg. 128 VALLE DE LA CIENCIA. Valle de Elda A. Requena

aminoácidos, cuya secuencia determina sus propiedades. Los aminoácidos son como las cuentas de un collar que, por analogía, sería la proteína. Los colores de esas cuentas son diversos (los distintos aminoácidos) y la combinación de colores es lo que da la estructura a la cadena y determina sus propiedades. Las células están dedicadas a romper esos collares de proteínas separando los aminoácidos que lo forman y volverlos a juntar de forma diferente para generar otras secuencias de aminoácidos, es decir otras proteínas nuevas. Esta forma de actuar inspiró a Giaveri, Stellacci y Maerkl, para diseñar un proceso que es una réplica de esta forma natural de actuar. Dividiendo proteínas en los aminoácidos constituyentes y a continuación disponiéndolos en un sistema biológico, no celular, volvieron a ensamblar los aminoácidos construyendo nuevas proteínas que, al tener estructuras distintas, sus aplicaciones eran diferentes. Los autores dan un ejemplo de como la seda, se transforma en una proteína muy utilizada en biomedicina.

La analogía está establecida. Los plásticos son polímeros, exactamente igual que las proteínas. Solamente se diferencian en las unidades que los componen, en el caso de las proteínas los aminoácidos y en el caso de los plásticos monómeros diversos. Hay dos grandes clases de plásticos, los termoplásticos y los termoestables. En los primeros no cambia la estructura química en el proceso de calentamiento, con lo que se calientan y moldean cuantas veces queramos. Ahí están incluidos el polietileno (PE), el polipropileno (PP), el poliestireno (PS), el poliestireno expandido (EPS), el policloruro de vinilo (PVC), el politerftalato de etilenglicol (PET), etc. en cambio los termoestables si sufren cambios químicos cuando se moldean y no se pueden volver a modificar. Están incluidas las resinas epoxídicas, las fenólicas y los poliuretanos entre ellos. Pero ambos tienen en común con las proteínas que los mecanismos de éstas se pueden extender a aquéllos.

TRAZO 2.1 Proteínas con la basura Pg. 129

Otra cosa son las dificultades para concretar el mecanismo por analogía, porque se da una diferencia sustancial: mientras que en las proteínas las cuentas del collar son distintas (los aminoácidos), en un plástico todas las cuentas son iguales (el mismo monómero) y no es fácil en ausencia del "color", (que podríamos asignarles), en el caso de ser diferentes, como controlar la secuencia cuando todos los monómeros fueran iguales, salvo reproducir el producto original. La propuesta es disponer un proceso en el que se empleen "cuentas" (monómeros) de distintos colores para controlar la secuencia. Para ello hay que combinar diferentes objetos, integrados por distintos monómeros, para reciclar una mezcla que pueda producir un material diferente al combinar los monómeros de un producto con los del otro. Una audacia fundada en la operación que la propia naturaleza ya efectúa de forma natural. Sabia Naturaleza que sigue inspirando.

Pg. 130 VALLE DE LA CIENCIA. Valle de Elda A. Requena
TRAZO 2.1 Proteínas con la basura Pg. 131
Pg. 132 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 2.2

Robots sin ley.

Los desarrollos tecnológicos nos sorprenden con avances más rápido de lo imaginado. Ha ocurrido muchas veces en la Historia, con desigual alcance. La sociedad no tiene un pulso sincronizado con los avances, ni siquiera conocidos. Siempre ha ido a remolque. En realidad, nunca sabemos exactamente cual es la vanguardia de los desarrollos tecnológicos que los avances científicos han propiciado. En el siglo XVIII el maquinismo sorprendió afectando el empleo de forma radical y las reacciones fueron furibundas en casos, enterrando en el mismo agujero el ingenio creado junto a su creador. Conforme la civilización ha ido avanzando, las reacciones se han dulcificado, aunque no por ello han dejado de violentar el status establecido. Ahora, la robótica está en trance de sorprendernos de nuevo, por más que se habla de ello y, en cierta medida, se trata de anticipar regulaciones, acorde con el escenario presumible.

Hace muchos años, en 1942, en un alarde de imaginación poco usual, Isaac Asimov anticipó tres leyes de la robótica, que ahora se rescatan como punto de partida en un intento de regulación de un área en gran medida desconocida, como es la robótica. Con elegancia notoria Asimov proponía

TRAZO 2.2 Robots sin ley Pg. 133

1. Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño.

2. Un robot debe obedecer las órdenes dadas por los seres humanos excepto si estas órdenes entrasen en conflicto con la 1ª ley.

3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.

Ahora, en un intento de mitigar el impacto de la introducción en la sociedad de los robots, la UE corrige y aumenta lo que imaginativamente propuso Asimov hace 79 años. Ahora se extiende a seis el número de leyes que podrían regular el impacto de los robots. Independientemente de cuando se promulguen y la forma final que adopten, está claro que el fondo de la cuestión se mantiene y se vislumbra una preocupación de la sociedad que presiona a los legisladores para adoptar medidas de un mundo que se va sumergiendo en unos escenarios desconocidos, donde el alcance de las consecuencias no se es capaz de prever en estos momentos. Con la experiencia de otros hechos de similar forma, aunque alcance incomparablemente menor, ciertamente es preocupante que nos sorprenda sin la debida precaución.

La UE perfila en los seis aspectos que incluimos a continuación

1. Los robots deberán tener un interruptor de emergencia Dado que el principal mecanismo de evolución de los robots es el aprendizaje basado en el entrenamiento, dado que la infraestructura que lo sostiene, basada en redes neuronales, requiere un paso previo de aprendizaje, para establecer las conexiones de esta red neuronal, que permitirá inducir y deducir el comportamiento a ostentar al enfrentarlo a una situación conocida o desconocida. Dada la poca seguridad que ofrece el aprendizaje no supervisado, se intuye que es necesaria la precaución de un botón que se pueda accionar ante algún peligro que pudiera sobrevenir y evitar consecuencias mediante la acción de un interruptor de emergencia.

Pg. 134 VALLE DE LA CIENCIA. Valle de Elda A. Requena

2. Los robots no podrán hacer daño a los seres humanos

Desde todo punto de vista y en coherencia con la primera ley enunciada, dado que la robótica no puede concebirse sino como ayuda y cooperación con los seres humanos, no puede permitirse que pueda infringir daños a éstos. Asimov lo suponía en su primera ley y ahora se vuelve a recoger en la propuesta de la UE. Esto, naturalmente introduce una reflexión acerca del uso de robots en entornos conflictivos o bélicos, dado que infringir esta ley, implica la imposibilidad de transvase de estos entornos a los sociales usuales. Es una cuestión delicada, dado que la propia existencia de robots violentos, inquieta a la sociedad por el potencial mal uso y limitaciones que imponga esta restricción. Como veremos más adelante es un piunto de fricción fuerte, serio y de alcance.

3. No podrán generarse relaciones emocionales con los robots

Este artículo se anticipa a los desarrollos previsibles, aunque ahora sea impredecible su alcance. Implica asumir que la inteligencia artificial no es capaz de desarrollar inteligencia emocional, lo que en estos momentos es una conjetura de la misma magnitud que la contraria. La parcela de los sentimientos hoy por hoy es muy humana y las máquinas no son capaces de desarrollarlos, aunque el futuro sea impredecible, Es una cautela en defensa del entorno humano y de la concepción de que las máquinas forman un mundo aparte y no caben las relaciones estrechas y personales entre ambos.

4. Los que sean más grandes deberán tener un seguro obligatorio

Loa comportamientos autónomos han estado sujetos a reflexión durante un tiempo y han surgido posturas encontradas en cuanto a las capacidades operativas. La toma de decisiones conlleva la asunción de riesgos que pueden afectar a los humanos. Habrán robots de todo tipo de funciones y de dis-

TRAZO 2.2 Robots sin ley Pg. 135

tinta entidad y envergadura, pero todo parece indicar que una cautela razonable es prever los riesgos de daños materiales que en unos robots potencialmente serán más probables que en otros. Un seguro debe arrastrar con las responsabilidades de los actos, de forma similar a lo que ocurre con los humanos. Al menos tener cubierto el riesgo de daños materiales. Es probable que con el tiempo esto sea poco. Ya ha habido muertes provocadas en la conducción autónoma.

5. Derechos y obligaciones para los robots

La consideración a dar derechos y obligaciones a los robots es una cuestión nada trivial. Legalmente hay que encajarlo en un ámbito que permita dotarle de los derechos y obligaciones apropiados. El debate está servido con una profundidad variable según los países. Ciertamente, la diferencia estriba en la consideración de las consecuencias, si corresponde atribuirlas a los robots o a los constructores. No es fácil decidir esta cuestión, como es de suponer. El concepto de persona jurídica, le aproxima al trato humano, aunque establece diferencias con la consideración a darle, aunque ciertamente esto conllevaría otorgarle derechos inconcebibles de otro modo.

6. Tendrán la obligación de pagar impuestos

Además de todas las consideraciones de carácter "ontológico" una de las principales áreas afectadas por la robótica es la laboral. La cuestión de la sustitución de los humanos por máquinas es una cuestión pendiente de la Humanidad desde el comienzo del maquinismo. Para los dueños de los medios de producción la cosa parce clara, sustituyen con beneficio para el resultado dado que la capacidad de trabajo es mayor, la perfección en la labor se incrementa, el coste se amortiza y se obvian muchos costes asociados a aspectos sociales. Para los trabajadores no está nada claro, al verse amortizado antes de lo usual, sin una compensación apropiada al cese de actividad obligado al que se ve abocado. Así que en los comienzos las reacciones eran muy violentas, hasta el punto

Pg. 136 VALLE DE LA CIENCIA. Valle de Elda A. Requena

de que las novedades se veían atacadas hasta su destrucción, junto a la de los que la habían concebido. Contemplamos hoy, como las cosas han cambiado bien poco. Es por ello que, con cierto criterio, el Parlamento Europeo propicie que, al menos, los robots contribuyan a la Seguridad social, como forma de compensar a las personas desplazadas de sus puestos de trabajo. Aquí asistiremos a un amplio enfrentamiento entre los dueños de los medios de producción y los que la trabajan.

Son estos unos puntos de litigio que deben abordarse con serena sensatez y neutralidad, procurando armonizar intereses encontrados. No conseguimos nada, obviando el debate y dejándolo para cuando surja, porque, como vamos viendo con los acontecimientos que vivimos, a diario se sobrepasan los límites legales en todas aquellas esferas en las que la lesgilación va por detrás de los adelantos, que es en casi todas las áreas.

Esta misma semana se ha presentado una enmienda a la totalidad, que dirían los legalistas, cuando Rusia se ha opuesto a que se regulen sus robots "asesinos", referidos a los que son capaces de disparar y destinados a conflictos bélicos. No son los únicos que se oponen. De hecho Libia ha usado drones de combate contra soldados humanos en retirada. Arguyen que son robots tan buenos que no necesitan leyes creadas a la medida. La autonomía con la que funcionan responde a algoritmos sofisticados capaces de distinguir entre enemigos y aliados y no necesitan controles específicos de tal cosa. El tema se debate en la ONU y, aparentemente, no ha encontrado eco en otros países, pero quién sabe en que desembocará. Cruz Roja advierte la perplejidad de que un algoritmo decida quién debe morir o vivir.

Estamos en el albor, no de la tecnología, sino de la reflexión sobre su uso. Ninguna situación histórica anterior es similar. Ni siquiera la aparición de la energía nuclear en su

TRAZO 2.2 Robots sin ley Pg. 137

día, aunque se utilizara en sus primeros compases para la destrucción humana. La diseminación actual de la tecnología y las facilidades de su construcción y acceso, articulan una pandemia tecnológica garantizada, donde los usos son incontrolables. Unos las fabrican y las tienen que vender, otros quieren usarlas y las compran.

Ciertamente estamos en un dilema histórico en el que participamos, la mayor aparte de las veces de meros espectadores, aunque seamos los sufridores, al fin de las jugadas y no necesariamente el futuro es más amable que el tiempo vivdo hasta el presente. Todos estamos obligados a adaptarnos al entorno, pero debemos cuidar derechos, deberes, obligaciones y controles que permitan hacer la vida más cómoda e llevadera. De no ser así, no es progreso y en ese caso, deberíamos denostarlo.

Pg. 138 VALLE DE LA CIENCIA. Valle de Elda A. Requena
TRAZO 2.2 Robots sin ley Pg. 139
Pg. 140 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 2.3

Torio nuclear.

La producción de energía es una de las pretensiones de la Humanidad en todo tiempo. La energía es todo y todo es energía, como se ha ido evidenciando al avanzar el conocimiento científico. Una vez que se dispone de energía, solo hay que transformarla en la forma en que resulte más útil en cada momento. El Sol es una fuente de energía, no se puede decir que inagotable, aunque lo sea en innumerables periodos de vida humanos, hasta el punto que el final se sitúa suficientemente lejano como para que sea motivo de preocupación. El Sol se encuentra a una temperatura media en la superficie de 5500 ºC, (en el núcleo interno de la Tierra hay una temperatura similar) como consecuencia de las reacciones nucleares de fusión que tienen lugar en su interior, lo que da lugar a una pérdida de masa que se transforma en energía, que irradia al espacio exterior. Medida en un plano exterior perpendicular a los rayos solares, la cantidad de energía que llega por unidad de tiempo y de superficie, medidos en segundos y metros cuadrados, es de 1361 W m-2, aunque la producida por el Sol es de 63 450 720 W/m², por lo que la que alcanza la Tierra es una porción mínima y es una mezcla de radiaciones de longitudes de onda entre unos 200 nm y 4000 nm, que corresponde a radiación ultravioleta, luz visible y radiación infrarroja, respectivamente. Los distintos procesos que tienen lugar, desde la reflexión de parte de esa energía por la atmósfera, hasta la reflexión en el suelo que calienta la atmosfera por efecto invernadero, la Tierra mantiene una media de 15ºC, que de no existir la atmósfera sería de unos18ºC. Esta energía, como es sabido, se puede concentrar y emplear en un proceso de producción de vapor que mueve

TRAZO 2.3 Año bisiesto, año ... Pg. 141

una turbina y puede transformarse en electricidad, que es una forma mas versátil, transportable y para la que se han desarrollado múltiples tecnologías de aprovechamiento.

Una alternativa han sido las centrales nucleares, en las que tiene lugar el proceso de fisión, en combustibles, generalmente de Uranio capaces de generar temperaturas entre 500 ºC y 1000 ºC los más sofisticados y seguir un proceso similar al reseñado, para producir energía empleando el vapor generado. Todos los problemas derivados de la explotación de las centrales nucleares y el dominio limitado sobre su funcionamiento sin riesgo, han impulsado la búsqueda de procedimientos capaces de mejorar las garantías de seguridad.

Una de las opciones, hoy en expectativa de mejora, son los reactores de sal fundida. Se han desarrollado muchos modelos y el diseño más general emplea un combustible disuelto en una sal de fluoruro fundida, en un núcleo que emplea barras de grafito como moderador del fluido, al absorber una porción regulable de los neutrones producidos en la reacción en cadena, Se han venido empleando como sales fundidas, el tetrafluoruro de uranio y el de torio. Este último es poco usual hasta el presente, La diferencia con los reactores convencionales es que lo que circula en su interior es una sal fundida en lugar de agua. La ventaja del Torio es que la instalación es mas segura, económica y produce menos desechos de larga vida media producidos en los reactores.

El interés actual en este tipo de reactores es que los compuestos de Torio abundan mucho mas que los de uranio y, por tanto, sus reservas son mayores que las de uranio y más difíciles de agotar. No obstante, su extracción es mas cara que la del uranio. El Torio 232 es un isótopo que existe de forma natural, pero no es un material fisionable, ahora bien en un reactor el torio absorbe un protón y se convierte en Uranio 233, que si es fisionable. China está desarrollando este tipo de reactores desde hace mas de una década.

Pg. 142 VALLE DE LA CIENCIA. Valle de Elda A. Requena

Pretende un reactor que produzca unos 2 megavatios de energía térmica, lo que implica la cobertura del consumo de unos mil hogares. Si la producción alcanzara los 373 megavatios cubriría a cientos de miles de hogares. El consumo total de España en 2015 fue de 33 306 ktep (energía que rinde una tonelada de petróleo, la cual, como varía según la composición química de este, se ha tomado un valor convencional de: 41 868 000 000 J (julios) (41,87 GJ) = 11 630 kWh (kilovatios-hora).), es decir 33 306 x 11630 = 3.87 10 8 kWh, con lo que un solo reactor cubriría una parte muy sustancial del consumo de un país como España.

La cuestión es que, como los reactores de sal fundida funcionan a temperatura más elevada que los reactores nucleares de otro tipo, la generación de electricidad es más eficiente. La sal de fluoruro funde a unos 450 ºC y actúa como refrigerante transportando calor desde el núcleo del reactor, Esta sal también se utiliza para disolver al torio dentro del núcleo. Al estar el combustible disuelto en el líquido y estar sometido a un proceso que se da a presiones inferiores a los otros modelos de reactores nucleares, disminuye el riesgo de explosiones en el núcleo del reactor. Esta idea ya se ha utilizado pretendiendo emplear el plutonio residual de los reactores de Uranio. Ahora China está intentando hacerlo con un reactor de Torio.

Se trata de un avance significativo, como hemos señalado, aunque hay retos científicos y tecnológicos que superar. La corrosión derivada de los radionúclidos disueltos en la sal fundida es un área de estudio significativa. Las tuberías se ven afectadas por el proceso y las bombas que intervienen también. Merece la pena una vía de producción de energía mas segura, de mas fácil manejo y de mayor eficiencia. La energía nuclear siempre crea expectativas. No lo es menos en esta circunstancia.

TRAZO 2.3 Año bisiesto, año Pg. 143
Pg. 144 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO

2.4

Percepción el tiempo.

A lo largo de nuestra vida se da la circunstancia de que, en ocasiones, pensamos que el tiempo fluye muy despacio y en otras circunstancias "pasa volando". Todo el mundo suele decir alguna vez que la vida es corta, ya sea joven o maduro; unos sin experiencia directa todavía y otros tras largo recorrido. Los momentos relacionados con el aprendizaje, pongamos por caso, de la lista de los reyes godos, que en otra época era plato del gusto de los enseñantes, suponían una sesión de estudio que se hacía interminable. Ciertamente, deberían haber reflexionado los dirigentes académicos lo poco que servía el aprendizaje memorístico de una relación tal. En cambio, la asistencia a un partido de fútbol, que dura, nada menos que, dos horas y cuarto, sin incluir el tiempo destinado al desplazamiento para llegar al campo, pasaba en un "periquete".

Percepción
Probablemente la ocupación y el aburrimiento son capaces de inducir esta sensación en la percepción del discurso del tiempo. Puede deberse, como ocurre con la percepción olfativa, que la exposición de las neuronas implicadas en los procesos pertinentes durante un tiempo de forma constante, satura el estímulo. En el caso de la percepción olfativa, menos mal que es así, porque a ver cómo podríamos si no, soportar un mal olor de forma constante. En el caso de las neuronas implicadas en la percepción del tiempo, ya no es tan favorable la cuestión, dado que, simplemente por aburriPg.
del tiempo
145
TRAZO 2.4

miento, desencadenar procesos negativos, tiene poca gracia. Localizar la región del cerebro implicada en la percepción del tiempo es un tópico de la actividad investigadora en Neurobiología, muy activo. Al parecer, desde hace tiempo se tenía localizada la percepción del tiempo en el giro supramarginal del lóbulo parietal, aunque no se tenía claro si la percepción era subjetiva u objetiva. Es decir, no había evidencias de si la percepción del tiempo implicaba al tiempo subjetivo o al tiempo físico. La cuestión es relevante, por cuanto el tiempo físico es aparentemente implacable, aconteciendo su paso de forma regular y constante, mientras que, si la percepción es subjetiva, entonces o hay entrenamiento o inciden muchos factores derivados de la componente somática y las circunstancias en las que se encuentra el perceptor. Cocer un huevo, sin el reloj o artilugio que evidencie que transcurrió el tiempo suficiente resulta ser una empresa de imposible cumplimiento con la seguridad y eficacia que requiere. Antes, de forma aproximada se rezaban credos o avemarías, que algunos todavía emplean hoy día. Una buena aproximación es repetir los números dos veces, para que cada uno distinto ocupe 1 segundo: 1,1; 2,2; 3,3; 4,4; 5,5; Serían 5 segundos. En el caso de ser media hora, la cosa se complica.

Independientemente de su medida, incluso de su existencia, el tiempo subjetivo nos incorpora la idea de pasado, presente y futuro. La sensibilidad de que estamos dotados los humanos para valorar el tiempo, está incrustada en las tareas mentales complejas que nos hace pensar para solucionar problemas o tomar decisiones, convivir con otros puntos de vista o panificar el futuro. No cabe duda de que el tacto, cuando exploramos o la velocidad a la que se mueven los objetos, forman parte del escenario en que la percepción del tiempo es determinante.

Los estímulos inciden en los receptores, que los convierten en señales que se transportan al cerebro. Todos los órganos de los sentidos funcionan de esta forma. Pero no dis-

Pg. 146 VALLE DE LA CIENCIA. Valle de Elda A. Requena

ponemos de ningún receptor para el tiempo. Ningún medidor biológico es capaz de informar al cerebro sobre el tiempo transcurrido. Tenemos sentido del transcurrir del tiempo en la escala de años, meses, semanas, días y tiempos inferiores, sin tener receptores del mismo. El hipotálamo o la glándula pineal controlan los ciclos de sueño y vigilia, desencadenando la producción de hormonas y neurotransmisores que están implicados en la fisiología humana y enmarcan el comportamiento humano. Pero no son éstas las estructuras encargadas de ser receptores del tiempo. Hay muchas acciones fisiológicas que nos evidencian el trascurso del tiempo, desde la necesidad de micción, hasta el hambre. Son referencias, pero no concretan como el cerebro percibe el paso del tiempo. Si es conocido que los amnésicos pierden la capacidad de percibir el tiempo.

Es probable que no tenga sentido buscar un solo elemento de registro del tiempo en el cerebro y que sean varios los elementos que se sincronizan para percibirlo. Se justifica en que se han identificado varias partes del cerebro en la percepción del tiempo, desde la corteza auditiva y visual, hasta la corteza prefrontal, los ganglios basales e incluso el cerebelo. En la vida humana, los elementos artificiales para sincronizar en el tiempo, acompañan a las distintas componentes. Una película conlleva imagen y una tira de tiempo que soporta el sonido sincronizado con la imagen. Es toda una incógnita cómo se las arregla el cerebro para algo parecido. Otra cosa es que el mecanismo humano es más sofisticado. En función de la atención que prestemos o a lo extensa o corta que sea la secuencia, nos hace cometer más o menos errores en el recuerdo. Percibir el tiempo con precisión es una cualidad sorprendente. Al inicio de la vida tenemos una gran imprecisión en la percepción del tiempo, seguramente la falta de desarrollo de los circuitos neuronales lo puede justificar. En cambio, en la madurez todo pasa más deprisa.

TRAZO 2.4 Percepción
147
del tiempo Pg.

Poco a poco las cosas se van aclarando, conforme la tecnología nos permite ir accediendo a aspectos más profundos y significativos. En el caso del cerebro, la Resonancia Magnética Nuclear, como para todas las partes blandas del cuerpo humano, permite estudiarlo minuciosamente desde el punto de vista funcional, identificando la actividad de regiones concretas del cerebro, como consecuencia de la estimulación que reciben. El registro de la actividad cerebral permite ir conjeturando acerca de las consecuencias derivadas de un estímulo externo. En Berkeley Hayashi e Ivry han estudiado la actividad cerebral de 18 personas. La observación de un punto gris sobre una pantalla durante un tiempo, corto o largo, concretamente de una duración de 250 milisegundos o 750 milisegundos permitía la referencia. Posteriormente, tenía lugar la presentación de una mancha gris con duraciones distintas. A continuación, escuchaban un pitido de duración constante y debían concretar si la duración era mayor menor o igual a la de la mancha en la pantalla. Narran que cuando el estímulo de preparación previo era largo, infravaloraban la duración del posterior y al contrario. El registro de la actividad cerebral de la zona citada, el giro supramarginal del lóbulo parietal, disminuía en intensidad en ambos casos y la actividad se registraba importante cuando los tiempos previos y de ejercicio eran similares. La conclusión es que las neuronas de esta región cerebral reaccionan a los estímulos de una duración determinada y se agotan cuando se dan repeticiones. Otras zonas del cerebro tienen una actividad constante, por lo que la percepción del tiempo resulta distorsionada. De aquí se deduce que lo que percibimos es el tiempo subjetivo, no el físico.

La percepción del tiempo es una actividad humana de enorme complejidad, poco clara todavía, pero de importancia vital, incidiendo en nuestra salud. El control del tiempo subjetivo es una herramienta necesaria para la salud y el bienestar. La voluntad se mezcla pretendiendo en casos acelerar y en ocasiones retardar el paso del tiempo. La incidencia en los sistemas emocionales es la vía por la que incide en nuestra

Pg. 148 VALLE DE LA CIENCIA. Valle de Elda A. Requena

salud. El estrés asociado a la tensión provocada por la discrepancia entre lo que ocurre y lo deseado pone en marcha mecanismos que liberan hormonas, por ejemplo, de las glándulas suprarrenales, que provocan alteraciones, depresiones e incluso muerte de neuronas en el cerebro. Estar pendiente del discurso del tiempo no es saludable porque infringe castigo al organismo incidiendo en la salud física y mental. Por el contrario, el control del tiempo restablece bienestar física y mental.

Por otro lado, la Teoría de la Relatividad evidencia que lo único existente es el presente. Antes y después solo dependen de disponer de un sistema nervioso humano. Einstein se liberó de este modelo, que cree saber lo que es el tiempo. Hay evidencias de que solo existe en nuestra conciencia

TRAZO 2.4 Percepción del tiempo Pg. 149
Pg. 150 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 2.5 Ventilación.

En temas como la COVID 19, casi todo es controvertido, pero no cabe duda que, siendo la transmisión aérea la principal vía de contagio, debemos comprender ajustadamente el flujo de aire, cómo evoluciona para estimar apropiadamente el riesgo de contagio. Se supone que la transmisión del virus en ambientes interiores no coincide con la transmisión en el exterior, derivado de tiempos de exposición y de los niveles de turbulencia muy diferentes y como consecuencia, la dispersión, que en interiores es muy interior a la que se da en el exterior. Tampoco cabe duda de que es la mecánica de fluidos la que tiene las claves de como modificar el comportamiento de las partículas en el aire y la dinámica de su evolución.

Hace mucho tiempo, como doscientos años, que ya se propuso el cuidado a tener con los enfermos en un hospital para que no se vieran afectado ni afectaran a los demás. Ya se recomendaba la vigilancia de techos altos, luz natural y buena ventilación. Pero no es nada trivial mantener el grado de ventilación que requiere la actual situación y las condiciones climáticas en los meses invernales. A ello se suma el hecho de que hay restricciones de eficiencia energética que condicionan la estrategia a seguir. Una tentación es lograr un modo mixto de ventilación empleando una parte natural y otra mecánica forzada, para reducir el coste ambiental de la intervención. En tiempo reciente se ha dado una implicación creciente del impacto en la salud de los niveles de contaminación y se han introducido referencias, cada vez más restrictivas de la contaminación de ambientes interiores que manejan tem-

TRAZO 2.5 Ventilación Pg. 151

peratura y humedad como parámetros de la calidad del aire. Ahora, en las circunstancias de la pandemia se previene la posibilidad de aerosoles infecciosos que pueden transportarse por las instalaciones de aire acondicionado y, en general, por los sistemas de ventilación. Los espacios como oficinas, iglesias, restaurantes, grandes almacenes y un largo etcétera de este tipo de instalaciones, incluidos los vehículos, se han vigilado como entornos en los que se dan facilidades a la transmisión del virus en atmósferas interiores. Se han efectuado muchos estudios sobre estos aspectos, concluyendo que, en la práctica totalidad de los casos estudiados, el contagio se da en entornos interiores. El que los ámbitos interiores contribuyan a la dispersión de enfermedad, ya se midió con precisión en lel caso de la tuberculosis, evidenciando que una ventilación deficiente contribuía intensamente a tal circunstancia.

Hay una recomendación general de 10 litros por segundo y por persona de aire fresco en invierno y en verano se requieren mayores caudales para evacuar el calor generado por los ocupantes, el equipamiento y la contribución solar, por lo que se requiere un mayor caudal de ventilación. La ecuación de Wells-Riley proporciona la probabilidad de transmisión aérea de un agente infeccioso en una atmósfera interior. Relaciona el número de personas que pueden infectarse en una habitación nl y el número de gente presente nS en un tiempo determinado. La fórmula Incluye el número de personas que emiten la infección (carga media viral), nE, a una velocidad determinada γi y la velocidad de emisión total mediante la suma de todas ellas, r.

También incluye el volumen (flujo) como promedio temporal

Pg. 152 VALLE DE LA CIENCIA. Valle de Elda A. Requena

de aire exhalado por persona, q, y el volumen de aire fresco que se incorpora al recinto, Q.

Los datos necesarios para valorar el grado de ventilación de un recinto pasan por medir el nivel de dióxido de carbono presente, dado que es un producto exhalado en la respiración. En ambientes externos, la concentración se sitúa en torno al 0,04% o 400 ppm (partes por millón) . Es baja esta concentración, ya que supone que, por cada molécula de dióxido de carbono, habrán unas 2500 moléculas totales. La contaminación usual en las ciudades o los niveles atribuibles a aspectos meteorológicos situará esta cantidad en unas decenas. En buena lógica, en el exterior, la respiración humana no contribuye de forma significativa a modificar la concentración de dióxido de carbono. En una atmósfera interior sí. La respiración aporta en torno a un 4% de dióxido de carbono, lo que supone unos 18 litros por hora a presión atmosférica. La concentración aumenta de forma lineal con el tiempo. Un despacho de 6 m2 y 2.5 metros de alto, contiene 15 m3 de aire. Un solo ocupante requiere algo más de 3 horas para saturarlo al 4% de dióxido de carbono, lo que acontecerá, sin ventilación, en una media jornada de trabajo. La recomendación es de no superar en una atmósfera interior las 1000 -1500 ppm. Un despacho de las características citadas con un ocupante alcanza el nivel máximo recomendado en una hora, partiendo de una composición inicial igual al exterior. Los datos que aportan los autores Courty, Kierlik y Semin en IyC describen que en hora y media los datos revelan alcanzar en torno a 1000 ppm con la presencia de uno de ellos en el recinto. Las gráficas revelan que en menos de diez minutos se puede bajar la concentración de dióxido de carbono de 800 ppm a 500 ppm abriendo las ventanas.

TRAZO 2.5 Ventilación Pg. 153

La cuestión es que, superando las 2000 ppm nuestras capacidades cognitivas se ven perturbadas seriamente. Una recomendación de ventilación mecánica establece un flujo de, en torno a 30 m3 por hora y persona como umbral razonable. Como aportan los autores citados, logrado el régimen estacionario la concentración de dióxido de carbono es la concentración exterior (0.04%) más la relación entre el flujo producido y el evacuado, en nuestro caso 18/30, es decir en torno a 1000 ppm.

Se desprende de este pequeño análisis que es crucial el número de ocupantes de un recinto. La ventilación natural implica abrir ventanas para renovar el aire en periodos inferiores a una hora. Hay muchos elementos que confluyen en la renovación del aire, desde el régimen de viento, hasta el número de ocupantes de un recinto, las turbulencias, pero una referencia razonable es suponer que cada 10 grados centígrados generan una diferencia de fuerza ascendente del aire caliente y fricción del aire ambiental que posibilita velocidades de 0,5 metros por segundo. Como la mitad de una ventana puede suponerse que se dedica a evacuar aire y la otra mitad para ingresar aire desde el exterior, unos 180 metros cúbicos por hora y m2 de ventana. Un despacho de 15 m3 requiere 5 minutos para renovar la totalidad. No es tiempo suficiente para que la habitación se enfríe, con la climatología invernal, incluso. Se puede cumplir el requisito y gozar de condiciones saludables. Solo hay que preocuparse y ocuparse de ventilar.

Pg. 154 VALLE DE LA CIENCIA. Valle de Elda A. Requena
TRAZO 2.5 Ventilación Pg. 155
Pg. 156 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO

TRAZO 2.6

Energías renovables.

Hace tiempo que vivimos episodios promocionales de las energías renovables. Ahora, con el incremento constante de las tarifas y la escasa confianza en la ponderación de los precios de la energía eléctrica, nuevamente nos debatimos en una zozobra permanente. Estamos incentivados para echar una mirada a las que prometían ser una salida honrosa del maltrato al planeta, ejemplificada en el cambio climático, ya reconocido y que se había promocionado hasta la saciedad con las energías renovables.

Se dice de la energía renovable, como característica genuina, que es una energía limpia, no contaminante, que proviene de recursos inagotables que la propia Naturaleza otorga. Implícitamente están incluidas las características de no implicar emisiones contaminantes ni de gases que contribuyan al efecto invernadero y son una herramienta singular para lograr la independencia energética. Y todo ello contrasta con los rasgos de una energía no renovable que contamina, implica una limitación intrínseca como fuente de energía, contribuye a la emisión de gases de efecto invernadero y supone una dependencia energética de los países productores, que son extraños.

Las fuentes renovables implican recursos naturales como: agua, aire, sol y residuos orgánicos. El agua lo hace a través de tecnologías diversas en sus variedades: hidráulica que aprovecha la energía de los cauces terrestres de agua dulce en movimiento o acumulada mediante presas. En el 2.6 Energías renovables Pg. 157

caso de agua marina, se aprovecha la energía de las mareas, mareomotriz, y en el caso del interior de la tierra se denomina geotérmica. El aire nos proporciona el impulso el viento moviendo los aerogeneradores. El Sol con su irradiación de energía permite su captura a través de la acumulación de calor en la vertiente térmica y la energía de los rayos solares mediante la tecnología de la captura fotovoltaica. Finalmente, la combustión de los residuos orgánicos permite liberar a energía almacenada en estos materiales. Diferentes tecnologías desarrolladas para lograr poner a nuestra disposición energía mediante métodos productores de energía renovable. Las ventajas de esta energía verde son claras: independencia energética, protección del Medio Ambiente, conservación de los recursos naturales al utilizar fuentes inagotables, sostenibilidad intrínseca y cuestión aparte es la rentabilidad económica y el mantenimiento asociado a las mismas. Las comercializadoras ofrecen toda suerte de referencias del origen del suministro, incluyendo un Certificado de Garantía de Origen de la Luz que proporciona la Comisión Nacional de los mercados y a Competencia (CNMC) en España. Es una forma de acreditar la cantidad de kilovatios hora que se generan mediante energías renovables. Es con este motivo con el que se creó el Sistema de Garantía de Origen y Etiquetado de la Electricidad en el marco europeo, para garantizar que el consumo es de energía verde. No es nada nuevo, porque se viene aplicando desde 2007 en España.

Ahora bien, no prestamos demasiada atención al desarrollo demográfico del planeta. Hay aspectos cuantitativos que desdibujan un horizonte libre de dificultades. El gobierno de Europa está salpicado de intereses de los países integrantes, unos con más incidencia que otros. La política energética europea tiene dos caras, como el dios Juno, que nos ha acompañado en el paso de año, uno fruto del buen deseo, otro pragmático, derivado de la realidad obcecada y pertinaz: somos mucha gente.

Pg. 158 VALLE DE LA CIENCIA. Valle de Elda A. Requena

Finalizando el año 2021, Bruselas propuso modificar la clasificación de energías verdes incluyendo, nada menos, que la energía nuclear y el gas natural. Es un texto legal de 60 páginas que concede la distinción de renovables a las centrales nucleares en marcha y a las que se construyan hasta 2045. En el caso del gas reconoce la vitola de verde a las plantas de generación de electricidad hasta 2030. Esto implica que la taxonomía de energías verdes incluye a estas producciones de energía como verdes y sostenibles en el ámbito medioambiental. Eso sí, se les reconoce en un apartado como bajas en emisiones de carbono y reconoce que para ellas no hay alternativa disponible en la actualidad.

Reconoce que el objetivo latente es reorientar las inversiones hacia los proyectos del sector. Es probable que forme parte de una estrategia para descarbonizar el sector de la energía y cumplir los objetivos para 2050, recogido en el pacto verde de la UE, en el que se reconoce que el consumo eléctrico alcanza hasta el 75% de las emisiones de gases de efecto invernadero. Ya hubo una propuesta en abril de 2021, en la que quedaban fuera tanto la energía nuclear como la de plantas de producción basadas en gas, pero países potentes como Alemania han liderado incorporar el gas y Francia la energía nuclear. Los dirigentes son conscientes del daño a la credibilidad de una taxonomía que aspira a lograr liderar la referencia mundial. La presidenta de la Comisión Europea solo logró lanzar la propuesta a finales de año. Entra en un periodo de consulta en este mes de enero. Solo una mayoría cualificada de gobiernos pueden detener la propuesta.

Asistimos perplejos a una batalla desde la tozudez de los datos. Cumplir el pacto de energía verde para el año 2050 sin el concurso de la energía nuclear resulta imposible. No hay tecnologías alternativas disponibles. Ahora se dice que disponer de una fuente de energía estable como la nuclear permitirá el despliegue de las fuentes renovables. En todo caso, no se trata ni más ni menos que de proyectos construi-

TRAZO 2.6 Energías renovables Pg. 159

dos sobre bases poco realistas. Anuncios prematuros de paraísos inalcanzables conducen a la melancolía. Cumplirlos no puede ser y además es imposible. Así son las cosas, del dicho al hecho, media un trecho.

Pg. 160 VALLE DE LA CIENCIA. Valle de Elda A. Requena
TRAZO 2.6 Energías renovables Pg. 161
Pg. 162 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 2.7 Esclerosis múltiple: demasiado tiempo con ella Pg. 163

TRAZO 2.7 Esclerosis múltiple: demasiado tiempo con ella.

Desde hace un tiempo, mucho antes de que hiciera su aparición la pandemia, se dan informaciones que, aparentemente, tienen fundamento, aunque en realidad sean opiniones, conjeturas o. como mucho, enunciados sin fundamento. En el campo médico es muy frecuente. La Ciencia parece que no está demasiado cerca del área. Ahora con la pandemia se ha agravado. Hasta hay gente que ha estudiado una carrera y no tiene el más mínimo rubor en amparar, divulgar y recomendar, prácticas que lejos de tener algún fundamento científico, suponen un serio riesgo que pueda acabar con la vida de los incautos que se abandonan en la ignorancia que los ampara. La esclerosis múltiple se describió en 1868 por primera vez, aunque con anterioridad, hasta el siglo XIV, se dan indicios de pacientes que lo sufrían. Fue el denominado padre de la neurología, Charcot, quien describió la enfermedad en su asistenta, que exhibió temblores, dificultades en el habla y movimientos anormales en los ojos. En la auptosia, identificó placas amiloides que se formaban en el cerebro y las relacionó con los síntomas advertidos.

A principios del siglo XX, Dawson describió la inflamación de los vasos sanguíneos cerebrales y la afectación en la mielina del cerebro de los pacientes. En 1922, el neurocientífico español del Rio Hortega, descubrió los oligodendrocitos, que son las células que generan la mielina. En 1925, Douglas Adrian, estableció la implicación de la mielina y los errores de transmisión de la información en los axones neuronales. Sin embargo, la causa, el mecanismo y la singularidad en cada

paciente, continúan siendo hoy día desconocidos. Poco se ha avanzado. Se sabe, cosa estadística, contable en el fondo, que las mujeres son más proclives que los hombres y parece que no hay transmisión entre individuos. Se han formulado opiniones de todo tipo, desde que era una toxina hasta que era motivada por un virus.

En 1930, Rives, evidenció que los síntomas de la enfermedad se reproducían provocando que el sistema inmunológico fuera el que atacaba a la mielina. Esto permitió producir fármacos que inciden en el sistema inmunológico con objeto de controlarlo. Pero esto no supone conocer en qué consiste la enfermedad, ni responder a los interrogantes fundamentales que hemos formulado, sino solo paliar los síntomas. En 1947, Kabat, de la Universidad de Columbia, descubrió que las personas con la dolencia producían una proteína en el líquido cefaloraqudeo, las denominadas bandas oligoclonales, lo que permitió, mediante una punción lumbar poder formular un diagnóstico eficiente. En 1960, Kurtzke, desarrolló una escala que permitía cuantificar el grado de discapacidad y las partes del sistema nervioso central afectadas, hoy en uso. En los años 70, las técnicas de tomografía computerizada y, posteriormente, la RMN de imagen, irrumpieron y permitieron estudiar las partes blandas, incluido el cerebro. La RMN es hoy día una herramienta básica de diagnóstico.

Durante mucho tiempo se han combatido los síntomas, desde los brotes hasta el dolor, pasando por la fatiga, depresión o espasmos musculares. El fármaco utilizado ha sido los esteroides, fundamentalmente. El interferón beta apareció en 1993, y logró reducir el número de brotes y, desde luego, su virulencia, en una clara acción de prevención de los brotes con los subsiguientes daños provocados en el sistema nerviosos central. En 2008, las terapias modificadoras de la enfermedad (DMT, por sus siglas en inglés) que se usan para tratar los tipos de Esclerosis Múltiple en los que se presentan brotes, disponían de 6 alternativas y hoy llegan a 15. Pueden reducir

Pg. 164 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 2.7 Esclerosis múltiple: demasiado tiempo con ella Pg. 165

considerablemente la cantidad de brotes y, a su vez, reducen la velocidad a la que evoluciona la discapacidad. Es significativo que en 1948, la esperanza de vida era de 17 años y muy pocos podían seguir trabajando y hoy, se estima que hasta un 50% siguen con su vida normal.

Del relato, deducimos que la esclerosis múltiple es una enfermedad progresiva, sin cura hasta el momento presente. Ahora se abre una esperanza con la propuesta de que el virus de Epstein-Barr, el mismo tipo de herpes que causa la mononucleosis, es la causa principal de la esclerosis multiple. La investigación se ha llevado a cabo en la Universidad de Harvard por un grupo de investigación liderado por el Dr. Alberto Ascherio, epidemiólogo de la Escuela de Salud Pública, analizando a diez millones de expedientes médicos de reclutas militares en los que han identificado 955 diagnosticados con esclerosis múltiple en el periodo de servicio militar. Es una hipótesis sostenida por muchos grupos de investigación, pero este es el primer estudio que aporta pruebas convincentes de causalidad.

La relevancia del descubrimiento inducido en la investigación es que, la mayor parte de casos se pueden prevenir identificando la infección por parte del virus que la causa. Se cuantifica que en el mundo hay unos 2,8 millones de personas que sufren la dolencia. La causa no se conoce, pero uno de los mas sospechosos es el virus herpes, de Epstein-Barr (VEB), que soporta la conocida como enfermedad del beso, que establece la mononucleosis que desencadena. una infección latente y crónica. Curiosamente, el virus de Epstein-Barr afecta a un 95% de los adultos y la enfermedad de la esclerosis múltiple, suele aparecer unos diez años después de la infección. Se ha identificado la causalidad porque se han estudiado muestras de suero tomadas cada dos años al colectivo militar con el que han trabajado los investigadores citados. De esta forma, se concretó el estado de los participantes en el momento de la primera muestra y la relación entre la infección

por el virus y la aparición de la Esclerosis Múltiple en el periodo del servicio militar o activo. Se cuantificó que la probabilidad de contraer la enfermedad tras haber padecido le infección por el virus de Epstein-Barr se multiplicaba por 32 y, en cambio, no se alteró por la infección debida a otros virus. El biomarcador de la degeneración nerviosa característica de la Esclerosis Múltiple, que es el nivel sérico de la cadena ligera de neurofilamentos se incrementó tras la infección por el virus de Epstein-Barr, lo que sitúa a este virus como principal causa de la enfermedad, porque no se explica apelando a cualquier otro factor de riesgo conocido de la Esclerosis Múltiple.

Finalmente, Ascherio, líder del grupo de investigación que ha llevado a cabo el trabajo, sugiere que el retardo entre la infección por el virus de Epstein-Barr y el debut de la enfermedad podría deberse a que los síntomas no son detectables en las primeras fases y a que hay una relación evolutiva entre el virus y el sistema inmunitario del hospedador, que responde a la reactivación del virus que permanece latente. Hoy, no hay manera de prevenir la infección por el virus de Epstein-Barr, pero es posible que el trabajo de Ascherio active el desarrollo de una vacuna o de antivirales específicos que podría ser la esperanza de prevención o cura de la enfermedad.

Por fin, hay una explicación cabal de la que pudiera ser la causa de una enfermedad que, por atacar al cerebro, ha supuesto desventajas adicionales en la búsqueda de cómo abordar su tratamiento. Durante mucho tiempo se proponía una causa genética y otra ambiental, solas o combinadas. Se identificaban elementos complementarios como que la latitud incidía, de forma que conforme subimos hacia el norte la frecuencia es mayor, de lo que se inducía que el desarrollo y la limpieza en las costumbres, actuaba en detrimento de los habitantes de las zonas mas al norte. Esto servía para atribuir al sistema inmunitario una deficiencia en las capacidades motivadas por la poca o nula exposición a agentes infecciosos que permitieran curtir aquel. En todo caso, con una doble

Pg. 166 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 2.7 Esclerosis múltiple: demasiado tiempo con ella

alternativa de genética y ambiental se cubría todo el amplio espectro de alternativas. Ahora se ha evidenciado por primera vez, que hemos dado palos de ciego durante demasiado tiempo. Ahora parece que las evidencias aclaran el camino a seguir. Es de suponer que a partir de este momento, punto cero, las perspectivas cambiaran severamente.

Al conocerse el detonante o la condición principal de la esclerosis múltiple, podemos desarrollar vacunas específicas que eviten la proliferación del virus en nuestras células y programar, a nivel autonómico, vacunaciones preventivas, de la misma forma que se hace con el primer cáncer erradicable, el cáncer de útero, provocado por el virus del papiloma humano cuyo tratamiento más eficaz es, sin duda, los programas de vacunación preventiva en las chicas menores.

Esperemos que las farmacéuticas consideren que es negocio el desarrollo de vacunas específicas y se pueda pasar una página incierta y dolorosa, que dura demasiado.

Pg. 167
Pg. 168 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 2.8

Fuera de control.

Con título original, Runaway se estrenaba en 1984 la película de Michael Crichton, como director y guionista, en la que Tom Selleck era un policía del futuro que se enfrenta a un malvado científico que ha dado suelta a toda una serie de robots asesinos en una ciudad con incapaces sistemas de protección. Los robots son numéricamente superiores y han suplido a mucha gente en sus puestos de trabajo, desde labores domésticas hasta agrícolas o de construcción. Un sargento de policía, viudo que vive con un hijo y su compañera forman parte de una la brigada especial que pretende controlar los robots y evitar que puedan ocasionar daños a la población. Sucede que un robot doméstico mata a varias personas y analizando las circunstancias técnicas, descubren que estaba programada para ello, concretado en un chip. Se da, por supuesto, que es el primer caso en que un robot mata a un humano. La búsqueda del responsable que cometió tal disparate completa la película, hasta descubrirlo. Resulta ser un científico que ensayó su producción con el mandato a un robot de que acabara con otros dos científicos que le ayudaron a construirlo. Su objetivo es fabricarlos en serie para venderlos a terroristas u organizaciones criminales o de espionaje. Misión nada fácil que incluye rapto y acaba, finalmente, con la muerte del sicópata y el enamoramiento de los protagonistas, tras una colaboración profesional tan arriesgada.

Traerla a colación es debido a que, con unos cuantos años de antelación, 38 años nada menos, que en nuestro tiempo actual es una auténtica eternidad, se adelanta lo que en gran medida estamos observando en vivo y en directo ahora. Por cierto, tan adelantada fue en el tiempo, una refle-

TRAZO 2.8 Fuera de control Pg. 169

xión de este tipo, que su director y guionista perdió popularidad y dinero, fracasando muy a pesar del prestigio que aportaba su protagonista Tom Selleck, al que no se le conoce otra intervención de este corte de ciencia ficción. Los ochenta no eran momento para una reflexión sobre el mundo que se venía encima en el que las máquinas estarían en todas partes, unas veces como útiles y otras no tanto. Desde el mundo científico se suele tener una cierta precaución con las propuestas de la Ciencia Ficción cuando, en realidad, son acreciones de mentes que, partiendo de hechos científicos conocidos, conjeturan un universo en el que sean plenamente operativas las creaciones y las reglas de juego, unas veces claras y saludables, y otras no tanto. En buena lógica desde la Ciencia ficción se aporta la dosis de imaginación que la Ciencia reprime para ajustarse a lo evidenciado, dejando de lado la conjetura. Debe ser así, pero eso no quita que la conjetura, informe de tendencias, inadvertidas muchas veces, en entornos potencialmente realizables y alcanzables, por tanto.

Las granjas que visitan Selleck y su compañera Thompson, interpretada por Cyntia Rhodes, están llenas de robots que cultivan la tierra o edificios en construcción en los que dejan caer cosas desde las alturas o en las casas particulares en las que se desenvuelven, con el agravante de que saben usar armas. Hay una cosa interesante, porque no se trata de que en la película se usen robots humanoides, sino que son desde su propia envoltura como máquinas que actúan de forma programada. La inquietud que transmiten los aparatos propios de la cocina con intenciones asesinas es fenomenal, con el agravante de que son muy similares a las que hoy son populares, incluidos los que cuidan a personas, hoy tan en valor ascendente.

No tiene desperdicio la película vista hoy y comprobando la enorme habilidad de su guionista director al utilizar elementos que, indiscutiblemente, serían, con el tiempo, usados con plenitud, salvo que hoy son objeto de reflexión y valoración de las consecuencias. Es muy probable que la astucia del guión pudiera haber sido una alerta en su momento, porque el

Pg. 170 VALLE DE LA CIENCIA. Valle de Elda A. Requena

debate que se mantiene en la actualidad y las dudas a nivel legislativo para ordenar y prever las consecuencias de la autonomía de los dispositivos y las responsabilidades civiles y penales de aquellas se pudieran haber madurado con el sosegado reposo y con suficiente antelación. La conducción autónoma ya aparece en la película y hoy es objeto de intenso debate, aunque en círculos reducidos y no faltan los pasos adelante y nuevamente hacia atrás, conforme se van dando las circunstancias, unas veces favorables y otras negativamente perversas.

Básicamente, como deja entrever la película referida, la tecnología implica usos y estos son los que son, como vamos viendo con todas ellas, muchas veces sin atender a aspectos éticos, más de lo deseable. Hasta ahora la cosa no ha pasado a mayores, porque en el fondo los dispositivos empleados en la producción están programados, pero no tienen capacidad de decisión, más allá de lo previsto en sus programas informáticos. Ahora hay un cambio cualitativo, porque cada vez más los dispositivos van incorporando capacidad de decisión y un aprendizaje autónomo que les capacita instrumentalmente a decidir la respuesta ante la situación planteada.

No podemos permanecer ajenos al debate en vivo de una cuestión en la que nos va mucho en ella. No es conveniente quedarnos en la anécdota de si la traducción es buena o excelente o qué gracia nos hace la comunicación en lenguaje natural. La capacidad de decisión de los dispositivos significa una autonomía al margen de nosotros, que solo el constructor conoce los detalles y que sus aciertos o fallos se dan sumergidos en nuestra, cada vez más próxima intimidad. La cuestión es seria. No se trata de ciencia-ficción, se trata de nuestro mundo real, el que vivimos. Pasados los años transcurridos desde 1984, cuando se produjo esta película, hasta hoy, no habrá vuelta atrás, será el mundo que hemos dejado diseñar y crear a los que tienen intereses en ello, que puede que no coincidan con los nuestros,

2.8 Fuera
TRAZO
de control Pg. 171
Pg. 172 VALLE DE LA CIENCIA. Valle de Elda A. Requena
TRAZO 2.8 Fuera de control Pg. 173
Pg. 174 VALLE DE LA CIENCIA. Valle de Elda A. Requena

Terraform.

Los cohetes de Elon Musk o los viajes de Virgin han popularizado la corriente que sueña con viajar al espacio. Marte es un objetivo bien situado para abordar en los próximos tiempos, amparados por la convicción de que hemos de salir a buscar otros mundos. Un neologismo, Terraform, encierra la pretensión de convertir un planeta incluso hostil, en un entorno amigable y atractivo para los humanos. Cualquier planeta a una distancia concreta de su sol, al que podemos viajar en un futuro próximo, puede ser objeto del transformismo mediante terraform. Pero Marte es el más apropiado para candidato en convertirse en objeto de deseo por cosmonautas profesionales o aficionados, dispuestos a escapar del planeta Tierra.

Los científicos Edwards y Jakosjy señalan que es crucial que la cantidad de dióxido de carbono atrapado bajo la superficie de Marte sea suficiente como para liberarlo a la atmósfera y poner en marcha, ahora sí, un proceso de efecto invernadero que levante la temperatura desde menos 100 grados centígrados actual, para situarla a niveles compatibles con la vida humana. Sin duda, resultará una atmósfera más densa, al tiempo que alterará el entorno en el que se dé la vida microscópica y, eventualmente, la vida superior. Resulta curioso, no obstante, que mientras que en la Tierra tratamos de reducir el dióxido de carbono presente en la atmósfera, con objeto de reducir el calentamiento global, en Marte, el efecto resulta beneficioso por la razón opuesta.

TRAZO 2.9 Terraform Pg. 175
TRAZO 2.9

Son muchos los retos que hay que superar para poder ser realidad esta pretensión. Algunos atrevidos, como Elon Musk, anuncian que dentro de cinco o diez años estaremos en Marte. Propone derretir los casquetes polares de Marte, empleando bombas nucleares como procedimiento expeditivo para el terraform del planeta rojo. Ideas locas nunca faltan, otra cosa es que los que disponen de capacidad de raciocinio más ponderado, hagan desistir de las radicales formas que algunos magnates lanzan "a ver si cuela". Siempre hay peligro de que la iniciativa no se detenga. Seguramente, no está bien conformada la conjetura y las necesidades de agua para lograr una masa líquida estable, está fuera del alcance de la propuesta formulada.

Viajar fuera de nuestro planeta ha sido un leiv motiv constante a lo largo de la Historia. Plutarco ya deja constancia de una leyenda en la que un pueblo sabía cómo ir a la Luna. La Iglesia católica, negando otros mundos, lo evitó, durante catorce siglos, nada menos, hasta que en el siglo XVI emergieron Copérnico, Kepler y Galileo y dieron vida a los argumentos desde la experimentación y evidenciaron la equivocación del clero. El telescopio fue definitivo. En 1860 Julio Verne escribe "De la Tierra a la Luna". Tsiolkovsky en 1895 vaticinó el uso del oxígeno e hidrógeno líquido como propelentes o los cohetes con varias fases y trajes presurizados o empleo de los captadores solares en el espacio. En 1927 se fundó la Sociedad Alemana de Viajes Espaciales. La Segunda Guerra mundial aceleró el sector con la tecnología de cohetes liderada por von Braun. Su V-2 alcanzó 200 kilómetros de altitud, abandonando la atmósfera por primera vez. En 1946 se diseñó la primera nave espacial experimental para ponerla en órbita, en el proyecto RAND. En 1957 los rusos lanzan el primer satélite de la historia, el Sputnik y en noviembre del mismo año, lanzaron a la perrita Laika. Varios intentos fallidos de sondas rusas preceden a la primera sonda que se estrelló contra la Luna en 1959. Los norteamericanos lo hacen en 1962. El primer aterrizaje controlado aconteció en

Pg. 176 VALLE DE LA CIENCIA. Valle de Elda A. Requena

1966 y en 1968 la sonda rusa Zond 5 sobrevoló la Luna y regresó a la Tierra. La delantera de la Unión Soviética se certifica con que en 1961 Gagarin fue el primer humano que abandonó la atmósfera y en 1962 el norteamericano John Glenn repitió la hazaña.

No nos hemos aventurado nunca mas allá de nuestro satélite con naves tripuladas. Otra cosa son las sondas enviadas que han sido muchas. La saga de las Venera encaminadas a Venus por parte dfefl área soviética y las Mariner 2 visitaron Venus. En cambio, Marte desde mayo de 1971 es objeto de numerosos envíos las Mariner por parte de Estados Unidos y las Mars 2 y 3, por parte soviética. Cruzar el cinturón de asteroides lo han logrado las Pioneer 10, encaminadas a Júpiter y la Pioner 11 visitó Júpiter y Saturno. La Mariner 10 en 1973 visitó Mercurio.

Hasta el año 2010, solamente unas 500 personas habían viajado al espacio y solamente seis de ellas eran turistas. Los únicos humanos que han pisado un suelo distinto al terrestre han sido los que viajaron en los Apolos 11, 12, 13, 14, 15, 16 y 17, entre 1969 y 1972. Después se abandonaron las misiones tripuladas. Solamente se ha accedido a las estaciones espaciales y labores de mantenimiento del telescopio Hubble. En 2003, China envíó humanos al espacio de forma independiente y orbita en torno a la Tierra.

Ahora se plantea el regreso a la Luna, con objeto de convertirla en lanzadera para acceder a Marte como viaje tripulado, como alternativa al vuelo directo al planeta rojo. Ahora, hay gente dispuesta a pagar 250.000 dólares para viajar al espacio, como se relata que hizo una profesora de una Escuela de Negocios norteamericana, de 61 años que, en 2005, que se apuntó a la aventura que le ofrecía una empresa de disfrutar de cinco minutos de ingravidez. Sin comentarios. Hay gente para todo, claro está. Ahora muchas empresas ofrecen salidas del Planeta y tienen clientes dispuestos a

TRAZO 2.9 Terraform Pg. 177

pagar enormes sumas por ello. Dentro de poco, la oferta y la demanda pondrán las cosas en su sitio y seguro que bajan los precios. Como siempre, es cosa de esperar. En todo caso, se interpreta que nuestro planeta pudiera convertirse en un territorio hostil y en lugar de empeñarnos en un terraform con la Tierra, proyectamos abandonarla y emigrar a otros planetas. En el fondo, es reconocer la derrota e incapacidad del humano de comportarse racionalmente. Cada vez hay mas de esto.

Pg. 178 VALLE DE LA CIENCIA. Valle de Elda A. Requena
TRAZO 2.9 Terraform Pg. 179
Pg. 180 VALLE DE LA CIENCIA. Valle de Elda A. Requena

Kilonova.

Los acontecimientos del espacio suelen ir acompañados por una dosis de sorpresa, en todo caso, los acontecimientos son de una magnitud y alcance que supera la capacidad de percepción de los humanos y nos hace sentir pequeños e insignificantes por la desproporción con las magnitudes humanas.

Las estrellas de neutrones provienen del colapso gravitacional de una estrella gigante masiva, toda vez que haya agotado el combustible y explote como la denominada supernova. Estas estrellas están constituidas, fundamentalmente de neutrones y otras partículas, desde protones y electrones hasta piones y kaones. Son muy calientes y compensan el colapso gravitatorio con una presión de degeneración cuántica, bien descrita por el principio de exclusión de Pauli, por el que no pueden ocupar simultáneamente el mismo lugar del espacio y estado cuántico dos partículas. Su masa se sitúa entre 1,35 y 2,1 masas solares, en una esfera de radio unos 12 kilómetros, lo que contrasta con que el radio del Sol es unas 60.000 veces mayor. Por tanto, la densidad de estas estrellas es muy elevada y se suele ilustrar comparándola con la que tendría un avión tipo Jumbo comprimido hasta el tamaño de un grano de arena. Estas estrellas se denominan compactas, cuando se sitúan en el límite de Chandrasekhar que es de 1,44 masas solares y cuando supera las 10 masas solares se produce un agujero negro. Algunas giran y emiten radiación electromagnética y se denominan púlsares.

TRAZO 2.10 Kilonova Pg. 181
TRAZO 2.10

Cuando una explosión llega a ser mas de mil veces mas brillante que la de una nova normal, debida a una fusión de dos estrellas de neutrones, emiten rayos X, que se desvanecen rápidamente, pero generan un gran resplandor, se denominan KIlonovas, macronovas o proceso de supernova de tipo r. El hecho diferencial es el decaimiento de la emisión de rayos X. Se han detectado por primera vez en la Universidad de California en Berkeley

El proceso de desintegración de iones pesados que tiene lugar, es el que genera la emisión de la radiación electromagnética y son producidos y expulsados en el proceso de fusión. Resulta ser mas corto que en una supernova. Antes de la fusión, son dos objetos compactos que constituyen un sistema binario al rotar en torno al centro de masas y se supuso que pudiera ser esta la causa de emisión de ondas gravitacionales. Así se evidenció, en 2017, cuando el observatorio de ondas gravitacionales LIGO anunció la identificación de una kilonova a partir de la detección de las citadas ondas. A esta explosión también se asocia la emisión de radiación gamma y se supone que es un generador de elementos pesados estables en el Universo.

La primera detección de una kilonova se asoció a una explosión de rayos gamma que se produjo en una galaxia cercana y el telescopio espacial Hubble detectó la emisión en el infrarrojo. Cuando se detectaron las ondas gravitacionales en un punto del espacio, unos dos segundos después dos observatorios de rayos gamma detectaron una fuente de esta radiación y se localizó en la constelación de la Hidra, y se desveló que se correspondía con la fusión de dos estrellas de neutrones, situada a 130 millones de años luz.

La importancia del descubrimiento la concreta Kate Alexander coautora del trabajo de investigación que ha dado a conocer el descubrimiento, radica en que la detección de un resplandor residual de kilonova, supone que la fusión no dio

Pg. 182 VALLE DE LA CIENCIA. Valle de Elda A. Requena

lugar inmediatamente a un agujero negro y de esta forma se tiene la oportunidad de estudiar como cae la materia en un agujero negro, tiempo después de su nacimiento. El hecho de que se observe un resplandor residual de kilonova es la primera vez que se detecta, pero también lo es que se ve material cayendo en un agujero negro formado tras una fusión de estrellas de neutrones. Ambas cosas son extraordinarias. Como apunta Bright, de la Universidad de California, esta aparente alternativa se desvelará observando a GW170817 tanto en la emisión de rayos X, como en la región de radio. Caso de que se tratase de un resplandor residual de kilonova, es de esperar que las emisiones de rayos X y de radio, sean mas brillantes en el tiempo posterior. Pero si, por el contrario, está implicada materia que cae sobre un agujero negro recién formado, entonces la emisión de rayos X tendría que permanecer constante o disminuir rápidamente y con el tiempo dejará de detectarse la emisión de radio. El tiempo nos lo aclarará. Cada vez más cerca de saber la naturaleza de los agujeros negros.

TRAZO 2.10 Kilonova Pg. 183
Pg. 184 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 2.11

No parece que haya duda de que el ser humano piensa de forma distinta al resto de los animales. Otra cosa es que sea fácil realizar un experimento que justifique qué es lo que convierte la cognición humana en singular. Los expertos, nos ponen para análisis dos características plenamente humanas como son la figuración de situaciones complejas y el intercambio de ideas con los demás humanos. Además de estos rasgos, hay otras características plenamente humanas como son el lenguaje, la cultura, la moralidad, etc.

La Humanidad ha desarrollado un modelo y posibilitado unos límites que han alcanzado unas cotas prodigiosas. Y lo que da que pensar, es que no lo ha hecho en base a la fuerza física, sino gracias a lo que denominamos inteligencia. Las facultades cognitivas que lo han posibilitado son una incógnita, que se ha tornado cada vez mas compleja, desde el punto y hora en que cada vez hay mas evidencias de que hay animales que pueden emular algunas de las habilidades genuinamente humanas.

Un estudio publicado en la revista Molecular Psychiatry afirma que la mitad de las diferencias en inteligencia entre individuos pueden deberse a factores genéticos. Es recurrente esta atribución a la genética cuando no se disponen de argumentos convincentes de carácter mecanicista. Hay que aceptar que a nivel molecular es muy complicado, todavía, acceder a estas profundidades genuinamente cerebrales y hay que conformarse, en muchas ocasiones, con conjeturas.

TRAZO 2.11 La heredabilidad de la inteligencia Pg. 185
La heredabilidad de la inteligencia.

Se propone que numerosos efectos mínimos, atribuibles a muchos genes, pudieran estar tras el efecto observado.

Origen natural o a través de la educación, han estado en candelero desde hace mucho entre los genitores debatidos sobre la inteligencia. La heredabilidad de los caracteres, rasgos, y, en concreto de la inteligencia, ha sido sometida a debate desde hace mucho tiempo. Estudios llevados a cabo con gemelos llegaron a proponer que entre un 60% y un 80% de la inteligencia proviene de los genes.

Davies, G., et. al, realizaron el trabajo titulado "Genome-wide association studies establish that human intelligence is highly heritable and polygenic," publicado en Molecular Psychiatry, que aporta evidencias científicas de que parte de nuestra inteligencia proviene del ADN. Por tanto, se trata de la primera vez que la propuesta está avalada por la observación científica. Los autores del estudio analizaron en torno a medio millón de polimorfismos de un nucleótido, que son las variaciones presentes en el ADN que afectan tan solo a una única base del ADN y que están repartidos por todo el genoma. El experimento lo llevaron a cabo en unos 3500 adultos entre 18 y 90 años, ciudadanos del Reino Unido y de Noruega. La herramienta fue un test de inteligencia como herramienta para cuantificar el cociente intelectual. Las conclusiones fueron interesantes, porque ningún gen en concreto explica las capacidades cognitivas propias del humano. El emplear tal elevado número de polimorfismos fue debido a estimar la similaridad de los participantes en el estudio, concluyendo que los que habían alcanzado las puntuaciones mas elevadas en los test eran genéticamente mas similares que el resto, que habían obtenido puntuaciones inferiores. También dedujeron que la mitad de la variación de las puntuaciones en los test entre distintos participantes era debida a una variación genética.

Pg. 186 VALLE DE LA CIENCIA. Valle de Elda A. Requena

Estos resultados evidencian que la inteligencia humana es poligénica con cientos o miles de genes implicados en el nivel de inteligencia de los humanos. Esto complica los estudios a realizar, por cuanto la identificación de loci individuales exige estudios con una muestra mayor, para abarcar el genoma con mayor extensión. Del mismo modo, la generalización requiere que la muestra incluya otras poblaciones más amplias que la actualmente considerada, con Reino Unido y Noruega como escenario.

Paralelamente, habría que analizar las capacidades de los animales, descartando explicaciones sencillas como las aducidas hasta ahora. La distinción entre cognición compleja y aprendizaje por repetición, exige un cuidadoso desarrollo de las pruebas para no ofrecer pistas sobre la solución o efectos del comportamiento que podrían alterar las conclusiones. No cabe duda de que estamos en los albores de una época en la que apelar a la genética va exigiendo elementos que lo justifiquen y no emplearla como justificación de la ignorancia. Es un excelente comienzo de una época en la que la observación de experimentos cercanos a la cognición humana, nos habilita para comprendernos a nosotros mismos a un nivel apropiado para que las conclusiones sean significativas.

TRAZO 2.11 Seguridad mental Pg. 187
Pg. 188 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 2.12

Con frecuencia, salta a la palestra un nuevo estudio llevado a cabo, calificado de "científico", que corrige a otro, en casos, en otros enmienda y rara vez es protagonista, si refrenda a otro realizado con anterioridad. Normalmente, estos trabajos suelen ser aplicaciones de la estadística a unos planteamientos que consisten en suponer que hay una relación entre dos o más variables, que no se suele explicar entre qué número de ellas se han elegido, ni se dan a conocer las razones de por qué se han elegido entre aquéllas. Básicamente, son una contabilidad de casos en que se observan dos o más variables y la aplicación de métodos que buscan la correlación que hay entre las variables que se han elegido.

Lo peor no es que, en el mejor de los casos, se concluye en que hay alguna relación entre las variables, sino que todos estos estudios suelen finalizar con la asociación de unas variables que, el que estén relacionadas, no implica en modo alguno que la relación sea de causalidad, que son las únicas que importan. Los medios de comunicación, muchas veces, difunden las noticias y permean la sociedad, en muchos casos, con poca consistencia de lo que dicen o una gran superficialidad en lo que proponen.

Hace bien poco se ha aireado un nuevo estudio de este tipo, llevado a cabo en el German Cancer Research Center, y como cada semana un estudio nuevo al alcance, con un enunciado que viene a corregir otros anteriores, diciendo, en este caso, que el riesgo de cáncer colorrectal se incrementa con el tiempo de sobrepeso. Hasta ahora, basado en estudios similares, se había asociado al sobrepeso, sin referir cuanto tiempo se mantiene. Ahora se matiza que, de lo que se trata es, de que la variable que tiene que ver con la dolencia es el número de años que una persona tiene sobrepeso, porque es mas significativo que el peso en un momen-

2.12 Sobrepeso
Pg.
TRAZO
y tiempo de sobrepeso
189
Sobrepeso y tiempo de sobrepeso.

to dado. En este caso es un Centro alemán el que ha llevado a cabo el estudio. Han comparado gente que tiene un peso calificado de normal y gente que permanentemente han vivido con sobrepeso. Concluyen que los últimos tienen una probabilidad de desarrollar el cáncer colonorectal hasta dos veces y media mayor. Esta conclusión refuerza la anterior que prevenía del sobrepeso, porque cuanto mas se mantenga, peor es el futuro que nos espera.

Es bien conocido que el sobrepeso implica mayores riesgos que el peso, calificado de normal. En numerosos casos se ha hecho intervenir la variable sobrepeso para cuantificar la probabilidad de riesgo, desde el cáncer de pulmón, al de útero, riñón, esófago o colorrectal, entre ellos. Es cierto que en estos estudios se tomaba en cuenta el peso corporal, mientras que ahora lo que se considera como variable es el tiempo que una persona mantiene el exceso de peso. En el fondo, estos estudios suponen un modelo en el que se plasma la hipótesis de que la obesidad es un inductor del cáncer colorrectal, debido a que el tejido graso libera factores de crecimiento, hormonas y sustancias que intervienen en los procesos inflamatorios. Así enunciado, no es lo mismo exponerse puntualmente a la obesidad que persistir en su incidencia durante tiempo.

Han analizado datos de pacientes con cáncer colorrectal y empleado datos de gente escogida al azar que no poseen un diagnóstico de cáncer de este tipo. Se les ha entrevistado sobre su peso a lo largo del tiempo, a partir de cumplir veinte años. Concluyen que, la gente con sobrepeso, tienen mas riesgo de desarrollar cáncer colorrectal y que el riesgo se incrementa con los años que se mantiene el sobrepeso. La clave, de nuestro interés es que se correlaciona el riesgo de padecer el cáncer mejor con el tiempo que solamente con el hecho de padecer obesidad en un momento dado de la vida.

Claro que no se establece la causalidad, sino solamente la correlación. Eso quiere decir que hay alguna relación, pero en modo alguno que sea la causa. Naturalmente, que hay relación entre ambas variables, como la hay entre la obesidad y muchas otras, pero la cuestión de la causalidad no está desvelada. No podemos discutir que la obesidad, el sobrepeso, tiene consecuen-

Pg. 190 VALLE DE LA CIENCIA. Valle de Elda A. Requena

cias, porque por sentido común solamente, podemos intuir que así es. El cuerpo humano debe estar diseñado para mantener un peso en torno a los setenta kilos y todo lo que supere esta cifra, implica un coste, un desgaste adicional, un quebranto en los parámetros vitales que tendrá sus consecuencias, pero la correlación no es suficiente. El que sea acumulativo el efecto, tampoco necesita un estudio más detallado y la métrica en todo este tipo de cosas, debe ser el tiempo acumulado. Pero una correlación no cierra la cuestión, dado que no se establece la causalidad. Siempre cabrá la opción de que una tercera variable, desconocida, oculta o no considerada, sea la que establece la relación con las dos variables que se estudian y sea ésta la que es capaz de establecer la causalidad. Es esta última la que se debe desvelar

Un chascarrillo que frecuentemente emerge en este universo de la correlación es el hecho de que cuantas más iglesias hay en un entorno, mayor es el número de borrachos. No se alarme. No se trata de que la Iglesia los fomente. Simplemente, cuanto mayor es la población, mayor número de Iglesias habrá y mayor será el número de borrachos, conforme crece la población. La variable oculta es la población, que es la causal. Está relacionada con el número de Iglesias, claro, pues el número de fieles será mayor al crecer la población. Ytambién estará relacionada con el número de borrachos, ya que, solo manteniendo la proporción, al crecer la población se incrementará el número de ellos. Pero las Iglesias no son la causa de que haya más borrachos, solo está correlacionada, porque ambos números crecen a la par. Pues esto es lo que debemos pensar cuando nos encaramos con estos estudios, denominados "científicos", que tienen muy poco de ello y nunca debemos caer en el error de confundir causalidad con correlación. Nunca. Los buenos estudios no se limitan a una contabilidad. Eso es objeto de otros entornos donde puede ser relevante.

TRAZO 2.12 Sobrepeso y tiempo de sobrepeso Pg. 191
Pg. 192 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 2.13

Polvo inteligente de arroz.

Conforme avanza el conocimiento científico, vamos descubriendo cosas nuevas, muchas veces sobre cosas que creíamos conocer en su totalidad. Hace muchos años, los traperos recorrían las calles, entre otras cosas, cambiando trapos por arena. Los trapos procedían de las ropas amortizadas de los miembros de las familias, que se mantenían en las casas esperando cambiarlos por esa arena con la que se lavaban las vajillas y utensilios de la cocina, cuando los detergentes todavía no habían hecho su aparición y el jabón "lagarto" era todavía un lujo. La capacidad abrasiva de la arena arrastraba eficazmente los restos del proceso de los alimentos en las sartenes de metal, hierro en el mejor de los casos, cuando los estropajos, no eran todavía metálicos y había que conformarse con muñones de esparto que, junto con la arena, maridaban "de lujo", como diría un genuino.

El progreso hizo olvidar todas estas románticas escenas y aparecieron mil y una formas de mejorar los procesos. Pero, no solo eso, porque con el progreso, la lupa con la que se examinan los ingredientes, las partes, los productos, etc., son cada vez más capaces de detectar propiedades escondidas en los materiales. Ocurre algo parecido a lo que acontece en la minería. La explotación de una mina inicialmente no se anda con sutilezas: si hay cantidad de material fácil y asequible, se procede, si no, se abandona. Pero con el andar del tiempo cada vez hay procedimientos mas sofisticados que

TRAZO 2.13 Polvo inteligente de arroz Pg. 193

permiten acceder a menas menos ricas y se es capaz de explotar materiales con una riqueza menor que anteriormente, de forma rentable. Los procesos se simplifican y se logran rendimientos económicos viables para operar como empresas. Ha ocurrido en muchos campos que lo que ayer fueron residuos, hoy son materiales de suministro para crear nuevos productos. Nunca parece que está dicha la última palabra en el empleo de residuos materiales.

Uno de los campos en los que se ha producido un proceso similar es en el de los LED de puntos cuánticos de silicio. El Silicio es el elemento mas abundante de la Tierra, con permiso del Oxígeno, alcanzando hasta un 27.72 % de la corteza terrestre (el oxígeno es un 46.6%) a mucha distancia del aluminio que supera ligeramente el 8%. Su punto de ebullición situado en 2680 ºC y el de fusión en 1410 ºC y un potencial de ionización de 8.15 eV le hacen estable por encima de cualquier circunstancia. En 2003 Link trabajaba en la Universidad de California en San Diego, pretendiendo obtener una película fina de silicio en polvo sobre un sustrato cristalino y se le rompió accidentalmente el chip. Tras analizar detalladamente los fragmentos, observó que mantenía las propiedades del original y las partes funcionaban independientemente, lo que llevó al anuncio de partículas de silicio que se autoensamblaban. En realidad, era un primer paso para construir robots del tamaño de un grano de arena.

El denominado silicio poroso era conocido desde la década de los cincuenta del siglo pasado y la denominación de polvo inteligente fue acuñado por Pister de Berkeley en 1996, concretando que se trata de "un sistema autónomo de detección, computación y comunicación que se empaqueta en una mota cúbica milimétrica". Los granos de silicio se unen espontáneamente y se orientan. Presentaba dos caras, como espejos y cada superficie podía modificarse para que encontrara y se pudiera adherir al objeto que se deseara. Estas características permitieron que el silicio poroso encontrara

Pg. 194 VALLE DE LA CIENCIA. Valle de Elda A. Requena

aplicaciones en baterías de iones litio, materiales luminiscentes, sensores, etc. El Silicio no es tóxico y además de ser abundante, tiene propiedades fotoluminiscentes, gracias a las estructuras de puntos microscópicos, puntos cuánticos, que le hacen semiconductor.

Una de las servidumbres de los puntos cuánticos es que están hechos de capas que son biocompatibles y estables en agua, pero si se abren fisuras en el recubrimiento, cosa fácil de que ocurra, liberan compuestos tóxicos. Los de seleniuro de cadmio son de los más estudiados, y tienen múltiples aplicaciones desde medicina hasta como componentes de células solares, en la computación cuántica, diodos emisores de luz y muchos otros dispositivos. La acumulación de cadmio, constituye un riesgo que requiere investigar las servidumbres de su uso. Focaliza también a los puntos cuánticos actuales y esto incentiva que se busquen nuevos métodos de producción de puntos cuánticos que no tengan impacto negativo. La sorpresa es que la cáscara de arroz que se desecha es fuente de sílice (SiO2) de gran pureza y por si fuera poco, de polvo de Si, lo que supone un valor añadido notable.

Tras la molienda del arroz y la extracción del polvo de sílice, al hacer desaparecer por combustión los componentes orgánicos residuales, se calentó el polvo de sílice en un horno eléctrico obteniendo el Si por reducción. El polvo obtenido se redujo a un tamaño de 3 nanometros mediante la operación de grabado químico, también conocido como mecanizado fotoquimico, en el que se disuelve el metal mediante disolventes químicos, en el que el agente grabador químicultravioleta UV. Se logra alta precisión, aun cuando se trate de geometrías complejas. Finalmente, la superfice se funcionaliza químicamente logrando una elevada estabilidad química y gran dispersión en el disolvente consiguiendo partículas de unos 3 nanometros de puntos cuánticos de silicio que logran una luminiscencia en el rango naranja al rojo con una luminiscencia altamente eficiente.

TRAZO 2.13 Polvo inteligente de arroz Pg. 195

En suma, se trata del residuo de la molienda del arroz que produce anualmente unos 100 millones de toneladas de cáscara de arroz. Resulta ser éste, un reciclaje de los residuos transformándolos en diodos emisores de luz, económicos y, desde luego, mas respetuosos con el Medioambiente, que los producidos hasta ahora. Quedan en espera otros productos naturales, susceptibles de suministrar materiales con valor nanoelectronico: bambú, caña de azúcar, trigo, cebada y muchas hierbas que contienen sílice. Optoelectronica sostenible y no tóxica. El arroz ha abierto la carrera. La Universidad de Hiroshima ha logrado crear el primer LED de puntos cuánticos fabricados a partir de cáscaras de arroz. Esto funciona.

Pg. 196 VALLE DE LA CIENCIA. Valle de Elda A. Requena
TRAZO 2.13 Polvo inteligente de arroz Pg. 197
Pg. 198 VALLE DE LA CIENCIA. Valle de Elda A. Requena

Los romanos adoraban al aire, custodiado por Júpiter para los que tomaban el aire más puro o por el éter, custodiado por Juno, o custodiado por Minerva para el aire más denso en el que estamos sumergidos, Llegaron a hacer del aire una deidad, otorgando como esposa a la luna y por hija el rocío.

El siglo XVIII, especialmente en su segunda mitad, fue un fértil periodo de descubrimientos de gases. Surgió la denominada Química Neumática cuyo objetivo primero fue descubrir la composición del aire e iniciar el descubrimiento de muchas sustancias gaseosas. El aire había sido concebido como un elemento químico hasta la edad moderna, refiriéndolo como inerte y homogéneo, lo cual lo excluía de participar en las reacciones químicas, nada mas lejos de la realidad como después se descubrió. La teoría del flogisto, que desmontó posteriormente Lavoisie, se establecía empleando como premisa la condición de homogeneidad del aire. Se llegó a concebir el aire contaminado por vapores y olores que solamente de forma temporal lo contaminaban. Es en el siglo XVIII cuando se conciben los gases como un estado de agregación de la materia, con la misma entidad que los líquidos y los sólidos.

En 1772 Joseph Priestley descubre varios gases (se le atribuye el descubrimiento del oxígeno, pero fue Schelle el primero que caracterizó al oxígeno entre 1770 y 1773,

TRAZO 2.14 Risa que puede matar Pg. 199 TRAZO
2.14
Risa que puede matar.

mediante el calentamiento de óxido de mercurio, carbonato de plata y otras sustancias) y, entre ellos, el óxido nitroso y describió sus características. Fue algo después, 1799, cuando Humphrey Davy, estudiante de química, lo redescubre, establece los métodos de elaboración y valora sus efectos fisiológicos. Él mismo experimentó los efectos e hizo participar a sus amigos y describió sus efectos analgésicos y sobre todo psicológicos con el potencial uso médico que conllevaba. Le siguieron muchos otros experimentando las propiedades del gas.

Davy, nacido en 1788, cuando Lavoisier y Priestley describían el aire, era muy atrevido y con solo unos veinte años, en cierta ocasión, con dos asistentes, que le observaban atentamente, se puso una máscara de seda en la cara y se narra que con una boquilla de madera inhalaba cuatro cuartos imperiales (4,5 litros, aproximadamente, ya que cada cuarto corresponde a 1136 mililitros) de hidrocarbonato, que era la denominación del monóxido de carbono en la época. Tras el tercer cuarto colapsó y su descripción del hecho fue la siguiente: "parecía que me hundía en la aniquilación y que apenas tenía fuerzas para quitarme la boquilla de mis labios abiertos". Logró salir al jardín tambaleándose, cayendo con un dolor agudo de pecho y los observadores le ayudaron a tomar oxígeno y acostarse. Observó que tuvo secuelas en forma de náuseas e incluso pérdida de memoria. No le disuadió el percance y, al poco, volvió a las andadas, volviendo a ponerse la máscara e inhalar otros gases para analizar los efectos sobre el cuerpo humano. Otro de los gases fue el monóxido de dinitrógeno, como se denominaba en la época al que hoy conocemos como gas de la risa o gas hilarante. Ahora describía que "este gas me subió el pulso, me hizo bailar por el laboratorio como un loco y ha mantenido mi ánimo resplandeciente desde entonces", le escribió a un amigo. Se sabía que el monóxido de dinitrógeno era letal y explotaba a alta temperatura, pero Davy quería comprobarlo todo.

Pg. 200 VALLE DE LA CIENCIA. Valle de Elda A. Requena

Davy bautizó al monóxido de dinitrógeno como gas de la risa. Watt diseñó el primer equipo que empleó Davy y después usó una caja portable en la que se introducía y sellaba y mediante válvulas introducía y expulsaba los gases con los que experimentaba. Calentó nitrato amónico, lo recogió y lo paso por agua para purificarlo y finalmente lo inhaló de unas bolsas de seda engrasadas. Medía y registraba los detalles cuidadosamente. Una vez que inhaló cuatro cuartos de monóxido de dinitrógeno, describe que sintió hormigueo placentero y todo se volvió resplandeciente e incluso el oído se tornó mas agudo. Debía curar algún mal y experimentó con pacientes de una clínica, tomando nota de las pulsaciones, rubores y deja constancia de que algunos lo encontraron muy agradable. Hubo casos de histeria, pero escasos. Lo dio a probar a amigos y conocidos, que manifestaron el placer que les provocó y lo felices que se sintieron.

La importancia del hecho es que un compuesto químico incidía en las emociones y pensamientos de las personas. Fue un indicio de que la Química podía acceder a los sentimientos del corazón y al cerebro. Davy fue incrementando las dosis y tomando notas del efecto devenido.

Hoy cabemos que el óxido nitroso es un anestésico. Provoca una disociación de la mente del cuerpo, lo que conlleva una sensación de flotación, desencadenando percepciones distorsionadas e incluso alucinaciones visuales, en casos.

Hoy es una droga de moda en el Reino Unido, que ha llegado a España, donde cada vez es mas frecuente. Se emplea para sedar en intervenciones menores y como aditivo alimentario en la producción de cremas batidas, por lo que es legal y permitido su uso. Está calificado como anestésico. Afecta de forma diferente, en función de peso, tolerancia e interacción con otros medicamentos. De forma descontrolada puede llegar a provocar la muerte súbita. En todo caso afec-

TRAZO 2.14 Risa que puede matar Pg. 201

ta a la presión arterial, puede provocar desmayo e infarto de miocardio e incluso hipoxia por falta de oxígeno. Como efectos secundarios se han indicado desde depresión, espasmos déficit de vitamina B12, afectación del sistema inmunológico, hasta psicosis.

Es legal comprarlo, almacenarlo y comerciar con él. Pero lo que no está permitido es que lo obtengan personas para usos que no sean los mencionados y es constitutivo de un delito contra la salud pública. El problema es que al ser usado en repostería y medicina es legal admite comprarlo, almacenarlo y comerciar con él. Lo que no está permitido es venderlo a personas cuyo uso no vaya a ser los anteriores mencionados, algo difícil de prever. Eso supone un problema para su control, y es potencialmente un delito contra la salud pública.

Puede que haga reir, pero puede matar y, de este modo, el denominado gas de la risa, es lo contrario de una fuente de diversión.

Pg. 202 VALLE DE LA CIENCIA. Valle de Elda A. Requena
TRAZO 2.14 Risa que puede mataro Pg. 203
Pg. 204 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 2.15

Competición por la captación de CO2.

Además de todos los ingenios que se están ideando en la actualidad o en fase de prototipo para captar el CO2 y eliminarlo de la atmósfera, los denominados sumideros de carbono están constituidos por los bosques y los océanos. Además de estos procesos naturales y dada la situación de que están llegando a la saturación, se han ideado formas artificiales de capturar el CO2 mediante máquinas que filtran el aire separando el CO2 para llevarlo a depósitos o inyectarlo en el suelo.

En Zurich se han llevado a cabo las investigaciones técnicas que fundamentan una propuesta de eliminación del CO2 que puede ser efectiva. Se trata de la captura directo del CO2 del aire en unas instalaciones situadas en ocho ubicaciones, además de en España (Tabernas) en Chile, Grecia, Jordania, México, Islandia, Noruega y Suiza, y se da como referencia que se puede llegar a eliminar hasta el 97% del CO2 de la atmósfera. Mediante potentes ventiladores, se propicia la absorción del CO2, que luego se libera del material absorbente y queda listo para almacenarlo. La temperatura del proceso es función del absorbente empleado y tiene lugar en las distintas versiones entre 100 y 900 ºC. La eficiencia del sistema tiene en cuenta la componente energética que no es pequeña, con lo que, a su vez se generan gases de efecto invernadero en el proceso, debido al calentamiento necesario.

TRAZO 2.15 Competición por la captación de CO2 Pg. 205

La eficiencia en el proceso de eliminación, analizada comparativamente en las ocho ubicaciones, se sitúa entre 9% y 97% y pudiera ser un mecanismo complementario de decarbonización que no conviene desechar. Ciertamente hay que procesar mucha cantidad de aire, máxime si tenemos en cuenta que el mayor componente del mismo es el nitrógeno. Probablemente una forma eficaz de introducir estos sistemas es limitarlos a la producción local, es decir, en las propias instalaciones industriales que lo generan y retener el CO2 antes de emitirlo a la atmósfera.

Son embargo, no cabe desechar el mecanismo convencional que sitúa como máximos sumideros a los bosques y a los océanos. Estos últimos capturan mas cantidad de CO2 de la que se pensaba: se estima que en torno al 30% de todo el CO2 que generamos y emitimos a la atmósfera resulta absorbido por las capas superficiales de las aguas marinas. El mar incorpora el CO2 por varios mecanismos: como carbono inorgánico disuelto (bicarbonato y carbonato) consecuencia de la reacción del CO2 con el agua; alternativamente como carbono orgánico incorporado en la biomasa resultante de los procesos fotosíntéticos de microalgas y, finalmente, en forma de carbonato cálcico incorporado en organismos que se alimentan de plancton, como también en los corales y moluscos.

Las plantas captan el CO2 en el proceso denominado fotosíntesis, en el que a partir de aquella molécula sintetizan la molécula de glucosa. Para formar una molécula de glucosa se precisan seis moléculas de CO2 de forma que se retira una cantidad importante de CO2 de la atmósfera para que la planta pueda utilizar el resultado para conformar su propia

Pg. 206 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 2.15 Competición por la captación de CO2 Pg. 207

estructura o para liberar la energía que encierra la molécula de glucosa. Si bien este proceso se da en todas las plantas verdes, la velocidad del proceso no es la misma en todas ellas. Por ejemplo, el bambú crece muy rápidamente y, como consecuencia, consume mayor cantidad de moléculas de CO2, dado que requiere hacerlo a mayor velocidad. Esto evidencia que las plantas que consumen a mayor velocidad el CO2 son las mas interesantes a efectos de quitar de en medio la molécula protagonista del calentamiento global. La contrapartida es que las plantas que consumen muy rápidamente el CO2, no son longevas y cuando mueren son objeto de pasto para insectos y microbios, en general que, de nuevo, atacan las moléculas que se han formado a partir del CO2 y dan lugar a nuevas concentraciones de CO2 que emiten de nuevo a la atmósfera.

Los hechos señalados hacen reinterpretar la bondad de las plantas en relación con el consumo y liberación de CO2, conduciéndonos a que las plantas mas longevas que, además tengan la estructura másica mas dura, serán las mas convenientes para la retirada eficaz del CO2 de la atmósfera. En todo caso, un balance de masa nos conducirá a que cualquier planta que, como es natural, crece a partir de la captura del CO2, acabará liberando a la atmósfera toda la concentración de CO2 que acumularon a lo largo de su vida. Se trata, por tanto, de una especie de reemisión en diferido de todo cuanto capturó, por entregas, pero en perfecta armonía con las cantidades que como sumidero captó. Se cambia el ritmo, pero no se evita el hecho. Antes o después, todo vuelve a su cauce.

Pg. 208 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 2.16

Cocinando nanografito.

Ante las dificultades declaradas, nos agobiamos. El cambio climático, ahora nos afecta y es objeto de nuestra atención constante. Vamos percibiendo que está en marcha, porque percibimos las alteraciones. La cuestión es que ignoramos cuales son los pronósticos de garantía y como están las investigaciones en los temas relacionados. Formamos juicios a través de lo que leemos y escuchamos. De ahí la enorme responsabilidad de algunos medios de comunicación, al conformar la posición colectiva a través de lo que difunden. Y no siempre están acertados en lo que comunican, dado que, en muchas ocasiones, las fuentes no son de garantía e incluso no se han preocupado de que lo sea. Casi que, en la actualidad vivimos de anuncios, raudos, simplificados, carentes de transmisión cabal de la situación. Las omisiones, en muchos casos van por el lado de propuestas, nuevos descubrimientos, novedades científico tecnológicas, que contribuyen a paliar problemas o albergar esperanzas de que vamos adelantando en algunos frentes significativos.

Ciertamente, sin ningún paliativo, las concepciones antropocéntricas del mundo, nos han llevado a considerar que la especie humana es dueña, ama y señora del planeta

Tierra (ahora lo extendemos a otros planetas, por cierto) de forma que la única especie con valor intrínseco, per se, es la nuestra y todo los demás es instrumental, con valor conferido. Eso ha llevado a muchos a considerarnos la especie cúspide y todo lo demás está a nuestro servicio. No ha habido contemplaciones a lo largo del tiempo histórico. Ni siquiera los

TRAZO 2.16 Cocinando nanografito Pg. 209

cazadores reproductores se puede considerar que vivieron en armonía con la Naturaleza y que estén exentos de aspectos depredadores. Hemos llegado al punto en el que estamos. El ingenio humano ha sido capaz de sustituir unos materiales por otros, cuando han dado señales de agotamiento en la avidez sin límite del suministro a las sociedades industriales. No hay limitación en la entrega de la Tierra y la cuestión es ¿hasta cuándo llegaremos con la explotación irracional sin límite?

La investigación, presa del ingenio humano cultivado, atesora innumerables avances, muchos ellos incidiendo de forma directa en la dirección que requiere una reconducción de los comportamientos, que como especie nos han enfrentado con los problemas que ahora van dando la cara. La eficacia de los procesos es una constante preocupación de los investigadores que intentan proponer métodos más rápidos, más eficaces y en armonía con un Medioambiente que requiere un trato similar al que nos damos entre si en nuestra especie, como nos propondrían, Muir, Leopold o Lovelock, entre otros, que vinieron a resucitar la "Pancha Mama" (la Madre Tierra), primitiva idea en que la Tierra es un ser sensible, con potencia y que hay que amar y respetar y en el que los seres humanos somos "vida que quiere vivir en medio de vida que quiere vivir".

El proceso de obtención de nanografito ha encontrado en la propuesta de investigadores de la Universidad de Wyoming una forma sencilla, asequible y eficaz de obtención: un horno microondas permite generar chispas en un frasco de vidrio en el que se ha depositado polvo de carbón y se ha incluido una lámina de cobre para facilitar la producción de chispas eléctricas y ahí se genera nanografito. El horno de microondas empleado es doméstico y convencional. No cabe duda de que es un método que da una salida, razonable, al temido medioambientalmente hablando, carbón que tanta preocupación introduce en el contexto del cambio climático.

Pg. 210 VALLE DE LA CIENCIA. Valle de Elda A. Requena

El producto obtenido es un lubricante y en otros muchos artículos como en los extintores de incendios o en las baterías de litio, elemento químico ya escaso y enormemente apreciado para la acumulación de energía eléctrica. Por si fuera poco, el proceso es muy económico.

De nuevo, el ingenio humano permite convertir una fuente abundante de carbono, en material de alto valor, con la consecuente ventaja económica y ambiental. Un polvo de carbón, bajo una lámina de cobre introducido en un microondas, posibilita eliminar el contenido de humedad y separar el azufre y otros minerales. ¡Fantástico! Todo lo que había que hacer es introducir una lámina de cobre y sellar los recipientes de vidrio que contenían el polvo de carbón con una mezcla de argón e hidrógeno. Se generaron chispas inducidas por la radiación de microondas que provocaron un incremento de la temperatura que llegó a alcanzar en torno a 1000 ºC. En el fondo, es comprensible que se aconseje que no se introduzcan elementos metálicos en un microondas. Esta temperatura es la que originó la transformación del polvo de carbón en grafito policristalino. Un tiempo de unos 15 minutos parece que es óptimo, logrando un proceso limpio, rápido, efectivo y barato.

La comparación del proceso convencional de obtención de grafito a partir de carbón o derivados del petróleo, que actualmente está en vigor, no tiene opción ventajosa alguna. De nuevo es el ingenio humano el que provoca la ruptura de los procesos convencionales. Es posible que tiempo atrás no tuviéramos la suerte de la inspiración que implica las propuestas novedosas como esta que repercuten de forma positiva en el medioambiente. Lo cierto y verdad es que, casi siempre, son las repercusiones económicas las que guían la evolución técnica. Y el Medioambiente no ha sido considerado una variable determinante hasta que las preocupaciones por nuestro futuro se hacen mas que evidentes. No deja de r4esultar curioso que los que consideran que tuvieron una

TRAZO 2.16 Cocinando nanografito Pg. 211

educación de calidad, nunca oyeron una palabra acerca de las preocupaciones medioambientales. No ha sido una variable económica nunca, hasta que legalmente se va introduciendo la necesidad de considerar el daño infringido al Medioambiente como una variable económica que debe ser determinante. La preocupación que debemos tener es el ser capaces, como especie, de legar a nuestros sucesores, al menos, un planeta en las mismas condiciones que lo recibimos. Hoy el requerimiento es mas exigente, por cuanto ha sido demasiado tiempo el que hemos vivido de espaldas a la Naturaleza. Y conste, que la mayoría de los actuales seres humanos vivos, no lo veremos, pero el compromiso es con ellos, con los que nos sucederán.

Pg. 212 VALLE DE LA CIENCIA. Valle de Elda A. Requena
TRAZO 2.16 Cocinando nanografito Pg. 213
Pg. 214 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 2.17

Recursos escasos.

Durante mucho tiempo los objetos metálicos eran distinguidos por los consumidores con una valoración de calidad. La contundencia y aspecto de los productos alemanes resaltaba entre las versiones de peor calidad. Acreditaban una calidad suprema. Se asociaba a larga duración una apariencia metálica que transmitía una certificación de calidad. En otras parcelas, como la construcción iban acompañadas de la piedra de enjundia, entre la que el mármol y el granito exhibían la máxima calificación.

El plástico vino a cambiar nuestra existencia, incluida la percepción de los materiales. Tras los primeros balbuceos en que la falta de adaptabilidad, la de flexibilidad y la endeblez lo relegaban a un plano muy limitado, emergieron los plásticos funcionales que acreditaban características muy apropiadas para las variadas finalidades en las que se empleaban. Ahora, vamos conociendo la cruz de la moneda, cuando nos agobia su existencia y sus restos y, en gran medida, nos arrepentimos de lo hecho. No parece que el remedio esté próximo y la vuelta atrás no parece fácil. El vidrio ha vuelto a su esplendor, afortunadamente, y en otros frentes queda mucho por hacer. En todo caso, nunca el plástico sustituyó a los metales en sus aspectos básicos, ni siquiera estéticos.

No obstante, la economía moderna se ha basado en gran medida en el uso de metales. Aunque su vida no es ilimitada. Muchos metales de uso industrial se han perdido.

TRAZO 2.17 Recursos escasos Pg. 215

Aparentemente, la oferta de la Tierra es ilimitada, dado que además de su aportación, se une el ingenio humano, capaz de encontrar nuevos productos sustitutivos de los empleados, en casos, se vuelve a tratar el material de desecho de las explotaciones mineras, dado que se han ideado nuevos procesos de tratamiento que hacen rentable la explotación de residuos que, anteriormente, se consideraban imposibles de recuperar. Finalmente, se encuentran nuevas soluciones ventajosas con respecto a las empleadas hasta el momento.

Muchos metales se pierden con el uso, se prescinde de ellos. Las chatarrerías conocen de ello, perfectamente. Componentes de máquinas que se han roto o han dejado de utilizarse, muchas veces se pierden. En otros casos se convierten en sustancias que se dispersan en el Medioambiente, en forma de fertilizantes, por ejemplo. Un estudio llevado a cabo en la Universidad de Yale, liderado por Graedel concluye que el 84% de los metales perdidos en el mundo está en relación con el tratamiento de residuos y el reciclaje.

De estos argumentos deducimos que la vida de los productos metálicos no es ilimitada. El estudio publicado en Nature, recientemente, sobre esta cuestión ha revelado que hasta 61 de los metales usados comercialmente, más de la mitad, tienen una duración inferior a 10 años. El final es que acaban como chatarra o perdidos, en lugar de reutilizados o reciclados.

La cosa tiene importancia, dado que el sector metalúrgico aporta hasta el 8% de las emisiones de gases de efecto invernadero a nivel mundial. Por tanto, el impacto ambiental es importante. Actualmente solamente se recicla una pequeña parte. Oro, hierro y plomo son los que mas se reciclan. En cambio, otros metales de importancia en el uso actual, como el cobalto, muy usual en productos de aviación y las baterías de litio, no tiene un reciclado resaltable, lo mismo que ocurre con el galio que es primordial en los móviles y dispositivos

Pg. 216 VALLE DE LA CIENCIA. Valle de Elda A. Requena

electrónicos. Obligar a que nuevos productos se fabriquen con productos reutilizados, es un imperativo imprescindible. La UE está en ello. Reciclar las aleaciones implica un reto tecnológico, al tiempo que económico. Hay que acometerlo.

Ciertamente no está nada claro, en el marco de cualquiera de las concepciones éticas sobre el Medio Ambiente, hasta cuando podemos hacer un uso irracional de los recursos naturales. Esa apariencia de aportación ilimitada, hace tiempo que no tiene sentido y el ingenio humano tiene que encontrar formas de relación con la Naturaleza que, lejos de ser agresivas, permitan el desarrollo, pero racional, y el progreso presente y futuro de los seres humanos. Desde una visión biocéntrica de la vida, tenemos que cuidar todos los procesos y mecanismos que permiten mantener aquella, hoy y en las generaciones futuras. Ya no es tiempo de concepciones antropocéntricas en las que el hombre es amo, dueño y señor de la Naturaleza y cualquier cosa que haga y las consecuencias derivadas no pueden ser irrelevantes. La ética de la Tierra y la ecología profunda nos evidencian que la Tierra es un ser vivo, con potencia y sensibilidad y el hombre es vida que quiere vivir en medio de vida que quiere vivir. Tan simple como eso.

TRAZO 2.17 Recursos escasos Pg. 217
Pg. 218 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 2.18

Biometría del aliento.

Seguramente, el signo externo más elocuente del nivel de la tecnología sea la identificación de las personas. Es un elemento que desde el primer momento se ha referenciado como signo de modernidad tecnológica intentando y transmitir esa primera garantía de nivel y calidad de aquella. Todo comienza por la identificación, como nos recuerdan constantemente en las recepciones de los hoteles. Fernando VII creó la Policía en España en 1824 atribuyéndole la potestad exclusiva de crear padrones que incluyeran edad, sexo, estado, profesión y naturaleza del vecindario. Hoy mantiene la citada potestad el Cuerpo Nacional de Policía, concretado en el DNI, creado el 2 de marzo de 1944 y en su primera versión moderna en 1951. En 2006 el DNI incorporó un chip, transformándose en un documento electrónico y en 2015 se introdujo el DNI 3.0 con tecnología de inducción mediante un campo magnético que permite operar en la banda de 13,56 MHz, libre para uso sin licencia. Esto implica que, en forma pasiva, aprovecha el campo electromagnético de un emisor y mediante modulación de la carga puede transferir los datos. El iniciador de la comunicación es el encargado de generar el campo electromagnético. En 2021 se introdujo el DNI 4.0 adaptado a la normativa europea y mejoras de seguridad.

Pero la identificación electrónica tiene versiones más elaboradas. El iris del ojo humano o los rostros en imágenes digitales han logrado más de un 95% de efectividad. El viejo método de la huella dactilar o la palma de la mana quedan

TRAZO 2.18 Biometría del aliento Pg. 219

lejos. El reconocimiento de la voz, la grafología e incluso el ADN, con distintos requerimientos de tiempo para practicarlos son potenciales procedimientos contrastados, aunque el uso generalizado de alguno de ellos, está por ver. Legalmente, la huella dactilar y el ADN tienen un estándar legal para identificar.

Pero la tecnología nos lleva de la mano a novedades que podrían modificar nuestras habilidades, con la consecuencia de moldear nuestra identidad humana. Hoy nos sometemos, casi desde que nacemos, a las tecnologías, desde los videojuegos hasta las redes sociales, constituyendo los nativos digitales, que no conocieron el mundo sin las aportaciones tecnológicas. Esto, a poco que lo pensemos, afecta a nuestra identidad humana. Las alertas por el uso excesivo y su incidencia en el sueño o en el aprendizaje, no parece que las tomemos en consideración y es importante que nos replanteemos el uso y poder que le concedemos a las tecnologías.

El cerebro es maleable y se le atribuye plasticidad, significando con ello que se generan proteínas relacionadas directamente con la flexibilidad implicada en los cambios drásticos de las neuronas. El cerebro se adapta constantemente al entorno y eso tiene su correlato bioquímico expresado en las proteínas que se generan en los procesos neuronales que tienen lugar. Las partes del cerebro que procesan un sentido, cuando falta o se ve minimizado, pasa a ocuparse del procesado de otro sentido. Ciegos, sordos y carentes de extremidades, experimentan este proceso de adaptación en primera persona.

Uno de los campos de investigación mas activos radica en el procesado de ondas cerebrales para acciones en el mundo exterior, pasando la actividad eléctrica neuronal a una prótesis que se estimula y genera respuestas motoras. Las interfaces cerebro - ordenador prometen suplir muchas deficiencias de diverso origen. Se puede pensar en lograr habili-

Pg. 220 VALLE DE LA CIENCIA. Valle de Elda A. Requena

dades inimaginables, como proclama el posthumanismo: nanotecnología, biotecnología, neurociencia y computación lo hacen posible.

Sin llegar a este límite, la tecnología actual, permite identificar a las personas con técnicas inimaginables hace bien poco: Un sensor químico olfativo puede identificar quienes somos. Las huellas y el reconocimiento facial ya están incorporados en nuestros teléfonos. Investigadores de las Universidades de Tokio y Kyushu proponen un sistema de nariz artificial de 16 canales, capaz de identificar a personas con una precisión superior al 97%. La cuestión es que en la biometría, las lesiones son el talón de Aquiles, al modificar los patrones, desde la voz, hasta el rostro y cualquiera de los que emplean elementos físicos. La composición química es una referencia mas estable. el olor humano se propone como una nueva clase de autentificación biométrica, que permite confirmar la identidad personal, desde la intimidad del gas percutáneo que se produce en la piel, cuya concentración es muy baja, del orden de partes por billón o trillón, pero en el aliento la concentración es de partes por millón. Ya se ha utilizado el aliento para detectar cáncer o diabetes, incluso el COVID-19. El aliento contiene hasta 28 compuestos susceptibles de detección. Una red neuronal entrenada permite desarrollar patrones que permiten distinguir alientos singulares. Seguramente lo veremos incorporado en nuestro teléfono no dentro de mucho tiempo.

TRAZO 2.18 Biometría del aliento Pg. 221
Pg.
222 VALLE DE LA CIENCIA. Valle de Elda A. Requena
TRAZO 2.18 Biometría del aliento Pg. 223
Pg. 224 VALLE
CIENCIA.
Requena
DE LA
Valle de Elda A.

Cerebro máquina.

De siempre, una vieja aspìración de la humanidad ha sido disponer de seres artificiales para ayudarle en sus deficiencias anatomo-fisiológicas. Lo venimos intentando, al menos, desde que hay testimonio escrito de tal hecho. El camino no ha estado exento de estafas propias de aspiraciones a lograrlo de forma ilegítima. Jugadores de ajedrez que acabaron en humanos debajo de las faldas de la mesa camilla, son muy frecuentes en los relatos de la edad moderna. La otra alternativa del ordenador como complemento de la actividad, es usual en todas las actividades de las personas, desde que las prótesis se incorporan para suplir debilidades humanas.

Una de las vertientes de esta relación íntima humanoordenador se centra en las interfaces, cuyo sueño lejano es la amplificación de la inteligencia humana, aunque, por el momento sigue siendo una aspiración. No obstante, se ha dado la noticia de la implantación por primera vez de una interfase cerebro-ordenador en humano, logrado por la más desconocida de las empresas implicadas en este tema, Synchron, que ha denominado al dispositivo Stentrode. La fecha de la autorización por la FDA norteamericana es de 6 de julio de 2022. Es satisfactorio que no se haya dado en un entorno desde el que suelen emerger anuncios rutilantes que provocan grandes titulares, pero que no necesariamente tienen una incidencia efectiva y practica en el mundo actual. En este caso

TRAZO 2.19 Cerebro máquina Pg. 225
TRAZO 2.19

se trata de una experiencia en busca de solucionar problemas médicos que nos afectan en la actualidad, como son las cuestiones neurológicas.

El sistema Stentrode, en el tamaño de un clip, incluye una malla de electrodos que se implantan en la vena yugular, evitando perforar el cráneo y la consiguiente cirugía cerebral abierta, lo que supone un avance y una aportación de alcance, por cuanto la intervención se puede llevar a cabo sin necesidad de sofisticados protocolos y, por tanto, al alcance en cualquier clínica de cualquier parte del mundo. Es, por tanto, una propuesta que tendrá mucha incidencia porque se pone al alcance de muchos beneficiarios si, como es de esperar, se evidencia la metodología como segura para poder generalizar su uso.

El dispositivo se incorpora al cerebro a través de los vasos sanguíneos, a diferencia de otras propuestas, como la de Neuralink, que pretende la implantación directa en el cráneo. La actividad cerebral, una vez que se ha instalado en el cerebro, se traduce en señales que permiten realizar una serie de actividades. Es un método no invasivo y el dispositivo se alimenta a través de la vena del paciente hasta que llega al cerebro. Consta de una red de 16 sensores que revisten la pared interior del vaso. El dispositivo está conectado a otro dispositivo situado en el pecho que es el que transmite las señales cerebrales de la corteza motora, donde se generan las señales del movimiento transmitidas como comandos dirigidos a un ordenador portátil externo.

Esta neuroprótesis motora, Stentrode, pretende ayudar a pacientes con parálisis severa. Podría representar el comienzo de una era para el tratamiento eficaz de los daños cerebrales, parálisis y, en general, los trastornos neurológicos. Se han iniciado las pruebas en humanos. Seis pacientes con parálisis severa en Nueva York y Pittsburgh lo estrenan. Anteriormente se habían llevado a cabo en Australia y se infor-

Pg. 226 VALLE DE LA CIENCIA. Valle de Elda A. Requena

ma de un progreso apropiado sin haber detectado efectos secundarios tras 12 meses de implante

Los implantes Stentrode permiten controlar los dispositivos digitales solo con el pensamiento y otorga la capacidad de realizar las tareas cotidianas, desde enviar mensajes de texto o correos electrónicos o comprar por Internet. Las señales se transmiten de forma inalámbrica a una interfase de ordenador desde la que se controla el teléfono o, en general cualquier dispositivo inteligente. Ni que decir tiene que es una ventana abierta a lograr una mejora sustancial de la calidad de vida en pacientes sujetos a una enorme restricción motora, como son las parálisis cerebrales severas.

Como siempre ocurre en investigación, ahora se da a conocer el resultado en experimentación, pero procede de iniciativas tomadas en 2012. Ahora el interés se centra en que la tecnología que se propone suponga una mejora significativa de la vida de los pacientes que la adoptan, toda vez que el uso médico logre estar bien establecido.

Un avance potencial para cambiar la vida de montones de personas en todo el mundo, de lo que nos felicitamos sinceramente. La neurociencia está cada vez más cerca de equiparar su actividad a las propuestas de la ficción fílmica. No cabe duda que es una contribución a la evolución a través de la conexión de una máquina con el cerebro a través del pensamiento, lo que supone una integración entre la tecnología con el ser humanos.

2.17
Pg. 227
TRAZO
Cerebro máquina
Pg. 228 VALLE DE LA CIENCIA. Valle de Elda A. Requena

TRAZO 2.20

Escatología física.

Hablar del futuro, aunque sea a muy corto plazo, es arriesgar en lo desconocido. Seguimos con dificultades para pronosticar el tiempo, aunque menos que tiempo atrás, pero aún. Otro tipo de eventos es realmente arriesgado pronosticarlo. Ahora, con más sensibilidad que en otros momentos, es más usual plantearse el final de la pandemia, de la vida en la Tierra, del destino del sistema solar y ascendiendo progresivamente, del Universo.

Los astrónomos y cosmólogos llevan una eternidad intentando hacer predicciones sobre el destino final del sistema solar. El cálculo de las órbitas planetarias deterministas no es sencillo, ni preciso. Si descendemos a la Tierra, como planeta, de forma generalizada se piensa que no presenciará la muerte de su estrella, el Sol. Tras una agonía larga, una especie de invernadero generado por el propio Sol, evaporará los océanos en unos mil millones de años y el proceso finalizará dentro de unos 4.000 millones de años. Eso significa que estamos en la parte central de la vida de la Tierra como planeta del Sol, transcurridos unos 4.500 millones de años, y con una perspectiva de similar duración por delante.

A esta ocupación del estudio de la dirección en la que parece caminar el universo, modelando para la predicción de tal proceso, es a lo que Martin Rees, el flamante exdirector de la prestigiosa publicación, Nature, denominó Escatología Física. Su pretensión fue la de rotular el estudio de las cosas fundamentales, como desde luego lo es, el fin del mundo. Uno

TRAZO 2.20 Escatología físical Pg. 229

de los retos previsibles es enfrentarnos como Humanidad a la supervivencia con ventajas competitivas sobre otros mamíferos. Es inevitable tener in mente la extinción de los dinosaurios. Ciertamente, es más improbable la extinción natural que la autodestrucción, como todos los indicadores s la mano aventuran. Pero ello, no es óbice que, de superar los riesgos actuales, nos esperan otros desafíos para la subsistencia como especie. Algún día tendrá que finalizar el periodo interglacial que estamos disfrutando, por ejemplo. Como especie, ya hemos superado una situación tal como ella, por lo que es de suponer que podremos superarlo de nuevo. No estamos en idénticas condiciones que estuvimos, dado que hoy formamos parte de una civilización y no estamos ejercitados en la cualificación de nómadas cazadores recolectores que nos precedieron. En las zonas glaciares era posible la vida, mientras que en las ecuatoriales era imposible sobrevivir, por demasiado calientes, aunque en determinados momentos toda la tierra estaba bajo el hielo. Hace 55 millones de años la temperatura fue unos 8ºC superiores a la de hoy, en el Paleoceno-Eoceno. La Humanidad logró sobrevivir. Además de todo esto, hay riesgo, concretado en episodios que acontecen cada 100 millones de años, en los que el vulcanismo, los meteoritos, etc., ponen en riesgo la existencia humana.

Un riesgo, hoy palpable, es la evolución del ser humano a otra forma de vida, fácil de comprender si pensamos en la mutación constante y la implacable acción de la selección natural. Los genes se pueden modificar, porque tenemos acceso a ello. Ética aparte, la tecnología lo permite y la Historia de la Humanidad evidencia que todo lo posible acabo haciéndose. Se está dando una progresiva fusión hombremáquina que, en estos momentos, ya está centrada en el cerebro. Es de suponer que en poco tiempo se darán avances considerables en la dirección de la fusión natural-artificial.

Pero, en otro orden de cosas, podemos visualizar un final de la vida en la biosfera, que se estima en 1.000 millones

Pg. 230 VALLE DE LA CIENCIA. Valle de Elda A. Requena

de años. El Sol protagonizará el final de la biosfera. La Tierra sobrecalentada se despedirá. La temperatura creciente en la Tierra, como consecuencia del incremento de la irradiación solar, implicará una desaparición de dióxido de carbono que, a su vez, acabará con el proceso vital de la fotosíntesis vegetal que mantiene la vida en la Tierra. Por otro lado, la creciente temperatura en la Tierra generará una emisión de vapor de agua que afectará a todos los reservorios de agua, lo que a su vez contribuirá a un mayor recalentamiento de la tierra al soslayar el efecto amortiguador de la cubierta de agua que atempera por su capacidad calorífica. Se han conjeturado toda suerte de ingenios tecnológicos incluyendo reflectores situados en la estratosfera, desplazamiento del planeta a posiciones más alejadas del Sol y muchas otras opciones, incluyendo trasladar la vida a otro lugar del espacio. Este tipo de conjeturas en otra época pudiera parecer que son especulaciones utópicas e irrealizables, pero el estado de la tecnología actual permite formularlas dentro de la plausibilidad. Hay muchos otros planetas de tamaño similar a la Tierra, orbitando en torno a estrellas enanas rojas, similares a la enana amarilla que es nuestro sol. Es factible un hábitat apropiado para ser sostenible. En todo caso, tenemos tiempo de lograr avances en este sentido, dado que el declive solar, como hemos citado, tiene un lapso de 1.000 millones de años para que dé comienzo.

El Sol está como en la mitad de su existencia y en unos 4500-5000 millones de años se incrementará su brillo, dado que el helio acumulado en las reacciones nucleares que lo sostienen, contribuirá a ello y se convertirá en una enana roja. La temperatura descenderá en su superficie, aunque emitirá mucha más luz al incrementar aquélla. Aquí, la Tierra comenzará su pasión, porque en la expansión del Sol, quedará subsumida en él. Si no ocurre esto, pasará algo peor, consistente en que quedará devastada al quemarse. Una vez que transcurran unos 1000 millones de años, el Sol expulsará gran parte de su atmosfera y pasará a ser una enana blanca. Esto indica que no hay muchas opciones más que emigrar a otro sistema

TRAZO 2.20 Escatología física Pg. 231

solar. Para ello hay que disponer de naves capaces de hacer el traslado en poco tiempo. De no abandonar el sistema Solar, solo quedaría la opción de que la especie humana se convierta en una nueva. Superar la muerte del Sol, implica que nuestros descendientes habrán pasado a vivir en otras estrellas de la Galaxia.

Superado este evento, nos lleva a encarar otro evento de gran calado como es sobrevivir a la debacle de las estrellas. El punto máximo de generación de estrellas se ha sobrepasado y, a medida que se consuman pasaremos a disfrutar de estrellas enanas rojas que continuarán brillando miles de millones de años, aunque al final morirán también. Esto quiere decir que, si pensamos en superar esta fase, para sobrevivir a ella se requerirán unas nuevas fuentes de energía distintas de la luz de las estrellas. Cabe pensar en adaptarse a una vida a bajas temperaturas. Ciertamente la vida basada en el silicio es susceptible de resistir las bajas temperaturas y ello podría conllevar que la vida basada en el carbono se reduzca a entornos virtuales.

Todavía quedan las Galaxias, sobreviviendo al final de las estrellas. Se estima que en unos 200 millones de años la Galaxia o se dispersará o caerá en un agujero negro situado en el centro. Los planetas seguirán a sus estrellas. Caben pocas opciones. Llevar las estrellas a orbitas estables, no es una conjetura irrealizable, ya que los humanos ya usamos la gravedad para reorientar las sondas espaciales y acelerarlas y ahora se trata de algo a gran escala y unos grandes reflectores podrían usarse para que la propia radiación de las estrellas fueran los impulsores para cambiarlas de órbita. Es un proceso a gran escala y contando con que se dispone de más de mil millones de años, es plausible.

Aún cabe un paso más, superados los anteriores y es sobrevivir a la desaparición de la materia. Los protones, neutrones y electrones, son estables en condiciones normales,

Pg. 232 VALLE DE LA CIENCIA. Valle de Elda A. Requena

pero su vida media es de unos pocos minutos. No faltan las propuestas de que a largo plazo no son estables. La descomposición de la materia es un reto remanente, cuando estrellas y galaxias hayan desaparecido. Ciertamente, la descomposición de los protones no se ha visto, aunque solamente pudiera indicar que el proceso puede implicar miles de millones de años. Estrellas y planetas se convertirían en radiación, electrones y positrones libres que no podrían generar sistemas estables y, por tanto, no es concebible que pudieran configurarse sistemas habitables. Las estrellas enanas negras, frías, pasarían a ser cristales de helio e hidrógeno que sufrirían una evaporación y solamente quedarían agujeros negros y radiación.

Recordemos que primero fue la luz, después… No tenemos respuesta, pero todo parece indicar que nada indica que podríamos superarlo. Aquí acabaría la subsistencia. El fin de la escatología física.

TRAZO 2.20 Escatología física Pg. 233
Pg. 234 VALLE DE LA CIENCIA. Valle de Elda A. Requena
TRAZO 2.20 Escatología física Pg. 235

SOLUCIONES A LAS PALABRAS CRUZADAS

DEL TRAZADO 2

A. Requena VALLE DE LA CIENCIA. Valle de Elda Pg. 239

SOLUCIONES AL TRAZO 2.1

Proteínas con la basura.

SOLUCIONES AL TRAZO 2.2

Robots sin ley.

Pg. 240 VALLE DE LA CIENCIA. Valle de Elda
Requena
A.

SOLUCIONES AL TRAZO 2.3

Torio nuclear. A. Requena VALLE DE LA CIENCIA. Valle de Elda Pg. 241

SOLUCIONES AL TRAZO 2.4

Percepción del tiempo.

Pg. 242 VALLE DE LA CIENCIA. Valle de Elda A. Requena

SOLUCIONES AL TRAZO 2.5

Ventilación.

A. Requena VALLE DE LA CIENCIA. Valle de Elda Pg. 243

SOLUCIONES AL TRAZO 2.6

Energías renovables.

Pg. 244 VALLE DE LA CIENCIA. Valle de Elda A. Requena

SOLUCIONES AL TRAZO 2.7

Esclerosis múltiple. A. Requena VALLE DE LA CIENCIA. Valle de Eld Pg. 245

SOLUCIONES AL TRAZO 2.8

Fuera de control.

Pg. 246 VALLE DE LA CIENCIA. Valle de Elda A. Requena
SOLUCIONES AL TRAZO 2.9 Terraform. A. Requena VALLE DE LA CIENCIA. Valle de Elda Pg. 247

SOLUCIONES AL TRAZO 2.10 Kilonova.

Pg. 248 VALLE DE LA CIENCIA. Valle de Elda A. Requena

SOLUCIONES AL TRAZO 2.11

CIENCIA. Valle
Elda Pg. 249
Heredabilidad de la inteligencia. A. Requena VALLE DE LA
de

SOLUCIONES AL TRAZO 2.12

Sobrepeso y tiempo de sobrepeso.

Pg. 250 VALLE DE LA CIENCIA. Valle de Elda A. Requena

SOLUCIONES AL TRAZO 2.13

Polvo inteligente de arroz.

A. Requena VALLE DE LA CIENCIA. Valle de Elda Pg. 251

SOLUCIONES AL TRAZO 2.14

Risa que puede matar.

Pg. 252 VALLE DE LA CIENCIA. Valle de Elda A. Requena

SOLUCIONES AL TRAZO 2.15

Captación

CO2.

CIENCIA. Valle de Elda Pg. 253
de
A. Requena VALLE DE LA

Recursos escaasos.

SOLUCIONES AL TRAZO 2.16
Pg. 254 VALLE DE LA CIENCIA. Valle de Elda A. Requena

SOLUCIONES AL TRAZO 2.17

Cocinando nanografito. A. Requena VALLE DE LA CIENCIA. Valle de Elda Pg. 255

SOLUCIONES AL TRAZO 2.18

Biometría del aliento.

Pg. 256 VALLE DE LA CIENCIA. Valle
A. Requena
de Elda

SOLUCIONES AL TRAZO 2.19

Cerebro

máquina. A. Requena VALLE DE LA CIENCIA. Valle de Elda Pg. 257

SOLUCIONES AL TRAZO 2.20

Escatología física.

Pg. 258 VALLE DE LA CIENCIA. Valle de Elda A. Requena

A. Requena VALLE DE LA CIENCIA. Valle de Elda Pg.259

Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.