VOLUMENIII
ATANOR
LECTURAS
VOLUMENIII
ALBERTO REQUENA R.
Catedrático Emérito de la Universidad de Murcia
Académico Numerario de la Academia de Ciencias de la Región de Murcia
Datos de Catalogación Bibliográfica
Atanor Vol. III
Lecturas
Alberto Requena.
ISBN:
Materia: Ciencia y Tecnología
Formato: 160 x 235 Páginas 228
Todos los derechos reservados:
Queda prohibida, salvo excepción prevista en la Ley, cualquier forma de reproducción, distribución, comunicación pública y transformación de esta obra sin contar con autorización de los titulares de propiedad intelectual. La infracción de los derechos mencionados puede ser constitutiva de delito contra la propiedad intelectual (arts 270 y sigs. Código Penal)
DERECHOS RESERVADOS
©2023 por Alberto Requena Rodríguez.
Atanor Vol III
Lecturas
Alberto Requena.
ISBN
Depósito Legal:
Equipo Editorial
Editor: Alberto Requena
Técnico Editorial:
Equipo de Producción
Director:
Técnico:
Diseño de Cubierta: Alberto Requena
Impreso por:
IMPRESO EN ESPAÑA- PRINTED IN SPAIN
Esta publicación está dedicada a La Verdad, a sus lectores y a sus seguidores, en especial de la sección ATANOR. Su actual director, Alberto Aguirre de Cárcer, me permitió comprometerme a escribir sobre Ciencia y Tenología y lo hago encantado. Es una tarea placentera para mi, esta colaboración. Seguir los desarrollos científicos y tecnológicos y divulgarlos, permite aprender cada día algo, de lo mucho que la Ciencia ha aportado. La labor que supone, que un periódico acoja en sus páginas, materiales o virtuales, la difusión de la Ciencia, es muy importante para, desde el conocimiento, aportar en la buena dirección a contribuir a la libertad de las personas. Es una tarea muy emocionante la que resulta al transmitir aspectos de la Ciencia, importantes para nuestras vidas.
—Alberto RequenaAgradecimientos
A todos los que de alguna forma han participado en la factura de estos textos, colaborando, leyendo, sugiriendo o corrigiendo. Un agradecimiento especial a María Emilia Candela, siempre animosa y atenta a sugerir y aportar inteligentemente. De ella aprendo mucho. A José Antonio Lozano Teruel, maestro en muchos frentes, a quien respeto y admiro.
Nuestro agradecimiento expreso a la Verdad y a su Director Alberto Aguirre de Cárcer, por la audacia de incluir en su ámbito la divulgación científica y la apuesta que hace de ello.
Prólogo
Es difícil encontrar en la prensa española una sección de divulgación científica tan innovadora y original como la que realiza quincenalmente en las páginas de LA VERDAD el profesor Alberto Requena, catedrático emérito de la Universidad de Murcia y académico numerario de la Real Academia de Ciencias de la Región de Murcia. Químico de profunda sabiduría y excelente articulista, Requena ha sabido con Atanor gestar una serie apasionante de artículos que se adentran en territorios poco transitados del saber científico. Son ya tres los volúmenes de esta colección, donde el autor va saltando de una temática a otra con una sorprendente base de conocimientos, difícilmente observable en los escritos de otras excelsas personalidades de la ciencia española. Las tecnofirmas, el IA en el fútbol, la fosíntesis artificial, las neuronas cuánticas, la sumisión delictiva, la agrorobótica…. Son numerosos y diversos los temas que aborda el profesor Requena, siempre con un magistral conocimiento de la materia.
No tengo más que palabras de reconocimiento y agradecimiento al autor, pues con su colaboración colmamos una aspiración de excelencia en la cobertura de la información científica. No es casual que Atanor se publique en las páginas de Ababol, un suplemento cultural que se guía por la máxima de que no se puede entender la cultura contemporánea sin la ciencia, pata indispensable de una mesa que sin su presencia estaría completamente coja.
La publicación de este tercer volumen permite disfrutar, bien a sorbos o de un tirón, de esta majestuosa colección de textos que llevan la firma de Alberto Requena. Una extensa obra que empieza a adquirir todos los atributos de lo monumental y enciclopédico. Espero que los lectores disfruten tanto como yo de esta singular aventura literaria y científica, que aún está lejos, espero, de finalizar.
Alberto Aguirre de Cárcer Director de La verdad Otoño de 2023Prefacio
Este libro pretende recoger y dejar constancia de una serie de reflexiones sobre temas diversos, pertenecientes a distintos campos científicos. Por una razón u otra, han sido cuestiones de interés en algún momento, presente o pasado. Representan aportaciones singulares, que alguno de los miembros de la Humanidad ha sido capaz de desvelar y poner al descubierto. Los demás, hemos aprendido de sus relatos.
La curiosidad es una virtud insaciable. Debemos ser humildes y reconocer que no sabemos por qué mantenemos la curiosidad en cualquier tiempo y lugar. El descubrir, tiene una cara oculta que se desvela cuando corremos la cortina que cubre el transfondo y, en realidad, lo que descubrimos son muchos más interrogantes que los que teníamos cuando abordamos una cuestión y creemos haberla resuelto. Pero seguimos insistiendo. No nos conformamos. Esa especie de impulso bíblico que animaba a aquél niño a querer meter toda el agua del mar en aquel hoyo que había practicado en la arena, tiene mucho que ver con el impulso permanente que nos anima a conocer más y más. No hay final, parece, pero insistimos sin perder el aliento.
Imaginen, si nos enfrascamos en un proyecto, consistente en poner negro sobre blanco, cuestiones científicas que, por alguna razón, te apasionan, te interesan o quieres desvelar las entrañas que lo explican. Podría ser labor de toda una vida. En todo caso, es una bendiciòn poderse dedicar a esos menesteres en un momento dado, dedicando tiempo, esfuerzo y atención a temas que te han ido quedando pendientes y te gustaría razonar, conocer y, en casos, desvelar.
La Ciencia avanza y el conocimiento acumulado se incrementa a pasos agigantados. Dentro de poco habrá que revisar los fundamentos. No es posible abarcarlo todo y no va resultando nada trivial, discernir qué es lo imprescindible para seguir avanzando. La Sociedad precisa elevar el nivel de conocimiento utilizable y es una buena razón para que los científicos comprendan que también tienen como obligación transferir ese conocimiento al que han accedido privilegiadamente. Es una gran tarea la que queda por delante. Entre todos, podemos lograrlo.
Alberto Requena
Catedrático Emérito de la Universidad de Murcia Académico numerario de la Academia de Ciencias de la Región de Murcia
Otoño de 2023
Contenido
TRAZADO 1
Trazo 1.1 Neuronas cuánticas, 1.
Trazo 1.2 Sumisión delictiva, 5.
Trazo 1.3 Agrorobótica, 9
Trazo 1.4 Ocurre, 13.
Trazo 1.5 Conexión cósmica, 17.
Trazo 1.6 El geoglifo 143, 21.
Trazo 1.7 Organizaciones y futuro, 25.
Trazo 1.8 Resverattrol y Tierra 2.0, 29.
Trazo 1.9 Tránsitos, 33.
Trazo 1.10 Viaje a las estrellas, 37.
Trazo 1.11 Imitando a la Naturaleza, 41.
Trazo 1.12 Civilizaciones, 45.
Trazo 1.13 El detergente atmosférico, 49.
Trazo 1.14 Palabras, 53.
Trazo 1.15 Villanas plaquetas, 57.
Trazo 1.16 Percolando la pandemia, 61.
Trazo 1.17 Aerogeles de grafeno impreso, 65.
Trazo 1.18 IA y envejecimiento, 69.
Trazo 1.19 Espiral explosiva, 73.
Trazo 1.20 Lo complejo es Nobel, 77.
SOLUCIONES A LAS PALABRAS CRUZADAS DEL TRAZADO 1, 83 - 104
TRAZADO 2
Trazo 2.1 Batería cuántica, 107.
Trazo 2.2 Hacia una máquina ética, 111.
Trazo 2.3 El primero, 115.
Trazo 2.4 ¿Estamos solos? : tecnofirmas y biofirmas, 119
Trazo 2. 5 Conducción autónoma, 123
Trazo 2.6 Hora de irnos, 127.
Trazo 2.7 Tokamak, 131.
Trazo 2.8 Relojes del final, 135.
Trazo 2.9 Ucrania en escena, 139.
Trazo 2.10 IA en el fútbol, 143.
Trazo 2.11 Ligando cosas, 147.
Trazo 2.12 Máquina de proteinas, 151.
Trazo 2.13 Vantablack: color sin color, 155.
Trazo 2.14 Energía nocturna, 159.
Trazo 2.15 Desperdicio alimentario, 163.
Trazo 2.16 Nuevos materiales, 167.
Trazo 2.17 Fotosíntesis artificial: más cerca, 171.
Trazo 2.18 Poder disruptivo solar, 175.
Trazo 2.19 Fabricando moléculas, 179.
Trazo 2.20 Las calorías del cerebro, 183.
SOLUCIONES A LAS PALABRAS CRUZADAS DEL TRAZADO 2, 189 - 210
TRAZO 1.1
NEURONAS CUÁNTICAS.
Esencialmente, la diferencia entre una magnitud clásica y una cuántica es que la primera es continua y la segunda es discreta. Es decir, el velocímetro de los automóviles (vehículos en general), de hace un tiempo, consistía en una aguja que barría un ángulo proporcional al número de revoluciones del eje, indicando, de forma continua (con la precisión de un giro) la velocidad del vehículo. Cuando se pasa a los velocímetros digitales, el indicador es proporcional al giro, pero con la precisión del dígito último de su indicador. Avanza a pasos discretos, no marcando las velocidades intermedias. Los dígitos son discretos, 1,2,3, … los ángulos son continuos. Los circuitos sumadores que emplean valores analógicos, son continuos, mientras que los digitales son discretos. No es nuevo el concepto. Los escalones de una subida suelen, dentro de cierta aproximación, ser todos iguales y este concepto de paso, etapa, escalón es tan antiguo como la Humanidad misma. Otra cosa es que no se le sacara partido, como hoy, para construir dispositivos que resultaron ser herramientas (ordenador) capaces de emular a cualquier otro dispositivo y
por ello ser máquinas de propósito general. El avance es significativo. ¡Quién iba a decir a los primitivos que empleaban ábacos o piedras para confeccionar sumadores, que estaban rondando el germen de un nuevo mundo, que después consagraría la informática!.
El sustrato de la Naturaleza es cuántico, es discreto y esta descripción ha permitido el descubrimiento de propiedades de la materia que ha impulsado las tecnologías que han supuesto un avance significativo en el progreso de la Humanidad. Sin ir más lejos, la electrónica es uno de los desarrollos que han cambiado, económica y socialmente, nuestro mundo. Es difícil encontrar alguna manifestación material que no requiera la Mecánica Cuántica para su explicación. Por muy contraintuitivos que sean los conceptos que utiliza, cada vez estamos más cerca de desentrañar los misterios ocultos de la Naturaleza, que permitan explicar sus leyes a nivel submicroscópico.
Pero no son solamente estos escenarios en los que encontramos un comportamiento cuántico, discreto, no continuo, no analógico. Ya hemos señalado elementos cotidianos, como las escaleras que lo ejemplifican de forma sugerente. Por cierto, debemos a la genialidad de Cortázar el manual para subir por una escalera, que tan brillantemente nos tutela en la acción de ejercitar las secuencias de acciones para lograr pasar del principio de aquélla a lo alto, al final, cuando nos enfrentemos con tan genuino dispositivo. El mundo neuronal también evidencia un comportamiento cuántico, no de la misma naturaleza que los descritos por la Mecánica Cuántica, pero sí cuánticos por cuanto no exhiben las neuronas un comportamiento continuo, sino a saltos, a cuantos, a paquetes indivisibles. Las neuronas intercambian la información mediante la liberación de neurotransmisores en el extremo presináptico que se dirigen al postsináptico, pero en forma de burbujas, denominadas vesículas, que contienen hasta 10.000 moléculas de acetilcolina Una neurona transmite a su
vecina un estímulo nervioso que constituye el denominado potencial de acción, pero cuando las neuronas están inactivas se dan potenciales de acción muy pequeños, emitidos de forma aleatoria, que responden a vesículas microscópicas que atraviesan al azar la zona sináptica y, cuando está activa, se liberan grandes cantidades de estas vesículas, que se suman y generan un potencial elevado, capaz de recorrer grandes distancias. Los denominados potenciales evocados están constituidos por muchos cuantos de acetilcolina. En la primera mitad del siglo XX, Katz, estudió los pormenores de la estimulación de las fibras nerviosas y los mecanismos asociados a la unión neuronal con la fibra muscular, cuya comunicación es de idéntica naturaleza a la sináptica y ya hablaba de que las vesículas eran los contenedores estructurales de los cuantos de acetilcolina y, en la colisión con la membrana presináptica, el contenido salía al explotar, en un acto de "todo o nada", que es lo que le confiere el carácter cuántico. Posteriormente, en la década de los noventa, se confirmó con la ayuda del microscopio la existencia de las vesículas y su liberación. Se confirmó el contenido. El propio Katz evidenció que las vesículas generan poros en la zona postsináptica, creando unos canales que, posteriormente, se confirmaron. Lo que antes de los cincuenta era intuición, después de los cincuenta se confirmó. La fiebre cuántica de la primera mitad del siglo XX, alcanzó todos los ámbitos, incluido el neuronal. Los logros conceptuales han permitido avanzar en un campo tan exclusivo como éste.
NEURONAS CUÁNTICAS
HORIZONTALES
5.Este mundo también evidencia un comportamiento cuántico, aunque no de la misma naturaleza que los descritos por la Mecánica Cuántica
8.El sustrato de la Naturaleza lo es.
10.Es difícil encontrar alguna manifestación material que no la requiera para su explicación.
12.Las neuronas intercambian la información mediante la liberación de neurotransmisores en el extremo presináptico que se dirigen a él.
13.En los velocímetros de este tipo, el indicador es proporcional al giro, pero con la precisión del dígito último de su indicador.
14.Una neurona transmite a su vecina un estímulo nervioso que constituye el denominado así.
VERTICALES
1.En la primera mitad del siglo XX, Katz, estudió los pormenores de la estimulación de las fibras nerviosas y los mecanismos asociados a la unión neuronal con ella.
2.Los dígitos son discretos,: 1,2,3, … los ángulos lo son de este tipo.
3.Las burbujas de neurotransmisores que se liberan en la sinapsis neuronal, denominadas vesículas, contienen hasta 10.000 moléculas de éstas.
4.A él debemos a genialidad del manual para subir por una escalera.
6.Los circuitos sumadores que emplean magnitudes de este tipo, son continuos.
7.Es uno de los desarrollos que han cambiado, económica y socialmente, nuestro mundo
9.La diferencia entre una magnitud cuántica y una de este tipo es que la primera es discreta y la segunda es continua.
11.El velocímetro consistía en una aguja que barría un ángulo proporcional al número de revoluciones de éste.
12.Los escalones de una subida suelen, dentro de cierta aproximación, ser todos iguales y materializan el concepto de ello.
TRAZO 1.2
Sumisión delictiva.
Hay veces que la denominación de las cosas no responde exactamente a lo que se pretende describir. La Química es la disciplina o rama del saber, más íntimamente relacionada con la vida, como con todos los procesos en los que intervienen moléculas, que son todos los conocidos, porque el mundo material está estructurado en moléculas, más o menos complejas, que son agrupamientos de átomos que le confieren las propiedades. Todo tiene que ver con las moléculas. Todo es objeto y sujeto de la Química. Solas o agrupadas, las moléculas confieren las propiedades que atribuimos al mundo material.
Siendo así, sorprende que haya surgido la distinción entre natural y artificial o nocivo, aplicando el término químico al segundo. Incluso se perfila un plural, químicos, despectivamente aplicado a lo poco deseable. Las operaciones de marketing, que tienen por objeto dar a conocer, incluso adoptar cosas como ventajosas, en un mundo cada vez más mercantilizado, han sido muy efectivas en este caso. Se ha generalizado el uso despectivo de químico, incluso "químicos" para indicar prácticas poco saludables o indeseables. Se comete un error de envergadura cuando se adopta esta significación, por cuanto se ignora que una fruta llega a nuestras manos, gracias al desarrollo de muchas reacciones químicas que la configuran, al igual que la relación amorosa de dos enamorados, se da, gracias a un entramado de reacciones químicas, en las que las moléculas son las que configuran
esos estados. Tan químico es un buen vino, desde las reacciones primarias implicadas en el crecimiento de la uva, como las fermentaciones posteriores o las reacciones evitadas en el tapón o en la botella, que permiten una degustación placentera.
Claro que el uso que se hace de las cosas es determinante. Ocurre con la energía nuclear y con el uso de las cosas que denominamos "naturales", porque tan natural es la miel que producen las fabriles abejas, como la molécula de alcaloide, la estricnina, que descubierta en 1818 por los franceses Bienaimé y Pelletier ya se empleó para matar vertebrados, desde perros hasta aves en Europa en 1640 y bautizada como Haba de San Ignacio, por los jesuitas filipinos que se lo dedicaron a su fundador, cuando lo dieron a conocer con fines terapéuticos como tónico, estimulante digestivo y de la líbido, aunque en dosis elevadas es una planta mortal.
Las drogas tienen su vertiente positiva, aplicadas convenientemente o pueden usarse de forma delictiva, no solo por la prohibición de ingesta, sino por afectar a terceros contra los que se usa para anular su voluntad, sin consentimiento. Lo sorprendente es que a este acto se le denomine sumisión química. Ciertamente, la consecuencia de la administración de una droga para lograr anular o disminuir la voluntad de la víctima y abusar sexualmente de ella o cometer cualquier otro delito imaginable, dado que pierde la conciencia y la voluntad, tiene por objeto desde robo hasta abuso, cabe cualquier cosa. Son sustancias incoloras, inodoras e insípidas, con lo cual no se percibe nada raro al ingerirla, ya que el café o el "cubata" sigue sabiendo como siempre, tienen una acción rápida, unos cinco o seis minutos, para anular la voluntad durante entre 2 y 6 horas, se eliminan por la orina con facilidad y no dejan rastro y son difíciles de detectar, por tanto. La amnesia subsiguiente, no permite recordar los hechos que suceden bajo su acción, ni siquiera los rasgos del agresor. Se les suele denominar drogas de Club, por ser las propias de
consumo en estos lugares. La escopolamina es una que cumple ampliamente estos rasgos. Ya se empleó en la antigua Roma, como "elixir de amor". Hoy se le conoce como burundanga, beso del sueño, aliento del diablo, etc. Los mecanismos de suministro son por vía oral, respiratoria y algo la cutánea y abrazos, besos, bebidas, aerosoles, comidas y un largo etcétera.
Independientemente del aspecto legal de la sumisión delictiva hay que alertar de las dificultades de identificar que se ha sido objeto de este execrable acto de anulación de la voluntad. Jóvenes o maduros con objeto de robo, por ejemplo. Solo la prevención, las precauciones ante desconocidos o "amigos" que suministren por alguna de las vías propias de la diversión que comparte comida y bebida, contacto o proximidad de desconocidos, pueden evitar las deplorables conductas de algunos desalmados. Reparen que su obtención es muy fácil. Ya pueden imaginar cómo.
HORIZONTALES
2.Las drogas propias de la sumisión química son sustancias incoloras, inodoras e insípidas, con lo cual no se percibe nada raro en este proceso.
5.Las drogas tienen su vertiente positiva, aplicadas convenientemente o pueden usarse de esta forma.
8.Una fruta llega a nuestras manos, gracias al desarrollo de muchas de ellas, que la configuran
9.Las drogas de la sumisión química tienen una acción rápida, unos cinco o seis minutos, y anulan ésta durante entre 2 y 6 horas.
10.Solas o agrupadas, las moléculas le confieren las propiedades que atribuimos a este mundo.
12.Se perfila este plural, despectivamente aplicado a lo poco deseable.
13.Químico es un buen vino, desde las reacciones primarias implicadas en
el crecimiento de ella.
14.El empleo de drogaas para anular la voluntad, sin consentimiento, sorprendente se le denomine de esta forma.
15.Descubierta por los jesuitas filipinos se lo dedicaron a su fundador.
VERTICALES
1.La relación amorosa de dos de ellos, se da, gracias a un entramado de reacciones químicas.
3.Lo es la miel que producen las fabriles abejas.
4.La subsiguiente a la ingesta de las drogas de sumisión química, no permite recordar los hechos.
6.Natural es la molécula de este alcaloide, que descubierta en 1818.
7.Son agrupamientos de átomos que le confieren las propiedades.
11.Es la disciplina o rama del saber, más íntimamente relacionada con la vida.
Agrorobótica.
La sociedad actual enfrenta muchos retos. Algunos de ellos tienen que ver con la tendencia de los tiempos, que diría el tópico y otros, impuestos por las circunstancias, gran parte de ellas no deseables ni deseadas. No obstante, hay elementos insoslayables, como son la necesidad de mantener procesos sostenibles, también en la agricultura. Desde la biotecnología hace tiempo que se mantiene la línea que pretende aumentar la productividad, mejorando los cultivos atendiendo a escenarios ecológicos.
El crecimiento de la población ha venido complicando los pilares en los que sustentar la alimentación mundial. No cabe duda que el campo atraviesa momentos delicados para equilibrar salarios, eficacia y productividad. No puede ser de otra forma, en cuanto a la incorporación de la tecnología, como lo viene siendo, quizás de forma un tanto tímida, en comparación con otros sectores de actividad productiva. Así pues, ahora se abre paso la ingeniería biológica, amparada en la Inteligencia Artificial e incluyendo a la robótica como soporte de concreción material. Una población prevista de 10.000 millones en torno a 2050, supone que se duplica la población de principios del siglo XX.
La agricultura es un sector que soporta en gran medida la alimentación mundial. Los expertos afirman, sin titubear, que el potencial para aumentar el rendimiento de los cultivos es considerable. El promedio de energía diaria disponible
puede alcanzar las un poco mas de 23.000 Kcal por persona, y para los países en vías de desarrollo, en torno a 2.970 Kcal. Otra cosa es que los gobiernos articulen actuaciones que permitan el acceso a los alimentos. Dificultades, como el cambio climático, están haciendo estragos y se va requiriendo un incremento de la producción, de forma sostenible, lo que implica modificar practicas usuales en este momento. Se puede estimar que en 2050-2060 se precisarán en torno a 7500 millones de calorías más que las requeridas en 2010. Esto supone poner en producción un terreno equivalente de unos 7500 millones de kilómetros cuadrados, lo que equivale a dos veces la superficie de la India. Es una opción, aunque se antoja con mucha incidencia sobre la sostenibilidad y, no solo, porque se vería resentida seriamente la biodiversidad. Cabe señalar, por último, que la estructura organizativa de la agricultura actual basa en un 90% en explotaciones familiares o individuales, lo que proporciona en torno al 80% de los alimentos consumidos en el planeta.
Una propuesta audaz es la de la agricultura inteligente, en la que la tecnología entra de lleno para incidir en la cantidad y calidad de la producción agrícola. Hay casos ejemplares de control del suelo en tiempo real y una distribución inteligente de los fertilizantes. Los teléfonos inteligentes y el GPS han contribuido a una optimización de las explotaciones en muchos niveles. Los robots permiten introducir sistemas de recolección de productos, transporte a almacenes, control del riego, tutela de las plantaciones y otro tanto con las explotaciones ganaderas. Los drones permiten las tareas de visualización y control de ambas explotaciones, aportando sistemas eficaces de mapeo y control de distribución. Ni que decir que los sistemas automáticos de control y producción encuentran en los invernaderos dispuestos en distintos niveles, como estantes, unas estructuras que permiten desarrollar plantaciones sin suelo, empleando las modernas técnicas de cultivo hidropónico en la que el agua y los nutrientes bastan para la producción.
La biotecnología aporta un incremento de productividad, modificando plantas logrando una transferencia de mayor cantidad de información genética, soslayando las modificaciones mediante los cruces tradicionales, permitiendo realizarlo selectivamente y así mejorar las variedades con caracteres genéticos deseables y rechazar los no apropiados. Defensas de insectos, enfermedades y malas hierbas que devastan los cultivos tradicionales, se evitan, al tiempo que se mejoran el carácter nutritivo o se logran mejoras para el procesado.
La robótica, que materializa la I.A. es una alternativa plausible para producir una abundante oferta de alimentos saludables, que consideren seriamente al Medio Ambiente en condiciones controladas, al tiempo que producen resultados útiles desde un cuidado inteligente de las plantas capaz de propiciar una producción significativa capaz de alimentar a la población mundial, atendiendo a un nuevo concepto que descarta la producción intensiva y extensiva, sustituyéndola por la agrorobótica capaz de suscitar una producción inteligente que logre dotar de la resistencia a herbicidas, plagas, enfermedades, mejoras de propiedades nutritivas y organolépticas, resistencia a estrés y otros tantos factores deseables. Es difícil que el camino se vislumbre de otra forma. Esta es inteligente.
HORIZONTALES
2.Se abre paso esta ingenieríaa, amparada en la Inteligencia Artificial e incluyendo a la robótica como soporte de concreción material.
8.Una propuesta audaz es la de la agricultura de este tipo, en la que la tecnología entra de lleno para incidir en la cantidad y calidad de la producción agrícola.
10.La biotgecnología aporta un incremento de ésta, modificando plantas logrando una transferencia de mayor cantidad de información genética, soslayando las modificaciones mediante los cruces tradicionales.
12.La estructura organizativa de la agricultura actual basa en un 90% en explotaciones de este tipo.
13.Los teléfonos inteligentes y el GPS han contribuido a una optimización de ellas en muchos niveles.
VERTICALES
1.Desde ella hace tiempo que se mantiene la línea que pretende aumentar la productividad,
mejorando los cultivos atendiendo a escenarios ecológicos.
3.La agricultura es un sector que soporta en gran medida la mundial.
4.El de la población ha venido complicando los pilares en los que sustentar la alimentación mundial.
5.Hay elementos insoslayables, como son la necesidad de mantener procesos de este tipo, también en la agricultura.
6.Dificultades, como el cambio climático, están haciendo estragos y se va requiriendo un incremento de ella de forma sostenible.
7.Una población prevista de 10.000 millones en torno a 2050, supone que lo hace con respecto a la población de principios del siglo XX.
9.Los robots tienen el camino expedito para introducirlos para recolección de productos, transporte a almacenes, control del riego, tutela de las plantaciones y otro tanto con las ganaderas.
11.Permiten las tareas de visualización y control de las explotaciones, con sistemas eficaces de mapeo y control de distribución.
TRAZO 1.4
Ocurre.
Parodiando a la conocida canción: ocurre ¿por qué ocurre? El Universo sigue adelante, sin pestañear. Es una forma de expresarse, habida cuenta que el tiempo está cuestionado, como lo apreciamos los humanos. Culturalmente, la flecha del tiempo es operativa, mientras que científicamente es una ilusión. En todo caso, en esa percepción humana las cosas cambian, constantemente. En el mundo material hay una evolución permanente que modifica el entorno y todo se ve afectado. Siendo las causas fundamentales de naturaleza física, los procesos en los que se ve implicada la materia son de naturaleza química. Veamos.
La vida de la Química se circunscribe por naturaleza a las reacciones químicas. Romper y formar enlaces en las moléculas es el objeto primordial de atención de la Química. A la pregunta directa de por qué ocurren las reacciones químicas, solo hay una respuesta directa: porque se incrementa la entropía del Universo. No hay nada nuevo, porque ésta es la misma razón que justifica que ocurre cualquier cosa. Si la pregunta fuera más concreta, por ejemplo: ¿por qué se disuelve la pastilla de potasio y magnesio que ingiero todos los días en el desayuno? La respuesta sería que solo hay dos motivos para que la reacción ocurra de forma espontánea: si es una reacción endotérmica, es decir que absorbe energía para que ocurra, la respuesta sería, porque hay un cambio positivo de la entropía total debido a la reacción y si es una
reacción exotérmica, que desprende energía al ocurrir, entonces la respuesta sería: porque incrementa su entropía. La subsiguiente pregunta podría ser ¿por qué una reacción es exotérmica? La respuesta es que los productos que proporciona esa reacción contienen menos energía que los que reaccionan inicialmente. La única observación a hacer es que se trata de todos los compuestos que intervienen, incluyendo disolventes. Y ¿por qué los productos de la reacción tienen menos energía que los reactantes, en una reacción exotérmica? La interacción entre dos especies (moléculas o átomos o grupos de ellos) cuando es favorable, produce la formación de enlaces, tanto de naturaleza electrostática como la denominada covalente (compartiendo electrones) y ambas, en algún grado cada una, como ocurre realmente.
Pero la mayor parte de las reacciones requieren "un empujón inicial" para que ocurran. Hay que superar una barrera energética que separa reactantes de productos y que garantiza unas condiciones de estabilidad, que denominamos equilibrio. De todas las posibilidades que se ofrezcan a unos reactantes, optarán por aquella que energéticamente le es más favorable. Por tanto, propiciar unas reacciones consiste en favorecer que ocurran, evitando otros caminos alternativos que encaminan a otros productos. En eso consiste el trabajo del químico que pretende generar nuevos productos, en soslayar reacciones que no desea y favorecer las que pretende. En parte motivado por la curiosidad científica que propele buscar novedades, en busca de materiales que exhiban mejores propiedades que la de los materiales de que se dispone o desentrañar mecanismos por los que acontecen procesos, hasta ahora desconocidos o buscando descubrir nuevas propiedades de interés, el químico requiere desentrañar y comprender por qué ocurren las reacciones químicas.
La Naturaleza impone su ley, estableciendo un marco general de actuación en el que el incremento de entropía es determinante. Esas son las reglas de juego. Todas las reac-
ciones químicas que cumplen las leyes de la Termodinámica ocurren de forma espontánea. No quiere ello decir que no sean posibles otras reacciones, pero, eso sí, no serán espontáneas. En principio, cualquier combinación de elementos químicos es posible y algunos gozan de estabilidad suficiente como para ser rentables y eficaces en nuestra sociedad, en nuestro mundo. Si los productos deseados no son energéticamente favorables, como ocurre con los productos que tienen un contenido energético superior a los reactantes, es necesario que los acoplemos a otras reacciones que sean favorables energéticamente o bien que esta segunda reacción impida que la primera llegue al equilibrio. Quiere también decirse que el químico tiene que estar atento para evitar las reacciones indeseadas, para minimizarlas o evitarlas.
Ocurre, ¿qué sería de nosotros sin estos materiales, entre otros: acero inoxidable, Bronce, Cartón, Cerámica, Goma, Gres, Hormigón, Latón, Licra, Loza, Neopreno, Nylon, Oro blanco, Papel, Plata de ley, Plástico, Poliéster, Porcelana, Terracota, Vidrio…? Todos ellos obtenidos en reacciones químicas, que no se dan en la Naturaleza, pero que generan productos estables. Gracias a que ocurre y sabemos cómo.
HORIZONTALES
1.Propiciar unas reacciones consiste en favorecer que ocurran, evitando otros caminos alternativos que encaminan a otros de ellos.
3.La que se da entre dos especies (moléculas o átomos o grupos de ellos) cuando es favorable, produce la formación de enlaces.
7.Una reacción de este tipo, que desprende energía al ocurrir, acontece: porque incrementa su entropía.
11.Siendo las causas fundamentales de naturaleza física, los procesos en los que se ve implicada la materia son de esta naturaleza.
12.De todas las posibilidades que se ofrezcan a unos reactantes, optarán por aquella que energéticamente sea la más.
13.Para una reacción endotérmica, es decir que absorbe energía para que ocurra, hay un cambio positivo de la entropía total,debido a ella.
14.Pero la mayor parte de ellas requieren “un empujón inicial” para que ocurran.
15.A la pregunta directa de por qué ocurren las reacciones químicas,
solo hay una respuesta directa: porque se incrementa la del Universo.
VERTICALES
2.La vida de la Química lo hace por naturaleza a las reacciones químicas.
4.iÉsta mpone su ley, estableciendo un marco general de actuación en el que el incremento de entropía es determinante.
5.Romper y formarlos en las moléculas es el objeto primordial de atención de la Química.
6.En el mundo material hay una evolución permanente que lo modifica y todo se ve afectado.
8.Culturalmente, la flecha del tiempo es operativa, pero científicamente lo es.
9.Este profecional requiere desentrañar y comprender por qué ocurren las reacciones químicas.
10.En una reacción hay que superar una energética que separa reactantes de productos y que garantiza unas condiciones de estabilidad, que denominamos equilibrio.
TRAZO 1.5
Conexión cósmica.
Se dice que somos polvo de estrellas. Los elementos constituyentes del Universo son comunes. No es nada trivial, pero con los conocimientos que se tienen, la referencia se ajusta a la realidad. También es bien conocido que el Universo no solo es un conjunto de cosas, sino que es un conjunto armonioso. Pero esto requiere vinculaciones entre las partes que pudiéramos concebir en él. Se ha avanzado mucho en ello, pero cada vez que se descorre una cortina con una respuesta, surgen como un racimo de nuevos interrogantes.
Nos afanamos con auténtica devoción a tratar de descifrar el Cosmos y sus reglas de juego. Siempre ha sido así, con más o menos acierto y más o menos profundidad, en función de nuestros conocimientos como Humanidad y nuestros condicionantes como Sociedad. A principios del siglo XX, brillante momento de la Ciencia, además del nacimiento de una nueva Mecánica, la Cuántica, que vendría a sumergirnos en el mundo microscópico de las moléculas, átomos y partículas integrantes, también se trataba de desvelar la naturaleza de la recién descubierta radiactividad que inició Becquerel en 1896 y los Curie. Se ignoraba la naturaleza de las emisiones que se detectaban. Atravesaban los cuerpos opacos y ionizaban el medio circundante, lo que supone arrancar electrones y generar iones y radicales. El Uranio y el Polonio eliminaban la carga de los materiales próximos. Por una parte, el registro del espectro del Sol, que se observaba que era de rayas y no
continuo y tenía en jaque a todo el mundo científico de la época, tenía un competidor en las partículas que la radiactividad había desvelado como integrantes de unos compuestos que eran capaces de emitirlas.
Los electroscopios se descargaban, aunque no hubiera material radiactivo cerca. Esto indujo a pensar que había algo en el aire que penetraba en la campana de vidrio del electroscopio y lo descargaba. Wulf experimentó en lo alto de la Torre Eifel, no encontrando diferencia con lo que ocurría en el suelo. Otros lo hicieron en globos aerostáticos a alturas considerables y se mitigaba el efecto algo, induciendo que el efecto era terrestre. Hess hizo el experimento a 5200 metros de altura y concluyó que pudiera ser extraterrestre. No había diferencia entre el día y la noche, por tanto, no procedía del Sol. A Hess se le considera el descubridor de los rayos cósmicos.
Otro capítulo de interés era la naturaleza de esta radiación. Ya en 1900 se podía identificar que la colisión entre partículas producía otras partículas. En 1912 Wilson inventó la cámara de niebla que permitía visualizar las trayectorias al atravesar un gas saturado y por el tamaño se distinguía entre partículas alfa y electrones. En 1928 se construye el contador de partículas individuales de la radiación cósmica, Geiger. Ese mismo año Dirac descubrió el antielectrón o positrón. A ello siguieron los descubrimientos del neutrón y el muón. En 1930 había consenso científico de que los rayos cósmicos eran núcleos atómicos relativistas. Al entrar en la atmósfera y chocar forman cascadas produciendo fotones, electrones y positrones, así como muones positivos y negativos. En 1938 Auger registra en dos detectores separados la misma radiación, concluyendo que eran partículas secundarias producidas por un rayo primario. En 1949 Fermi da un paso sustancial al proponer un mecanismo para transferir energía de un plasma a una partícula.
La conexión con el Cosmos se establece a través de los meteoritos, la luz y los rayos cósmicos. de naturaleza bien distinta. Las emisiones de los materiales radiactivos dejaban una estela a su paso, al ionizar el medio que atravesaba, pero se ignoraba su naturaleza.
La importancia de los rayos cósmicos radica hoy en que estando llegando al límite de la capacidad de aceleración de los aceleradores de partículas, todavía queda. Proporcionan una imagen complementaria de la obtenida de la luz, los neutrinos y los rayos gamma. Junto a las ondas gravitacionales nos informan de la evolución de las estrellas y de los campos que atraviesan hasta la Tierra. Hasta 1950 fueron la única fuente de información como fuentes de alta energía. Ahora hay nuevos retos a explicar desde la generación de rayos, incidencia en los instrumentos electrónicos de aviones y satélites y ordenadores, que ya en 2008 fue objetivo para una empresa Informática muy representativa como Intel que pretendió determinar la probabilidad de que se repitiera una instrucción de un procesador por incidencia de los rayos cósmicos. Viejas fuentes para nuevos retos científicos.
HORIZONTALES
3.Los elementos constituyentes del Universo lo son.
5.Es bien conocida la referencia de que somos polvo de ellas.
8.En 1912 este científico inventó la cámara de niebla que permitía visualizar las trayectorias al atravesar un gas saturado y por el tamaño se distinguía entre partículas alfa y electrones.
11.La radiactividad descargaba los electroscopios, aunque no hubiera material radiactivo cerca. Esto indujo a pensar que había algo en él que penetraba en la campana de vidrio del electroscopio y lo descargaba.
13.En 1930 había consenso científico de que los rayos cósmicos eran núcleos atómicos de este tipo.
14.Ya en 1900 se podía identificar que la colisión entre partículas las producía.
15.Éste no solo es un conjunto de cosas, sino que es un conjunto armonioso.
VERTICALES
1.Las emisiones de los materiales radiactivos dejaban una estela a su paso, al ionizarlo al atravesarlo.
2.Nos afanamos con auténtica devoción a tratar de descifrar éste y sus reglas de juego
3.A Hess se le considera el descubridor de estos rayos.
4.Los rays cósmicos proporcionan una imagen complementaria de la obtenida de la luz, los neutrinos y éstos rayos.
6.El registro del espectro del Sol, que se observaba lo era y no era continuo y tenía en jaque a todo el mundo científico de finales del XIX y comienzos del XX.
7.Los rayos cósmicos junto a las ondas gravitacionales nos informan de la evolución de las estrellas y de los campos que atraviesan hasta ella.
9.En 1928 este científico descubrió el antielectrón o positrón.
10.Científico que hizo el experimento de detección de emisión radiactiva a 5200 metros de altura y concluyó que pudiera ser extraterrestre.
12.En 1949 este científico da un paso sustancial al proponer un mecanismo para transferir energía de un plasma a una partícula.
1.6
El geoglifo 143.
La Inteligencia Artificial trata de lograr implementar procesos propios de seres inteligentes en constructos artificiales. Poco a poco se van descubriendo, no desde el ámbito teórico, sino en gran medida desde el práctico, el técnico, el ingenieril, los intríngulis que esconde la concreción de herramientas de Inteligencia Artificial. Progresivamente, se van incorporando elementos que van en el sentido de dotar a los ingenios de capacidades que potencian el desarrollo y el progreso. La incansable tarea que son capaces de llevar a cabo, sin el agotamiento propio de los humanos, la minuciosidad de su análisis y la concentración en la tarea, hacen de las herramientas de la IA una instancia con vocación de aportaciones significativas al conocimiento y a la técnica.
Hace poco investigadores de la Universidad de Yamagata han descubierto 142 nuevos geoglifos en la zona de las Líneas de Nazca en Perú, Patrimonio de la Humanidad de Unesco desde 1994. Se sitúa su factura entre el 100 A.C. y el 300 D.C. Hay que añadir a estos geoglifos el 143, descubierto gracias al modelo de IA de IBM Japón, que ha trabajado entre 2018 y 2019 con la citada Universidad. Es el primero de los geoglifos descubierto mediante IA y es un humanoide de poca estatura, erguido sobre dos pies y situado al oeste de las Líneas de Nazca.
Técnicamente se ha empleado la plataforma de IBM Watson Machine Learning Accelerator, que es un sistema de aprendizaje profundo, diseñado especialmente para descubrir imáge-
nes inadvertidas al ojo humano por su entorno difuminado y entremezclado con otros elementos, en este caso caminos y carreteras, que confunden su perfil. Partiendo de imágenes tomadas desde drones y satélites, se ha logrado discriminar el perfil.
Los geoglifos de Nazca forman un conjunto de más de 700 figuras geométricas, que incluyen hasta 70 patrones (serpientes, peces, pájaros, monos, colibríes y arañas) y hasta 13 mil líneas y rayas. Son dibujos estampados en la lona del propio suelo y cuyos perfiles son surcos que oscilan entre unas decenas de centímetros de profundidad a unas piedras oscuras situadas sobre la superficie de arena más clara que hace de fondo. Se descubrieron por primera vez a principios del siglo XX y se han estudiado detalladamente a partir de la década de los cuarenta del siglo pasado. No se vislumbra con claridad cuál fue el objeto de estos dibujos.
Los antropólogos de la Universidad de Yamagata, dirigidos por Sakai, trabajan en ello desde 2004 y en 2018 dieron a conocer el descubrimiento de 1542 geoglifos nuevos. Empleando el sistema Watson descubrieron el 143, una figura con orejas muy largas y tres ojos. Hay geoglifos que alcanzan los 100 metros de longitud y forman un grupo numeroso. Otro grupo tienen, en torno a 50 metros de longitud y algunos son muy pequeños, menores de cinco metros. Hay cierta tendencia a suponer que los pequeños respondían a indicaciones o referencia para viajeros.
Independientemente de la contribución de estos hallazgos para una teoría razonable del origen y objetivos de las líneas de Nazca, destaca el hecho de la irrupción de la IA en la investigación de formas a las que no accede la observación humana directamente. La teledetección y los datos geográficos son un área especialmente indicada para el tratamiento de cantidades masivas de datos de los que extraer información. Ahora cabe una extensión que profundice en aspectos
espacio temporales y aporten en la línea de dilucidar y comprender las líneas de Nazca como un todo. El trabajo es de envergadura, por cuanto la superficie que ocupan las líneas de Nazca alcanzan los 500 kilómetros cuadrados. Lo que en su inicio fueron representaciones de fauna, flora y pocos objetos, se enriqueció posteriormente con concreciones biomórficas.
Las conjeturas cada vez se van acomodando a los hallazgos y la lectura mas generalizada hoy día es que las grandes figuras corresponden a lugares para practicar rituales, mientras que las pequeñas que se sitúan en pendientes o terrenos inclinados que ofrecen mejor visualización. El identificado mediante IA forma parte de estos últimos.
Como vemos, se trata de, por un lado un tratamiento de datos masivos, muy propio de la informática convencional, pero por otra de una identificación inteligente en la que no se trata de figuras conocidas, sino, precisamente, identificar formas desconocidas hasta el momento, en las que no se trata de comparación de grupos de datos, sino identificación de perfiles que permiten finalmente proponer formas nuevas desconocidas. Todo un logro. .
HORIZONTALES
4.En este geoglifo descubierto en las lineas de Nazca, partiendo de imágenes tomadas desde drones y satélites, se ha logrado discriminarlo.
5.Ésta y los datos geográficos son un área especialmente indicada para el tratamiento de cantidades masivas de datos de los que extraer información.
9.Los descubrimientos de los geoglifos suponen la irrupción de la IA en la investigación de éstas, a las que no accede la observación humana directamente.
10.Los geoglifos de Nazca forman un conjunto de más de este número de figuras geométricas
11.Investigadores de la Universidad de Yamagata han descubierto 142 nuevos de ellos en la zona de las Líneas de Nazca en Perú.
12.Progresivamente, se van incorporando elementos que van en el sentido de dotar a éstos de capacidades que potencian el desarrollo y el progreso.
13.Esta Inteligencia trata de lograr implementar procesos propios de seres inteligentes en constructos artificiales
14.La superficie que ocupan las líneas de Nazca alcanzan esta cantidad de kilómetros cuadrados.
VERTICALES
1.Número de miles de líneas y rayas identificadas en los geoglifos de Nazca.
2.Hay cierta tendencia a suponer que los geoglifos pequeños respondían a indicaciones o referencia para ellos.
3.La lectura mas generalizada hoy día en los geoglifos de Nazca, es que las grandes figuras corresponden a lugares para practicarlos.
6.Las líneas de Nazca se descubrieron por primera vez a principios del siglo XX y se han estudiado detalladamente a partir de esta década del siglo pasado.
7.En las líneas de Nazca se incluyen hasta este número de patrones: serpientes, peces, pájaros, monos, colibríes y arañas.
8.Se ha empleado la plataforma de IBM Watson Machine Learning Accelerator, que es un sistema de éste tipo de aprendizaje, diseñado especialmente para descubrir imágenes inadvertidas al ojo humano.
TRAZO 1.7
Organizaciones y futuro.
Es usual que, con el concurso de la tecnología, perdamos la idea de los procesos que subyacen y las dificultades que presentan. Físicamente, vivimos en un mundo tridimensional: largo, ancho y alto, son las dimensiones. Una simplificación es el plano, al que accedemos escribiendo, dibujando, fotografiando, para incorporar la imaginación de la tercera coordenada que falta. Superado el trauma que supuso la concepción de que la dimensión no tenía por qué detenerse en la tercera, y que la cuarta es una más, hemos intentado, por todos los medios posibles, visualizarla. El cubismo desarrolló en la primera mitad del siglo XX una representación surrealista, futurista y abstracta, inspirándose en las matemáticas que incorporaban mayor número de dimensiones y avanzaron un mundo radical en su trabajo. Picasso y Dalí son ejemplos de artistas que manejaron las cuatro dimensiones e hicieron proyecciones sobre espacios de dos dimensiones. En arquitectura, también hubo incursiones en cuatro dimensiones, como ha dejado patente el Arco del Triunfo en el parisino barrio de la Defense. El matemático Princet presentó la obra de Henri Poincaré y popularizó el concepto de la "cuarta dimensión" entre los cubistas de la primera década del siglo XX y desencadenó la aplicación. El arte abrió una línea hacia el marco ndimensional, muy en boga en el siglo XX, especialmente en la primera mitad, pero hoy parece estancado en sus concreciones.
Abierta la espita de la n-dimensionalidad, conceptualmente se asume su presencia y efectividad. En el mundo actual, emerge la n-dimensionalidad con la denominada Big Data, es decir Datos masivos en la nomenclatura idiomática habitual. El escenario lo constituyen el volumen, la heterogeneidad y la velocidad de generación de datos. Cuando el mundo informático era más moderado, se pensaba, que cuantos más datos se dispusiera, mejor. No necesariamente es así, dado que, si bien más datos perfeccionan un modelo, cuando el número de variables es el que se incrementa, no necesariamente es así. Se hace necesario lograr un equilibrio entre complejidad y capacidad de generalización. A mayor complejidad, mayor capacidad para representar la información, pero como servidumbre, también, representará mejor el ruido subyacente. Como resultado final es que las predicciones no tendrán la calidad requerida. Es común este problema en el tratamiento de los datos meteorológicos, por ejemplo. Para acomodar mejor la representación de los datos es razonable limitar la complejidad de los modelos, lo que repercute de forma directa en los árboles de clasificación.
Así pues, un aumento del número de variables en relación a las observaciones, conlleva efectos negativos con los sobreajustes, hasta el punto que pueden incidir en la convergencia hacia las soluciones. Se suele operar en dos frentes: en la selección de las variables y en la extracción de nuevas variables que se generan mediante transformaciones de las originales. Al margen de las variadas técnicas para llevar a cabo el tratamiento de datos, lo relevante es que se requiere imaginación para adaptar procedimientos que surgieron en otros entornos y emplearlos en el Big Data, por analogía, como tantas veces ha ocurrido en el ámbito científico. La denominada regularización, identificando nuevas variables que emergen de las originales, como acontece en la regresión multivariable, identificando dependencia de unas variables con otras o la identificación de clusters de variables, son auténticos retos científicos y técnicos que inciden de forma
significativa en la dimensionalidad y, como consecuencia, en el Big Data.
Podríamos pensar que este es un problema del ámbito académico, pero nada más lejos de la realidad. Insensiblemente, cada vez estamos más inmersos en el mundo de Big Data y ello significa que hablamos de gran cantidad de información de carácter sensible. Por tanto, es imprescindible contar con mecanismos que aseguren su confidencialidad e integridad, mediante sistemas de control de acceso y cifrado. Más importante es el tratamiento de esos datos, desproporcionadamente numerosos, imposibles de tratar con herramientas usuales como las bases de datos y las técnicas convencionales. El procesado de la información, hoy económica y eficiente gracias a la tecnología disponible, permite que una empresa conozca no solo sus propios procesos, sino los gestos y patrones de comportamiento de los clientes, para poder ofrecer sugerencias a medida, intentando fidelizarlos. Esto hace que la variedad de la información, el acceso y las decisiones que tomamos a partir de su análisis y tratamiento de los datos hace que la analítica en tiempo real configura el futuro de las organizaciones. No es ninguna broma. De ahí su importancia.
HORIZONTALES
1.Una simplificación del mundo tridimensional es este, al que accedemos escribiendo, dibujando, fotografiando, etc.
4.En el mundo actual, emerge la n-dimensionalidad con la denominada así, es decir Datos masivos en la nomenclatura idiomática habitual.
6.Físicamente, vivimos en un mundo así: largo, ancho y alto, son las dimensiones.
7.En arquitectura, también hubo incursiones en cuatro dimensiones, como ha dejado patente el Arco del Triunfo en este barrio parisino.
9.Picasso y Dalí son ejemplos de artistas que manejaron este número de dimensiones.
10.Un aumento del número de variables en relación a las observaciones, conlleva efectos negativos con los sobreajustes, hasta el punto que pueden incidir en ésta hacia las soluciones.
11.Para acomodar mejor la representación de los datos es razonable limitar la complejidad de estos, lo que repercute de forma directa en los árboles de clasificación.
12.Es usual que, con el concurso de ella, perdamos la idea de los procesos que subyacen y las dificultades que presentan.
VERTICALES
1.Presentó la obra de Henri Poincaré y popularizó el concepto de la "cuarta dimensión" entre los cubistas de la primera década del siglo XX.
2.Esta tendencia artística, esarrolló en la primera mitad del siglo XX una representación surrealista, futurista y abstracta, inspirándose en las matemáticas.
3.Más datos perfeccionan un modelo, pero cuando el número de éstas es el que se incrementa, no necesariamente es así.
5.El arte abrió una línea hacia el marco n-dimensional, muy en boga en este siglo, especialmente en la primera mitad
8.A mayor complejidad, mayor capacidad para representar la información, pero como servidumbre, también, representará mejor éste subyacente.
TRAZO 1.8
Resveratrol y Tierra 2.0.
Puede parecer lejano, pero llegará el momento en que habrá que recrear la biosfera. No aquí, sino en otro planeta. La conquista del espacio es una opción que la Humanidad viene configurando desde hace mucho tiempo porque, ciertamente, este mundo se está quedando pequeño e incómodo. Pero, cuando se afrontan las implicaciones de la colonización espacial surge enseguida la imposibilidad o inconveniencia de trasladar materiales para darles función en asentamientos extraterrestres. La propia construcción, requiere cemento como material clave para poder llevarla a cabo. Son necesarios materiales que posibiliten la construcción en Marte, por ejemplo. La tecnología de las impresoras 3D posibilitaría recrear los elementos base. Con los recursos disponibles se construirán los pueblos, como hemos hecho en la Tierra. Marte tiene un 1% de la atmósfera de la Tierra. Si se logra sobrevivir en Marte lo podremos hacer en cualquier parte. Los entornos que se desarrollen serán valiosísimos, aunque busquemos un lugar próximo a la Tierra y parecido de acogedor
La NASA ha rebautizado al exoplaneta Kepler 452b, como Tierra 2.0. Es más grande que la Tierra, pero muy parecido. El tiempo que emplea en la traslación alrededor de su estrella es de 385 días, algo más que nuestros 365 dias. La cuestión es que se encuentra a 1400 años luz y el sistema al que pertenece es algo más viejo que el solar, porque se ha estimado en 6.000 millones de años. Se encuentra en el lugar
apropiado para poder desarrollar la vida, de forma similar a como lo hizo la Tierra.
El Kepler 452b, ni es el único ni es el primer exoplaneta similar a la Tierra. No hay ninguna evidencia de que haya vida, pero ésta puede estar en trance de aparecer, dado que está en una situación similar a la que tuvo la Tierra, cuando surgió la vida. Otros planetas identificados similares a la Tierra son: Kepler 186f, mayor que la Tierra, entre una y diez veces, menos denso, como un 10% de la Tierra, rocoso y a 490 años luz de la Tierra; Kepler 22b, como el doble de tamaño de la Tierra, situado en la constelación del Cisne y con una temperatura superficial estimada de unos 22 ºC; Gliese 581g, con una masa entre 2 y 3 veces la de la Tierra, rocoso y a 20 años luz de nosotros; el HD 85512b, a solo 35 años luz, como unas 4 veces la masa de la Tierra, situado en la Constelación Vela y podría albergar agua; HD 40307g a 42 años luz en la Constelación Pictor; Tau Ceti e, a unos 11 años luz y más de 4 veces más masiva que la Tierra, habiendo duda de si es un lugar con temperatura apropiada o inhóspito; HAT-P-11b situado en la Constelación del Cisne, con una masa más de 25 veces la de la Tierra y en cuya superficie se ha detectado hidrógeno y trazas de vapor de agua.
Ciertamente, Marte, que con la tecnología actual está a unos nueve meses, es acariciado como la próxima aventura por el Cosmos en la que los humanos pueden, razonablemente, participar. Se repara en la diferencia de gravedad a la que se verán sometidos los que participen. Una de las alternativas que se postulan es la de utilización del resveratrol por su capacidad de preservar la masa muscular y la fuerza capaz de desarrollar ésta. El resveratrol es la fitoalexina que producen algunas plantas, como los arándanos y particularmente en la piel de la uva, en respuesta a los distintos tipos de estrés y es el promotor de la resistencia de la planta a las enfermedades. Se han efectuado muchos experimentos con animales, valorando los efectos del desgaste originado por la
gravedad, que provoca una pérdida de la fibra muscular implicada en la resistencia. Los astronautas requieren medidas para prevenir el deterioro muscular y la dietética resulta ser clave.
El resveratrol tiene efectos probados como antiflamatorios y antioxidantes. En ratones expuestos a la gravedad de la Tierra y a la de Marte, los investigadores controlaron la parte posterior de las extremidades, donde se detecta la capacidad de agarre de las patas y claramente los resultados evidenciaron que los que no tomaron resveratrol debilitaron el agarre, la circunferencia de la pantorrilla y el peso muscular, frente a los que tomaron el resveratrol que mantuvieron las características musculares. Incluso los ratones con músculo deteriorado se recuperaron con resveratrol, aunque no completamente.
HORIZONTALES
5.El resvet¡ratrol lo producen algunas plantas en respuesta a los distintos tipos de estrés y es el promotor de la de la planta a las enfermedades
7.El resveratrol los tiene probados como antiinflamatorios y como antioxidantes.
8.Una de las alternativas que se postulan para paliar los efectos negativos de la gravedad en Marte, es la utilización de este compuesto por su capacidad de preservar la masa muscular y la fuerza capaz de desarrollar ésta.
10.El resveratrol lo es y lo producen algunas plantas, como los arándanos y particularmente en la piel de la uva
12.La NASA ha rebautizado a este tipo de planeta, Kepler 452b, como Tierra 2.0.
13.Kepler 22b, es como el doble de tamaño de la Tierra, situado en esta constelación y con una temperatura superficial estimada de unos 22 ºC.
14.La diferencia de de ella a la que se verán sometidos los que participen será una dificultad para la aventura en Marte.
15.La del espacio es una opción que la Humanidad viene configurando desde hace mucho tiempo.
VERTICALES
1.En un experimento los ratones que no tomaron resveratrol debilitaron el agarre, la circunferencia de la pantorrilla y el peso muscular, frente a los que tomaron el resveratrol que mantuvieron estas características.
2.Ellos requieren medidas para prevenir el deterioro muscular y la dietética resulta ser clave.
3.La de las impresoras 3D posibilitaría recrear los elementos base para asentarnos fuera de la Tierra.
4.Puede parecer lejano, pero llegará el momento en que habrá que recrearla.
6.El planeta HD 85512b, está situado a solo 35 años luz, como unas 4 veces la masa de la Tierra, situado en esta Constelación.
9.Marte, con la tecnología actual está a estos meses de viaje.
11.El Kepler 452b, ni lo es ni es el primer exoplaneta similar a la Tierra.
TRAZO 1.9
Tránsitos.
En la evolución de usos y costumbres, se aprecia que el ser humano no rompe drásticamente con la época anterior para dar paso a la siguiente. Ocurre algo similar en la Naturaleza de la que formamos parte. La parsimonia es el ingrediente sustancial. Hoy, hay algunos empeñados en poner de moda la que denominan disrupción (como si no hubiera ningún término en el diccionario capaz de significar lo que pretenden) y alientan que toda solución pasa por una ruptura abrupta con el pasado. Y no me refiero a ningún aspecto político ni social, desde luego, sino tecnológico, industrial o conceptual.
Ni nunca ha sido así, ni parece razonable que así sea. Lo importante siempre ha sido lograr el objetivo y eso ha requerido audacia y, en casos, arrojo; pero siempre todo ha pasado por ese periodo intermedio, tránsito, en el que el viejo paradigma se ve sustituido progresivamente por el nuevo paradigma. Y, a poco que reflexionemos, todo parece indicar que es lo más razonable, dado que desanclarse de viejos usos y costumbres, pasa por un convencimiento que tiene que llegar a ser colectivo y eso no ocurre en un instante. En gran parte por eso, señalamos, con harta frecuencia que una cosa es un invento y otra una innovación. La segunda no se crea, sino que se siente y para ello tiene que aceptarse que es una ventaja sustancial con respecto a lo que se tenía antes de que apareciera en el mercado.
La preocupación por el Medio Ambiente va calando, progresivamente, poco a poco, no de forma abrupta. Hoy somos muchos más los convencidos de su delicada salud que hace tan solo cinco años. La preocupación por el Medio Ambiente conlleva reparar en muchas prácticas usuales, que no son apropiadas para una coexistencia razonable de las generaciones que nos seguirán. El desarrollo industrial nos ha llevado a unas cotas de progreso muy significativas. Pero en gran medida no hemos tomado conciencia de cuáles eran los imputs y los provechos implicados. En el análisis de costes que hacen los economistas, nunca sopesaron la degradación a la que sometíamos a nuestro más preciado entorno. Cuando hoy se introduce esta componente nos sorprendemos de hasta donde hemos llegado que nunca debiéramos haberlo hecho.
La energía nos preocupa en grado sumo. Hoy somos mucho más exigentes que en tiempo atrás, dado que el nivel de desarrollo alcanzado complica la sustitución por fuentes renovables, que tecnológicamente no llegan a ser alternativas para su uso sustitutivo. Parece evidente de que sea así, dado que cuando una tecnología ha llegado a ser madura, ha depurado muchas aristas.
La aviación es una de las fuentes contaminantes de importancia. Sus emisiones de CO2 son muy elevadas, en promedio unos 285 gramos de CO2 por persona y kilómetro.
Más de media tonelada de CO2 por pasajero en un vuelo Londres Nueva York. Se estima que supone un 2% de las emisiones mundiales de CO2, en informes de la Asociación
Mundial del Transporte Aéreo (IATA). A efectos comparativo, para el tren se estima una contribución de unos 14 gramos por pasajero y kilómetro, un camión unos 185 gramos, un coche 104 gramos y una moto 75 gramos y un autobús unos 68 gramos, dado que transportan muchos pasajeros. Un ferri
emite unos 18 gramos, pero un crucero 251 gramos, aproximándose bastante a la emisión de los aviones.
Cuando se enuncia el objetivo de lograr ser neutro en cuanto al carbono (expresión un tanto sui géneris de este ámbito, pero aceptada como referencia) se quiere decir lo que ello significa, es decir, no necesariamente conlleva el paso de un tipo de combustible a otro alternativo, sino también incluye una práctica que permite lograr ese objetivo. Es la economía la que tiene que lograr ser climáticamente neutra en carbono. Los viajes aéreos están también incluidos. Está bien que soñemos en nuevas fuentes energéticas, pero mientras tanto, algo habrá que hacer con urgencia para que en las próximas décadas se logren los objetivos señalados. No es nada estrambótico que se indique como forma de lograr avanzar (transitar) almacenar el CO2 emitido bajo tierra, mientras los combustibles fósiles estén en vigor. La tecnología se tiene y hace años que en el mar del Norte y en otras partes se deposita. Es una forma de mitigar los costes de operación, caso de incorporar un impuesto por emisiones, como es de esperar, más pronto que tarde.
HORIZONTALES
1.Es una de las fuentes contaminantes de mayor importancia.
4.Se propone el objetivo de lograr ser neutro en cuanto a él.
7.Desanclarse de viejos usos y costumbres, pasa por un convencimiento que tiene que llegar a ser asó y eso no ocurre en un instante.
9.En el análisis de costes que hacen ellos, nunca sopesaron la degradación a la que sometíamos a nuestro más preciado entorno.
11.La preocupación por el Medio Ambiente va calando, progresivamente, poco a poco, no de esta forma.
12.No es nada estrambótico que se indique como forma de lograr avanzar (transitar) almacenar el CO2 emitido bajo ella.
13.Todo ha pasado por ese periodo intermedio, así llamado, en el que el viejo paradigma se ve sustituido progresivamente por el nuevo paradigma.
14.Hoy, hay algunos empeñados en poner de moda la que denominan
así, y alientan que toda solución pasa por una ruptura abrupta con el pasado.
VERTICALES
2.La preocupación por el Medio Ambiente conlleva reparar en muchas prácticas usuales, que no lo son para una coexistencia razonable de las generaciones que nos seguirán.
3.Es lésta la que tiene que lograr ser climáticamente neutra en carbono.
5.El desarrollo industrial nos ha llevado a unas cotas de éste muy significativas.
6.En la evolución de usos y costumbres, se aprecia que el ser humano no rompe drásticamente con la anterior para dar paso a la siguiente.
8.Se estima que la aviación supone un 2% de las emisiones mundiales de CO2, en informes de este organismo.
10.Se estima una contribución de unos 14 gramos de CO2 por pasajero y kilómetro, para este medio de transporte.
TRAZO 1.10
Viaje a las estrellas.
La voluntad por volar es más que milenaria. Habría que retrotraerse a la época en que el hombre primitivo cazaba para comer y contemplaba como volaban aves e insectos. La flecha, como lanzamiento de un proyectil, multiplicando la fuerza y manteniendo la dirección y superando a la lanza arrojada con el brazo fue un paso sustantivo. En Grecia hay relatos fantásticos como el de Dédalo aprendiendo a volar diseñando alas impermeabilizadas con cera para conseguir huir del Rey Minos al volar de Creta a Sicilia junto a su hijo Ícaro al que le proporcionó alas y aprendió a volar.
Aristóteles reflexionó sobre el movimiento de una flecha, argumentando que se mantiene en vuelo mientras se le aplique una fuerza y al cesar ésta, se detendrá. Por tanto, no lo haría en el vacío. Leonardo no compartió que el aire ayudaba en el movimiento y lo consideró como un medio resistente. Examina las aves y concluye que hay una relación entre la envergadura del ala y el cuadrado del peso del cuerpo. Galileo inicia el proceso de descarte de la teoría aristotélica del sustento del movimiento por el aire, al formular que el movimiento permanece sin la acción de una fuerza y que el aire tenía un efecto disipador al ofrecer resistencia al movimiento. Galileo propuso que la resistencia variaba proporcionalmente a la velocidad, que no es cuantitativa, pero establecía el hecho de que aumentaba con la velocidad. Newton, en cambio, con la propuesta de la mecánica moderna y el análi-
sis matemático como instrumento poderoso de la razón, estableció que la resistencia de los objetos inmersos en un fluido era proporcional a la dimensión lineal del cuerpo, a la densidad del fluido, al cuadrado de la velocidad y al cuadrado del seno del ángulo de incidencia. Esta propuesta conllevaba considerar que los fluidos estaban compuestos por partículas individuales que no interaccionaban entre ellas y que al hacerlo contra un obstáculo hay una transferencia del momento lineal que sumado es la fuerza ejercida sobre el objeto. Posteriormente, Euler y Bernoulli establecieron las bases de la hidrodinámica clásica y D'Alembert, Lagrange, Helmholtz, Kelvin Rayleigh y otros establecieron la dinámica de un fluido ideal en una formulación matemática rigurosa.
En el siglo XVII se inicia el progreso del vuelo. Lourenço de Gusmao, jesuita, es el pionero de la navegación aérea.con su máquina Passarola en 1709. Los hermanos Montgolf, Zepelin, Los vuelos mecánicos se sustentan en las aportaciones de Cayley, Lilienthal, Chanute, Langley, los hermanos Wright con la Wright Flyer I que en diciembre de 1903 establecieron el que se considera primer vuelo de un hombre en una máquina voladora autopropulsada y controlada.
La nave espacial que mayor distancia ha viajado es la Voyager I, lanzada en septiembre de 1977 y aun está funcionando. Está tan lejos que la luz tarda mas de 20 horas en llegar, mucho mayor que los ocho minutos y 20 segundos que tarda la luz solar en alcanzar la Tierra. Aun así, no ha llegado muy lejos, si pensamos que los límites teóricos del sistema solar se estiman en una distancia de un año luz. Recordemos que la estrella más próxima está a 4,24 años luz, Próxima Centauri y la Voyager tardaría 90.000 años en llegar a ella.
Si queremos llegar a las estrellas tenemos que ir más rápido. La inmensidad del Universo y la cortedad de nuestras vidas invalida los cohetes gigantescos para una empresa estelar, dado que el combustible necesario es exponencial
con la velocidad y no es posible cargar con el combustible químico preciso para un viaje como éste. Como propone Michio Kaku, las primeras naves interestelares no estarán tripuladas y puede que no sean mayores que un sello de correos. El proyecto Breaktrough Starshot respaldado por Stephen Hawking, Yuri Milner o Mark Zuckerberg propusieron en 2016, nanonaves con chips instalados en velas estelares que se moverían por el impulso de una potente fuente láser situada en la Tierra. Los chips tendrían el tamaño de una pulgada y unos 25 gramos de peso y miles de millones de transistores. Una potencia de 100.000 millones de vatios aceleraría una de estas naves a un quinto de la velocidad de la luz. Hawking ya estableció la referencia en una inversión de 10.000 millones de dólares y una generación para que pudiesen enviar estas naves a Alfa Centauri. Un viaje de 20 años para llegar. El progreso es un impulso inevitable.
HORIZONTALES
2.La de volar es más que milenaria.
5.Leonardo no compartió que el aire ayudaba en el movimiento y lo consideró como un medio de este tipo.
9.Es la nave espacial que mayor distancia ha viajado.
10.Galileo formula que el movimiento permanece sin la acción de una fuerza y que el aire tenía un efecto disipador al ofrecer ésta al movimiento.
11.Stephen Hawking, Yuri Milner o Mark Zuckerberg propusieron en 2016, nanonaves con chips instalados en velas estelares que se moverían por el impulso de una potente fuente láser situada en ella.
12.Aristóteles reflexionó sobre el movimiento de una flecha, argumentando que se mantiene en vuelo mientras se le aplique una fuerza y al cesar ésta, lo hará.
13.Las primeras naves interestelares no estarán tripuladas y puede que no sean mayores que éste.
VERTICALES
1.El hombre primitivo cazaba para comer y lo hacía sobre como volaban aves e insectos.
3.Figura mítica que aprendió a volar diseñando alas impermeabilizadas con cera para conseguir huir del Rey Minos.
4.En el siglo XVII se inicia el progreso de éste.
6.Según Michio Kaku, las primeras naves interestelares no lo estarán.
7.La flecha, como lanzamiento de un proyectil, multiplicando la fuerza y manteniendo la dirección y superando a la lanza arrojada con el brazo lo fue sustantivo.
8.Científico que estableció que la resistencia de los objetos inmersos en un fluido era proporcional a la dimensión lineal del cuerpo, a la densidad del fluido, al cuadrado de la velocidad y al cuadrado del seno del ángulo de incidencia.
Imitando a la Naturaleza.
La Química permite crear productos artificiales alternativos e incluso mas eficaces que los similares o no naturales. La síntesis molecular ha sido una rama científica capaz de proponer productos eficaces que han resuelto muchas necesidades de nuestras sociedades. La Naturaleza no evolucionó en la dirección de la generación de muchos de estos productos. Quizás no tuvo tiempo para ello, o simplemente eligió otras rutas, que no hemos reflexionado ni el por qué ni explicado por qué no vieron la luz en esa gran maquinaria de producción natural que representa el mundo natural en el que vivimos.
La fotosíntesis la llevan a cabo las plantas haciendo intervenir luz, agua y dióxido de carbono. Artificialmente se ha intentado muchas veces imitar a las plantas tratando de lograr la fotosíntesis de forma artificial. Los ingredientes que se han empleado son los mismos, aunque el producto no ha sido la glucosa, sino combustibles como el metano (gas natural) o alcoholes. Son formas de almacenar energía que se libera cuando se queman. Ciertamente, son formas de acumular energía con ventaja frente a la glucosa, con objeto de emplearla en el transporte, las calderas, máquinas y, en general, darle un empleo doméstico o industrial.
Ahora que empezamos a estar preocupados por el destino de nuestra existencia colectiva, pensamos en el control de las emisiones de gases de efecto invernadero. Básicamente, los combustibles que se generan tienen atrapa-
do el dióxido de carbono de la atmósfera, con lo que al quemarlos se reemite la misma cantidad, formando un ciclo que no afectaría al balance de la contaminación atmosférica. La fotosíntesis artificial, aventaja a la producción de los combustibles fósiles.
Las reacciones implican a catalizadores que tienen un papel central que cumplir, como es imitar a la clorofila encargada de captar la luz en las hojas de las plantas y los fotosistemas que son enzimas radicados en las células vegetales que están encargadas de transformar el agua y el dióxido de carbono en glucosa. Un requisito adicional, es que deben ser poco contaminantes y tendrán que estar basados en metales abundantes para que sean suficientemente económicos como para que sean accesibles.
Se han propuesto catalizadores, como los anunciados por Llobet, basados en el rutenio capaces de descomponer el agua en sus elementos constitutivos, oxígeno e hidrógeno, de forma tan eficiente como el que de forma natural llevan a cabo las plantas, con una velocidad similar a la del fotosistema II, que es la enzima que ampara la fotosíntesis vegetal. La descomposición del agua se lleva a cabo en dos pasos sucesivos. En primer lugar, se "oxida" la molécula de agua, generando oxígeno y posteriormente otra reacción produce el hidrógeno. El catalizador aumenta la velocidad de las reacciones. El resultado es la producción, imitando a las plantas, para la generación de forma sostenible, de un combustible que almacena energía reutilizable.
La toma de conciencia del calentamiento global induce proyectos que contribuyan a alcanzar el objetivo de cero emisiones en 2050, como propuso el Acuerdo de Paris, tratando de evitar un escenario en el cual se haya incrementado en mas de dos grados la temperatura del planeta. Un acuerdo como este requiere además voluntad política, de la que hay muchas dudas, la necesidad de que las tecnologías estén
TRAZO 1.11 Imitando a la Naturaleza Pg. 43
preparadas para que se pueda cumplir el Acuerdo Las soluciones eléctricas, como en el transporte, generan dudas, dado que, aun superando la eficacia de las baterías, no son tecnologías todo lo limpias que pudiéramos exigir, al incluir elementos agresivos como el cobalto y similares, por ejemplo. En todo caso, las grandes distancias requieren formas densas de energía. La fotosíntesis artificial ofrece ventajosas soluciones. Al final se utiliza el dióxido de carbono que al quemarlo se vuelve a reintegrar a la atmosfera, no generando más, aunque no reduzcan su presencia.
Hay varias iniciativas europeas que abordan esta línea de investigación, entre las cuales cuenta con iniciativas de origen español, CSIC, Pais Vasco y Cataluña, con pretensión de conseguir combustibles gaseosos o líquidos a partir de la luz solar, agua y el dióxido de carbono.. Aquí las leyes también son operativas y la eficacia condiciona las alternativas. Todavía no disponemos de la solución capaz de satisfacer las exigencias. La Ciencia y la Tecnología tienen recorrido que cubrir. Imitar a la Naturaleza siempre ha dado resultados. Ha tenido más tiempo que nosotros para resolver muchos problemas. Nos lo muestra generosamente, siempre que queramos verlo.
HORIZONTALES
1.La fotosíntesis artificial es una forma de acumular energía con ventaja frente a ela, con objeto de emplearla en el transporte, las calderas, máquinas y, en general, darle un empleo doméstico o industrial.
4.Rama de la Ciencia que permite crear productos artificiales alternativos e incluso mas eficaces que los similares o no naturales.
5.La llevan a cabo las plantas haciendo intervenir luz, agua y dióxido de carbono.
9.Las reacciones de la fotosíntesis artificial, los implican, por lo que tienen un papel central que cumplir, como es imitar a la clorofila encargada de captar la luz en las hojas de las plantas
10.Los combustibles que se generan en la fotosíntesis artificial tienen atrapado el dióxido de carbono de la atmósfera, con lo que al quemarlos se reemite la misma cantidad, formando uno que no afectaría al balance de la contaminación
atmosférica.
VERTICALES
2.La toma de ella del calentamiento global induce proyectos que contribuyan a alcanzar el objetivo de cero emisiones en 2050, como propuso el Acuerdo de Paris,
3.La molecular ha sido una rama científica capaz de proponer productos eficaces que han resuelto muchas necesidades de nuestras sociedades.
6.El fotosistema II, lo es y ampara la fotosíntesis vegetal.
7.En la fotosíntesis artificial los ingredientes que se han empleado son los mismos que en ella, aunque el producto no ha sido la glucosa, sino combustibles como el metano (gas natural) o alcoholes.
8.Ahora que empezamos a estar preocupados por el destino de nuestra existencia colectiva, pensamos en el control de las emisiones de los de efecto invernadero.
1.12
Civilizaciones.
Nunca, como hasta ahora, hemos estado buscando, como Humanidad, civilizaciones en la Galaxia y fuera de ella e intentamos transmitir mensajes a seres de otras civilizaciones con los que esperamos contactar o hacerles llegar algo procedente de nuestra civilización.
Se parte de una propuesta formulada en 1964 por el astrofísico ruso Nicolai Kardashov para establecer el grado de evolución tecnológica de una civilización. El elemento clave es la energía que tiene a disposición, derivada del argumento base que es la exigente creciente necesidad de energía, conforme una civilización incrementa el desarrollo tecnológico. Las tres clases que estableció Kardashov eran Tipo I: (10¹?W) Tipo II: (10²?W) Tipo III: (10³?W), con las energías que figuran entre paréntesis. Posteriormente se incrementaron con un Tipo IV y Tipo V, haciendo corresponder a este último el equivalente a toda la energía de todos los universos de todas las líneas de tiempo, es decir, ilimitada. Como apunta el físico Michio Kaku, nuestra civilización no llega a estar en el Tipo 1, dado que dependemos de la energía de animales y plantas y tardaríamos, al ritmo actual de desarrollo, todavía uno o dos siglos en alcanzar el equivalente al nivel Tipo I. El consumo energético del planeta actualmente es de unos 1016 W, solamente falta que dispongamos que, en lugar de consumir energía de origen fósil, tengamos capacidad de aprovechar la energía que proviene de nuestra estrella más cercana, el Sol, captando y almacenando energía suficiente para
satisfacer todas las demandas de energía de la población mundial. Puede parecer menor el hecho de que cambiemos el origen de la energía, pero pasar el consumo de un tipo de energía a otro significa que se dominan las leyes de la Naturaleza. Lo que incluye el control de volcanes, seísmos, tornados, etc. también.
El tipo II se alcanza cuando no solo se aprovecha la energía de la estrella, sino que se tiene control sobre la propia estrella. Hoy inconcebible para nosotros. Con una energía así se podría mover al planeta, cuando se encontrara en la trayectoria de colisión de un asteroide que pudiera acabar con la Tierra por impacto. Seríamos capaces de trasladar a toda la población a un nuevo planeta
El Tipo III conoce totalmente la energía que, previsiblemente, requiere una evolución que consumiría cientos de miles de años, incluyendo los ámbitos biológico y mecánico.
Seríamos muy distintos de lo que hoy somos, tanto en aspectos como en capacidades. Los organismos cibernéticos combinarían elementos orgánicos y mecánicos, conviviendo con seres enteramente biológicos que, habrían seguido rutas evolutivas enteramente orgánicas. La especie desarrollada se dispersaría por la galaxia, dominando la transferencia de energía. Habríamos resuelto los tiempos de viaje haciendo realidad el doblado del espacio y manejando las transferencias mediante teletransporte a través de agujeros negros, soslayando la ilusión de superar la velocidad de la luz.
Los otros dos tipos de civilización, incorporados posteriormente a la propuesta de Kardashov, encajan en una conjetura futurista de dominio de toda la energía del Universo. y todo lo que en él existe, un dominio del espacio que se sería capaz de acelerar su expansión y se dominarían hasta los agujeros negros, donde se podría vivir, como ocurriría en el Tipo IV. No conocemos la teoría en la que se podría fundamentar este nivel. En el tipo V se conocerían y se dispondrí-
amos recursos para dominar y manipular a placer el Universo. Pueden parecer utópicos, por la enorme distancia a la que nos hallamos para delinear estas situaciones.
No han faltado propuestas en orden al manejo de la energía a gran escala, como se introduce en esta concepción de civilizaciones. Una de ellas la de la ciencia ficción en 1937 de Olaf Stapledon, incluyendo la idea de un "hacedor de estrellas" y con escasas explicaciones, aunque discute las propiedades térmicas, es retomada por Dyson, que propuso en 1960 una megaestructura en un artículo publicado en la prestigiosa revista Science titulado "Búsqueda de fuentes estelares artificiales de radiación infrarroja". Propone una esfera de tamaño astronómico con un radio equivalente a una órbita planetaria en torno a una estrella para aprovechar la energía emitida por el astro, tanto en sus componentes térmicas como de la región visible del espectro. La clave es que sirvió de acicate para buscar en la observación astronómica tales superestructuras que permitirían detectar la existencia de civilizaciones extraterrestres. La esfera de Dyson es sustancial para identificar los tipos de civilizaciones de Kardashov. Seguimos en espera.
EclipseCrossword.com
HORIZONTALES
2.Este tipo de Civilización, se alcanza cuando no solo se aprovecha la energía de la estrella, sino que se tiene control sobre la propia estrella.
3.Una civilización de TIpo II podría moverlo, cuando se encontrara en la trayectoria de colisión de un asteroide que pudiera acabar con la Tierra por impacto
6.COmo apunta el físico Michio Kaku, nuestra civilización no llega a estar en este tipo.
7.Hemos estado buscando, como Humanidad, civilizaciones en ella y fuera de ella.
8.La esfera de Dyson lo es para identificar los tipos de civilizaciones de Kardashov.
9.Kardashov estableció el grado de evolución tecnológica de ella.
10.La propuesta de Dyson es una esfera de este tamaño con un radio equivalente a una órbita planetaria en torno a una estrella para aprovechar la energía emitida por el astro, tanto en sus componentes térmicas como de la región visible del espectro.
VERTICALES
1.En 1937 propuso la idea de un “hacedor de estrellas” y con escasas explicaciones, aunque discute las propiedades térmicas.
2.En una civilización Tipo III, habríamos resuelto los tiempos de viaje haciendo realidad el del espacio y manejando las transferencias mediante teletransporte a través de agujeros negros, soslayando la ilusión de superar la velocidad de la luz.
3.En una civilización TIpo II seríamos capaces de trasladar a toda ella a un nuevo planeta
4.El Tipo III de civilización, la conoce totalmente que, previsiblemente, requiere una evolución que consumiría cientos de miles de años, incluyendo los ámbitos biológico y mecánico.
5.Propuso en 1960 una megaestructura en un artículo publicado en la prestigiosa revista Science titulado “Búsqueda de fuentes estelares artificiales de radiación infrarroja”.
TRAZO 1.13
Cuando un centro de bajas presiones se encuentra con uno de altas presiones se generan fuerzas que provocan vientos y formación de cumulonimbos, propias de las tormentas. Las masas de aire húmedo causan fuertes movimientos de ascenso y descenso (convección), y generan lluvias fuertes, vientos y fuertes descargas eléctricas. Cuando la actividad eléctrica alcanza la denominada tensión de ruptura del aire, se generan rayos que resultan acompañados por relámpagos y truenos, en las componentes visual y acústica.
Los rayos, pueden tener longitudes de hasta 5 kilómetros con una anchura en torno a 1 centímetro portando entre 1000 y 10.000 millones de julios, una intensidad de 200.000 amperios y unos 100 millones de voltios. Las temperaturas se estiman en unos 20.000 grados centígrados, totalmente fuera de la escala humana. Se han efectuado estas medidas analizando las rocas metamórficas, denominadas fulguritas, formadas al alcanzar los rayos la arena de la orilla del mar que la atraviesa, vaporiza y derrite el borde y adopta forma tubular. Es como un vidrio hueco debido al recorrido del rayo. En Florida son abundantes los yacimientos conservados desde hace un millón de años. La intensidad de los rayos determina el tamaño de las fulguritas
Para derretir la arena, se requiere en torno a 1.700 ºC, como la lava fundida y para vaporizarla, hay llegar a los 3000 ºC. Cada kilogramo de arena requiere unos 15 megajulios para vaporizarlo, como la energía de un vehículo medio a unos 500 kilómetros por hora. La potencia de un rayo puede estimarse en 1000 gigavatios anglosajones (teravatio) o 1 gigavatio clásico. La energía al consu-
El detergente atmosférico.
mo de unos 1000 millones de hogares durante una millonésima de segundo, que es el tiempo que tarda emplea.
Las descargas eléctricas son consecuencia del campo establecido entre la parte superior y la inferior de la nube y la propia tierra o cualquier objeto que esté situado por debajo o cerca de la tormenta y requiere el canal de conexión, dado que el aire es un mal conductor eléctrico. Ahora bien, una diferencia de potencial grande es capaz de vencer la resistencia del aire a ionizarse. Dependiendo del exceso de cargas en la nube pueden darse una o varias descargas consecutivas entre: nubes-ionosfera, intranube, nube-nube o nube-tierra.
Ahora bien, el paso de un rayo a través de la atmósfera no se limita a encontrar un itinerario que le permita el paso, dado que impacta sobre las moléculas de nitrógeno y oxígeno y las demás moléculas atmosféricas. Se generan radicales que son muy reactivos. Recientemente, se han identificado que as componentes de las zonas por debajo de la visible producen el radical hidroxilo y el hidroperoxilo. El primero es letal para el metano, uno de los gases de efecto invernadero importantes. Brume ha sobrevolado las zonas de tormenta en Colorado y Oklahoma detectando los radicales producidos en las tormentas. Habitualmente, los aviones evitan los núcleos de las tormentas, pero pueden hacerlo en la parte superior en la dirección del viento, que se denomina yunque. Pero ahí la radiación que se genera es de la región visible, lo que justifica que se haya tardado mucho tiempo en descubrir la emisión de radiación por debajo de la zona visible del espectro.
Hasta hace bien poco, los rayos se temían por el efecto al caer al suelo y solo se reparaba en la componente visible. Ahora adquiere importancia la componente no visible del espectro, los rayos invisibles. Los rayos que no llegan al suelo afectan al ozono en la atmósfera superior. El ozono absorbe la radiación ultravioleta que, de no encontrar el ozono, alcanzará la superficie y a nosotros y esa radiación es, justamente, la que corresponde a la absorción del ADN al que pueden infringir daño severo, con funestas consecuencias al incidir en el cáncer de piel. Hasta ahora, se conocía que los rayos pueden romper las moléculas de agua generando los radicales hidroxilo e hidroperoxilo, pero el mecanismo de
la reacción no se conocía. Se medían altas concentraciones en las zonas de las nubes en la que no se generaban rayos visibles, pero los experimentos de laboratorio llevados a cabo por Brume y colaboradores han desvelado que descargas eléctricas débiles producían estos radicales. Es importante, dado que se estima hasta en un 15% de la oxidación de la atmósfera es debida al OH generado en las tormentas.
El OH actúa como detergente atmosférico. Un factor benefactor de los rayos, invisibles, claro.
HORIZONTALES
3.Los experimentos de laboratorio llevados a cabo por este investigador y colaboradores han desvelado que descargas eléctricas débiles producían estos radicales.
4.Cuando esta actividad alcanza la denominada tensión de ruptura del aire, se generan rayos que resultan acompañados por relámpagos y truenos, en las componentes visual y acústica.
6.Hasta hace bien poco, los rayos se temían por el efecto al caer al suelo y solo se reparaba en la componente del espectro eletromagnético.
8.Los aviones evitan los núcleos de las tormentas, pero pueden hacerlo en la parte superior en la dirección del viento, que se denomina de esta forma.
9.Esta molécula absorbe la radiación ultravioleta que, de no encontrarlo, alcanzará la superficie y a nosotros y esa radiación es, justamente, la que corresponde a la absorción del ADN.
10.Las temperaturas se estiman en unos 20.000 grados centígrados, totalmente fuera de la escala humana. Se han efectuado estas medidas analizando las rocas metamórficas, asi denominadas, formadas al alcanzar los rayos la arena de la orilla del mar.
11.Al atravesar los rayos la atmósfera se generan este tipo de compuestos que son muy reactivos.
VERTICALES
1.Cuando un centro de bajas presiones se encuentra con uno de altas presiones se generan fuerzas que provocan vientos y formación de estas nubes, propias de las tormentas.
2.Es un mal conductor eléctrico.
5.Los rayos, pueden tener longitudes de hasta 5 kilómetros con una anchura en torno a 1 centímetro portando entre 1000 y 10.000 millones de julios, una intensidad de 200.000 amperios y este numero de millones de voltios.
7.Para derretir la arena, se requiere en torno a 1.700 ºC, como este tipo de lava.
TRAZO 1.14 Palabras.
Las palabras no son solo combinaciones posibles de las letras del alfabeto. Algunos pueden pensar que no todas las combinaciones, pero si las resultantes de aplicar algunas reglas que las seleccionen entre las posibles. El debate, ha pretendido enfrentar a la imagen con las palabras y hay toda suerte de enunciados que lo revelan. Aquello de "una imagen vale más que mil palabras", por ejemplo, se mantiene en el tiempo, aunque la experiencia vital se circunscriba a elementos que hayan captado nuestra atención momentáneamente. En muchas áreas de la Ciencia, el interrogante surge en torno a si es posible formular símbolos sin el concurso de palabras. En el fondo el interrogante es si los conjuntos de símbolos constituyen una lengua, como afirmara Gibbs en la segunda mitad del siglo XIX. No fue el primero, ya que en 1523 Galileo ya refería que el Universo podía ser leído cuando hubiéramos aprendido su idioma y estuviéramos familizarizados con los símbolos en los que está escrito y concluyó con una afirmación rotunda que ha llegado a nuestros días, que estaba escrito en lenguaje matemático.
Si cualquier conjunto simbólico, y también el de las matemáticas, constituyeran una lengua, qué duda cabe que no tendrían dependencia de cualquier otra, al ser independiente de ellas. Si tomamos la notación musical, se lee por cualquier músico iniciado en el solfeo, es decir, cualquier iniciado es capaz de leerla; no precisa recurrir a las palabras. Por analogía, cualquier rama de la Ciencia y, en especial, las Matemáticas debería permitir su comprensión sin recurrir a
las matemáticas. Reparemos en que las palabras motivan las imágenes en nuestra mente y viceversa. En todo caso, se mantiene el interrogante de si pensamos en imágenes o en palabras. Unos responderán, como Einstein, que pensaba en signos e imágenes y para muchos otros el uso exclusivo de imágenes es una limitación severa.
Las palabras transportan imágenes entre mentes, lo que otorga una importancia extrema a aquéllas. Como alternativa a la frivolidad con la que hoy día se generan palabras carentes de imagen, probablemente porque la publicidad quiere generar nuevas representaciones inéditas, para no partir en desventaja y para diferenciarse del lenguaje usual, como apuntara von Newman, cuando aconsejó a Shanon la conveniencia de que usara el término entropía en lugar de incertidumbre, aduciendo dos razones, una que incertidumbre ya se usaba en Mecánica estadística y otra que, como nadíe sabía lo que era la entropía, llevaba ventaja en cualquier debate. Como apunta Silver, es indicador de la importancia de los términos para designar ideas. Un término reconocible, aunque no del todo se comprenda, pero permite una asociación que incita a la empatía con el término, que acerca el concepto y facilita su interiorización.
Los acrósticos no suelen significar nada como palabras, salvo que estemos iniciados en el contenido que encierran. En Ciencia son muy usuales, en gran medida por el origen anglosajón que economiza hasta letras, al margen del significado. Por el contrario, los términos perdurables encierran hasta el sentimiento que tenemos sobre el concepto. No hay nada más eficaz que atrapar la imaginación del público, en una palabra. Se requiere tiempo para que un término se instale en el imaginario público; lo que tarda en excitar la imaginación colectiva. Aquí ayuda la imagen. Los símbolos proceden de las palabras mediante evolución de aquéllas. Según Silver, Nesselmann en el siglo XIX apuntó tres etapas: retórica, sincopada y simbólica. El signo de la
resta es un buen ejemplo, que partió del empleo de la palabra menos, pasó a representarse con una m con una barra encima m ?, para terminar quitando la letra y adoptando el signo que conocemos, - ,a raíz de un libro que publicó en 1489 Widmann, en el que textualmente decía "lo que - es, es menos y + es mas" .
Las lenguas de imágenes son frecuentes en Ciencia. Desde los diagramas de Feynmann hasta los pictogramas y pictolenguajes propios de los desarrollos matemáticos, pero inspirados en entornos de la Física y que ayudan a pensar en un ámbito concreto. Los aprendizajes actuales son discursivos y requieren un progresivo y secuencial avance. Nuestro sistema no permite irrumpir en el libro del conocimiento por la mitad. Esto requiere nuevas formas de comunicación no tan limitadas por la gramática. De las palabras a los símbolos y de estos a los pictogramas es una vía de avance, una evolución, que no termina donde nos encontramos ahora, ni mucho menos.
HORIZONTALES
2.Los aprendizajes actuales son discursivos y requieren un avance progresivo y de este tipo.
6.Científico que en la segunda mitad del siglo XIX formuló que en el fondo el interrogante es si los conjuntos de símbolos constituyen una lengua.
8.En 1523 éste gran hombre de Ciencias ya referíió que el Universo estaba escrito en lenguaje matemático.
11.No suelen significar nada como palabras, salvo que estemos iniciados en el contenido que encierran.
12.Las palabras las motivan en nuestra mente y viceversa.
13.Los términos perdurables encierran hasta los que tenemos sobre el concepto.
14.No son solo combinaciones posibles de las letras del alfabeto.
VERTICALES
1.Las palabras, como los símbolos lo estimulan.
2.En muchas áreas de la Ciencia, el interrogante surge en torno a si es posible formularlos sin el concurso de palabras.
3.Si solo fueran combinaciones de las letras del alfabeto la supuesta inteligencia de los humanos resultaría ser demasiado así y el desarrollo del lenguaje podría estar en sus fases preliminares.
4.A lo largo de la historia conocida, la evolución ha sufrido momentos de aceleración y otros de retardo, pero nunca de este tipo.
5.Esta notación, se lee por cualquier músico iniciado en el solfeo, es decir, cualquier iniciado es capaz de leerla.
7.Se requiere suficiente para que un término se instale en el imaginario imaginación colectiva.
9.El debate, en todo tiempo, ha pretendido enfrentarla con las palabras y hay toda suerte de enunciados que lo revelan.
10.Las palabras transportan imágenes entre ellas.
TRAZO 1.15
Villanas plaquetas.
Con harta frecuencia la ignorancia se ve paliada, aparentemente, atribuyendo las causas a algo que se enuncia genéricamente, sin mucho conocimiento por parte del que lo emplea, y que viene a ser como la tabla de salvación argumental con la que salir airoso de algún aprieto intelectual. Habrán reparado en la frecuencia con la que se zanja una ignorancia, justificando la ocurrencia de alguna dolencia sentenciando que es de origen genético. Es casi lo mismo que no dar razón alguna para explicar cualquier cosa.
Con la inflamación ocurre algo parecido. Al sistema inmunitario se le ha referido desde siempre como ese oscuro sistema que, no se sabe cómo, nos defiende de enfermedades y problemas, sin más matización. Dentro de la ignorancia con la que se refería el sistema inmunitario, no faltaba razón en que nos defendía de ataques externos, ya que hace más de 500 millones de años que desarrollamos, como humanos, un conjunto de proteínas y enzimas que especializaron su aportación en defendernos de ataques externos. Los intrusos que superaban la barrera y penetraban en nuestro organismo, eran objeto de virulentos ataques, emitiendo sobre él toxinas y desencadenando toda suerte de mecanismos hasta acabar con él. Claro que, con un ataque de esta naturaleza, una vez que se acababa con los invasores, había que reparar las células propias que habían resultado dañadas en las cruentas batallas celulares y, en el caso de haber salido demasiado mal paradas, había que deshacerse de ellas.
Estas respuestas inflamatorias eran muy eficaces y compartimos con otros vertebrados e invertebrados genes especializados en estos menesteres, lo cual es indicador de que la aventura inmunitaria comenzó antes de la separación hace unos 500 millones de años de esta separación. Tanto el sistema inmunitario innato como el adaptativo manejan los anticuerpos tan referidos en los últimos tiempos, al estar implicados en nuestra defensa frente a un intruso sumamente letal que nos atenaza en tiempo reciente.
Es muy común el enrojecimiento de algún tejido, la sensación de calor y el dolor asociados a las infecciones. Los tejidos dañados producen efectos similares al infringido por algún organismo patógeno o una herida derivada de un accidente o golpe. Es decir, lesiones o infecciones están en el escenario de las inflamaciones. La cuestión es que se ha identificado que la puesta en marcha de las inflamaciones requiere el concurso de las plaquetas o trombocitos, esas células que integran la sangre y que se les ha asignado el proceso de la coagulación, con lo que evitan las hemorragias.
Franklin y colaboradores han estudiado un compuesto integrado por varias proteínas, denominado inflamasoma NRLP3, hasta ahora solamente estudiados en cultivos de macrófagos realizados in vitro y que está implicado en la maduración de citosinas proinflamatorias, como es el caso de la interleucina 1. Los inflamasomas intervienen en la activación de complejos protéicos como ocurre con la secreción de citosinas. La cuestión es que, al agregar plaquetas a los cultivos de inmunocitos, se intensificó el crecimiento de la producción de la interleucina 1 y de otras citosinas. Curiosamente, al cultivar solo las plaquetas no se detectaba la presencia de citosinas implicadas en los procesos inflamatorios. La incidencia de las plaquetas es la de estimular los inmunocitos. No solo eso, sino que el mecanismo de impulsar la producción de citosinas por la presencia de plaquetas, requiere presencia y contacto de células del sistema inmuni-
tario, aunque no se han identificado todavía en el flujo sanguíneo
La interpretación que propone Franklin sobre el papel del inflamasoma NRLP3 es que las plaquetas inducirían el ensamblaje del inflamasoma en el interior de los inmunocitos, activando algún gen que tiene que ver con la agregación de proteínas. Así se podría explicar la activación de las moléculas de interleucina 1 que es como la señal para disparar la respuesta inflamatoria al activar a otras células inmunitarias. La incidencia de este trabajo se ve realzada dada la circunstancia de que gran parte de las enfermedades autoinmunitarias, desde el reumatismo a la diabetes, entre otras, serían sensibles a la función inmunitaria de las plaquetas que, en el escenario en el que se ven incluidas resultan ser las villanas plaquetas, como el reverso de la moneda de esa misión a la que de siempre hemos creído que estaban asignadas, cual es la contención de hemorragias en una acción de agregación efectiva con la que nos defienden de forma contundente.
HORIZONTALES
2.Los intrusos que superaban la barrera y penetraban en nuestro organismo, eran objeto de virulentos ataques, emitiendo sobre él éstas y desencadenando toda suerte de mecanismos hasta acabar con él.
6.Hace más de 500 millones de años que desarrollamos, como humanos, un conjunto de ellas y enzimas que especializaron su aportación en defendernos de ataques externos.
7.Tanto el sistema inmunitario innato como el adaptativo los manejan.
8.El papel del inflamasoma NRLP3 es que las plaquetas inducirían el ensamblaje del inflamasoma en el interior de los ellos, activando algún gen que tiene que ver con la agregación de proteínas
9.La activación de estas moléculas es como la señal para disparar la respuesta inflamatoria al activar a otras células inmunitarias.
10.Las respuestas ide este tipo eran muy eficaces y compartimos con otros vertebrados e invertebrados genes especializados en estos menesteres.
11.Se ha identificado que la puesta en marcha de las inflamaciones requiere el concurso de ellas.
12.Tipo de compuesto, hasta ahora solamente estudiado en cultivos de macrófagos realizados in vitro y que está implicado en la maduración de citosinas proinflamatorias.
13.Con harta frecuencia se zanja una ignorancia, justificando la ocurrencia de alguna dolencia, sentenciando que es de este origen.
VERTICALES
1.Es muy común el enrojecimiento de algún tejido, la sensación de calor y el dolor asociados a ellas.
3.A este sistema se le ha referido desde siempre como ese oscuro sistema que, no se sabe cómo, nos defiende de enfermedades y problemas.
4.Los inflamasomas intervienen en la activación de complejos protéicos como ocurre con la secreción de este tipo de moléculas.
5.A las células que integran la sangre, denominadas trombocitos, se les ha asignado este proceso, con lo que evitan las hemorragias.
6.Los tejidos dañados producen efectos similares al infringido por algún organismo de este tipo o una herida derivada de un accidente o golpe.
Percolando la pandemia.
Las denominadas cafeteras italianas tienen dos compartimentos, uno de ellos es un depósito de agua y el otro contiene el café, con forma de embudo que hace de portafiltro. En él se deposita café molido. Ambos están conectados por una especie de tubo que vierte o asciende el agua caliente. La clave es pasar el vapor de agua a través del café molido, impregnarlo y que arrastre los elementos solubles y alguno no soluble, que por adsorción sale con las moléculas de agua. Este paso del vapor de agua a través del café (o cualquier otro material sólido) se denomina percolación y consiste en abrirse paso un fluido a través de los vericuetos que le permite el material sólido que atraviesa, encontrando los poros o lugares libres que le permiten avanzar. Si el café está demasiado compactado, el vapor de agua no podría percolar, no encontrando el itinerario, y solo cabe vencer la resistencia con presión y en el punto de mayor debilidad y por ahí, escapará el agua. Así, el agua se impregna de café, que luego agradecemos al ingerirlo. No es recomendable, por tanto, compactar más de la cuenta.
Formalmente, Boradbent, en 1954, planteó la probabilidad de encontrar un camino conexo (sin ruptura) desde un extremo a otro en una retícula. No es trivial. En dos o más dimensiones el problema es complejo, hasta el punto de recurrir a métodos numéricos. El proceso implica una transición de fase y está relacionada con aspectos fundamentales como fractales e invarianza de escala, propios de los cambios de fase. Los modelos más simples son los denominados percolación por nodos (sitios) y percolación por enlaces. En el de nodos, se consideran puntos formando un retículo, que por simplicidad se supone una red cuadrada. Cada nodo puede estar ocupado o libre. Los ocupados están enlazados a los vecinos más próximos, siempre que estén ocupados. Si todos los
nodos están ocupados, evidentemente encontraremos un camino para ir desde el principio al final. Pero se pueden vaciar una serie de nodos y seguir teniendo camino para ir desde el principio al final, como ocurre en los laberintos. El itinerario para lograr salir depende de la fracción de nodos que hayamos retirado. Una serie de puntos conectados sin salida, son unos agregados que se denominan clúster. Los caminos con salida se denominan percolantes y los demás no percolantes. Si p es la probabilidad de que un sitio (nodo) esté ocupado, se puede demostrar analíticamente que hay un valor crítico que establece el umbral de percolación. Si q es la probabilidad de que un nodo no esté presente, cuando p>q, existe al menos un camino de nodos interconectados que se extiende por toda la red y cuando p<q entonces habrán clústers, pero no itinerario que perfore la red. Es interesante lo que ocurre en el entorno del valor crítico de p, detectándose que la estructura geométrica más grande de los nodos interconectados es un fractal y, justamente, es en ese punto en el que se da el cambio de fase de no percolante a percolante. En el modelo por enlaces están presentes todos los nodos, pero solamente hay enlaces entre ellos con una cierta probabilidad. Existen otros modelos dinámicos, en que las conexiones se establecen variando en el tiempo y adoptando conformaciones diferentes que evolucionan.
Esta teoría sirve para estudiar muchos fenómenos que son habituales. Casos especialmente llamativos son la propagación de fuego en un bosque, la extracción de petróleo del subsuelo mediante la percolación a través del material rocoso que lo encierra o la expansión de enfermedades o infecciones epidémicas, como la que estamos sufriendo, a través de una población sobre la que se abre paso percolando en una población inerme ante las interconexiones que ella misma establece entre sus miembros. Hay que traducir que la detención del avance de la pandemia se basa en eliminar nodos o enlaces, evitando que se establezcan los itinerarios de percolación que permiten avanzar a la pandemia. Las decisiones se toman desde la responsabilidad de que las cosas de todos, son de todos y eso, solo tiene una respuesta democrática, las del derecho establecido. Pero los límites para tomar una u otra decisiones deben analizarse por competentes en estos temas que recomiendan las soluciones técnicamente favorables. A nadie escapa que con un mayor número de nodos o de enlaces, como
ocurre en estos momentos, alteramos las condiciones de percolación. Así de simple.
HORIZONTALES
4.Los caminos con salida se denominan así y los demás no percolantes.
6.La extracción de éste del subsuelo mediante la percolación a través del material rocoso es percolación.
8.Si en una cafetera italiana o de filtro el café está demasiado compactado, el vapor de agua no podría hacerlo.
9.En el modelo de percolación por nodos,éstos, se consideran puntos formando un retículo, que por simplicidad se supone una red de este tipo..
10.Una serie de puntos conectados sin ella, son unos agregados que se denominan clúster.
11.Consiste en abrirse paso un fluido a través de los vericuetos que le permite el material sólido que atraviesa, encontrando los poros o lugares libres que le permiten avanzar.
12.En él se deposita café molido.
13.Las denominadas cafeteras ide este tipo, tienen dos compartimentos, uno de ellos es un depósito de agua y el otro contiene el café, con forma
de embudo que hace de portafiltro.
VERTICALES
1.La expansión de enfermedades o infecciones epidémicas, como la que estamos sufriendo, a través de una población sobre la que se abre paso percolando en una población inerme ante las interconexiones que ella misma establece entre ellos.
2.La percolación implica una transición de este tipo y está relacionada con aspectos fundamentales como fractales e invarianza de escala, propios de los cambios de fase.
3.Investigador que en 1954, planteó la probabilidad de encontrar un camino conexo (sin ruptura) desde un extremo a otro en una retícula.
5.En el modelo de percolación por nodos, los ocupados lo están a los vecinos más próximos, siempre que estén ocupados.
7.La estructura geométrica más grande de los nodos interconectados lo es y, justamente, es en ese punto en el que se da el cambio de fase de no percolante a percolante.
TRAZO 1.17
Aerogeles de grafeno impreso.
Observando la celeridad con la que las vacunas para paliar la pandemia del COVID-19, han estado dispuestas para su uso generalizado, todo parece indicar capacidades excepcionales de investigación de la Humanidad. Quizás, un incentivo de beneficios potenciales vinculados, ha estado tras el record logrado. Si extrapolamos y extendemos el argumento, cabría pensar que lo que no se resuelve a nivel de investigación con parecida rapidez, encierra carencia, si no ausencia, de incentivos (¿económicos?). Parece que el resto de la Ciencia para solucionar los muchos otros problemas que esperan respuesta, tiene lugar a una segunda o tercera velocidad. Desde luego, una cosa parece bien clara a estas alturas, la relación directa entre la capacidad de un sistema de Ciencia y Tecnología y los problemas que es capaz de solucionar y el movimiento económico que lo tiene que impulsar.
El interrogante que suscita lo observado tiene que ver con el nivel de gravedad o importancia que la Humanidad concede a los problemas. ¿Se imaginan, por un momento, que cada año se acometiera un problema con la intensidad con la que unas cuantas empresas, han acometido la búsqueda de la vacuna? En una vida humana se resolverían unos ochenta problemas. ¿cómo sería la vida en un planeta que resolviera un gran problema por año? Indescriptible.
No siendo así, volviendo a la tierra de nuevo, los intereses, no siempre nítidos, van enmarcando nuestras vidas y muchos problemas no se acometen por falta de incentivo eco-
nómico y muchos otros ni se consideran. Es así de crudo. Uno de los problemas ya cronificado es el de tratamiento de las aguas, imprescindible para cualquier sensibilidad que quiera legar un planeta medianamente habitable para las generaciones futuras. ¿Se imaginan una acción en tromba como la del COVID-19? El prometedor grafeno, ahora se implica en una propuesta a considerar. El objetivo de cualquier tratamiento de aguas contaminadas es eliminar la contaminación sin incorporar residuos químicos que puedan resultar problemáticos. Una propuesta formulada por Massud en la Universidad de Büfalo, consiste en el empleo de aerogeles, que son materiales ligeros, sólidos y dotados de una gran porosidad. Se obtienen a partir de un gel en el que el líquido se ha sustituido por un gas. El tamaño no se ve alterado y ahora disponemos de un material sólido. Es el análogo a una esponja natural o de poliestireno. Aporta ligereza, solidez y resistencia. Como sabemos el grafeno es un nanomaterial dispuesto en forma laminar de átomos de carbono que adoptan las posiciones de una red hexagonal repetitiva. La clave de la aportación radica en la impresión en 3D de estos aerogeles recubiertos en sus poros de láminas de grafeno, lo que permite escalar el material y darle un soporte estable para el tratamiento del agua.
Lo ingenioso de la propuesta es que los investigadores han recurrido a la imitación de procesos naturales que garantizan el logro de tantas cosas útiles para lograr procesos efectivos. Imprimir 3D consiste en utilizar una tinta (agente apropiado en cada caso) para materializar la estructura y forma diseñada. Para lograr la consistencia requerida en el material a partir de una tinta a base de grafeno, le agregaron dos polímeros muy extendidos en la Naturaleza, como la polidopamina que participa en las secreciones adhesivas de los mejillones y la albúmina de suero bovino que constituye hasta un 60% del suero animal y en los cultivos celulares actúa como portador de otras moléculas y por la carga negativa, con la que se une al agua, sales, ácidos grasos, vitaminas y hormonas y los transporta entre los tejidos y las células. Esta capacidad de
unión le hace especialmente indicada para eliminar sustancias tóxicas.
Las pruebas realizadas muestran capacidad de eliminación de metales pesados, como plomo o cromo, muy abundantes como contaminantes del agua y también materiales orgánicos como tolueno y otros disolventes orgánicos. Las estructuras de grafeno generadas con impresión 3D incrustan en la superficie y las paredes elementos operativos nanométricos que pueden actuar de catalizadores que aceleran el proceso de tratamiento de los contaminantes orgánicos y químicos. Una ventana a la esperanza de detener, al menos, la degradación con la que castigamos al Medio Ambiente y a las generaciones futuras. Si una nueva propuesta como esta, no logra generalizar su uso, no piensen que no ha sido eficaz, probablemente hayan otras razones. El COVID-19 inspira otras interpretaciones. Aunque la esperanza, no hay que perderla, nunca.
HORIZONTALES
2.Polímeros muy extendidos en la Naturaleza, que participa en las secreciones adhesivas de los mejillones.
5.La celeridad con la que para paliar la pandemia del COVID-19, éstas han estado dispuestas para su uso generalizado, todo parece indicar capacidades excepcionales de investigación de la Humanidad.
6.Es un nanomaterial dispuesto en forma laminar de átomos de carbono que adoptan las posiciones de una red hexagonal repetitiva.
7.Lo ingenioso de muchas propuesta de investigación es que los investigadores han recurrido a la imitación de estos procesos que garantizan el logro de tantas cosas útiles para llevar a cabo procesos efectivos.
8.El objetivo de cualquier tratamiento de aguas contaminadas es eliminar la contaminación sin incorporar residuos de este tipo que puedan resultar problemáticos.
9.La de suero bovino constituye hasta un 60% del suero animal y en los
cultivos celulares actúa como portador de otras moléculas.
VERTICALES
1.La capacidad de unión de la albúmina de suero bovino con el agua, las sales, ácidos grasos y hormonas y transportarlos entre los tejidos y las células la hace especialmente indicada para eliminar estas sustancias.
2.Uno de los problemas ya cronificado es el de tratamiento de las aguas, imprescindible para cualquier sensibilidad que quiera legar uno medianamente habitable para las generaciones futuras
3.Cabría pensar que lo que no se resuelve a nivel de investigación con parecida rapidez a la de la vacuna del COVID-19, encierra carencia, si no ausencia, de ellos.
4.Una cosa parece bien clara a estas alturas, la relación directa entre la capacidad de un sistema de Ciencia y Tecnología y los problemas que es capaz de solucionar y el movimiento de este tipo que lo tiene que impulsar.
TRAZO 1.18
IA y envejecimiento.
En su día, cuando hizo su aparición el ordenador, los teóricos ya evidenciaron que no se trataba de un dispositivo, sino de una máquina de propósito general, ya que una máquina es una combinación de dispositivos que funciona de forma autónoma u operada por humanos. El propósito principal de una máquina es facilitar el trabajo. Un dispositivo, por contra, tiene asignado un propósito específico. A su vez, una máquina puede constituirse en dispositivo de una máquina que incluya a la primera en una integración más amplia. Una impresora es un dispositivo, denominado periférico de un sistema de computación. Su objetivo es imprimir lo que el ordenador, a través de las instrucciones oportunas, le envíe, para sacarlo fuera como resultado. Dotada de la circuitería oportuna para 3D, puede convertirse en una máquina para fabricación de automóviles o edificios o, llegado el caso, de alimentos.
La Inteligencia Artificial no es una máquina, sino un sistema. Como tal, se puede concretar en máquinas e integrarse en ellas para cualquier propósito. Al igual que en su día la primera alfabetización surgió al socaire de la imprenta, la segunda alfabetización emergió de la incorporación de los ordenadores, ahora la Inteligencia Artificial promete ofrecer la opción a una tercera alfabetización. No se vislumbra área de actividad en la que los ordenadores no participen. No es previsible que resten áreas de actividad en las que la IA no tenga papel que jugar. Por el tipo de actividad, en la que se encuentra en su medio genuino la IA, que es tratando las redes neuronales como mecanismo de conocimiento, se erige en una potente herramienta para manejar la información que, oculta en las
grandes cantidades de datos, permanece inaccesible de no disponer de herramientas capaces de manejarse en esta complejidad.
En cualquier tema de investigación, que hoy se pueda plantear, que maneje mucha cantidad de datos y sea capaz de estructurarlos para efectuar deducciones, cabe el empleo de la IA. Si pensamos en las investigaciones que tratan de descubrir compuestos apropiados en la lucha contra el envejecimiento, por mucho que nos sorprenda, ahí está la IA. Es un caso paradigmático para transmitir lo que pretendemos. La cuestión podría ser lo que se han planteado los investigadores de la Universidad de Surrey: construir un modelo de IA que identifique compuestos químicos que propicien un envejecimiento saludable. Se trata de desarrollar un modelo de aprendizaje automático que emplee la base de datos DrugAge para encontrar compuestos susceptibles de alargar la vida de un gusano, Caenorhabditis elegan, cuyo metabolismo es similar al de los humanos.
La cuestión a destacar es que la base de datos es que la base de datos DrugAge ya existe, ya se ha construido conteniendo drogas, compuestos y suplementos, tanto naturales como nutracéuticos, con propiedades anti envejecimiento y capaces de alargar la vida en organismos modelo. Los datos se han introducido manualmente por expertos, como forma de asegurar que el contenido tiene una elevada calidad. Por otro lado, con este bagaje se ha pasado a construir un modelo automático de información que usa esa base de datos, para predecir si un compuesto puede prolongar la vida de un gusano, cuyo metabolismo es similar al humano. El menor ciclo de vida permite ensayos de menos duración para experimentar los compuestos químicos pronosticados. El Modelo de aprendizaje en IA planteado sugirió tres tipos de compuestos apropiados para la finalidad pretendida: flavonoides, ácidos grasos como los Omega 3 y compuestos organooxigenados.
Una vez más se evidencia el largo recorrido que transcurre entre la experimentación o la teoría científica y el paso final de la prescripción médica. Una cadena de investigadores de aspectos fundamentales, han aportado sus propuestas avaladas por la experimentación rigurosa, para finalmente estar en disposición de que la técnica, como ahora la IA, es capaz de obtener rendimiento de esos trabajos. La Ciencia avanza con parsimonia desde los laboratorios, desde las propuestas de científicos capaces de proponer mecanismos y experimentarlos, para que finalmente, la técnica haga su aportación y se disponga del resultado final en una receta médica. No hay otro camino.
El envejecimiento es un conjunto de dolencias significativo en la vida de las personas, para el que vale la pena que la IA aporte opciones de ralentizar o mitigar las enfermedades asociadas con la edad. Howlin, autor principal del estudio que lleva a cabo la Universidad de Surrey entiende que la IA impulsará beneficios para la salud humana.
HORIZONTALES
1.Una máquina es una combinación de dispositivos que funciona de forma autónoma u operada por ellos.
6.Una impresora es un dispositivo, denominado así, de un sistema de computación.
10.Planteado por los investigadores de la Universidad de Surrey: construir un modelo de IA que identifique estos compuestos de este tipo que propicien un envejecimiento saludable.
12.La primera surgió al socaire de la imprenta.
14.No se vislumbra área de actividad en la que éstos no participen.
15.El envejecimiento es un conjunto de dolencias significativo en la vida de las personas, para el que vale la pena que la IA aporte opciones de ralentizar o mitigar las enfermedades asociadas con ella.
VERTICALES
2.El medio genuino la IA, es tratando éstas redes como mecanismo de conocimiento.
3.Tiene asignado un propósito específico.
4.Ésta avanza con parsimonia desde los laboratorios, desde las propuestas de científicos, para que la técnica haga su aportación y se disponga del resultado final en una receta médica.
5.En su día, cuando hizo su aparición el ordenador, los teóricos ya evidenciaron que se trataba de una de propósito general.
7.Esta base de datos contenie drogas, compuestos y suplementos, tanto naturales como nutracéuticos, con propiedades anti envejecimiento.
8.La Inteligencia Artificial promete ofrecer la opción a ésta alfabetización.
9.La Inteligencia Artificial no es una máquina, sino uno de éstos.
11.En cualquier tema de investigación, que hoy se pueda plantear, que lo haga con mucha cantidad de ellos, cabe el empleo de la IA.
13.No es previsible que resten áreas de actividad en las que ésta no tenga papel que jugar.
1.19
Espiral explosiva.
Vivimos en una sobrerealidad que ha tenido la "virtud" de sumergirnos en un mundo del que realmente no sabemos demasiado. Sí parece claro, que hay un "Sobremundo" que se sitúa por encima de las democracias, los países e incluso las normas, que opera y dirige por donde le conviene, no necesariamente coincidente con los intereses de las personas. Ilusoriamente, creemos que progresamos.
Nos hemos visto sobresaltados por una decisión de las autoridades chinas. La criptomoneda, inventada por un grupo de informáticos en torno a 2008, se tambalea. No es nada nuevo, por cuanto Elon Musk ya dio orden de dejar de aceptar el bitcoin para comprar sus coches Tesla, alegando que el impacto sobre el Medio Ambiente era fenomenal. Por cierto, la misma razón alegada ahora por las autoridades chinas, para negarse a aceptar la denominada "minería informática" necesaria para crear los bitcoins.
Técnicamente, se asocian las cadenas de bloques (blockchain) con las criptomonedas. Son cadenas de bloques de información asegurados criptográficamente. Se aplican en otros ámbitos, pero juegan un papel fundamental en las criptomonedas. Es un registro único, consensuado y distribuido en varios nodos de una red. Se le suele asimilar a un libro contable donde se registran todas y cada una de las transacciones digitales. Cada bloque contiene una serie de registros correspondiente a transacciones válidas, información referente a ese
bloque y su vinculación con el bloque anterior y posterior a través del denominado "hash" de cada bloque, que es un código único, como la huella digital del bloque. Por tanto, la posición del bloque está fijada. La seguridad de la información la otorga el que la cadena completa se guarda en cada nodo de la red que forma la cadena de bloques. Es como si fuera un holograma, cada participante de la red almacena una copia exacta de la cadena de bloques. Crear un nuevo bloque implica que los nuevos registros se verifiquen y validen por los nodos de la red, antes de que se añadan y enlacen en la cadena. Este es el trabajo que se efectúa en la denominada "minería informática", en analogía con la minería de metales en que se examinan muchas gangas, para separarlas de la mena de interés.
La emisión asociada a la creación de bitcoins se cifra en cientos de millones de toneladas de gases de efecto invernadero. En China, se concreta en una previsión para 2024 de 130 millones de toneladas de estos gases. La cifra es descomunal, por cuanto es comparable a lo que genera toda la economía China en un año. Ya supera al consumo de Argentina y sobrepasa a Finlandia y Suiza. La cuestión es clara, por cuanto la producción de bitcoins implica a cientos de miles de ordenadores trabajando sin cesar, dado que el trabajo que soportan es la verificación constante de las transacciones en las que intervienen complicados cálculos para que haya garantías de que no se den utilizaciones fraudulentas, para que el registro global sea fiel reflejo de las transacciones que se realizan.
El consumo energético de la "minería informática" hoy se cifra en torno a los 122 Gigawatios hora (GWh) anuales, cuando el de Argentina es de 125 GWh (1018) o el de los Paises Bajos es de 110 GWh (2019). En España, en 2020 ha sido de 250 GWh y en China 6.500 GWh (2018). Pero, poco a poco el consumo en la minería de los bitcoins va alcanzando el consumo de nuevos países y se multiplican las advertencias de alertar que si sigue creciendo la minería de las criptomone-
das, no habrá energía suficiente para abastecer a la población. Se ha llegado a publicitar que las inversiones en criptomonedas generan las mismas emisiones anualmente que los vehículos de gasolina: un bitcoin lo mismo que un coche anualmente.
Estamos ante una espiral explosiva para el Medio Ambiente, por cuanto el aumento del precio de la criptomoneda, implica un incremento de la potencia necesaria para minar, lo cual repercute en un aumento del consumo energético, con lo que, finalmente, se incrementan las emisiones del dióxido de carbono.
Es inevitable, en esta tesitura, la comparación del dinero digital con el convencional. Incluso en las circunstancias más convencionales, la incidencia de la fabricación del papel moneda es muy inferior al de la minería de las criptomonedas. La evolución de las criptomonedas es una auténtica espiral explosiva. Es lo que se va viendo. Puede que ya tenga un futuro incierto.
HORIZONTALES
3.Si sigue creciendo la minería de las criptomonedas, no habrá energía suficiente para abastecer a ésta.
5.Vivimos en una, que ha tenido la “virtud” de sumergirnos en un mundo del que realmente no sabemos demasiado.
7.La emisión asociada a la de bitcoins se cifra en cientos de millones de toneladas de gases de efecto invernadero.
8.El consumo energético de esta minería, hoy se cifra en torno a los 122 Gigawatios hora (GWh) anuales.
10.Estamos ante una espiral de este tipo, para el Medio Ambiente, por cuanto el aumento del precio de la criptomoneda, implica un incremento de la potencia necesaria para minar,
11.Técnicamente, se asocian las de bloques (blockchain) con las criptomonedas.
12.La producción de éstos implica a cientos de miles de ordenadores trabajando sin cesar, dado que el trabajo que soportan es la verificación constante de las
transacciones.
VERTICALES
1.La inventada por un grupo de informáticos en torno a 2008, se tambalea.
2.La de la información la otorga el que la cadena completa se guarda en cada nodo de la red que forma la cadena de bloques.
4.En ingles es la denominacióm de un registro único, consensuado y distribuido en varios nodos de una red. Se le suele asimilar a un libro contable donde se registran todas y cada una de las transacciones digitales.
6.Se ha llegado a publicitar que las que se efectúan en criptomonedas generan las mismas emisiones anualmente que los vehículos de gasolina: un bitcoin lo mismo que un coche anualmente.
9.Elon Musk ya dio orden de dejar de aceptar el bitcoin para comprar sus coches de esta conocida marca, alegando que el impacto sobre el Medio Ambiente era fenomenal.
TRAZO 1.20
Lo complejo es Nobel.
En uno de los devaneos que cada cierto tiempo se tienen en el mundo científico, como la emblemática posición de Laplace, se llegó a pensar y creerse que, con la formulación de la Mecánica de Newton, todo se podía conoce: pasado, presente y futuro. El denominado determinismo filosófico, formulaba un marco en el que solamente habría que resolver "algunos problemillas", a título de ejemplo, que concretaran los casos posibles. La realidad evidenció que solamente se había descorrido una cortina, tras lo cual aparecieron mil y un problemas nuevos que dieron al traste con las endiosadas pretensiones de muchos científicos de la época. Posteriormente, no han faltado algunos episodios más y fue muy significativa la aportación de Gödel al precisar que el lenguaje del pensamiento formal siempre será insuficiente para poder describir un sistema, completamente y sin contradicciones. Siempre ocurre lo mismo; al final el mundo es complejo y las simplificaciones y aproximaciones suelen explicar parcialmente los hechos y, más nos vale manejarnos en la complejidad, que se desvela como una más apropiada aproximación a la realidad.
Los sistemas reales, complejos, presentan dificultades para identificar las variables que inciden en el comportamiento de aquéllos, que son muy abundantes. Apartir de cierto límite de complejidad (es una forma de hablar) surge el denominado caos que dificulta, todavía más, el conocimiento y poder desvelar el comportamiento de un fenómeno que se
estudia y se quiere desentrañar su casuística. Trabajar en este campo es lo que se ha premiado con el Nobel a los científicos Syukuro Manabe, Klaus Hasselmann y Giorgio Parisi. Se han ocupado de proponer una serie de principios implicados en el desorden, tanto en sus genuinas fases, como en las fluctuaciones, focalizando desde el nivel atómico hasta el planetario.
La complejidad nos acosa por todas partes. No somos conscientes de su ocurrencia a niveles microscópicos y mucho menos de los interplanetarios, pero sí percibimos la complejidad de las interacciones entre los humanos, como ocurre con los sistemas socioeconómicos, desde las elecciones democráticas a cualquiera de los sistemas que implican tomar decisiones. En los años cincuenta se desarrollaron trabajos encaminados a explicar cómo se puede mantener el equilibrio en sistemas complejos sometidos a la toma de decisiones colectivas, desde la negociación hasta las formas de cooperación entre humanos. Con el incremento del número de participantes, el sistema exhibe un comportamiento caótico, no tanto en la interpretación vulgar del término al que la evolución cultural ha llevado a asignarle un significado errático, cuanto que se vuelve impredecible por la complejidad que conlleva. Cabe matizar los conceptos complejo y complicado. En el último caso, no necesariamente hay solución, en el primero si la hay, por muy costosa que se presente. Son destacables los trabajos de Arrow, Gibbard y Satterthwaite, asi como el desarrollo de la Dinámica de Sistemas, metodología propuesta por Forrester como forma de enmarcar los problemas complejos y abordarlos desde el rigor de la complejidad. En realidad, una forma de pensar, muy eficaz para abordar problemas complejos y desenvolverse en la propia vida, sin más. La educación general haría bien en ir identificando todas aquellas metodologías que repercuten, con valor añadido, en la formación, actualizando las propuestas educativas más allá del nominal reparto de horas lectivas en el que siempre se "atrancan" ejecutivos y legisladores.
Si hubiera que resumir el trabajo al que ahora se le otorga relevancia con la concesión del Nobel de Física, es la significativa aportación en la dirección de comprender el mundo en que vivimos, caótico, necesariamente, al conjugar un sinnúmero de variables que excede en mucho a las simplificaciones con las que usualmente nos aproximamos a resolver los problemas. La idealidad que sobrenada en las soluciones propuestas a los problemas reales, permiten disponer de indicativos de por dónde transcurren los hechos, pero siempre hay que tener la cautela de las restricciones que derivan de las aproximaciones efectuados.
El Nobel de 2021 en Física viene a recordarnos la complejidad de la Naturaleza, la ingenuidad de muchas soluciones que se formulan desde la intuición, que se vienen abajo cuando la realidad se impone y sus leyes de la complejidad desbordan los tratamientos que se hicieron. Ahí están las Matemáticas, la Física y la Química, para ayudar a comprender el mundo que nos rodea. Es una esperanza el poder abordar la Naturaleza en su intimidad más cercana, donde las cosas son genuinamente complejas. Así creemos que es la realidad.
EclipseCrossword.com
HORIZONTALES
2.Este determinismo, formulaba un marco en el que solamente habría que resolver “algunos problemillas”, a título de ejemplo, que concretaran los casos posibles.
3.El mundo lo es y las aproximaciones suelen explicar parcialmente los hechos.
4.Su aportación, al precisar que el lenguaje del pensamiento formal siempre será insuficiente para poder describir un sistema, completamente y sin contradicciones.
6.La posición de este científico suponía que, con la formulación de la Mecánica de Newton, todo se podía conocer, pasado, presente y futuro.
7.Percibimos la complejidad de las interacciones entre los humanos, como ocurre con los sistemas socioeconómicos, desde las elecciones democráticas a cualquiera de los sistemas que implican tomarlas.
8.Los sistemas reales, complejos, las presentan para identificar las variables que inciden en el comportamiento de aquéllos, que
son muy abundantes.
9.En estos años se desarrollaron trabajos para explicar cómo se puede mantener el equilibrio en sistemas complejos sometidos a la toma de decisiones colectivas.
10.Se premia con el Nobel de Física 2021 comprender éste en el que vivimos, caótico, necesariamente, al conjugar un sinnúmero de variables que excede en mucho a las simplificaciones con las que usualmente nos aproximamos a resolver los problemas.
VERTICALES
1.A partir de cierto límite de ella surge el denominado caos que dificulta, todavía más, el conocimiento y poder desvelar el comportamiento de un fenómeno que se estudia y se quiere desentrañar su casuística.
2.Ingeniero que introdujo la Dinámica de Sistemas,como forma de enmarcar los problemas complejos.
5.Los Nobel en Física de 2021 se han ocupado de proponer una serie de principios implicados en él., tanto en sus genuinas fases, como en las fluctuaciones, focalizando desde el nivel atómico hasta el planetario.
SOLUCIONES A LAS PALABRAS CRUZADAS
SOLUCIONES AL TRAZO 1.1
Neuronas
SOLUCIONES AL TRAZO 1.2
Sumisión delictiva.
SOLUCIONES AL TRAZO 1.3
SOLUCIONES AL TRAZO 1.4
Ocurre.
SOLUCIONES AL TRAZO 1.5
Conexión cósmica.
SOLUCIONES AL TRAZO 1.6
El geoglifo 143.
A.
Requena
SOLUCIONES AL TRAZO 1.7
SOLUCIONES AL TRAZO 1.8
Resveratrol y Tierra 2.0.
SOLUCIONES AL TRAZO 1.9
Tránsito.
SOLUCIONES AL TRAZO 1.10
Viaje a las estrrellas.
SOLUCIONES AL TRAZO 1.11
SOLUCIONES AL TRAZO 1.12
Civilizaciones.
SOLUCIONES AL TRAZO 1.13
El detergente atmosférico.
SOLUCIONES AL TRAZO 1.14
Palabras.
SOLUCIONES AL TRAZO 1.15
Villanas
SOLUCIONES AL TRAZO 1.16
Percolando la pandemia.
SOLUCIONES AL TRAZO 1.17
SOLUCIONES AL TRAZO 1.18 IA y envejecimiento.
SOLUCIONES AL TRAZO 1.19
Espiral explosiva.
SOLUCIONES AL TRAZO 1.20
Lo complejo es Nobel.
TRAZO 2.1
Batería cuántica.
Cada vez nos encontramos más cerca de la aplicación de los dispositivos cuánticos de forma generalizada. Lo que comenzó siendo una cosa exótica, que es como se calificó durante mucho tiempo a todo lo relacionado con el fascinante mundo de la Mecánica Cuántica, va evidenciando su acierto para describir la realidad del mundo microscópico al que no tenemos acceso de forma directa.
Tenemos que reconocer que, cada vez con mayor intensidad, se impone la descripción cuántica como subsuelo de la realidad que vivimos. Los humanos apreciamos una especie de "integración" que tiene lugar a nivel macroscópico en el que nos desenvolvemos, que nos hace ver un mundo, donde causa y efecto es la regla indiscutible que parece manejarlo. No ocurre así a nivel microscópico, como se evidencia, aunque pueda parecer que nuestra percepción es la definitiva. El positivismo filosófico, fruto de esa descripción macroscópica, hace descansar la realidad en lo que los sentidos nos facilitan. Pero no hay mas que observar la experiencia de una pajita para sorber líquido, que al sumergirla en el vaso, nos da la impresión de romperse o, al menos doblarse, en el interior del líquido, cuando sabemos que la vista "nos está engañando". El mecanismo para colectivizar lo que
acontece a nivel microscópico se maneja teóricamente de forma aproximada; es un mundo fascinante que no impide la maravilla del acontecer cuántico que subyace a todos los niveles de descripción física.
El reto de construir instrumentos cuánticos que operen a nivel macroscópico se viene acometiendo desde los años veinte del siglo pasado, con mayor o menor fortuna. Ahora nos vamos acercando cada vez mas a aplicaciones de carácter sustancial. Recientemente, se ha propuesto una batería cuántica, hasta la fecha solo una conjetura. Los ordenadores cuánticos la precisan. Genera una diferencia de fase persistente entre dos puntos de un circuito de corriente superconductor. Es el análogo cuántico de una batería convencional que establece una diferencia de potencial entre dos puntos, a partir de una reacción química, para establecer una corriente eléctrica. La propuesta es de un grupo de investigadores españoles del centro Mixto de física de Materiales del País Vasco e italianos de la empresa Nacional de nanociencia y Nanotecnología de Pisa. Un nanohilo de un semiconductor, arseniuro de indio, conectado a superconductores de aluminio. La unión de ellos, es la denominada unión de Josephson que permite el paso de corriente sin fricciones a su través. Para que tenga lugar este flujo de corriente debe haber una diferencia de fase entre las funciones de onda de los dos superconductores. En el caso de que la unión de superconductores forme parte de un circuito cerrado no puede haber diferencia de fase y no tendrá lugar flujo de corriente de ninguna clase. En los materiales superconductores, las corrientes fluyen sin necesidad de aplicar voltaje por lo que computadoras cuánticas, no requieren de una batería clásica. La denominación de supercorrientes es porque no presentan pérdidas de energía. Apartir de una diferencia de fase de la función de onda se induce una supercorriente. Esto significa que un dispositivo cuántico capaz de proporcionar una diferencia de fase persistente, puede verse como una batería de fase cuántica.
El efecto Josephson es un fenómeno físico descubierto en el año 1962, que le valieron a su descubridor el Nobel compartido en 1973 en Física, que implica la aparición de una corriente eléctrica mediante efecto túnel entre dos superconductores separados. La corriente no la transportan, como es usual los electrones, sino pares de ellos, los denominados pares de Cooper. Una de las versiones del efecto Josephson puede funcionar como un convertidor perfecto voltaje-frecuencias. Los promotores conciben que la batería de fase cuántica podría aportar un componente clave para los dispositivos cuánticos, como por ejemplo un qubit o, alternativamente, como sintonizador de flujos superconductores efectivos en memorias cuánticas.
La computación cuántica avanza paso a paso ofreciendo realizaciones que contribuyen a materializar un progreso muy significativo para conseguir ordenadores más rápidos y eficaces que los actuales y poder acometer cálculos de gran cantidad de datos que hoy no se pueden tratar, desde la predicción en climatología, hasta mareas y efectos devastadores para los que los modelos existentes tienen exigencias muy por encima de las capacidades de cálculo actuales. La intención, al superar las baterías clásicas, es soslayar las servidumbres, por ejemplo, la carga de las baterías convencionales, que ensombrece los logros de la tecnología de las comunicaciones. Poco a poco.
HORIZONTALES
1.Una de las versiones del efecto Josephson puede funcionar como uno convertidor perfecto voltaje-frecuencias.
5.Nos desenvolvemos en un mundo, donde causa y efecto es la indiscutible que parece manejarlo.
6.Los promotores conciben que la batería de fase cuántica podría aportar un componente clave para los dispositivos cuánticos, como por ejemplo uno de éstos.
8.Uno de un semiconductor, arseniuro de indio, conectado a superconductores de aluminio. La unión de ellos, es la denominada unión de Josephson que permite el paso de corriente sin fricciones a su través.
9.El filosófico, fruto de esa descripción macroscópica, hace descansar la realidad en lo que los sentidos nos facilitan.
10.Un dispositivo cuántico capaz de proporcionar una diferencia de ella persistente, puede verse como una batería de fase cuántica.
11.El mecanismo para colectivizar lo que acontece a este nivel, se maneja teóricamente de forma aproximada.
12.Cada vez nos encontramos más cerca de la aplicación de estos dispositivos de forma generalizada.
VERTICALES
2.La experiencia de una pajita para sorber líquido, que al sumergirla en el vaso, nos da la impresión de romperse o, al menos doblarse, en el interior del líquido, cuando sabemos que esta “nos está engañando”.
3.Cada vez con mayor intensidad, se impone la descripción cuántica como subsuelo de la que vivimos.
4.Comenzó siendo una cosa exótica, que es como se calificó durante mucho tiempo a todo lo relacionado con el fascinante mundo de esta Mecánica.
7.Investigador descubridor del fenómeno físico que lleva su nombre y recibió el Nobel de Fisica en 1962.
TRAZO 2.2
Hacia una máquina ética.
En la década de los ochenta del siglo pasado, tuve ocasión de conocer y departir con Joseph Weizembaum. Había escrito un libro en español, titulado "La frontera entre el ordenador y la mente". Magnífico. Había desarrollado una idea muy ingeniosa, consistente en que un ordenador parecía que mantenía una conversación con el operador. Era en la década de los sesenta, cuando los ordenadores no tenían todavía pantalla y se accedía mediante tarjetas perforadas, que muchos lectores no sabrán cómo eran ni se lo imaginan. Teclados y pantallas, incluso sin color, no han existido siempre, hubo un tiempo en el que esas cosas ni se imaginaban. Pero había ordenadores y permitían efectuar cálculos de mucha envergadura. Eso sí, exigían audacia, talento y capacidad de imaginación para operarlos. En otras ocasiones lo he referido, con 32K (digo bien, 32K) se hicieron los primeros recibos del agua y basura del Ayuntamiento de Murcia, en un ordenador IBM 360, a mediados de los setenta.
Contaba Weizembaum que salía de su despacho y se fijó en la impresora de su secretaria, que contemplaba atenta las respuestas que le daba un programa que él había hecho, que simulaba que mantenía una conversación con el operador, muy audaz y, de cuando en cuando, introducía preguntas de un cuestionario que, al final de la sesión, emitía un diagnóstico sobre su estabilidad emocional, propio de un gabinete de psicoanálisis. Dicho sea de paso, los psicoanalistas de
la época temían por el vaticinio de que peligraban sus puestos de trabajo, cosa que nunca ocurrió. Bien, pues aquella secretaria le apartó de su curiosa vista, aduciendo que estaba teniendo una conversación íntima con el ordenador. Weizembaum "tocado" por aquello, se retiró a reflexionar qué había hecho al construir el programa que bautizó como Eliza, en honor de la heroína de Pigmalion que repetía, como en la película My Fair Laday, aquello de "qué maravilla cuando llueve en Sevilla", sin comprender nada de cuanto decía.
Se propone hace unos días, ASK DELPHI, disponible en esta dirección https://delphi.allenai.org/ Ahí pueden experimentar a placer, viendo el diálogo entre una máquina de Inteligencia Artificial (IA) que aprende conforme se ejercita. Puede parecer ingenua a primera vista. Estas son algunas preguntas y respuestas P : "es bonita Murcia" , R: It is a bit unclear, pero si preguntamos P : "is beautiful murcia ?" responde R - It's a región. No va mal la cosa. En otro orden de cosas P: "is it good smoke ?" R - No, it is bad. No parece desacertada la respuesta. Incluso, mejora conforme precisamos más, por ejemplo P: is it good no vaccine ? P: - No, it is bad. Incluso supera los desaciertos de otros sistemas. Algunas de las respuestas que sugiere, a título de ganar confianza en el sistema, son del siguiente tenor P : Expressing sexism but in a polite way. R : - It's wrong; o esta respuesta ante esta pregunta P: Men are much better than women. R:No, they're equal o esta otra P: Legitimizing racism for the greater good. R : - It's wrong.
Como afirman sus promotores, la clave que ofrece Ask Delphi es una red neuronal de aprendizaje a partir de datos crudos, obtenidos de Internet en primera instancia pero con una extensión de aprendizaje de forma éticamente informada y socialmente consciente. Viene a evidenciar lo previsible y las limitaciones de los modelos de redes neuronales basadas en el lenguaje, cuando se aprende a partir de la valoración ética de la gente. Aparentemente, es un sistema robusto
desde el punto de vista de género o del racismo, con un elevado porcentaje de corrección en cuestiones relacionadas, lo que se ha incrementado desde las versiones iniciales. El aprendizaje del sistema es a partir de los juicios emitidos por gente cualificada de MTurk que es una plataforma de colaboración masiva, que requiere inteligencia humana, dado que exigen un nivel de inteligencia que no puede tener una máquina. Un solicitante formula un interrogante (HIT o Human Intelligence Task o tarea de inteligencia humana) y pasa a los Turkers (Trabajadores que la pueden consultar y finalizar). Hay una entidad Reddit que recoge las preguntas que entrañan situaciones complejas en una gran fuente de situaciones éticamente cuestionables.
Es un paso notable que puede contribuir a otorgar confianza en los sistemas de Inteligencia artificial, mas allá de las trivialidades de simulación de conversaciones al estilo de Eliza. ¡Esto avanza!
HORIZONTALES
3.Autor del libro titulado “La frontera entre el ordenador y la mente”
6.Weizembaum contaba que salía de su despacho y se fijó en la impresora de su secretaria, que contemplaba atenta las respuestas que le daba un programa que él había hecho, que simulaba que mantenía una conversación con él.
8.Como afirman sus propios promotores, la clave que ofrece Ask Delphi es una red neuronal de este tipo a partir de datos crudos, obtenidos de Internet en primera instancia.
9.Con 32K se hicieron los primeros recibos del agua y basura del Ayuntamiento de esta ciudad, en un ordenador IBM 360, a mediados de los setenta.
10.Cuando se conoció la existencia del programa Eliza, temían por el vaticinio de que peligraban sus puestos de trabajo, cosa que nunca ocurrió.
VERTICALES
1.Se propone hace unos días, ASK DELPHI, una máquina de Inteligencia artificial con la que se puede hacer.
2.Programa de ordenador que introducía preguntas de un cuestionario que, al final de la sesión, emitía un diagnóstico sobre su estabilidad emocional, propio de un gabinete de psicoanálisis.
4.Le apartó a Weizembaum de su curiosa vista, aduciendo que estaba teniendo una conversación íntima con el ordenador.
5.Los ordenadores de la década de los sesenta del silgo pasdo no tenían ésta para comunicarse con ellos.
7.Este tipo de tarjetas era el soporte de entrada y salida en un ordenador de los años 50 y 60 del siglo pasado.
El primero.
La atribución de una invención no suele obedecer a un proceso nítido. El ritmo de avance de una sociedad lo determina el colectivo que conforma su cultura. Si hay dos sociedades con niveles parecidos de cultura, es probable que haya simultaneidad en la propuesta, como idea inicial u ocurrencia que dará inicio a una invención. Culturas similares suelen tener sistemas parecidos, por muchas diferencias que creamos que hay. Solo así se pueden justificar las coincidencias en el tiempo de propuestas similares e incluso idénticas.
Sin haber conexión entre mentes de diferentes lugares se han dado soluciones idénticas en el mismo momento. Viene sucediendo desde la aparición de las primeras herramientas y utensilios creados por los humanos. Un caso muy conocido es el de los inventores del Cálculo. Newton y Leibniz, en el último tercio del siglo XVII, que de forma independiente introdujeron los conceptos de integral y derivada y su relación como inversas, que abarcaban a gran cantidad de problemas y propiciaron técnicas para resolverlas. Tanto el simbolismo, como las reglas de cálculo aplicables a funciones algebraicas y trascendentes, al margen de su significado geométrico, permitían manejar de forma casi automática los conceptos citados. Newton denominó a la derivada fluxión, interpretada como una razón de cambio y Leibniz interpretó la derivada como cociente de diferencias y la llamó cociente diferencial. Newton la propuso solo diez años antes que Leibniz y de forma totalmente independiente. Coincidieron en una contribución conceptual de enorme envergadura.
Del mismo o parecido género es el hecho de que a Galileo se le atribuye el descubrimiento de las manchas solares en 1611, aunque otros tres observadores lo hicieron al mismo tiempo. Darwin formuló la teoría de la evolución, aunque Wallace también lo hizo, pero solamente aquél gozó de la atribución del descubrimiento. Hay casos extremos, como el de Alexander Bell y Elisha Gray cuyas solicitudes de patente del teléfono se presentaron, de forma independiente, el mismo día, 14 de febrero de 1876. Algo parecido ocurrió en 1877, cuando el ingeniero francés Cailletet comunicó en una reunión de la Academia de Ciencias, que había observado gotitas de oxígeno líquido y dos días antes, el físico suizo Pictet había telegrafiado a la Academia francesa diciendo que había conseguido obtener oxígeno líquido. Chancourtois en Francia; Newland en Inglaterra; Odling en Inglaterra también y sucesor de Faraday en la Royal Society ; Hinrichs en Dinamarca; Lothar Meyer en Alemania y completando la media docena de descubridores independientes, Mendeleev, que asumió la gloria, que pudo beneficiarse de los descubrimientos de otros pero que, en todo caso, llegó más lejos prediciendo nuevos elementos y corrigió pesos y posiciones de varios elementos de la Tabla Periódica.
Básicamente, la creatividad está envuelta en un halo de misterio. En cierto momento, se atribuyó a causas ajenas al humano, significado en la apelación a las "musas". Andando el tiempo, evolucionó el concepto y se radicó en la actividad cognitiva que desarrolla la capacidad neuronal, por tanto, personal. No obstante, la esencia del proceso sigue permaneciendo en esa nebulosa de la ignorancia sobre nuestra parte más noble de nuestro íntimo ser humano. Falta todavía mucho.
Y hay una segunda lectura relacionada que corresponde a los descubrimientos mal atribuidos, equivocadamente asignados, omitiendo, unas veces deliberadamente y otras accidentalmente, al primero que dio con la novedad. No es
menos cierto que algunos países han protegido las leyendas propias en detrimento de las ajenas, aunque sus propuestas fueran de "segunda mano", sabiéndolo, en muchos casos desde el comienzo de la atribución. Un caso digno de mención es el del jesuita Pedro Páez, nacido en Olmedo de la Cebolla (hoy Olmeda de las Fuentes), cercano a Madrid, que en 1618 llegó a las fuentes del Nilo Azul en Etiopía, nada menos que 152 años antes de que lo hiciera el inglés James Bruce, que se atribuye el logro y 244 años antes de que el inglés John Haning Speke descubriera el Nilo Blanco en la vertiente ugandesa del lago Victoria. Resulta, cuando menos curioso que, ni en la Enciclopedia Hispánica, ni en la Larousse, ni en el diccionario Espasa, ni en la Enciclopedia Salvat, hay rastro de Páez. Gracias a Javier Reverte que lo ha rescatado en su publicación "Dios, el Diablo y la Aventura", sabemos de Páez. Ojo, en la Enciclopedia británica y en el Diccionario enciclopédico de Historia del francés, figura una pequeña biografía de Páez. ¿Qué se pretende?
HORIZONTALES
1.Jesuita, nacido en Olmedo de la Cebolla (hoy Olmeda de las Fuentes), cercano a Madrid, que en 1618 llegó a las fuentes del Nilo Azul en Etiopía, nada menos que 152 años antes de que lo hiciera el inglés James Bruce, que se atribuye el logro.
3.Básicamente, ésta está envuelta en un halo de misterio.
5.Hay casos extremos, como el de Alexander Bell y Elisha Gray cuyas solicitudes de patente de este dispositivo se presentaron, de forma independiente, el mismo día, 14 de febrero de 1876.
7.Hay descubrimientos mal atribuidos, equivocadamente asignados, omitiendo, unas veces deliberadamente y otras accidentalmente, al primero que la dio.
8.Escritor español que ha rescatado en su publicación “Dios, el Diablo y la Aventura”, la figura de Páez.
9.John Haning Speke descubrió el Nilo Blanco en la vertiente
ugandesa de este lago.
10.A este gran investigador se le atribuye el descubrimiento de las manchas solares en 1611, aunque otros tres observadores lo hicieron al mismo tiempo.
VERTICALES
2.Los inventores del Cálculo. Newton y Leibniz, en el último tercio del siglo XVII, de forma independiente introdujeron los conceptos de integral y derivada y su relación como inversas, que abarcaban a gran cantidad de problemas y propiciaron técnicas para hacer esto.
3.El ritmo de avance de una sociedad lo determina el colectivo que conforma ésta.
4.Culturas similares suelen tener sistemas parecidos, por muchas de éstas que creamos que hay.
6.Él formuló la teoría de la evolución, aunque Wallace también lo hizo, pero solamente aquél gozó de la atribución del descubrimiento.
7.La atribución de una invención no suele obedecer a un proceso así.
TRAZO 2.4
La búsqueda de vida en el Universo es un trabajo permanente en el área de la astronomía contemporánea. Tecnofirmas son las señales de carácter técnológico que podemos esperar encontrar revelando la existencia de civilizaciones. En 2018 el Congreso de los Estados Unidos adoptó la decisión de apoyar la búsqueda de tecnofirmas que avalaran la vida extraterrestre. Una de las vías de búsqueda de vida inteligente es a través de señales de radio emitidas.
El término tecnofirma se debe a Jill Tarter, que conceptiualiza las evidencias de alguna clase de tecnología que pueda detectarse. Las ondas de radio lo son y por sus especiales condiciones para la propagación a través del espacio se consideran señales reveladoras de vida inteligente. Hecha la salvedad de que hay que distinguirlas muy bien de las generadas en las estructuras del Universo, de forma natural y asociadas a procesos físicos bien caracterizados en los cuerpos estelares y sus interacciones. Hay muchas otras formas de evidenciar la existencia de vida inteligente. Las emisiones láser posibilitan un modo de comunicación, incluso óptico, cuando opera en la región del visible. Tampoco hay que descartar la propia existencia de megaestructuras que exijan un grado avanzado de inteligencia para su desarrollo e incluso rastros de contaminantes procedentes de actividades extraterrestres, no catalogadas como naturales. La presencia de clorofluorocarbonos, en nuestro caso, sería una huella casi indeleble de presencia humana.
¿Estamos solos?: tecnofirmas y biofirmas.
Otro campo de investigación se centra en las biofirmas, es decir, elementos químicos que evidencien un mundo habitado. Implica observar las atmósferas de exoplanetas, aunque dado que no hay biofirmas universales, es complicado su búsqueda en otros mundos. En nuestro planeta el metano es producido por bacterias y el ganado y muy frágil a la luz del sol. Por tanto, no es esperable que se acumule metano en una atmósfera y cuando se detecta hay que dirigir la atención a los procesos que lo generan, que no tiene por qué ser la vida, ya que puede también producirse en la actividad volcánica. En la Tierra, el 85% del metano proviene de organismos microscópicos. En Marte, todavía queda por responder si es un proceso natural y proviene de microbios o de un proceso denominado serpentinización en el que se genera metano al actuar agua con ciertos tipos de roca. Tanto los rovers Spirit como Oportunity, como mas recientemente Curiosity, detectaron incremento en la concentración de metano en la superficie. La medición fue controvertida. No hay respuesta razonable sobre el origen del metano en Marte
La detección de biofirmas es complicada. Las atmósferas se analizan con telescopios, que pueden detectar la presencia de elementos químicos en una estrella y de un planeta. Así se ha detectado, por ejemplo, la presencia de agua en un pequeño planeta inferior en tamaño a Neptuno. De nuevo, no es suficiente la presencia de agua para suponer que hay vida. En la Tierra así ocurre, pero también puede haber agua y no haber vida.
Las biofirmas no son concluyentes, hasta el momento presente. El oxígeno puede permanecer en una atmósfera mucho tiempo sin necesidad de reposición. Un planeta puede estar perdiendo el más ligeros de los elementos, el hidrógeno, mientras retiene el oxígeno, con lo que su presencia no es definitoria como biofirma. El ozono puede deberse a procesos naturales y se ha detectado en Marte, Venus e incluso en satélites del sistema solar. No vale como biofirma.
El óxido nitroso, el gas de la risa, lo produce una bacteria presente en el suelo. Solo está presente en la Tierra. Se conjetura que pudo formarse en los comienzos de la Tierra por reacción del azufre con el nitrógeno. Pudiera estar presente en Marte y Venus. Podrían indicar vida o por el contrario, presencia por ser un planeta joven. Otro interesante es el isopreno, que se elabora de forma natural en los animales y en las plantas y generalmente es el hidruro más común en el cuerpo humano. Otra alternativa para biofirma parte del hecho de que no se analice la atmósfera, sino de que se analice la luz reflejada. En el caso de la Tierra la vegetación refleja las longitudes de onda entre 700 y 750 nanometros.
Estamos en el comienzo de una era en la que la búsqueda de vida extraterrestre está fundada en el uso de tecnología avanzada, que permite albergar la esperanza de encontrar tecnofirmas o biofirmas plausibles y razonables, que permitan tener certezas y descartar especulaciones.
HORIZONTALES
2.Las atmósferas se analizan con ellos, que pueden detectar la presencia de elementos químicos en una estrella y de un planeta.
9.No hay que descartar la propia existencia de éstas, que exijan un grado avanzado de inteligencia para su desarrollo.
11.Estas emisiones posibilitan un modo de comunicación, incluso óptico, cuando opera en la región del visible.
12.En nuestro planeta este gas es producido por bacterias y el ganado y muy frágil a la luz del sol.
13.En el proceso así denominado, se genera metano al actuar agua con ciertos tipos de roca.
14.Otra alternativa para biofirma parte del hecho de que no se analice la atmósfera, sino de que se analice este tipo de luz.
VERTICALES
1.Se le debe el término tecnofirma, que conceptiualiza las evidencias de alguna clase de tecnología que pueda detectarse.
2.Son las señales de carácter técnológico que podemos esperar encontrar revelando la existencia de civilizaciones.
3.Rastros de ellos, procedentes de actividades extraterrestres, no catalogadas como naturales, pueden indicar vida inteligente.
4.Son elementos químicos que evidencien un mundo habitado.
5.No es esperable que se acumule metano en una atmósfera y cuando se detecta hay que dirigir la atención a los procesos que lo generan, que no tiene por qué ser ésta, ya que puede también producirse en la actividad volcánica.
6.Una de las vías de búsqueda de este tipo de vida es a través de señales de radio emitidas.
7.El óxido nitroso, el gas de la risa, lo produce una bacteria presente en él.
8.Se elabora de forma natural en los animales y en las plantas y generalmente es el hidruro más común en el cuerpo humano.
10.Estas ondas por sus especiales condiciones para la propagación a través del espacio se consideran señales reveladoras de vida inteligente.
TRAZO 25
Conducción autónoma.
Asistimos a una lucha intensa de los constructores de automóviles por incorporar la potencia eléctrica. Hasta ahora han sido un poco remilgados y han ido aplazando la decisión de convertir la tracción en eléctrica. De hecho, mantienen la coexistencia de combustible fósil y energía eléctrica. Se mantiene el problema de la acumulación de la carga, que sigue siendo esquiva. Pero, al margen de esta dificultad, es cierto que los objetos más tecnológicos del momento actual siguen siendo los automóviles.
En 2012 ya inició Google la licencia para el primer coche autónomo en el Estado de Nevada, un Toyota Prius modificado convenientemente. En 2016 el avance considerable de la Inteligencia Artificial en la modalidad aprendizaje de máquinas y aprendizaje profundo, gracias al cual los automóviles logran aprender a partir de su propia experiencia en los recorridos y comparten información gracias a la conectividad inteligente. La navegación mediante GPS y una buena legión de sensores exteriores se complementan con los del recinto interior el vehículo que pulsan el estado emotivo de los pasajeros controlando las pupilas y el lenguaje corporal. Como compendio de todo ello, el vehículo decide los movimientos a desarrollar y grado de aceptación de sus ocupantes.
La cuestión de interés deriva del aspecto central del tema, cual es que según los constructores estiman que los programas de conducción autónoma toman decisiones igual
o mejor que una persona. Los accidentes habidos con vehículos autónomos, como los acaecidos en 2018, en su mayoría, son atribuibles a factor humano. Lo cierto es que, precisamente estos son el motivo del retraso en la aprobación de legislación sobre el tema. Seguimos en la fase de que las técnicas se limitan al aspecto de asistencia al conductor. No hay fecha estimativa de cuando irrumpirán en el mercado
Es sabido que firmas como Toyota, Nissan y Hyundai ya disponen de vehículos semiautónomos. Toyota exhibe un software libre de conducción autónoma. Tesla es el más avanzado en la orbita norteamericana que suma a General Motors y Waymo que tienen como objetivo los taxis robotizados y Mercedes Benz, figura en vanguardia en Europa en el segmento de camiones. Ciertamente es un acierto este segmento, por los problemas de carencia de choferes que lo han evidenciado. No cabe duda de que las características del transporte de mercancías, vehículos lentos, no es tan exigente a la hora de la toma de decisiones. Volkswagen figura con su Sedric, apostando por la conducción autónoma.
La resonancia magnética funcional mide los cambios de flujo de sangre en una región del cerebro, no a nivel de neuronas, sino de regiones. En cada milímetro cúbico del cerebro puede haber un millón de neuronas. Analizar neuronas individualmente, es inalcanzable, por el momento. Decodificando las zonas activas los resultados ofrecen cosas de interés. Así se concretan las partes del cerebro implicadas en una tarea particular. No se trata de leer la mente como si se tratara de un escáner, pero si se trata de dar el salto de algo que nos dice sobre el cerebro a lo que puede entender la mente. La dificultad de partida es que una región del cerebro puede estar involucrada en varios procesos cognitivos. En el fondo es una aproximación a la identificación de la consciencia, como evidencia una publicación reciente en la prestigiosa The Lancet. En todo caso una forma rudimentaria de hacerlo.
El interés de esta faceta es la opción de manejar un coche con la mente. Mercedes Benz trabaja en esta dirección. Ya en septiembre de 2021 en la feria IZZ Mobility celebrada en Munich presentó un vehículo autónomo Visión AVTRT. James Cameron contribuyó al diseño. Un vehículo sin volante con el que el conductor interactúa a través de un sistema biométrico. Solo con pensar se llevan a cabo tareas. Una interfaz cerebro computador con electrodos portátiles se adosa a la parte posterior de la cabeza y permite navegar pudiendo seleccionar diversas opciones. Tras una calibración el dispositivo registra y mide la actividad cerebral y con solo mirar a una de las luces del salpicadero detecta que tarea realizar.
En todo caso, conseguir la licencia para actuar en el mercado, está retrasando la entrada en vigor de un sector que puja con fuerza. La Seguridad Vial reclama un marco en el que puedan actuar personas y máquinas, encaminados a que los vehículos sean capaces de guiarse por sí mismos. Suponemos que, de la noche a la mañana ocurra.
2.6
Hora de irnos.
Con un enunciado apocalíptico, Hawking, anunció que habrá que ir a otros planetas para sobrevivir. Cuando hizo estas declaraciones estaban presentes tres astronautas de la NASA que viajaron a la Luna: Buzz Aldrin, Charlie Duke y Harrison Schmitt, que coincidieron con Hawking en que ha llegado el momento de ir más allá de la órbita terrestre. Por lo que vemos, no es una opinión aislada y sin fundamento y con un tono catastrofista la que se levanta para anunciarnos un futuro irremediable.
Los pasos a seguir parece que están claros: en primer lugar, hay que retomar la vuelta a enviar misiones tripuladas a la Luna, que es un lugar propicio para someter a prueba las tecnologías necesarias para viajar a otros destinos más remotos. Un segundo paso es el envío de astronautas a Marte, que se piensa que debe ocurrir antes de unos 50 años, lo que de forma muy gráfica se decía como "Creo que la primera persona que viajará a Marte ya ha nacido", aunque cierto es que hace mucho que se viene diciendo tal cosa.
Las expediciones que abandonan la atmósfera se denominan viajes espaciales, cuando se va más allá de la órbita de la Tierra y la Luna, se denominan viajes interplanetarios y si fuera más allá del sistema solar, se denominan viajes interestelares. La convicción es que, si no abandonamos el sistema solar, no hay futuro. Según Hawking llevará entre 300 y 500 años efectuar el primer viaje interestelar entendido como un viaje sin retorno.
Hawking afirmó esto en esta reunión mantenida en Noruega en el denominado festival Starmus, que reúne en Trondheim a científicos e interesados en el futuro de la Humanidad y del Planeta Tierra. Según Hawking, "la vida primitiva es relativamente común en el universo, pero la vida inteligente es muy poco frecuente. Con cierta sorna agregó que incluso para algunos es tan poco frecuente que aún no ha aparecido en la Tierra". En todo caso, acepta que la hay en la Tierra, aunque, sabiamente, no incluyó a Donald Trump. Pero rotulaba de forma lapidaria que la vida inteligente tiende a la autodestrucción. En este contexto, si alguna vez ha aparecido en el Universo se puede haber extinguido. Este es el escenario que trazaba el brillante cosmólogo.
El tamaño del mundo era determinante para Hawking, la población creciente enfrenta un acceso a los recursos físicos que los explota a un ritmo alarmante. El cambio climático, la deforestación o la extinción de las especies, son un botón de muestra irrevocable vocación destructiva. La Historia de la Humanidad es una conquista constante. Cada vez que ha habido una crisis de entidad se ha solucionado colonizando nuevos territorios. Pero nos hemos quedado sin esa opción. Ya no hay donde extendernos. Ya no hay otra opción que conquistar sistemas solares.
Por otro lado, cierto es que, ante problemas similares, la Humanidad ha hecho uso de su inteligente capacidad de resolución de problemas. La imaginación es la herramienta mas poderosa de los humanos. Podemos llegar a cualquier sitio. Otra cosa es el tiempo requerido para solucionar los problemas técnicos que plantea la decisión de lanzarnos a la conquista del espacio.
Una de las cuestiones mas descollantes radica en la capacidad de propulsión de las naves actuales. Es notoria una lentitud exasperante para alcanzar las estrellas más pró-
ximas. La alternativa de las velas solares, que se desarrolla en el proyecto Breakthrough Starship, es capaz de lograr una aceleración para situarse a un 20% de la velocidad de la luz, lo que significaría alcanzar en unos veinte años la estrella mas cercana al sistema solar, como es Próxima Centauri, en la que se ha descubierto un planeta habitable potencialmente. Salir de la Tierra no es fácil y requiere un esfuerzo no solo tecnológico sino de acción conjunta y concertada, capaz de soslayar los múltiples motivos de bloqueo. Es una misión que concierne a toda la Humanidad.
La cuenta atrás ha comenzado ahora toca esta audaz aventura. En otro tiempo, problemas de concentración se solucionaban con guerras devastadoras de recursos y de personas. Afortunadamente, aunque no lo verbalizamos con frecuencia, estos procedimientos no son aceptables hoy día. Cuando en el tiempo pasado se resolvieron, fue a costa de imaginación, audacia y voluntad decidida de encontrar una salida, no exenta de sufridores damnificados, ciertamente. Ahora ya no queda esa opción. Tenemos que irnos, va llegando la hora. No es capricho, va siendo necesidad.
HORIZONTALES
2.Cada vez que ha habido una crisis de entidaden la Humanidad, se ha solucionado colonizando nuevos.
5.El tamaño del mundo era determinante para Hawking, la población creciente enfrenta un acceso a los recursos físicos que los explota a uno alarmante.
7.Las expediciones que van más allá de la órbita de la Tierra y la Luna, se denominan así.
8.Hawking, anunció que habrá que ir a otros para sobrevivir.
9.Las expediciones que van más allá del sistema solar, se denominan así.
10.Todo indica que hay que retomar la vuelta a enviar misiones tripuladas a ella, que es un lugar propicio para someter a prueba las tecnologías necesarias para viajar a otros destinos más remotos.
11.Es la herramienta mas poderosa de los humanos.
12.Cierto es que, ante problemas similares, ésta ha hecho uso de su inteligente capacidad de resolución
de problemas.
14.Como ya no hay territorios ignotos donde extendernos, no hay otra opción que conquistar sistemas de este tipo.
VERTICALES
1.Las expediciones que abandonan la atmósfera se denominan así.
3.Otra cosa es el requerido para solucionar los problemas técnicos que plantea la decisión de lanzarnos a la conquista del espacio.
4.Según Hawking, de forma lapidaria afirmó que la vida inteligente tiende a ella.
6.Científico que dijo que llevará entre 300 y 500 años efectuar el primer viaje interestelar entendido como un viaje sin retorno.
13.Otro de los pasos a realizar es el envío de astronautas a aquí, que se piensa que debe ocurrir antes de unos 50 años
TRAZO 2.7 Tokamak.
Los láseres son herramientas, ampliando nuestras capacidades. Se pueden integrar en otros dispositivos. Superada la fase inicial, en la que permaneció en el universo teórico, hoy ha invadido buena parte de los campos científicos aportando posibilidades inimaginables hace unas décadas. En un sinfín de escenarios aporta opciones singulares: las comunicaciones ópticas, transmisión de señal en televisión por cable, videodiscos, artes gráficas, fabricación y mecanización, medicina, ámbitos industriales, metrología, teledetección, analítica, control, etc. En cierto modo, también, ha representado el emblema del poder tecnológico, fomentado por los relatos de ciencia ficción, en los que se erige en arma letal identificada como rayo de la muerte, que ha quedado instalado en el imaginario colectivo.
Con soporte científico en la emisión estimulada de radiación que propusiera Albert Einstein en 1905, tardó mucho tiempo hasta que el 7 de julio de 1960 el New York Times anunciaba el primer máser óptico que Maiman construyó en un laboratorio de Malibú en California y desató un sinfín de aplicaciones que se ha mantenido en un ritmo creciente hasta nuestros días. No han faltado aplicaciones para el láser en ningún momento. En realidad, fue durante mucho tiempo una solución sin problema. El secreto está en su esencia concretada en sus cuatro propiedades singulares: monocromaticidad, coherencia, direcionalidad y brillo o alta densidad de potencia espectral. La monocromaticidad le otorga la
nobleza molecular con la que pueden identificarse, romperse o formarse los enlaces entre los átomos que constituyen las moléculas. Direccionalidad y coherencia concretan muchas aplicaciones y desarrollos. La potencia es una de sus facetas y una de las alternativas para paliar la crisis energética en la que permanecemos sumidos desde hace mucho.
En varios laboratorios, también en China, se trabaja en un proyecto de fusión de plasma que han anunciado para 2022 alcanzar 70 millones de grados, lo que supone una temperatura casi tres veces la de la superficie solar y mantenida durante 17 minutos. Tokamak es un acrónimo ruso, que se traduciría por cámara toroidal con bobinas magnéticas, dispositivo en el que tiene lugar la fusión de partículas de plasma, que generaría una energía suficiente para lograr la fusión nuclear de dos partículas ligeras formando una mas grande y estable, al tiempo que libera una energía descrita por la ecuación de Einstein, que expresa la interconversión de masa y energía.
Desde hace mucho se ha enarbolado el paradigma de la fusión nuclear, frente a la conocida fisión, que es la empleada en las actuales centrales nucleares y produce desechos al necesitar combustible no renovable y escaso, como es el uranio. Para que la fusión sea alternativa a la fisión se requiere alcanzar el punto de equilibrio entre la energía que se requiere para confinar el plasma y acelerarlo y la que se produce al tener lugar la fusión de las partículas. Se trata de dificultades técnicas, no de fundamento, no teóricas. El proyecto internacional ITER es uno de los que hay en marcha con este propósito.
Sajarov y Tam fueron los científicos rusos que concretaron el Tokamak en 1959, partiendo de las ideas de Lavrentiev en 1950. En otros proyectos, como el francés, lo había conseguido, pero tan solo 390 segundos. El pasado año se anunció haber conseguido 120 millones de grados
durante 101 segundos y 160 millones de grados durante 20 segundos. Es una imitación de las estrellas ya que la temperatura de los iones que hay que alcanza, para que tenga lugar la fusión, se sitúa por encima de los 100 millones de grados. En Corea se alcanzaron en un laboratorio en 2020 durante 20 segundos.
La clave es lograr de forma estable que la energía que se desprende supere a la que se requiere para producir el plasma en las condiciones de fusión. No ha ocurrido. Uno de los experimentos empleó 192 láseres enfocando una cápsula de 0.2 microgramos de deuterio. Las pérdidas superan la energía producida. El estado de plasma implica que los electrones se comportan como si fueran libres y en esas condiciones se puede lograr la fusión. Cuanto mas alta sea la temperatura mas fácil es la reacción de fusión. Conseguir que el hidrógeno se caliente a un estado de plasma ardiente capaz de calentarse a sí mismo es el logro alcanzado hace tiempo, incluso se ha superado la pérdida de energía compensada por la liberada en la fusión. Falta ahora, lograr que se mantenga autosostenida durante mas tiempo para que el proceso sea rentable.
TRAZO 2.8
Relojes del final.
No deja de ser aterrador hablar en estos términos. Es traer al frente el Apocalipsis y no deja de ser así, porque la reflexión sobre lo que haríamos o dejaríamos de hacer, si llegara el caso, aunque metafórico, no deja de ser conmovedor. Lo cierto y verdad es, que no es cosa de ahora, sino de hace mucho. Se sitúa en 1947 la comunicación de los científicos atómicos titulada Doomsday Clock, que reeditan cada año marcando los minutos que faltan para la medianoche, simbolizando el final del mundo. Es una forma peculiar de medir lo cerca que está la Humanidad de su propia desaparición. En la cuantificación de esos minutos que se suponen cada año, se incluyen los riesgos que se estiman peligros globales, desde las armas nucleares, hasta las pandemias o enfermedades, agresiones medioambientales o las tecnologías emergentes.
Para este año, 2022, se ha situado en 100 segundos para la medianoche. No ha variado desde 2020. La crisis climática y la COVID-19 lo justifican. No ha servido para mucho el avance que se desprendió del "parón" medioambiental de 2021, con motivo de las restricciones impuestas por la pandemia.
La cuestión no es banal. El boletín de los Científicos Atómicos fue instituido por un grupo de investigadores nucleares, que intervinieron, como Alexander Langsdorf, nada menos que en el proyecto Manhattan, en el que se desarrolló
la bomba atómica de infausto recuerdo en la Segunda Guerra Mundial. Inicialmente, dedicó su atención a amenazas nucleares, cuando Estados Unidos y la extinta Unión Soviética andaban enredados en la carrera armamentística. Desde 2007, incluye una amenaza que puede resultar todavía más letal, cual es la asociada al cambio climático. Una expresión gráfica de un reloj que marca los minutos que restan, va justificado por las razones que sustentan la propuesta. Desde 1973 el Consejo de Ciencia y Seguridad de la Revista, constituido por científicos y expertos en tecnología nuclear y ciencias del clima, además de hasta un elenco de 14 premios Nobel, se reúne y debate los eventos mundiales en curso y reinicia el reloj. No es cosa de aficionados, camuflados de expertos, por tanto.
Es obvio señalar que el reloj nunca ha llegado al final, pero ha estado cerca. En 1991 se situó a 17 minutos de la medianoche, cuando Bush firmó el acuerdo de reducción de armas estratégicas con la Unión Soviética. En 2016 estuvo a 3 minutos de la medianoche, cuando el acuerdo nuclear de Irán y el climático de Paris.
No es la única forma de estimar lo que nos queda como Humanidad. Hay, como alternativa, un Glaciar del juicio final. Con una extensión de 120 kilómetros de costa helada y una profundidad de hasta 1200 metros, constituye una masa de hielo flotante, la mas grande del mundo, en el mar de Amundsen, en la Antártida. Al derretirse aporta hasta un 4% anual del aumento del nivel del mar. Su cualificación como Glaciar del juicio final, se debe a que al derretirse podría desencadenar una acción glaciar en cascada en la Antártida, que puede sorprendernos en cualquier momento. En las últimas décadas las observaciones desvelan que el glaciar está cambiando dramáticamente debido al cambio climático. Ya se ha contabilizado que ha perdido hasta 900.000 millones de toneladas de hielo desde el año 2000 y se ha duplicado en los últimos 30 años. Ahora, pierde en torno a 45.000 millones de
toneladas de hielo mas que lo que incrementa en forma de nevadas anualmente. Es posible que esté cerca de la fusión irreversible.
Desde el Departamento de energía mecánica del MIT nos alertan de cinco desafíos para el momento actual, de necesariamente hay que solucionar: Uno es el almacenamiento térmico de la red, vehículos eléctricos y edificios, para usar la energía cuando se precise; un segundo desafío es la famosa decarbonización de los procesos industriales que suponen hasta el 15% de las emisiones globales; un tercer desafío es el enfriamiento que, en la forma de acondicionamiento de aire y enfriamiento, usa compuestos, hasta 2000 veces mas dañinos para el calentamiento global que el dióxido de carbono; un cuarto desafío es el transporte de calor a larga distancia que debe emular al de la electricidad; finalmente, los revestimientos en la construcción deben poseer una conductancia variable adaptable a la entrada y salida de calor. Solucionando estos problemas, dispondremos de unos 20 o 30 años para contener el incremento de temperatura en unos 2 grados.
HORIZONTALES
5.Un segundo desafío que tiene la Humanidad este famoso reto de los procesos industriales que suponen hasta el 15% de las emisiones globales.
7.Se sitúa en 1947 la comunicación de estos científicos, titulada Doomsday Clock.
9.Una expresión gráfica de un reloj que marca los minutos que restan, va justificado por las que sustentan la propuesta.
11.En la cuantificación de los minutos para el final, se incluyen los riesgos que se estiman peligros globales, desde las armas nucleares, hasta las pandemias o enfermedades, agresiones medioambientales o estlas tecnologías.
VERTICALES
1.Uno de los desafíos a solucionar es este tipo de almacenamiento de la red, vehículos eléctricos y edificios, para usar la energía cuando se precise.
2.Reeditan cada año marcando los que faltan para la medianoche, simbolizando el final del mundo.
3.El boletín de los Científicos Atómicos fue instituido por un grupo de investigadores nucleares, que intervinieron, como Alexander Langsdorf, nada menos que en estel proyecto.
4.Parece obvio señalar que el reloj nunca ha llegado a éste, pero ha estado cerca.
6.El glaciar del juicio fina, ahora, pierde en torno a 45.000 millones de toneladas de hielo mas que lo que incrementa en forma de nevadas en este periodo de tiempo.
8.Uno de los desafíos del momento actual es que los revestimientos en la construcción deben poseer una conductancia variable adaptable a la entrada y salida de éste.
10.Desde 1973 el Consejo de Ciencia y Seguridad de la Revista, constituido por científicos y expertos en tecnología nuclear y ciencias del clima, además de hasta un elenco de 14 premios de este nivel.
TRAZO 2.9
Ucrania en escena.
Es difícil sustraerse a comentar o reflexionar acerca de lo que está pasando en Ucrania. Desde todos los foros se clama, hasta ahora en el desierto, por la paz. Poco conocemos de este país que ahora exhibe una determinación digna de respeto y admiración. Hoy, se formulan muchos interrogantes en torno a los hechos acaecidos y en curso. Desde las acciones por debilitar a Ucrania con ciberataques, hasta qué puede haber tras las ofertas de ayuda de Elon Musk y Starlink o las subidas en bolsa de las empresas de ciberseguridad, ante el temor desatado por los potenciales "hakeos" o los ofrecimientos de documentar el conflicto, desde TikTok, hasta Sean Penn, que prepara un documental sobre la invasión rusa de Ucrania o los frenos de campañas de desinformación sugeridos por Facebook y Twitter o por qué John Romero propone un nuevo nivel de Doom II, videojuego que ya cumple 20 años desde su lanzamiento, exitoso por cierto, y ahora incorpora un nuevo nivel para reunir dinero y ayudar a las organizaciones humanitarias, como Cruz Roja, que trabajan en Ucrania. La lista es larga e inquietante al tiempo. Rusia ataca la central nuclear mas grande de Europa y Ucrania ha recibido veinte millones de dólares en donaciones en criptomoneda. Desde infinidad de iniciativas se suspenden todas las operaciones con Rusia y se lanzan propuestas para financiar al ejército de Ucrania. Anonymous declara ciberguerra a Rusia.
Junto a estas iniciativas, engaños con videos falsos y armas termobáricas en prevención. Las sedes del gobierno
ucraniano sufren ataques masivos físicos y cibernéticos; Elon Musk advierte de ataques rusos a Starlink; Rusia destruye el avión más grande del mundo. Apple Maps vuelve a mostrar a Crimea como parte de Ucrania y Microsoft se suma a la ola de sanciones contra Rusia; Apple sale de Rusia; Google desactivó los datos de tráfico de su aplicación Google Maps en Ucrania. Rusia ha quedado desconectada de la referencia bancaria SWIFT. Se vuelve a la vieja e histórica onda corta por parte de la BBC, burlando la censura (recuerden la radio Pirenaica de los tiempos oscuros). Los drones de los ucranianos, válidos para la defensa de Kiev;
Siendo como es un país desconocido, los científicos y tecnólogos ucranianos han efectuado aportaciones significativas a nuestro mundo, como los Discos duros desarrollados por el ucraniano Lubomyr Romankiw, que se doctoró en el MIT y trabajo en IBM y figura en 65 patentes de la firma, entre ellas la del cabezal magnético que desarrolló junto con Thompson en 1979 y los discos que IBM fabricó los vendió a Steve Wozniak, con los que el Apple salió al mercado desde el garaje compartido con Steve Jobs.
Los transistores son cruciales en nuestro mundo. Se han miniaturizado hasta reunir gran cantidad de ellos, incrementando la potencia. Se suele atribuir el mérito del desarrollo del transitor de efecto campo a ingenieros norteamericanos, pero al ucraniano Julius Lilienfeld, nacido en Lviv, se debe la primera patente. Nunca pretendió protagonismo y dejo en manos de terceros la aplicación y la mejora.
El primer motor piezoeléctrico presentado en 1964 lo construyó Viacheslav Lavrinenk, de Kiev, que permitió convertir la corriente eléctrica en energía mecánica con rendimientos superiores al 90%. Fundamental en muchos campos de la tecnología en los que se requiere precisión.
El descubrimiento del arco eléctrico para iluminar o soldar materiales se debe, desde 1803, a los ucranianos Vasily Petrov y Nikolai Benardos, que patentó cien años después la forma en que hoy se aplica esta tecnología. Incluso otro ucraniano, Boris Paton, lo aplicó a los tejidos humanos.
Finalmente, en el área aeroespacial Ucrania ha hecho Historia con el primer helicóptero fabricado, el Sikorsky R-4, diseñado por el pionero de la aviación Igor Sikorsky, nacido en Kiev. Fue el primero utilizado por los Estados Unidos. Inspirado en el autogiro de La Cierva, que avanzó lo que sería el helicóptero. Antes del R-4 Ilya Muromets, había desarrollado el primer avión de pasajeros del mundo.
Es todo un símbolo que el avión más grande del mundo, hasta 11 metros mas largo y 5 de envergadura más que el Airbus 380, alto como un edificio de 8 pisos, 18,1 metros, que necesita una pista de 3.500 metros, destruido recientemente por los rusos en Ucrania, sea un Antónov An225 Mriya, que fue un avión de transporte estratégico diseñado y fabricado por Antónov en Ucrania, en la década de los ochenta del siglo pasado.
HORIZONTALES
7.Al ucraniano Julius Lilienfeld, nacido en Lviv, se debe la primera patente de este componente electrónico.
8.Los Discos duros desarrollados por el ucraniano Lubomyr Romankiw, que se doctoró en el MIT y trabajo en esta firma y figura en 65 patentes de la firma.
9.Actor norteamericano, que prepara un documental sobre la invasión rusa de Ucrania.
11.Desde infinidad de iniciativas se suspenden todas las operaciones con este país y se lanzan propuestas para financiar al ejército de Ucrania.
12.Ucrania ha recibido veinte millones de dólares en donaciones en esta moneda.
14.Se formulan muchos interrogantes en torno a los hechos acaecidos y en curso en Ucrania. Uno de ellos son las acciones para debilitar a Ucrania con éstos.
15.El primer motor de este tipo fue presentado en 1964 y lo construyó Viacheslav Lavrinenk, de Kiev.
VERTICALES
1.Desactivó los datos de tráfico de su aplicación Google Maps en Ucrania.
2.Apple Maps vuelve a mostrarla como parte de Ucrania.
3.Organización que ha declarado ciberguerra a Rusia.
4.En el área aeroespacial Ucrania ha hecho Historia con el primer helicóptero fabricado, el Sikorsky R-4, diseñado por el pionero de la aviación Igor Sikorsky, nacido en esta ciudad ucraniana.
5.Videojuego que ya cumple 20 años desde su lanzamiento, exitoso por cierto, y ahora incorpora un nuevo nivel para reunir dinero y ayudar a las organizaciones humanitarias, como Cruz Roja, que trabajan en Ucrania.
6.IBM fabricó los vendió a Steve Wozniak, con los que esta marca salió al mercado desde el garaje compartido con Steve Jobs.
10.Se vuelve a la vieja e histórica onda corta por parte de ella, burlando la censura.
13.Desde todos los foros se clama por ella, para Ucrania, hasta ahora en el desierto.
2.10
IA en el fútbol.
Cualquier lector de esta sección conoce y ha utilizado una calculadora y un ordenador. Habrán apreciado que una calculadora no toma decisiones y un ordenador sí. Por ejemplo, una calculadora nos suma los costes de una compra, incluyendo todos los artículos adquiridos. y sabemos lo que hay que pagar. Si para el mismo fin empleáramos un ordenador, podríamos instalarle un programa que nos avisara, incluso ruidosamente, cuando hemos alcanzado el máximo dinero a gastar, toda vez que sabe cuánto nos va a costar el taxi de vuelta a casa. Es decir, el ordenador es capaz de tomar decisiones, tras una comparación que sondea la pregunta que se le ha programado, para actuar en consecuencia.
Pero, los ordenadores convencionales responden a algoritmos que resolvían problemas concretos. Por ejemplo, buscaban un nombre entre los de una lista, para responder si se encontraba en ésta o no. El algoritmo consistía en especificar los pasos para, tomando la lista y efectuando comparaciones con el nombre que queríamos encontrar, concluía si estaba en la lista o no. Tras un número finito de pasos, concluía con una respuesta. Los distintos algoritmos permitían encontrarlo más o menos rápido. Si los tenía ordenados alfabéticamente y empezaba en el primero y recorría la lista hasta el último sin encontrarlo, pues concluía que no estaba. Si en lugar de buscar de esta forma, comparaba en primer lugar
con el nombre que se encontraba en mitrad de la lista ordenada y era mayor que éste, ya sabía que no se encontraba en la primera mitad. Repitiendo el procedimiento, con un número muy inferior de comparaciones concluía la búsqueda. El programa nunca aprendía ni lograba saber si la lista siempre era la misma y minimizaba el trabajo a realizar.
El caso es que, por construcción, el ordenador es una herramienta capaz de emular a cualquier otra herramienta, como se encargó de demostrar Turing. Y es capaz de aprender, con tal de que el algoritmo corresponda a un proceso de aprendizaje. Es decir, incorporando las respuestas al proceso a seguir para obtenerlas, logramos que una máquina aprenda a partir de su propia experiencia. Algo de eso hay en el humano, por cierto.
Si hay algo tan socorrido como propio de tareas de evasión, son los partidos de fútbol. No solo el tiempo de juego, sino todo lo que acompaña al deporte rey, en España, entre otros países del globo. A los equipos se les antropomorfiza, otorgándoles personalidad indeleble en el terreno de juego. Los antecedentes parecen condicionar lo que va a ocurrir en partidos posteriores y hay gentes que le otorgan capacidad de sentir emociones antes y post partidos. Se vive, se sufre, se disfruta y cada cual elige con quien compartir sus anhelos, que son algo más que deportivos. Pero un ordenador con programa convencional solo puede manejar un escenario ingente de datos y recolectar los de los partidos habidos y clasificarlos según distintos criterios. Incluso puede determinar probabilidades de resultados, partiendo de la historia registrada. Podemos ir más allá si incorporamos la Inteligencia Artificial al proceso. Si el algoritmo es capaz de analizar la información, entonces sobrepasamos las capacidades de la informática convencional. Así podemos generar contenidos a partir de los resultados. Hace unos cinco años que esto es posible realizarlo. Recoger datos de todos los jugadores, no solo de unos pocos y a través de la IA en su forma de aprendizaje de
las máquinas, recolecta información de los partidos en los distintos medios y redes, los somete a validación y se convierte en información, de la que aprende y, a partir de esto, genera contenidos. No se limita a encontrar datos que se les pide que busque, sino en generar nuevos contenidos ante demandas concretas. Una base de datos amplia, hoy accesible a través de Internet, sirve de suministrador de datos para que los algoritmos construyan no solo información, sino contenidos a demanda. Las preferencias, los deseos, las elecciones individuales, encuentran respuesta, con contestaciones ajustadas a las peticiones. Es un paso de gigante que la pandemia ha potenciado desde un aislamiento que, si algo ha hecho de positivo es reclamar que las cosas ocurren individualmente y que lo colectivo emerge de la confluencia de hechos individuales, no al contrario, como hasta ahora. Los canales de comunicación unidireccionales tuvieron su momento en el pasado, ahora se trata de que la tecnología permite atender las pretensiones singulares y para ello, todos somos iguales.
EclipseCrossword.com
HORIZONTALES
1.Un ordenador con uno convencional solo puede manejar un escenario ingente de datos y recolectar los de los partidos habidos y clasificarlos según distintos criterios. Incluso puede determinar probabilidades de resultados, partiendo de la historia registrada.
4.Un algoritmo, por ejemplo, describe como subir una escalera poniendo los pies sucesivamente en los distintos que la configuran.
7.En el marco de la IA no se limita a encontrar los que se les pide que busque, sino en generar nuevos contenidos ante demandas concretas.
9.El ordenador es una herramienta capaz de emular a cualquier otra máquina, según se encargó de demostrar este acreditado investigador.
10..Los canales de comunicación de este tipo tuvieron su momento en el pasado, ahora se trata de que la tecnología permite atender las pretensiones singulares y para ello, todos somos iguales.
11.Si el algoritmo es capaz de analizar la información, entonces sobrepasamos las capacidades de la convencional.
12.Los ordenadores convencionales responden a estos, que resuelven problemas concretos en un número de pasos finito.
VERTICALES
2.La diferencia entre una calculadora y éste radica en que una calculadora no toma decisiones y éste si.
3.En el marco de IA no se limita a encontrar datos que se les pide que busque, sino en generar nuevos de éstos ante demandas concretas.
5.Un ordenador es capaz de aprender, con tal de que el algoritmo corresponda a un proceso de este tipo.
6.Incorporando las respuestas al proceso a seguir para obtenerlas, logramos que una de éstas aprenda a partir de su propia experiencia.
8.En los ordenadores convencionales, usualmente, el programa que no es de IA, nunca lo hacía.
Ligando cosas.
Una de las confusiones de mayor calado es la relativa a la referencia de la correlación y la causalidad, que da lugar a concepciones erróneas y generalización de opiniones que no necesariamente tienen fundamento. Correlación y causalidad se pueden considerar como dos términos del ámbito estadístico. La estadística es una contabilidad bien fundamentada, pero una contabilidad de la que hay que extraer consecuencias, que serán relevantes, siempre y cuando estén bien tratadas. Frecuentemente se les hace sinónimos, pero correlación no implica causalidad.
Causalidad hace referencia a la causa, el origen o el principio de algo. El binomio causa - efecto, articula la relación inequívoca entre dos elementos. Por ejemplo, calor y quemadura. Uno causa la otra, indefectiblemente y está comprobado que siempre tocar algo caliente provoca quemaduras. Por contra, correlación implica una correspondencia o relación recíproca entre dos o mas cosas, pero es una relación de similitud, pero no de origen. La relación no es determinante, como la que se da entre el número de habitantes de un lugar y el número de fumadores. Una cosa no determina la otra. Otra variable tiene que ser la explicativa. A mayor población hay más de cualquier otra característica, necesariamente, pero no hay ninguna ligazón explicativa. Habitantes y fumadores aumentan con la población, pero no por ello existe algo mas que correlación entre ellos. Correlación no implica causalidad.
En suma, en la correlación hay una relación recíproca entre dos o mas cosas, pero en la causalidad hay un origen
de alguna característica; la correlación no supone el origen de algo, mientras que en la causalidad hay una relación de causa y efecto. Los ejemplos que concretan ambas relaciones son elocuentes: decir que si no hay iluminación en la via publica se suscita la criminalidad, no supone una relación de causa y efecto, sino una situación circunstancial que puede facilitarlo, pero no es la causa. Por el contrario, tocar el fuego y quemarnos, siempre se da, por tanto, observacionalmente se corrobora y hay un motivo por el efecto del calor sobre los materiales humanos y una ley termodinámica que ampara que el calor fluye siempre del cuerpo caliente al más frío.
De todo ello se desprende que puede haber correlación por simple coincidencia. Si dos variables crecen a la par, hay correlación, pero no tiene por qué haber causalidad. Entender esto, nos libra de muchas informaciones que se interpretan de forma errónea, con mucha frecuencia. Evidentemente, lo importante es la causalidad, no la correlación. La correlación muestra que hay un patrón en el que las variables tienden a evolucionar conjuntamente, pero ello no implica que lo hagan porque una variable cause la otra. El que existan variables con una correlación fiable y significativa estadísticamente, sin relación causal, es muy frecuente y se debe, a menudo, a que ambas variables están relacionadas con otra variable causal diferente.
La presencia de correlación no significa que haya relación causal. En la prestigiosa revista Nature se publicó en 1999 un estudio en el que los menores de dos años que dormían con las luces encendidas tenían mayor probabilidad de sufrir miopía. Paralelamente, otro estudio evidenciaba que los padres miopes con una probabilidad mayor mantenían las luces encendidas por la noche. Si los padres eran la causa común de mantener las luces encendidas, no era la luz la causante, sino la genética heredada al ser transmitida de padres a hijos.
Es mas, incluso una relación causal no tiene por qué reflejarse en la correlación para establecer la dirección de la causalidad. Se suele afirmar que el estilo de vida activo favorece el estado saludable cognitivo de las personas mayores. Pero, alternativamente se afirma, igualmente, que un estilo cognitivo mas en forma, favorece un estilo de vida mas activo. Uno es el contrario del otro. Faltan evidencias para establecerlo. No es suficiente la contabilidad. Solo es una constatación de que algo hay, otra cosa es qué es lo que hay. Con mucha frivolidad se nos introducen relaciones causales cuando solamente hay relaciones casuales (reparen en los dos términos causal y casual).
En el mundo real, la determinación de causalidad es compleja. Hay técnicas experimentales, estadísticas y de diseño de estudios, que permiten identificar las relaciones causales, desde la aleatoriedad hasta el modelado predictivo con muchas variables, superando las pruebas de correlación que tienen dificultades para establecer reacciones causales con tres o mas variables. Es mas importante el diseño experimental que las pruebas estadísticas.
HORIZONTALES
6.Habitantes y fumadores aumentan con ella, pero no por ello existe algo mas que correlación entre ellos.
7.Por ejemplo, calor y quemadura. Uno causa la otra, indefectiblemente y está comprobado que siempre tocar algo caliente las provoca.
8.El binomio causa – efecto, articula la relación inequívoca entre dos de ellos.
10.En la causalidad hay uno de alguna característica.
12.Correlación implica una correspondencia o relación recíproca entre dos o mas cosas, pero es una relación de este tipo, pero no de origen.
13.Es una contabilidad bien fundamentada.
14.Sii no hay iluminación en la via publica se suscita la criminalidad, no supone una relación de causa y efecto, sino una situación de este tipo que puede facilitarlo,
VERTICALES
1.En la causalidad hay una relación de causa y éste.
2.No implica causalidad.
3.Tocar el fuego y que ocurra, siempre se da, por tanto, observacionalmente se corrobora y hay un motivo por el efecto del calor sobre los materiales humanos y una ley termodinámica que ampara que el calor fluye siempre del cuerpo caliente al más frío.
4.Una de las confusiones de mayor calado es la relativa a la referencia de la correlación y ella.
5.Puede haber correlación por simple situación de este tipo.
9.La correlación muestra que hay un patrón en el que las variables tienden a evolucionar conjuntamente, pero ello no implica que lo hagan porque una de éstas cause la otra.
11.Causalidad hace referencia a ella, el origen o el principio de algo.
TRAZO 2.12
Máquinas de proteinas.
En la década de los ochenta del siglo pasado, cuando la informática ya estaba bien introducida en las áreas de producción y en las Universidades se comenzaba a disponer de facilidades de cálculo, para el desarrollo de áreas como la Cuántica o el cálculo propio de las actividades industriales, mucha gente, incluyendo a destacados científicos y profesores universitarios, no fueron capaces de entrever la revolución que la informática traía de la mano. No se trataba de sustituir la regla de cálculo o la calculadora por una máquina que andaba más rápido haciendo operaciones; eso por descontado, pero como Turing demostró, se trataba de una máquina universal capaz de emular a cualquier otra. Son palabras mayores. El tiempo ha ido confirmando, con las aplicaciones, que tal cosa es correcta y hoy, ya hay pocas dudas al respecto. Las aplicaciones que la denominada Inteligencia Artificial, (IA), pone a nuestra disposición, posibilita nuevos modelos de actuación y nuevos papeles a jugar por los humanos implicados en la revolución que las tecnologías traen de la mano. Ya no se duda de que, al igual que la primera alfabetización, que vino de la mano de una aportación tecnológica, como fue la imprenta, la segunda alfabetización ha venido de la mano de otra aportación tecnológica, el ordenador. Probablemente, la maquinaria propiciada por el marketing y el omnipresente comercio, ha desdibujado el escenario y nos hemos conformado con ser usuarios, mayoritariamente poco o nada preparados para las tecnologías que disponemos. Eso nos sitúa en inferioridad de condiciones frente a otros que la dominan o
están iniciados y eso, a la larga, pasa factura, como siempre. Ahora, la Inteligencia Artificial ha venido a agravar las cosas, desde el punto y hora en que las máquinas comienzan a pensar por nosotros y pueden aventajarnos a la mayoría, porque su capacidad de aprendizaje supera no solo la media humana, sino a la mayoría.
Ya hay innumerables maquinas moleculares en el mundo. Los organismos vivos no dejan de estar constituidos por máquinas moleculares, con incontables dispositivos que giran o serpentean como los flagelos de algunas bacterias. La evolución, cuyas flechas de evolución desconocemos y nos limitamos a constatar cual ha sido su cambio en el pasado, que suponemos que ha pretendido optimizar algún papel específico de las mismas, y ha llegado suficientemente lejos, como para que sean irreversibles sus funciones y resultaría imposible una vuelta atrás, al lugar de partida, e incluso a cualquier etapa anterior. Pero a lo que sí se puede aspirar hoy es a construir máquinas moleculares capaces de diseñar proteínas que no se encuentran en la Naturaleza, como pudo ocurrir con las actuales máquinas moleculares.
Como se sabe, las proteínas son cadenas de aminoácidos y las naturales están conformadas por 20 aminoàcidos diferentes que, en su secuencia, determinan la estructura de la proteína, predicen la forma final de una proteína y cómo se va a plegar. Viene siendo un reto mantenido en el tiempo, hasta que muy recientemente el denominado aprendizaje profundo ha sido capaz de aportar nueva luz. Un equipo de investigadores liderado por Courbet, de la Universidad de Whashington en Seatle, ha diseñado distintas versiones de ejes y rotores de proteínas, usando un paquete de programas de IA llamado Roseta. Lo interesante de su aportación es que se trata de que las partes de la máquina de proteínas las han logrado incrustando el ADN de las proteínas a obtener en la bacteria E. Coli y contrastando el resultado mediante espectroscopia electrónica criogénica. Evidenciaron que se habían
ensamblado perfectamente y que se obtenían diferentes configuraciones. La dificultad de la técnica de detección es que la microscopía electrónica criogénica solamente proporciona imágenes fijas, con lo que requiere ajuste fino para ver que los ejes rotaa. Cabría esperar que si se comportan como ejes podrían tener un movimiento hacia delante y hacia atrás como consecuencia de choques con otras moléculas, propio del movimiento browniano. No obstante, cabe esperar que se puede superar con un diseño de unas partes encaminadas a generar el movimiento de rotación propio de una máquina. El avance consiste en que, si bien hasta el presente se habían obtenido proteínas de diseño, nunca se había logrado un ensamblaje complejo como el que ahora se anuncia. Es para estar impresionado. El desarrollo conducirá a disponer de una incorporación de energía al sistema que dirigirá el movimiento en una dirección determinada. Un avance notable. Poco a poco.
EclipseCrossword.com
HORIZONTALES
1.Las proteínas son cadenas de ellos y las naturales están conformadas por 20 aminoàcidos diferentes que, en su secuencia, determinan la estructura de la proteína.
6.Conducirá a disponer de una incorporación de energía al sistema que dirigirá el movimiento en una dirección determinada.
7.La primera, vino de la mano de una aportación tecnológica, como fue la imprenta.
8.Como este genial científico demostró, el ordenador se trataba de que era una máquina universal capaz de emular a cualquier otra.
9.Las de la denominada Inteligencia Artificial, (IA), pone a nuestra disposición, posibilita nuevos modelos de actuación y nuevos papeles a jugar por los humanos implicados en la revolución que las tecnologías traen de la mano.
10.Probablemente, la maquinaria propiciada por él y el omnipresente comercio, ha desdibujado el escenario y nos hemos conformado con ser usuarios, mayoritariamente poco o nada preparados para las
tecnologías que disponemos.
VERTICALES
2.La segunda alfabetización ha venido de la mano de otra aportación tecnológica como ésta.
3.La Artificial ha venido a agravar las cosas, desde el punto y hora en que las máquinas comienzan a pensar por nosotros y pueden aventajarnos a la mayoría, porque su capacidad de aprendizaje supera no solo la media humana, sino a la mayoría.
4.Destacados científicos y profesores universitarios, no fueron capaces de entrever len su día la revolución que ésta traía de la mano.
5.Se puede aspirar hoy es a construir máquinas moleculares capaces de diseñarlas cuando no se encuentran en la Naturaleza, como pudo ocurrir con las actuales máquinas moleculares.
9.Una aportación es que las partes de la máquina de proteínas las han logrado incrustando en el de las proteínas a obtener en la bacteria E. Coli y contrastando el resultado mediante espectroscopia electrónica criogénica.
TRAZO 2.13
Vantablack: color sin color.
La segunda mitad del siglo XIX fue un momento histórico muy fértil para la Ciencia. En 1800 Herschel había descubierto unos "rayos caloríficos" (hoy radiación infrarroja) que desveló que se podía transportar calor con ondas de luz no visible. El ámbito científico en el que se debatían los temas energéticos, entonces, era exclusivo de la Termodinámica. A partir de 1870, Boltzmann desarrolló la Mecánica Estadística, que cambió sustancialmente la concepción teórica de los aspectos energéticos. En 1873, Maxwell formuló la teoría del campo electromagnético, que confirmó Hertz en 1887.
En 1879, la ley de Stefan-Boltzmann generalizaba los resultados experimentales de Stefan, justificada teóricamente por Boltzman en 1884 con razonamientos puramente termodinámicos. Expresaba la irradiancia sobre un cuerpo en función de la temperatura. En 1893 Wien propone la ley del desplazamiento, a partir de razonamientos termodinámicos relacionando la longitud de onda de la radiación emitida por un cuerpo con la temperatura que tenía (son inversamente proporcionales). En 1896, Wien propuso, aplicando la fórmula de Maxwell para la distribución de velocidades en un gas perfecto, una fórmula (semi-empírica), que reproducía bien los datos experimentales en la zona de altas frecuencias, pero fallaba para bajas frecuencias.
La fórmula de Wien dio pie a que en 1900, Planck propusiera su fórmula, obtenida primero semi-empíricamente, según la cual, la energía total del sistema se forma a partir de
un número grande, pero finito, de "elementos de energía" de tamaño , discretizando el proceso de intercambio de energía de los osciladores, limitado a valores múltiplos de , donde aparece por primera vez la constante de Planck. Esta fórmula permitía, además, la deducción de la ley del desplazamiento de Wien y la de Stefan-Boltzmann, como casos particulares de la de Planck. Aquí nace la Mecánica Cuántica. ¡Y eso que hacia menos de 25 años que algunos físicos crían que ya se conocía todo lo que había que conocer!
Rayleigh-Jeans proponen en 1900-1905 una ley que concordaba con los resultados experimentales en la región de bajas frecuencias, pero presentaba un problema a altas temperaturas: la catástrofe ultravioleta, según la cual no había límite: la densidad de energía emitida para cada frecuencia debía ser proporcional al cuadrado de esta última, lo que implica que las emisiones a altas frecuencias (en el ultravioleta) deben portar enormes cantidades de energía. Es decir, el total de energía radiada, como suma de las emisiones en todos los rangos de frecuencia, era infinita, contradiciendo los postulados de conservación de la energía. En 1910, Ehrenfest evidenció que no se podía aplicar en la ecuación de Planck el teorema clásico de equipartición de la energía y la única forma de cuadrar los resultados con los datos experimentales era formulando la hipótesis de discontinuidad de la energía. En realidad, fue Einstein quien introdujo la cuantización y Planck la aceptó en 1909.
El cuerpo negro es un problema teórico que soporta el concepto revolucionario de "cuantización" o discretización de la "energía". Absorbe toda la energía radiante que incide sobre él. Cualquier cuerpo, como hemos visto, a una temperatura por encima del cero absoluto irradia energía electromagnética y su espectro, que es continuo, depende de la temperatura absoluta. Además, la emisión va acompañada de absorción, ya que, al incidir radiación sobre la superficie de un cuerpo, parte de ella se absorbe y parte se refleja.
Se han intentado construir cuerpos negros que se aproximen a esta absorción de toda la energía radiante que incida sobre él. Recientemente se han propuesto los que dicen ser mas oscuros de la historia. Vantablack dice ser el material mas oscuro del universo, después de un agujero negro. Fue creado con fines militares, hace pocos años, por una firma británica: Surrey NanoSystems. El artista Anish Kapoor experimentó con el nuevo color desde 2014 y no se le ocurrió otra cosa que adquirir los derechos para el uso exclusivo con fines creativos, cosa muy criticada por el colectivo artístico. Supone desaparecer en el color ya que su reflectancia hemisférica es inferior al 1% y no se aprecia ni la profundidad ni la forma de los objetos. Está compuesta con nanotubos de carbono alineados verticalmente y cuando la luz alcanza los nanotubos, resulta absorbida y, al no reflejarse, resulta capaz de absorber hasta un 99,965% de la radiación de luz visible. Su nombre responde al acrónimo Vertically Aligned NanoTube Arrays (Conjunto de nano tubos verticalmente alineados). Para perderse en el color Los artistas nos lo harán notar
HORIZONTALES
1.Rayleigh-Jeans proponen en 1900-1905 una ley en la que el total de energía radiada, como suma de las emisiones en todos los rangos de frecuencia, era así, contradiciendo los postulados de conservación de la energía.
5.En 1900, propuso su fórmula, obtenida primero semi-empíricamente, según la cual, la energía total del sistema se forma a partir de un número grande, pero finito, de «elementos de energía».
7.En 1879, la ley de Stefan-Boltzmann generalizaba los resultados experimentales de Stefan, justificada teóricamente por Boltzman en 1884 con razonamientos de este tipo.
8.Rayleigh-Jeans proponen en 1900-1905 una ley que concordaba con los resultados experimentales en la región de bajas frecuencias, pero presentaba un problema a altas temperaturas: la catástrofe asi llamada.
9.En 1870, desarrolló la Mecánica Estadística, que cambió sustancialmente la concepción teórica de los aspectos energéticos.
10.En 1910, Ehrenfest evidenció que no se podía aplicar en la ecuación de Planck el teorema clásico de equipartición de la energía y la única forma de cuadrar los resultados con los datos experimentales era formulando la hipótesis de ésta de la energía.
VERTICALES
2.Este cuerpo es un problema teórico que soporta el concepto revolucionario de «cuantización» o discretización de la «energía». Absorbe toda la energía radiante que incide sobre él.
3.En 1893 Wien propone la ley del desplazamiento, a partir de razonamientos termodinámicos relacionando la longitud de onda de la radiación emitida por un cuerpo con ésta.
4.Descubrió unos “rayos caloríficos” (hoy radiación infrarroja) que desveló que se podía transportar calor con ondas de luz no visible.
6.Va acompañada de absorción, ya que, al incidir radiación sobre la superficie de un cuerpo, parte de ella se absorbe y parte se refleja.
Energía nocturna.
Una de las servidumbres de la captura de energía solar es la rotación terrestre. La irradiación solar, hoy aprovechable, es diurna. La magnitud insolación cuantifica las horas de sol efectivo al cabo del día. El valor medio en España es de unas 2.500 horas anuales (en la Región de Murcia supera las 3.300 horas). La cantidad de "brillo del sol", libre de perturbaciones, se denomina heliofanía. Viene a coincidir con la insolación. Se mide con el dispositivo denominado heliógrafo. Las áreas secas correspondientes a las latitudes subtropicales comprendidas entre 25º y 40 º de latitud norte o sur, tienen los máximos registros de insolación: el Sáhara es el prototipo, incluyendo Egipto, Sudán, Libia, Chad y Niger, así como Arizona y Nevada en Estados Unidos. La ciudad de Yuma en Arizona, con más de 4.000 horas de insolación, puede ser una de las líderes. Hay muchos otros sitios en los países indicados. El mes de diciembre en la Antártida oriental alcanza hasta 23 horas de insolación diarias. La Región de Murcia se sitúa cerca de la cabeza de la clasificación.
Como las horas anuales ascienden a 8760, hay un tiempo vacante en la captación de energía solar, en torno a un 50%, en el mejor de los casos. No quiere decir que no llegue energía solar a la Tierra en ese tiempo. Desde luego la rotación expone distintas zonas terrestres a la irradiación solar, pero las instalaciones de captación de energía solar actuales asumen que la energía que tienen que captar, corresponde al rango visible del espectro, solamente. Si
tenemos en cuenta que la Tierra recibe, constantemente, hasta 173.000 terawatios y que las nubes y las diferentes superficies reflectantes rechazan hasta un 30% de la energía recibida, es la restante la que calienta la atmósfera y el resto del planeta. A eso hay que agregar el calor que atrapan los gases de efecto invernadero. Al final, la Tierra emite tanta energía como la que recibe, en forma de energía térmica, en el rango espectral denominado infrarrojo. La Termodinámica reconoce que esa emisión no se atiene a horarios, sino a consideraciones de equilibrio termodinámico, por tanto, tanto de día como de noche tendrá lugar esa reemisión de energía.
Las grabaciones de los dispositivos de visión nocturna nos han aproximado a la posibilidad de conversión a energía del rango visible, con objeto de poder ser contemplada la imagen en nuestra retina. Investigadores de la Escuela de Ingeniería Fotovoltaica y de Energías Renovables de la UNSW de Sydney han logrado poner en marcha un dispositivo capaz de convertir el calor (energía del infrarrojo) en energía eléctrica. Emplearon un "diodo termo-radiativo", similar a la tecnología que se emplean en las gafas de visión nocturna. El fundamento se establece en términos energéticos, similares a los que a finales del XVIII y principios del XIX se desvelaron como la base de la eficacia de las máquinas de vapor, que fue la diferencia de temperatura entre el foco caliente y el frio. Ahora, en términos convencionales del captador de energía solar, el Sol es la fuente caliente y el propio panel solar es el absorbente frio. Cuando consideramos la reemisión infrarroja de la Tierra, la que sale hacia el espacio exterior, la Tierra es el cuerpo caliente y el espacio el absorbente frío.
Esta diferencia de temperaturas permite generar energía eléctrica según el efecto Seebeck. El enfoque de los investigadores de la Universidad de Stanford es capturar la energía térmica por la noche. La cantidad de energía producida de esta forma puede llegar a ser como un 0.001% de la que captador solar produce, pero el dispositivo captador de
energía térmica se ha puesto en marcha. Se trata de la producción de energía eléctrica a partir del infrarrojo medio y, por tanto, del desarrollo de un diodo termorradiante.
Una de las aplicaciones mas evidentes es la captación de energía en los periodos de ausencia de luz visible y otra parcela de interés es la consideración de que los motores de gasolina de ciclo Otto alcanzan una eficiencia entre el 20 y el 30% y un motor de gasóleo de ciclo Diésel se sitúa entre el 30 y el 45%. La mayoría de la capacidad de producción de trabajo de los combustibles de origen fósil se disipa en forma de energía térmica. El tiempo que le quede a este tipo de motor (ni se sabe), bien haríamos mejorando su eficiencia, al menos.
HORIZONTALES
1.Esta magnitud cuantifica las horas de sol efectivo al cabo del día.
7.El fundamento de conversión de calor en enegría eléctrica, se establece en términos energéticos, similares a los que a finales del XVIII y principios del XIX se desvelaron como la base de la eficacia de las máquinas de vapor, que fue la diferencia de temperatura entre el foco caliente y éste.
8.Las grabaciones de los dispositivos de visión nocturna nos han aproximado a la posibilidad de conversión a energía del rango visible, con objeto de poder ser contemplada la imagen en erlla.
9.Como las horas anuales ascienden a 8760, hay un tiempo así en la captación de energía solar, en torno a un 50%, en el mejor de los casos.
10.La irradiación solar, hoy aprovechable, es ésta.
12.Esta rama de la Ciencia reconoce que la emisiónde energia por la Toerra, no se atiene a horarios, sino a consideraciones de equilibrio termodinámico, por tanto, tanto de día como de noche tendrá lugar esa reemisión de energía.
13.La cantidad de «brillo del sol», libre de perturbaciones, se denomina así.
VERTICALES
2.diferencia de temperaturas permite generar energía eléctrica según el efecto así denominado en honor de su descubridor..
3.La ciudad de Yuma en Arizona, con más de 4.000 horas de insolación, puede ser una de ellas.
4.La Tierra emite tanta energía como la que recibe, en forma de energía térmica, en el rango espectral denominado así.
5.Una de las servidumbres de la captura de energía solar es este movimiento terrestre.
6.Las instalaciones de captación de energía solar actuales asumen que la energía que tienen que captar, corresponde a este rango del espectro, solamente.
11.En términos convencionales del captador de energía solar, éste es la fuente caliente y el propio panel solar es el absorbente frio.
TRAZO 2.15
Desperdicio alimentario.
Una nueva ley contra el desperdicio alimentario establece multas de hasta 60.000 euros. La conciencia colectiva brilla por su ausencia en el derroche alimentario. La consecuencia es que los hogares españoles tiramos anualmente a la basura mucho mas de 1.000 millones de kilos de alimentos, en cifras de 2020. Supone una media que supera los 30 kilos por persona, según los datos del Ministerio de Agricultura, Pesca y Alimentación. Pero no es esto todo, porque un análisis mas detallado arroja una cantidad de unas tres cuartas partes de productos sin elaborar: la fruta ocupa el primer puesto en el ranking, con mas de un 32%, seguidas de verduras y hortalizas que superan el 11%, el pan se cerca al 5% y la leche supera el 4%.
No faltan los puntos de vista antropocéntricos que valoran que son medidas imposibles de cumplir. Ciertamente, en los hogares podrá ser complicado el control del cumplimiento, pero no así en lugares públicos de consumo, como bares y restaurantes. En primera instancia, los clientes se lo pueden llevar, cosa que podían hacer antes de la medida, aunque ahora se publicita mas y se supone que tendrá mas eficacia. Animados por una amenaza entre 2000 y mas de medio millón de euros de multa por incumplimiento, a buen seguro que tendrá mas alcance la medida. En enero de 2023 se comenzará a aplicar. Vamos a la zaga de Francia e Italia que ya dieron el paso. Caducidad y consumo preferente son conceptos que ahora renuevan su vigencia. Hay que aprovechar
los alimentos antes de que caduquen, con un incentivo especial para que se donen alimentos a entidades sin ánimo de lucro.
La preocupación por el hambre en el mundo, suele estar en boca de todos, aunque la aportación para paliar este problema viene siendo insignificante. Numerosas Instituciones evidencian esta derrota. Cabe preguntarse por el tratamiento que la guerra de precios, tanto nacional como europea y mundial, imponen a la producción alimentaria, en especial la agroalimentaria. En lugares áridos, en los que una gota de agua supone la auténtica vida, con una escasez mas que preocupante, producciones enteras son arrojadas a la destrucción. No se trata de productos infectados para los que es aconsejable evitar la propagación de la infección, sino de productos sanos. No se trata de una práctica ilegal, sino soportada por las ayudas de la Política Agraria Comunitaria. Es una razón económica en la que el mercado hace gala de ausencia de principios éticos, ignorando que millones de personas pasan hambre.
La alta productividad alcanzada en los invernaderos implica una oferta que en algunos periodos supera la demanda. Ello implica que el precio disminuye y con compensa la venta de la cosecha. La solución preferida es deshacerse de la producción, en espera de que el cuando el mercado esté desabastecido se recupere el precio. La Política Agraria Común (PAC) tiene previstas ayudas para compensar la caída de precios, alcanzando hasta un 5% de las pérdidas que pudiera ocasionar esta práctica en la cosecha. Es un mecanismo útil en los casos que podemos calificar de situaciones catastróficas, pero si estas prácticas se convierten en usuales, estamos ante episodios de despilfarro alimentario, tanto o mas que el aludido en la ley recientemente propuesta. Se cuantifica en mas de 114.000 toneladas de fruta y verdura eliminadas sin comercializar. Nada sensato, ni siquiera desde el marco económico. Mucho menos si lo contemplamos en el
escenario ético. Se dan como cifras que 12.000 toneladas se tiraron directamente y otras 24.000 fueron a parar a alimentación animal. Nada sostenible desde la racionalidad y desde el marco ético. En la Región de Murcia las noticias truculentas en las que una cosecha entera, por ejemplo, de melones, se deja perder, no son ajenas. Se da una cifra que supera los 9 millones de toneladas de alimentos que no llegan al mercado y destrucción de cerca de 100.000 toneladas anuales de frutas y mas de 50.000 de hortalizas. A nivel mundial la cifra es mareante, alcanzando hasta un tercio de la producción. El objetivo de desarrollo sostenible de Naciones Unidas para 2030 pretende erradicar el hambre y reducir a la mitad el desperdicio de alimentos.
La ley de desperdicio alimentario es un paso. Hay otros que dar. Una sociedad que se precie, tiene que ser sensible y el resultado colectivo comienza por el cumplimiento individual. Debemos acabar con los desperdicios. Ha llegado el momento de cumplir.
HORIZONTALES
5.Se cuantifica en mas de 114.000 toneladas de fruta y verdura eliminadas sin someterla a este proceso.
8.La preocupación por el hambre en el mundo, suele estar en boca de todos, aunque la aportación para paliar este problema viene siendo así.
9.No faltan los puntos de vista de este tipo que valoran que son medidas imposibles de cumplir.
10.Según los datos del Ministerio de Agricultura, Pesca y Alimentación.arrojamos una media que supera los 30 por persona,
11.Una amenaza entre 2000 y mas de medio millón de euros de multa por ello, a buen seguro que tendrá mas alcance la medida.
12.El objetivo de desarrollo sostenible de Naciones Unidas para 2030 pretende erradicarla y reducir a la mitad el desperdicio de alimentos.
VERTICALES
1.Una nueva ley contra este desperdicio, establece multas de hasta 60.000 euros.
2.Cabe resaltar que, en lugares áridos, en los que una gota de agua supone la auténtica vida, con una escases mas que preocupante, producciones enteras son arrojadas a ella
3.Los hogares españoles tiramos anualmente a ella, mucho mas de 1.000 millones de kilos de alimentos, en cifras de 2020.
4.La alta alcanzada en los invernaderos implica una oferta que en algunos periodos supera la demanda.
5.La colectiva brilla por su ausencia en el derroche alimentario.
6.En la Región de Murcia las noticias truculentas en las que una entera, por ejemplo, de melones, se deja perder, no son ajenas.
7.A nivel mundial la cifra es mareante, alcanzando hasta un tercio de la de frutas y hortalizas.
TRAZO 2.16
Nuevos materiales.
El perfil de la Inteligencia Artificial se suele asignar con frecuencia a aspectos rutilantes propios de la Ciencia Ficción, mientras que dejamos de lado asuntos cotidianos que, por próximos, no reparamos en ellos, aunque tienen una envergadura fenomenal. Encontrar algo en Internet, con los buscadores actuales, nos hace reparar que cada vez se aceptan mayor número de errores, tanto sintácticos, como textuales, como conceptuales y el buscador siempre responde. Ya hemos olvidado aquel tiempo cuando los ordenadores nos exigían que los textos fueran impecablemente correctos y una sola coma fuera de lugar, era suficiente para que hubiera que repetir el cálculo por complicado, tedioso y largo que fuera y escasa la importancia de una coma en el proceso. Los distintos chatbox nos contestan, incluso con amabilidad, lo que les hace agradables al trato. Solamente, lo que acabamos de indicar, son enormes avances y han implicado resolver problemas de una entidad extraordinaria. No hace falta apelar a los robots, menos a las formas antropomórficas, para concretar los logros de la Inteligencia Artificial. La traducción automática o muchos de los resortes de la conducción de vehículos incluida, por descontado, la conducción autónoma, que está cargada de dispositivos que forman parte del universo de la Inteligencia Artificial. Resulta curioso, por tanto, que no identifiquemos la Inteligencia Artificial en los objetos cercanos y lo situemos en los lejanos o todavía inalcanzables. Está invadiendo todas las esferas de actividad.
En cualquier rama de investigación se han ido incorporando elementos que facilitan el trabajo de los investigadores, desde bases de datos que permiten búsquedas sofisticadas con gran rapidez y precisión, hasta herramientas de Inteligencia Artificial. Estas últimas, permiten examinar gran cantidad de datos, de forma inteligente, incorporando reglas de búsqueda que la restringen e implican un aprendizaje para ir refinando el tratamiento de los datos. Se trata de encontrar no solo coincidencias, como en las búsquedas convencionales, sino emplear un articulado proceso de deducción e inducción, que bien pudiera ser calificado como de descubrimiento.
Un ejemplo bien caracterizado es la búsqueda de materiales cerámicos que estén dotados de una conductividad térmica sustancialmente baja, de especial interés en la generación de materiales termoeléctricos, con vistas a producir materiales aislantes de gran efectividad. El campo de interés en estos materiales va desde la producción de elementos para protección térmica hasta la producción termoeléctrica, es decir, generación eléctrica a partir de calor, de interés creciente en el ámbito del ahorro energético, hasta el aprovechamiento energético, que supone la conversión en electricidad de la energía residual procedente de la ineficacia de los motores de explosión o, en general, térmicos.
La investigación en ciencia de materiales suele partir de un tratamiento teórico que emplea cálculos mecanocuánticos para el diseño de materiales susceptibles de disponer de las propiedades que se buscan. Después se procede a su síntesis que, a su vez, permite volver de nuevo al diseño y cálculo para refinar la propuesta. En este caso, Rosseinsky, de la Universidad de Liverpool trabaja en el ámbito de los titanatos que contienen fracciones de óxidos de Ytrio y bario. Buscaba una conductividad térmica inusualmente baja y partía de cerámicas de composición y conductividad térmica conocidas, con las que entrenó su sistema de Inteligencia
Artificial basado en redes neuronales, que confirmó el punto de partida de la composición inicial de la cerámica y orientó la composición de la misma a un compuesto integrado por diez partes de bario, seis de Ytrio, cuatro de Titanio y hasta 27 átomos de oxígeno.
De esta forma, se lograron unos microcristales que implican una ordenación de los átomos, pero no con una periodicidad tridimensional completa. Y lo que es más importante, que es la exhibición de una conductividad térmica inferior a la de todos los óxidos de metales de transición conocidos de este tipo, solamente aventajado por un óxido de molibdeno que resultó ser mucho más complejo. En comparación con el vidrio, la conductividad térmica le confiere unas propiedades de excelente aislante.
Es un ejemplo destacado que ejemplifica como se puede trabajar integrando el conocimiento que ya se dispone, la comprensión íntima de los procesos implicados, en este caso químicos y la aportación de los modelos de aprendizaje automático, ya que pueden conducir, bien ponderados, a la toma de decisiones acertadas en las múltiples etapas de una investigación en que hay que tomarlas para poder llegar a un descubrimiento que responda a las previsiones o perfiles que se quieren obtener.
HORIZONTALES
1.En cualquier rama de ella, se han ido incorporando elementos que facilitan el trabajo de los investigadores, desde bases de datos que permiten búsquedas sofisticadas con gran rapidez y precisión, hasta herramientas de Inteligencia Artificial.
8.La traducción automática o muchos de los resortes de la conducción de vehículos incluida, la conducción autónoma están cargados de dispositivos que forman parte del universo de esta Inteligencia.
9.En comparación con él, la conductividad térmica de los titanatos obtenidos le confiere unas propiedades de excelente aislante.
10.En Inteligencia Artificial se trata de encontrar no solo éstas, como en las búsquedas convencionales, sino emplear un articulado proceso de deducción e inducción, que bien pudiera ser calificado como de descubrimiento.
11.La investigación en esta rama de la ciencia suele partir de un tratamiento teórico con cálculos mecanocuánticos para el diseño de materiales susceptibles de disponer de las propiedades que se buscan.
VERTICALES
2.La producción termoeléctrica, es decir, generación eléctrica a partir de calor, es de interés creciente en el ámbito de este ahorro.
3.La búsqueda de materiales cerámicos que estén dotados de una conductividad térmica sustancialmente baja, de especial interés en la generación de materiales termoeléctricos con vistas a producir materiales de este tipo de gran efectividad
4.Los distintos chatbox nos contestan, incluso con ella, lo que les hace agradables al trato.
5.El perfil de la Inteligencia Artificial se suele asignar con frecuencia a aspectos rutilantes propios de la Ciencia Ficción, mientras que dejamos de lado estos asuntos.
6.Encontrar algo en Internet, con los buscadores actuales, nos hace reparar que cada vez se aceptan mayor número de ellos, tanto sintácticos, como textuales, como conceptuales y el buscador responde.
7.No hace falta apelar a ellos, menos a las formas antropomórficas, para concretar los logros de la Inteligencia Artificial
TRAZO 2.17 Fotosíntesis artificial: más cerca Pg. 171
TRAZO 2.17
Fotosíntesis artificial: más cerca.
El apellido verde, se ha consolidado como proceso natural, no agresivo y respetuoso con el Medio Ambiente. El ingenio humano nos sorprende con frecuencia.
La obtención de hidrógeno mediante electrolisis del agua, separando oxígeno e hidrógeno es un proceso, propuesto por NIcholson y Carlisle en 1800, siguiendo la estela de Volta que inventó la primera batería eléctrica, un par de meses antes. La primera electrolisis fue anterior, lograda por Deiman y van Troostwijk en 1789 empleando una botella Leiden, aunque no pudieron interpretar el resultado.
La electrolisis del agua consiste en separar oxígeno e hidrógeno mediante la aplicación de corriente eléctrica continua mediante unos electrodos. El proceso se favorece facilitando el paso de la corriente a través del agua, agregando ácidos, bases o electrolitos fuertes, que se disocian fácilmente. Los electrodos son de metales inertes como platino o acero inoxidable. El hidrógeno se desprende en el cátodo, cargado negativamente y el oxígeno en el ánodo. Es necesario aplicar un sobrepotencial, por encima del teórico, dado que hay que sobrepasar barreras de activación para ello El agua pura está muy poco disociada, con una conductividad muy baja. En la actualidad, el hidrógeno verde suele crearse dividiendo el agua con corriente eléctrica procedente de fuentes de energía renovable que, en su mayor parte, procede de la conversión fotovoltaica. La radiación de la franja visible del espectro electromagnético incide sobre las placas de silicio monocristalino
o policristalino, montadas sobre unos marcos de aluminio y recubiertas por una carcasa de cristal y un doble encapsulado. Al incidir la luz sobre el silicio, arranca electrones de los átomos que se sienten atraídos por la parte positiva de la celda de silicio, con lo que se crea una corriente eléctrica que emerge por el cableado del panel solar. Un inversor transformará la corriente continua en alterna, para su consumo o para verterla a la red o bien se emplean baterías o acumuladores, que dada su escasa eficacia, son el talón de Aquiles del sistema.
Una alternativa para su acumulación consiste en emplear la corriente producida para generar un gas, como el hidrógeno, que se puede almacenar, transportar y quemar cuando sea necesario. Actualmente, el hidrógeno se produce mayoritariamente a partir de gas natural, que pasa por momentos de poco esplendor. La alternativa a la producción fotovoltaica actual, que se propone desde la Universidad Técnica de Viena, es el empleo de fotocatalizadores. El objetivo es que los átomos de oxígeno y de hidrógeno que forman parte del agua, pasen a moléculas de ambos. La alternativa es emplear cluster y soportes semiconductores, como el óxido de titanio, que se anclan en una estructura que proporciona el soporte para que se absorba la luz directamente. Los compuestos de cobalto y tungsteno propiciaran que se oxide el oxígeno y el azufre y el molibdeno hace lo propio con la formación del hidrógeno molecular. Estos compuestos que actúan sobre la "cama" de titanio, son los catalizadores para la división del agua. El óxido de titanio es sensible a la luz, la absorbe y se produce la separación de electrones que se comportan como libres y las cargas positivas (o huecos) moviéndose en el óxido de titanio. Son estos electrones los que actúan sobre los átomos citados anteriormente y colocados sobre la superficie y facilitan la división del agua en oxígeno e hidrógeno. En suma, se trata de un modelo estructural de dos clústeres que permite la división del agua en O2 y H2 mediante la energía lumínica directa.
La generación fotocatalítica de hidrógeno solo necesita de una superficie revestida de los materiales apropiados y cubierta de agua que será irradiada por la luz solar. Es un sistema mucho mas simple que la electrolisis convencional, en el que la fuente debiera ser fotovoltaica, requiere un almacenamiento de la energía eléctrica y una célula de electrolisis en la que practicar la generación de hidrógeno. Es un sistema complejo, cuya eficacia tiene muchos problemas.
La descomposición catalítica del agua es el proceso más parecido al de la fotosíntesis y es susceptible de utilizar la energía de la radiación solar para producir hidrocarburos a partir del dióxido de carbono de la atmósfera y el agua. La sustitución de la electricidad por luz, implica un cambio cualitativo en el que el hidrogeno verde producido recuerda una emulación del proceso natural de la fotosíntesis, que resulta ser simple y prometedor al tiempo que atractivo.
HORIZONTALES
3.La del agua consiste en separar oxígeno e hidrógeno mediante la aplicación de corriente eléctrica continua mediante unos electrodos.
6.Son de metales inertes como platino o acero inoxidable.
8.En la actualidad, el verde suele crearse dividiendo el agua con corriente eléctrica procedente de fuentes de energía renovable que, en su mayor parte, procede de la conversión fotovoltaica.
9.La electrolisis se favorece facilitando el paso de la corriente a través de ella, agregando ácidos, bases o electrolitos fuertes, que se disocian fácilmente.
10.Propusieron la obtención de hidrógeno mediante electrolisis del agua, separando oxígeno e hidrógeno en 1800.
11.Al incidir la luz sobre él, arranca electrones de los átomos que se sienten atraídos por la parte positiva de la celda de silicio, con lo que se crea una corriente eléctrica que emerge por el cableado del panel solar.
12.La alternativa a la producción fotovoltaica actual, que se propone desde la Universidad Técnica de Viena, es el empleo de estos.
VERTICALES
1.Esta descomposición del agua es el proceso más parecido al de la fotosíntesis y es susceptible de utilizar la energía de la radiación solar para producir hidrocarburos a partir del dióxido de carbono de la atmósfera y el agua.
2.Este apellido, se ha consolidado como proceso natural, no agresivo y respetuoso con el Medio Ambiente.
4.Los compuestos de cobalto y tungsteno propiciaran que se oxide éste.
5.Una para su acumulación consiste en emplear la corriente producida para generar un gas, como el hidrógeno, que se puede almacenar, transportar y quemar cuando sea necesario.
7.La generación fotocatalítica de hidrógeno solo necesita de una superficie revestida de los materiales apropiados y cubierta de agua que será irradiada por esta luz.
TRAZO
2.18
Poder disruptivo solar.
El sistema solar es fantástico. La luminaria poderosa que posibilita la vida es espectacular. Además, aporta la belleza de la elegancia de ese fenómeno natural que son las auroras polares, consecuencia de interactuar las partículas procedentes del Sol, con el campo magnético de la Tierra y la parte superior de nuestra atmósfera. Eso, sin contar el espectáculo bellísimo de un día soleado, con cielos claros y nítidos horizontes. Pero no queda aquí la cosa, por cuanto, además, como el Dios Jano Bifronte, el de las dos caras, en este caso, fuente de vida, por un lado y potencial catástrofe a través de la tecnología que la Humanidad ha desarrollado.
conocida como Evento del Día de la Bastilla. La última llamarada clase X aconteció el 10 de mayo de 2022 y de la clase M, el 20 del mes de septiembre de este año. Hasta el punto son frecuentes que en los últimos 365 días solamente se han contabilizado 6 días sin manchas.
Nuestro subyugante astro rey está sujeto a perturbaciones caóticas de su campo magnético, denominadas tormentas geomagnéticas. La radiación electromagnética no requiere de soporte material para propagarse, de forma que pueden atravesar el espacio interplanetario e interestelar y llegar a la Tierra. Inciden en las comunicaciones por radio y afectan a los satélites, así como afectan a las instalaciones eléctricas y pueden producir apagones. Los satélites que conforman el GPS pueden verse afectados, pero también en los cables submarinos que transportan corriente eléctrica, que constituyen la estructura de Internet.
Estas llamaradas son un indicador de la actividad solar, que es como una gran bola de gas ionizado, muy caliente. Son grandes flujos de plasma y campo magnético que se denominan viento solar. Las telecomunicaciones son el punto débil de nuestra tecnología frente a estas llamaradas, porque las tormentas geomagnéticas pueden alterar la propagación de las señales de radio, provocando errores en la información que proporcionan los GPS. Pueden paralizar las redes eléctricas. Más allá de estos aspectos instrumentales, la radiación nos afecta al funcionamiento de órganos y tejidos, desde enrojecimiento de la piel, hasta quemaduras, siendo todo cuestión de dosis. La componente ultravioleta de la radiación solar, a excepción de los UVC que quedan retenidos en su mayoría en la alta atmósfera, gracias a la denominada capa de ozono, que es nuestro escudo salvador, la radiación UVB y UVA que atraviesan la atmósfera pueden producir daño en el ADN, al romperlo y provocar efectos de carácter cancerígeno. La exposición es un riesgo conocido. Al fin y al cabo, miles de millones de toneladas de partículas solares son las que se ponen en
juego a alta velocidad. Se estiman unas 2000 erupciones solares en un ciclo solar que tiene una duración de 11 años.
El 16 de septiembre de 2022, ha habido una erupción que impidió la comunicación por radio en África y Oriente Medio. Durante más de una hora las frecuencias por debajo de 25 MHz enmudecieron. Se clasificó como M8, muy próxima a la categoría de mayor intensidad. En febrero, los satélites de SpaceX, Starlink, comenzaron a fallar con una tormenta geomagnética menor y se trata, nada menos de una instalación que atiende el acceso a Internet de 40 países y formará parte del servicio de teléfono mundial a partir de 2023. No pensemos que todo es fortaleza. También hay grandes debilidades. Nuestro gran mentor, es nuestra espada de Damocles. Una preocupación más.
HORIZONTALES
1.Ellas son el punto débil de nuestra tecnología frente a estas llamaradas porque las tormentas geomagnéticas pueden alterar la propagación de las señales de radio provocando errores en la información que proporcionan los GPS.
3.De siempre, han cautivado las que produce el Sol, cuando suelta la energía acumulada bajo su campo magnético.
4.Las llamaradas lo hacen, según la energía de la radiación de la zona espectral de los rayos X, o sea, las longitudes de onda entre 100 y 800 picometros,
6.El 16 de septiembre de 2022, ha habido una, que impidió la comunicación por radio en África y Oriente Medio.
8.Las llamaradas lo son tanto que, en los últimos 365 días, solamente se han contabilizado 6 días sin manchas.
11.El Sol es como este dios, el de las dos caras, en este caso, fuente de
vida, por un lado y potencial catástrofe a través de la tecnología que la Humanidad ha desarrollado.
VERTICALES
2.Llamaradas de clase X son las más intensas, capaces de provocarlos de dispositivos de ondas de radio o tormentas de larga duración.
5.La radiación electromagnética no requiere de soporte material para propagarse, de forma que pueden atravesar el espacio interplanetario e interestelar y llegar a ella.
7.Las polares son consecuencia de interactuar las partículas procedentes del Sol, con el campo magnético de la Tierra y la parte superior de nuestra atmósfera.
9.Más allá de estos aspectos instrumentales, la radiación nos afecta al funcionamiento de órganos y tejidos, desde enrojecimiento de la piel, hasta quemaduras, siendo todo cuestión de ella..
10.La luminaria poderosa que la posibilita es espectacular.
TRAZO 2.19
Fabricando moléculas.
El Premio Nobel de Química a los científicos Sharpless, Meldal y Berlozzi, articula un completo sistema para la síntesis molecular, dado que, por un lado, se refiere la propuesta funcionalista de la Química y la propuesta de la química clic y, finalmente, el uso de esta tecnología para investigaciones relevantes como lo es la cartografía celular, que se ha dado en denominar reacciones bioortogonales. Los tres tienen en común que su trabajo ha seguido la dirección de aportar métodos simples, elegantes, rápidos, para lograr la construcción artificial de moléculas complejas, propias de los sistemas vivos, entre otros, de forma directa, sin requerir procesos químicos laboriosos en los que los pasos intermedios no solo son numerosos, sino que generan productos intermedios que hay que eliminar y, al final, la eficiencia es baja. Digamos, con propiedad, que las aportaciones de estos tres científicos han propiciado la funcionalidad.
La denominada química clic, hace referencia al proceso de síntesis de moléculas complejas, tipo drogas, de una forma nueva, fácil de llevarla a cabo y que emplea solamente reactivos disponibles y sin verse afectadas por el oxígeno y el agua. Consiste en incorporar dos compuestos químicos diseñados para combinarse entre sí que, al ponerlos en contacto en el medio adecuado (deseablemente agua), hacen clic, como cuando se traba el cinturón del automóvil en su presilla o unimos dos piezas de LEGO. Ventajas adicionales radican en que se prescinde de la fase de purificación, tan usual en los
procesos de síntesis química convencional y soslaya los frecuentes procesos cromatográficos para la separación. Se emplean aproximaciones modulares y las aplicaciones son muchas, en especial en el campo de la Química combinatoria, la investigación en el ámbito del ADN o en el descubrimiento de drogas o productos farmacéuticos. Un ejemplo muy significativo es la reacción de formación de triazoles mediante cicloadición de alquinos con azidas, que contienen grupos funcionales muy inertes, con mucho interés para las moléculas biológicas y entornos acuosos y se prestan a los procesos de síntesis guiada en la que los reactantes son casi imposible de oxidar o reducir. La química clic ha hecho aportaciones significativas en la química de polímeros, la biología química y ha contribuido al descubrimiento de fármacos de interés.
Se trata de no complicar los procesos y trabajar de forma simple y directa para obtener moléculas funcionales, entidades moleculares complejas que se pretenden obtener desde hace mucho tiempo, pero que los procesos eran o muy caros o costaban mucho tiempo o ambos. Mecanismos apropiados para sintetizar nuevos materiales. Las utilidades de estos nuevos materiales incluyen posteriores modificaciones como introducción de sustancias que conduzcan la electricidad o que capten la luz solar o que exhiban propiedades antibacterianas o protectores de la radiación ultravioleta o cualquier otra propiedad de interés. Solamente hay que añadir una azida a los materiales originales, como plásticos o fibras para que sea posible lo relatado. También pueden desarrollarse reacciones clic que operen en organismos vivos, como ha desarrollado Carolyn Bertozzi, con la versión de reacciones bioortogonales, que no alteran los procesos químicos de la célula y permiten cartografiar las células y registrar su funcionamiento. El cambio cualitativo debido a Bertozzi es que el tubo de ensayo es la propia célula y ahí aplicó la química clic. Todo un alarde de audacia. Estudia y pretende comprender como se desarrollan los procesos tumorales, la inflamación o las infecciones. ¡Ni más ni menos! Alarde de audacia.
Para entenderlo, piense el lector en cómo funciona Lego. Algunas piezas tienen protuberancias y otras tienen agujeros. Al juntarlas y presionarlas hacen clic para unirse. Los compuestos orgánicos que incluyen grupos azida y alquinos tenían la dificultad de requerir como catalizador al cobre, que en cantidad es tóxico para los sistemas vivos e interfiere en el metabolismo. Bertozzi consiguió en 2004 un método para reacciones click sin requerir al cobre y, de esta forma, no interferir las funciones celulares. Consiguió, unir a la superficie celular, a unas moléculas que se llaman glicanos, unos compuestos fluorescentes. De esta manera se pueden rastrear estas moléculas que se piensa que protegen los tumores del sistema inmunológico. Si se bloquean, se pueden crear nuevos fármacos para desarrollar anticuerpos selectivos que apunten a distintos tumores. Química dentro del cuerpo humano, con procedimientos que no afectan al metabolismo celular y garantizando que los medicamentos alcanzan el sitio donde deben ir a parar. Una Química, eficaz, eficiente y sostenible donde las haya. ¡Fantástico!
HORIZONTALES
1.Ventajas adicionales de la Química clic, radican en que se prescinde de esta fase, tan usual en los procesos de síntesis química convencional y soslaya los frecuentes procesos cromatográficos para la separación.
4.Las utilidades de estos nuevos materiales incluyen posteriores modificaciones como introducción de éstas que conduzcan la electricidad o que capten la luz solar o que exhiban propiedades antibacterianas o protectores de la radiación.
6.El Premio Nobel de Química a los científicos Sharpless, Meldal y Berlozzi, articula un completo sistema para leste tipo de síntesis.
7.El uso de la tecnología clic, para investigaciones como la cartografía celular, se ha dado en denominar reacciones de este tipo.
8.También pueden desarrollarse reacciones clic que operen en organismos de este tipo, como ha desarrollado Carolyn Bertozzi, con esta versión de reacciones bioortogonales.
9.Digamos, con propiedad, que las aportaciones de los tres científicos galardonados con el Premio Nobel 2022, la han propiciado.
VERTICALES
1.La Química CLic, consiste en incorporar dos compuestos químicos diseñados para combinarse entre sí que, al ponerlos en contacto en el medio adecuado (deseablemente agua), hacen clic, como cuando se traba el cinturón del automóvil en ella o unimos dos piezas de LEGO.
2.La Química clic pretende propiciar éstos para que sean apropiados para sintetizar nuevos materiales.
3.El Premio Nobel de Química distingue a los científicos que han aportado métodos simples, elegantes, rápidos, para lograr la construcción artificial de éstas, complejas
5.Esta química ha hecho aportaciones significativas en la química de polímeros, la biología química y ha contribuido al descubrimiento de fármacos de interés.
TRAZO 2.20
Las calorías del cerebro.
No cabe duda de que la sociedad tiene un cierto grado de obsesión con adelgazar. Esto sirve de incentivo para que aparezcan por doquier predicadores y predicadoras de mágicas soluciones para lograrlo. Lo curioso son las explicaciones que dan para ello, porque todo depende de ti. Si el sistema no funciona es por tu culpa. Las reclamaciones al maestro armero, que diría el genuino.
Lo cierto es que los detalles de la fisiología humana son complejos. Tanto como para que la mayoría de los predicadores y predicadoras no tengan acceso cabal a ellos. Pero, desde la ignorancia es difícil acertar en la interpretación correcta de lo necesario. La trastienda es suficientemente complicada como para que los planteamientos generales sean eficaces, en cualquier caso. Cuando nos acercamos a los procesos que tienen lugar en el marco de la fisiología humana, hay que dominar muy bien la Química y la Bioquímica para tener una idea realista de lo que ocurre en un momento dado. ¿Qué les parece si decimos que el cerebro quema diariamente las mismas calorías que las liberadas en una carrera de media hora de duración?
Se abren toda una serie de interrogantes sobre la incidencia en el organismo de esta aportación. Si la hipótesis de liberar calorías mediante el ejercicio físico, tan recomendado por muchos, alcanza al órgano más noble de nuestra existen-
cia, cabe pensar en una actividad del cerebro que pudiera ser alternativa al propio ejercicio físico, en la faceta calórica que obsesiona a tanta gente.
Ciertamente, una constatación empírica consiste en advertir que pensar provoca cansancio. Los trabajos que exigen mucha atención y que se realizan de forma continuada, provocan cansancio. El estudio es un buen ejemplo de ello, por el que todo el mundo, en mayor o menor grado ha pasado. Puede causar perplejidad que, sin movernos del sitio, podamos lograr un resultado equivalente al conseguido con el esfuerzo físico asociado a una carrera de cualquier tipo.
El cerebro de los humanos supone en torno a un 2% del peso corporal y consume en torno al 20% del oxígeno que ingresamos por los pulmones y de la glucosa del organismo. Se cuantifica en unas 350 calorías diarias, que implica en torno a un 20% de lo que solemos gastar diariamente. Por otro lado, es una maquinaria biológica que nunca deja de funcionar, día y noche, 24/7. Esto implica un gasto energético notable. Parece razonable suponer que el consumo energético del cerebro tiene que tener relación con su actividad. En estado de actividad rutinaria, como puede ser caminar o pensar en cosas usuales, deberá ser menor que cuando se concentra en resolver un problema que implica recuperar todo el conocimiento requerido para lograrlo. El riego sanguíneo reclamado en la actividad estará asociado a los distintos niveles de consumo, tanto de oxígeno como de glucosa, que son el combustible cerebral por excelencia.
La espectroscopía de resonancia magnética aplicada al cerebro en sus distintas acepciones ofrece la posibilidad de examinar la dinámica de la actividad cerebral y cuantificar el consumo. No todas las actividades cerebrales tendrán el mismo consumo. La intensidad del trabajo cerebral es determinante. Lo cierto y verdad es que las estimaciones más recientes proponen una equivalencia entre el trabajo cerebral
y físico intensos, en cuanto al consumo energético. El estrés asociado a la intensidad es un factor muy importante.
La diferencia entre el trabajo físico y el intelectual se establece en términos de los mecanismos implicados en la liberación de la energía. El cerebro consume glucosa para liberar la molécula de adenosin trifosfato (ATP), que es la implicada en los procesos metabólicos. Se dan como cifras concretas un consumo de 5,6 miligramos de glucosa por minuto por cada cien gramos de tejido cerebral. Las vías de obtención de la glucosa son varias y la del azúcar es la más directa y simple y la vía más eficiente. Proviene de los carbohidratos incorporados en ingesta.
El cerebro puede confundir por el hecho de que controla desde la respiración, hasta la digestión y las funciones corporales. Constantemente. Pero aun cuando intensifiquemos la actividad de pensar el aumento del consumo es incomparablemente menor que el de una actividad física en que se consume para activar los músculos. Pensar quema calorías y esto implica que adelgaza, pero el pensamiento requiere unas pocas calorías, sólo. Esto nos disuade de intentar adelgazar pensando. Seguro que, si lo hacemos caminando, mejoraremos el resultado.
HORIZONTALES
4.Este órgano, es una maquinaria biológica que nunca deja de funcionar, día y noche, 24/7.
6.La que existe entre el trabajo físico y el intelectual se establece en términos de los mecanismos implicados en la liberación de la energía.
8.No todas las actividades cerebrales tendrán el mismo consumo. La del trabajo cerebral es determinante.
9.El cerebro de los humanos supone en torno a un 2% del peso corporal y consume en torno al 20% del oxígeno que ingresamos por ellos y de la glucosa del organismo.
10.Este riego reclamado en la actividad estará asociado a los distintos niveles de consumo, tanto de oxígeno como de glucosa, que son el combustible cerebral por excelencia.
11.Se cuantifica en unas 350 calorías diarias, que implica en torno a un 20% de lo que solemos gastar en este periodo de tiempo.
12.En estado de actividad rutinaria, como puede ser esto o pensar en cosas usuales, deberá ser menor que cuando se concentra en resolver un problema que implica recuperar todo el conocimiento requerido para lograrlo.
13.La de liberar calorías mediante el ejercicio físico, tan recomendado por muchos, alcanza al órgano más noble de nuestra existencia.
VERTICALES
1.Parece razonable suponer que el consumo energético del cerebro tiene que tener relación con ella.
2.Una constatación empírica del consumo energético del cerebro, consiste en advertir que esto, provoca cansancio.
3.el cerebro quema diariamente las mismas que las liberadas en una carrera de media hora de duración.
5.Los detalles de la fisiología humana lo son.
6.La espectroscopía de resonancia magnética aplicada al cerebro en sus distintas acepciones ofrece la posibilidad de examinar la de la actividad cerebral y cuantificar el consumo.
7.Cuando nos acercamos a los procesos que tienen lugar en el marco de la fisiología humana, hay que dominar muy bien la Química y la Bioquímica para tener una idea de este nivel de lo que ocurre en un momento dado.
SOLUCIONES A LAS PALABRAS CRUZADAS
SOLUCIONES AL TRAZO 2.1
Neuronas
SOLUCIONES AL TRAZO 2.2
Sumisión delictiva.
SOLUCIONES AL TRAZO 2.3
SOLUCIONES AL TRAZO 2.4
Ocurre.
A.
SOLUCIONES AL TRAZO 2.5
SOLUCIONES AL TRAZO 2.6
El geoglifo 143.
A.
Requena
SOLUCIONES AL TRAZO 2.7
SOLUCIONES AL TRAZO 2.8
Resveratrol y Tierra 2.0.
SOLUCIONES AL TRAZO 2.9
Tránsito.
SOLUCIONES AL TRAZO 2.10
Viaje a las estrellas.
SOLUCIONES AL TRAZO 2.12
Civilizaciones.
SOLUCIONES AL TRAZO 2.13
SOLUCIONES AL TRAZO 2.14
Palabras.
SOLUCIONES AL TRAZO 2.15
Villanas
A.
SOLUCIONES AL TRAZO 2.17
SOLUCIONES AL TRAZO 2.18
IA y envejecimiento.
SOLUCIONES AL TRAZO 2.19
Espiral explosiva.
SOLUCIONES AL TRAZO 2.20
Lo complejo es Nobel.