ATANOR LECTURAS
VOLUMEN II
ALBERTO REQUENA R.
ATANOR LECTURAS
VOLUMEN II
ALBERTO REQUENA R. Catedrático Emérito de la Universidad de Murcia Académico Numerario de la Academia de Ciencias de la Región de Murcia
Datos de Catalogación Bibliográfica Atanor Vol. II Lecturas Alberto Requena. ISBN: 978-84-09-26805-4
Materia: Ciencia y Tecnología Formato: 210 x 297 mm
Páginas 228
Todos los derechos reservados: Queda prohibida, salvo excepción prevista en la Ley, cualquier forma de reproducción, distribución, comunicación pública y transformación de esta obra sin contar con autorización de los titulares de propiedad intelectual. La infracción de los derechos mencionados puede ser constitutiva de delito contra la propiedad intelectual (arts 270 y sigs. Código Penal)
DERECHOS RESERVADOS ©2020 por Alberto Requena Rodríguez.
Atanor Vol II Lecturas Alberto Requena. ISBN Depósito Legal: Equipo Editorial Editor: Alberto Requena Técnico Editorial: Equipo de Producción Director: Técnico: Diseño de Cubierta: Alberto Requena Impreso por: IMPRESO EN ESPAÑA- PRINTED IN SPAIN
Esta publicación está dedicada a La Verdad, a sus lectores y a sus seguidores, en especial de la sección ATANOR. Su actual director, Alberto Aguirre de Cárcer, me permitió comprometerme a escribir sobre Ciencia y Tenología y lo hago encantado. Es una tarea placentera para mi esta colaboración. Seguir los desarrollos científicos y tecnológicos y divulgarlos, permite aprender cada día algo, de lo mucho que la Ciencia ha aportado. La labor que supone, que un periódico acoja en sus páginas, materiales o virtuales, la difusión de la Ciencia, es muy importante para, desde el conocimiento, aportar en la buena dirección a contribuir a la libertad de las personas. Es una tarea muy emocionante la que resulta al transmitir aspectos de la Ciencia, importantes para nuestras vidas. —Alberto Requena
iv
Agradecimientos
Agradecimientos A todos los que de alguna forma han participado en la factura de estos textos, colaborando, leyendo, sugiriendo o corrigiendo. Un agradecimiento especial a María Emilia Candela, siempre animosa y atenta a sugerir y aportar inteligentemente. De ella aprendo mucho. A José Antonio Lozano Teruel, maestro en muchos frentes, a quien respeto y admiro.
Nuestro agradecimiento expreso a la Verdad y a su Director Alberto Aguirre de Cárcer, por la audacia de incluir en su ámbito la divulgación científica y la apuesta que hace de ello.
Prólogo
v
Prólogo No se podría entender la historia reciente de la Universidad de Murcia sin la relevante presencia y el predicamento entre sus miembros del profesor Alberto Requena, maestro de numerosos químicos españoles y todo un referente intelectual que sobrepasa las fronteras del mundo universitario murciano. Su magisterio hace tiempo que desbordó los límites físicos de las aulas y los laboratorios e impregna de manera muy nítida sus colaboraciones periodísticas en medios de comunicación de gran audiencia. No es el único docente e investigador que ha dado ese salto, pero debo decir que la sensibilización a la ciudadanía de la importancia de la ciencia es una tarea que solo algunos investigadores realizan con especial maestría, como es el caso de este catedrático emérito de multidisciplinar sabiduría. Como periodista que se dedicó muchos años de manera exclusiva a la información científica solo puede decir que para mí es un privilegio, ahora como director de un diario, contar con la colaboración quincenal del profesor Requena. No solo por sus deslumbrantes conocimientos de la ciencia en su conjunto, sino por su capacidad para transmitirlos a los lectores. Atanor, la serie de artículos que aparecen quincenalmente en LA VERDAD, son un ejemplo de originalidad e innovación divulgativa. Son exclusivos en su concepción y materialización, lo que convierte cada uno de esos textos en piezas a conservar. ¡Qué gran iniciativa reunirlos y presentarlos en conjunto! Yo tengo mis favoritos, pero es mejor que cada uno elija el suyo. Leer es una aventura. Aprender, una oportunidad para mejorar. Lo uno y lo otro van de la mano en esta obra imprescindible. Disfrútenla.
Alberto Aguirre de Cárcer Director de La Verdad Otoño de 2020
Prefacio
vii
Prefacio Este libro pretende recoger y dejar constancia de una serie de reflexiones sobre temas diversos, pertenecientes a distintos campos científicos. Por una razón u otra, han sido cuestiones de interés en algún momento, presente o pasado. Representan aportaciones singulares, que alguno de los miembros de la Humanidad ha sido capaz de desvelar y poner al descubierto. Los demás, hemos aprendido de sus relatos. La curiosidad es una virtud insaciable. Debemos ser humildes y reconocer que no sabemos por qué mantenemos la curiosidad en cualquier tiempo y lugar. El descubrir, tiene una cara oculta que se desvela cuando corremos la cortina que cubre el transfondo y, en realidad, lo que descubrimos son muchos más interrogantes que los que teníamos cuando abordamos una cuestión y creemos haberla resuelto. Pero seguimos insistiendo. No nos conformamos. Esa especie de impulso bíblico que animaba a aquél niño a querer meter toda el agua del mar en aquel hoyo que había practicado en la arena, tiene mucho que ver con el impulso permanente que nos anima a conocer más y más. No hay final, parece, pero insistimos sin perder el aliento. Imaginen, si nos enfrascamos en un proyecto, consistente en poner negro sobre blanco, cuestiones científicas que, por alguna razón, te apasionan, te interesan o quieres desvelar las entrañas que lo explican. Podría ser labor de toda una vida. En todo caso, es una bendiciòn poderse dedicar a esos menesteres en un momento dado, dedicando tiempo, esfuerzo y atención a temas que te han ido quedando pendientes y te gustaría razonar, conocer y, en casos, desvelar. La Ciencia avanza y el conocimiento acumulado se incrementa a pasos agigantados. Dentro de poco habrá que revisar los fundamentos. No es posible abarcarlo todo y no va resultando nada trivial, discernir qué es lo imprescindible para seguir avanzando. La Sociedad precisa elevar el nivel de conocimiento utilizable y es una buena razón para que los científicos comprendan que también tienen como obligación transferir ese conocimiento al que han accedido privilegiadamente. Es una gran tarea la que queda por delante. Entre todos, podemos lograrlo. Alberto Requena Catedrático Emérito de la Universidad de Murcia Académico numerario de la Academia de Ciencias de la Región de Murcia Otoño de 2020
ix
Contenido
TRAZADO
1
Trazo 1.1
Nubes de buen tiempo, 1.
Trazo 1.2
Matemática de la Naturaleza, 5.
Trazo 1.3
Levitando, 9.
Trazo 1.4
La abundancia de las proteínas, 13.
Trazo 1.5
Tornado acústico, 17.
Trazo 1.6
Mariposas del alma, 21.
Trazo 1.7
Simetrías de formas y leyes, 25.
Trazo 1.8
Visión unificada de la Ciencia, 29.
Trazo 1.9
Pudo ser antes, 33.
Trazo 1.10
Mensajes desde el vacío, 37.
Trazo 1.11
Copernicus, 41.
Trazo 1.12
Copias casi perfectas, 45.
Trazo 1.13
Salvavidas del genoma, 49.
Trazo 1.14
Inteligencia, 53.
Trazo 1.15
Atrapando moléculas, 57.
Trazo 1.16
Utopías, 61.
Trazo 1.17
Memoria y recuerdo, 65.
Trazo 1.18
Máquinas fabricando Ciencia, 69.
Trazo 1.19
La sensación de presencia, 73.
Trazo 1.20
Energía para el mundo, 77.
x
Contenido
SOLUCIONES 83
-
A
LAS
PALABRAS
CRUZADAS
TRAZADO
TRAZADO
2
Trazo 2.1
Colonizando el miundo 107.
Trazo 2.2
Fotoavance, 111.
Trazo 2.3
Ética para la IA, 115.
Trazo 2.4
Sueño sin cables, 119.
Trazo 2. 5
Conviviendo con robots, 123.
Trazo 2.6
Formulando hipótesis. 127.
Trazo 2.7
Ciencia de los artificial, 131.
Trazo 2.8
Ciencia y creencia, 135.
Trazo 2.9
Nuditas y neoluditas, 139.
Trazo 2.10
Casi inermes, 143.
Trazo 2.11
Palabras, 147.
Trazo 2.12
No mas pensar en pequeño. 151.
Trazo 2.13
Estados de alerta, 155.
Trazo 2.14
Alondras y búhos, 159.
Trazo 2.15
Filosofía científica, 163.
Trazo 2.16
Adicción y bacterias, 167.
Trazo 2.17
Ensayo y error cerebral, 171.
Trazo 2.18
Picoscopio, 175.
Trazo 2.19
¿Ahora, Venus?, 179.
Trazo 2.20
Baterías eternas, 183.
SOLUCIONES 189
DEL
104
-
210
A
LAS
PALABRAS
CRUZADAS
DEL
TRAZADO
2,
1,
TRAZO
1.1
Nubes de buen tiempo.
Observar las nubes proporciona un disfrute especial. Es una actividad al alcance de todos. Naturalmente, para ello es necesario que decoren el escenario, cosa que en estas latitudes no se da siempre. Son objetos imprecisos, con límites indeterminados. Hay muchas clases y variedades. Nos centraremos en los cúmulos, las más definidas de todas las especies de nubes. Son nubes aisladas, sueltas, independientes. Las más frecuentes en los dibujos infantiles. Se forman a alturas entre 600 y 1000 metros, como consecuencia de corrientes ascendentes de aire caliente. En días claros se asemejan a ovillos de algodón o lana, esponjosas, como si fueran de azúcar, con apariencia suave, que desearíamos alcanzar con la mano. La especie humilis empieza a formarse en la superficie de la tierra como consecuencia de la incidencia de los rayos solares matutinos. No provocan precipitaciones, al igual que la especie mediocris y se asocian como nubes de bien tiempo. Las únicas que provocan chaparrones son las de la especie congestus, que no son nubes de buen tiempo, que evolucionan hasta un cumulonimbo y pueden
Pg. 2
Atanor
A. Requena
desencadenar una lluvia intensa. En los días veraniegos, los cúmulos se forman por la mañana y evolucionan a congestus hacia el mediodía y descargan por la tarde. "Cielo a lana, si no llueve hoy, lloverá mañana", sentencia el refrán. Un cúmulo, es agua y solamente agua. La misma sustancia que llena un vaso. Pero mientras ésta última es transparente, las nubes son blancas y opacas, al estar constituida por miles de millones de gotitas diminutas. Se estima que en un metro cúbico de nube puede haber hasta mil millones de gotas de agua. Una nube de un kilómetro cúbico puede alcanzar un peso de unas doscientas toneladas, equivalentes al peso del animal más grande del mundo, cual es una ballena azul de entre 25 y 32 metros. Esta ingente cantidad de gotitas dispersa la luz solar que incide en todas las direcciones y por eso le da el aspecto algodonoso, que contrasta con la transparencia del agua contenida en un vaso. Como precisa Pretor-Pinney, algo similar a lo que ocurre cuando observamos un cristal grabado y lo comparamos con un cristal liso. La única superficie de éste último, contrasta con la multitud de facetas que podemos encontrar en el cristal tallado o grabado, que dispersa la luz en los múltiples ángulos y proporcionan una apariencia blanca. Los cúmulos implican corrientes ascendentes capaces de elevar aves como las águilas. Las corrientes de convección térmica vitalizan a los cúmulos. Transportan la humedad al iniciarse la construcción de la nube y hacen permanecer a las gotas de agua en el aire durante un tiempo que se estima en unos diez minutos. Pretor-Pinney nos detalla una maqueta consistente en la denominada lámpara de lava, con la única salvedad de que en esta última están implicados líquidos y en la nube lo están gases. Consiste en una bombilla situada en el fondo de la lámpara, que calienta el aceite que llena el fondo de la lámpara, lo que simula al proceso por el que la radiación solar calienta el aire situado sobre la superficie de la Tierra. El aceite de la lámpara, calentado, disminuye
TRAZO 1.1
Nu b e s
de
buen
tiempo
Pg. 3
su densidad, hasta que se hace menor que la del agua. La consecuencia es que el aceite asciende y se sitúa por encima del agua, flotando. Este proceso es la convección. El símil lo compara con el aire de la superficie de la Tierra, calentado, que asciende y acaba flotando como consecuencia de los rayos solares que inciden sobre él. Pero cuando el aceite de la lámpara de lava, ha ascendido y está suficientemente separado del calor de la bombilla, se enfría, contrae, aumenta su densidad y comienza a descender de nuevo. El símil es que el aire más frío y alejado del suelo desciende buscando la posición inicial y pasar a ocupar el hueco generado por el aire que calentado ha ascendido en la corriente de convección térmica. Se trata, por tanto, que la fábrica de cúmulos, emplea la humedad invisible arrastrada por la corriente térmica. El asfalto es más eficaz que un prado, una ladera soleada lo es más que la situada a la sombra. Una isla se calienta más que el agua circundante, incluso se puede llegar a ver un cúmulo sobre la ribera, hasta el punto de que pueden comportarse como faros que hacen visible la costa antes de que sea visible.
Pg. 4
Atanor
A. Requena
NUBES DE BUEN TIEMPO A. REQUENA @ LA VERDAD, 2018 1
2
3
4
5
6 7
8
9
10
11
12 13
14 15
16 17
18
19 20
21
22 23 24 25
26
EclipseCrossword.com
Horizontales
Verticales
1.
La transportan al iniciarse la construcción de la nube.
2.
6.
Lo hacen a alturas entre 600 y 1000 metros de altitud.
Una nube esta constituida por éstos millones de gotitas diminutas.
3.
7.
Cuando el aceite de la lámpara de lava, ha ascendido y está suficientemente separado del calor de la bombilla, lo hace, contrae, aumenta su densidad y comienza a descender de nuevo
La única especie de cúmulos que puede provocar chaparrones.
4.
Animal más grande del mundo.
5.
Una nube de un kilómetro cúbico puede alcanzar un peso de unas doscientas de ellas.
13.
Lo son en los dibujos infantiles.
8.
15.
Las gotitas que forman las nubes dispersan la luz solar que incide en todas las direcciones y por eso le da ese aspecto.
Así queda el aceite, como consecuencia de que asciende y se sitúa por encima del agua.
9.
17.
En el aceite de la lámpara, calentado, disminuye, hasta que se hace menor que la del agua.
Se forman como consecuencia de este tipo de corrientes de aire caliente.
10.
Las corrientes de convección térmica lo hacen en los cúmulos
18.
Situada en el fondo de la lámpara, calienta el aceite que llena el fondo de la lámpara.
11.
20.
El aire de la superficie de la Tierra, calentado, asciende y acaba flotando como consecuencia de estos rayos que inciden sobre él.
Las denominadas lámparas de ella permiten visualizar el proceso de la convección térmica.
12.
Esta especie de cúmulos, tampoco provocan precipitaciones.
21.
Propios de la Lámpara de Lava y principial diferencia con la corriente térmica.
14.
Las corrientes ascendentes de un cúmulo son capaces de elevar estas aves.
22.
Único constituyente de un cúmulo.
16.
23.
Son objetos imprecisos, con límites indeterminados.
Esta especie de cúmulos empieza a formarse en la superficie de la tierra como consecuencia de la incidencia de los rayos solares matutinos.
24.
Sentencia el refrán "Cielo a lana, si no llueve hoy,lo hará entonces".
18.
25.
Son las más definidas de todas las especies de nubes.
La multitud de facetas que podemos encontrar en el cristal tallado o grabado, dispersan la luz en los múltiples ángulos y proporcionan esa apariencia.
26.
Mientras el agua de un vaso es transparente, las nubes son blancas y así.
19.
En días claros se asemejan a ovillos de algodón o lana, esponjosas, como si fueran de ella.
TRAZO 1.2 TRAZO
Matemática de la Naturaleza
Pg. 5
1.2
Matemática de la Naturaleza.
Para Leucipo y Demócrito, la única cosa que existía en realidad eran los átomos: eternos e indestructibles. Cualquier otra cosa estaba compuesta por ellos. Los conceptos que implicaban eran "lleno" y vacío" en lugar de "ser" o "no ser" que había propuesto Parménides. La doctrina de Leucipo y Demócrito era capaz de dar una descripción cabal de los estados de agregación de la materia: solido, líquido y gas, ya que los átomos podían estar comprimidos y ordenados o perder ese orden y mantenerse alejados unos de otros. Básicamente, los átomos eran como los ladrillos para la construcción Su posición, sus propiedades y su movimiento eran determinantes. Su extensión tendría que ser finita, lo que contradecía la indivisibilidad, por la que recibió la denominación de "átomo", que significa, exactamente eso, en griego. Si tenía dimensión espacial, podría dividirse, naturalmente, como muy posteriormente en el tiempo, se ha demostrado. No cumplió el aparente objetivo pretendido: un elemento simple en el subsuelo de los fenómenos, constituyendo la infraestructura de la materia. Ciertamente, la mayor parte de propiedades de la materia se pueden atribuir a la posición y al movimiento de los átomos. El olor, color y sabor no están, aparentemente, presentes en los átomos, pero la posición y el movimiento de éstos son los que pueden provocar tales propiedades. Pero no fueron los filósofos griegos los que encontraron una ley natural que lo justificara. No encajaba en sus supuestos. El determinismo si formaba parte de su escenario, pues es lo que hay detrás de causa y efecto, como elementos explicativos. El concepto de átomo supuso un camino
Pg. 6
Atanor
A. Requena
expedito de lo "múltiple" a lo "uno". Los átomos eran la causa material y solamente una ley que permitiera determinar posiciones y velocidades sería el principio fundamental de la Naturaleza. Hoy, la posición y velocidad en un instante dado, están relacionados con la posición y velocidad en un instante anterior, mediante una ley matemática. Esto no encajaba en el pensamiento de aquélla época, porque no se había desarrollado el concepto de tiempo. Platón modificó el punto de vista de Leucipo y Demócrito. Buscaba también unidades pero distintas a los átomos. Para él, no habían unidades materiales, estrictamente, sino formas geométricas: los sólidos regulares matemáticos. Suponía que subyacían ideas en esas estructuras y tenían unas características físicas determinadas. Por ejemplo, el tetraedro que tiene aristas agudas representaba la partícula "unidad" de fuego; el cubo era la partícula "unidad" de tierra, atribuyéndole la gran estabilidad de su forma; El octaedro (8 caras) representaba a la partícula de aire; El icosaedro (poliedro de 20 caras) es el más próximo a la esfera y representaba bien la movilidad del agua. Según Platón los sólidos regulares eran los símbolos del comportamiento físico de distintas opciones de la materia. Combinando los triángulos que las formaban se transmutaban unas en otras: 2 aire + 1 fuego = 1 agua. Es decir 2 x 8 + 1 x 4 = 1 x 20. Platón no se planteaba la cuestión de la indivisibilidad de la materia. Como trataba con superficies, por tanto, dos dimensiones, los triángulos no eran cuerpos, pero tampoco materia. Se resolvía de una forma matemática. Se explicaba cómo se comportaban las porciones de materia y, por extensión, también de la materia. Las formas geométricas de las unidades mínimas representaban las tendencias fundamentales de la materia. No contradecía que para mayor detalle había que recurrir a la posición y velocidad de las partículas. No entraba en conflicto la teoría de Platón con la de Leucipo y Demócrito. La forma de los objetos determinaba la estructura del subsuelo de los fenómenos. Las Ideas son más fundamentales que los obje-
TRAZO 1.2
Matemática de la Naturaleza
Pg. 7
tos. Mientras que las unidades de materia son los objetos que ponen de manifiesto la simplicidad subyacente del mundo, las Ideas permiten una descripción matemática: son fórmulas matemáticas. Fue un paso de gigante en el pensamiento filosófico. Fue el inicio de la Matemática de la Naturaleza como Ciencia. Aparece por primera vez, descarnada, la concepción de comprensión y se concibe la que emplean los matemáticos como la forma auténtica de comprensión. Cabe intuir el impacto en los filósofos griegos de los argumentos matemáticos que la lógica desgranaba. Fue una avalancha arrolladora. Fue cautivadora la propuesta. Son las Matemáticas las capaces de manejar las ideas. Su ampliación posterior y actual, han transformado la imagen del mundo, y su comprensión.
Pg. 8
Atanor
A. Requena
MATEMÁTICA DE LA NATURALEZA A. REQUENA @ LA VERDAD, 2018 1
2 4
3 5
6 7 9
8
10
11
12 13 14 16
15
17
18 19
21
20
22
EclipseCrossword.com
de la materia.
Horizontales 1.
El icosaedro (poliedro de 20 caras) es el más próximo a la esfera y representaba bien esta característica del agua
4.
Ellas son más fundamentales que los objetos.
12.
Leucipo y Demócrito daban una descripción cabal de los estados de agregación de la materia: solido, líquido y él.
13.
Combinando los triángulos que formaban las partículas materiales de Platón, lo lograban hacer de unas en otras.
15.
Ciertamente, la mayor parte de propiedades de la materia se pueden atribuir a la posición y a él en los átomos.
17.
Formaba parte del escenario de los filósofos griegos, pues es lo que hay detrás de causa y efecto, como elementos explicativos.
18.
Los átomos eran la causa material y solamente una ley que permitiera determinar posiciones y velocidades sería el principio fundamental de ella.
19.
El olor, color y él no están, aparentemente, presentes en los átomos, pero la posición y el movimiento de éstos son los que pueden provocar tales propiedades
20.
Para Platón, no habíann unidades materiales, estrictamente, sino formas de este tipo.
21.
En la teoría de Leucipo y Demócrito, básicamente, los átomos eran como los ladrillos para ella.
22.
Las formas geométricas de las unidades mínimas representaban las fundamentales
Verticales 2.
Si el átomo tenía dimensión espacial, podría hacerlo, naturalmente, como muy posteriormente en el tiempo, se ha demostrado.
3.
Además de ella, las propiedades y su movimiento eran determinantes para los átomos.
5.
Para Leucipo y Demócrito, la única cosa que existía en realidad eran estos y se calificaban de eternos e indestructibles.
6.
La extensión extensión de los átomos, tendría que serlo, lo que contradecía la indivisibilidad
7.
La posición y velocidad en un instante dado, están relacionados con la posición y velocidad en un instante anterior, mediante una ley de este tipo.
8.
Junto a Demócrito se les conoce como los formuladores de la teoría atómica.
9.
Platón suponía que subyacían ideas en las unidades estructurales y tenían unas características determinadas de este tipo.
10.
Uno de los conceptos que implicaban los átomos.
11.
Era la partícula “unidad” de tierra, atribuyéndole la gran estabilidad de su forma
14.
El octaedro (8 caras) representaba a esta partícula.
16.
El tetraedro que tiene aristas agudas representaba la partícula “unidad” de él.
TRAZO 1.3 TRAZO
Levitando
Pg. 9
1.3
Levitando.
Al conocido Premio Nobel le compite, en clave de humor, los Premios IG Nobel que convoca la revista de humor científico Accounts of Improbable Research. Ignoble (Innoble) + Nobel (el premio instituido por Alfred Nobel), conforman el acróstico Ig Nobel. El lema del Ig Nobel es "honrar logros que hacen a las personas reír y luego pensar". Áreas como Medicina, Antropología, Biología, Química, Educación Médica, Literatura, Nutrición, Medicina reproductiva, Economía, La Paz, etc, y cualquier otra imaginable, son objeto de atención. Generalmente, se refieren como los galardones a los trabajos más disparatados del año. No necesariamente es así, aunque usualmente arrancan sonrisas, conocidos los logros premiados. En 1991 el Ig Nobel en Química correspondió a Jacques Benveriste, un corresponsal de Nature por su persistente creencia de que el agua es un líquido inteligente y por demostrar, a su satisfacción, que el agua es capaz de recordar eventos mucho después de que cualquier traza de dichos eventos se hayan disipado". Como vemos hace mucho que se ridiculizaba la especulación de la homeopatía, aunque algunos insisten en su "milagrosa existencia", eso sí, rentable para sus bolsillos a costa de incautos e ingenuos. El caso que nos va a ocupar es singular, por cuanto el autor, André Geim que fue el primero en lograr ser galardonado con el Nobel de Física en el año 2010 por su trabajo sobre el grafeno, pero ya había obtenido el Ig Nobel en 2000,
Pg. 10
Atanor
A. Requena
haciendo levitar ranas. El doblete es curioso. Geim consiguió hacer levitar a una rana con un campo magnético. Evidenciaba que el electromagnetismo afecta a toda la materia del Universo. El campo magnético que generan algunos materiales implica una interacción con otros materiales, atrayéndolos o repeliéndolos, según su carácter paramagnético (hierro) o diamagnético, respectivamente. La repulsión de los diamagnéticos, proviene de que el campo magnético del material magnético envuelve al diamagnético y al generarse una fuerza capaz de compensar la gravedad lo suspende en el aire. Los superconductores son materiales idealmente diamagnéticos. Para desplazar una material diamagnético sobre uno magnético, o viceversa, solamente hay que vencer el rozamiento del aire, al compensar la gravedad. El transporte de levitación magnética o Maglev utiliza imanes para la sustentación.. Rapidez, silencio y suavidad son los rasgos de este tipo de trenes. Se estima una potencial velocidad que supera los 6000 kilómetros por hora en un túnel en vacío. Actualmente, en Japón, han superado los 600 kilómetros por hora en trayectos reales. Pero toda la materia es susceptible de verse afectada por el magnetismo. Geim lo demostró con un organismo vivo. Para ello eligió una rana y la sometió a un campo magnético, con intensidad capaz de compensar el efecto de la gravedad en un cuerpo diminuto como éste. Logró que la rana levitara. El cuerpo de la rana, diamagnético, fue capaz de reaccionar contra la acción del campo magnético, del mismo modo que cualquier otra sustancia diamagnética en circunstancias parecidas. Los materiales diamagnéticos tienen una susceptibilidad negativa, es decir, el campo magnético se ve disminuido por efecto de la magnetización inducida. El resultado es la generación de una fuerza que se opone a un campo magnético externo. La explicación es cuántica, aunque clásicamente se puede formular una aproximación. Para ello hay que interpretar que un electrón es como una espira de corriente que lleva asociado un momento magnético dipolar. En situa-
TRAZO 1.3
Levitando
Pg. 11
ción normal, sin campo magnético aplicado las contribuciones de los espines en un sentido se compensan con las del contrario y la magnetización resultará ser nula. Pero si aplicamos un campo magnético, la variación del flujo magnético que afecta a una espira induce una corriente que, de acuerdo con la ley de Lenz, se opone a la variación del flujo magnético que la generó. Como ha variado la corriente inducida, se produce un campo magnético que actúa en sentido opuesto al original. Todos los electrones contribuyen a este efecto. Este efecto es general, por tanto universal. Todos los materiales lo disfrutan.. Los materiales diamagnéticos reducen el campo magnético en el interior del mismo. Esto hace que estos materiales sean repelidos por los imanes. La susceptibilidad magnética del hierro es de 720 Km-1 x 10-5, positivo y el más elevado, fuertemente ferromagnético; el bismuto tiene un valor de 26.6 Km-1 x 10-5; el grafito -1.6 Km-1 x 10-9 , el agua -0.91 Km-1 x 10-5 y el mercurio un relevante 2.9 Km-1 x 10-5, diamagnéticos. Recordemos el descubrimiento de mercurio líquido bajo una pirámide pre-azteca en Teotihuacan. Pudo cooperar en su construcción. No parece casual.
Pg. 12
Atanor
A. Requena
LEVITANDO A. REQUENA @ LA VERDAD, 2018 1
2
3
4
5
6 8
7
9
10
11
12
13 14 15
16
17
18 19
20
21
22
23
24
EclipseCrossword.com
Horizontales
23.
Premiado Ig Nobel en 1991 por una inimaginable persistencia en la defensa de algo indemostrable como la homeopatía.
24.
Si no aplicamos un campo magnético a un material, los espines de los electrones lo hacen y la magnetización es nula.
1.
Lo es el agua.
3.
Rasgo que distingue a los trenes de levitación magnética, junto a rapidez y suavidad.
6.
Tren de levitación magnética que utiliza imanes para la sustentación.
Verticales
9.
Galardonado tano por el Nobel, como por Ig Nobel.
2.
Instituidos para honrar logros que hacen a las personas reír y luego pensar.
10.
Para desplazar una material diamagnético sobre uno magnético, o viceversa, solamente hay que vencer el del aire, al compensar la gravedad.
3.
Son materiales diamagnméticos.
4.
En los materiales diamagnéticos se genera una fuerza capaz de hacerlo con la gravedad y suspenderlo en el aire.
11.
Los materiales diamagnéticos lo son por los imanes.
5.
14.
El mercurio líquido es diamagnético y se encontró bajo la pirámide situada allí
El efecto de la magnetización inducida lo es.
7.
16.
El de la rana también es diamagnético.
Galardones a los trabajos que más lo son a lo largo del año
18.
Tipo de materiales a los que confiere carácter atractivo al aplicar un campo magnético.
8.
Una de las áreas objeto de atención en los premios Ig Nobel.
12.
Tipo de materiales a los que confiere carácter repiulsivo al aplicar un campo magnético.
13.
Pais en que se han superado los 600 kilómetrospor hora en trayectos reales de tren de levitación magnética.
15.
Las hizo levitar André Geim.
17.
La fuerza que se se genera en un magterial diamagnético lo hace con respecto al campo magnético aplicado.
19.
Campo con el que se consiguió hacer levitar una rana.
20.
En las materuas diamagnéticas, el campo magnético se ve así por efecto de la magnetización inducida.
21.
Toda la materia es susceptible de verse afectada por él.
22.
Suelen arrancarlas los Ig Nobel.
TRAZO 1.4 TRAZO
La abundancia de las proteínas
Pg. 13
1.4
La abundancia de las proteínas.
Mayer, estudiante en la Universidad de Tübingen en Alemania, hijo del boticario de Heilbronn, organizó un movimiento estudiantil, calificado de subversivo y fue juzgado ante un tribunal presidido por el Rector, que actuaba en el paraninfo de la Universidad. El lema de la asociación era: libertad, honor y patria. Se negó a dar los nombres de sus compañeros, entendiendo que eso suponía delatarles. Había ido a estudiar medicina, pero no asistió casi a ninguna clase, aduciendo que no había mucho que oír en ellas. Se quejó amargamente de todos los profesores que se limitaban a enseñar lo que ellos habían aprendido hacía mucho, sin haber aportado nada nuevo. Ciertamente, en la época, siglo XIX, era corriente que las grandes aportaciones no provenían de profesores. Los descubridores de: la electrolisis, la máquina de vapor, el electromagnetismo o la locomotora no eran profesores. Ni Faraday, ni Davy ni Ritter lo eran. Los hombres de ciencia relevantes no habían estudiado, porque no tenían recursos para ello. Mayer decía que estudiaba observando y que esperaba llegar a saber algo, algún día. Este discurso fue interpretado por el tribunal como que no correspondía a una mentalidad sana. La conclusión fue una pena de reclusión durante una larga temporada y recibió el Consilium abeundi, que suponía un consejo coactivo para abandonar la Universidad. Una huelga de hambre hizo que el claustro lo liberara a los seis días.
Pg. 14
Atanor
A. Requena
En febrero de 1840 partía un buque de cuatro palos del puerto de Rotterdam con destino al puerto de Batavia. Fue un viaje lleno de experiencias para un neófito en los mares. Fue interrogado por el timonel, con el que hizo amistad, sobre sus sensaciones, cuando le dejaba las empuñaduras de la rueda del timón en sus manos, tras lo cual le demandó una explicación sobre las razones que justifican que el agua del mar sea más caliente cuando la mueve una tormenta. A Mayer le sorprendió la pregunta. Mientras los marinos lo conocían, él lo ignoraba completamente. Pensando que lo que es válido para lo grande, también debe serlo para lo pequeño, llenó una botella hasta la mitad, tomó la temperatura y después agitó durante cinco minutos y volvió a tomar la temperatura. La temperatura del agua había ascendido un par de grados. Esto le dio que pensar. Al poco, el barco arribo a la bahía de Batavia. Un par de marineros enfermaron, con síntomas de fiebre y problemas respiratorios. Mayer les practicó una sangría, como hacía habitualmente, haciendo manar una sangre casi negra, aunque de la vena salía una sangre clara de color rojo. Pensó que había pinchado una arteria, aunque no se trataba de eso. Le pasó lo mismo con otros enfermos. El color claro era de una sangre oxigenada, por tanto, no era sangre "gastada" la que detectaba. El cuerpo no necesitaba más oxígeno. La razón explicativa la encontró en que, en los trópicos, el ambiente absorbía menos calor que el aire frío en otras latitudes. Otros efectos derivados del ambiente eran menor apetito y algo más prosaico como que la caldera del buque precisaba menos carga de carbón. Experimentó lo que ocurría con unos marineros muy activos en la descarga del buque, que comían con buen apetito y abundantemente. La sangre también era negra. Logró una explicación: cuando el cuerpo efectuaba un mayor trabajo muscular, tenía que oxidar más alimento y como consecuencia consumía el oxígeno recibido. Era lo que le pasaba a la máquina de vapor del barco: cuando había que caldear más, era cuando la máqui-
TRAZO 1.4
La abundancia de las proteínas
Pg. 15
na tenía que efectuar mayor trabajo. Por tanto, el trabajo realizado dependía del calor aportado. El calor se transformaba, pues, en trabajo. De aquí dedujo que el calor era igual ("equivalente") al trabajo. Claro que, por la misma razón, el trabajo se debería convertir en calor. El mar removido era más caliente, según le indicó el timonel. Recordó que cuando era pequeño y jugaba con los amigos a bajar por las barandillas de las escaleras, los pantalones se le calentaban por el rozamiento. Claro que, esto implicaba que el rozamiento era trabajo. Así se justificaba que los indígenas encendieran el fuego frotando maderas. Cuando se danzaba se sudaba, al convertir el trabajo en calor. Fue entonces cuando sospechó que era improbable que se perdiera uno en otro, en cualquier proceso. La capacidad del pensamiento humano no tiene límites, ¡ menos mal ! Aunque muchos lo disimulen.
Pg. 16
Atanor
A. Requena
LA ABUNDANCIA DE LAS PROTEINAS A. REQUENA @ LA VERDAD, 2018 1
2
3
4
5 6
7
8
9
10
11
13
14
15
12
16
17
18 19
21
20
22
23
24 25
26
EclipseCrossword.com
Horizontales 1.
Las proteínas lo son en la alimentación, en especial en la etapa del crecimiento..
3.
Las proteínas funcionan como ellos en la defensa frente a las infecciones.
6.
Unas proteínas están presentes en una célula extraordinariamente abundantes y otras escasas, entre medio millón de copias y menos de éste número de moléculas por célula
7.
La mayoría de las proteínas que existen están presentes en una célula, como mínimo, en este número.
Verticales 2.
Junto a la estabilidad son las características más destacables de las proteínas.
4.
Los enlaces que unen los aminoácidos que forman las proteinas se denominan de esa forma.
5.
Es la que garantiza la función de las proteínas.
8.
Elemento químico que forma parte de las proteínas.
9.
Elemento químico que forma parte de las proteínas.
13.
Elemento químico que forma parte de las proteínas.
10.
18.
Las proteínas son unas moléculas formadas por ellos.
Elemento químico que forma parte de las proteínas.
11.
19.
Todos los procesos biológicos lo hacen con las proteinas.
Las proteínas lo hacen en mayor cuantía en nuestras células.
12.
21.
Elemento químico que forma parte de las proteínas.
Es una de las sustancias a través de la cual las proteínas intervienen en las funciones musculares.
22.
La conclusión de Ho es que hay alrededor de ellos de moléculas en una célula
14.
23.
No se conoce como se controla ella en el caso de las proteínas que hay en una célula.
Ella, junto con su composición química, establecen una amplia clasificación de las proteínas que caracterizan el papel que juegan en los organismos
15.
La solubilidad implica que tanto el pH del medio como la temperatura del medio es necesario que se encuentren en él.
16.
Tanto las de procedencia animal como vegetal aportan a través de ella las proteínas de origen externo.
17.
Conocer el número de proteínas que hay en una célula permite hacerlo con las raíces moleculares de la enfermedad.
20.
En ella se cifra en 42 millones el número de proteínas que hay.
24.
25.
26.
Es quien contiene contiene en los genes el código al que dan vida las proteínas que se construyen a partir del código genético. La participación de las proteínas en el peso de los tejidos del organismo es de este orden. Elemento químico que forma parte de las proteínas.
TRAZO 1.5 TRAZO
Tornado
acústico
Pg. 17
1.5
Tornado acústico.
Una descarga eléctrica, cámara de combustión o una boquilla que proyecta un chorro de tinta, entre otras técnicas, permiten romper gotas empleando un campo eléctrico. El mecanismo de su producción se conoce hace más de medio siglo, en que Taylor estudió el proceso de la fisión. Cuando se supera un cierto valor del campo, límite de Taylor, que depende inversamente del cuadrado del radio de las gotas, la repulsión culombiana supera las fuerzas intermoleculares atractivas que operan en la superficie de las gotas, provocando la ruptura de las mismas y la generación de un chorro de gotitas más pequeñas. Las propiedades macroscópicas son magnitudes promedio. La concentración, el pH o la densidad de carga no son uniformes en todo el sistema. La homogeneidad es un aspecto a cuidar para conseguir repetibilidad. Pero cuando un sistema de gotas se rompe en otras más pequeñas, aquéllas magnitudes pueden diferir apreciablemente. Se desconoce el mecanismo por el que las propiedades de las gotas originales pasan a las nuevas gotas, tanto si se trata de fluidos moleculares como de iónicos. La dinámica presenta una singularidad con un pico muy agudo que corresponde al instante en que tiene lugar la ruptura de las gotas. La técnica para producir los chorros de gotas es la ionización inducida por el campo eléctrico. Consiste en que una serie de gotas se dejan caer entre dos placas de un conden-
Pg. 18
Atanor
A. Requena
sador cargado. Conforme van cayendo, el campo eléctrico existente entre las placas del condensador polariza las gotas y toman forma de elipsoide que, dependiendo de la carga neta de la gota, genera chorros que apuntan a los electrodos. (placas). Se puede ajustar la intensidad del campo eléctrico y la carga neta y experimentar la dinámica de las gotas, pero solo durante los pocos milisegundos que permanecen entre las placas del condensador mientras caen. Aquí es donde tiene interés la propuesta de Warschat y Riedel de una técnica acústica que permite hacer levitar las gotitas en pleno vuelo electrificado. El levitador consiste en un campo de ultrasonidos de 40 kilohercios, que genera una presión vertical que se dirige entre los dos electrodos horizontales. Así se logra que una gota permanezca desde unos segundos hasta horas. La única limitación es la evaporación. Se puede completar el dispositivo con un espectrómetro de masas que puede capturar las gotitas producidas y analizar su composición. La opción de la levitación óptica, presenta la servidumbre del calentamiento, que no se da en la levitación acústica. Mientras la caída de las gotas es libre, los métodos electrodinámicos y los ópticos quedan restringidos a gotas con un diámetro de decenas de micra. Cuando una onda acústica de unos 40 kilohercios las hace levitar, las gotas son dos órdenes de magnitud mayor, hasta 5 milímetros. La baja proporción entre superficie y volumen de las gotas y una mínima evaporación hacen que las gotas mayores tengan una vida media mayor. La levitación acústica es una técnica con mucha utilidad en un laboratorio en el que se manejen líquidos. No permite suspender materiales como la levitación magnética, pero si líquidos para observación y análisis. No requiere un equipamiento sofisticado. El principio es el que opera cuando observamos un altavoz y percibimos los golpes de aire que acompasan el movimiento de las membranas que lo cubren y se mueven conforme recibe los impulsos generadores del
TRAZO 1.5
Tornado
acústico
Pg. 19
sonido. En un concierto, que suelen emplear altavoces con alto volumen, percibimos el empuje del aire que provocan y que son detectables a distancia notable. Ese mismo empuje, con el aire de mediador es el que permite lograr la levitación. Si se emplean ultrasonidos, no es necesario escuchar ni siquiera la composición musical para lograr la levitación. Con sensores de estacionamiento, controlador de un motor, un microcontrolador de placa como el Arduino y una pieza a medida, impresa en 3D, lo podemos construir. Se puede ver con detalle en la dirección: https://nmas1.org>news>2017/08/16/levitador Gotas de agua, granos de café y, hasta palillos de los dientes, ya han levitado. La levitación permite manejar objetos sin tocarlos. Promete en el campo de la microcirugía, ya que al flotar no se contamina del contacto con los tejidos. No presenta restricciones como la levitación magnética al aplicarse a materiales líquidos o sólidos. Son como tornados acústicos. Todas las líneas de producción susceptibles de evitar el contacto, son potencialmente beneficiarias. En el fondo, es una lucha contra la gravedad que nos atenaza y condiciona.
Pg. 20
Atanor
A. Requena
TORNADO ACÚSTICO A. REQUENA @ LA VERDAD, 2018 1
2
3
4
5
6 7
8
9
10 11
12 13 14 15 16
17
18 19
20
EclipseCrossword.com
Horizontales
Verticales
4.
Magnitud macroscópica que no es uniforme en todo el sistema
1.
5.
Es la única limitación en un levitador para que permanezcan las gotas en suspensión.
Es un aspecto a cuidar para conseguir repetibilidad.
2.
8.
En un levitador se logra que una gota permanezca desde unos segundos hasta varias de ellas.
COncluyó que la inestabilidad de una gota comienza cuando al aplicar un campo eléctrico, la longitud de aquélla llega a ser 1.9 su diametro ecuatorial.
11.
El levitador genera una presión vertical que se dirige entre los dos situados horizontalmente.
3.
Magnitud macroscópica que no es uniforme en todo el sistema
4.
Se desconoce el mecanismo por el que éstas pasan de las gotas originales pasan a las nuevas gotas
6.
Ajustando la intensidad del campo eléctrico y la carga neta se puede experimentar la correspondiente a las gotas.
7.
La dinámica la presenta, con un pico muy agudo que corresponde al instante en que tiene lugar la ruptura de las gotas.
9.
Una descarga de este tipo, entre otras técnicas, permite romper gotas.
10.
Las propiedades macroscópicas son magnitudes de este tipo.
13.
Conforme van cayendo, el campo eléctrico existente entre las placas de un condensador polariza las gotas y toman esta forma.
16.
En caída libre de las gotas el diámetro es de decenas de micra, mientras que cuando se aplica una onda acústica de unos 40 kilohercios las hace levitar, las gotas son estos órdenes de magnitud mayor, hasta 5 milímetros.
12.
Magnitud macroscópica que no es uniforme en todo el sistema
14.
Valor del campo eléctrico, que depende inversamente del cuadrado del radio de las gotas
15.
Tipo de repulsión que cuando supera las fuerzas intermoleculares atractivas que operan en la superficie de las gotas, se produce la ruptura de éstas.
17.
Cuando un sistema de gotas se rompe en otras más pequeñas, hay magnitudes que pueden hacerlo apreciablemente.
18.
El levitador consiste en un campo de ellos, de 40 kilohercios.
19.
La técnica para producir los chorros de gotas es de este tipo, inducida por el campo eléctrico
20.
La opción de la levitación óptica, presenta esta servidumbre, que no se da en la levitación acústica.
TRAZO 1.6 TRAZO
Mariposas
del
alma
Pg. 21
1.6
Mariposas del alma.
Santiago Ramón y Cajal es, seguramente, el científico de mayor entidad en España y uno de los más importantes de la Humanidad. Descubrió las neuronas. Les dotó de una componente artística a las que poéticamente denominó "mariposas del alma". Su impulso se ha mantenido a lo largo de las ocho décadas transcurridas desde su muerte. Hoy, la neurociencia es posiblemente la rama científica que concita al mayor número de investigadores. Pese a ello, los secretos del cerebro se resistan a ser. Los avances son lentos, habida cuenta las dificultades para estudiar el cerebro humano. Recientemente, se ha descubierto una parte del cerebro, desconocida hasta el presente, y se ha denominado escaramujo, como la rosa canina que es el fruto del rosal silvestre. Forma parte de las especies denominadas genéricamente "frutas del bosque". Lo curioso es, que su forma es la que parece reproducir la estructura neuronal. El avance que ahora se produce consiste en el descubrimiento de una serie de neuronas, que con una forma similar al escaramujo, controlan el flujo de información que va de unas zonas a otras del cerebro. Las dendritas se ramifican como simulando la configuración del escaramujo, con unos abombamientos finales del fruto y se asimilan a los de los finales de los axones, que liberan los neurotransmisores que alcanzan a otras neuronas, lo que supone una ramificación muy densa, como apunta Bakken en la publicación de Nature
Pg. 22
Atanor
A. Requena
Neuroscience, que fueron los que la bautizaron así. Han trabajado dos equipos independientes: uno norteamericano y otro húngaro, que, finalmente colaboraron. Uno de ellos trabajó sobre tejido postmortem y el otro sobre vivo, procedente de una extracción mediante cirugía cerebral. Están ubicadas en el neocórtex, que es la capa externa del cerebro y se desconoce su función. Aquí es donde se albergan y acumulan los recuerdos, habilidades, conocimientos y experiencias. La conciencia humana se configura aquí. Hay dos tipos de neuronas en el córtex, las denominadas excitadoras y las inhibidoras. Un armonioso equilibrio entre estos tipos es imprescindible para el correcto funcionamiento del córtex. El segundo tipo, el circuito inhibitorio, es el que se asigna al tipo de neuronas ahora descubiertas, el escaramujo, que está conectado a un tipo de neurona denominada piramidal, que introdujo Ramón y Cajal, que son excitatorias y vienen a representar la tercera parte del córtex y están implicadas en la planificación de comportamientos cognitivos complejos, como la personalidad, toma de decisiones, conducta social, así como adaptación a las circunstancias. Juegan un papel decisivo en las funciones cognitivas. La aportación de Cajal se incrementó considerablemente cuando conoció la reacción de Golgi que coloreaba las células cerebrales. Se forman depósitos opacos intracelulares, como consecuencia de la reacción entre el dicromato potásico y el nitrato de plata. El avance radicaba en que se podían observar los detalles de una neurona completa, sin la interferencia de las vecinas. Aquí nació la revolución de la neurociencia, de la mano de Cajal y su teoría de la neurona, como células individuales que reciben y envían información. El Premio Nobel de 1906, lo compartió con Golgi. La sorpresa del descubrimiento es que la neurociencia trabaja usualmente con ratones, que no tienen este tipo de neuronas. Cajal describió como fluía la información en el
TRAZO 1.6
Mariposas
del
almas
Pg. 23
cerebro, de forma direccional a través del espacio que mediaba entre ellas, a través de los axones y hacia las dendritas ramificadas. A estos espacios los llamó sinapsis aunque no los podía ver al microscopio. Le asignaba a estos espacios el lugar donde ocurría el pensamiento, el aprendizaje y los recuerdos. Hay que señalar que la teoría de la neurona de Cajal vino a sustituir la teoría reticular del cerebro (que apoyaba Golgi). Algunas neuronas piramidales como las que procesan las señales de los sentidos, la actividad motriz y controlan las actividades superiores, como la toma de decisiones, son tan grandes que no se precisa el microscopio para observarlas. Hay axones que llegan desde la médula hasta los dedos de los pies. Hoy sabemos que las sinapsis presentan plasticidad, con lo que se debilitan o refuerzan con su uso o falta de él. Así se explica la capacidad de aprender o de pensar. Hasta el presente, es Cajal el que describió cuanto de importante conocemos del cerebro. La microscopía electrónica refrendó las tesis de Cajal, frente a la reticular. Por ello un avance como éste, el del escaramujo, es prometedor. En algún momento daremos el salto cualitativo que estamos esperando. .
Pg. 24
Atanor
A. Requena
MARIPOSAS DEL ALMA A. REQUENA @ LA VERDAD, 2019 1
2 4
3
5
6 7 8
9
10
11
12 13
14
15 16
17
18
19 20
EclipseCrossword.com
Horizontales 4.
Algunos se extienden desde la médula hasta los dedos de los pies.
6.
La teoría de la neurona de Cajal vino a sustituir esta teoría del cerebro, que apoyaba Golgi.
10. En la teoría de la neurona de Cajal se les consideraba como celulas de este tipo que reciben y envían información. 12. Prestigioso premio internacional que compartieropn Cajal y Golgi en 1906. 14. El escaramujo controla el flujo de ella que va de unas partes a otras del cerebro. 15. En el córtex, lhay dos tipos de neuronas, as denominadas excitadoras y ellas. 16. Denominación de una parte del cerebro descubierta ahora y por analogía con la configuración del rosal silvestre. 17. Científico de los de mayor entidad en España y de los más importantes del mundo. 18. Se ramifican simulando la configuración del escaramujo. 19. En el final de los axones se liberan y alcanzan a otras neuronas. 20. A estos espacio, Cajal los llamó así, aunque no los podía ver al microscopio.
Verticales 1.
La neurociencia reúne al mayor número de ellos en la actualidad.
2.
Hoy sabemos que la sinapsis la presente, con lo que se debilitan o refuerzan con su uso o falta de él.
3.
Neurona propuesta por Cajal, implicada en la planificación de comportamientos cognitivos complejos.
5.
Número de décadas transcurridas desde su muerte.
7.
Cajal les llamó mariposas del alma.
8.
Algunas neuronas piramidales procesan las señalesque provienen de ellos.
9.
Reacción que colorea las células cerebrales y que permitió a Cajal incrementar su estudio sobre el cerebro.
11. Cajal describió como fluía la información en el cerebro de esta forma. 12. El avance radicaba en que se podían observar los detalles de una de ellas completa, sin la interferencia de las vecinas. 13. Capa externa del cerebro donde se albergan y acumulan los recuerdos, habilidades, conocimientos y experiencias.
TRAZO 1.7 TRAZO
Simetrías
en
formas
y
ñeyes
Pg. 25
1.7
Simetrías de formas y leyes.
La inmunidad al cambio con los desplazamientos, es la simetría traslacional. Permite que exista la Física. De esta forma, las leyes son de validez universal. Conocemos el Universo gracias a ello. Pero las leyes de la Física también son inmunes al cambio con la rotación. Significa que no hay direcciones privilegiadas. Obtenemos la misma conclusión cuando el experimento lo llevamos a cabo estando de pie o recostados, cuando medimos en la dirección hacia arriba o hacia abajo, mirando al norte o encarando el sur. Puede que esto no sea muy intuitivo, en especial cuando reparamos que todas las personas tienen clara la distinción entre arriba y abajo. Aristóteles pensaba que los cuerpos caen hacia abajo, porque la forma natural de estar los objetos es en la Tierra. Newton, en cambio, aclaró que arriba y abajo nos parecen diferentes, no debido a que las leyes físicas dependan de estas direcciones, sino porque nosotros percibimos que el empuje gravitacional es mayor en el sentido de la masa relativamente más grande, en este caso la de la Tierra, con respecto a nosotros. Estas situaciones suponen un cambio de entorno, pero no de ley. Tenemos suerte de que las simetrías de traslación y de rotación nos aseguran que, independientemente de donde nos encontremos en el espacio y de cómo estemos orientados, descubriremos las mismas leyes. Los griegos pensaban que las órbitas de los planetas eran circulares, porque la forma de la órbita era simétrica para una rotación de cualquier ángulo. Esto las situaba en la nómi-
Pg. 26
Atanor
A. Requena
na de la perfección. En cambio Newton, en su ley, consideró que era la gravitación sometida a rotación la que implicaba que cualquier orientación estaba permitida. Las órbitas no tenían por qué ser circulares. Podían serlo, pero, de hecho, resultaron ser elípticas. La simetría es una de las mejores claves para interpretar y llegar a conocer el diseño de la Naturaleza. Esta forma de ver las cosas nos convierte en una especie de "turistas" en un país extranjero, porque admiramos la simetría. Pero lo que hay que hacer es aprender a manejar su lenguaje, por ser la única forma de profundizar en ella. Cuando Newton formuló la Física Clásica, desarrolló el lenguaje matemático para .expresar y manipular su propuesta. Por ejemplo, el lenguaje subyacente en el mundo del arte abstracto es el color. La emoción y el significado no estaban en las formas, sino en los colores, que eran los elementos que comunicaban. El lenguaje de la simetría es la denominada teoría de grupos. Los grupos son conjuntos matemáticos cuyos elementos cumplen ciertas reglas con respecto a cierta operación: 1) hay una ley de composición interna, normalmente llamada multiplicación o suma; 2) ley asociativa; 3) existencia del elemento neutro ( 1 en la multiplicación y 0 en la suma) 4) Existencia del inverso ( simétrico).. Para ser grupo un conjunto, sus elementos tienen que cumplir éstas reglas que unifican todas las simetrías del mundo. La teoría de grupos explica por qué cuando hay varias transformaciones, como una rotación y una reflexión, se aplican sucesivamente. Puede ocurrir que tras estas operaciones el objeto quede en una posición indistinguible con la original. A transformaciones de este tipo se les denomina operaciones de simetría. Las moléculas se clasifican según su simetría. Se pueden conocer muchas propiedades de las moléculas simplemente con saber a qué grupo de simetría pertenece. Las leyes que gobiernan la Naturaleza se pueden deducir a partir de las simetrías observables.
TRAZO 1.7
Simetrías
en
formas
y
ñeyes
Pg. 27
El origen de la teoría de grupos se sitúa en los intentos de los matemáticos para resolver ecuaciones algebraicas de grado arbitrario, es decir, obtener las raíces de la ecuación. Los árabes y después los algebristas italianos llegaron a resolver las ecuaciones de grado dos, tres y cuatro. El matemático noruego Abel resolvió en 1824 la "quinta insoluble", basándose en las aportaciones del italiano Ruffini, concluyendo que no habían soluciones analíticas para grado superior a cinco. El francés Galois, creador de la teoría de grupos, demostró la imposibilidad de encontrar solución a ecuaciones de grado superior a cinco y explicó por qué tienen solución las ecuaciones de grado inferior a cinco. Fue rechazado en la famosa Escuela Politécnica de Paris y se matriculó en la Escuela Normal. Murió a los 20 años, como consecuencia de las heridas en el abdomen infringidas en un duelo. No fue reconocida su aportación hasta mucho tiempo después de muerto.
Pg. 28
Atanor
A. Requena
SIMETRIAS EN FORMAS Y LEYES A. REQUENA @ LA VERDAD, 2019 1
2
3
4 5
6
7
10
11
8
9
12 13
14
15
16
17
18 19
20
21
23
22
24
EclipseCrossword.com
Horizontales 1.
En cambio Newton, en su ley, consideró que esta magnitud sometida a rotación era la que implicaba que cualquier orientación estaba permitida.
24. Así resultaron ser las órbitas de los planetas.
Verticales 2.
La inmunidad al cambio con los desplazamientos, es esta simetría.
3.
Las moléculas lo hacen según su simetría.
4.
El lenguaje de la simetría es esta teoría.
5.
Filósofo griego que ya pensaba que los cuerpos caen hacia abajo de forma natural.
6.
Científico que aclaro que arriba y abajo nos aprecen diferentes porque las leyes físicas no dependen de la dirección sino porque percibimos un empuje mayor en el sentido de la masa realtiva mayor.
7.
La simetría es una de las mejores claves para interpretar y llegar a conocer su diseño.
19. Matemático noruego que resolvió en 1824 la quinta insoluble.
8.
Es el elemento neutro de la multiplicación.
20. Obtenemos la misma conclusión cuando el experimento lo llevamos a cabo estando de pie o de esta forma.
9.
Los griegos pensaban que las órbitas eran así.
10. Ley de composición que cumplen los elementos de un conjunto matemático que forma un grupo. 12. El origen de la teoría de grupos se sitúa en los intentos de los matemáticos para obtenerlas de una ecuación 13. La rotación y reflexión lo son de simetría. 16. Cuando Newton formuló la Física Clásica, desarrolló este lenguaje para .expresar y manipular su propuesta científica. 17. Las de rotación y traslación nos aseguran que independientemente de donde nos ecnontremos, las leyes son las mismas.
21. Es el elemento neutro de la suma. 22. Matemático francés, creador de la teoría de grupos. 23. Las leyes que gobiernan la Naturaleza se pueden deducir a partir de estas simetrías.
11. Las leyes físicas tienen esta validez. 14. Lenguaje subyacente en el mundo del arte abstracto. 15. Las leyes de la Física son también inmunes al combio con ella. 18. Las diferentes situaciones suponen un cambio de entorno, pero no de ella.
TRAZO 1.8 TRAZO
Visión
unificada
de
la
Ciencia
Pg.
1.8
Visión unificada de la Ciencia.
Todo parece indicar que las explicaciones sencillas son las mejor aceptadas.. La belleza de las teorías, en opinión de grandes líderes científicos es prevalente. Rara vez una bella teoría no ha superado la prueba de la falsación. Hay muchos ejemplos.. Einstein y Dirac eran firmes partidarios de esta posición. El principio de parsimonia, de economía o más conocido como la navaja de Ockham, establece, como principio metodológico y filosófico que, en igualdad de condiciones, la explicación más sencilla suele ser la más probable. No es un principio que actúe como árbitro, pero sí se le otorga el papel de guía para valorar los modelos teóricos. Añade como apéndice que pudiera ser la propuesta más probable, pero no necesariamente la más certera. Las evidencias son las que, finalmente, deciden. Lo que, en todo caso, resulta muy común es buscar en los desarrollos científicos sencillez, simplicidad conceptual. La unicidad de las teorías descarta los dualismos. La primera unificación vino de la mano del trabajo de Maxwell con los campos eléctricos y magnéticos. El campo llenaba todo el espacio y se concebía como un todo continuo. La dualidad volvía a aparecer de nuevo al considerar los átomos gobernados por las leyes de la mecánica de Newton. Por pequeños que fueren, eran entidades limitadas espacialmente, por tanto, entidades discretas, no continuas, como se describiría por un campo clásico. Luz y materia no estaban en pie de igualdad. Era fascinante y se ha mantenido como tal durante
Pg. 30
Atanor
A. Requena
mucho tiempo, no sólo en el ámbito científico, sino en el artístico y el filosófico. Era necesario encontrar una teoría unificada. fotones, átomos, electrones y todas las partículas conocidas quedaban descritas por las mismas estructuras matemáticas. Todas eran partículas, porque eran discretas y sus propiedades eran reproducibles. Pero en Mecánica Cuántica las partículas no tienen, no pueden tener, una posición definida en el espacio, sino que lo único que podemos obtener es una distribución de probabilidad, y esa distribución de probabilidad la contiene el cuadrado de lo que se denomina la función de onda, que no es otra cosa que el campo que llena todo el espacio. Las partículas cuánticas son muy distintas de las partículas clásicas, hasta el punto que no debieran llamarse igual. La unificación cuántica de la radiación y la materia es limitada. Cuando se consideran conjuntos de partículas idénticas y se estudia su comportamiento vuelve a aparecer el dualismo. Aparece una división en el mundo de las partículas: los bosones y los fermiones. Los primeros denominados en honor de Bose y los segundos en honor de Fermi. Todas las partículas cuánticas son de uno u otro tipo. Pero las interacciones entre ellos son muy distintas. Los bosones presentan "conductas socializadas", les gusta comportarse todos del mismo modo. Técnicamente considerado, los bosones idénticos son los que más probabilidad tienen para ocupar el mismo estado cuántico. Gracias a esta característica los láseres pueden existir como haces de radiación que son fotones de la misma longitud de onda, con igual dirección y producidos mediante emisión estimulada. Los fermiones, son mucho más "individualistas", pues no pueden ocupar más de dos el mismo estado cuántico, como dictamina el principio de exclusión de Pauli. Los electrones son fermiones y es la clave de que exista la Tabla Periódica. Como están cargados negativamente resultan atraídos por las cargas positivas de los núcleos, pero entre ellos se evitan mediante un mecanismo eficiente y simple, coexistiendo muchos de ellos en torno a los núcleos. De
TRAZO 1.8
Visión
unificada
de
la
Ciencia
Pg.
esta forma se construyen las configuraciones que convierten a la Química en un ámbito de máximo interés. Estos dos reinos se pueden unificar en la supersimetría, en la que cada partícula cuántica tiene un "supersocio" en el reino opuesto. El del bosón es el fermión y viceversa. Los "supersocios" tienen la misma carga eléctrica y otras propiedades, y difieren en la masa y en el espín. Es una teoría lógica y una especie de extensión de la Física conocida. No hay una evidencia directa todavía de su existencia. El trabajo de los colisionadores de hadrones se está ocupando de ello en estos momentos.
Pg. 32
Atanor
A. Requena
VISIÓN UNIFICADA DE LA CIENCIA A. REQUENA @ LA VERDAD, 2019 1
2
3 4 5 6 7
8
9
10 11
12 13 14 15
16
17
18
19 20 21 22
23
EclipseCrossword.com
Horizontales
23. Formuló el principio de exclusión, que lleva su nombre.
3.
Bosones y fermiones se pueden unificar en ella.
Verticales
4.
En honor a él, se denominaron fermiones.
1.
5.
Son las que, finalmente, deciden.
8.
Rara vez una bella teoría no ha superado esta prueba.
Técnicamente considerado, los bosones idénticos son los que más probabilidad tienen para ocupar el mismo.
2.
9.
Son la clave de que exista la Tabla Periódica.
Pero en Mecánica Cuántica ellas no tienen, no pueden tener, una posición definida en el espacio.
5.
No la hay todavía para la supersimetría.
6.
La primera unificación vino de la mano de su trabajo con los campos eléctricos y magnéticos
7.
La unicidad de las teorías los descarta.
12. El campo lo llenaba todo él y se concebía como un todo continuo 13. Los fermiones, lo son mucho, pues no pueden ocupar más de dos el mismo estado cuántico. 15. Resulta muy común buscarla en los desarrollos científicos. 17. La dualidad volvía a aparecer de nuevo al considerar los átomos gobernados por las leyes de su mecánica. 18. El principio de parsimonia, de economía o más conocido con esta denominación. 20. El del bosón es el fermión y viceversa. 21. Todo parece indicar que las explicaciones sencillas lo son. 22. En igualdad de condiciones, la explicación más sencilla suele serlo.
10. Estas partículas son muy distintas de las partículas clásicas, hasta el punto que no debieran llamarse igual. 11. Una división en el mundo de las partículas los sitúa como alternativa a los fermiones. 14. La de las teorías, en opinión de grandes líderes científicos es prevalente. 16. La función de onda, que no es otra cosa que él, que llena.todo el espacio. 19. Los bosones se denominaron así en honor a él.
TRAZO 1.9 TRAZO
Pudo ser antes
Pg. 33
1.9
Pudo ser antes
Para algunos la música no tiene significado y para otros hay que encontrarlo en su interior o en el exterior. Probablemente, se comprende mejor la cuestión si la abordamos desde el análogo lenguaje humano. Según Igoa, en el ámbito lingüístico identificamos los niveles referencial, predicativo, actitudes proposicionales y autorreferencial. El referencial se concreta en la relación entre el lenguaje y el mundo; en el predicativo, el lenguaje refiere las cosas, bien objetos o eventos; según el de actitudes proposicionales se expresan y comparten estados mentales de los interlocutores, exigiendo capacidad de pensar sobre nuestros propios pensamientos y las creencias son objeto de reflexión y, finalmente, el autorreferencial o matalingüistico expresa juicios sobre sí mismo, siendo una versión del predicativo. En el ámbito musical no podemos hablar de relación entre predicado y argumentos, puesto que no ha lugar al no haber distinción entre conceptos musicales. La música no parece diseñada para "decir cosas acerca de las cosas". En esta tesitura, no podrá decir cosas acerca de sí misma. La precisión y complejidad que hay que manejar le alejan de ello, incluso en la música más figurativa o programática. Esto no excluye que la música pueda expresar significados comparables al lenguaje en el ámbito de la representación icónica de objetos y eventos y en la evocación y transmisión de sentimientos y emociones. La música, se acepta, que es el lenguaje de las emociones.
Pg. 34
Atanor
A. Requena
La música es capaz de evocar cosas si categorizamos como tales la imitación de sonidos, reproducción de patrones de movimiento corporal o sensaciones, aunque no correspondan a objetos. Aquí podemos encajar la inducción de la música a estados emocionales básicos, como ocurre en la excitación, relajación, tristeza o alegría. Tampoco cabe duda de que la música es una inductora privilegiada de actividades sociales y marcos culturales. Reconocemos músicas apropiadas a ámbitos militares, religiosos, campestres, de terror y un largo etcétera. No excluyendo ni el carácter nacional, ni étnico, ni de pasión deportiva entre otras. Seguramente, las versiones emocionales tengan una base biológica y puedan ser universales, mientras que las promotoras de actividades sociales o culturales, hunden sus raíces en orígenes culturales. Música y lenguaje difieren en que la música expresa las emociones, pero no las representa. El matiz es, por tanto, que la música expresa cualidades emocionales, pero no sentimientos, puesto que las primeras suponen reacciones fisiológicas primarias y estados mentales, mientras que los segundos suponen una interpretación conceptual de las emociones, acto reflexivo o metacognitivo. Esto no es óbice para que se pueda afirmar que la música transmite sentimientos humanos que difícilmente pueden ser expresados mediante palabras. La música tiene un significado referencial muy limitado y es difícil, tanto su capacidad de articular predicados como su capacidad de expresar actitudes proposicionales. Esto deriva del hecho de que el significado musical no es composicional, porque no es función del significado de sus partes y la forma de combinarlas. El significado de un pasaje o una obra musical es global o sintético y no se puede descomponer en unidades que lo integren, como ocurre con las oraciones lingüísticas.
TRAZO 1.9
Pudo ser antes
Pg. 35
Vemos argumentos, tanto a favor del significado en la música como en contra del mismo. La alternativa pudiera ser que el significado de la música está en su interior. Es factible que el sentido de la música descanse en comprender, aunque sea intuitivamente, la estructura rítmica, melódica y armónica que permitan apreciar relaciones entre elementos estructurales como los motivos, las frases y partes de la misma, así como el desarrollo en el tiempo. Es posible, por tanto, proyectar el desarrollo de una obra y experimentar emociones, suscitadas por estados de tensión y relajación, los primeros que rompen las expectativas y los segundos que restablecen el equilibrio. En el lenguaje se da algo similar en la componente estética de la literatura Estructuralmente música y lenguaje utilizan la recursividad y tienen capacidad de generar innumerables combinaciones a partir de un conjunto finito de elementos (alfabeto y notas musicales). Solamente el lenguaje alberga significados composicionales. La música expresa emociones y sentimientos y puede ser más expresiva que el lenguaje, que gracias a su composicionalidad tiene capacidad de expresar estructuras proposicionales y transmitir estados y contenidos mentales dotados de referencia. En suma, similitudes y diferencias. En el Universo fue antes la música, en la sopa primordial que hoy recibimos en la radiación de fondo del Universo. En los humanos, primero fue la palabra.
Pg. 36
Atanor
A. Requena
PUDO SER ANTES A. REQUENA @ LA VERDAD, 2019 1
2
3
4 6
5
7
8
9 10
11
12
13
14
15 16
17
18
EclipseCrossword.com
2.
La promoción de actividades sociales o culturales, hunde sus raíces en orígenes de este tipo.
3.
La música, se acepta, que es el lenguaje de ellas.
4.
Nivel identificado en el ámbito lingüístico.
10. Música y lenguaje difieren en que la música expresa las emociones, pero no puede hacerlo de esta forma.
5.
Según el nivel de actitudes proposicionales se expresan y comparten estados mentales de ellos.
14. Su significado ha recibido atención desde varios puntos de vista.
6.
Nivel identificado en el ámbito lingüístico.
15. El nivel autorreferencial o matalingüistico expresa juicios sobre sí mismo, siendolo tal del predicativo.
9.
En el ámbito musical no podemos hablar de relación entre predicado y ellos.
17. Nivel identificado en el ámbito lingüístico.
11. La música induce a estados emocionales básicos, como ocurre con ella.
Horizontales 7.
El nivel referencial se concreta en la relación entre el lenguaje y él.
8.
Probablemente, se comprende mejor su significado si lo abordamos desde este análogo lenguaje.
18. No cabe duda de que la música es una inductora privilegiada de actividades de este tipo
Verticales 1.
Nivel identificado en el ámbito lingüístico.
12. Para algunos no lo tiene y para otros hay que encontrarlo en su interior o en el exterior. 13. Seguramente, las versiones emocionales tienen una base de este tipo y puedan ser universales. 16. En el nivel predicativo, el lenguaje las refiere.
TRAZO 1.10 TRAZO
Mensajes
desde
el
vacío
Pg. 37
1.10
Mensajes desde el vacío.
En el ámbito de la Física, en tiempos de Newton se confundían nada y vacío. Se formuló, posteriormente la teoría del éter al que se atribuían las propiedades materiales que permitían la propagación de las ondas luminosas en el vacío. Newton propuso que la luz estaba constituida por corpúsculos, pero había que dar explicación a experimentos en los que la luz se comportaba como una onda, como los famosos de la doble rendija. El experimento de Michelson y Morley desmontó la propuesta del éter y se tuvo que volver a la idea de que el vacío realmente no contenía nada. Pero avanzando el tiempo, Heisemberg, formuló su principio de Indeterminación y en el entorno cuántico había que reinterpretar el vacío. No podía ser la nada, dado que la Cuántica suponía que el espacio estaba lleno de partículas virtuales. Veamos con más detalle la cuestión Incluso no habiendo ni materia ni radiación, el espaciotiempo atribuye una estructura compleja al vacío, en la que, amparado en el principio de incertidumbre, no podemos determinar con la precisión que queramos las magnitudes físicas, como la energía. En el espacio vacío, hay, permanentemente, fluctuaciones de los distintos campos de energía presentes en el Universo, entre los que están los eléctricos y magnéticos. Así pues, el vacío no es estático, sino dinámico. Tanto espacio como tiempo son, existen, están y se pueden detectar, por tanto.
Pg. 38
Atanor
A. Requena
Recientemente, investigadores de la Universidad de Illinois, Su y Grobe, han dado con la forma de utilizar la estructura interna del vacío, para servir de soporte para transmitir información. Su formulación es exclusivamente teórica. La propuesta consiste en no emplear ningún portador, ni partícula ni fotón, ya que si no fuera así, se trataría de una especie de comunicación inalámbrica, similar a la telefónica. Se trata de no utilizar ni materia ni energía para la comunicación. Para ello se recurre al efecto Schwinger, que es una de las propiedades genuinas del vacío, descrita por Julian Schwinger. El efecto fue anticipado por Sauter y estudiado por Heisemberg y Euler. Se basa en las características del vacío cuántico. Si aplicamos un campo electromagnético suficientemente intenso es posible hacer aparecer pares de partícula-antipartícula. Es decir, situamos en el vacío un par de placas y las conectamos a una pila y este dispositivo, que no es más que un condensador, generará un campo eléctrico entre las placas, cuyo valor dependerá de la diferencia de potencial aplicada entre las placas y la distancia entre ellas. Resulta que, para que en el vacío cuántico se respete el principio de indeterminación tienen que haber continuamente fluctuaciones. Es decir, el vacío es un estado de mínima energía, pero ese valor nulo tiene que satisfacer el principio de Heisemberg que obliga a que ese estado no pueda tener una energía totalmente definida en cualquier instante de tiempo. Siempre que se considere un tiempo de vida menor que el necesario para medir la energía, el sistema tendrá fluctuaciones para que el producto de la indeterminación de la energía por la indeterminación del tiempo, sean del orden de la constante de Planck, como establece el principio de indeterminación. Estas fluctuaciones son análogas a la aparición de pares de partícula-antipartícula, virtuales, emitidas y absorbidas en un tiempo muy breve, tanto menor cuanto mayor sea la energía empleada en producir las partículas en el vacío. Las partículas virtuales no son observables, en cierto sentido no son reales. Lo que hace el campo eléctrico al apli-
TRAZO 1.10
Mensajes
desde
el
vacío
Pg. 39
carlo es suministrar energía al vacío para que las partículas adquieran masa y puedan existir, con lo que se requiere la cantidad que propone la teoría de la relatividad, como mínimo, 2 me c2. Su y Grobe propusieron aplicar un campo eléctrico débil al vacío, lo que crearía ondulaciones en la estructura del vacío, que se propagarían al exterior. Sobre estas ondulaciones aplicamos un campo electromagnético fuerte y veríamos que la distribución de energía de la corriente de electrones y positrones cambiaría en función del tamaño de las ondulaciones. Es decir, que al ajustar el campo débil para cambiar el tamaño de las ondulaciones, es posible utilizar la estructura misma del vacío para enviar mensajes. La distribución de energía de cada partícula se puede correlacionar con una magnitud particular de una ondulación y la asignamos una letra. El vacío se puede manipular. Se precisa un láser suficientemente potente para crear mensajes de la nada y arrancar materia del tejido mismo del vacío.
Pg. 40
Atanor
A. Requena
MENSAJES DESDE EL VACÍO A. REQUENA @ LA VERDAD, 2019 1
2 6
3
4
5
7
8
9 10
11
12 13
14
15
16
17
18
EclipseCrossword.com
Horizontales 3.
7.
Su y Grobe recurren para transmitir información desde el vacío, al efecto que lleva su nombre, que es una de las propiedades genuinas del vacío. Si aplicamos un campo electromagnético suficientemente intenso es posible que partícula-antipartícula aparezcan así.
11. Su y Grobe, han dado con la forma de utilizar la estructura interna del vacío, para servir de soporte para transmitirla. 12. Había que dar explicación a experimentos en los que la luz se comportaba como una de ellas, como los famosos de la doble rendija. 13. El vacío es un estado con esta energía. 14. El vacío no es estático, si de este tipo. 15. Incluso no habiendo ni materia ni radiación, el espacio-tiempo atribuye una estructura de este tipo al vacío 16. El vacío no podía ser la nada, dado que la Cuántica suponía que el espacio estaba lleno de estas partículas. 17. Siempre que se considere un tiempo de vida así con respecto al necesario para medir la energía, el sistema tendrá fluctuaciones.
18. Estas fluctuaciones lo son con respecto a la aparición de pares de partícula-antipartícula
Verticales 1.
Su experimento de Morley con él, desmontó la propuesta del éter y el vacío realmente no contenía nada.
2.
Su y Grobe proponen no utilizar ni ella, ni energía para la comunicación
4.
Newton propuso que la luz estaba constituida por ellos.
5.
Para que en el vacío cuántico se respete este principio, tienen que haber continuamente fluctuaciones.
6.
En el espacio vacío, las hay, permanentemente, para los campos de energía presentes en el Universo.
8.
El estado de mínima energía no pueda tener una energía totalmente así en cualquier instante de tiempo.
9.
Formuló el principio de Indeterminación.
10. Según el principio de incertidumbre, no la podemos determinar con cualquier precisión. 16. En el ámbito de la Física, en tiempos de Newton se confundía la nada con él.
TRAZO 1.11 TRAZO
Copernicus
Pg. 41
1.11
Copernicus.
El programa Copernicus es el esfuerzo de la Unión Europea para estudiar y analizar el Medio Ambiente y muchos ecosistemas, tratando de preparar y proteger a sus ciudadanos de crisis, desastres naturales e, incluso, catástrofes causadas por el hombre. Hay mucho esfuerzo de investigación y desarrollo tecnológico por parte de la Unión Europea, y una amplia cooperación en investigación espacial y desarrollo industrial. Es un programa público que ofrece de forma abierta y gratuita, a nivel de autoridades, científicos, empresas y ciudadanos, información y conocimiento sobre nuestro planeta. Su ámbito es multidisciplinar y abarca desde información geográfica, hasta medioambiental: monitoriza el hielo marino del Ártico, detecta vertidos de petróleo, incluye la vigilancia climática, el desarrollo sostenible, el transporte y la movilidad, la planificación regional y local, la vigilancia marítima, la agricultura y la salud. La denominación de Copernicus, es en honor del gran científico y observador Nicolás Copérnico, que formuló la teoría heliocéntrica del Universo, siendo uno de los precursores de la Ciencia Moderna. Supuso, para el mundo, una mejor comprensión de la vida misma. Los servicios de Copernicus se fundamentan en las observaciones que realizan sus Sentinels, constelación de satélites que complementan la información de decenas de
Pg. 42
Atanor
A. Requena
otros que observan la Tierra y otras informaciones procedentes de mediciones procedentes de sensores locales. La información es gratuita y es una forma de contribuir significativamente al desarrollo de aplicaciones y servicios innovadores. Las actividades económicas, culturales y de ocio derivadas no se han hecho esperar, desde la planificación urbana a la arqueología, navegación, sectores como el de los seguros, etc. Marca una nueva era y las aplicaciones emergen constantemente, desde una perspectiva de abordar retos sociales clave. El programa Copernicus tiene familias de satélites dedicados a la exploración, denominados "Sentinels". Sentinel 1, 2, 3 y 6 están dedicados a observación, mientras que Sentinel 4 y 5 portan instrumentos al servicio de la observación del tiempo, EUMETSAT. El Sentinel 5P es precursor del Sentinel 5, también está incluido en los dedicados a la observación. La Agencia Espacial Europea es la responsable del desarrollo del denominado segmento espacial del programa Copernicus y es quien opera los Sentinel 1,2 y 5P. EUMETSAT es quien opera el Sentinel 3 y controla la misión marina y opera los productos que aborda Sentinel 4 y 5 y sus instrumentos y los satélites Sentinel 6. ESA y EUMETSAT coordinan la distribución de datos de unos 30 satélites que conforman las misiones participantes. Además, hay un denominado "segmento Tierra", que proporciona acceso a Sentinel y a los datos de las misiones participantes. Está distribuido geográficamente en infraestructuras apropiadas, que están gestionadas por ESA y EUMETSAT, así como miembros de los distintos países y entidades privadas que participan. Precisamente, el Sentinel 5P, que incorpora un sensor denominado Tropomi, detecta la huella digital de los gases atmosféricos con una precisión y resolución espacial sin parangón y ha proporcionado recientemente los datos de las zonas de acumulación de NO2, procedentes del tráfico y procesos industriales.
TRAZO 1.11
Copernicus
Pg. 43
En el estudio Las perspectivas del Medio Ambiente Mundial, la ONU previene de hasta qué punto la protección del mismo es cuestión de vida o muerte. Advierte de que, actualmente, existiendo tecnología para evitar los riesgos, falta la voluntad política para implementarlos. Un modelo saludable para 2050, exige plantear un cambio de modelo de cero residuos, de acuerdo con los objetivos del Acuerdo de Paris. Requiere una inversión verde equivalente al 2% del PIB, con lo que se mantendría el ritmo de crecimiento actual, pero con menor impacto en el cambio climático, escasez de agua y pérdida de ecosistemas. Ojo, pero no solo hay tareas para las administraciones, sino a nivel individual, como disminuir el consumo de carne y reducir los desperdicios de la comida. Al ritmo actual hay que incrementar en un 50% la producción de alimentos para albergar los habitantes del 2050. Hay que acabar con los 8 millones de toneladas de plásticos que anualmente alcanzan los océanos. La contaminación del aire incide en la enfermedad y muerte prematura, provocando entre 6 y 7 millones de muertes anuales y pérdidas de 50.000 millones de euros. En 2016 el 95% de la población habitaba zonas con niveles de exposición de partículas finas por encima de lo admisible. El NO2 y el O3 troposférico son los más perjudiciales. La contaminación por NO2 proviene del tráfico y procesos industriales, provoca irritación de los pulmones y genera problemas respiratorios.
Pg. 44
Atanor
A. Requena
COPÉRNICUS
A. REQUENA @ LA VERDAD, 2019 1
2
3
4
5
6
7
8 10
11
9
12
13
14
15 16
17 18 19
20
EclipseCrossword.com
Horizontales
3.
Según la ONU, la protección del NO2 es una cuestión de este tipo.
1.
Los servicios de Copernicus se fundamentan en las observaciones que realiza esta constelación de satélites.
4.
EL programa Copernicus monitoriza su hielo marino.
5.
El programa Copernicus trata de protegerlos de crisis, desastres naturales e, incluso, catástrofes causadas por el hombre.
6.
La denominación del programa Copernicus, es en honor de éste gran científico y observador.
7.
El Sentinel 5P ha proporcionado recientemente los datos de las estas zonas para el NO2.
8.
Se requiere una inversión de este tipo equivalente al 2% del PIB, con lo que se mantendría el ritmo de crecimiento actual.
9.
Sensor que incorpora el Sentinel 5P que detecta la huella de los gases atmosféricos.
12. Su ámbito es multidisciplinar y abarca desde esta información hasta la medioambiental. 14. Desde los satélites de observación del programa Copernicus se detectan los vértidos de este producto. 16. Programa europeo para estudiar y analizar el Medio Ambiente 18. Un modelo saludable para 2050, exige plantear un cambio de modelo de este tipo. 19. El sistema de información del programa Copernicus incluye, también, informaciones procedentes de mediciones de ellos. 20. Los satélites Sentinel 1, 2, 3 y 6 están dedicados a ella.
Verticales 2.
Los satélites Sentinel 4 y 5 los portan para el servicio
10. El programa Copernicus lo es y ofrece de forma abierta y gratuita 11. Este segmento proporciona acceso a Sentinel y a los datos de las misiones participantes. 13. La información que proporciona el programa Copernicus, lo es. 15. La Agencia Espacial Europea es la responsable del desarrollo del denominado espacial. 17. Su contaminación en la atmósfera, procede del tráfico y de los procesos industriales.
TRAZO 1.12 TRAZO
Copias
casi
perfectas
Pg. 45
1.12
COPIAS CASI PERFECTAS.
Con harta frecuencia se nos presentan logros descontextualizados en tiempo y espacio, de forma que no apreciamos ni la génesis, ni la importancia de la aportación, ni siquiera el avance que han supuesto. Suele quedar, nada más, el hecho y, con suerte, la persona que lo propició. Así, la aportación de Einstein a la Ciencia, que resultó ser de una profundidad extraordinaria, se descontextualiza del ámbito en el que se desenvolvía la Ciencia de la segunda mitad del siglo XIX, desde que Riemann dio lectura a su lección para incorporarse como profesor en la Universidad de Gotinga, bajo la atenta mirada de Gauss. Abordó las geometrías no euclídeas, que posteriormente valieron para que Einstein adoptara este avance para impulsar su Teoría de la Relatividad, primero especial, en 1905 y, posteriormente, general, en 1915, pero en el ambiente gestado, al haberse ido acumulando problemas que no tenían interpretación en la Física Clásica formulada por Newton, doscientos años antes e incapaz de dar una explicación cabal a los experimentos acumulados a final del siglo XIX, relacionados con la radiación y la temperatura a la que se producía. Planck propuso, inteligentemente, una solución para describir el comportamiento de la radiación con la temperatura, que soslayara problemas fenomenales, como la que dio en denominarse catástrofe ultravioleta, que predecía un crecimiento sin límite de la energía de la radiación con la temperatura, lo que suponía la potencial desaparición del mundo conocido. La genial idea de Planck, consintió en avanzar, sin ser muy partidario de ello, la necesidad de que la
Pg. 46
Atanor
A. Requena
energía de los cuerpos está cuantizada. Ha sido una de las ideas más fértiles que la Ciencia ha sido capaz de introducir. Es fenomenal el grado de convicción científica que hay que tener para aceptar una idea contraintuitiva, es decir, que aparentemente contradice todo cuanto se sabía o se creía saber. Planck fue un creyente, porque él mismo dudaba de la veracidad de su propuesta, pese a que no encontraba otra forma de conciliar los datos con una explicación razonable que los justificara. Einstein, no creyó y se mantuvo intelectualmente en contra de la cuantización, hasta el final de sus días. Pero el contexto en el que se desenvolvió fue ese. No se dio que, un buen día se levantara inspirado e iluminado y construyera la Teoría de la Relatividad. Fue un proceso de maduración científico en el que intervinieron muchos, en el que se aportaron muchas ideas y que, poco a poco, con la parsimonia propia de la Ciencia, fue gestando la mayor revolución científica conocida. Todo comenzó a mediados del siglo XIX. Algo parecido ocurrió con Leonardo da Vinci. Leonardo fue inventor, ingeniero, humanista, arquitecto, anatomista, pintor, escultor y un largo etcétera. Una de sus aplicaciones más referidas es la máquina voladora. Se suelen relatar sus intentos de volar, no exentos de vis cómica, por cierto, Pero nada se dice sobre las razones que le impulsaban a ello. Se presenta como si fuera un especial empeño sin conocer cómo emerge tal cosa. De nuevo el contexto se omite y se advierte una especie de rareza genial que, en el mejor de los casos, derivaría de la contemplación del vuelo de las aves que le empujaban a intentarlo. No se trata de perder el componente romántico de tal aventura, pero sí de poder entender más razonablemente de qué se trata. En 1469 Leonardo se traslada de su ciudad natal, Vinci, a Florencia y frecuenta el taller de Verrochio, donde se pintaba, se esculpía y se componían aparatos y artilugios para representaciones y espectáculos públicos, bien religiosos o profanos, con los que se culminaban las celebraciones. Hay constancia, de que, en 1439, Abraham, obispo de Rusia, describió que en la representa-
TRAZO 1.12
Copias
casi
perfectas
Pg. 47
ción de la Ascensión, en un momento dado, "el cielo se abría y se veía al padre celestial suspendido en el aire, mientras que quien representaba a Jesús, parecía ascender por el mismo a una gran altura". Asistió, también a la representación de la Anunciación y observó que "un ángel al ascender, lanzaba voces de júbilo, agitaba las manos y movía las alas como si volase realmente". Ángeles, aparatos para simular ascensos verticales y vuelos, movidos por cuerdas y máquinas. Es este el ambiente que vive el joven Leonardo, de donde, más que probablemente, surgió la idea de construir una máquina voladora que imitara a los pájaros. ¡Cuán importante es el contexto para entender muchas cosas! ¡definitivo!
Pg. 48
Atanor
A. Requena
COPIAS CASI PERFECTAS A. REQUENA @ LA VERDAD, 2019 1 2
3
4
5
6 7
8
9 10 11 12 13
14
EclipseCrossword.com
Horizontales 3.
En la transcripción se hace esto con el negativo o complementario del formato positivo del ADN.
7.
Cuando es entre bases Watson y Crick lo describieron con este concepto.
9.
Hay unos 3.200 millones de pares de bases repartidos en este número de cromosomas.
11. El proceso se conoce con esta denominación y forma parte de la epigenética, que es como una especie de supercódigo por encima de la secuencia de las bases que silencia ciertos genes que no son necesarios.
2.
Una muy útil es pensar en el ADN como si fuera los libros en las estanterías de una librería.
4.
Las hay que llevan a cabo las funciones necesarias para reestructurar los cromosomas para proporcionar acceso a las partes que en cada caso son objetivo de implicación en el proceso genómico concreto.
5.
La compacidad que alcanza la molécula de ADN es extraordinaria gracias a la que hay entre ciertas conexiones entre bases.
6.
Una vez que encontremos el punto de comienzo de un gen, estamos en condiciones de transcribirla y fabricar el RNA.
8.
La incógnita es el mecanismo por el cual éste, extendido, en forma de hélice se dispone para que se pueda leer una secuencia del genoma enterrada.
12. Esta molécula es enormemente larga. 13. La longitud del ADN contenido en una célula se estima en esta cantidad de metros. 14. Las dos tiras del ADN, soportan dos códigos genéticos y dos versiones de este tipo.
Verticales 1.
En ella se copia el negativo o complementario del formato positivo del ADN.
10. Un carbono en forma de este grupo, que añadido a la citosina perturba muy ligeramente la estructura del ADN, permitirá que las proteínas que buscan a lo largo del ADN, lo localicen como una parte diferente.
TRAZO 1.13 TRAZO
Salvavidas
del
genoma
Pg. 49
1.13
Salvavidas del genoma.
Ciertamente, uno de los objetivos del proyecto genoma humano es identificar las sutilezas de las diferencias entre las distintas personas y la relación que pueda haber de aquéllas con la enfermedad. Los errores cometidos por las polimerasas solo dan cuenta de algunos cambios o mutaciones observadas en el genoma. Hay casos en que las polimerasas no tienen elección para decidir qué base hay que insertar porque, por ejemplo, el patrón de referencia se ha dañado o es irreconocible. El estrés oxidativo es un ejemplo excelente para esta reflexión. Los radicales libres, generados en la respiración y el metabolismo atacan a las bases del ADN. La base más susceptible a la oxidación es la Guanina, para dar como producto preferente de la misma, la 8-oxoguanosina (OG). No parece probable que esto altere el apareamiento con la base complementaria, la citosina (C) pero, durante la replicación, puede dar una vuelta y presentar una serie de átomos para participar en el enlace de hidrógeno, de forma que, la base complementaria no sería la Citosina, sino la adenosina (A). Si la hebra que contiene la adenosina (A) sufre replicación, situará una timina (T) como complementaria, de forma que esta timina sería la que ocuparía la posición que originalmente correspondía a la Guanina (G). Esta es, la denominada mutación por transversión G'T. Estos procesos tienen lugar en torno a 10.000 veces por célula y día. De no poder corregir estos errores seríamos, genéticamente, fulminados en menos de una semana.
Pg. 50
Atanor
A. Requena
La reparación del ADN es un salvavidas del genoma. Hay varios mecanismos concomitantes para retirar las bases dañadas que fueron alteradas por los radicales oxígeno o nitrógeno, sustancias tóxicas de los alimentos o del aire o el exceso de especies reactivas situadas en la vecindad del ADN en los momentos comprometidos. Los enzimas de reparación por escisión de bases (BER) escanean el genoma para identificar las bases que no se ajustan, romper el enlace entre la base y el azúcar, para que otras enzimas puedan poner la base opuesta correcta que corresponde al patrón sin dañar. La acumulación de daños en el ADN que sobrepasan los procesos de reparación o enzimas de reparación defectuosas, son las que pueden dar lugar a enfermedades serias, incluyendo el cáncer y el envejecimiento. Conforme el ADN acumula daños y mutaciones, las células se vuelven más incompetentes y finalmente podrían decidir morir en lugar de continuar replicando un "genoma falso". Encontrando las moléculas capaces de estimular la reparación del ADN se podrían prever enfermedades graves como el cáncer o el envejecimiento. En el caso de padecer cáncer, por el contrario, se trataría de suministrar fármacos que inhiban la reparación del ADN, buscando que mueran las células cancerosas. Este es un horizonte abierto en la actualidad de par en par. Por su parte el ARN presenta más interrogantes que el ADN. Generalmente es una sola hebra que forma lazos con diferentes formas: bucles, cruces y pseudonudos. En tiempos recientes se han descubierto ARNs, pequeños, que tienen funciones concretas en la célula, interfiriendo y micro ARN capaces de regular síntesis de proteínas. La clave que aportan es que su introducción en la célula podría emplearse con efecto medicinal. El ARN nos aporta mucho conocimiento sobre el origen de la vida y cómo llegó a ser la molécula primordial que dio origen a las funciones de ADN y las proteínas. El ARN tiene funciones catalíticas y propiedades regulatorias como las proteínas e incluso se piensa que su secuencia de bases pudo ser el almacén original de información que
TRAZO 1.13
Salvavidas
del
genoma
Pg. 51
ahora es el ADN. Hay que concluir en algún momento cómo a partir de aire, agua, tierra y la luz solar se pudieron formar las arqueobacterias. Hay mucha Química por descubrir en el ADN y el ARN. Cada célula tiene una copia del genoma. El ADN tiene unos 2 metros de longitud. Cada uno de nosotros tenemos en nuestro cuerpo, del orden de 1014 células. La población mundial supera los 7.5 109 personas (siete mil quinientos millones de personas). Si hacemos cuentas obtendremos algo más que el Numero de Avogadro (6,023 1023) de genoma humano en el planeta, es decir aproximadamente 1 mol de genoma humano planetario. Si alineáramos todas estas moléculas de ADN, alcanzaríamos una distancia de 1020 km, que sólo representa en torno a un 0.1% del diámetro del Universo. ¡Hay tajo! ¡Somos importantes!
Pg. 52
Atanor
A. Requena
SALVAVIDAS DEL GENOMA A. REQUENA @ LA VERDAD, 2019 1
2
3
4
5
6
7
8
9
10
11 12
13
14 15
16
17
18
EclipseCrossword.com
Horizontales
17. La reparación del ADN lo es del genoma
3.
Los errores cometidos por ellas solo dan cuenta de algunos cambios o mutaciones observadas en el genoma.
18. Es la base más susceptible a la oxidación, para dar como producto preferente de ella, la 8-oxoguanosina.
6.
Si alineáramos todas las moléculas de ADN de la población planetaria, alcanzaríamos una distancia de 1020 km, que sólo representa en torno a un 0.1% de su diámetro.
Verticales 1.
Se ha descubierto recientemente micro ARN capaces de regular la síntesis de ellas.
7.
Si hacemos cuentas, obtendremos algo más que el valor de este Numero (6,023 1023) como cantidad de genoma humano en el planeta.
2.
Cuando una molécula de timina ocupa la posición que originalmente correspondía a la Guanina, lo es de transversión G?T .
8.
Hay mucha por descubrir en el ADN y el ARN.
3.
La cantidad de aproximadamente 1 mol de genoma humano lo es a esta esclaa.
11. La acumulación de ellos, en el ADN, que sobrepasan los procesos de reparación o enzimas de reparación defectuosas, son las que pueden dar lugar a enfermedades serias, incluyendo el cáncer y el envejecimiento.
4.
La clave que aportan los ARN pequeños es que su introducción en la célula podría emplearse con este efecto.
5.
Los libres, generados en la respiración y el metabolismo atacan a las bases del ADN.
7.
Conforme el ADN lo hace con los daños y mutaciones, las células se vuelven más incompetentes.
9.
Molécula que tiene unos 2 metros de longitud, desenrrollada.
12. Encontrando las moléculas capaces de estimularla en el ADN se podrían prever enfermedades graves como el cáncer o el envejecimiento. 14. Cada célula tiene una copia de él. 15. En el caso de padecerlo, se trataría de suministrar fármacos que inhiban la reparación del ADN, buscando que mueran las células afectadas. 16. Uno de los objetivos del proyecto genoma humano es identificar las sutilezas de estas diferencias entre personas distintas.
10. Los enzimas de reparación por escisión de bases (BER) lo hacen con el genoma para identificar las bases que no se ajustan. 13. Se piensa que su secuencia de bases pudo ser el almacén original de información que ahora alberga el ADN.
TRAZO 1.14 TRAZO
Inteligencia
Pg. 53
1.14
Inteligencia.
Analizar la capacidad de las máquinas tiene una larga historia. En 1637, Descartes, en su Discurso del Método inicia la referencia a los autómatas que reaccionan ante interacciones con humanos, aunque no les reconoció capacidad de responder apropiadamente como un humano. Estableció la referencia conceptual, no obstante. DIderot en su obra Pensamientos Filosóficos, refiere un criterio para considerar a un animal inteligente, en la época solamente considerado, lingüísticamente, el loro que, de dar una respuesta no distinguible a la de un humano, se consideraría inteligente. Los dualistas no consideran que la mente pueda tener un estado físico y no se puede explicar solamente en términos físicos. En el materialismo, por el contrario, la mente se puede explicar físicamente y abre la opción a que puedan haber mentes artificiales. En 1936, Alfred Ayer en su obra Lenguaje, verdad y Lógica, plantea el interrogante de cómo saber que distintas mentes puedan tener el mismo nivel de conciencia. Contesta admitiendo que la respuesta es someterlo a pruebas empíricas que evidencien el nivel de conciencia. Por fin, Alan Turing, en 1947, introduce el concepto de "inteligencia computacional" y en un informe que titula "maquinaria inteligente" establece que la forma de concretar la inteligencia de una máquina es someterla a pruebas en la que no se distinga de un humano. Si bien, el test de Turing es lo que le dio notoriedad, tiene una faceta más desconocida. Alan Turing presentó un modelo de reacción -difusión (RD), con el que pretendió dar
Pg. 52
Atanor
A. Requena
cuenta de los mecanismos de formación de patrones biológicos. Publicó un trabajo que tituló "bases químicas de la morfogénesis" en el que propuso que los patrones espaciales generados autónomamente en la fase embrionaria, son debidos a una onda estacionaria de las reacciones químicas a nivel celular. A partir de la información genómica y las técnicas de genética molecular se puede abordar el estudio de esta cuestión. Una de las incógnitas de mayor envergadura en el ámbito de la biología del desarrollo, es la información posicional. El trabajo de las últimas décadas ha evidenciado que en los huevos, ya hay incluido un grado sustancial de información posicional, asociados a la distribución de las proteínas clave o el RNA. Las células en fase embrionaria, ya son capaces de leer su posición a partir de la concentración de tales moléculas y son capaces, por tanto, de inducir la diferenciación asociada a posiciones específicas. Las células ya diferenciadas pueden producir moléculas señalizadoras que aportan información secundaria. Esta es la conocida como teoría "prepatron" o teoría morfogénica. Ha sido evidenciada en muchos eventos morfogenéticos. Funciona bien en las primeras etapas del desarrollo embrionario, pero no es capaz de dar cuenta de estructuras complejas. La propuesta de Turing no requería ninguna estructura pre-patrón. Consistía en un mecanismo de difusión-reacción, formulado en 1952 y refinado posteriormente en la década de los setenta. En este modelo, el patrón son ondas estacionarias generadas por la interacción RD de las sustancias químicas. El sistema es capaz de generar patrones estables equiespaciados, cuando la red total satisface una condición de activación local e inhibición de largo alcance. Son sistemas capaces de regenerarse cuando se les perturba artificialmente. Ha tenido dificultades de aceptación por dos motivos: el propio concepto de onda no es familiar para los biólogos experimentales y es difícil probar la existencia de tales ondas
TRAZO 1.14
Ignorancia
y
evolución
Pg. 55
experimentalmente y se trata de demostrar que el proceso de patrón tiene la naturaleza dinámica de la onda RD (difusiónreacción). En la década de los noventa se aportaron evidencias experimentales. Así, en 1995, Kondo y Asai encontraron que el patrón de la pigmentación de la piel del pez denominado ángel (pez de agua dulce, tropical y muy difundido) se daba en la forma en que predecía la teoría de Turing. Ya en el siglo XXI, se han evidenciado patrones de Turing en pelo de mamíferos, plumaje en pájaros, la regeneración de la hidra y otros muchos. Pero no se observan las ondas de Turing, dado que los patrones son fijos. Es en la piel de los animales y el plumaje de los pájaros donde se detecta la onda. En los caparazones de los caracoles si se detecta la naturaleza dinámica de las ondas de Turing. Lo mismo que ocurre en la piel de los peces en los que las ondas llegan a ser activas incluso en edad adulta. ¡Magnífica intuición y gran aportación a la Ciencia!
Pg. 56
Atanor
A. Requena
INTELIGENCIA A. REQUENA @ LA VERDAD, 2019 1
2 3
4
5
6
7
8
9 10
11 12 13 14
15
16
17
18
19
EclipseCrossword.com
Horizontales 7.
Los pertenecientes a esta corriente filosófica, no consideraban que la mente pudiera tener un estado físico.
12. En su obra Pensamientos Filosóficos, refiere un criterio para considerar a un animal inteligente. 13. Las células en esta fase, ya son capaces de leer su posición a partir de la concentración de ciertas proteinas y el ARN y son capaces, por tanto, de inducir la diferenciación asociada a posiciones específicas. 14. En 1947, introdujo el concepto de “inteligencia computacional”. 15. Los patrones espaciales generados autónomamente en la fase embrionaria, son debidos a una onda de este tipo de las reacciones químicas a nivel celular. 16. En 1637, en su Discurso del Método, inicia la referencia a los autómatas. 17. Los sistemas que modela Turing, son sistemas capaces de hacerlo cuando se les perturba artificialmente. 18. Alan Turing presentó un modelo de reacción –difusión (RD), para dar cuenta de los mecanismos de formación de este tipo de patrones. 19. Las células que ya lo están pueden producir moléculas señalizadoras que aportan información secundaria
Verticales 1.
A Turing se la dio su test.
2.
En esta corriente filosófica, la mente se puede explicar físicamente.
3.
La propuesta de Turing no requería ninguna estructura de este tipo.
4.
En ellos, ya hay incluido un grado sustancial de información posicional, asociados a la distribución de las proteínas clave o el RNA.
5.
En el modelo de Turing, el patrón son ondas estacionarias generadas por la interacción RD de estas sustancias.
6.
El modelo de Turing ha tenido dificultades de aceptación , entre otros, porque el propio concepto de onda no lo es para los biólogos experimentales.
8.
Una de las incógnitas de mayor envergadura en el ámbito de la biología del desarrollo, es esta información.
9.
En la década de los noventa se aportaron evidencias experimentales del modelo de Turing y Kondo y Asai encontraron que el patrón de la pigmentación de la piel del pez así denominado lo cumplía.
10. En 1936, Alfred Ayer en su obra Lenguaje, verdad y Lógica, plantea el interrogante de cómo saber que las distintas puedan tener el mismo nivel de conciencia. 11. Analizar la capacidad de las máquinas la tiene larga.
TRAZO 1.15 TRAZO
Atrapando moléculas
Pg. 57
1.15
Atrapando moléculas.
Wittgenstein fue un filósofo, matemático, lingüista y lógico austriaco, que influyó notablemente en los positivistas lógicos que formaron el Círculo de Viena, aunque él nunca consideró pertenecer. Vivió entre 1889 y 1951. Hijo de uno de los hombres más ricos del mundo en su época, inició sus investigaciones en ingeniería, llegando a patentar un motor relevante en la construcción de helicópteros, pero pronto se interesó por la filosofía matemática. Discípulo de Bertrand Russell, en el Trinity College de la Universidad de Cambridge. Renunció a su parte de herencia y dedicó su vida a la enseñanza universitaria y la investigación filosófica. Su Tractatus lógico-philosophicus publicado en 1923 es su obra más referenciada y el único libro que vio publicado en vida. Establece que los límites de nuestro lenguaje son los límites de nuestro mundo. En una nota escrita en 1931 decía "Por simple que parezca, la distinción entre magia y Ciencia puede expresarse diciendo que en la Ciencia hay progreso, mientras que, en la magia, no. La magia no tiene tendencia interna a desarrollarse". Claro que el hecho de que haya progreso, no implica, en modo alguno, que tengamos que adoptarlo. Los corredores, en cualquiera de las modalidades, cada vez lo hacen más rápido. Pero, en modo alguno, ese hecho implica que tengamos que hacerlo nosotros. La Ciencia es algo especial, por cuanto la misión de la Ciencia es conocer la Naturaleza y lo hace cada vez mejor; predice con mayor precisión y permite un control más ajustado.
Pg. 58
Atanor
A. Requena
Wittgenstein fundamentó que no podemos utilizar la experiencia como base de la inducción, rememorando la propuesta de Hume de que no podemos basar la causación en la experiencia. No podemos basar un procedimiento en una justificación filosófica, pero podemos usarlo siempre y cuando lleve a un éxito notable. Por ejemplo, afirmar que un chamán (o un Obispo) puede hacer que llueva, contradice la experiencia y no hay evidencia de que conduzca a un éxito notable. Supone un enfrentamiento entre Ciencia y magia, del que la magia resulta ser inferior. Hay que creer en hechos que la gente transmite de una determinada forma, como afirmaría Wittgenstein, como los hechos históricos, químicos, geográficos, etc. Así es como aprendemos las Ciencias. Aprender se basa en creer. Una vez que aprendemos algo que hemos visto en un libro, en un mapa, etc, decimos que lo sabemos. Y esto lo hacemos, como insiste Wittgenstein, porque esta manera de hacerlo nos ha demostrado que "nos trae cuenta". No podemos demostrar que el Teide tiene 3.700 metros, pero podemos creerlo a partir de la autoridad que concedemos a un mapa o a un libro que lo relate. Este tipo de "procedimientos sociales" permite referir hechos, sin poder justificarlos, pero dado el éxito que tienen, nos "traen cuenta". Justifica que los empleamos. Ciertamente, lo que creemos depende de lo que aprendemos, como diría Witgenstein. El nivel de credulidad es función directa de lo que sabemos. Creemos que no es posible estar simultáneamente en Murcia y en Cartagena. Pero esto no quiere decir que no haya gente que pueda creer que es posible. Los que sabemos que no es posible, decimos que esa gente que piensa que es posible no sabe muchas cosas que nosotros sí sabemos. Están equivocados y nosotros lo sabemos. Su sistema de conocimiento debe ser más deficiente que el nuestro. Cabe, no obstante, que ellos piensen lo mismo de nosotros. Pero, el conocimiento científico es superior, muy superior al conocimiento mágico de una cultura de iluminados actual o pasada. Esto nos lleva a que determina-
TRAZO 1.15
Atrapando moléculas
Pg. 59
dos tipos de conocimiento son superiores a otros, porque muestran utilidad, "traen cuenta", suponen progreso y no contradicen los hechos conocidos. La Ciencia no ofrece una justificación filosófica satisfactoria de ese conocimiento, pero funcionan y se debería reconocer la utilidad de ese conocimiento (mapas, libros, etc.). De esta forma aparece de forma natural el hecho de que cuando el punto de vista científico nos abandona y se ve sustituido por otro nuevo, es porque se piensa que éste último es mejor para tener éxito, "traer cuenta". Es decir, la Ciencia evoluciona y ello es posible porque las teorías que no consiguen desarrollarse o son incapaces de adaptarse al enfrentarse con los nuevos hechos o descubrimientos, sencillamente, son eliminadas. Según Wittgenstein solo puede haber Ciencia buena y Ciencia mala y esto requiere visión retrospectiva para poder valorarlo. No podemos soslayar esta visión, porque de hacerlo, perderíamos una de las características más peculiares de la Ciencia: el que progresa. .
Pg. 60
Atanor
A. Requena
ATRAPANDO MOLÉCULAS A. REQUENA @ LA VERDAD, 2019
1
2 3
4 5 9
6
7
8
10
11
12
13
14
15 16
EclipseCrossword.com
Horizontales
2.
Denominación de la luz, radiación comprendida entre 400 nanometros y 700 nanometros.
3.
Objetos que emiten luz, cuyo color corresponde a este tipo de tránsito.
4.
5.
La fragancia de los pétalos (de rosa, por ejemplo) se logran poniendo en contacto directo aquéllos con ella.
Los cuerpos que no tienen luz propia, su color es función de la luz que empleemos para ello.
6.
9.
Las moléculas portadoras del color, tienen mucho que ver con ella.
Las moléculas que nos hacen degustar y saborear los alimentos, son las que se acomodan a las papilas gustativas aituadas en ella.
7.
La mantequilla y el agua, mezcladas, son capaces de extraer las moléculas que otorgan el color y el sabor residentes en el ya sea de una langosta o un bogavante.
8.
El manejo de las moléculas de color y de sabor en alimentos consiste en tener capacidad de ello, extraerlas con disolventes.
11. Las moléculas que proporcionan los olores, son aquellas cuyo tamaño y disposición de sus grupos constituyentes se acomoda al tamaño de ellas para detectarlas. 14. Romperlos y formarlos es necesario para pasar de unas moléculas a otras. 15. Conjunto de átomos agrupados formando la estructura mínima estable de una sustancia con propiedades características. 16. Un perfume, o cualquier molécula que compone el denominado “flavor” las tiene muy diferentes por el agua y el aceite.
Verticales 1.
Ciencia que se dedica a escudriñar las moleculas.
10. Una molécula tiene este número de átomos como mínimo. 12. Un objeto que lo calificamos, absorbe todas las radiaciones del rango visible (entre 400 y 700 nanómetros) salvo las correspondientes a este color. 13. Las moléculas que se disuelven en ella, serán transportadas fácilmente a los puntos de anclaje de las papilas gustativas
TRAZO 1.16 TRAZO
Utopías
Pg. 61
1.16
Utopías.
La inmensa mayoría de los desarrollos en el ámbito de la que se dio en denominar Inteligencia Artificial, adelantándose en mucho a la realidad presumible, son programación inteligente. Seguimos lejos de que las máquinas sientan pena, remordimiento o miedo, lo que les aproximaría a los humanos. Siguen vigentes los test de Turing y sigue quedando camino por recorrer. La Ciencia Ficción, a nivel de película de serie, ya incorpora ordenadores asesinos en el casting. Pero estamos en los albores, aunque la tecnología cada vez con mayor solvencia, va ofreciéndose a los científicos para ver si dan con la clave del comportamiento inteligente. En el último siglo, ya herramientas acreditadas, la explosión del conocimiento científico ha sido espectacular, sumando mucho más que todos los demás siglos de existencia juntos. Y la exponencial sigue ofreciéndose y, seguramente, los próximos años viviremos avances muy por encima de lo que hoy podamos pronosticar. Si echamos la vista todavía más atrás, nos sorprenderemos del nivel que se alcanzó en épocas pretéritas. Y por no andar con chiquitas, nos vamos a ir a finales del siglo XVI y comienzos del XVII. Francis Bacon nació en 1561, filósofo, formado en el Trinity College de Cambridge y autor en 1614-1617 de la obra New Atlantis "La Nueva Atlantida", aunque se suele datar en 1624. Falleció en 1626 cuando contaba con 65 años. En un opúsculo de 60 páginas dejó una impresionante obra en la que transmite lo que pensaba el gran filósofo y empirista sobre la organización social y el porvenir de la Ciencia y la Técnica. ¡Fantástico!
Pg. 62
Atanor
A. Requena
La obra de Bacon se enmarca en las utopías clásicas, describiendo un Estado ideal en el que los ciudadanos son felices, gracias a una perfecta organización social en la que los males se han reducido al mínimo. Rememora a Platón en el título, también autor de otra utopía, hablando del continente hundido, que todavía hoy sigue concitando debates. La utopía de Bacon es distinta, por cuanto no se ocupa de la economía y de la sociedad, sino de forma secundaria, y consecuencia de la dirección ejercida. Bacon se preocupa por el porvenir de la Ciencia y sus posibilidades futuras. No olvidemos que la escribe en torno a la fecha de la muerte de un insigne murciano de adopción, Gerónimo de Ayanz y Beaumont. Bacon tiene claro que la Ciencia orienta el interés hacia la conquista de la Naturaleza por el hombre. Y hace predicciones: submarino, micrófono, crecimiento artificial de los frutos. Indirectamente sugiere la importancia de la Técnica, que Ortega concretaría mucho tiempo después, por cuanto Bacon dejó dicho "la armonía entre los hombres, puede alcanzarse mediante un control de la Naturaleza que les facilite los medios precisos para la vida". Esto jamás ha sido logrado en la Historia de la Humanidad, aunque de forma lapidaria Ortega dejara dicho en la inauguración de la Universidad Menéndez Pelayo en el Santander de 1933 que, "Sin la Técnica, el hombre no hubiera existido ni existiría jamás". Después dedicó doce clases a evidenciar que la afirmación era correcta. Se puede comprobar en el magnífico ensayo que publicó La Revista de Occidente y Alianza Editorial en su día. En el pensamiento de muchos, "lo que es posible, es realizable". Las utopías forman parte de ese ámbito. Las utopías anticipan el futuro y son críticas del presente. Bacon se preocupaba de problemas científicos y técnicos, más que de los sociales. Anticipó inventos que se tardó mucho en materializarlos. Creó como utopía la Casa de Salomón, sociedad cuyo objetivo era dirigir la vida del país y que fue el modelo
TRAZO 1.16
Utopías
Pg. 63
para crear la Royal Society inglesa que tanta incidencia ha tenido en la Ciencia y la Técnica del mundo entero. Fue creada en 1660, sobre lo que denominaba Boyle, El Colegio Invisible, que figura en la correspondencia de éste en 1646 y 1647. Se reunían una vez a la semana y estaba prohibido hablar de la divinidad, asuntos de Estado o de actualidad, para evitar desviar las discusiones y así centrarse en temas de la Nueva Filosofía y materias relacionadas: Medicina, Anatomía, Geometría. Navegación, Estática, Mecánica y toda la gama experimental. Era una Sociedad para la promoción del Saber Experimental Físico-Matemático. Tenían una cuota de entrada y otra aportación semanal para sufragar los experimentos. Se fijó el número en 55. El primer Presidente fue William Brouncker y el Primer Comisario de experimentos Robert Hooke. Desde 1915 es Venkatraman Ramakrishnan.
Pg. 64
Atanor
A. Requena
UTOPÍAS
A. REQUENA @ LA VERDAD, 2019 1
2
3
4 5
6
7
8
10 12
9 11
13
14
15
16 17 19
18
20 21 22
23
EclipseCrossword.com
Horizontales 1.
En el pensamiento de muchos, “lo que es posible, lo es".
3.
La obra de Bacon se incribe en las denominadas clásicas.
23. Filósofo inglés de la segunda mitad del XVI y primera mitad del XVII, que escribió, entre otras, la obra The New Atlantis.
Verticales
10. En la Royal Society se centraban en temas de la Nueva Filosofía y materias relacionadas, como ella.
2.
La mayoría de los desarrollos de Inteligencia Artificial, son programación de este tipo.
14. Una de las afirmaciones de mayor alcance de Francis Bacon es "la armonía entre los hombres, puede alcanzarse mediante un control de la Naturaleza que les facilite los medios precisos para ella"
4.
Francis Baco, indirectamente sugiere la importancia de ella.
5.
Una de las predicciones de Francis Bacon.
6.
Las utopías lo son del presente.
15. Inauguró la Universidad Menéndez Pelayo en Santander en 1933.
7.
En la Royal Society los miembros se reunían una vez a la semana y estaba prohibido hablar de ella.
8.
El Colegio Invisible era un club de Ciencia y Técnica, así denominado por él.
9.
La explosión de este conocimiento ha sido espectacular, sumando mucho más en el último siglo, que todos los demás siglos de existencia juntos
16. Una utopFrancis Bacon fue el modelo para crearla y que tanta incidencia ha tenido en la Ciencia y la Técnica del mundo entero. 17. Bacon tiene claro que la Ciencia orienta el interés hacia la conquista de ella por el hombre. 18. Las utopías lo anticipan. 19. Propuso un test para verificar si una máquina es inteligente. 20. Bacon se preocupa por el porvenir de la misma y sus posibilidades futuras 21. Francis Bacon creó la Casa con este nombre como utopía. 22. Una de las predicciones de Francis Bacon.
11. Seguimos lejos de que las máquinas sientan pena, remordimiento o miedo, lo que les aproximaría a ellos. 12. La obra The New Atlantis de Bacon le rememora en el título al ser también autor de otra utopía. 13. Bacon se preocupaba de problemas científicos y técnicos, más que de este tipo de problemas.
TRAZO 1.17 TRAZO
Memoria y recuerdo
Pg. 65
1.17
Memoria y recuerdo.
No resulta nada fácil racionalizar cuando fue el momento histórico en que comenzó la Ciencia. Tendríamos que hacer el esfuerzo de definir primero, qué entendemos que es Ciencia. Sólo así podemos incardinarla en el tiempo y la Historia. Los rasgos fundamentales con el que vamos a caracterizar a la Ciencia los vamos a concretar en un cuerpo de evidencias que alimenta teorías complejas y que con ellas se pueden efectuar predicciones fiables. Muchas de las hoy denominadas ciencias no se enmarcan en esta categoría por no responder a lo antedicho. Cierto. Pero, ¿cuándo se puede afirmar que el cuerpo de conocimiento acumulado fue suficiente para que se pudiera considerar que había nacido la Ciencia? Si pensamos en la antigüedad, por ejemplo, en el periodo pitagórico, el cuerpo de evidencias brillaba por su ausencia, bajo conjeturas que pretendían explicar los hechos, sin fundamento observacional alguno y atribuyendo a la intervención divina, la regulación de todos los aspectos imaginables de la Naturaleza y de la esfera personal. Los Socráticos siguieron fundamentando los aspectos materiales en una teogonía que empleaba elementos míticos, aunque desarrollara la lógica como motor deductivo, en un alarde de imaginación, anticipando esa capacidad tan genuina de la Ciencia que, una vez organizado el conocimiento, hace uso de aquél para elaborar el pronóstico fiable. La necesidad de encontrar una referencia en la que fundamentarlo todo, llevó a la consideración de los cuatro elementos fundamentales: agua, tierra, aire y fuego, como
Pg. 66
Atanor
A. Requena
componentes constitutivos de todo. Otras alternativas introdujeron, sorprendentemente pronto, el concepto atómico como unidad de referencia, pero no tuvo mucho éxito hasta bien introducidos los tiempos modernos, incluso recientes. Las aportaciones de la época oscura no clarifican nada más, salvo algunas muy singulares como la concepción de Bacon en el siglo XIII. Pero se puede considerar que el único cuerpo de evidencia sustancial que alimentaba teorías complejas y permitía comenzar a hacer predicciones fiables era la Astronomía. Tenía una amplia trayectoria que hundía sus raíces en la época babilónica, sumeria y egipcia, así como chinos e indios. Aconteció que un astrónomo danés, Tycho Brahe. en 1572 observó una estrella nueva o una nova. Con motivo de esta observación se puso en marcha un procedimiento sistemático de observación que se convirtió en un programa de investigación que iba aportando datos que permitían poner en cuestión afirmaciones que se venían manteniendo desde tiempos inmemoriales, sin mucha justificación. Se sostenía hasta entonces, que los cielos no pueden cambiar y que todo el movimiento celestial es circular y que las esferas regían toda la geometría de los cielos. Llegaron tiempos en que todo esto se ponía en cuestión. Se estaban dando por finalizados siglos de conocimiento, desde que 200.000 años atrás emergiera el homo sapiens, incluso con 2 millones de años de historia de fabricación de utensilios. La revolución neolítica ya supuso un cambio, ciertamente lento. Transcurrieron más de 6.500 años de avances tecnológicos. En torno a 1.500 se revisaba la antigua Roma por el convencimiento de que en esa época se habían disfrutado de avances que el periodo bárbaro y oscuro había ocultado. En todo caso, nadie consideraba que la historia de la Humanidad pudiera ser una sucesión de progreso. Hasta el siglo XVIII no se interpretó que el progreso provenía de la historia previa. Algo ocurrió para el cambio de opinión. No es fácil identificar que fue lo que permitió progresar a la Ciencia de los siglos XVII y XVIII, ya que no había anteceden-
TRAZO 1.17
Memoria y recuerdo
Pg. 67
te en el sistema de conocimiento previo. Algo se tenía en la sociedad del Renacimiento que no se poseía en épocas anteriores. La Ilustración trajo la convicción de que la Revolución científica era la responsable de que el progreso era imparable. La transformación era imparable y el principio de la nueva era se rubricó con la rutilante explosión que supuso la aportación de Newton. De la creencia en brujería y agentes del diablo, hombres lobo, magos, unicornios o que el arco iris es una señal de Dios o cree en los sueños, e cree en la astrología, etc. La Nueva Filosofía, que es como se denominaba a la nueva ciencia en 1611 estaba en marcha. Voltaire deja constancia en 1633 de que en Inglaterra había una cultura científica.
Pg. 68
Atanor
A. Requena
MEMORIA Y RECUERDO A. REQUENA @ LA VERDAD, 2019 1
2
3
4
5
6
7
8
9 10
11
12 13
14 15
16
17 18
EclipseCrossword.com
conexiones de este tipo.
Horizontales 3.
El modelo de red que propugnan los científicos de Lausanne se denomina así.
7.
Las neuronas se conectan a través de ellas.
8.
Hasta ahora, se pensaba que si ambas neuronas, pre y post sinápticas se activaban repetidamente de forma simultánea, lo que se denomina sinapsis de este tipo.
10. El modelo propuesto por los científicos de Lausanne son redes interconectadas a través de las sinapsis, que almacenan uno de ellos de memoria. 13. El modelo hebbiano de plasticidad no da cuenta con precisión de cómo se forma la memoria, al no tener en cuenta estos factores.
Verticales 1.
Las experiencias traumáticas lo requieren.
2.
En la Escuela Politécnica de Lausanne se han desarrollado trabajos, publicados algunos en Nature Communications, que van en la dirección de esclarecer algo más sobre cómo se forman.
4.
La alta, es la que permite modificar la velocidad e intensidad de las comunicaciones entre neuronas.
5.
La plasticidad del cerebro es la base de él y la formación del recuerdo.
6.
En el modelo propuesto por los científicos de Lausanne una neurona envía una señal que viajará a través de otras neuronas, que responden incrementando o decrementando su propia capacidad de hacer esto con la señal.
9.
Enviando señales se desencadena un fortalecimiento o debilitamiento de ella con la neurona presináptica.
14. La neurona presináptica la envía y la recibe la postsináptica. 15. Así, cuando se revive uno de ellos, se unen las asambleas para construir el todo. 16. Es imprescindible en el aprendizaje y resulta indispensable para propiciar el progreso. 17. Las que se disparan juntas, permanecen conectadas. 18. En 1960 Kandle, descubrió que había activaciones debidas solamente a
11. La memoria lo es, por cuanto es precisa en una dirección y se necesita que deje de serlo en otra. 12. El modelo que propugnan los científicos de Lausanne, liderado por Gerstner, son estos grupos de neuronas.
TRAZO 1.18 TRAZO
Máquinas fabricando Ciencia
Pg. 69
1.18
Máquinas fabricando Ciencia.
Es usual la imagen de máquinas sofisticadas acompañando a científicos en su quehacer cotidiano: hacer Ciencia. Las máquinas son las herramientas que permiten el progreso, porque son la técnica proyectada a tecnología y basada en los conocimientos científicos anteriores. La Ciencia propicia el progreso impulsando máquinas que la tecnología concreta para hacernos la vida más placentera. Pero la denominada Inteligencia artificial ha venido a revolucionar el statu quo "hombre-máquina". Estamos asistiendo a un escenario cada día más cercano a lograr masa crítica para que el impulso de la tecnología hacia un mundo en el que los roles a jugar pueden ser muy distintos de los actualmente establecidos. Los esnobistas, denominan "machine learning", barbarismo sinónimo de aprendizaje automático o automatizado, una subárea de la rama Inteligencia Artificial, en el marco de las denominadas Ciencias de la Computación, cuyo objetivo es lograr que los ordenadores (máquinas) aprendan, es decir, que mejoren con la experiencia, incrementando sus habilidades. Se trata de generar programas de ordenador de forma automática, dado que estos son los que tratan con datos para obtener soluciones, que recicladas o tomadas en consideración, incorporan una semántica que sirve para reconsiderar el tratamiento de los datos que el propio programa lleva a cabo. Se trata de la aplicación del método inductivo en el que se pone en juego llegar a conclusiones verdaderas en el caso de que las hipótesis lo sean. Tradicionalmente se asume que el pensamiento inductivo parte de lo particular y pretenden llegar
Pg. 70
Atanor
A. Requena
a lo general. Lo contrario del método deductivo, propio de las ciencias bien establecidas. Pero el método inductivo, a diferencia del deductivo, puede alcanzar conclusiones fuera del ámbito de las establecidas. La intuición se sitúa en este escenario. El aprendizaje de las máquinas se plantea desde la inducción. Ya se han construido muchas máquinas capaces de aprender, aunque sea limitadamente. Como suele ocurrir con los avances, en lo que pueden, se apoyan en lo conocido, para emularlo de otra forma. Los automóviles nacieron con un ojo puesto en los medios de transporte anteriores: los coches de caballos. Los robots que más impacto causan en la actualidad son los antropomórficos y zoomórficos, incluyendo remedos de patas, brazos y, por supuesto cabezas. No necesariamente son los más eficaces, pero el desenvolvimiento que nos dan brazos y piernas, o patas, en su caso, han devenido gracias a la evolución y, por tanto, están optimizados. Ya hay muchos ejemplares imitando animales de cuatro patas y de dos, que se desplazan incluso a velocidades importantes. La reflexión en este plano plantea la cuestión es si los ordenadores son suficientemente inteligentes como para llegar al descubrimiento científico. Los investigadores del Laboratorio Nacional Lawrence de Energía en Berkeley, liderados por Anubhav Jain, han llevado a cabo un trabajo publicado en la prestigiosa revista Nature, que pretende evidenciar en el área de Ciencia de Materiales, que mediante un algoritmo, sin entrenamiento, puede barrer textos de millones de publicaciones y generar nuevo conocimiento científico. Dispusieron 3.3 millones de resúmenes de trabajos publicados en revistas entre 1922 y 2018 y le aplicaron un algoritmo capaz de analizar la relación entre palabras, lo que les llevó a predecir descubrimientos de materiales termoeléctricos y sugerir materiales candidatos a ser materiales termoeléctricos. Incluso sometieron al algoritmo a tiempo pasado, es decir, proporcionarle publicaciones hasta un cierto año y valorar las
TRAZO 1.18
Máquinas fabricando Ciencia
Pg. 71
predicciones que hacía con esa información. Según informan los investigadores, sin saber nada de Ciencia de Materiales, aprendió automáticamente conceptos como Tabla Periódica y estructura cristalina de los metales. El potencial de la técnica es extraordinario. Se puede utilizar para localizar aquellas cosas que se podían haber estudiado y no se ha hecho, aunque pueda resultar de mucho interés el hacerlo. El algoritmo se basa en la capacidad de aprender el significado de términos científicos y conceptos, como los citados de estructura cristalina, por ejemplo, simplemente a partir de las posiciones de las palabras en los resúmenes y su concurrencia con otras palabras. Incluso fue capaz de establecer relaciones entre elementos de la Tabla Periódica, cuando los elementos de la misma se incorporaron a vectores bidimensionales. Dado el ritmo de publicaciones que conforman la literatura científica actual y la acumulación extraordinariamente enorme de las publicaciones pasadas y que el acceso humano reflexivo está limitado a una parte pequeña de esas publicaciones, el aprendizaje automático como este es muy útil, máxime cuando no es un procedimiento supervisado, porque no requiere la vigilancia humana.
Pg. 72
Atanor
A. Requena
MAQUINAS FABRICANDO CIENCIA A. REQUENA @ LA VERDAD, 2019 1 4
2
3
5 6
7
8
9
10
11
12
13
14 15 16
17
EclipseCrossword.com
Horizontales 2.
La reflexión en este plano plantea la cuestión es si los ordenadores son lo suficientemente, como para llegar al descubrimiento científico
8.
Suele ocurrir con los avances, en lo que pueden, se apoyan en ello, para emularlo de otra forma.
10. Las máquinas son las herramientas que lo permiten. 11. Es usual la imagen de máquinas sofisticadas acompañando a científicos en su quehacer cotidiano, haciéndola. 12. En el aprendizaje automático se trata de la aplicación de este método de desarrollo de conocimiento. 14. El método inductivo, a diferencia del deductivo, puede alcanzarlas fuera del ámbito de las establecidas. 15. El aprendizaje automático la incorpora para reconsiderar el tratamiento de los datos que el propio programa lleva a cabo. 16. Las máquinas son la técnica proyectada a tecnología y basada en estos conocimientos científicos. 17. Esta inteligencia ha venido a revolucionar el statu quo “hombre-máquina”.
Verticales 1.
Con el avance de las máquinas inteligentes, pueden ser muy distintos a los actualmente establecidos.
3.
.El aprendizaje de las máquinas se plantea desde ella.
4.
Los automóviles nacieron con un ojo puesto en los medios de transporte anteriores: los coches de este tipo.
5.
Tradicionalmente se asume que el pensamiento inductivo parte de ello y pretenden llegar a lo general.
6.
“Machine learning”, lo es de aprendizaje automático o automatizado
7.
El objetivo del aprendizaje automático es lograr que los ordenadores lo hagan.
8.
El método deductivo, propio de las bien establecidas.
9.
EL aprendizaje automático trata de generar programas de ordenador de esta forma, dado que estos son los que tratan con datos para obtener soluciones.
13. En el área de Ciencia de Materiales, mediante un algoritmo, sin entrenamiento, se trataron automáticamente textos de millones de publicaciones y generaron conocimiento científico de este tipo..
TRAZO 1.19 TRAZO
La sensación de presencia
Pg. 73
1.19
La sensación de presencia.
La realidad virtual permite sumergirnos en un mundo enteramente digital. Este entorno simulado puede emplearse en multitud de aplicaciones, desde el mundo educativo, hasta el de ocio, pasando por entornos industriales o técnicos. Hay varias formas de llevar a cabo el desarrollo de sistemas de realidad virtual y varios dispositivos que lo permiten. Sensores estratégicamente empleados y situados permiten la interacción con el mundo virtual. Soluciones creativas, tecnológicamente audaces, han catapultado aplicaciones de la realidad virtual en la industria 4.0 con conexiones en tiempo real entre los datos generados en la fabricación y los procesos de control. La realidad virtual genera un entorno incluyendo escenas y/u objetos, aparentemente, mediante la tecnología informática y produce una sensación de formar parte de él. Es justamente esa sensación o ilusión de presencia la que se aprovecha para el desarrollo de entornos de aplicación. Los pacientes con trastornos psíquicos pueden ser objeto de tratamiento mediante la realidad virtual. Fobias, psicopatologías alimentarias, ansiedades, déficits de atención, adicciones e incluso episodios de dolor crónico, son susceptibles de atención mediante la realidad virtual. Hay aval de experiencias llevadas a cabo, que bien pudieran tomarse como un método eficaz, aunque su uso clínico no es todavía muy amplio. Ocurre con cualquier tratamiento, unas veces por pre-
Pg. 74
Atanor
A. Requena
caución y otras porque el itinerario para su "bendición" como procedimiento clínico, suele ser demasiado exigente, al menos en pruebas y tiempos, aunque no siempre en eficacia. Los profesionales cercanos a estos tratamientos, consideran que el uso terapéutico está muy cercano. La realidad virtual altera nuestra percepción del mundo, nos sumergimos en una realidad diferente, pensamos de forma diferente y sentimos diferente. En el tratamiento de las fobias o el estrés postraumático, por ejemplo, se introduce al paciente gradualmente al miedo o a la situación de estrés, en un entorno controlado, dado que son simulaciones programadas. En el caso de las adicciones, se trata de colocar a la persona con adicción en situaciones virtuales en las que se genera la tentación y entrenarla a rechazarla, de acuerdo con la denominada teoría de la reacción de localización, en una especie de medida de la reacción en un ámbito causado intencionadamente. En el caso del tratamiento del dolor o de la ansiedad, se trata de provocar una nueva percepción capaz de "distraer" del mundo real y lo que ocurre en él. Puede ser una alternativa a la anestesia. Hay muchas y muy variadas utilizaciones de la realidad virtual y pueden ser muchas las aplicaciones en el entorno médico o terapéutico. Básicamente se incide en el cerebro y su capacidad de atención sumergiéndonos en una sensación de presencia en una sobrenaturaleza en la que el mundo real pasa a segundo plano y se "vive" otro mundo, artificial, creado ad hoc con una finalidad concreta. Hay muchos dispositivos que permiten el empleo de la realidad virtual en terapias, unos con ventajas y otros con inconvenientes. Los tradicionales cascos, emblemáticos en los juegos en los que la realidad virtual crea el entorno y las reglas de juego, desde el punto de vista de lograr una inmersión profunda es muy efectivo, pero no deja de ser una forma rudimentaria de interaccionar con el mundo simulado virtual. Del mismo modo, aunque estemos acostumbrados a emplear
TRAZO 1.19
La sensación de presencia
Pg. 75
teclados de ordenador, no dejan de ser integumentos intelectivos muy forzados, antinaturales. Los humanos no nos comunicamos a través de teclados, sino oralmente, en la mayoría de casos. Los cascos no son ergonómicos e incluso dificultan los tratamientos dado que si las sesiones fueran de una hora, nada exagerado en cualquier terapia, presenta la dificultad de que las incomodidades del casco ya se hacen patentes transcurridos los primeros quince minutos. Y hay un aspecto clave en la que este hecho es relevante y es que la realidad virtual está muy ligada a la sensación de presencia, que es su piedra de toque, sin la cual no es posible situarse en el interior del entorno virtual. Es por ello que progresan las proyecciones sobre pantallas, mejor periféricas evitando los cascos y propiciando una situación de inmersión eficaz en la realidad virtual. La proyección 3D contribuye, también, a propiciar esa ilusión de profundidad y unos objetos delante y otros detrás que contribuyen a percibir especialmente real un espacio virtual. Una autentica contribución significativa de la tecnología con propósito general.
Pg.76
Atanor
A. Requena
LA SENSACIÓN DE PRESENCIA A. REQUENA @ LA VERDAD, 2019
1
2
3 4 5
6
7
10
8
11
13
9
12
14
15 16 17 18
EclipseCrossword.com
Horizontales 1.
Los tradicionales no dejan de ser una forma rudimentaria de interaccionar con el mundo simulado virtual.
6.
La realidad virtual puede ser una alternativa a la anestesia.
7.
Pretende sumergirnos en un mundo digital.
10. Son patologías susceptibles de atención mediante la realidad virtual.
18. La realidad virtual altera nuestra percepción de él, nos sumergimos en una realidad diferente, pensamos de forma diferente y sentimos diferente.
Verticales 2.
La sensación o ilusión de presencia de la realidad virtual es la que se aprovecha para el desarrollo de ese tipo de entornos.
3.
La realidad virtual lo genera incluyendo escenas y/u objetos, aparentemente, mediante la tecnología informática y produce una sensación de formar parte de él.
4.
Denominación de la teoría de localización, que es una especie de medida de la reacción en un ámbito causado intencionadamente.
5.
Aquellos con trastornos psíquicos pueden ser objeto de tratamiento mediante la realidad virtual.
8.
Hay varias formas de llevarlo a cabo para sistemas de realidad virtual y varios dispositivos que lo permiten.
9.
Los humanos no nos comunicamos a través de ellos, sino oralmente, en la mayoría de casos.
12. La Realidad virtual, básicamente incide en él y su capacidad de atención. 13. Los cascos de la realidad virtual no lo son. 14. En el caso del tratamiento del dolor o de la ansiedad, se trata de provocar una nueva percepción capaz dehacerlo para el mundo real y lo que ocurre en él. 15. Entorno que puede emplearse en multitud de aplicaciones, desde el mundo educativo, hasta el de ocio, pasando por entornos industriales o técnicos. 16. La realidad virtual está muy ligada a esta sensación, que es su piedra de toque, sin la cual no es posible situarse en el interior del entorno virtual. 17. En el caso de las adicciones, se trata de colocarla cuando tiene adicción en situaciones virtuales en las que se genera la tentación y entrenarlos a rechazarla,
11. Hoy progresan las proyecciones sobre pantallas, mejor periféricas evitando los cascos y propiciando una situación de este tipo, eficaz en la realidad virtual.
TRAZO 1.20 TRAZO
Energía para el mundo
Pg. 77
1.20
Energía para el mundo.
La necesidad de energía es una constante en la Historia de la Humanidad. La importancia de la energía deriva de que aporta mejoras a la vida cotidiana, facilita la producción y alienta el progreso. Todo requiere el concurso de la energía. Nuestro cuerpo la necesita, incluso en los procesos inconscientes, desde respirar, hasta la regulación de la temperatura corporal o las contracciones musculares, incluyendo las del corazón, con las que late la propia vida. La búsqueda de fuentes de energía, al tiempo que el logro de eficiencia de su uso, no ha dejado de darse en todo tiempo y lugar. Las tecnologías disponibles para la generación y suministro de energía, renovables o no, siempre han sido limitadas. El sueño eterno ha sido lograr una energía abundante, económica y sostenible. Abandonada, o al menos controvertida, en gran medida, la producción de energía mediante la fisión nuclear, se trata de, al menos, mitigar la peligrosidad que entraña y hace que la atención se preste al proceso contrario, cual es la fusión nuclear. Conceptualmente, se trata de imitar la producción de energía que tiene lugar en las estrellas, tanto en su formación como en el mantenimiento de las mismas. Unir (fusionar) dos átomos supone producir un tercero, pero cuando hay masa de sobra, es decir la suma de la de los átomos originales es mayor que la del que se forma, la conversión de ese diferencial de masa en energía, descrito por la Teoría de la
Pg. 78
Atanor
A. Requena
Relatividad, que es la teoría más precisa de la Gravedad, supone una cantidad de energía extraordinaria. En muchos laboratorios del mundo se estudian reacciones de fusión En 2011 se logró producir una reacción de fusión en la que se liberó una energía equivalente al consumo del mundo entero. Átomos de hidrógeno se convertían en Helio, que es la misma reacción que sostiene a nuestro Sol en la actualidad. Se emplearon 192 láseres que generaron un haz de radiación de 500 terawatios (50 x 1013 Watios) que se hizo incidir sobre un contenedor de átomos de hidrógeno de, tan solo, un milímetro de diámetro. El consumo correspondiente a los disparos de los láseres fue mayor que el consumo de electricidad de Estados Unidos, unos 4.000 Terawatios hora. La ganancia de energía se incrementó extraordinariamente. En 2016 la demanda de electricidad del mundo estaba en torno a los 10.000 terawatios hora y el previsto para 2040, unos 15.000 terawatios hora. La mitad de esta demanda corresponde a China que junto con la India son los países que mas crecerán en la demanda hasta 2040. El proceso de mejora de esta tentativa de producción de energía ha ido, naturalmente, en la dirección de producir más energía de la que se consume en lograrlo. Los reactores magnéticos de contención resultaron caros. La fusión por confinamiento magnético consiste en una especie de toroides sobre los que fluyen chorros de átomos que dan vueltas y se calientan en una especie de torres que disparan haces de partículas que, a veces, alcanzan las temperaturas del centro del Sol, unos 15 millones de grados (en la superficie solamente alcanza unos 6000 ºC.. En el Sol, del orden de 1038 protones se convierten en Helio cada segundo, liberando mas de 1026 Watios El sistema de contención magnético supone una inversión que supera la del Gran Colisionador de Hadrones, y tras la Estación Espacial Internacional es el proyecto más costoso que ha propiciado la Ciencia.
TRAZO 1.20
Energía para el mundo
Pg. 79
La alternativa de emplear láseres la respaldó el experimento de 2013 del National Ignition Facility (NIF) de los Estados Unidos. En Inglaterra se desarrolló otro proyecto, HIPER, de láseres de alta potencia, ya en 2005. El empleo de láseres de alta potencia para la ignición requiere un factor 1000 en la liberación de energía. En 2013 se consiguió que un disparo láser desencadenara una energía que superaba la que consume el mundo entero. La fusión representa la solución ideal como energía limpia. El proyecto de empleo de láseres consiste en utilizar pequeños perdigones de isótopos de hidrógeno, deuterio y tritio y los láseres se emplean para comprimirlos y lograr la fusión, liberando la energía correspondiente a la diferencia de masa (teoría de la relatividad) al formarse loa átomos de Helio. La energía que emplean los láseres en sus disparos proceden de enormes pilas como condensadores. La energía liberada se emplea, entre otras posibilidades, para calentar agua y mover turbinas de vapor, como se hace en las centrales de fisión convencional.
Pg. 80
Atanor
A. Requena
ENERGIA PARA EL MUNDO A. REQUENA @ LA VERDAD, 2019 1
2
4 6
3
5
7
8
9
10 11 12
13
14
15 16 17 18
EclipseCrossword.com
Horizontales 5.
En esta estrella se alcanzan hasta 15 millones de grados en su interior.
8.
La mitad de la demanda de energía prevista corresponde a este país, que junto con la India son los países que mas crecerán en la demanda hasta 2040.
9.
La importancia de la energía deriva de que aporta mejoras a la vida cotidiana, facilita la producción y alienta el mismo.
12. Esta teoría es la más más precisa para describir la Gravedad, 13. En un experimento de fusión reciente, se emplearon 192 láseres para producir una radiación de 500 terawatios, que se hizo incidir sobre un contenedor relleno de este elemento, de solo un milímetros de diámetro. 14. El consumo de los láseres del experimento de fusión aludido, fue mayor que el consumo de electricidad de este país. 15. El sistema de contención magnético, tras la Estación Espacial Internacional es el más que ha propiciado la Ciencia. 16. La de fuentes de energía, al tiempo que el logro de eficiencia de su uso, no ha dejado de darse en todo tiempo y lugar. 17. Las tecnologías disponibles para la generación y suministro de energía, renovables o no, siempre lo han sido.
18. Cuando la suma de la masa de los átomos originales es mayor que la del que se forma, la conversión de ese diferencial de masa en energía, supone una cantidad extraordinaria de ella.
Verticales 1.
La necesidad de energía es una constante en la Historia de ella.
2.
En la fusión, se trata de imitar la producción de energía que tiene lugar en ellas.
3.
En 2011 se logró producir una reacción de fusión en la que se liberó una energía equivalente al consumo de él.
4.
En 2016 la demanda de ella en el mundo, estaba en torno a los 10.000 terawatios hora.
6.
Nuestro cuerpo la necesita, incluso en los procesos inconscientes, desde respirar, hasta la regulación de ella, siendo corporal, entre otras cosas.
7.
Este sueño, ha sido lograr una energía abundante, económica y sostenible.
10. Átomos de hidrógeno se convertían en él, que es la misma reacción que sostiene a nuestro Sol en la actualidad. 11. Los de alta potencia empleados en la ignición de un proceso de fusión, requieren un factor 1000 en la liberación de energía
SOLUCIONES A
LAS
PALABRAS CRUZADAS DEL
TRAZADO
1
A. Requena SOLUCIONES
Atanor.
ATANOR. LA VERDAD AL
TRAZO
1.1
Pg. 85
Pg. 86
ATANOR. LA VERDAD
SOLUCIONES
A tono.
AL
TRAZO
A. Requena 1.2
A. Requena SOLUCIONES
Eterna vigilia.
ATANOR. LA VERDAD AL
TRAZO
1.3
Pg. 87
Pg. 88
ATANOR. LA VERDAD
SOLUCIONES
AL
TRAZO
Los hechos mandan.
A. Requena 1.4
A. Requena SOLUCIONES
Moneda falsa.
ATANOR. LA VERDAD AL
TRAZO
1.5
Pg. 89
Pg. 90
ATANOR. LA VERDAD
SOLUCIONES
AL
TRAZO
Paradigmas cientÃficos.
A. Requena 1.6
A. Requena SOLUCIONES
ATANOR. LA VERDAD AL
Tierras prรณximas.
TRAZO
1.7
Pg. 91
Pg. 92
ATANOR. LA VERDAD
SOLUCIONES
AL
TRAZO
Envidias y ambiciones.
A. Requena 1.8
A. Requena SOLUCIONES
ATANOR. LA VERDAD AL
TRAZO
Poniendo color al mundo.
1.9
Pg. 93
Pg. 94
ATANOR. LA VERDAD
SOLUCIONES
AL
El esquivo punto.
TRAZO
A. Requena 1.10
A. Requena SOLUCIONES
ATANOR. LA VERDAD AL
TRAZO
1.11
Casualidad o lรณgica reflexiรณn.
Pg. 95
Pg. 06
ATANOR. LA VERDAD
SOLUCIONES
Contexto.
AL
TRAZO
A. Requena 1.12
A. Requena SOLUCIONES
Ciclos vitales.
ATANOR. LA VERDAD AL
TRAZO
1.13
Pg. 97
Pg. 09
ATANOR. LA VERDAD
SOLUCIONES
AL
TRAZO
Ignorancia y evoluciรณn.
A. Requena 1.14
A. Requena SOLUCIONES
ATANOR. LA VERDAD AL
Magia y Ciencia.
TRAZO
1.15
Pg. 99
Pg. 100
ATANOR. LA VERDAD
SOLUCIONES
AL
TRAZO
A. Requena 1.16
Del invento a la innovaciรณn.
A. Requena SOLUCIONES
ATANOR. LA VERDAD AL
TRAZO
La nueva FilosofÃa.
1.17
Pg. 101
Pg.102
ATANOR. LA VERDAD
SOLUCIONES
AL
TRAZO
A. Requena 1.18
Cooperación naturotécnica.
A. Requena SOLUCIONES
ATANOR. LA VERDAD AL
TRAZO
Desconocida agua.
1.19
Pg. 103
Pg. 104
ATANOR. LA VERDAD
SOLUCIONES
AL
TRAZO
Empujando electrones.
A. Requena 1.20
A. Requena
ATANOR. LA VERDAD
Pg. 105
TRAZO
2.1
Colonizando el Cosmos.
Aunque pueda parecerlo, no se agotan nuestras necesidades de velocidad con el AVE o los aviones supersónicos. Se vislumbran otras necesidades cuando el escenario es el espacio interplanetario o interestelar. Hoy no lo hacemos, pero en un futuro tendremos que viajar distancias que hoy se nos antojan intratables. En cuanto se popularice la unidad de distancia año luz, ya los medios convencionales de desplazamiento no tienen sentido para periodos de una vida humana. Con la nave New Horizon que partió de la Tierra a la friolera de 58.000 kilómetros por hora, hubiéramos empleado entre 39 y 289 días para alcanzar el planeta Marte. El Mariner 4, primera nave espacial que fue a Marte, empleó 229 días, en 1964 y la Mariner 7 de 1969 empleó 128 días, por ejemplo, mientras que la Viking 2. en 1978 lo hizo en 333 días y el Mars Science Laboratory, en 2011, empleó 254 días. En 2016 Lubin, científico de la NASA, propuso una alternativa incorporando la propulsión fotónica, que no añadiría masa adicional, sino que restaría el peso de combustible y los motores, y sería capaz de aumentar y mantener la aceleración hasta alcanzar un 25% de la velocidad de la luz, lo que se traduciría en que una nave de 100 kilos invirtiera tres días en llegar a Marte.
Pg.108
Atanor
A. Requena
Ni que decir tiene que si se trata de viajes más lejanos, como el implicado en alcanzar Alfa Centauri, situada a 4.37 años luz, a 17 km/s tardaría 77000 años en llegar. Impracticable. Siendo capaces de viajar a un 10% de la velocidad de la luz, tardaríamos unos 40 años en llegar, como se ha especulado si abordáramos un crucero a Próxima Centauri con una sonda del tamaño de un sello de correos, propulsada por un máser. Es decir, un chip de unos pocos gramos, en torno a 20 gramos, conteniendo todos los sistemas propios de una nave espacial, salvo la propulsión que se haría con un láser de microondas (máser), con una potencia estimada de unos 15 gigavatios, desde la Tierra o desde alguna estación espacial. Claro que, desde la tecnología actual hasta este futurible hay mucho trecho que recorrer que, de momento, sólo lo cubre la especulación. Hoy, estas propuestas son fantasías, aunque se formulan con el detalle de experimento mental. Hemos adelantado, pasando a un estatus que no es imposible de concebir. Hace un par de décadas era terreno de la ciencia ficción. Hoy se van conjeturando sondas de 20 gramos y dentro de unos años, podremos soñar con ellas. Al final, toda la pretensión humana está centrada en recrear en otra parte del Universo, las condiciones de vida de la Tierra. El espacio no solo es objeto de atención de científicos y técnicos, sino un lugar en el que norteamericanos, israelíes, indios, chinos y tímidamente europeos, miran con "ojos de negocios". Está en juego la paternidad de los planetas. Hoy puede que no se aprecie el problema, pero forma parte del escenario. No es la primera vez que se viven estas circunstancias. El ferrocarril sirvió para conquistar el territorio en todos los países y todas las latitudes en que se empleó y puso en juego la propiedad del territorio. Abandonar Europa e irse a un continente por civilizar debió ser duro y complicado. Del mismo modo que se sintió obligación de cambiar de terri-
TRAZO 2.1
Colonizando
el
Cosmos
Pg. 109
torio y acomodar las características del Nuevo Mundo, nos volverá a pasar lo mismo en la ocupación del espacio. Todo indica que la Tierra se nos queda pequeña. Es posible que en un futuro con los cohetes de plasma, el sistema solar se nos quede pequeño. Tendremos que tener la capacidad de situarnos en un planeta extraterrestre y dar pie a una civilización entera. No es extraño que una de las necesidades en un nuevo emplazamiento extraterrestre, sea disponer de la propia tierra. Como Kaiku avanza, la primera colonia humana fuera de la Tierra establecerá la raza humana como "franquicia". El equivalente a la "fiebre del oro" planetaria, necesariamente tendrá lugar. Habrá que aprender a ensamblar productos que hoy disponemos en la Tierra y necesarios para desenvolvernos, desde tecnologías de construcción hasta generación de alimentos y recursos básicos. La construcción por contornos, que hace uso de la impresión 3D para la edificación planetaria automatizada, hace concebible construir un edificio en pocos días. Todo se va configurando para lograr nuestra presencia colonizadora en el Cosmos. Necesitamos viajar a toda velocidad. Esa es nuestra pretensión.
Pg.110
Atanor
A. Requena
COLONIZANDO EL COSMOS A. REQUENA @ LA VERDAD, 2019 1
2 3
4
5 6 7
8
9 10 11
12
13
14
EclipseCrossword.com
tienen sentido si lo es el de una vida humana.
Horizontales 1.
Situada a 4.37 años luz, a 17 km/s se tardaría 77000 años en llegar.
Verticales
5.
Todo indica que la Tierra se nos queda ASÍ.
2.
6.
Toda la pretensión humana está centrada en recrear en otra parte del Universo, las condiciones de vida de ella.
Tendremos que tener la capacidad de situarnos en un planeta de este tipo y dar pie a una civilización entera.
3.
El ferrocarril sirvió para conquistarlo en todos los países y todas las latitudes en que se empleó y puso en juego la propiedad del territorio.
4.
Como Kaiku avanza, la primera colonia humana fuera de la Tierra establecerá la raza humana como si fuera una de ellas.
7.
Es posible que en un futuro con estos cohetes, el sistema solar se nos quede pequeño.
8.
Tardaríamos unos 40 años en llegar, como se ha especulado si abordáramos un crucero a Próxima Centauri con una sonda del tamaño de un sello de correos, propulsada por él.
9.
Abandonarla e irse a un continente por civilizar debió ser duro y complicado.
8.
Fué la primera nave espacial que fue a Marte.
9.
No es extraño que una de las necesidades en uno nuevo extraterrestre, sea disponer de la propia tierra.
11. Hoy no lo hacemos, pero en un futuro tendremos que viajar distancias que hoy se nos antojan así. 12. En 2016 Lubin, científico de la NASA, propuso una alternativa para los viajes interplanetarios, incorporando esta propulsión. 13. La construcción por contornos, que hace uso de ella para la edificación planetaria automatizada, hace concebible construir un edificio en pocos días. 14. En cuanto se popularice la unidad de distancia año luz, ya los medios convencionales de desplazamiento no
10. Con la nave New Horizon que partió de la Tierra a la friolera de 58.000 kilómetros por hora, hubiéramos empleado entre 39 y 289 días para alcanzar este planeta.
TRAZO 2.2 TRAZO
Fotoavance
Pg. 111
2.2
Fotoavance.
Puede que la vista sea el sentido más apreciado por el ser humano. Tan importante es para los seres humanos, que su función ha transcendido al hecho físico de la visión y se ha sumergido en la más noble de las capacidades humanas, cual es la razón. Es usual que en la comprensión, se diga ¿lo ves o no lo ves? El ojo de la razón, diríamos, se supone que nos conduce. Ciertamente, el ojo tiene como campo de actuación una estrecha banda, la región espectral más pequeña de cuantas se reconocen en el campo de la radiación. De las zonas espectrales de radioondas, microondas, infrarrojo, visible, ultravioleta, rayos X, rayos gamma y rayos cósmicos (de menor a mayor energía), la región visible está situada en la zona central. Al igual que ocurre en la zona ultravioleta, los procesos moleculares que tienen lugar en esta zona corresponden a los cambios de estados electrónicos que tienen lugar para los electrones más externos de los átomos y moléculas, los que se denominan electrones de valencia, que son los que menos energía ponen en juego para cambiar de un estado a otro. Los detectores humanos, bastones y conos del ojo, son capaces de absorberlos y al transportarlos al cerebro podemos percibirlos. Pero solamente estos fotones del visible, los de otras zonas, como la infrarroja, no los vemos, no tenemos sensores para ello, los humanos. Si queremos disponer de visión nocturna (sin luz ordinaria de la región visible,
Pg.112
Atanor
A. Requena
por tanto) recurrimos a las denominadas cámaras de visión nocturna, provistas de unos sensores sensibles a la radiación infrarroja, que el ojo no puede percibir, salvo que se convierta (traduzca) la radiación infrarroja que captará la cámara a la región del visible, para poderla percibir. Las ondas de radio, las escuchamos, pero tampoco las vemos. Las de televisión y las comunicaciones, en microondas Las de televisión y las comunicaciones, en microondas, tampoco podemos percibirlas por los aires. Los rayos X, salvo la conversión a un material que traduzca, como una radiografía, no nos daría a conocer una rotura de hueso. Los rayos gamma de las centrales nucleares, ojalá se vieran para que la gente inocente pudiera calibrar el peligro y no sufrir el castigo desproporcionado sobre su salud. Los rayos cósmicos, solamente nos los revela la belleza sin par de una aurora boreal, consecuencia de las partículas solares que alcanzan el escudo magnético de la Tierra y cuando entran en contacto con la parte superior de la atmósfera, a unos 100 kilómetros de altura, las capas de ozono y otras, desprenden una energía que vemos en forma de esas luces mágicas. Pero siendo la zona visible del espectro electromagnético la región más pequeña del mismo, hay que reconocerle una importancia extrema y no sólo por la visión. Los electrones son los que forman los enlaces que conforman las moléculas. La ruptura y formación de los enlaces destruye y forma moléculas diferentes. La vida, en sí misma, consiste en eso, ruptura y formación de enlaces, constantemente, reacciones químicas. Desde la maduración de una fruta, hasta el enamoramiento de dos seres humanos, pasando por la alimentación o el envejecimiento, todo son reacciones químicas. En todas intervienen los electrones. Algunas reacciones químicas discurren gracias a la presencia de fotones, por tanto de radiación electromagnética. La explicación es sencilla, los fotones suministran energía a las moléculas cuando interaccionan con ellas, de forma que
TRAZO 2.2
Fotoavance
Pg. 113
tras este proceso, pudiera reaccionar con otra molécula, que antes de que se diera el proceso, no podía hacerlo. La reacción por antonomasia que ejemplifica esta situación es la fotosíntesis, gracias a la cual se mantiene la vida en la Tierra, al captar las plantas verdes la energía solar (fotones) para alimentarse y generar su estructura, que se incorpora a la cadena de seres vivos. Los fotones producen reacciones. Y los fotones tienen energías muy precisas. Y las reacciones discurren por mecanismos que implican energías muy concretas. Podemos ser muy selectivos en provocar las reacciones. Los fármacos actuales son muy inespecíficos, afectando a las dianas pretendidas y a las moléculas que no tienen nada que ver. El avance consiste en desarrollar moléculas que alcancen la parte del cuerpo donde debe tener lugar la acción terapéutica y una vez instaladas, haciendo llegar el fotón desde fuera o desde un material nanométrico adecuado, se produce la reacción pretendida. No tienen por qué verse implicadas las moléculas que no les corresponde. Es un avance importante. La fotofarmacología está servida. ¡Menos mal!
Pg.114
Atanor
A. Requena
FOTOAVANCE A. REQUENA @ LA VERDAD, 2019 1
2
3 5
6
4
7
8 9 10 11 12 14
13
15 16 17 18
19
20
21
EclipseCrossword.com
Horizontales 5.
El proceso así denominado consiste en emplear moléculas que alcancen la parte del cuerpo donde debe tener lugar la acción terapéutica y una vez instaladas, haciendo llegar el fotón desde fuera o desde un material nanométrico adecuado, se produce.la reacción pretendida.
20. El ojo tiene como campo de actuación una banda así, es decir, la región espectral más pequeña de cuantas se reconocen en el campo de la radiación 21. Lo hacemos con las ondas de radio.
Verticales 1.
Gracias a ella se mantiene la vida en la Tierra, al captar las plantas verdes la energía solar.
2.
Los fotones de otras zonas, que no sean los del visible, como estos, no los vemos, no tenemos sensores para ello, los humanos.
3.
Los fármacos actuales lo son mucho.
4.
Algunas reacciones químicas discurren gracias a la presencia de ellos.
6.
13. Las de televisión y las comunicaciones, pertenecen a esta región espectral.
El de la razón, diríamos, se supone que nos conduce.
7.
Los fotones tienen estas energías.
14. Es una región espectral.
8.
17. Los procesos moleculares que tienen lugar en las zonas ultravioleta y visible, corresponden a los cambios entre estos estados.
Los electrones son los que forman los enlaces que las conforman.
10. En sí misma, consiste en eso, ruptura y formación de enlaces.
9.
Las reacciones mplican estas energías.
11. Los detectores humanos, bastones y conos del ojo, son capaces de absorberlos los fotones del visible y al transportarlos al cerebro podemos hacerlo. 12. Su función ha transcendido al hecho físico de la visión y se ha sumergido en la más noble de las capacidades humanas, como es ella.
18. Desde la maduración de una fruta, hasta el enamoramiento de dos seres humanos, pasando por la alimentación o el envejecimiento, todo lo son químicas 19. Es el sentido humano más apreciado..
15. Los fotones la suministran a las moléculas cuando interaccionan. 16. Los rayos cósmicos, solamente nos los revela la belleza sin par de una aurora así denominada.
TRAZO 2.3 TRAZO
Ética
para
la
I.A.
Pg. 115
2.3
Ética para la I.A.
La Cruz de Malta (también llamada de San Juan) tiene ocho puntas, es octógona, usada desde el siglo XII por los caballeros hospitalarios o de la Orden de San Juan de Jerusalén, que se llamó de Caballeros de Malta desde que el emperador Carlos V le otorgó como feudo la Isla de Malta. Originalmente era una cruz ensanchada y cada brazo estaba hendido por una escotadura terminando en dos puntas. Acabó con los brazos tomando forma de uves unidas por los vértices. Las ocho puntas simbolizan las ocho bienaventuranzas: 1) satisfacción espiritual, 2) sencillez, 3) humildad, 4) llorar faltas y pecados, 5) amar la justicia, 6) ser misericordioso, 7) ser limpio y sincero de corazón y pensamiento, y 8) soportar las aflicciones y persecuciones por la justicia. Los caballeros la llevaban en el pectoral, su color era blanco, en señal de pureza y con variaciones las han adoptado numerosas órdenes caballerescas y de distinción. La flor Cruz de Malta (Silene Chalcedonica) tiene pétalos con la forma de la Cruz de Malta. El diseño de la Cruz de Malta tuvo otra utilidad, configurando un dispositivo denominado, también, Rueda de Ginebra que transforma una rotación continua en un movimiento también de rotación pero intermitente, mediante una pieza que tiene la forma de esta cruz. Una rueda motriz circular tiene un pivote cerca del borde que se introduce en la hendidura de un brazo de una cruz de Malta y la hace girar hasta que sale del mismo. De esta forma el primer disco tiene movi-
Pg. 116
Atanor
A. Requena
miento continuo, pero la Cruz de Malta avanza por cada vuelta de aquel, el giro de uno de sus cuatro grandes brazos. La rueda motriz tiene una parte circular que se acopla a la forma de la Cruz de Malta entre los brazos y que mantiene a ésta última bloqueada mientras completa la primera el giro. Así la rueda conducida (cruz de Malta) avanza un paso de 90º por cada giro de la rueda motriz. Su aplicación más genuina es en los proyectores de cine. El astrónomo francés, de origen noruego, Janssen descubrió el Helio en 1868, al identificar una línea a 587.49 nanometros observando el espectro de la cromosfera solar e ideó un sistema para poder observar el Sol, aun cuando no hubiera eclipse. El hecho de que hasta esa fecha no se hubiera encontrado en el espacio ningún elemento que no se hubiera descubierto previamente en la Tierra, motivó que fuera objeto de mofas y ridiculizado. En 1874 utilizó la cruz de malta para construir un revólver fotográfico. Al adaptarlo a dispositivos que empleaban una banda flexible continua acabó incorporando un rodillo dentado que arrastraba la película introduciendo los dientes en los agujeros practicados en la cinta. Tiempo después lo incorporó el francés Marcy en su cronógrafo de película, aunque externamente no lo parecía. El uso que le dio Janssen y el de Marcy eran realmente distintos. Mientras que Janssen, que era astrónomo y su objetivo consistía en capturar fotogramas a largos intervalos, Marcy pretendía producir movimientos rápidos, pasando un número de fotogramas, no inferior a 12 por segundo, como reveló en su obra publicada en 1885 titulada "Developpment de la méthode graphique par l´emploi de la photographie". Pretendía construir un aparato con forma de fusil que permitiría seguir a un pájaro en vuelo, mientras una placa giratoria registraba las imágenes de la secuencia de posiciones de las alas. En los proyectores de cine recientes, la película avanza fotograma a fotograma y permanece ante la lente 1/24 de segundo. Es un movimiento intermitente que utiliza la Cruz de
TRAZO 2.3
Ética
para
la
I.A.
Pg. 117
Malta. Hoy día hay motores paso a paso que hacen esto controlado electrónicamente. Se usó en 1896 Edison lanzó su kinetoscopio por todo el mundo. Se reservó el tomavistas. Los hermanos Lumiére identificaron que el kinetoscopio, que movía de forma continua la película, no era igual que el tomavistas que Edison mantenía en secreto que funcionaba de forma discreta. Los hermanos Pankow en Berlín hablaban de lo mismo. Los hermanos Skladanowsky también iban en la misma dirección. Muchos estaban en lo mismo. Francia reclamó ante el mundo entero la invención del cinematógrafo e instaló a los Lumiére en el cielo de los dioses. Muchos otros habían recorrido el mismo camino y permanecen en el anonimato, o casi. Así suceden las cosas cuando hay países que quieren ser protagonistas de la Ciencia y Tecnología. Los investigadores de otros lugares, tienen peor suerte.
Pg.118
Atanor
A. Requena
ÉTICA PARA LA IA A. REQUENA @ LA VERDAD, 2019 1 3
2 4
5
6
7
8
9 10
11
12
13
14
15
16
EclipseCrossword.com
Horizontales 7.
8.
El aprendizaje de las máquinas se plantea prendiendo con mecanismos propios del desarrollo mental en el que los sistemas perceptivos y motores perfilan las interacciones con él. Una estrategia es situar las máquinas en entornos donde desarrollen éstas para que le otorguen ese sentido común
10. Todas las áreas de actividad humana son susceptibles de incidencia de ella. 11. Desde esta obra de Homero, pretendemos máquinas autónomas de factura humana. 12. En el tratamiento de la IA, es preciso representar el conocimiento de forma apropiada resolviendo la codificación de la información capaz de abordar objetos, acciones, descripción de situaciones y toda suerte de ellas. 14. La carcasa, el cuerpo, en el que se ubican las inteligencias humana y artificial no lo son. 15. Puede ser uno científico-tecnológico equiparable a la explicación del origen de la vida en el Universo. 16. El perfil de todas y cada una de las capacidades de las máquinas tiene asociada la correspondiente en cuanto se le otorgue autonomía.
Verticales 1.
Esta Inteligencia pretende conformar máquinas dotadas de inteligencia similar a la humana.
2.
El aprendizaje lo es de envergadura.
3.
Las capacidades más complicadas son las asociadas a los entornos que no las tienen.
4.
Uno de los planteamientos más efectivos consiste en aplicar la metodología propia de estas redes.
5.
Los sistemas perceptivos y motores perfilan las interacciones con el entorno, aportando la componente cognitiva que requiere ella.
6.
El reto más ambicioso sigue siendo la adquisición de conocimientos propios de él.
9.
No cabe duda de que el desenvolvimiento en ámbitos de los que surgirá ese sentido común, en correspondencia a lo que acontece con la inteligencia humana, depende del que se cierne en el escenario para desenvolverse la máquina.
13. Los valores de ambas inteligencias, natural y artificial, no tienen por qué tener nada así.
TRAZO 2.4 TRAZO
Sueño sin cables
Pg. 119
2.4
Sueño sin cables.
La característica fundamental de la materia, denominada carga, es tan importante como la realidad material. Las propiedades denominadas redox, que tienen que ver con el estado de carga, dirigen las reacciones entre las moléculas y, gracias a ellas sufren transformaciones, que están en la base de todos los procesos conocidos. Su naturaleza es esquiva, siendo difícil almacenarla, controlarla, dominarla. Los dispositivos actuales ofrecen una gran cantidad de posibilidades, muchas más de las que somos capaces de utilizar de forma cotidiana. Pero mantienen la servidumbre de que el periodo de actividad autónoma está limitado por la carga de su batería. Todos los enchufes de todas las paredes de todos los edificios conocidos, son objetos de atracción de los impenitentes humanos que los requieren para recargar sus móviles. Se prometen nuevas formas de carga, que no pasan de ser ligeras variantes de las ineficaces ya conocidas. El uso intensivo de cualquier dispositivo actual nunca supera en plena vigencia unas pocas horas. Extensible a los automóviles eléctricos que, en espera de mejores tiempos, se limitan a los mixtos no siendo capaces de responder a la carga requerida para un desplazamiento que supere los 400 kilómetros. Buscar mecanismos de recarga se ha convertido en la búsqueda de la piedra filosofal. Ciertamente los sistemas electrónicos tienen un tamaño tan reducido que están llegando al límite posible de dimensión atómica. Pero aún así con-
Pg.120
Atanor
A. Requena
sumen energía, claro está. La Termodinámica es un juez implacable. La propuesta más reciente es la del español Palacios, consistente en utilizar una antena rectificadora, RECTENA, para convertir en electricidad las ondas de radio y microondas, presentes en cualquier lugar de nuestra atmósfera próxima, incluidos nuestros domicilios, procedentes de los routers y wifis que inundan nuestro espacio próximo. Por cierto, las de radio, por razones igualmente obvias nos circundan desde hace mucho tiempo, como es bien conocido desde que irrumpiera el "vintage" transistor, epónimo del dispositivo electrónico que subyace en las entrañas de la mágica radio. Es bien conocido que las ondas transportan energía, sin transportar materia. Lo sabemos, desde que Marconi lo propagara, aunque no fuera él quien descubriera la radio, atribuyéndosele a Tesla, pero así es de injusta, a veces, la Historia y Marconí recibió el premio Nobel en 1909 por su contribución al desarrollo de la telegrafía sin hilos. Sabemos, por tanto, desde hace mucho como soportar el sonido sobre las ondas, para propagarlo a distancia. Es decir, la conversión de una propiedad como es la onda sonora (onda longitudinal material, que se propaga en el aire a unos 340 metros por segundo), en una modulación de la onda electromagnética que es la onda de radio, que Maxwell estudió y propuso como un campo eléctrico y uno magnético, oscilantes y perpendiculares, que avanzan a la velocidad de la luz. Para emitir radio, se trata de generar ondas electromagnéticas, que en su forma más elemental consiste en construir un circuito que incluya una bobina y un condensador por los que se hace pasar una corriente eléctrica. Se trata de hacer, justo lo contrario, a partir de una onda electromagnética (microondas o radio) generar electricidad. Las ondas de las wifi, siempre están ahí, se usen o no. Son energías pequeñas, que no permite pensar en utilizar en dispositivos ni siquiera domésticos, pero si pequeños componentes electrónicos, como los sensores. Se abre un mundo a estos sistemas electrónicos, hoy diseminados por todas partes, desde
TRAZO 2.4
Sueño sin cables
Pg. 121
los sensores de presencia a los detectores de incendios o sensores de proximidad de interés en la conducción, sensores de temperatura o de irradiación ultravioleta. Cuando las wifis no se usan, están vacantes y la energía es susceptible de ser utilizada con otras finalidades. El Internet de las cosas, es la realidad más próxima en el tiempo que incidirá en nuestras vidas. La tecnología 5G impulsará, sin duda una utilización mucho mayor a la actual de la transmisión de información a distancia que exigirá el control o autocontrol de los dispositivos. Las energías que se pondrán en juego serán mayores que las actuales. Una posibilidad es emitir sonido que el receptor convierte en energía, como el que emplea uBeam. Otras iniciativas en el mundo del automóvil plantean zonas de rodamiento que recarguen los coches eléctricos. El objetivo está claro: eliminar los enchufes y los cables. La transmisión de energía que Tesla soñara se va logrando, poco a poco, en cantidades, mínimas, pero como idea motora nos hace soñar en que los indeseables cables desaparezcan del escenario.
Pg. 122
Atanor
A. Requena
SUEÑO SIN CABLES A. REQUENA @ LA VERDAD, 2019
1 2
3
4
5
6
7 8 9 10
11
12
13
14
EclipseCrossword.com
Horizontales 5.
La naturaleza de la carga lo es, siendo difícil almacenarla, controlarla, dominarla.
7.
Es bien conocido que estas entidades transportan energía, sin transportar materia
8.
Las propiedades así denominadas tienen que ver con el estado de carga, dirigen las reacciones entre las moléculas y, gracias a ellas sufren transformaciones, que están en la base de todos los procesos conocidos.
9.
14. Las ondas de este tipo, siempre están ahí, se usen o no.
Verticales 1.
Cuando las wifis no se usan, lo están y la energía es susceptible de ser utilizada con otras finalidades.
2.
La 5G impulsará, sin duda una utilización mucho mayor a la actual de la transmisión de información a distancia.
3.
Los eléctricos que, en espera de mejores tiempos, se limitan a los mixtos no siendo capaces de responder a la carga requerida para un desplazamiento que supere los 400 kilómetros.
4.
La propuesta más reciente es la de este español, consistente en utilizar una antena rectificadora, RECTENA, para convertir en electricidad las ondas de radio y microondas.
6.
Estudió y propuso como un campo eléctrico y uno magnético, oscilantes y perpendiculares, que avanzan a la velocidad de la luz.
El de las cosas, es la realidad más próxima en el tiempo que incidirá en nuestras vidas.
10. Sabemos, desde hace mucho como soportarlo sobre las ondas, para propagarlo a distancia. 12. La característica fundamental de la materia, así denominada , es tan importante como la realidad material. 13. Para emitir radio, se trata de generar este tipo de ondas que en su forma más elemental consiste en construir un circuito que incluya una bobina y un condensador por los que se hace pasar una corriente eléctrica.
11. El lo propagó, aunque no fuera él quien descubriera la radio, atribuyéndosele a Tesla.
TRAZO 2.5 TRAZO
Conviviendo
con
robots
Pg. 123
25
Comviviendo con robots.
La previsión indica que en los próximos años, desde el sector industrial hasta las finanzas, pasando por los de salud, transportes, doméstico e incluso ocio, la Inteligencia Artificial (IA) va a incrementar su presencia significativamente. Se estima que en el año 2025 el mercado de la IA se aproximará a los 53.000 millones de euros, multiplicando por nueve la inversión, cuando actualmente no se superan los 5.000 millones. Pero no es un producto más. No se trata de algo novedoso que irrumpe y pretende alcanzar la saturación del mercado. Es algo más sofisticado. Se trata de una nueva forma de hacer las cosas, que abre nuevas posibilidades porque no sólo es aplicable a cualquier otro proceso productivo o no, sino que es capaz de funcionar de forma autónoma. Y esto conlleva la toma de decisiones, que hasta ahora estaban reservadas en exclusiva a los humanos. Es un nuevo poder y genera interrogantes, desde quién será el que lo use hasta qué dirección le vamos a dar. Nuestro bienestar se ve interpelado, tanto para potenciarlo, como para dilucidar si puede resultar destruido. Cuando el maquinismo irrumpió, allá por el siglo XVIII, se vio violentada la forma de distribución del trabajo. No fue bien aceptado y los desórdenes colmaron el escenario de la Inglaterra que acunó la revolución industrial que luego se generalizó a todo el mundo conocido, en mayor o menor
Pg. 124
Atanor
A. Requena
grado. Muchos inventores resultaron sepultados junto con el invento en el mismo hoyo al que bajaron de forma irremediable, empujados por las muchedumbres que no aceptaban las consecuencias sobre sus trabajos, salarios y vidas. Hemos ido capeando el temporal en muchos países, especialmente en Europa, con las ayudas sociales que mitigan el desempleo asociado a la automatización del sistema productivo, en el que el capital suple las bajas de puestos de trabajo desempeñados por humanos, por económicas producciones, una vez amortizada la inversión. Ahora, los interrogantes son más numerosos y más profundos cuando se pone en juego la generación de más justicia social y mayor bienestar o que todo quede en una competencia productiva neocapitalista para tomar ventaja competitiva. Todo parece indicar que lo razonable es una Ética preventiva, más que dejar la conducta a posteriori, a una Ética aplicativa. No parece suficiente conformarse con que el desarrollo económico vaya en vanguardia, por inercia, sino que la Ética y la legislación deberían acompañar el paso, desde los primeros momentos. Las reflexiones de los que, a título de expertos, han abordado la cuestión a instancias de la UE, clasifican los retos, indicando que los de auténtica importancia se centran en admitir que la IA no es neutral, sino que responde a intereses y usos, que hay que definir, estableciendo la dirección que pueden recorrer. Detrás de cualquier concreción de IA está la responsabilidad humana, algo que no es eludible, tampoco en las realizaciones que se puedan concretar. Por una servidumbre cultural, Inteligencia se asocia con aspectos positivistas, cuando hay muchas alternativas y es imprescindible que se concrete cuál es la Inteligencia que se pretende generar cuando se habla de IA. Finalmente, hay que hacer mención tanto al uso político que se va a hacer de la IA, como en manos de quién se deja la observancia del uso equitativo de la misma. Porque parece evidente que lo subyugante de la
TRAZO 2.5
Conviviendo
con
robots
Pg. 125
IA es la opción, de nuevo, de control, tanto de nuestra vida, como de las servidumbres que comporta. Ahora, las opciones se extienden a aspectos considerados, hasta el presente, genuinos de las personas, desde emociones hasta silencios, que hoy quedan fuera del alcance de la programación de ordenadores y que tienen difícil predicción y programación al depender del contexto y de habilidades que exigen capacidades de audacia, de percibir y tomar en cuenta errores, en fin de peculiaridades humanas que, aunque al día de hoy no se disponga de ellas, cabe pensar en lograrlo. Hoy por hoy, no solo hay que valorar la tecnología, sino asignar las responsabilidades de las consecuencias, para incorporar los valores morales. Asimov en 1942 propuso las leyes de la robótica, que hoy inspiran la necesidad de regular la convivencia con los humanos, incluyendo desde un interruptor de emergencia para que no escapen a nuestro control, hasta derechos y obligaciones, incluida la personalidad jurídica y el pago de impuestos, contribuyendo a la Seguridad Social, para mitigar la debacle económica de los que pierdan el puesto de trabajo. ¡Todo un reto!
Pg.126
Atanor
A. Requena
CONVIVIENDO CON ROBOTS A. REQUENA @ LA VERDAD, 2019 1 2
3
4
5
6
7
8
9
10
11 12 13
14
15
16
EclipseCrossword.com
Horizontales 2.
Hay que hacer mención tanto al uso de este tipo que se va a hacer de la IA, como en manos de quién se deja la observancia del uso equitativo de la misma.
6.
Se pone en juego la generación de más justicia social y mayor bienestar o que todo quede en una competencia productiva neocapitalista para tomar esta ventaja.
7.
La IA no lo es, sino que responde a intereses y usos.
10. En el mundo de la IA todo parece indicar que lo razonable es una Ética ,de este tipo más que dejar la conducta a posteriori, a una Ética aplicativa. 11. Parece evidente que lo subyugante de la IA es esta opción, de nuevo, tanto de nuestra vida, como de las servidumbres que comporta. 12. La revolución industrial no fue bien aceptada y los desórdenes colmaron el escenario de este pais, que acunó la revolución industrial 13. La IA conlleva conlleva la toma de ellas. 14. La previsión indica que en los próximos años, la Inteligencia Artificial (IA) va a incrementar su presencia significativamente en este sector..
15. La Ética y la legislación deberían acompañar el paso al desarrollo de este tipo. 16. Detrás de cualquier concreción de IA está la humana.
Verticales 1.
Cuando irrumpió, allá por el siglo XVIII, se vio violentada la forma de distribución del trabajo.
3.
Se asocia con aspectos positivistas, cuando hay muchas alternativas y es imprescindible que se concrete cuál es la que se pretende generar cuando se habla de IA.
4.
Con la IA, el nuestro se ve interpelado, tanto para potenciarlo, como para dilucidar si puede resultar destruido.
5.
La automatización del sistema productivo, en el que el capital suple las bajas de puestos de trabajo desempeñados por humanos, por económicas producciones, una vez amortizada esta.
8.
Se estima que en el año 2025 el mercado de la IA se aproximará a 53.000 millones de esta moneda.
9.
La IA lo es nuevo y genera interrogantes, desde quién será el que lo use hasta qué dirección le vamos a dar.
TRAZO 2.6 TRAZO
Formulando
hipótesis
Pg. 127
2.6
Formulando hipótesis.
No hay nada más importante que la formulación de una hipótesis cuando se inicia una investigación o una tarea. De ahí parte todo, cuando se desarrolla desde el ámbito humano. Es como una explicación previa que dispara el proceso de investigación, reflexión y racionalización de algo. Sin las hipótesis, por tanto, sin una explicación previa o respuesta a la duda, no se puede desarrollar ninguna explicación racional ni la Ciencia podría desarrollarse. El método científico, al que se apela con tanta frecuencia, se estructura de un modo regular contando con varios pasos, que parten de una duda y se extiende hasta la corroboración o refutación de aquélla. En ese proceso, tiene su lugar la formulación de hipótesis. Suele distinguir la conducta de un científico de la de alguien común y corriente. La hipótesis es una posible solución a la duda que se pretende desvelar. Cuando en la vida corriente, ante un hecho observado, se formula una enunciado del tipo "puede ser que …", estamos formulando una hipótesis. No se trata de una explicación o evidencia, sino de una posibilidad que desata la acción del proceso y desarrollo de las pruebas, que llevarán a la explicación. La hipótesis no es una verdad, sino una posibilidad, provoca acciones, desarrollo de métodos, estrategias para poder comprobar si la hipótesis formulada evidencia que es correcta, porque si no lo es, hay que cambiar la hipótesis por otra nueva que pueda ser solución. Se trata de un enunciado temporal, porque aún cuando pueda ser evidenciada, podrá ser refutada con posterioridad.
Pg.128
Atanor
A. Requena
Hoy, cobran especial significado en el contexto de la Inteligencia Artificial, dada la importancia de desarrollar de forma autónoma procesos que permitan concluir en soluciones correctas. Los algoritmos, son un conjunto finito de pasos sucesivos que permiten alcanzar una solución. No se trata solo de resolver problemas matemáticos de envergadura enrevesada, sino que, también, nos acompañan en la vida cotidiana. Por ejemplo empleamos un algoritmo para subir una escalera, aunque no reparemos en ello: disponer un pie, mientras el otro se eleva, se retira el primero y avanza sobre el segundo y se repite el proceso, hasta alcanzar la cima de la escalera, como describiría brillantemente Julio Cortázar, es ejecutar un algoritmo: un número de pasos finito, en función del número de escalones, nos permiten resolver el problema de subir la escalera, que era el problema inicial. Los algoritmos incorporados en los ordenadores son capaces de detectar patrones (para los esnobistas "frames") a partir del examen de numerosos casos. Por ejemplo, tras "mirar" numerosas mesas o fotografías de ellas, identifican una mesa. Mientras no dispongamos de otros procedimientos, podemos probar como se ha alcanzado un resultado analizando las conclusiones a las que llegan los algoritmos. Pensemos que este procedimiento parece evitar la responsabilidad sobre los resultados del aprendizaje autónomo de un robot. Pensemos en las consecuencias derivadas de la conducción autónoma basada en este tipo de aprendizaje. Esto es motivo de un encendido debate en la actualidad, en cuanto a las consecuencias de la conducta de los robots. Otra faceta derivada de esta consideración es que el aprendizaje autónomo parece separarse de la conducta científica, por cuanto ésta última no solo busca correlaciones, sino causalidades. En el aprendizaje autónomo se soslaya, en gran medida, la búsqueda de causalidad. En esta tesitura, no está nada claro la cuestión de la verificabilidad, por cuanto no
TRAZO 2.6
Formulando
hipótesis
Pg. 129
actuando con certezas, sino solo con correlaciones, la repetibilidad, tampoco está asegurada. Una esfera, actualmente preocupante, es la identificación autónoma de personas. Lo vemos cotidianamente en el reconocimiento de nuestra cara por nuestro teléfono inteligente. Nos reconoce, o no, según el caso. Extrapolar a partir de fotografías, todas las que se quieran, para predecir sexo, raza, etc y poder inferir si se trata de alguien de conducta peligrosa, incide, además en la esfera de la ética, dado que pueden dar patente de corso a la frenología (teoría del siglo XIX por la que los instintos o facultades mentales, rasgos de la personalidad, como las tendencias criminales, se corresponden con un relieve del cráneo) y la fisiognomía que se basa en la apariencia de la cara para conocer la personalidad. Hacer afirmaciones sobre la personalidad basadas en las correlaciones conllevaría este riesgo. No podemos evadirnos del debate en que nos sumerge la irrupción, al parecer imparable, de la Inteligencia Artificial. Ahora es el momento. .
Pg.130
Atanor
A. Requena
FORMULANDO HIPÓTESIS A. REQUENA @ LA VERDAD, 2020 1
2
3
4
5
6
7
8 9
10
11 12
13
14
15
16
EclipseCrossword.com
solo busca correlaciones, sino causalidades
Horizontales 6.
La formulación de hipótesis, suele distinguir la conducta de uno de ellos de la de alguien común y corriente.
10. Hoy, cobran especial significado en el contexto de la Inteligencia Artificial, dada la importancia de desarrollar de esta forma procesos que permitan concluir en soluciones correctas. 12. La hipótesis no es una verdad, sino una de ellas, provoca acciones, desarrollo de métodos, estrategias, etc. 13. Mientras no dispongamos de otros procedimientos, podemos probar como se ha alcanzado un resultado analizando aquéllas a las que llegan los algoritmos. 14. Una hipótesis no se trata de una explicación o una de ellas, sino una posibilidad que desata la acción del proceso y desarrollo de las pruebas, que llevarán a la explicación. 16. En el aprendizaje autónomo se soslaya, en gran medida, la búsqueda de ella.
Verticales 1.
Lo empleamos para subir una escalera.
2.
Otra faceta derivada del aprendizaje autónomo parece separarse de esta concepción, por cuanto ésta última no
3.
Sin una explicación previa o respuesta a la duda, no se puede desarrollar ninguna racional ni la Ciencia podría desarrollarse.
4.
No hay nada más importante que la formulación de una de ellas, cuando se inicia una investigación o una tarea.
5.
La hipótesis es una posible de ellas a la duda que se pretende desvelar.
7.
Una hipótesis es como un enunciado de este tipo, porque aún cuando pueda ser evidenciada, podrá ser refutada con posterioridad.
8.
Los algoritmos, son un conjunto de este tipo de pasos sucesivos que permiten alcanzar una solución.
9.
Extrapolar a partir de fotografías, todas las que se quieran, para predecir sexo, raza, etc y poder inferir si se trata de alguien de conducta peligrosa, incide, además en esta esfera.
11. Los algoritmos incorporados en los ordenadores son capaces de detectarlos. 15. El método científico, se estructura de un modo regular contando con varios pasos, que parten de una de ellas y se extiende hasta la corroboración o refutación de aquélla.
TRAZO 2.7 TRAZO
Ciencia
de
lo
artificial
Pg. 131
2.7
Ciencia de lo artificial.
La escena resulta sorprendente, pero plausible en estos tiempos o próximos. Pretendemos adquirir un coche nuevo y dudamos entre un SUV, un Crossover o un utilitario para movernos por la ciudad. Es usual tener dudas. Las ofertas pretenden cubrir todas las opciones de interés. Posiblemente, es el sector de actividad industrial en el que más florece la tecnología y más avanzada es. El comercial no nos relata la serie de complementos que tiene el vehículo que nos ofrece, sino opciones que suenan a ciencia ficción. El vehículo que nos recomienda se pliega para ocupar el espacio de una bicicleta, con otra opción despliega unas alas para convertirse en un aeroplano e incluso, todavía más, cuando se le sumerge funciona como un submarino. Hoy, sonreiríamos. Ciertamente, un ordenador es una máquina de propósito general, capaz de emular a cualquier otra máquina. No es una apreciación, sino una verdad matemáticamente demostrada, cumpliendo el test de Touring. La misma máquina que nos hace volar al pasado con un simulador de vuelo, nos permite simular nuestro estado financiero en los próximos veinticinco años, de continuar con nuestra actividad actual (es un decir). La misma máquina que nos permite ver películas nos permite hablar con nuestra nieta que vive a cinco mil kilómetros de distancia. En realidad, es una máquina que permite simultanear el trabajo de un coche, de una bicicleta o de una nave espacial.
Pg.132
Atanor
A. Requena
La clave es la idea de programa almacenado que formulara von Newman. Se pueden distinguir dos arquitecturas, la de programa almacenado y la de Harvard, para precisar que programa y datos comparten memoria o que se almacenan de forma separada. La máquina de programa almacenado o de von Newman fue una concreción de la máquina universal de Touring del año 1936. Inicialmente, las máquinas tenían los programas cableados, por tanto, no eran reprogramables o almacenaban el programa en cintas de papel que se alimentaban y el procesador traducía a instrucciones ejecutables. Aunque la primera máquina calificada de computador se puede situar en 1948, concretamente desarrollada en Manchester, ya en 1936, Konrad Zuse anticipó en solicitudes de patente, que las instrucciones se podían almacenar en el mismo almacenamiento empleado para guardar los datos, tanto los que se usaban para calcular, como los resultados obtenidos. Finalmente, triunfó la idea de programa almacenable y modificable en el que se plasman las instrucciones para llevar a cabo el cálculo. Al compartir memoria con los datos, el propio programa es susceptible de ser tratado como datos y sufrir modificaciones, por tanto, aprender. Con la idea de programa almacenable y modificable, un ordenador se comporta como cualquier otra máquina. Estas ideas de programabilidad y universalidad se han asimilado culturalmente y son familiares incluso entre niños. Tiene su discurso histórico que comienza en torno a 1936-1937, cuando Turing arguyó que cualquier proceso algorítmico podría ser manejado por un ordenador programable. Si comprendemos lo que hace una máquina, podemos comprender cualquier proceso físico. Touring necesitó demostrar que su ordenador universal podría realizar cualquier proceso algorítmico. No fue nada fácil. Algo similar ocurrió en 1985 cuando el físico David Deutsch propuso que los procesos algorítmicos son necesarios para todos los sistemas físicos. Cualquier sistema
TRAZO 2.7
Ciencia
de
lo
artificial
Pg. 133
físico posible es perfectamente simulable por un ordenador que opere con medios finitos. Desde un agujero negro a una supernova o el mismísimo big bang son simulables en un ordenador. Si tenemos una comprensión completa de la máquina, comprendemos cualquier proceso físico. Un ordenador puede simular cualquier cosa que se nos ocurra. Hay que modificar algo para incluir los ordenadores cuánticos. Podremos simular los procesos cuánticos, aunque promueven complejidad, por cuanto todavía no sabemos cómo combinar la mecánica cuántica con la relatividad general. No sabemos como simular la gravedad cuántica o como evaporar un agujero negro. Estos son los retos. Herbert SImon en su obra "Ciencias de lo artificial" distingue entre las ciencias de lo natural, como la física, química y biología en que los sistemas estudiados están en la Naturaleza y las ciencias de lo artificial como las de la computación y económicas en que los sistemas los crea el humano. Las Ciencias artificiales no son casos especiales de las naturales. Como diría Kay, en las Ciencias Naturales se nos da un mundo y buscamos sus leyes. En la computación nosotros damos las leyes para construir un mundo. Es posible que exista un principio fundamental que permita unir ambas ciencias.
Pg. 134
Atanor
A. Requena
CIENCIA DE LO ARTIFICIAL A. REQUENA @ LA VERDAD, 2020 1 3
8
4
2
5
6
9
7
10
11
12
13
14
15
16 17
EclipseCrossword.com
Horizontales 4.
Inicialmente, las máquinas tenían los programas cableados, por tanto, no lo eran.
7.
Podremos simular estos procesos, aunque promueven complejidad, por cuanto todavía no sabemos cómo combinar la mecánica cuántica con la relatividad general.
8.
La clave de la universalidad de los ordenadores es la idea de programa de este tipo que formulara von Newman.
12. Con la idea de programa almacenable y modificable, un ordenador se comporta como cualquier otra de ellas. 13. En las máquinas de programa almacenable,al hacerlo memoria con los datos, el propio programa es susceptible de ser tratado como datos y sufrir modificaciones. 14. Touring necesitó demostrar que su ordenador universal podría realizar cualquier proceso de este tipo. 15. Si la tenemos completa de la máquina, comprendemos cualquier proceso físico. 16. Es una máquina de propósito general, capaz de emular a cualquier otra máquina 17. Se pueden distinguir dos arquitecturas para la construcción de ordenadores en sus inicios: la de programa almacenado y ésta.
Verticales 1.
En la arquitectura de von Newman progrfama y datos lo hacen en la memoria.
2.
La máquina de programa almacenado o de von Newman fue una concreción de la máquina universal que este investigador propuso en ell año 1936
3.
Desde un agujero negro a una supernova o el mismísimo big bang son en un ordenador
5.
En 1936-1937, cuando Turing arguyó que cualquier proceso algorítmico podría ser manejado por un ordenador de este tipo.
6.
En la artuitectura de Harvard programa y datos se reservan sitios de este tipo.
8.
Posiblemente, es el sector de actividad industrial en el que más florece la tecnología y más avanzada es.posterioridad.
9.
En 1985 el físico David Deutsch propuso que los procesos algorítmicos lo son para todos los sistemas físicos.
10. Si comprendemos lo que hace una máquin de este tipo. 11. Ciudad en la que la primera máquina calificada como computador se puede situar en 1948,
TRAZO 2.8 TRAZO
Ciencia y creencia
Pg. 135
2.8
Ciencia y creencia.
Hay muy diversas formas de encarar una enfermedad. Algunos se apresuran a desplazarse a la ventana de urgencias al más leve síntoma de dolencia. No esperan cumplir el proceloso itinerario establecido en la Sanidad Pública, en la que los días se van consumiendo en peticiones de sucesivas atenciones desde el primario hasta el especialista, con el aditamento de múltiples exámenes, pruebas y prácticas previas. La incorporación de tecnología no ha supuesto un alivio sino un incremento del tiempo y dilatación en la formulación del diagnóstico, insoportable en muchas ocasiones. Además de la automedicación, que florece esplendorosamente, no es de extrañar, también, que en estas circunstancias, los que no disponen de recursos para tratarse en la medicina privada, recurran a alternativas, aunque en casos, no es cuestión de recursos, sino una especie de creencia, compartida con otras personas que hacen de agentes de propagación de bondades, que nunca sufrieron el filtro de la sensatez y de la razón para su calificación. Más sorprendente que estos escenarios, son los de las gentes que estudiaron muchos años para ejercer la profesión relacionada con la salud y, olvidando las enseñanzas recibidas, abrazan creencias con poco o ningún fundamento. Y lo peor es que exhiben sus posiciones infundadas, sin importarles demasiado la trascendencia de sus actos. También es cierto que la deontología y su vigilancia en colegios profesionales y academias restan deterioradas y quedan cautivadas por alguna razón que
Pg.136
Atanor
A. Requena
pueda justificar su mirada hacia otro lado. Una escena vivida personalmente, me llevó a una oficina de farmacia que, como hoy es frecuente, no disponía del medicamento que le pedí, por simple y de uso general que fuera (si no existiera la Hermandad Farmacéutica, qué sería de nosotros; las oficinas de farmacia están desabastecidas hasta el punto de convertirse en procedimiento habitual, el llamar por teléfono con antelación para que puedan responder a la petición), el caso es que ante la carencia, la titular de la Farmacia me ofreció un producto homeopático que ocupaba una muy bien surtida oferta de estos. Mi sorpresa fue extraordinaria, inquiriéndole cómo era posible que una persona como ella, que había invertido años de su vida en aproximarse a la Ciencia, pudiera ofrecerme aquella cosa. La respuesta no fue menos espectacular: mientras la gente me lo pida y lo pague, lo expenderé. ¡Pongan los calificativos! Enmarcar el conocimiento científico implica, también, descalificar explicaciones espurias, cuando no concurran las circunstancias que acrediten la cientificidad. Carnap propuso que un enunciado científico tiene que responder a la predicción de hechos observables. La verificabilidad que engloba a la repetibilidad, es el primer criterio de la cientificidad: empíricamente se tiene que poder observar el hecho predicho. Popper introdujo la falsabilidad como criterio de desarrollo: nada está definitivamente establecido, aunque muchos crean que lo genuinamente científico es el respaldo definitivo, una teoría, modelo, propuesta científica está, de forma permanente, expuesta a la demostración de que hay una teoría, modelo o propuesta que la mejora corrige o sustituye ventajosamente. Neurath introduce la consistencia interna, que es sinónimo de la ausencia de contradicciones. Con los mismos parámetros escenarios y condiciones concurrentes, la explicación tiene que ser la misma. Thagard incluye la coherencia en la explicación científica. Woodward, finalmente incluye las explicaciones causales que permiten que diseñemos una intervención gracias a incidir en las causas, para modificar los
TRAZO 2.8
Ciencia y creencia
Pg. 137
efectos. Ser verificable, refutable y coherente son requisitos imprescindibles para manejar causas y efectos. Los aspectos epistemológicos como diferencias en las normas, reglas y creencias que operan en la aceptación y rechazo de las creencias no justifican las concepciones personales de la salud y la enfermedad. Se puede conceder el beneficio del diálogo a cualquier formulación y un respetuoso trato de cualquier creencia, pero no es posible que se adopten creencias como métodos de tratamiento o justificación de actuación. Las creencias tienen su lugar y o no son de este mundo, o bien forman parte del acervo tradicional de épocas precientíficas en las que a falta de evidencias, se abrazan las creencias como explicaciones sustitutivas. Todos en buena lógica estamos obligados a ser razonables, pues la inteligencia se nos ha dado para ello; en ésta y otras facetas de la vida. Siendo la vida el mayor bien disponible en la Naturaleza no podemos andar con ingredientes no evidenciados como buenos. Es cuestión de cabeza, por tanto de cerebro. La Ciencia nos ha traído donde estamos, el uso que hagamos de ella es sobrevivir y dejar sobrevivir.
Pg. 138
Atanor
A. Requena
CIENCIA Y CREENCIA A. REQUENA @ LA VERDAD, 2020 1
2
3
4
5
6 7
8
9
10
12
11
13
14 15 16
17
EclipseCrossword.com
cumple
Horizontales 2.
9.
Todo el armazón conceptual de la Ciencia conduce a una explicación científica en la que ella es un requisito de imprescindible cumplimiento, como aportaría Thagard Ellos establecieran la referencia y la Edad Media viera la puesta en vigor con Galileo de un modo de abordar el estudio y conocimiento de la Naturaleza, que nos ha llevado a las cotas de conocimiento y desarrollo que hoy disfrutamos.
11. En Ciencia nunca hay una teoría así, por mucho que algunos lo intenten.
Verticales 1.
Los aspectos epistemológicos se pueden recibir en una respetuosa consideración, pero que nunca podrán serlo en pie de igualdad con los bien basados conocimientos que la Ciencia viene construyendo.
3.
Cuando no se consideran estos componentes verificación empírica, refutable, coherente, no se puede pasar deella.
4.
Profesionales de la medicina y la atención sanitaria, nos sorprenden, con demasiada frecuencia, con propuestas alternativas que no debieron hacelor con suficiente sosiego.
5.
La verifricación conlleva esta virtud científica.
6.
Los discursos y relatos que se hacen de otras, sorprenden por la ingenuidad de sus formulaciones y crean alarma.
7.
La Ciencia avanza hacia la “verdad” porque la incluye como semilla.
8.
Propone que para que una propuesta se califique de científica, debe predecir hechos observables.
12. La forma en que lo hacemos en el caso de las enfermedades es muy diversa. 13. Toda propuesta queda abierta a la opción de demostrar que lo es, incluso desechable, ante nuevos descubrimientos que lo evidencian. 14. Introdujo en el concepto de Ciencia, adicionalmente, la consistencia, es decir, no hay sorpresas por contradicciones internas. 15. Introduce en el concepto de Ciencia, la explicación causal que permite controlar los procesos que se pretenden explicar. 16. Modificando las causas se alteran. 17. Es un primer paso ineludible: lo que se propone se puede comprobar que se
10. La enmarcación de este conocimiento conlleva la descalificación de las explicaciones espurias.
TRAZO 2.9 TRAZO
Nuditas y neoluditas.
Pg. 139
2.9
Nuditas y neoluditas.
El progreso no siempre es nítido y aceptado por la Sociedad, incluso, a veces, no es tal progreso. El lenguaje nos suele traicionar y violenta los significados con harta frecuencia. El término innovación es uno de esos que, en base al mal uso, llega a perder significado. El 99% de las cosas que rotulamos como innovadoras no pasan de ser ocurrencias y como mucho novedades. A la tecnología le ocurre algo parecido. Ni toda la tecnología contribuye al progreso, ni hay por qué aceptarla sin más. En gran cantidad de casos no pasa de ser una simple y llana ocurrencia de algo de no mucho valor. Pero el hecho de ver el mercado, tampoco garantiza la innovación. Tan solo después de que la Sociedad lo ha asimilado y, en caso de aportación significativa a la mejora de alguna parcela de la vida de la especie humana, es entonces cuando alcanza el status de innovación. El coche lo es, muchas mecanizaciones lo son, la computación lo es, la nanotecnología lo es, el láser lo es, el móvil lo es, la Inteligencia artificial lo es y un largo etcétera. Pero no lo es, necesariamente una empresa que se rotula innovadora, ni una idea innovadora, ni tiene por qué serlo un producto que haya recibido una financiación pública o privada en una convocatoria denominada de innovación. No lo es toda la innovación que se proclama.
Pg.140
Atanor
A. Requena
Por otro lado, no todo el mundo asume la bondad de la tecnología. La técnica, que proviene de la Ciencia, es la que posibilita una realización concretándola, poniendo al alcance nuestro algo que o la Naturaleza mantenía alejado de nosotros o no éramos capaces de materializar artificialmente. La tecnología viene a concretar la forma de realizarlo. No todas las tecnologías aportan soluciones satisfactorias. En los primeros pasos del maquinismo estas ideas estaban bastante claras. Las máquinas irrumpían en el mundo laboral y en las consecuencias sociales que desencadenaban. La sustitución de la nobleza del trabajo que proclamaban los ámbitos económicos y religiosos, con todas las reducciones habidas hoy, que posibilitan el disfrute de las gentes y no solamente la atadura acaparadora de la producción, daba paso a no disponer del medio para ganarse la vida. La promesa de creación de trabajo en otros frentes y niveles, de momento deja fuera a una fuerza laboral a la que sustituye y, según la edad que se tenga, puede ser su final del periodo de vida laboral, como estamos viendo día sí y día también. El anarcosindicalista francés Émile Pouget (1860-1931), escribía " El trabajador solo respetará la máquina el día que ésta se convierta en su amiga, reduciendo su trabajo, y no como en la actualidad, que es su enemiga, quita puestos de trabajo y mata a los trabajadores" Mucho se ha dicho y escrito sobre los luditas. Ned Ludd nunca existió, pero se convirtió en la referencia del líder de la Inglaterra de comienzos del XIX que concitaba la suma del desencanto provocado por la pérdida de trabajo consecuencia de las guerras napoleónicas. El 11 de marzo de 1811 surgió el movimiento ludita en Notingham. Las amenazas y ataques a la industria textil en vías de renovación eran firmadas por Ludd. Telares destruidos, soldados movilizados, muertos, encarcelados, leyes represoras. Pero dado por finalizado el movimiento en 1813. Como luego puntualizaran estudiosos del movimiento ludita, "No es la tecnología, sino el capitalismo".
TRAZO 2.9
Nuditas y neoluditas.
Pg. 141
Hoy sigue manteniendo el significado de cuestionar el progreso, la oposición a la implantación de cualquier tecnología. Hay una fundación para la Tecnología de la Información e Innovación radicada en Estados Unidos, financiada por grandes compañías tecnológicas como Google, Dell o Microsoft, que dicen apostar por la innovación tecnológica como fuente de progreso económico y social y desde 2015 convoca y otorga los Premios Ludita, más apropiadamente neoluditas, valorando "la capacidad de convencer a la gente y a los políticos de que la innovación tecnológica es algo que debe ser temido y contenido". Así que, según esto, a los neoluditas se les atribuye querer "un mundo, en gran medida libre de riesgo, innovación y cambios incontrolados". En 2015 fueron premiados Stephen Hawking y Elon Musk, el primero archiconocido astrofísico y el segundo es el cofundador de Paypal, Tesla y SpaceX, simplemente por alertar de los peligros de la Inteligencia Artificial. Están desacreditados, por tanto los citados premios. Habrán otras pretensiones, como siempre inconfesables y no por parte de los premiados.
Pg. 142
Atanor
A. Requena
LUDITAS Y NEOLUDITAS A. REQUENA @ LA VERDAD, 2020 1
2
3
4
5 6
7
8
9 10
11 12
13
14
16
15
17
18
EclipseCrossword.com
poniendo al alcance nuestro
Horizontales 1.
Los estudiosos del movimiento ludita, sostiemem que “No es la tecnología, sino él”.
7.
El progreso no siempre es nítido y aceptado por ella.
9.
No todas las tecnologías las aportan satisfactorias.
11. Ciudad inglesa en la que el 11 de marzo de 1811 surgió el movimiento ludita. 13. No todo el mundo la asume para la tecnología. 14. Después de que la Sociedad lo ha hecho con una propuesta y, en caso de aportación significativa a la mejora de alguna parcela de la vida de la especie humana, es entonces cuando alcanza el status de innovación 15. Este término es uno de esos que, en base al mal uso, llega a perder significado 16. No todo el mundo asume la bondad para ella 17. El anarcosindicalista francés Émile Pouget (1860-1931), escribía “ El trabajador solo respetará la máquina el día que ésta se convierta en ella..." 18. El 99% de las cosas que rotulamos como innovadoras no pasan de ser ocurrencias o como éstas
Verticales 2.
Proviene de la Ciencia y es la que posibilita una realización concretándola,
3.
En sus primeros pasos, las ideas estaban bastante claras. Las máquinas irrumpían en el mundo laboral y en las consecuencias sociales que desencadenaban
4.
Una fundación para la Tecnología de la Información e Innovación, financiada por grandes compañías tecnológicas como Google, Dell o Microsoft, desde 2015 convoca y otorga los Premios Ludita, más apropiadamente así.
5.
Ned Ludd nunca existió, pero se convirtió en la referencia como tal, de la Inglaterra de comienzos del XIX
6.
Los premios Ludita valoran “la capacidad de convencer a la gente y a los políticos de que la innovación tecnológica es algo que debe ser temido y esto”.
8.
Stephen Hawking y Elon Musk, el primero archiconocido y el segundo es el cofundador de Paypal, Tesla y SpaceX, recibieron el Premio Ludita 2015, simplemente por alertar de los peligros de ella.
10. Hoy sigue manteniendo el significado de cuestionar el progreso, la oposición a la implantación de cualquier tecnología. 12. La sustitución de la nobleza del trabajo que proclamaban los ámbitos económicos y religiosos, con todas las reducciones habidas hoy, que posibilitan el disfrute de las gentes y no solamente la atadura acaparadora de la producción, daba paso a no disponer del medio para ganarsela.
TRAZO 2.10 TRAZO
Casi
inermes
Pg. 143
2.10
Casi inermes.
Una de las cuestiones más intrigantes de la Ciencia y en particular la Física es el interrogante ¿por qué el espacio vacío no pesa nada? Feynman ante esta pregunta le contestó a su interlocutor Wilczek "creo que la razón es porque no hay nada". Puede aparentar a primera vista que es un diálogo surrealista, pero vamos a detenernos un poco. Vacío, en el sentido actual del término, es lo que tenemos cuando hemos quitado cualquier cosa que hubiera. Por otro lado, decimos que una región del espacio "alcanza el vacío" si está libre de todo tipo de partículas y radiación conocidas, incluyendo la materia oscura, de la que sabemos algo en general, pero no con detalle. Por otro lado, el vacío es el estado de mínima energía. Una excelente aproximación al vacío es el espacio intergaláctico. Cuanto más nos alejamos de una galaxia, menor es la densidad de gas intergaláctico, llegando a valores casi imperceptibles. Para valorarlo, tengamos en cuenta que en un centímetro cúbico del aire que respiramos en nuestra atmósfera, hay unos 5 trillones de moléculas de oxígeno. Pero en el espacio intergaláctico podemos encontrar 10^(-6) átomos. Hay 24 órdenes de magnitud de diferencia. No obstante, las magnitudes aisladamente pierden significado. Siendo, como es, una cantidad imperceptible la concentración del gas intergaláctico, seguro que nuestra valoración cambia si apreciamos que la estimación de masa atómica total del gas intergaláctico sobrepasa la de todas las galaxias y estre-
Pg. 144
Atanor
A. Requena
llas juntas, hasta en un 50%. Nada despreciable, por tanto. Se puede concluir, con facilidad, que el mal llamado espacio vacío es imprescindible para poder entender la evolución del Universo, no obstante. Por otro lado, nada, la nada, es una idealización teórica, en el sentir de Wilczek y de muchos otros científicos. Significa ausencia o inexistencia de cualquier objeto, es decir, un espacio sin propiedades independientes, cuyo único papel, diríamos, es mantener todo lo que ocurra en el mismo sitio. La nada nos da las direcciones de las partículas, nada más. Es irrealizable en la práctica. Es un estado posible, idealizado, pero físicamente irrealizable. Un electrón y un positrón se aniquilan como partícula y antipartícula que son, en la Física de partículas, pero no producen la nada, sino que generan fotones en tal interacción. Físicamente es imposible delimitar una región del espacio que no contenga nada, por cuanto los campos gravitatorios no se pueden bloquear y, por otro lado, cualquier partícula con una temperatura por encima del cero absoluto, genera radiación electromagnética. No es fácil distinguir ambos conceptos. De hecho, Newton decía que la nada era un espacio uniforme sin masa y con una geometría euclídea. El concepto de vacío como espacio en el que se mueven las partículas materiales se violentó al introducir la teoría del éter como medio material que permitía la propagación de las ondas luminosas en el vacío, dado que, pese a la persistencia de Newton en el carácter corpuscular de la radiación, era apreciable que determinadas propiedades de la luz se podían explicar mejor considerando su naturaleza ondulatoria. El experimento de Michelson y Morley acabó con la fiebre del éter y se volvió a la idea de que el vacío no contenía nada. La cosa es que, tanto el principio de indeterminación de Heisemberg, como la teoría cuántica de campos sugirieron que el vacío era algo más complicado y que no podía ser la nada, dado que la Cuántica requería que el vacío estaba lleno de partículas virtuales que se crea-
TRAZO 2.10
Casi
inermes
Pg. 145
ban en pares partícula-antipartícula y se destruían constantemente. Probablemente, cuando se atribuye a Aristóteles la frase de "La naturaleza abomina del vacío", resulta más acertado decir "La Naturaleza abomina de la nada". El propio Newton, parece coincidir en esta apreciación cuando dice que "…un cuerpo pueda actuar a distancia con otro, a través del vacío, sin mediación de ninguna cosa, ya que la acción y la fuerza se pueden transportar de uno a otro, es para mí, un gran absurdo y creo que no hay hombre versado en cuestiones filosóficas y con facultades competentes de pensamiento, que pueda caer en ello". Aunque lo cierto y verdad es que la obra culmen de Newton, Los Principa, describe los protagonistas como cuerpos que ejercen fuerzas mutuas en el espacio, que es una estancia o receptáculo vacío, sin vida propia. Por tanto, también Newton confundió el vacío con la nada.
Pg.146
Atanor
A. Requena
CASI INERMES A. REQUENA @ LA VERDAD, 2020 1 2
3 4
5
6 7
8
9
10
11 12 13
14
EclipseCrossword.com
Horizontales 3.
No se trata de que no haya que tomarlas, pero la información ajustada es lo necesario para adoptar una posición de confianza o preocupación, finalmente.
6.
Se ha referido la vacuna, como salida posible y lejana, que desarrolla el sistema inmune, pero será uno de éstos, que combate la enfermedad, lo que llegará en primera instancia
9.
La Inteligencia Artificial tiene un terreno abonado en este campo , no solo para diagnóstico, al conectar con los Big Data.
10. Es éste un buen momento para reflexionar acerca de ella , sus formas, sus maneras de desarrollarla, sus previsiones. 12. Vivimos el avance de la pandemia del coronavirus con una auténtica. 13. Si hay algo que destaca es la gran cantidad de datos que se ha podido recabar en poco tiempo por la enorme cantidad de ellos afectados o controlados 14. La investigación básica pasada, que permitió desarrollar compuestos efectivos para combatir casos anteriores por ella podrían ser útiles en la actualidad.
Verticales 1.
El más prometedor de los proyectos que buscan solución por analogía con otros coronavirus anteriores con el actual COVID-19, es el denominado así por la farmacéutica Gimlead.
2.
La contabilización de los afectados y su distribución en el espacio, mundial, estatal, regional o local, solo da a entender la gravedad de la situación y lo desencadena.
4.
El aprendizaje automático es una herramienta potente para encontrarlos en cantidades enormes de datos.
5.
Los argumentos más realistas son los que refieren el esfuerzo de algunos centros de investigación en encontrar similitudes con otros que puedas aproximarse al actual.
7.
Remdesivir de la biofarmacéutica estadounidense Gilead Sciencies, Inc., actualmente en fase 3 de aprobación y para el que se han iniciado los clínicos.
8.
Se advierte que ella, de momento no se le espera, sino solo transcurrido en torno a un año.
11. El Remdesivir se ensayará en 1000 pacientes distribuidos en centros, en especial de países asiáticos, incluida la provincia china de Hubei, con 58.5 millones de habitantes y cuya capital es ésta.
TRAZO 2.11 TRAZO
Palabras
Pg. 147
2.11
Palabras.
Schrödinger nos propuso un experimento sencillo: llenamos un tubo oblongo de cuarzo, con oxígeno y lo sometemos a un campo magnético y el gas queda magnetizado. Es así, porque las moléculas de oxígeno son paramagnéticas, es decir, se comportan como pequeños imanes que tienden a orientarse paralelamente al campo magnético aplicado. Como si se tratara de imanes. El oxígeno es un gas, pero ocurriría lo mismo con materiales líquidos o sólidos que fueran paramagnéticos. El paramagnetismo consiste en la tendencia de los momentos magnéticos libres, tanto de espín como orbital, a alinearse paralelamente a un campo magnético. Si no se aplica un campo magnético externo entonces los momentos magnéticos están orientados al azar. El campo magnético actúa sobre cada momento magnético individualmente y no hay interacción entre los momentos magnéticos. Los materiales paramagnéticos se comportan cuando están sometidos a la acción de un campo magnético, exactamente igual que los imanes normales. Cuando se deja de aplicar el campo magnético, la entropía destruye el alineamiento magnético. Es decir, no se convierten en materiales con magnetización permanente. El propio aire, magnesio, aluminio, titanio o wolframio son materiales paramagnéticos, además del propio oxígeno. Ahora bien, siguiendo el experimento de Schrödinger, al aplicar el campo magnético al tubo conteniendo oxígeno,
Pg. 148
Atanor
A. Requena
no debemos pensar que todas las moléculas de oxígeno se alinean con el campo magnético aplicado. La prueba está en que si duplicamos la intensidad del campo magnético aplicado, lograremos una magnetización del doble en el mismo material, que es el oxígeno contenido en el tubo. Es decir que hay una proporcionalidad entre los valores del campo aplicado y la magnetización lograda. Y esto es así hasta valores de campo muy elevados. Es un ejemplo claro de una ley puramente estadística, como nos apunta Scrhödinger. La orientación que el campo magnético impone a las moléculas de oxigeno, se ve contrarrestada por el movimiento térmico, que trata de imponer una orientación al azar. Claramente pues, el resultado observable será , según Langevin explicó, que el resultado de esta tensión entre dos fuerzas contrapuestas, resulta en que hay una preferencia por los ángulos agudos sobre los obtusos, entre los ejes de los dipolos magnéticos y la dirección del campo magnético externo aplicado. Globalmente, a pesar de que los átomos individualmente modifican su orientación constantemente, por término medio hay una orientación preferente en la dirección del campo magnético aplicado, proporcional a la intensidad del mismo. Podemos comprobarlo: debilitando el movimiento térmico, aumentamos a magnetización. Debe tener el mismo efecto disminuir la temperatura (amortiguar el movimiento térmico) que disminuir la intensidad del campo magnético aplicado. Experimentalmente, se ha probado que la magnetización es inversamente proporcional a la temperatura y la ley se denomina ley de Curie. Si conseguimos disminuir el movimiento térmico a valores insignificantes, podremos lograr que la orientación debida al campo magnético se imponga, tanto como para lograr una fracción de magnetización sustancial. Si esto fuera así, ya no cabría que al duplicar la intensidad del campo se duplicara la magnetización, sino que se incremente cada vez menos al incrementar el campo magnético aplicado y logremos un valor de saturación. Se ha confirmado experimentalmente.
TRAZO 2.11
Palabras
Pg. 149
En todo caso el grado de inexactitud que cabe esperar de cualquier ley física conlleva un error que es la llamada ley de la raíz cuadrada del número de elementos que constituyen la muestra) Como Schrödinger recuerda, si efectuamos una medida bajo determinadas condiciones de presión y temperatura de un gas y encontramos que hay n moléculas del gas, si lo comprobamos, veremos que el resultado es inexacto y la desviación es del orden de . Es decir que si se trata de n=100 moléculas, la desviación es de 10, es decir un error relativo del 10%. en cambio si el número de moléculas es de un millón, entonces la desviación sera de unas 1000, pero el error solamente será del 0.1 %. Así, pues, el error relativo probable de una medida inexacta es de 1/ , siendo n el número de moléculas o átomos que de forma cooperativa dan lugar a la ley. En términos de un organismo vivo, deberá tener una estructura comparativamente grande para poder ser descritos por leyes tanto en su comportamiento interior, como exterior. Si no fuera este el caso, la ley resultaría demasiado inexacta para poder alcanzar la categoría de Ley de la Naturaleza.
Pg. 150
Atanor
A. Requena
PALABRAS A. REQUENA @ LA VERDAD, 2020 1
2
3 4
5 6
7
8 9
10 11
12 13
14
15
16
EclipseCrossword.com
Horizontales 2.
Hay una teoría ecléctica en la que lenguaje y pensamiento están ligados y su representante más cualificado en este psicólogo ruso.
3.
A uno de ellos les dio el espíritu, a otro los sentimientos y al tercero ésto.
4.
Otra alternativa es la teoría en la que el pensamiento está antes que el lenguaje, siguiendo el enunciado de este pensador “pienso, luego existo”, soportada en la hipótesis cognitiva, entorno bien representado por Piaget.
9.
La Torre de Babel lo hizo con todas las lenguas.
11. No tenemos contestación al interrogante de quién fue el que lo hizo con las palabras. 12. El lenguaje está fuertemente ligado con ella y ésta se apoya en el lenguaje como forma de intermediación. 13. La mitología nórdica utiliza tres de ellos. 14. Mi maestro me enseñó a amarlas. 15. Las palabras como signo lo son. 16. Los Bantúes en África sitúan tras una hambruna los balbuceos de los que surgieron éstas.
Verticales 1.
El pensamiento es lingüístico por naturaleza y el lensuaje lo es suyo.
2.
Mestro de juventud y Catedrático emérito de Literatura Hispanoamericana de la Universidad de Murcia.
5.
Para la gramática generativa de Chomsky, el pensamiento se desarrolla como consecuencia del desarrollo idiomático, primero las palabras y después éste.
6.
De la escritura es más fácil seguir el trazado, por razones obvias, incluso se data en el 3200 a.C. y en Mesopotamia, con esta escritura.
7.
Noam Chomsky aportó que no hay por qué saber las reglas para comenzar a hablar, lo que lleva a este origen de la lengua.
8.
El lenguaje acelera nuestra actividad intelectual y las psíquicas superiores
9.
Dios pidió a Adán que las nombrara todas.
10. Lo primero fue el verbo, nos dice ella.
TRAZO 2.12 TRAZO
No
mas
pensar
en
pequeño
Pg. 151
2.12
No mas pensar en pequeño.
Hoy no se pone en duda la importancia de la energía como denominador común de la vida en la Tierra. Es usual que la identidad física y material del mundo se centre en la interpretación de las formas de energía. Podemos reparar, con facilidad, que la totalidad del entorno y los propios seres humanos son concebidos como concentraciones eventuales de energías inmersas en transformaciones. De aquí deriva que la organización de las energías del Cosmos y de las personas sea imprescindible, aun cuando se trate de realizaciones de forma individual que acontecen en tiempos eventuales. En los siglos XIX y XX se mantuvo el debate sobre la energía que, cuando se desarrollaba en ámbitos próximos a la fenomenología, sustentaba ideas que, con el tiempo, se convirtieron en principios fundamentales de la Ecología. Científicos preeminentes, como Ostwald, sustentaban que "nada puede producirse sin energía y nada se puede producir que no tenga lugar en el tiempo y en el espacio". Ahora bien, mientras que tanto el tiempo como el espacio pueden estar vacíos, aunque solo sea aparentemente, no es imaginable considerar algún proceso en el que no tome parte la energía. La realidad exige, como elemento esencial, la energía. Algo que acontece, que es patente que ocurre, requiere para su análisis indicar las causas, mencionando las energías que intervienen, que vienen a ser como las fuerzas que impulsan los fenómenos. El Mundo no es solo una colección de cosas,
Pg. 152
Atanor
A. Requena
sino que es un todo, "cuyas partes están unidas orgánicamente entre sí, prestándose apoyo mutuo", como diría Ostwald. La concepción del Universo como un continuo energético, no es nueva. La única sustancia que subyace a todo, es la energía y de ella depende todo lo que rotulamos como real. La individuación física es un proceso en el que los cuerpos emergen como densificaciones de energías, tanto los seres vivientes como los inanimados. Una cosa es lo que el ojo nos provoca e informa como sensación y otra, bien distinta, la incesante conexión de todas las energías constituyendo una unidad energética. El cuerpo humano es un procesador energético con constantes flujos de intercambio bidireccional de energía con el entorno. Son transformaciones, algunas de las cuales solamente tienen visualización con el paso del tiempo: transpiramos constantemente, intercambiamos gases de forma permanente y disipamos calor asociado a los procesos relacionados con el aparato motor. Pero los seres no vivos, también se transforman constantemente mediante intercambios de energía, como evidencian los paisajes, las rocas, etc. que sufren transformaciones visibles con el paso del tiempo. Lo real, para los fenomenólogos es todo lo contrastable empíricamente, lo que se manifiesta y puede ser capturado sensorialmente por el ser humano, entre otros. En cambio, no son visibles ni calor, ni humedad, ni sonido, pongamos por caso, pero son también reales. Naturalmente, todo lo que captura el ser humano está sujeto a una interpretación psíquica, mental y cultural. La conexión entre percepción y conciencia humanas se refuerza al otorgarle dimensión ontológica a la energía. Las sensaciones fueron estudiadas por el físico y filósofo austríaco Mach, antes de que Ostwald introdujera la importancia de la energética, reparando en las combinaciones de colores, sonidos, calor, presión, espacio, etc., que se presentan ligados a estados de ánimo, sentimientos y voliciones. Los elementos más firmes se graban en la memoria y se expresan a través del lenguaje. Energías y sensaciones participan
TRAZO 2.12
No
mas
pensar
en
pequeño
Pg. 153
de la fluidez y unidad del Cosmos y vienen a imponer la necesidad de que lo real se aborde desde aproximaciones heurísticas o empíricas. Son experimentos percibidos por el cuerpo e interpretados por la mente. La continuidad de lo real en la Estética impone fórmulas de alcance cosmológico en las que tenga sentido la participación de la persona en el Cosmos. Históricamente, desde tiempo inmemorial, ha habido muchas propuestas en las que la energía representa un papel fundamental. La Alquimia nacida en la Edad Antigua ya pretendía ser una Ciencia de la Totalidad. Combinar fuego, agua, tierra y aire en el microcosmos pretende, en el fondo, la integridad del Universo y se replica en el interior del cuerpo humano en un microcosmos humano que integra los mismos cuatro elementos. Es la energía descompuesta en sus cuatro componentes la que se encuentra recombinada y es la que permitía situarse entre la sensación y la causalidad científica. Pero no era estéril la propuesta, propiciaba encontrarse la persona con el conocimiento integral del mundo. No podemos seguir pensando en "pequeño".
Pg. 154
Atanor
A. Requena
NO MAS PENSAR EN PEQUEÑO A. REQUENA @ LA VERDAD, 2020
1
2
3
4
6
5 7
8
9
10 11
12 13 14
15
16
EclipseCrossword.com
Horizontales 6.
No lo son ni calor, ni humedad, ni sonido, pongamos por caso, pero son también reales.
8.
La totalidad del entorno y los propios seres humanos son concebidos como concentraciones eventuales de energías inmersas en ellas.
Verticales 1.
Para ellos lo real es todo lo contrastable empíricamente.
2.
Es usual que la identidad física y material de él se centre en la interpretación de las formas de energía.
3.
En los siglos XIX y XX se mantuvo el debate sobre la energía que, sustentó ideas que, con el tiempo, se convirtieron en principios fundamentales de esta rama de la Ciencia..
4.
Mientras que tanto el tiempo como el espacio pueden estarlo, aunque solo sea aparentemente, no es imaginable considerar algún proceso en el que no tome parte la energía.
5.
La organización de las energías de él y de las personas sea imprescindible, aun cuando se trate de realizaciones de forma individual que acontecen en tiempos eventuales.
7.
El cuerpo humano es un procesador energético con constantes flujos de intercambio bidireccional de energía con él.
9.
Exige, como elemento esencial, la energía.
10. La concepción del Universo como un continuo de este tipo, no es nueva. 11. Una cosa es lo que él nos provoca e informa como sensación y otra, bien distinta, la incesante conexión de todas las energías constituyendo esa unidad energética. 12. La física es un proceso en el que los cuerpos emergen como densificaciones de energías. 13. Algo que acontece, que es patente que ocurre, requiere para su análisis indicarlas, mencionando las energías que intervienen, 14. Todo lo que captura el ser humano está sujeto a una interpretación psíquica, mental y también esta. 15. Hoy no se pone en duda la importancia de ella como denominador común de la vida en la Tierra 16. El Mundo no es solo una colección de ellas, sino que es un todo.
TRAZO 2.13 TRAZO
Estados
de
alerta
Pg. 155
2.13
Estados de alerta.
Hoy no se pone en duda la importancia de la energía como denominador común de la vida en la Tierra. Es usual que la identidad física y material del mundo se centre en la interpretación de las formas de energía. Podemos reparar, con facilidad, que la totalidad del entorno y los propios seres humanos son concebidos como concentraciones eventuales de energías inmersas en transformaciones. De aquí deriva que la organización de las energías del Cosmos y de las personas sea imprescindible, aun cuando se trate de realizaciones de forma individual que acontecen en tiempos eventuales. En los siglos XIX y XX se mantuvo el debate sobre la energía que, cuando se desarrollaba en ámbitos próximos a la fenomenología, sustentaba ideas que, con el tiempo, se convirtieron en principios fundamentales de la Ecología. Científicos preeminentes, como Ostwald, sustentaban que "nada puede producirse sin energía y nada se puede producir que no tenga lugar en el tiempo y en el espacio". Ahora bien, mientras que tanto el tiempo como el espacio pueden estar vacíos, aunque solo sea aparentemente, no es imaginable considerar algún proceso en el que no tome parte la energía. La realidad exige, como elemento esencial, la energía. Algo que acontece, que es patente que ocurre, requiere para su análisis indicar las causas, mencionando las energías que intervienen, que vienen a ser como las fuerzas que impulsan los fenómenos. El Mundo no es solo una colección de cosas,
Pg. 156
Atanor
A. Requena
sino que es un todo, "cuyas partes están unidas orgánicamente entre sí, prestándose apoyo mutuo", como diría Ostwald. La concepción del Universo como un continuo energético, no es nueva. La única sustancia que subyace a todo, es la energía y de ella depende todo lo que rotulamos como real. La individuación física es un proceso en el que los cuerpos emergen como densificaciones de energías, tanto los seres vivientes como los inanimados. Una cosa es lo que el ojo nos provoca e informa como sensación y otra, bien distinta, la incesante conexión de todas las energías constituyendo una unidad energética. El cuerpo humano es un procesador energético con constantes flujos de intercambio bidireccional de energía con el entorno. Son transformaciones, algunas de las cuales solamente tienen visualización con el paso del tiempo: transpiramos constantemente, intercambiamos gases de forma permanente y disipamos calor asociado a los procesos relacionados con el aparato motor. Pero los seres no vivos, también se transforman constantemente mediante intercambios de energía, como evidencian los paisajes, las rocas, etc. que sufren transformaciones visibles con el paso del tiempo. Lo real, para los fenomenólogos es todo lo contrastable empíricamente, lo que se manifiesta y puede ser capturado sensorialmente por el ser humano, entre otros. En cambio, no son visibles ni calor, ni humedad, ni sonido, pongamos por caso, pero son también reales. Naturalmente, todo lo que captura el ser humano está sujeto a una interpretación psíquica, mental y cultural. La conexión entre percepción y conciencia humanas se refuerza al otorgarle dimensión ontológica a la energía. Las sensaciones fueron estudiadas por el físico y filósofo austríaco Mach, antes de que Ostwald introdujera la importancia de la energética, reparando en las combinaciones de colores, sonidos, calor, presión, espacio, etc., que se presentan ligados a estados de ánimo, sentimientos y voliciones. Los elementos más firmes se graban en la memoria y se expresan a través del lenguaje. Energías y sensaciones participan
TRAZO 2.13
Estados
de
alerta
Pg. 157
de la fluidez y unidad del Cosmos y vienen a imponer la necesidad de que lo real se aborde desde aproximaciones heurísticas o empíricas. Son experimentos percibidos por el cuerpo e interpretados por la mente. La continuidad de lo real en la Estética impone fórmulas de alcance cosmológico en las que tenga sentido la participación de la persona en el Cosmos. Históricamente, desde tiempo inmemorial, ha habido muchas propuestas en las que la energía representa un papel fundamental. La Alquimia nacida en la Edad Antigua ya pretendía ser una Ciencia de la Totalidad. Combinar fuego, agua, tierra y aire en el microcosmos pretende, en el fondo, la integridad del Universo y se replica en el interior del cuerpo humano en un microcosmos humano que integra los mismos cuatro elementos. Es la energía descompuesta en sus cuatro componentes la que se encuentra recombinada y es la que permitía situarse entre la sensación y la causalidad científica. Pero no era estéril la propuesta, propiciaba encontrarse la persona con el conocimiento integral del mundo. No podemos seguir pensando en "pequeño".
Pg. 158
Atanor
A. Requena
ESTADO DE ALERTA A. REQUENA @ LA VERDAD, 2020 1
2
3 4
5 7
6 8
9
10
11
12
13 14
15
EclipseCrossword.com
actividad de los neurotransmisores, como la serotonina y la dopamina.
Horizontales 2.
Cualquier situación forzada, racionalizada o no, implica tensiones que, a menudo, tienen repercusiones físicas y de este tipo.
6.
Muchos estudios avalan la importancia de esta robustez humana, para incidir en el devenir de la conducta posterior a las situaciones extraordinarias.
7.
9.
El sistema hormonal se ve afectado como consecuencia de acciones externas que afectan a la vivencia de situaciones sumidas en ellas. Incluye las interacciones entre la genética y el medio ambiente.
10. Desequilibrado, hace referencia a que su dinámica vital puede discurrir por vías incompatibles, incluso, con la estructural. 11. Experimentos llevados a cabo en ratones indican que, cuando se les incorpora el factor neurotrófico en él, el aprendizaje es más rápido y deciden con mayor acierto. 12. Este concepto, tan importante en el mundo científico, supone una referencia a la estabilidad, homeostasis. 13. Capacidad de un material para absorber energía elástica cuando se le somete a deformación y de cederla cuando se deja de aplicar la carga. 14. Determinan nuestra configuración neurofisiológica básica, e inciden en la
15. La resiliencia hace referencia a esa capacidad de recuperación de estas situaciones y tiene mucho que ver con la de adaptación a ellas.
Verticales 1.
Experimentalmente, se ha deducido que la capacidad resiliente está relacionada con este factor derivado del cerebro.
3.
En alguna medida, atravesamos una situación de estrés, por múltiples motivos, relacionados con él.
4.
La superación de estas situaciones, tiene mucho que ver con la de retorno al equilibrio
5.
Esta rama del saber, lo ha tomado prestado y popularizado para hacer referencia a la resistencia mental
8.
Estudios realizados con ellos, ponen en evidencia que la epigenética, que incluye las interacciones entre la genética y el medio ambiente, incide en la forma de descodificar la información hereditaria en las células del organismo.
12. Se ha señalado como uno de los indicadores relacionados con adversidades y desencadenar, como consecuencia, procesos inflamatorios en organismos vivos, en especial humanos.
TRAZO 2.14 TRAZO
Alondras
y
búhos
Pg. 159
2.14
Alondras y búhos.
La torpeza en el desenvolvimiento cotidiano, suele interpretarse como falta de ritmo cerebral; como si el cerebro no se hubiera despertado todavía y le costara ponerse en marcha, a unas personas más que a otras. De hecho, se ha clasificado a los humanos en los cronotipos alondra y/o búho, significando, entre otras, la facilidad para sumergirse en el sueño a horas tempranas o tardías de la noche, respectivamente, lo que conlleva un despertar madrugador o tardío por la mañana y lleva aparejado la facilidad para desarrollar tareas o la torpeza, hasta que el cuerpo se normaliza. Se suele atribuir al funcionamiento de las neuronas que, al no ponerse en marcha, justifican el argumento de las lagunas o despistes ocasionales que pudieran suceder. Algunos investigadores han mantenido que estos trastornes de la atención y la memoria, estaban en relación con la actividad de las neuronas del cerebro. Pero no necesariamente es así. Recientemente, se ha descubierto que los mecanismos de inhibición neuronal pudieran estar en la raíz de la explicación, activando de forma descontrolada centros neurálgicos, como la corteza prefrontal y el hipocampo, según revela Bast. Esto pone de manifiesto que mucha actividad, no es sinónimo de mejor actividad. Contracción de músculos e incluso pérdida de conocimiento, son consecuencias de una descarga neuronal incontrolada. Al final, como siempre, todo lo que nos aleja del equilibrio, resulta ser negativo, de uno u otro modo. La modulación de la transmisión de las señales de excitación
Pg. 160
Atanor
A. Requena
o inhibición son determinantes. Los neurotransmisores son las sustancias que emplean las neuronas para comunicarse: se unen a los receptores de otra neurona y posibilitan que los iones transiten por los canales de la membrana. El resultado es una modificación de la carga eléctrica, lo que genera una diferencia de potencial que activa una onda de excitación que se transmite de una neurona a otra. Por el contrario, la señal que provoca la inhibición está intermediada por el denominado mensajero ácido gamma- aminobutírico, cuya función es alterar la carga de la membrana y, de esta forma, pone dificultades para que se genere la diferencia de potencial. La inhibición tiene como consecuencia el control de la descarga de las neuronas, de forma que así, se pondera a respuesta a estímulos concretos. En el envejecimiento, así como en enfermedades neurológicas como alzhéimer, autismo, depresión, esquizofrenia, trastorno bipolar, la acción inhibitoria de las neuronas no funciona apropiadamente. La zona prefrontal coordina as funciones cognitivas y de atención, mientras que el hipocampo es un modulador de la memoria, interviniendo en el recuerdo. Se ha evidenciado que los pacientes de Alzheimer tienen una mayor actividad en el hipocampo. Si deja de funcionar la inhibición la respuesta de las neuronas responde a estímulos muy pequeños. Peores recuerdos y menos concentrados, es el resultado para los humanos. Esto evidencia que menos actividad neuronal, en ocasiones, es más. Cuando las neuronas del lóbulo frontal descargan, alteran, además de la atención otras funciones cognitivas. Nuestra capacidad de adaptación a escenarios nuevos requiere una flexibilidad mental que permita adaptarnos. La deshibición neuronal es un problema, como señalamos. Su control se hace necesario, cuando no de forma natural, con intervención farmacológica. Probablemente, una vía en detención de la pérdida de memoria, en enfermedades como el Alzheimer, discurra por el camino de restablecer el
TRAZO 2.14
Alondras
y
búhos
Pg. 161
equilibrio que requiere nuestra actividad cognitiva y la inhibición cerebral. No cabe duda que los retos de la investigación actual incluyen los mecanismos de regulación de la actividad neuronal de las zonas cerebrales implicadas en la cognición y el comportamiento. Parece claro que hay una asociación más intensa entre las alteraciones del cerebro por actividad neuronal desenfrenada y fuera de control, que por reducción de la actividad de las neuronas. Esto, visto así, implica lo contrario de las hipótesis de trabajo desarrolladas desde tiempo inmemorial, basadas en potenciar la actividad cerebral como remedio de todos los males. Menos es más en salud mental. La estimulación transcraneal, como panacea de las dolencias relacionadas con la actividad de las neuronas, no responde a los escenarios que hasta hoy se conocen e investigan. No nos tiene que sorprender que, así es como se trabaja en Ciencia: método, repetibilidad y falsabilidad. Y gradual, poco a poco, sin pausa, poniendo en duda, nunca aceptando verdades dogmáticas. Todo es susceptible de reinterpretarse. Coherencia es el ámbito. Nunca el dogma. Alondras y búhos tienen su explicación. Otra cosa es que no sea la de siempre.
Pg. 162
Atanor
A. Requena
ALONDRAS Y BUHOS A. REQUENA @ LA VERDAD, 2020 1 2
3 4
5 6
8
7
9 10
11
12
13 14
EclipseCrossword.com
acción inhibitoria de las neuronas no lo hacve apropiadamente.
HORIZONTALES 8.
La modulación de la transmisión de las señales de excitación o inhibición lo son.
2.
Los neurotransmisores, prppician una modificación de la carga eléctrica, lo que genera una diferencia de él, que activa una onda de excitación que se transmite de una neurona a otra.
3.
Se ha descubierto que ests mecanismos neuronales, pudieran estar en la raíz de la explicación de los trastornos de atención y de la memoria.
13. El mensajero ácido gammaaminobutírico, tiene como función alterar la carga de ella y, de esta forma, pone dificultades para que se genere la diferencia de potencial.
4.
Se les ha clasificado como alondras y/o buhos.
5.
La inhibición tiene como consecuencia el control de ella en las neuronas.
14. Son las sustancias que emplean las neuronas para comunicarse: se unen a los receptores de otra neurona y posibilitan que los iones transiten por los canales de la membrana.
6.
La torpeza en el desenvolvimiento cotidiano, suele interpretarse como falta de este ritmo.
7.
Se suele atribuir al funcionamiento de ellas que, al no ponerse en marcha, justifican el argumento de las lagunas o despistes ocasionales que pudieran suceder.
9.
Todo lo que nos aleja de él, resulta ser negativo, de uno u otro modo
10. A unas personas más que a otras.les ocurre al levantarse, como si este órgano no se hubiera despertado todavía y le costara ponerse en marcha, 11. En las neuronas, se evidencia que mucha actividad, no es sinónimo de que la actividad lo sea.
VERTICALES 1.
En el envejecimiento, así como en enfermedades neurológicas como alzhéimer, autismo, depresión, esquizofrenia, trastorno bipolar, la
12. Se ha clasificado a los humanos en los cronotipos alondra y él.
TRAZO 2.15 TRAZO
Filosofía
científica
Pg. 163
2.15
Filosofía científica.
El tradicional supuesto divorcio entre Ciencia y Letras, es algo mas que una pose superficial. Suele ser una forma de auto-encasillamiento limitante en ambos sentidos. Las capacidades desarrolladas, debidas a los sistemas educativos, propician sentimientos excluyentes que suelen ser ficticios, pero sentidos como sustanciales. Los bloqueos de muchas personas en lo que tiene que ver con los ordenadores, teléfonos e "instrumentos de botones", aflora una especie de incapacidad sentida ante la tecnología que aparta irracionalmente del uso y disfrute de la misma. Sorprende que los niños enfrenten la tecnología con desparpajo y se llega a afirmar que son nacidos ungidos por ella. A poco que pensemos, hay poco de racional en tal afirmación. El bloqueo de los mayores con la tecnología, no responde a una realidad insalvable, sino a una entrega cómoda que le permite soslayar un aprendizaje, necesario ante lo desconocido, como tantas otras cosas de esta vida. Sensu contrario, todo parecería indicar que "las letras" para los "otros" son terreno vedado, por falta de sensibilidad, percepción o ambas, acerca de la armonía, la creatividad en parcelas no constructivas o negación de importancia a todo constructo que no tenga como protagonista la materia o sus transformaciones. Ejemplos notables desmienten este escenario equívoco de división. También, sistemáticamente, se cometen atropellos, como es poner en pie sistemas educativos que permiten que lleguen a la Universidad estudiantes que no cursaron las asignaturas propias de la carrera que emprenden, como iniciarse en la Universidad en la carrera de
Pg. 164
Atanor
A. Requena
Física, cuando en los últimos años de Bachillerato no cursaron tal disciplina. La sabiduría de los planificadores, también es propia de feria en algunos casos. A finales de febrero falleció el físico y filósofo de la Ciencia, Mario Bunge, como nos recuerda Miguel Ángel Quintanilla, el que tuviera una vida pública destacada, además de ser Catedrático de Lógica y Filosofía de la Ciencia, y que fue discípulo de aquél. Mario Bunge, además de físico teórico, desarrolló una brillante carrera académica en el área de Filosofía de la Ciencia. Además de la interpretación de la Mecánica Cuántica, el principio de causalidad, el determinismo y la probabilidad en la Ciencia, fueron sus especiales áreas de interés. Fue crítico con la interpretación de Copenhague, valorándola demasiado involucrada con la medida y probabilidades subjetivas y ofrecía la alternativa de una mayor objetividad, que no tuvo demasiado recorrido, pero que aportaba la idea de utilizar unas entidades que no incluían las clásicas referencias de posición, impulso o el concepto de dualidad onda-corpúsculo, descritas en términos estocásticos y, por tanto, independientes del observador. Mario Bunge está calificado como uno de los grandes filósofos del siglo pasado. Pretendió aproximar los pensamientos científico y filosófico. En ciertos ámbitos se le calificó como positivista, más como imputación de pretendido descrédito que como reconocimiento a una posición filosófica. Su aportación se basó en la introducción en el ámbito filosófico de conceptos propios del universo científico. en aras de comprenderlos con profundidad desde la perspectiva filosófica, reparando, al tiempo, que determinados conceptos genuinamente filosóficos, desde materia, hasta justicia, pasando por riqueza y muchos otros, es imprescindible reelaborar a la luz de los conocimientos científicos actualizados. Quintanilla caracteriza seis aspectos que configuran la filosofía de la Ciencia de Mario Bunge: materialismo, carácter
TRAZO 2.15
Filosofía
científica
Pg. 165
sistémico, realismo científico, conceptualismo, reconocimiento de que las Ciencias Sociales requieren las anteriores categorías para madurar y que la Ética y la Filosofía práctica deben sustentarse en una teoría de valores objetivos, compatibles con la Ciencia. Cabe destacar que, además, fue un ciudadano coherente desarrollando una vida en consonancia con las ideas que sostenía. Desde la fundación de una Universidad Obrera en Argentina, hasta su compromiso con la democracia integral que incluía desde componentes culturales hasta económicos, además de políticos. Es un excelente ejemplo de la ausencia de fronteras ficticias entre Ciencias y Letras. La profundidad de la Ciencia, conduce a la Filosofía, porque lo es. La única barrera es la que podemos poner ficticiamente, bien por ignorancia o para soslayar una profundidad que forma parte del continuo que es el conocimiento, que no atiende a parcelaciones. El Universo solamente se puede concebir como la Totalidad. Otra cosa es que, solamente podemos acceder, limitadamente y establecemos límites para analizar y estudiar los sistemas. No hay ninguna parcelación del conocimiento previamente establecida. Solamente la complejidad nos hace establecer límites. Es probable que determinadas capacidades y habilidades nos faciliten el enfoque en escenarios concretos.
.
Pg. 166
Atanor
A. Requena
FILOSOFIA CIENTIFICA A. REQUENA @ LA VERDAD, 2020 1
2
3
4
6
5
7
8 9 10 11 12 13 14
EclipseCrossword.com
HORIZONTALES 1.
La de los planificadores, también es propia de feria en algunos casos.
4.
Todo parecería indicar que las letras para los “otros” son terreno vedado, por falta de ella.
6.
Mario Bunge hizo reparar que, determinados conceptos genuinamente filosóficos, desde materia, hasta justicia, pasando por riqueza y muchos otros, es imprescindible hacerlo a la luz de estos conocimientos científicos actualizados.
7.
Sorprende que los niños enfrenten la tecnología con desparpajo y se llega a afirmar que son nacidos así, por ella
8.
Mario Bunge lo fue con la interpretación de Copenhague, valorándola demasiado involucrada con la medida y probabilidades subjetivas y ofrecía la alternativa de una mayor objetividad
9.
11. A Mario Bunge, en ciertos ámbitos se le calificó como tal, más como imputación de pretendido descrédito que como reconocimiento a una posición filosófic 12. El bloqueo de los mayores con ella, no responde a una realidad insalvable, sino a una entrega cómoda. 13. Además de la interpretación de la Mecánica Cuántica, el principio de causalidad, el determinismo y la probabilidad en la Ciencia, fueron sus especiales áreas de interés de este físico y filósofo argentino-canadiense. 14. Mario Bunge está calificado como uno de los grandes del siglo pasado
VERTICALES 2.
El tradicional supuesto de este tipo, entre Ciencia y Letras, es algo mas que una pose superficial
3.
Se cometen, como es poner en pie sistemas educativos que permiten que lleguen a la Universidad estudiantes que no cursaron las asignaturas propias de la carrera que emprenden.
5.
Las capacidades desarrolladas, debidas a estos sistemas, propician sentimientos excluyentes que suelen ser ficticios, pero sentidos como sustanciales.
Mario Bunge, además de físico teórico, desarrolló una brillante carrera académica en el área de Filosofía de ella.
10. La aportación de Mario Bunge, se basó en la introducción en el ámbito filosófico de conceptos propios de este universo.
TRAZO 2.16 TRAZO
Adicción
y
bacterias
Pg. 167
2.16
Adicción y bacterias.
Las adicciones son un problema social, no cabe duda. Pero lo son también científico. Las hipótesis de trabajo que centran las adicciones en los aspectos conductuales, quedan cada vez más lejos de ser una aproximación razonable para explicarlas. Poder explicarlas es poder acercarse a soslayarlas y hacerlo de forma eficaz. Los marcos referenciales mas actuales centran las adicciones en enmarcarlas como enfermedades. Urge establecer los mecanismos por los que discurren, con objeto de poder pretender paliarlas con algo más que la voluntad. Terapias psicológicas y farmacológicas se complementan con las tecnologías para abordar el estudio con mayor garantía de éxito. En todo lo relacionado con el cerebro, las cosas van despacio, dado que no es un órgano susceptible de ser tomado en experimentación con las facilidades de los demás en humanos, ni mucho menos comparable a la experimentación incluyendo repetibilidad y falsabilidad como requiere la Ciencia. Razones éticas y no científicas limitan la experimentación. Por eso, tiene cada vez más importancia la tecnología que permite escudriñar el interior del cerebro sin necesidad de penetrarlo. Las relaciones del cerebro con otras partes del cuerpo humano, incluso consideradas muy remotas, son un hecho. De forma común, las sustancias que producen adicción, activan los centros de recompensa del cerebro que estimulan la
Pg. 168
Atanor
A. Requena
acción de los neurotransmisores, como, por ejemplo, la dopamina. Esta acción que resulta ser agradable, incentiva la exigencia de más sustancia, desencadenando la adicción. Lo que no está tan bien establecido, es que órganos tan distantes y distintos como el intestino y los microbios sumergidos en él, pueden incidir en el proceso de la adicción. La relación intestino cerebro, no es nueva. La flora intestinal tiene gran impacto sobre nuestra salud. Los, alrededor de cien millones de bacterias que habitan en nuestro intestino (mas de dos kilos) trabajan por nuestra salud, con selectividad sobre los alimentos, para clasificarlas como beneficiosas o no, reduciendo el sobrepeso o incrementándolo, por ejemplo. Las enfermedades inflamatorias intestinales y los trastornos inmunológicos, están íntimamente relacionados con la macrobiota, que también parece regular los niveles de serotonina. Las comunidades de microorganismos de nuestra macrobiota están en contacto con el sistema nervioso central. Ya se ha evidenciado anteriormente su incidencia en parkinsson, depresión esquizofrenia, etc. Ahora se desvela el papel en la adicción. La macrobiota de adictos y sanos no es la misma. Las especies no son las mismas, como se ha visto en los fumadores o como ocurre con los cocainómanos. Se ha descubierto que las paredes intestinales son mas permeables con el deterioro de la macrobiota, de forma que, cuando traspasan las bacterias esa barrera pueden provocan inflamaciones en otras partes del cuerpo, pudiendo alcanzar el cerebro y superar la barrera hematoencefálica. Estos mecanismos no están establecidos de forma definitiva. Un mecanismo alternativo utiliza la grelina como transmisor. Se genera en el estómago y sobre ella cabalga la sensación de apetito. Los pacientes alcohólicos que presentaron mayores niveles de grelina, detectada por RMN, presentaban un mayor nivel de ansiedad por ingerir alcohol. La dopamina, cuya liberación se incrementa con el consumo de drogas, interactúa con la
TRAZO 2.16
Adicción
y
bacterias
Pg. 169
macrobiota según evidencian estudios con ratones. La cocaína evita que se elimine de las sinapsis, lo que provoca la euforia que se siente. La conclusión, como apunta Clemens, es que los trastornos de la macrobiota refuerzan la adicción. Algunas bacterias de la macrobiota generan ácidos grasos de cadena corta, a partir de la fibra insoluble. Al acostumbrarse los organismos a la droga, la tolerancia se incrementa. Por ejemplo, la morfina (o cualquier análgesico potente), tras pasar por el hígado, llega al intestino y tras actuar la macrobiota, pasa a la sangre y llega al cerebro. Si las bacterias actúan durante un tiempo, mueren en proporción a la cantidad de morfina que tienen que digerir. Requieren más cantidad para producir el mismo efecto. El cuidado de la macrobiota es esencial, mucho mas en el tratamiento de las adicciones. Se ha estudiado en ratones el uso de probióticos y la incidencia en la adicción a opioides, con resultados prometedores. De confirmarse en humanos se alteraría la tolerancia, las dosis y los efectos secundarios. Por la misma razón, la fibra no digerible (prebióticos) afecta a la permeabilidad de la pared intestinal. Los investigadores están divididos. Como todo lo humano, toda precaución es poca. Todo impulsa el estudio de los mecanismos de las adicciones, sus procesos, las sustancias implicadas que determinan una enfermedad que es una auténtica plaga.
Pg. 170
Atanor
A. Requena
ADICCIÓN Y BACTERIAS A. REQUENA @ LA VERDAD, 2020
1 2 4
3 5
6
7
8 9
10
11
12 13
14 15
16
EclipseCrossword.com
HORIZONTALES 5.
6.
9.
Las comunidades de microorganismos de nuestra macrobiota están en contacto con esta parte delsistema nervioso. Cuando traspasan las bacterias las paredes intestinales, pueden provocan inflamaciones en otras partes del cuerpo, pudiendo alcanzar el cerebro y superar esta barrera. En el estudio del cerebro, razones éticas y no científicas limitan ésta.
10. En todo lo relacionado con él, las cosas van despacio, dado que no es un órgano susceptible de ser tomado en experimentación con las facilidades de los demás en humanos 11. Evita que se elimine la dopamina de las sinapsis, lo que provoca la euforia que se siente al ingerirla. 12. Las enfermedades inflamatorias intestinales y los trastornos inmunológicos, están íntimamente relacionados con ella. 13. Se ha descubierto que estas paredes son mas permeables con el deterioro de la macrobiota
15. Las relaciones del cerebro con otras partes del cuerpo humano, incluso consideradas muy remotas, lo son. 16. El método científico exige la experimentación incluyendo repetibilidad y también ésta-
VERTICALES 1.
En el estudio del cerebro, ésta tiene cada vez más importancia al permite escudriñar el interior del cerebro sin necesidad de penetrarlo.
2.
Alrededor de cien millones de habitan en nuestro intestino.
3.
Los trastornos de la macrobiota lo hacen con la adicción.
4.
Las sustancias que la producen, activan los centros de recompensa del cerebro que estimulan la acción de los neurotransmisores.
7.
Son un problema social y científico.
8.
Los pacientes alcohólicos que presentaron mayores niveles de ella, detectada por RMN, presentaban un mayor nivel de ansiedad por ingerir alcohol.
14. La flora intestinal tiene gran impacto sobre ella.
TRAZO 2.17 TRAZO
Ensayo
y
error
cerebral
Pg. 171
2.17
Ensayo y error cerebral.
Con el tiempo, y de forma exponencial en los últimos años, se ha ido acumulando una ingente cantidad de información, también sobre el funcionamiento del cuerpo humano. Los procesos individuales identificados a nivel molecular, se han ido integrando y se ha alcanzado la justificación de muchos de ellos. La funcionalidad de los distintos órganos se ha ido evidenciando poco a poco y se han desentrañado muchas de las operaciones que llevan a cabo los distintos órganos. No hay duda, en que el sistema respiratorio difunde oxígeno en la sangre o que el digestivo aporta nutrientes a aquélla. No corre la misma suerte, el sistema nervioso. Amparado en la delicadeza del órgano que lo soporta, el cerebro, en realidad ni anatómica ni fisiológicamente, conocemos lo suficiente como para evidenciar sus funciones ni a nivel molecular ni macroscópico. Comprender el cerebro y su funcionamiento es uno de los tópicos que sobrenada en el tiempo. Presuntamente, se imita su funcionamiento, aun sin conocerlo con detalle. El nacimiento de la computación electrónica, allá por la década de los cuarenta del siglo pasado, en un acto de audacia, sin duda, apellidó el dispositivo como "cerebro electrónico", lo que indujo a los legos a creer que era una imitación material del funcionamiento del cerebro. Se le atribuyó a las máquinas, características genuinamente humanas, como recordarán los maduros hoy, siendo frecuente para describir el tiempo que tardaba la máquina en responder, que se trataba de que "estaba pensando", atribuyéndole esta noble tarea exclusiva del cerebro. Nada pudo hacer más daño a la computación que esa "fake" como dirían los esnobistas actuales, al antropomorfizar a una
Pg. 172
Atanor
A. Requena
útil herramienta, llamada a grandes logros en el campo del progreso de las sociedades. Pero abrió la espita para que desde muchas áreas de conocimiento se aportara algo en aras de desvelar el funcionamiento del cerebro. Así, ha habido aportaciones desde la computación, la matemática (estadística, juegos, grafos, etc) ingeniería, psicología, física, química, etc. y dado nacimiento a nuevas áreas especializadas como la de redes, los hoy datos masivos (barbarismo big data) y el área emergente de la conectómica. Porque la conexión de las, aproximadamente, cien mil millones de neuronas introduce elementos cualitativos nada obvios. Han permitido grandes aportaciones las técnicas de microscopía electrónica para estudiar las conexiones tridimensionales de las neuronas del cerebro; las técnicas de resonancia magnética nuclear de imagen y de alta resolución, para identificar las zonas cerebrales que se afectan con determinadas tareas, las técnicas de microscopía de superresolución, capaz de estudiar procesos subcelulares e identificar los relacionados con enfermedades degenerativas. A falta de estudiar el cerebro directamente in vivo, se ha recurrido a la fabricación de minicerebros estructurados in vivo a partir de células madre, aunque a nivel genético se mantienen diferencias entre los diferentes tipos de células, cuando maduran. Purves, se ha sumergido en el estudio de estas cuestiones, partiendo desde la idea matriz que supone al sistema nervioso como dedicado a la creación, mantenimiento y modificación de las asociaciones neuronales, que implican la supervivencia y reproducción. Aquí hay que encajar la percepción y los procesos sensoriales, que incluso no precisan del medio exterior. El objetivo sigue siendo descubrir el principio de funcionamiento del cerebro. Esa hipótesis de trabajo que debe darse al comienzo de cualquier investigación. Y que establece el diseño de la misma. Lo novedoso que ofrece Purves es, que a partir de datos perceptivos: vista, oído y operativos como lengua y complejos como la música, formula la hipótesis de que
TRAZO 2.17
Ensayo
y
error
cerebral
Pg. 173
el cerebro actúa por ensayo y error, proceso incrustada en las neuronas y adaptado en la evolución. Contrasta con la hoy posición dominante, consistente en que solo se puede conocer la funcionalidad reconstruyendo la conectividad integral. Es la hipótesis en vigor de conectividad integral, la que ha impulsado la formulación de las redes neuronales en computación. La propuesta de Purves consiste en la introducción en el escenario de ese principio vital tan eficaz de ensayo y error. La novedad estriba en que los sistemas sensoriales incorporan información sobre propiedades del mundo exterior y la ponen en relación la respuesta aferente (interna), en lugar de analizar la estimulación sensorial en sus componentes. Se establece una covarianza entre la percepción y la eficacia de acciones pasadas en respuesta al estímulo. La experiencia evolutiva de la especie e individual son la clave. Nuevos horizontes. Aunque sigue quedando mucho por conocer.
Pg.174
Atanor
A. Requena
ENSAYO Y ERROR CEREBRAL A. REQUENA @ LA VERDAD, 2020 1
2 3
5
4
6 7
8
9
10 11
EclipseCrossword.com
cerebrales que se afectan con determinadas tareas
HORIZONTALES 3.
Los individuales identificados a nivel molecular, se han ido integrando y se ha alcanzado la justificación de muchos de ellos
5.
Neurobiólogo de la Universidad de Duke, que estudia el cerebro, partiendo desde la idea matriz que supone al sistema nervioso como dedicado a la creación, mantenimiento y modificación de las asociaciones neuronales, que implican la supervivencia y reproducción.
7.
Todo indica que, ni anatómica ni fisiológicamente, conocemos lo suficiente como para evidenciar sus funciones ni a nivel molecular ni macroscópico.
8.
Técnica instrumental que permite estudiar las conexiones tridimensionales de las neuronas del cerebro.
9.
Estas técnicas de resonancia magnética nuclear y de alta resolución, para identificar las zonas
10. Se ha recurrido a la fabricación de minicerebros estructurados in vivo a partir de estascélulas. 11. No hay duda, en que este sistema difunde oxígeno en la sangre.
VERTICALES 1.
Con el tiempo, y de forma exponencial en los últimos años, se ha ido acumulando una ingente cantidad de ella, también sobre el funcionamiento del cuerpo humano.
2.
Hay unos cien mil millones de ellas en el cerebro humano.
4.
Area de conocimiento relacionada conel tratamiento de las conexiones de las redes de neuronas.
6.
Las técnicas de microscopía de superresolución, permiten estudiar estos procesos e identificar los relacionados con enfermedades degenerativas.
TRAZO 2.18 TRAZO
Picoscopio
Pg. 175
2.18
Picoscopio.
La Humanidad siempre ha mantenido una auténtica lucha por conocer su origen. Ha habido épocas en que la atención se centraba en aspectos vitales, de subsistencia. Pero en otras, ha sido la reflexión la parte central, la búsqueda de coherencia, el intento de encajar lo conocido, que nos alivie del interrogante profundo sobre nuestra existencia. Pero sólo la reflexión no ha permitido desentrañar los secretos de la Naturaleza. Hubo que formular una metodología apropiada para progresar en el incremento del conocimiento, al tiempo que disponer de mecanismos para poder comprobar que lo que se formulaba como hipótesis, era verosímil y podía llegarse a la evidencia. No siempre tuvimos la misma fortuna, claro está. Pero, el tiempo discurre y va aportando elementos que van configurando el escenario y dando explicación a las observaciones que, desde el experimento, aportan los elementos conocidos e ignorados, que van matizando las hipótesis formuladas. Poco a poco hemos acumulado conocimiento y de ello se ha derivado la ingeniería de adaptar la Naturaleza a nuestras necesidades. Hemos construido instrumentos. Hoy son muchos los instrumentos construidos y los dispositivos que ayudan a estudiar. El manejo de la luz, siempre ha sido un tópico a desvelar. Disponemos de un sensor, la vista, sumamente apreciado y valioso, aunque no por ello perfeccionado y sensible como nos pudiera gustar. En realidad, solamente una pequeña parte del espectro electromagnético es accesible a nuestra vista. Ver cosas cada vez más pequeñas ha sido
Pg. 176
Atanor
A. Requena
una constante pretensión del humano. El invento del microscopio supuso un paso extraordinario al permitir el acceso al mundo microscópico, inaccesible a la vista, hasta entonces. Su contribución ha sido extraordinaria. Pero hay más mundo de tamaño inferior: las moléculas, los átomos, los electrones, etc. Un largo recorrido. El diámetro de un cabello humano se sitúa entre 15 y menos de 200 micras, es decir, que caben unos 10-20 en la cabeza de un alfiler de 2 milímetros de diámetro. Como un ojo humano solamente es capaz de discriminar hasta unas 50 micras, es decir en torno a la mitad del diámetro de un cabello humano, ahí tenemos el límite del alcance de nuestra vista. A partir de ahí el mundo es invisible. Como la luz visible (la que capta el ojo humano) se sitúa en el rango comprendido entre 0,380-0,750 micras, este es el intervalo de tamaños que permite acceder la luz visible. Las células vivas y su intimidad, es accesible con el microscopio. Una célula eucariota se sitúa entre 10 y 30 micras. Ahora bien, no podemos acceder con un sensor de micras a tamaños como el de los electrones que se distribuyen en las moléculas o en los cristales sólidos. Desde el Instituo Max Planck y la Academia de Ciencias China, proponen lo que han dado en denominar Picoscopio, que utiliza una fuente de luz láser que se hace incidir sobre materiales cristalinos, lo que provoca un movimiento de los electrones de estos materiales, impulsados por los fotones del láser y al chocar con otros electrones próximos, emiten radiación en la región Ultravioleta de vacío o lejano y a partir del registro de esta radiación se componen imágenes que permiten conocer la distribución de los electrones en las redes cristalinas de los materiales con una resolución del orden de varios picometros (mil millonésima de un milímetro). Esto permite escrudiñar experimentalmente el microcosmos de las propiedades químicas de los materiales. De esta forma podemos acceder experimentalmente al estudio del mundo de los electrones: como se distribuyen en los materiales. No se llega a poder "ver" cómo se forman y
TRAZO 2.18
Picoscopio
Pg. 177
rompen los enlaces, tan importantes en Química, dado que la resolución temporal se sitúa tres órdenes de magnitud por debajo: el femtosegundo, que es el tiempo genuino en Química. La luz visible solamente permite discernir objetos cuyo tamaño es de unos pocos nanómetros. Para ver los electrones hay que aumentar la capacidad de visión en miles de veces. La alternativa que se propone, consiste en que los fotones procedentes del láser, fuerzan a los electrones a que interactúen con otros y la emisión derivada de la colisión es la que permite "ver" a tamaño de los electrones, zonas de acumulación e indirectamente poder observar la distribución de los electrones en los materiales. Es pura audacia. Una puerta abierta a escrudiñar el interior de las moléculas y seguir avanzando en la comprensión de la Naturaleza y sus secretos.
Pg. 178
Atanor
A. Requena
PICOSCOPIO A. REQUENA @ LA VERDAD, 2020 1 2
3
4
5 6
8
7
9 10 11
12
13
14 15 16
17
18
EclipseCrossword.com
HORIZONTALES 2.
5.
La Humanidad tuvo que formular una metodología apropiada para progresar en su incremento. Dispositivo que utiliza una fuente de luz láser que se hace incidir sobre materiales cristalinos para poder "verlos".
7.
Los humanos, disponemos de este sensor, sumamente apreciado y valioso, aunque no por ello perfeccionado y sensible como nos pudiera gustar
8.
Con el piscoscopio podemos acceder experimentalmente al estudio del mundo de su mundo y como se distribuyen en los materiales.
10. Ssólo la reflexión no ha permitido desentrañar los de la Naturaleza 11. Esta luz solamente permite discernir objetos cuyo tamaño es de unos pocos nanómetros. 14. Solamente una pequeña parte del electromagnético es accesible a nuestra vista. 15. Las vivas y su intimidad, son accesible con el microscopio. 16. Hoy son muchos los dispositivos, instrumentos y herramientas construidos que nos ayudan a ello.
17. Ver cosas, cada vez más así, ha sido una constante pretensión del humano. 18. El humano solamente es capaz de discriminar hasta unas 50 micras.
VERTICALES 1.
Tiempo genuino en Química.
3.
Su invención supuso un paso extraordinario al permitir el acceso al mundo microscópico, inaccesible a la vista, hasta entonces.
4.
Hemos acumulado conocimiento y de ello se ha derivado la ingeniería de adaptarla a nuestras necesidades.
6.
En su cabeza de 2 milímetros de diámetro, caben unos 10-20 cabellos.
9.
El manejo de ella, siempre ha sido un tópico a desvelar
12. Impulsados por los fotones del láser y al chocar con otros electrones próximos, emiten radiación en esta región Ultravioleta . 13. La Humanidad siempre ha mantenido una auténtica lucha por conocer el suyo.
TRAZO 2.19 TRAZO
Ahora,
Venus
Pg. 179
2.19
Ahora, Venus?.
Las prisas no son buenas. Las ganas de noticias que nos separen de nuestras preocupaciones cotidianas, ahora muy concentradas en aspectos vitales e incumplimientos sociales, puede hacer que cualquier cosa, salte a las cabeceras de los medios y nos atraiga como un soplo de aire fresco. Lo que no quiere decir que sea ni de alcance ni significativa. Hemos vivido, hace bien poco, la rutilante noticia que introducía la duda de si se habían encontrado elementos que pudieran ser indicativos de vida en el planeta Venus. Se ha detectado la presencia de fosfina (PH3), que en la Tierra se asocia con la vida. Es un gas incoloro que explota fácilmente en contacto con aire, huele a ajo y es sumamente tóxico para los humanos. Se le encuentra en procesos industriales y en el metabolismo de bacterias anaerobicas en los microbios que viven en el interior de los animales o en lugares con poco oxígeno como los pantanos. Se emplea como fumigante. Los telescopios de Hawaii y los instalados en el desierto de Atacama en Chile, han participado en la detección de una línea de absorción característica a 1.1 milímetro. Se ha observado el gas a una altitud de unos 50 kilómetros en concentración muy baja, entre 10 y 20 moléculas por mil millones de las que componen la exigua atmósfera de Venus. Aunque pueda parecer que esta concentración es muy baja, tengamos en cuenta que multiplica por mil la propia de la Tierra. Son concentraciones inexplicables para lo que cabe esperar de la atmósfera de Venus. La atmósfera de Venus disfruta de una temperatura superior a 400 grados centígrados, con un efecto
Pg. 180
Atanor
A. Requena
invernadero espectacular dado que en su composición el CO2 alcanza hasta el 96% y las nubes incluyen hasta un 95% de ácido sulfúrico, incompatibles con la vida celular. Las sondas que se han enviado solamente han permanecido activas unos minutos. Obviamente, al situar las moléculas a 50 kilómetros por encima de la superficie, la temperatura es inferior y es por ello que se sustenta la conjetura de la importancia de la presencia de este compuesto. Los científicos que realizan el estudio concluyen tras varias simulaciones, que bien pudiera tratarse de un origen biológico. Este escenario molecular requiere que, de existir vida microbiana, tendrá que ser bajo una bioquímica hasta ahora desconocida ya que de tener algún papel relevante el agua, tendría que ser bajo protecciones que le aíslen de atmósferas como las propiciadas por el ácido sulfúrico. Quizás el mejor indicador de las dudas que genera la información servida como de posible vida en Venus, es que no ha sido capaz de mantenerse ni siquiera unos días. Un conocido radiofonista simplificaba diciendo que nunca puede ser cabecera algo que no va a ser capaz de mantenerse cuatro días, como ha sido el caso. Cabe incluso, que haya habido una malinterpretación de la respuesta espectroscópica y, en todo caso, es un interrogante de importancia cómo se ha producido la fosfina detectada. Marte sigue concitando mayor probabilidad de presencia de vida, aunque ciertamente es posible que la presencia de vida en la Galaxia, sea más usual de lo que pensamos. Otra cosa es la probabilidad de evolución para conformar vida orgánica superior, organizada y sostenible. La presencia de fosfina en la atmósfera a 50 kilómetros de altura, no justifica la existencia de vida en Venus, sino que es una opción que no puede ser descartada. En un ambiente en el que la irradiación ultravioleta es muy elevada, mucho más que en la Tierra, las reacciones y la dinámica que siguen son muy desconocidas, de forma que, no se puede concluir la existencia de vida en Venus.
TRAZO 2.19
Ahora,
Venus
Pg. 181
Aparentemente, hay que confirmar estos primeros resultados, con la identificación de un mayor número de líneas espectrales de la fosfina y por otro lado habrá que descartar un origen no biológico y todo parece ir encaminado a que alguna misión pueda recabar muestras que permitan un análisis más pormenorizado de la composición de la atmósfera. Todo esto implica tiempo, muy lejos del que se ha dado con la publicación de un resultado muy preliminar que, seguramente, encontró hueco en un ambiente de preocupación y desasosiego en el que estamos sumidos, particularmente propicio para entrar en el escenario y destacar, desproporcionadamente para la importancia del hallazgo o, al menos, para considerarlo como resultado prometedor. Todo parece indicar esta apreciación.
Pg.182
Atanor
A. Requena
AHORA VENUS A. REQUENA @ LA VERDAD, 2020 1
2
3 4
5
6
7 8
9
10
11
12
13
14
EclipseCrossword.com
los procesos industriales y también en el metabolismo de este tipo de bacterias.
HORIZONTALES 1.
5.
La concentración de fosfina descubierta en las atmósfera de Venus lo es para lo que cabe esperar de la atmósfera de Venus. El compuesto descubierto en la atmósfera de Venus, se ha descubierto mediante observación astronómica desde el telescopio de Hawai y desde el ubicado en esta planicie andina en CHile.
8.
La concentración de CO2 alcanza hasta el 96%, con un efecto de este tipo espectacular.
9.
Compuesto que se ha detectado en la atmósfera de Venus, mediante observación telescóìca.
11. Altura en killómetros sobre la superficie de Venus a la que se observó la presencia del gas fosfina. 12. La atmósfera de Venus disfruta de una temperatura superior a ésta cifra en grados centígrados, 14. El compuesto detectado en la atmósfera de Venus qué proceso sufre en presencia de aire.
VERTICALES 2.
El compuesto descubierto en la atmósfera de Venus se produce en
3.
El compuesto descubierto en la atmósfera de Venus se emplea frecuentemente como agente de este tipo.
4.
EL compuesto detectado en la atmósfera de Venus se ha detectado gracias a dispositivos radioastronómicos y observando ésta propiedad a 1,1 milimetros.
6.
Aunque pueda parecer que la concentración detectada de fosfina en la atmósfera de Venus es muy baja, tengamos en cuenta que multiplica por mil la propia de este planeta..
7.
Entre 10 y 20 moléculas por este número de millones de las que componen la exigua atmósfera de Venus, es la concentración detectada en la atmósfera de Venus para la molécula de fosfina.
10. Con que hecho importante para los humanos, también, se asocia la presencia en la Tierra del compuesto detectado en la atmósfera de Venus. 13. El compuesto descubierto en la atmósfera de Venus es sumamente tóxico para los humanos. ¿a qué huele?
TRAZO 2.20 TRAZO
Baterías
eternas
Pg. 183
2.20
Baterías eternas.
Un escollo notable para el desarrollo de la dinámica basada en la electricidad, es la fuente de alimentación. No está resultando ni fácil, ni eficaz, la disposición durante un tiempo apropiado del suministro eléctrico portátil. Todos los dispositivos e instrumentos basados en la fuente de energía eléctrica tienen una capacidad de autonomía que no satisface las necesidades creadas o sentidas por los usuarios. Nuestros teléfonos siempre andan con problemas, los vehículos requieren mayor autonomía para ser competitivos con otras fuentes de alimentación alternativas y el tránsito hacia Sin embargo, parecen haber excepciones, aunque no logren la generalización. Es usual que nos topemos con anuncios de Tesla del orden de "las baterías Tesla durarán más de un millón de kilómetros". Son baterías de iones litio capaces de aguantar hasta tres veces más ciclos de carga y descarga que las actuales. Con esta conservación de las propiedades es con lo que se estima que un vehículo con esta batería sería capaz de recorrer hasta 1.6 millones de kilómetros, que bien podría corresponder a más de 20 años de vida eficaz. Su secreto parece radicar en una refrigeración líquida y unos niveles de carga que se sitúan siempre por debajo del 100%. No se oculta por la compañía el uso de aditivos en el electrolito, que ofrecen una doble ventaja, disminuir costes y alargar la vida útil. Los test se llevaron a cabo a 40 grados y se empleó como técnica analítica la culombimetría, bien conocida para determinar y analizar la carga y su evolución, al per-
Pg. 184
Atanor
A. Requena
mitir determinar la materia transformada, tanto consumida como producida, durante la reacción de electrólisis. Se ensayaron distintos tipos de electrolitos. Un caso particularmente llamativo, es una batería que lleva alimentando desde 1840 una campana en un laboratorio de Oxford, por tanto, 175 años funcionando, hasta hoy unos 10.000 millones de veces, aunque ya no se oye el tañido. Nadie se atreve a interrumpirlos, por elevada que sea la curiosidad de a qué se debe su longevidad. No se sabe cómo se confeccionó la pila, salvo que externamente se sella el electrolito y las células con sulfuro metálico. Se atribuye a las pilas inventadas por Zambotti construidas con unos 2.000 pares de discos de finas láminas de papel, impregnado de sulfato de cinc cubiertos de dióxido de manganeso. Ciertamente, el consumo es muy reducido, como un nanoamperio cada vez que el badajo se mueve. Algo parecido ocurre con la bombilla eterna, ubicada en el parque de bomberos de Livermore en California, incandescente desde 1901. En todo caso, cuanto mayor es la potencia, menor es la duración. En el caso del badajo de Oxford, es posible que se averíe éste, antes de que la batería se consuma en su totalidad. Ahora el anuncio que se hace es de otro nivel, por el alcance, incluso por el dilema al que nos enfrenta. Se trata de una batería de nano-diamante, construida con desechos nucleares y con capacidad operativa de hasta 28.000 años, nada menos en una sola carga. Se trata de una batería autorecargable a base de Carbono 14 atrapado, obtenida de desechos nucleares e incluida en una especie de caja de diamante artificial. Es una compañía norteamericana ubicada en California que ha desarrollado la tecnología, intentando aprovechar de forma segura la energía atómica residual que permanece en los residuos de las centrales nucleares y que, ya de por sí, representan un producto peligroso de manejar que no es fácil deshacerse de ellos.
TRAZO 2.20
Baterías
eternas
Pg. 185
La electricidad se genera a partir de la lluvia de electrones que produce el decaimiento del producto radiactivo, que se dispersa en la envoltura de diamante artificial que recubre el material radiactivo, contribuyendo, al mismo tiempo, a la seguridad del conjunto, que hace el papel del moderador, que es de grafito en las centrales nucleares de producción eléctrica. Es concebible la combinación de elementos celulares, del tipo de las baterías, para lograr la potencia necesaria para poder alimentar desde un reloj, a un teléfono móvil, un dron o un vehículo eléctrico. Este si es caso apropiado para denominarla como batería eterna. Otra cosa es vencer los malos recuerdos atávicos que conlleva la energía nuclear, que seguramente estigmatiza a estos dispositivos por muy nano o micro que sea su entidad. Imaginen por un momento qué fuerzas mantienen unidas a las partículas atómicas y subatómicas para que estemos hablando de vidas de 28.000 años. Supera la imaginación. Todo es posible
Pg. 186
Atanor
A. Requena
SOLUCIONES A
LAS
PALABRAS CRUZADAS DEL
TRAZADO
2
A. Requena SOLUCIONES
ATANOR. LA VERDAD AL
TRAZO
Colonizando el Cosmos.
2.1
Pg. 191
Pg. 192
ATANOR. LA VERDAD
SOLUCIONES
Fotoavance.
AL
TRAZO
A. Requena 2.2
A. Requena SOLUCIONES
ATANOR. LA VERDAD AL
Ética para la I.A.
TRAZO
2.3
Pg. 193
Pg. 194
ATANOR. LA VERDAD
SOLUCIONES
AL
TRAZO
Sueño sin cables.
A. Requena 2.4
A. Requena SOLUCIONES
ATANOR. LA VERDAD AL
TRAZO
Conviviendo con robots.
2.5
Pg. 195
Pg. 196
ATANOR. LA VERDAD
SOLUCIONES
AL
TRAZO
Formulando hipรณtesis.
A. Requena 2.6
A. Requena SOLUCIONES
ATANOR. LA VERDAD AL
TRAZO
Ciencia de lo artificial.
2.7
Pg. 197
Pg. 198
ATANOR. LA VERDAD
SOLUCIONES
AL
TRAZO
Ciencia y creencia.
A. Requena 2.8
A. Requena SOLUCIONES
ATANOR. LA VERDAD AL
TRAZO
Luditas y neoluditas.
2.9
Pg. 199
Pg. 200
ATANOR. LA VERDAD
SOLUCIONES
Casi inermes.
AL
TRAZO
A. Requena 2.10
A. Requena SOLUCIONES
Palabras.
ATANOR. LA VERDAD AL
TRAZO
2.11
Pg. 201
Pg.202
ATANOR. LA VERDAD
SOLUCIONES
AL
TRAZO
A. Requena 2.12
No mas pensar en pequeño.
A. Requena SOLUCIONES
ATANOR. LA VERDAD AL
Estado de alerta.
TRAZO
2.13
Pg. 203
Pg. 204
ATANOR. LA VERDAD
SOLUCIONES
AL
TRAZO
Alondras y búhos.
A. Requena 2.14
A. Requena SOLUCIONES
ATANOR. LA VERDAD AL
TRAZO
Filosofía científica.
2.15
Pg. 205
Pg. 206
ATANOR. LA VERDAD
SOLUCIONES
AL
TRAZO
Adicciรณn y bacterias.
A. Requena 2.16
A. Requena SOLUCIONES
ATANOR. LA VERDAD AL
TRAZO
Ensayo y error cerebral.
2.17
Pg. 207
Pg.208
ATANOR. LA VERDAD
SOLUCIONES
Picoscopio.
AL
TRAZO
A. Requena 2.18
A. Requena SOLUCIONES
Ahora Venus.
ATANOR. LA VERDAD AL
TRAZO
2.19
Pg. 209
Pg. 210
ATANOR. LA VERDAD
SOLUCIONES
AL
BaterÃas eternas.
TRAZO
A. Requena 2.20
A. Requena
ATANOR. LA VERDAD
Pg. 211
PRUEBA.qxd
27/09/2020
20:29
PÆgina 24