![](https://assets.isu.pub/document-structure/220727012318-448124598b4dfc03dfab351234821abd/v1/408c61e63b462c1f9a6bfff9fb7bcc40.jpeg?width=720&quality=85%2C50)
200 minute read
Dos naturalezas – San Pablo Pág
revelaba que se alejaba de la Tierra a una velocidad enorme: 16% de la velocidad de la luz. Utilizando la ley de Hubble, que afirma que la distancia de las galaxias entre sí son directamente proporcionales a su velocidad de recesión, se deducía que 3C273 estaba muy alejada, lo que a su vez implicaba que se trataba de un objeto extremadamente luminoso, más de cien veces que una galaxia típica. Fueron bautizados como quasi-stellar sources (fuentes casi-estelares), esto es, quasars (cuásares), y se piensa que se trata de galaxias con núcleos muy activos.
Desde su descubrimiento, se han observado varios millones de cuásares, aproximadamente el 10% del número total de galaxias brillantes (muchos astrofísicos piensan que una buena parte de las galaxias más brillantes pasan durante un breve periodo por una fase en la que son cuásares). La mayoría están muy alejados de nuestra galaxia, lo que significa que la luz que se ve ha sido emitida cuando el universo era mucho más joven. Constituyen, por consiguiente, magníficos instrumentos para el estudio de la historia del Universo.
Advertisement
En 1967, Jocelyn S. Bell (n. 1943), Anthony Hewish (n. 1924) y los colaboradores de éste en Cambridge construyeron un detector para observar cuásares en las frecuencias radio. Mientras lo utilizaba, Bell observó una señal que aparecía y desaparecía con gran rapidez y regularidad. Tan constante era el periodo que parecía tener un origen artificial (¿acaso una fuente extraterrestre inteligente?). No obstante, tras una cuidadosa búsqueda Bell y Hewish concluyeron que estos «púlsares», como finalmente fueron denominados, tenían un origen astronómico (Hewish, Bell, Pilkington, Scott y Collins 1968). Ahora bien, ¿qué eran estas radiofuentes tan regulares? La interpretación teórica llegó poco después, de la mano de Thomas Gold, uno de los «padres» de la cosmología del estado estable, reconvertido ya al modelo del Big Bang. Gold (1968) se dio cuenta de que los periodos tan pequeños implicados (del orden de 1 o 3 segundos en los primeros púlsares detectados) exigían una fuente de tamaño muy pequeño. Las enanas blancas eran demasiado grandes para rotar o vibrar con tal frecuencia, pero no así las estrellas de neutrones. Pero ¿el origen de las señales recibidas se debía a vibraciones o a rotaciones de estas estrellas? No a vibraciones, porque en estrellas de neutrones éstas eran demasiado elevadas (alrededor de mil veces por segundo) para explicar los periodos de la mayoría de los pulsares. Por consiguiente, los púlsares tenían que ser estrellas de neutrones en rotación. En la actualidad, cuando se han descubierto púlsares que emiten rayos X o gamma (incluso algunos luz en el espectro óptico), también se admiten otros mecanismos para la producción de la radiación que emiten; por ejemplo, la acreción de materia en sistemas dobles.
Además de su interés astrofísico, los púlsares cumplen otras funciones. Una de ellas ha sido utilizarlos para comprobar la predicción de la relatividad general de que masas aceleradas emiten radiación gravitacional (un fenómeno análogo al que se produce con cargas eléctricas: la radiación electromagnética).
La confirmación de que, efectivamente, la radiación gravitacional existe derivó del descubrimiento, en 1974, del primer sistema formado por dos púlsares interaccionando entre sí (denominado PSR1913+16), por el que Russell Hulse (n. 1950) y Joseph Taylor (n. 1941) recibieron en 1993 el Premio Nobel de Física. En 1978, después de varios años de observaciones continuadas de ese sistema binario, pudo concluirse que las órbitas de los púlsares varían acercándose entre sí, un resultado que se interpreta en términos de que el sistema pierde energía debido a la emisión de ondas gravitacionales (Taylor, Fowler y McCulloch 1979). Desde entonces han sido descubiertos otros púlsares en sistemas binarios, pero lo que aún resta es detectar la radiación gravitacional identificando su paso por instrumentos construidos e instalados en la Tierra, una empresa extremadamente difícil dado lo minúsculo de los efectos implicados: se espera que las ondas gravitacionales que lleguen a la Tierra (originadas en algún rincón del Universo en el que tenga lugar un suceso extremadamente violento) produzcan distorsiones en los detectores de no más de una parte en 1021; esto es, una pequeña fracción del tamaño de un átomo. Existen ya operativos diseñados para lograrlo: el sistema de 4 kilómetros de detectores estadounidenses denominado LIGO, por sus siglas inglesas, Laser Interferometric Gravitational wave Observatories .
También los cuásares resultan ser objetos muy útiles para estudiar el Universo en conjunción con la relatividad general. Alrededor de uno entre quinientos cuásares se ven implicados en un fenómeno relativista muy interesante: la desviación de la luz que emiten debido al efecto gravitacional de otras galaxias situadas entre el cuásar en cuestión y la Tierra, desde donde se observa este fenómeno, denominado «lentes gravitacionales». El efecto puede llegar a ser tan grande que se observan imágenes múltiples de un solo cuásar.
En realidad, las lentes gravitacionales no son producidas únicamente por cuásares; también lo son por grandes acumulaciones de masas (como cúmulos de galaxias) que al desviar la luz procedente de, por ejemplo, galaxias situadas tras ellas (con respecto a nosotros) dan lugar, en lugar de a una imagen más o menos puntual, a un halo de luz, a una imagen «desdoblada». Fueron observados por primera vez en 1979, cuando Walsh, Carswell y
Weyman (1979) descubrieron una imagen múltiple de un cuásar en 0957+561. Posteriormente, se han tomado fotografías con el telescopio espacial Hubble de un cúmulo de galaxias situado a unos mil millones de años-luz de distancia en las que además de las galaxias que forman el cúmulo se observan numerosos arcos (trozos de aros) que se detectan con mayor dificultad debido a ser más débiles luminosamente. Estos arcos son en realidad las imágenes de galaxias mucho más alejadas de nosotros que las que constituyen el propio cúmulo, pero que observamos mediante el efecto de lente gravitacional (el cúmulo desempeña el papel de la lente que distorsiona la luz procedente de tales galaxias). Además de proporcionar nuevas evidencias en favor de la relatividad general, estas observaciones tienen el valor añadido de que la magnitud de la desviación y distorsión que se manifiesta en estos arcos luminosos es mucho mayor del que se esperaría si no hubiese nada más en el cúmulo que las galaxias que vemos en él. De hecho, las evidencias apuntan a que estos cúmulos contienen entre cinco y diez veces más materia de la que se ve. ¿Se trata de la materia oscura de la que hablaré más adelante?
Para muchos —al menos hasta que el problema de la materia y energía oscuras pasó a un primer plano— la radiación de fondo, los púlsares y los cuásares, de los que me he ocupado en esta sección, constituyen los tres descubrimientos más importantes en la astrofísica de la segunda mitad del siglo XX. Ciertamente, lo que estos hallazgos nos dicen, especialmente en el caso de púlsares y cuásares, es que el Universo está formado por objetos mucho más sorprendentes, y sustancialmente diferentes, de los que se había supuesto existían durante la primera mitad del siglo XX. Ahora bien, cuando se habla de objetos estelares sorprendentes o exóticos, es inevitable referirse a los agujeros negros, otro de los «hijos» de la teoría de la relatividad general.
Agujeros negros Durante décadas, tras su formulación en 1915 y haber sido explotadas las predicciones de la teoría einsteiniana de la gravitación con relación al Sistema Solar (movimiento del perihelio de Mercurio, curvatura de los rayos de luz y desplazamiento gravitacional de las líneas espectrales), la relatividad general estuvo en gran medida en manos de los matemáticos, hombres como Hermann Weyl (1885-1955), Tullio Levi-Civita (1873-1941), Jan Arnouldus Schouten (1883-1971), Cornelius Lanczos (1892-1974) o André Lichnerowicz (1915-1998). La razón era, por un lado, la dificultad matemática de la teoría, y por otro el que apenas existían situaciones en las que se pudiese aplicar. Su dominio era el Universo y explorarlo requería de unos medios tecnológicos que no existían entonces (también, por supuesto, era preciso una
financiación importante). Este problema fue desapareciendo a partir de finales de la década de 1960, y hoy se puede decir que la relatividad general se ha integrado plenamente en la física experimental, incluyendo apartados que nos son tan próximos como el Global Positioning System (GPS). Y no sólo en la física experimental correspondiente a los dominios astrofísico y cosmológico, también, como veremos más adelante, se ha asociado a la física de altas energías.
Y en este punto, como uno de los objetos estelares más sorprendentes y atractivos vinculados a la relatividad general cuya existencia se ha descubierto en las últimas décadas, es necesario referirse a los agujeros negros, que de hecho han ido más allá del mundo puramente científico, afincándose asimismo en el social.
Estos objetos pertenecen, como digo, al dominio teórico de la teoría de la relatividad general, aunque sus equivalentes newtonianos habían sido propuestos –y olvidados– mucho antes por el astrónomo británico John Michell (c. 1724-1793) en 1783, y por Pierre Simon Laplace (1749-1827) en 1795. Su exoticidad proviene de que involucran nociones tan radicales como la destrucción del espacio-tiempo en puntos denominados «singularidades».
El origen de los estudios que condujeron a los agujeros negros se remonta a la década de 1930, cuando el físico de origen hindú, Subrahamanyan Chandrasekhar (1910-1995), y el ruso Lev Landau (1908-1968), mostraron que en la teoría de la gravitación newtoniana un cuerpo frío de masa superior a 1,5 veces la del Sol no podría soportar la presión producida por la gravedad (Chandrasekhar 1931; Landau 1932). Este resultado condujo a la pregunta de qué sucedería según la relatividad general. Robert Oppenheimer (1904-1967), junto a dos de sus colaboradores, George M. Volkoff y Hartland Snyder (1913-1962) demostraron en 1939 que una estrella de semejante masa se colapsaría hasta reducirse a una singularidad, esto es, a un punto de volumen cero y densidad infinita (Oppenheimer y Volkoff 1939; Oppenheimer y Snyder 1939).
Pocos prestaron atención, o creyeron, en las conclusiones de Oppenheimer y sus colaboradores y su trabajo fue ignorado hasta que el interés en los campos gravitacionales fuertes fue impulsado por el descubrimiento de los cuásares y los púlsares. Un primer paso lo dieron en 1963 los físicos soviéticos, Evgenii M. Lifshitz (1915-1985) e Isaak M. Khalatnikov (n. 1919), que comenzaron a estudiar las singularidades del espacio-tiempo relativista. Siguiendo la estela del trabajo de sus colegas soviéticos e introduciendo poderosas técnicas matemáticas, a mediados de la década de 1960 el matemático y físico británico Roger
Penrose (n. 1931) y el físico Stephen Hawking (n. 1942), demostraron que las singularidades eran inevitables en el colapso de una estrella si se satisfacían ciertas condiciones.
Un par de años después de que Penrose y Hawking publicasen sus primeros artículos, la física de las singularidades del espacio-tiempo se convirtió en la de los «agujeros negros», un término afortunado que no ha hecho sino atraer la atención popular sobre este ente físico. El responsable de esta aparentemente insignificante pequeña revolución terminológica fue el físico estadounidense, John A. Wheeler (1911-2008). Él mismo explicó la génesis del término de la forma siguiente (Wheeler y Ford 1998, 296-297):
En el otoño de 1967, Vittorio Canuto, director administrativo del Instituto
Goddard para Estudios Espaciales de la NASA en el 2880 de Broadway, en Nueva York, me invitó a dar una conferencia para considerar posibles interpretaciones de las nuevas y sugerentes evidencias que llegaban de Inglaterra acerca de los púlsares. ¿Qué eran estos púlsares? ¿Enanas blancas que vibraban? ¿Estrellas de neutrones en rotación? ¿Qué? En mi charla argumenté que debíamos considerar la posibilidad de que en el centro de un púlsar se encontrase un objeto completamente colapsado gravitacionalmente. Señalé que no podíamos seguir diciendo, una y otra vez, «objeto completamente colapsado gravitacionalmente». Se necesitaba una frase descriptiva más corta. ¿Qué tal agujero negro?, preguntó alguien de la audiencia. Yo había estado buscando el término adecuado durante meses, rumiándolo en la cama, en la bañera, en mi
coche, siempre que tenía un momento libre. De repente, este nombre me pareció totalmente correcto. Cuando, unas pocas semanas después, el 29 de diciembre de 1967, pronuncié la más formal conferencia Sigma Xi-Phi Kappa en la West Ballroom del Hilton de Nueva York, utilicé este término, y después lo incluí en la versión escrita de la conferencia publicada en la primavera de 1968.
El nombre era sugerente y permanecería, pero la explicación era errónea (como ya he señalado un púlsar está propulsado por una estrella de neutrones).
Aunque la historia de los agujeros negros tiene sus orígenes, como se ha indicado, en los trabajos de índole física de Oppenheimer y sus colaboradores, durante algunos años predominaron los estudios puramente matemáticos, como los citados de Penrose y Hawking. La idea física subyacente era que debían representar objetos muy diferentes a cualquier otro
tipo de estrella, aunque su origen estuviese ligado a éstas. Surgirían cuando, después de agotar su combustible nuclear, una estrella muy masiva comenzase a contraerse irreversiblemente debido a la fuerza gravitacional. Así, llegaría un momento en el que se formaría una región (denominada «horizonte») que únicamente dejaría entrar materia y radiación, sin permitir que saliese nada, ni siquiera luz (de ahí lo de «negro»): cuanto más grande es, más come, y cuanto más come, más crece. En el centro del agujero negro está el punto de colapso. De acuerdo con la relatividad general, allí la materia que una vez compuso la estrella es comprimida y expulsada aparentemente «fuera de la existencia».
Evidentemente, «fuera de la existencia» no es una idea aceptable. Ahora bien, existe una vía de escape a semejante paradójica solución: la teoría de la relatividad general no es compatible con los requisitos cuánticos, pero cuando la materia se comprime en una zona muy reducida son los efectos cuánticos los que dominarán. Por consiguiente, para comprender realmente la física de los agujeros negros es necesario disponer de una teoría cuántica de la gravitación (cuantizar la relatividad general o construir una nueva teoría de la interacción gravitacional que sí se pueda cuantizar), una tarea aún pendiente en la actualidad, aunque se hayan dado algunos pasos en esta dirección, uno de ellos debido al propio Hawking, el gran gurú de los agujeros negros: la denominada «radiación de Hawking» (Hawking 1975), la predicción de que, debido a procesos de índole cuántica, los agujeros negros no son tan negros como se pensaba, pudiendo emitir radiación.
No sabemos, en consecuencia, muy bien qué son estos misteriosos y atractivos objetos. De hecho, ¿existen realmente? La respuesta es que sí. Cada vez hay mayores evidencias en favor de su existencia. La primera de ellas fue consecuencia de la puesta en órbita, el 12 de diciembre de 1970, desde Kenia, para conmemorar la independencia del país, de un satélite estadounidense bautizado como Uhuru, la palabra suajili para «Libertad». Con este instrumento se pudo determinar la posición de las fuentes de rayos X más poderosas. Entre las 339 fuentes identificadas, figura Cygnus X-1, una de las más brillantes de la Vía Láctea, en la región del Cisne. Esta fuente se asoció posteriormente a una estrella supergigante azul visible de una masa 13 veces la del Sol y una compañera invisible cuya masa se estimó –analizando el movimiento de su compañera– en 7 masas solares, una magnitud demasiado grande para ser una enana blanca o una estrella de neutrones, por lo que se considera un agujero negro. No obstante, algunos sostienen que la masa de este objeto invisible es de 3 masas solares, con lo que podría ser una estrella de neutrones. En la actualidad se acepta generalmente que existen agujeros negros supermasivos en el centro de aquellas galaxias
(aproximadamente el 1% del total de galaxias del Universo) cuyo núcleo es más luminoso que el resto de toda la galaxia. De manera indirecta se han determinado las masas de esos super agujeros negros en más de doscientos casos, pero sólo en unos pocos de manera directa; uno de ellos está en la propia Vía Láctea.
Inflación y «arrugas en el tiempo» El estudio del Universo constituye un rompecabezas descomunal. Medir ahí distancias, masas y velocidades, tres datos básicos, es, obviamente, extremadamente complejo: no podemos hacerlo directamente ni tampoco podemos «ver» todo con precisión. Con los datos de que se disponía, durante un tiempo bastó con el modelo que suministraba la solución de RobertsonWalker-Friedmann de la relatividad general, que representa el Universo expandiéndose con una aceleración que depende de su contenido de masa-energía. Pero existían problemas para la cosmología del Big Bang que fueron haciéndose cada vez más patentes.
Uno de ellos era si esa masa-energía es tal que el Universo continuará expandiéndose siempre o si es lo suficientemente grande como para que la atracción gravitacional termine venciendo a la fuerza del estallido inicial haciendo que, a partir de un momento, comience a contraerse para finalmente llegar a un Big Crunch (Gran Contracción). Otro problema residía en la gran uniformidad que se observa en la distribución de masa del Universo si uno toma como unidad de medida escalas de unos 300 millones de años-luz o más (a pequeña escala, por supuesto, el Universo, con sus estrellas, galaxias, cúmulos de galaxias y enormes vacíos interestelares, no es homogéneo). El fondo de radiación de microondas es buena prueba de esa macro homogeneidad. Ahora bien, en la teoría estándar del Big Bang es difícil explicar esta homogeneidad mediante los fenómenos físicos conocidos; además, si tenemos en cuenta que la transmisión de información sobre lo que sucede entre diferentes puntos del espaciotiempo no puede ser transmitida con una velocidad superior a la de la luz, sucede que en los primeros momentos de existencia del Universo no habría sido posible que regiones distintas «llegasen a un consenso», por decirlo de alguna manera, acerca de cuál debería ser la densidad media de materia y radiación.
Para resolver este problema se propuso la idea del Universo inflacionario, según la cual en los primeros instantes de vida del Universo se produjo un aumento gigantesco, exponencial, en la velocidad de su expansión. En otras palabras, el mini Universo habría experimentado un crecimiento tan rápido que no habría habido tiempo para que se desarrollasen procesos físicos que diesen lugar a distribuciones in homogéneas. Una vez terminada la etapa
inflacionaria, el Universo habría continuado evolucionando de acuerdo con el modelo clásico
del Big Bang.
En cuanto a quiénes fueron los científicos responsables de la teoría inflacionaria, los principales nombres que hay que citar son los del estadounidense Alan Guth (n. 1947) y el soviético Andrei Linde (n. 1948). Pero más que nombres concretos, lo que me interesa resaltar es que no es posible comprender esta teoría al margen de la física de altas energías (antes denominada de partículas elementales), de la que me ocuparé más adelante; en concreto de las denominadas teorías de gran unificación (Grand Unified Theories; GUT), que predicen que tendría que producirse una transición de fase a temperaturas del orden de 1027 grados Kelvin. Aquí tenemos una muestra de uno de los fenómenos más importantes que han tenido lugar en la física de la segunda mitad del siglo XX: la reunión de la cosmología, la ciencia de «lo grande», y la física de altas energías, la ciencia de «lo pequeño»; naturalmente, el lugar de encuentro ha sido los primeros instantes de vida del Universo, cuando las energías implicadas fueron gigantescas.
Bien, la inflación da origen a un Universo uniforme, pero entonces ¿cómo surgieron las minúsculas in homogeneidades primordiales de las que habrían nacido, al pasar el tiempo y actuar la fuerza gravitacional, estructuras cósmicas como las galaxias?
Una posible respuesta a esta pregunta era que la inflación podría haber amplificado enormemente las ultramicroscópicas fluctuaciones cuánticas que se producen debido al principio de incertidumbre aplicado a energías y tiempo (?E•?t?h). Si era así, ¿dónde buscar tales in homogeneidades mejor que en el fondo de radiación de microondas?
La respuesta a esta cuestión vino de los trabajos de un equipo de científicos estadounidenses a cuya cabeza estaban John C. Mather (n. 1946) y George Smoot (n. 1945). Cuando la NASA aprobó en 1982 fondos para la construcción de un satélite –el Cosmic Background Explorer (COBE), que fue puesto en órbita, a 900 kilómetros de altura, en el otoño de 1989– para estudiar el fondo cósmico de microondas, Mather se encargó de coordinar todo el proceso, así como del experimento (en el que utilizó un espectrofotómetro enfriado a 1,5°K) que demostró que la forma del fondo de radiación de microondas se ajustaba a la de una radiación de cuerpo negro a la temperatura de 2,735°K, mientras que Smoot midió las minúsculas irregularidades predichas por la teoría de la inflación. Diez años después, tras haber intervenido en los trabajos más de mil personas y con un coste de 160 millones de
dólares, se anunciaba (Mather et al. 1990; Smoot et al. 1992) que el COBE había detectado lo que Smoot denominó «arrugas» del espacio-tiempo, las semillas de las que surgieron las complejas estructuras –como las galaxias– que ahora vemos en el Universo. Podemos captar algo de la emoción que sintieron estos investigadores al comprobar sus resultados a través de un libro de divulgación que Smoot publicó poco después, Wrinkles in Time (Arrugas en el tiempo). Escribió allí (Smoot y Davidson 1994, 336):
Estaba contemplando la forma primordial de las arrugas, podía sentirlo en mis huesos. Algunas de las estructuras eran tan grandes que sólo podían haber sido generadas durante el nacimiento del Universo, no más tarde. Lo que tenía ante mí era la marca de la creación, las semillas del Universo presente.
En consecuencia, «la teoría del Big Bang era correcta y la de la inflación funcionaba; el modelo de las arrugas encajaba con la formación de estructuras a partir de la materia oscura fría; y la magnitud de la distribución habría producido las estructuras mayores del Universo actual bajo el influjo del colapso gravitacional a lo largo de 15.000 millones de años».
El COBE fue un magnífico instrumento, pero en modo alguno el único. Los ejemplos en los que astrofísica y tecnología se dan la mano son múltiples. Y no sólo instrumentos instalados en la Tierra, también vehículos espaciales. Así, hace ya bastante que el Sistema Solar se ve frecuentado por satélites con refinados instrumentos que nos envían todo tipo de datos e imágenes. Sondas espaciales como Mariner 10, que observó, en 1973, Venus desde 10.000 kilómetros; Pioneer 10 y Voyager 1 y 2, que entre 1972 y 1977 se adentraron por los alrededores de Júpiter, Saturno, Urano y Plutón, o Galileo, dirigido hacia Júpiter y sus satélites.
Un tipo muy especial de vehículo es el telescopio espacial Hubble, que la NASA puso en órbita, después de un largo proceso, en la primavera de 1990. Situar un telescopio en un satélite artificial significa salvar ese gran obstáculo para recibir radiaciones que es la atmósfera terrestre. Desde su lanzamiento, y especialmente una vez que se corrigieran sus defectos, el Hubble ha enviado y continúa enviando imágenes espectaculares del Universo. Gracias a él, por primera vez disponemos de fotografías de regiones (como la nebulosa de Orión) en las que parece que se está formando una estrella. No es completamente exagerado decir que ha revolucionado nuestro conocimiento del Universo.
Planetas extrasolares
Gracias al avance tecnológico los científicos están siendo capaces de ver nuevos aspectos y objetos del Cosmos, como, por ejemplo, la existencia de sistemas planetarios asociados a estrellas que no sean el Sol. El primer hallazgo en este sentido se produjo en 1992, cuando Alex Wolszczan y Dale Frail descubrieron que al menos dos planetas del tipo de la Tierra orbitan alrededor de un púlsar (Wolszczan y Frail 1992); tres años después, Michel Mayor y Didier Queloz hicieron público que habían descubierto un planeta del tamaño y tipo de Júpiter (un gigante gaseoso) orbitando en torno a la estrella 51 Pegasi (Mayor y Queloz 1995). Desde entonces el número de planetas extrasolares conocidos ha aumentado considerablemente. Y si existen tales planetas, acaso en algunos también se haya desarrollado vida. Ahora bien, aunque la biología que se ocupa del problema del origen de la vida no descarta que en entornos lo suficientemente favorables las combinaciones de elementos químicos puedan producir, debido a procesos sinérgicos, vida, ésta no tiene por qué ser vida del tipo de la humana. La biología evolucionista, apoyada en los registros geológicos, ha mostrado que la especie humana es producto del azar evolutivo. Si, por ejemplo, hace 65 millones de años no hubiese chocado contra la Tierra, a una velocidad de aproximadamente treinta kilómetros por segundo, un asteroide o un cometa de unos diez kilómetros de diámetro, produciendo una energía equivalente a la que librarían cien millones de bombas de hidrógeno, entonces acaso no habrían desaparecido (no, desde luego, entonces) una cantidad enorme de especies vegetales y animales, entre las que se encontraban los dinosaurios, que no dejaban prosperar a los, entonces, pequeños mamíferos, que con el paso del tiempo terminarían produciendo, mediante procesos evolutivos, especies como la de los homo sapiens.
Precisamente por semejante aleatoriedad es por lo que no podemos estar seguros de que exista en otros planetas, en nuestra o en otra galaxia, vida inteligente que trate, o haya tratado, de entender la naturaleza construyendo sistemas científicos, y que también se haya planteado el deseo de comunicarse con otros seres vivos que puedan existir en el Universo. Aun así, desde hace tiempo existen programas de investigación que rastrean el Universo buscando señales de vida inteligente. Programas como el denominado SETI, siglas del Search of Extra-Terrestrial Intelligence (Búsqueda de Inteligencia Extraterrestre), que ha utilizado receptores con 250 millones de canales, que realizan alrededor de veinte mil millones de operaciones por segundo.
Materia y energía oscuras La existencia de planetas extrasolares ciertamente nos conmueve y emociona, pero no es algo «fundamental»; no altera los pilares del edificio científico. Muy diferente es el caso de otros descubrimientos relativos a los contenidos del Universo. Me estoy refiriendo a que tenemos buenas razones para pensar que existe en el Cosmos una gran cantidad de materia que no observamos, pero que ejerce fuerza gravitacional. La evidencia más inmediata procede de galaxias en forma de disco (como nuestra propia Vía Láctea) que se encuentran en rotación. Si miramos a la parte exterior de estas galaxias, encontramos que el gas se mueve de manera sorprendentemente rápida; mucho más rápidamente de lo que debería debido a la atracción gravitacional producida por las estrellas y gases que detectamos en su interior. Otras evidencias proceden de los movimientos internos de cúmulos de galaxias. Se cree que esta materia «oscura» constituye el 30% de toda la materia del Universo. ¿Cuál es su naturaleza? Ése es uno de los problemas; puede tratarse de estrellas muy poco luminosas (como las enanas marrones), de partículas elementales exóticas o de agujeros negros. No podremos entender realmente lo que son las galaxias, o cómo se formaron, hasta que sepamos qué es esa materia oscura. Ni tampoco podremos saber cuál será el destino último de nuestro Universo.
Junto al problema de la materia oscura, otro parecido adquirió prominencia en la última década del siglo XX: el de la energía oscura. Estudiando un tipo de supernovas –estrellas que han explotado dejando un núcleo–, un grupo dirigido por Saul Perlmutter (del Laboratorio Lawrence en Berkeley, California) y otro por Brian Schmidt (Observatorios de Monte Stromlo y Siding Spring, en Australia) llegaron a la conclusión de que, al contrario de lo supuesto hasta entonces, la expansión del Universo se está acelerando (Perlmutter et al. 1998; Schmidt et al. 1998). El problema es que la masa del Universo no puede explicar tal aceleración; había que suponer que la gravedad actuaba de una nueva y sorprendente manera: alejando las masas entre sí, no atrayéndolas. Se había supuesto que para propulsar el Big Bang debía de haber existido una energía repulsiva en la creación del Universo, pero no se había pensado que pudiera existir en el Universo ya maduro.
Una nueva energía entraba así en acción, una energía «oscura» que reside en el espacio vacío. Y como la energía es equivalente a la masa, esta energía oscura significa una nueva aportación a la masa total del Universo, distinta, eso sí, de la masa oscura. Se tiene, así, que alrededor del 3% del Universo está formado por masa ordinaria, el 30% de masa oscura y el 67% de energía oscura. En otras palabras: creíamos que conocíamos eso que llamamos
Universo y resulta que es un gran desconocido. Porque ni sabemos qué es la materia oscura ni lo que es la energía oscura. Una posible explicación de esta última se podría encontrar en un término que introdujo Einstein en 1916-1917 en las ecuaciones de campo de la relatividad general. Como vimos, al aplicar su teoría de la interacción gravitacional al conjunto del Universo, Einstein buscaba encontrar un modelo que representase un Universo estático y ello le obligó a introducir en sus ecuaciones un nuevo término, la ya citada constante cosmológica, que en realidad representaba un campo de fuerza repulsiva, para compensar el efecto atractivo de la gravitación. Al encontrarse soluciones de la cosmología relativista que representan un Universo en expansión y demostrarse de manera observacional (Hubble) que el Universo se expande, Einstein pensó que no era necesario mantener aquella constante, aunque podía incorporarse sin ningún problema en los modelos expansivos teóricos. Acaso ahora sea necesario resucitarla. Ahora bien, semejante resurrección no se podrá limitar a incluirla de nuevo en la cosmología relativista; esto ya no basta: es preciso que tome su sentido y lugar en las teorías cuánticas que intentan insertar la gravitación en el edificio cuántico; al fin y al cabo la energía oscura es la energía del vacío, y éste tiene estructura desde el punto de vista de la física cuántica. Y puesto que ha salido, una vez más, la física cuántica es hora de pasar a ella, a cómo se desarrolló y consolidó la revolución cuántica durante la segunda mitad del siglo XX.
Un mundo cuántico
La física de altas energías: de los protones, neutrones y electrones a los quarks Antes, al tratar de la revolución cuántica que surgió en la primera mitad del siglo, me referí a la búsqueda de los componentes básicos de la materia, las denominadas «partículas elementales». Vimos entonces cómo ir más allá de protones, electrones y neutrones, las más básicas de esas partículas, requería energías más elevadas de las que podían proporcionar los «proyectiles» –por ejemplo, partículas alfa– que proporcionaban las emisiones de elementos radiactivos (especialmente el radio), y que fue Ernest Lawrence quien abrió una nueva senda introduciendo y desarrollando unos instrumentos denominados aceleradores de partículas (ciclotrones en su caso), cuyo funcionamiento se basa en acelerar partículas a energías elevadas, haciéndolas chocar luego unas con otras (o con algún blanco predeterminado) para ver qué es lo que se produce en tales choques; esto es, de qué nuevos componentes más pequeños están compuestas esas partículas… si es que lo están.
La física de partículas elementales, también llamada, como ya indiqué, de altas energías, ha sido una de las grandes protagonistas de la segunda mitad del siglo XX. Se trata de una
ciencia muy cara (es el ejemplo canónico de Big Science, Gran Ciencia, ciencia que requiere de grandes equipos de científicos y técnicos y de grandes inversiones); cada vez, de hecho, más cara, al ir aumentado el tamaño de los aceleradores para poder alcanzar mayores energías. Después de la Segunda Guerra Mundial contó –especialmente en Estados Unidos–con la ayuda del prestigio de la física nuclear, que había suministrado las poderosas bombas atómicas. Limitándome a citar los aceleradores más importantes construidos, señalaré que en 1952 entró en funcionamiento en Brookhaven (Nueva York) el denominado Cosmotrón, para protones, que podía alcanzar 2,8 GeV; luego vinieron, entre otros, el Bevatrón (Berkeley, protones; 1954), 3,5 Gev; Dubna (URSS, protones; 1957), 4,5 Gev; Proton-Synchroton (CERN, Ginebra, protones; 1959), 7 GeV; Slac (Stanford; 1966), 20 GeV; PETRA (Hamburgo, electrones y positrones; 1978), 38 GeV; Collider (CERN, protones y antiprotones; 1981), 40 GeV; Tevatron (Fermilab, Chicago, protones y antiprotones), 2.000 GeV, y SLC (Stanford, California, electrones y positrones), 100 GeV, los dos de 1986; LEP (CERN, electrones y positrones; 1987), 100 GeV, y HERA (Hamburgo, electrones y protones; 1992), 310 GeV.
Las siglas CERN corresponden al Centre Européen de Recherches Nucleaires (Centro Europeo de Investigaciones Nucleares), la institución que en 1954 crearon en Ginebra doce naciones europeas para poder competir con Estados Unidos. Con sus aceleradores, el CERN –formado ahora por un número mayor de países (España es uno de ellos)– ha participado de manera destacada en el desarrollo de la física de altas energías. De hecho, en tiempos difíciles para esta disciplina como son los actuales, el CERN acaba de completar (2008) la construcción de un nuevo acelerador, uno en el que los protones chocarán con una energía de 14.000 GeV: el LHC (Large Hadron Collider). Toma así la vieja Europa la antorcha en mantener el «fuego» de esta costosa rama de la física.
¿Por qué he dicho «tiempos difíciles para esta disciplina»? Pues porque debido a su elevado costo, en los últimos años esta rama de la física está pasando por dificultades. De hecho, hace poco sufrió un duro golpe en la que hasta entonces era su patria principal, Estados Unidos. Me estoy refiriendo al Super colisionador Superconductor (Superconducting Super Collider; SSC). Este gigantesco acelerador, que los físicos de altas energías norteamericanos estimaban indispensable para continuar desarrollando la estructura del denominado modelo estándar, iba a estar formado por un túnel de 84 kilómetros de longitud que debería ser excavado en las proximidades de una pequeña población de 18.000 habitantes, situada a 30 kilómetros al sudoeste de Dallas, en Waxahachie. En el interior de ese túnel miles de bobinas
magnéticas superconductoras guiarían dos haces de protones para que, después de millones de vueltas, alcanzaran una energía veinte veces más alta que la que se podía conseguir en los aceleradores existentes. En varios puntos a lo largo del anillo, los protones de los dos haces chocarían, y enormes detectores controlarían lo que sucediera en tales colisiones. El coste del proyecto, que llevaría diez años, se estimó inicialmente en 6.000 millones de dólares.
Después de una azarosa vida, con parte del trabajo de infraestructura ya realizado (la excavación del túnel), el 19 de octubre de 1993 y después de una prolongada, difícil y cambiante discusión parlamentaria, tanto en el Congreso como en el Senado, el Congreso canceló el proyecto. Otros programas científicos –especialmente en el campo de las ciencias biomédicas– atraían la atención de los congresistas y senadores americanos; y también, ¿cómo negarlo?, de la sociedad, más interesada en asuntos que atañen a su salud.
Pero dejemos los aceleradores y vayamos a su producto, a las partículas aparentemente «elementales». Gracias a los aceleradores, su número fue creciendo de tal manera que terminó socavando drásticamente la idea de que la mayoría pudiesen ser realmente elementales en un sentido fundamental. Entre las partículas halladas podemos recordar, por ejemplo, piones y muones de diversos tipos, o las denominadas ?, W o Z, sin olvidar a sus correspondientes antipartículas. El número –cientos– resultó ser tan elevado que llegó a hablarse de un «zoo de partículas», un zoo con una fauna demasiado elevada.
A ese zoo se les unió otra partícula particularmente llamativa: los quarks. Su existencia fue propuesta teóricamente en 1964 por los físicos estadounidenses Murray Gell-Mann (n. 1929) y George Zweig (n. 1937). Hasta su aparición en el complejo y variado mundo de las partículas elementales, se pensaba que protones y neutrones eran estructuras atómicas inquebrantables, realmente básicas, y que la carga eléctrica asociada a protones y electrones era una unidad indivisible. Los quarks no obedecían a esta regla, ya que se les asignó cargas fraccionarias. De acuerdo a Gell-Mann (1964) y Zweig (1964), los hadrones, las partículas sujetas a la interacción fuerte, están formados por dos o tres especies de quarks y anti quarks, denominados u (up; arriba), d (down; abajo) y s (strange; extraño), con, respectivamente, cargas eléctricas 2/3, -1/3 y -1/3 la del electrón. Así, un protón está formado por dos quarks u y uno d, mientras que un neutrón está formado por dos quarks d y por otro u; son, por consiguiente, estructuras compuestas. Posteriormente, otros físicos propusieron la existencia de tres quarks más: charm (c; 1974), bottom (b; 1977) y top (t; 1995). Para caracterizar esta variedad, se dice que los quarks tienen seis tipos de «sabores»
(flavours); además, cada uno de estos seis tipos puede ser de tres clases, o colores: rojo, amarillo (o verde) y azul. Y para cada quark existe, claro, un anti quark.
Por supuesto, nombres como los anteriores –color, sabor, arriba, abajo…– no representan la realidad que asociamos normalmente a tales conceptos, aunque puede en algún caso existir una cierta lógica en ellos, como sucede con el color. Veamos lo que el propio Gell-Mann (1995, 199) ha señalado con respecto a este término:
Aunque el término «color» es más que nada un nombre gracioso, sirve también como metáfora. Hay tres colores, denominados rojo, verde y azul a semejanza de los tres colores básicos en una teoría simple de la visión humana del color (en el caso de la pintura, los tres colores primarios suelen ser el rojo, el amarillo y el azul, pero para mezclar luces en lugar de pigmentos, el amarillo se sustituye por el verde). La receta para un neutrón o un protón consiste en tomar un quark de cada color, es decir, uno rojo, uno verde y uno azul, de modo que la suma de colores se anule. Como en la visión del color blanco se puede considerar una mezcla de rojo, verde y azul, podemos decir metafóricamente que el neutrón y el protón son blancos.
En definitiva, los quarks tienen color pero los hadrones no: son blancos. La idea es que sólo las partículas blancas son observables directamente en la naturaleza, mientras que los quarks no; ellos están «confinados», asociados formando hadrones. Nunca podremos observar un quark libre. Ahora bien, para que los quarks permanezcan confinados deben existir fuerzas entre ellos muy diferentes de las electromagnéticas o de las restantes. «Así como la fuerza electromagnética entre electrones está mediada por el intercambio virtual de fotones», utilizando de nuevo a Gell-Mann (1995, 200), «los quarks están ligados entre sí por una fuerza que surge del intercambio de otros cuantos: los gluones (del inglés glue, pegar), llamados así porque hacen que los quarks se peguen formando objetos observables blancos como el protón y el neutrón».
Aproximadamente una década después de la introducción de los quarks, se desarrolló una teoría, la cromodinámica cuántica, que explica por qué los quarks están confinados tan fuertemente que nunca pueden escapar de las estructuras hadrónicas que forman. Por supuesto, el nombre cromodinámica –procedente del término griego cromos (color)– aludía al color de los quarks (y el adjetivo «cuántica» a que es compatible con los requisitos cuánticos). Al ser la cromodinámica cuántica una teoría de las partículas elementales con color, y al estar
éste asociado a los quarks, que a su vez tratan de los hadrones, las partículas sujetas a la interacción fuerte, tenemos que la cromodinámica cuántica describe esta interacción.
Con la electrodinámica cuántica –logro, como ya indiqué, de la primera mitad del siglo XX– y la cromodinámica cuántica, se disponía de teorías cuánticas para las interacciones electromagnética y fuerte. Pero ¿y la débil, la responsable de los fenómenos radiactivos? En 1932, Enrico Fermi (1901-1954), uno de los mejores físicos de su siglo, desarrolló una teoría para la interacción débil (que aplicó, sobre todo, a la denominada «desintegración beta», proceso radiactivo en el que un neutrón se desintegra dando lugar a un protón, un electrón y un antineutrino), que mejoraron en 1959 Robert Marshak (1916-1992), E. C. George Sudarshan (n. 1931), Richard Feynman y Murray Gell-Mann, pero la versión más satisfactoria para una teoría cuántica de la interacción débil llegó cuando en 1967 el estadounidense Steven Weinberg (n. 1933) y el año siguiente el paquistaní (afincando en Inglaterra) Abdus Salam (1929-1996) propusieron independientemente una teoría que unificaba las interacciones electromagnética y débil. Su modelo incorporaba ideas propuestas en 1960 por Sheldon Glashow (n. 1932). Por estos trabajos, Weinberg, Salam y Glashow compartieron el Premio Nobel de Física de 1979; esto es, después de que, en 1973, una de las predicciones de su teoría –la existencia de las denominadas «corrientes neutras débiles»–fuese corroborada experimentalmente en el CERN.
La teoría electrodébil unificaba la descripción de las interacciones electromagnética y débil, pero ¿no sería posible avanzar por la senda de la unificación, encontrando una formulación que incluyese también a la interacción fuerte, descrita por la cromodinámica cuántica? La respuesta, positiva, a esta cuestión vino de la mano de Howard Georgi (n. 1947) y Glashow, que introdujeron las primeras ideas de lo que se vino a denominar teorías de gran unificación (GUT), que ya mencioné con anterioridad (Georgi y Glashow 1974).
El impacto principal de esta familia de teorías se ha producido en la cosmología; en concreto en la descripción de los primeros instantes del Universo. Desde la perspectiva de las GUTs, al principio existía sólo una fuerza que englobaba las electromagnética, débil y fuerte, que fueron separándose al irse enfriando el Universo. Con semejante equipaje teórico es posible ofrecer explicaciones de cuestiones como el hecho de que exista (al menos aparentemente y para nuestra fortuna) más materia que antimateria en el Universo. Esto es debido a que las GUTs tienen en común que en ellas no se conserva una magnitud denominada «número bariónico», lo que significa que son posibles procesos en los que el número de bariones –
entre los que se encuentran, recordemos, los protones y los neutrones– producidos no es igual al de anti bariones. Utilizando esta propiedad, el físico japonés Motohiko Yoshimura (1978) demostró que un estado inicial en el que exista igual número de materia y antimateria puede evolucionar convirtiéndose en uno con más protones o neutrones que sus respectivas antipartículas, produciendo así un Universo como el nuestro, en el que hay más materia que antimateria.
Gracias al conjunto formado por las anteriores teorías, poseemos un marco teórico extraordinario para entender de qué está formada la naturaleza. Su capacidad predictiva es increíble. De acuerdo con él, se acepta que toda la materia del Universo está formada por agregados de tres tipos de partículas elementales: electrones y sus parientes (las partículas denominadas muón y tau), neutrinos (neutrino electrónico, muónico y tauónico) y quarks, además de por los cuantos asociados a los campos de las cuatro fuerzas que reconocemos en la naturaleza; el fotón para la interacción electromagnética, las partículas Z y W (bosones gauge) para la débil, los gluones para la fuerte y, aunque la gravitación todavía no se ha incorporado a ese marco, los aún no observados gravitones para la gravitacional. El subconjunto formado por la cromodinámica cuántica y teoría electrodébil (esto es, el sistema teórico que incorpora las teorías relativistas y cuánticas de las interacciones fuerte, electromagnética y débil) es especialmente poderoso si tenemos en cuenta el balance predicciones-comprobaciones experimentales. Es denominado modelo estándar. De acuerdo al distinguido físico e historiador de la ciencia, Silvan Schweber (1997, 645), «la formulación del Modelo Estándar es uno de los grandes logros del intelecto humano, uno que rivaliza con la mecánica cuántica. Será recordado –junto a la relatividad general, la mecánica cuántica y el desciframiento del código genético– como uno de los avances intelectuales más sobresalientes del siglo XX. Pero, mucho más que la relatividad general y la mecánica cuántica, es el producto de un esfuerzo colectivo». Quiero hacer hincapié en esta última expresión, «esfuerzo colectivo». El lector atento de estas páginas se dará cuenta fácilmente, sin embargo, de que yo únicamente me he referido en estas páginas a unos pocos físicos; a la punta de un gran iceberg. Ha sido inevitable: la historia de la física de altas energías requiere no ya de un extenso libro, sino de varios.
Ahora bien, no obstante su éxito obviamente el modelo estándar no es «la teoría final». Por
una parte porque la interacción gravitacional queda al margen, pero también porque incluye demasiados parámetros que hay que determinar experimentalmente. Se trata de las, siempre incómodas pero fundamentales, preguntas del tipo «¿por qué?». ¿Por qué existen las
partículas fundamentales que detectamos? ¿Por qué esas partículas tienen las masas que tienen? ¿Por qué, por ejemplo, el tau pesa alrededor de 3.520 veces lo que el electrón? ¿Por qué son cuatro las interacciones fundamentales, y no tres, cinco o sólo una? ¿Y por qué tienen estas interacciones las propiedades (como intensidad o rango de acción) que poseen?
¿Un mundo de ultra minúsculas cuerdas? Pasando ahora a la gravitación, la otra interacción básica, ¿no se puede unificar con las otras tres? Un problema central es la inexistencia de una teoría cuántica de la gravitación que haya sido sometida a pruebas experimentales. Existen candidatos para cumplir ese espléndido sueño unificador, unos complejos edificios matemáticos llamados teorías de cuerdas.
Según la teoría de cuerdas, las partículas básicas que existen en la naturaleza son en realidad filamentos unidimensionales (cuerdas extremadamente delgadas) en espacios de muchas más dimensiones que las tres espaciales y una temporal de las que somos conscientes; aunque más que decir «son» o «están constituidas» por tales cuerdas, habría que decir que «son manifestaciones» de vibraciones de esas cuerdas. En otras palabras, si nuestros instrumentos fuesen suficientemente poderosos, lo que veríamos no serían «puntos» con ciertas características a los que llamamos electrón, quark, fotón o neutrino, por ejemplo, sino minúsculas cuerdas (cuyos cabos pueden estar abiertos o cerrados) vibrando. La imagen que suscita esta nueva visión de la materia más que «física» es, por consiguiente, «musical»: «Del mismo modo que las diferentes pautas vibratorias de la cuerda de un violín dan lugar a diferentes notas musicales, los diferentes modelos vibratorios de una cuerda fundamental dan lugar a diferentes masas y cargas de fuerzas… El Universo –que está compuesto por un número enorme de esas cuerdas vibrantes–, es algo semejante a una sinfonía cósmica», ha señalado el físico, y miembro destacado de la «comunidad de cuerdas», Brian Greene (2001, 166-168) en un libro titulado El Universo elegante, que ha sido un éxito editorial.
Es fácil comprender el atractivo que algunos sienten por estas ideas: «Las cuerdas son verdaderamente fundamentales; son “átomos”, es decir componentes indivisibles, en el sentido más auténtico de la palabra griega, tal como la utilizaron los antiguos griegos. Como componentes absolutamente mínimos de cualquier cosa, representan el final de la línea –la última de las muñecas rusas llamadas “matrioskas”– en las numerosas capas de subestructuras dentro del mundo microscópico» (Green 2001, 163). Ahora bien, ¿qué tipo de materialidad es la de estos constructos teóricos unidimensionales? ¿Podemos pensar en ellos como una especie de «materia elemental» en algún sentido parecido a aquel en el que se
piensa cuando se habla habitualmente de materia, incluso de partículas tan (a la postre acaso sólo aparentemente) elementales como un electrón, un muon o un quark?
Decía antes que las teorías de cuerdas son unos complejos edificios matemáticos, y así es. De hecho, las matemáticas de la teoría de las cuerdas son tan complicadas que hasta ahora nadie conoce ni siquiera las ecuaciones de las fórmulas exactas de esa teoría, únicamente unas aproximaciones de dichas ecuaciones, e incluso estas ecuaciones aproximadas resultan ser tan complicadas que hasta la fecha sólo se han resuelto parcialmente. No es por ello sorprendente que uno de los grandes líderes de esta disciplina sea un físico especialmente dotado para las matemáticas. Me estoy refiriendo al estadounidense Edward Witten (n. 1951). Para hacerse una idea de su talla como matemático basta con señalar que en 1990 recibió (junto a Pierre-Louis Lions, Jean-Christophe Yoccoz y Shigefumi Mori) una de las cuatro medallas Fields que se conceden cada cuatro años y que constituyen el equivalente en matemáticas de los Premios Nobel. Fue Witten (1995) quien argumentó, iniciando así lo que se denomina «la segunda revolución de la cuerdas», que para que la teoría de cuerdas (o supercuerdas) pueda aspirar a ser realmente una Teoría del Todo, debe tener diez dimensiones espaciales más una temporal, esto es, once (Witten denominó Teoría M a esa formulación, todavía por desarrollar completamente).
Enfrentados con las teorías de cuerdas, es razonable preguntarse si al avanzar en la exploración de la estructura de la materia no habremos alcanzado ya niveles en los que la «materialidad» –esto es, la materia– se desvanece transformándose en otra cosa diferente. Y
¿en qué otra cosa? Pues si estamos hablando de partículas que se manifiestan como vibraciones de cuerdas, ¿no será esa «otra cosa», una estructura matemática? Una vibración es, al fin y al cabo, la oscilación de algo material, pero en cuanto a estructura permanente tiene probablemente más de ente matemático que de ente material. Si fuese así, podríamos decir que se habría visto cumplido el sueño, o uno de los sueños, de Pitágoras. Los físicos habrían estado laborando duramente a lo largo de siglos, milenios incluso, para descubrir, finalmente, que la materia se les escapa de las manos, como si de una red se tratase, convirtiéndose en matemática, en estructuras matemáticas. La teoría de cuerdas, en resumen, resucita viejos problemas, acaso fantasmas. Problemas como el de la relación entre la física (y el mundo) y la matemática.
Independientemente de estos aspectos de naturaleza en esencia filosófica, hay otros que es imprescindible mencionar. Y es que hasta la fecha las teorías de cuerdas han demostrado
muy poco, sobre todo si no olvidamos que la ciencia es explicación teórica, sí, pero también experimentos, someter la teoría al juez último que es la comprobación experimental. Las teorías de cuerdas son admiradas por algunos, comentadas por muchos y criticadas por bastantes, que insisten en que su naturaleza es excesivamente especulativa. Así, Lee Smolin (2007, 17-18), un distinguido físico teórico, ha escrito en un libro dedicado a estas teorías:
En los últimos veinte años, se ha invertido mucho esfuerzo en la teoría de
cuerdas, pero todavía desconocemos si es cierta o no. Incluso después de todo el trabajo realizado, la teoría no ha proporcionado ninguna predicción que pueda ser comprobada mediante experimentos actuales o, al menos, experimentos que podamos concebir en la actualidad. Las escasas predicciones limpias que propone ya han sido formuladas por otras teorías aceptadas .
Parte de la razón por la que la teoría de cuerdas no realiza nuevas predicciones es que parece presentarse en un número infinito de versiones. Aun limitándonos a las teorías que coinciden con algunos de los hechos básicos observados sobre nuestro Universo, por ejemplo, su vasto tamaño o la existencia de energía oscura, nos siguen quedando algo así como 10500 teorías de cuerdas diferentes. Una cantidad tal de teorías, nos deja poca esperanza de poder identificar algún resultado de algún experimento que no se pudiera incluir en alguna de ellas. Por tanto, no importa lo que muestren los experimentos, pues no se puede demostrar que la teoría de cuerdas sea falsa, aunque lo contrario también es cierto: ningún experimento puede demostrar que sea cierta.
Recordemos en este punto que uno de los sistemas metodológicos de la ciencia más influyentes continúa siendo el construido por el filósofo de origen austriaco, instalado finalmente en la London School of Economics de Londres, Karl Popper (1902-1994), quien siempre insistió en que una teoría que no es refutable mediante ningún experimento imaginable no es científica; esto es, que si no es posible imaginar algún experimento cuyos resultados contradigan las predicciones de una teoría, ésta no es realmente científica. Y aunque en mi opinión tal criterio es demasiado exigente para ser siempre verdad, constituye una buena guía. En cualquier caso, el futuro tendrá la última palabra sobre las teorías de cuerdas.
Nucleosíntesis estelar
En las páginas anteriores me he ocupado de los aspectos más básicos de la estructura de la materia, pero la ciencia no se reduce a buscar lo más fundamental, la estructura más
pequeña; también pretende comprender aquello que nos es más próximo, más familiar. Es obligado, en este sentido, referirse a otro de los grandes logros de la física del siglo XX: la reconstrucción teórica de los procesos –nucleosíntesis– que condujeron a formar los átomos que encontramos en la naturaleza, y de los que nosotros mismos estamos formados. De estas cuestiones se ocupa la física nuclear, una disciplina relacionada, naturalmente, con la física de altas energías, aunque ésta sea más «fundamental» al ocuparse de estructuras más básicas que los núcleos atómicos.
De hecho, la física de altas energías proporciona las bases sobre las que se asienta el edificio de la física nuclear que se ocupa de la nucleosíntesis estelar. Han sido, en efecto, los físicos de altas energías los que se han ocupado, y ocupan, de explicar cómo de la «sopa» indiferenciada de radiación y energía que surgió del Big Bang fueron formándose las partículas que constituyen los átomos.
Al ir disminuyendo la temperatura del Universo, esa sopa se fue diferenciando. A la temperatura de unos 30.000 millones de grados Kelvin (que se alcanzó en aproximadamente 0,11 segundos), los fotones –esto es, recordemos, la luz– se independizaron de la materia, distribuyéndose uniformemente por el espacio. Únicamente cuando la temperatura del Universo bajó a los 3.000 millones de grados Kelvin (casi 14 segundos después del estallido inicial) comenzaron a formarse –mediante la unión de protones y neutrones– algunos núcleos estables, básicamente el hidrógeno (un protón en torno al cual orbita un electrón) y el helio (dos protones y dos neutrones en el núcleo, con dos electrones como «satélites»). Estos dos elementos, los más ligeros que existen en la naturaleza, fueron –junto a fotones y neutrinos–, los principales productos del Big Bang, y representan aproximadamente el 73% (el hidrógeno) y el 25% (el helio) de la composición del universo.
Tenemos, por consiguiente, que el Big Bang surtió generosamente al Universo de hidrógeno y de helio. Pero ¿y los restantes elementos? Porque sabemos que hay muchos más elementos en la naturaleza. No hace falta ser un experto para saber que existe el oxígeno, el hierro, el nitrógeno, el carbono, el plomo, el sodio, el cinc, el oro y muchos elementos más. ¿Cómo se formaron?
Antes incluso de que los físicos de altas energías hubiesen comenzado a estudiar la nucleosíntesis primordial, hubo físicos nucleares que durante la primera mitad del siglo XX se ocuparon del problema de la formación de los elementos más allá del hidrógeno y el helio. Entre ellos es obligado mencionar a Carl Friedrich von Weizsäcker (1912-2007) en Alemania
y a Hans Bethe (1906-2005) en Estados Unidos (Weizsäcker 1938; Bethe y Critchfield 1938; Bethe 1939a, b). Justo cuando iba a comenzar la segunda mitad de la centuria, George Gamow (1904-1968) y sus colaboradores, Ralph Alpher (1921-2007) y Robert Herman (19141997), dieron otro paso importante, que fue seguido diecisiete años después por Robert Wagoner (n. 1938), William Fowler (1911-1995) y Fred Hoyle, que armados con un conjunto mucho más completo de datos de reacciones nucleares, explicaron que en el universo el litio constituye una pequeña fracción (10-8) de la masa correspondiente al hidrógeno y al helio, mientras que el total de los restantes elementos representa un mero 10-11 (Wagoner, Fowler y Hoyle 1967).
Gracias a aportaciones como éstas –y las de muchos otros– ha sido posible reconstruir las reacciones nucleares más importantes en la nucleosíntesis estelar. Una de estas reacciones es la siguiente: dos núcleos de helio chocan y forman un átomo de berilio, elemento que ocupa el cuarto lugar (número atómico) en la tabla periódica, tras el hidrógeno, helio y litio (su peso atómico es 9, frente a 1 para el hidrógeno, 4 para helio y 6 para el litio). En realidad se produce más de un tipo de berilio; uno de ellos, el isótopo de peso atómico 8 es muy radiactivo, existiendo durante apenas una diez milbillonésima de segundo, tras lo cual se desintegra produciendo de nuevo dos núcleos de helio. Pero si durante ese instante de vida el berilio choca con un tercer núcleo de helio puede formar un núcleo de carbono (número atómico 6 y peso atómico 12), que es estable. Y si las temperaturas son suficientemente elevadas, los núcleos de carbono se combinan y desintegran de maneras muy diversas, dando lugar a elementos como magnesio (número atómico 12), sodio (11), neón (10) y oxígeno (8). A su vez, los núcleos de oxígeno pueden unirse y formar azufre y fósforo. De este modo, se fabrican elementos cada vez más pesados. Hasta llegar al hierro (26).
Hechos de este tipo nos llevan a otra cuestión: la de cómo han llegado estos elementos a la Tierra, puesto que el lugar en el que fueron fabricados necesita de energías y temperaturas que no se dan en nuestro planeta. Y si suponemos que no deben existir diferencias grandísimas entre nuestro planeta y los demás –salvo en detalles como composición o posibilidad de que exista vida–, cómo han llegado a cualquier otro planeta. Pues bien, una parte de los elementos (hasta el hierro) que no se produjeron en los primeros instantes del Universo, se han fabricado sobre todo en el interior de estrellas. La emisión al espacio exterior de esos elementos puede tener lugar de tres maneras: mediante la lenta pérdida de masa en estrellas viejas, en la denominada fase «gigante» de la evolución estelar; durante los relativamente frecuentes estallidos estelares que los astrónomos denominan «novas»; y en las
dramáticas y espectaculares explosiones que se producen en la etapa estelar final que alumbran las denominadas «supernovas» (una de estas explosiones fue detectada en 1987: la supernova SN1987A; la explosión había tenido lugar 170.000 años antes, el tiempo que ha tardado la luz en llegar a la Tierra). Es sobre todo en la explosión de las supernovas cuando los elementos pesados fabricados en la nucleosíntesis estelar se difunden por el espacio. No se conoce demasiado bien por qué se producen estas explosiones, pero se cree que además de expulsar los elementos que acumulaba la estrella en su interior (salvo parte que retiene convertidos en objetos muy peculiares, como estrellas de neutrones), en el estallido se sintetizan elementos todavía más pesados que el hierro; elementos como el cobre, cinc, rubidio, plata, osmio, uranio, y así hasta una parte importante de los más de cien elementos que contiene en la actualidad la tabla periódica, y que son relativamente abundantes en sistemas estelares como el nuestro, el Sistema Solar.
Precisamente por esta abundancia de elementos pesados, parece razonable pensar que el Sol es una estrella de segunda generación, formada, algo menos de hace 5.000 millones de años, por la condensación de residuos de una estrella anterior que murió en una explosión de supernova. El material procedente de semejante explosión se agrupó en un disco de gas y polvo con una protoestrella en el centro. El Sol se «encendió» cuando el núcleo central de materia se comprimió tanto que los átomos de hidrógeno se fundieron entre sí. Y alrededor suyo, a lo largo de bandas elípticas, siguiendo un proceso parecido pero menos intenso gravitacionalmente, se formaron los planetas de lo que llamamos Sistema Solar: Mercurio, Venus, la Tierra, Marte, Júpiter, Saturno, Urano, Neptuno y Plutón (aunque éste no es desde hace poco considerado en la categoría de «planeta»), y los satélites de éstos, como la Luna.
Desde esta perspectiva, la Tierra (formada hace unos 4.500 millones de años), al igual que los demás planetas, es algo parecido a un pequeño basurero (o cementerio) cósmico; un lugar en el que se han acumulado restos de la vida de estrellas, no lo suficientemente importantes como para dar lugar a un astro; esto es, aglomerados de elementos en cantidades tan pequeñas que no han podido desencadenar en su interior reacciones termonucleares como las que se producen en las estrellas. Pero al igual que en los basureros también se abre camino la vida, así ocurrió en esta Tierra nuestra, con su diámetro de, aproximadamente, 12.700 kilómetros y su peso de unas 6•1021 (6 seguido de 21 ceros) toneladas. Nosotros somos testigos y demostración de este fenómeno.
Dentro de unos 7.500 millones de años, la zona central del Sol, en la que el hidrógeno se convierte en helio, aumentará de tamaño a medida que el hidrógeno se vaya consumiendo. Y cuando ese núcleo de helio alcance un tamaño suficiente, el Sol se dilatará hasta convertirse
en una estrella de las denominadas gigantes rojas. Se hará tan gigantesca que su diámetro terminará alcanzando la órbita de la Tierra, acabando con ella. Antes de que suceda esto, la superficie terrestre llegará a estar tan caliente como para que el plomo se funda, hiervan los océanos y desaparezca todo rastro de vida. De esta manera, los procesos nucleares que nos dieron la vida acabarán con ella.
Más allá del mundo microscópico Las teorías físicas de las que he estado tratando en las secciones precedentes son, es cierto, teorías cuánticas; ahora bien, el mundo de la física cuántica no se restringe a ellas y constituiría un grave error no referirse a otras novedades que surgieron en ese mundo durante la segunda mitad del siglo XX. Enfrentado con la difícil cuestión de buscar los avances más importantes, he optado por seleccionar dos grupos. El primero incluye desarrollos que han reforzado a la física cuántica frente a críticas como las que lideró Einstein junto a Podolsky y Rosen. El segundo trata de los trabajos que han puesto de relieve la existencia de fenómenos cuánticos macroscópicos.
Una teoría no local: el entrelazamiento cuántico
El fin de la ciencia es suministrar sistemas teóricos que permitan relacionar cuantos más fenómenos naturales mejor y que estos sistemas tengan capacidad predictiva. A esto le llamamos «explicar la naturaleza». Ahora bien, «explicar» no quiere decir encontrar respuestas que nos resulten familiares, que no violenten nuestras categorías explicativas más comunes: ¿por qué la naturaleza iba a seguir tales pautas? Ya aludí antes a que la física cuántica muestra con especial virulencia que la realidad nos puede resultar, de acuerdo con algunas teorías de gran éxito, profundamente contraintuitiva. Si este rasgo estaba claro desde que en 1925-1926 se contó con la mecánica cuántica, ahora lo está aún más. Veamos a qué me refiero.
En 1935, Albert Einstein, junto a dos colaboradores suyos, Boris Podolsky (1896-1966) y Nathan Rosen (1910-1995), publicaron un artículo (Einstein, Podolsky y Rosen 1935) en el que argumentaban que la mecánica cuántica no podía ser una teoría completa, que era necesario introducir nuevas variables. Sería largo explicar los argumentos que emplearon, que van más allá de lo puramente físico, adentrándose en terrenos claramente filosóficos (daban
una definición de lo que es la «realidad física»); simplemente diré que su análisis condujo a que un físico natural de Belfast que trabajaba en el División de Teoría del CERN, John Stewart Bell (1928-1990), demostrase que existían unas relaciones (desigualdades) que se podían emplear para decidir experimentalmente qué tipo de teoría era correcta, si una «completa» (que incluyese unas variables «ocultas» para la formulación cuántica) que obedeciese a los requisitos que Einstein, Podolsky y Rosen habían planteado en 1935 o la mecánica cuántica tradicional (Bell 1964, 1966). Provistos del análisis de Bell, John Clauser, Michael Horne, Abner Shimony y Richard Holt (1969) propusieron un experimento concreto para aplicar en él la prueba de las desigualdades de Bell. Este experimento se llevó a cabo en el Instituto de Óptica Teórica y Aplicada de Orsay, en las cercanías de París, por un equipo dirigido por Alain Aspect (n. 1947). Y el resultado (Aspect, Dalibard y Roger 1982) favoreció a la mecánica cuántica. Será rara, contraintuitiva, con variables que no se pueden determinar simultáneamente, socavará nuestra idea tradicional de lo que es la realidad, pero es cierta. El análisis de Bell y el experimento del equipo de Aspect mostraron además un rasgo de la mecánica cuántica que aunque conocido apenas había sido destacado: su no localidad; que todos los elementos de un sistema cuántico están conectados, entrelazados, entre sí; no
importa qué tan alejados estén, siempre es posible que se transmita la señal de lo que le ha sucedido a uno de sus elementos a otro con la velocidad de la luz, la máxima permitida por la relatividad especial. En otras palabras, un elemento se «entera» –y reacciona–instantáneamente de lo que le sucede a otro independientemente de la distancia que les separe. La no localidad –que Einstein siempre rechazó, como contraria al «sentido común» físico– plantea, no hay duda, un problema de compatibilidad con la relatividad especial, pero no existe ninguna razón para pensar que no se encuentre en el futuro una generalización de la mecánica cuántica que resuelva esta dificultad. Eso sí, seguro que no será fácil.
La no localidad abre, asimismo, posibilidades que parecen pertenecer al dominio de la ciencia-ficción. Utilizaré, en este sentido, lo que ha escrito el divulgador científico Amir Aczel (2004, 20): «Mediante el entrelazamiento puede también “tele portarse” el estado de una partícula hasta un destino lejano, como sucede con el capitán Kirk en la serie televisiva Star Trek cuando pide ser proyectado de vuelta al Enterprise. Para ser preciso, nadie ha sido todavía capaz de “tele portar” a una persona. Pero el estado de un sistema cuántico ha sido “tele portado” en el laboratorio. Es más, este increíble fenómeno está comenzando a emplearse en criptografía y (podría usarse) en la futura computación cuántica».
Ideas –y, al menos en parte, realidades– como éstas, muestran que la ciencia puede superar incluso a la ciencia-ficción. En cualquier caso, consecuencias de la física cuántica como éstas pertenecerán más al siglo XXI que al que hace poco se cerró.
Fenómenos cuánticos macroscópicos: «Lo submicroscópico deviene macroscópico» Estamos acostumbrados a pensar que el dominio de la física cuántica es únicamente el microscópico, el de partículas elementales, átomos o radiaciones, pero no es así aunque es cierto que históricamente estos fenómenos fueron los responsables de la génesis de las teorías cuánticas. Las dos manifestaciones principales de esa física cuántica macroscópica son los condensados de Bose-Einstein y la superconductividad.
Condensados de Bose-Einstein
Desde el punto de vista de la teoría, los condensados (o condensación) de Bose-Einstein proceden del artículo que publicó en 1924 el físico hindú Satyendranath Bose (1894-1974), en el que introducía una nueva estadística (una forma de contar fotones) para explicar la ley de radiación de un cuerpo negro que había llevado a Max Planck a introducir la primera noción de cuantización en 1900. Fue Einstein quien reconoció el valor (y ayudó a que fuese publicado) del trabajo de Bose (1924), al que completó con dos artículos (Einstein 1924, 1925) en los que ampliaba las conclusiones de Bose. Señaló, por ejemplo, que se podría producir en un gas de fotones una condensación: «Una parte “se condensa” y la restante continúa siendo un gas perfecto saturado» (Einstein 1925). Con la expresión «condensación», Einstein quería decir que un grupo de fotones actúa como si fuese una unidad, sin que entre ellos parezca que existen fuerzas de interacción. Además, predijo que «si la temperatura desciende lo suficiente», se produciría en ese gas «una caída brutal y acelerada de la viscosidad en el entorno de una cierta temperatura», que estimaba para el helio líquido –en el que ya había indicios de tal super fluidez– en unos 2°K.
Hubo, no obstante, que esperar hasta el 8 de enero de 1938 para que se produjera un avance en la predicción einsteiniana de la existencia de super fluidez. Fue entonces cuando se publicaron en la revista inglesa Nature dos breves artículos, uno a cargo del Piotr Kapitza (1894-1984), director del Instituto de Problemas Físicos en Moscú y anteriormente (hasta que en 1934 Stalin le retuvo en la Unión Soviética, durante uno de sus viajes de vacaciones) catedrático en el Laboratorio Cavendish de Cambridge, y otro de dos jóvenes físicos canadienses que estaban trabajando en el Laboratorio Mondque la Royal Societypatrocinaba
en Cambridge, Jack Allen (1908-2001) y Don Misener (1911-1996). En ellos (Kapitza 1938; Allen y Misener 1938) se anunciaba que el helio líquido fluía casi sin sufrir la resistencia de la viscosidad por debajo de 2,18°K. Fueron, sin embargo, Fritz London (1900-1954) y Laszlo Tisza (n. 1907) quienes demostraron teóricamente que este fenómeno constituía la evidencia de la super fluidez.
Se trataba, por supuesto, de la vieja idea que Einstein había propuesto en 1924, y a la que apenas se había prestado atención, aunque ahora más desarrollada y aplicada a otros sistemas muy diferentes a los gases ideales considerados por el creador de la relatividad.
Es preciso señalar, sin embargo, que a pesar de que en la actualidad damos a los descubrimientos de 1938 un gran valor, en la medida en que mostraban macroscópicamente un comportamiento cuántico, en su momento este aspecto no se destacó tanto. Para comprender mejor la relación entre la condensación de Bose-Einstein y los aspectos macroscópicos de la física cuántica, hubo que tratar con átomos, producir «super átomos», conjuntos de átomos que se comportasen como una unidad y fuesen perceptibles macroscópicamente. Semejante logró se alcanzó mucho más tarde, en 1995. Aquel año, dos físicos de Colorado, Eric Cornell (n. 1961) y Carl Wieman (n. 1951), produjeron un super átomo de rubidio, y unos meses después Wolfgang Ketterle (n. 1957), del MIT, otro de sodio (los tres recibieron el Premio Nobel de Física de 2001). Veamos cómo han descrito los dos primeros su aportación (Cornell y Wieman 2003, 82):
Nuestro grupo de investigación del Instituto Conjunto de Astrofísica de Laboratorio (o JILA ahora), en Boulder, creó en junio de 1995 una gota, aunque minúscula, maravillosa. Al enfriar 2.000 átomos de rubidio hasta una temperatura de menos de 100 milmillonésimas de grado sobre el cero absoluto (100 milmillonésimas de grados kelvin) hicimos que los átomos perdiesen su identidad individual y se comportaran como si fuesen un solo «super átomo». Las propiedades físicas de todos ellos, sus movimientos, por ejemplo, se volvieron idénticas. Este condensado de Bose-Einstein, el primero observado en un gas, viene a ser el análogo material del láser, con la diferencia de que en el condensado son átomos, no fotones, los que danzan al unísono.
Y más adelante añadían (Cornell y Wieman 2003, 82-84):
Raras veces vemos los efectos de la mecánica cuántica reflejados en la conducta de una cantidad macroscópica de materia. Las contribuciones incoherentes del inmenso número de partículas de cualquier porción de materia oscurecen la naturaleza ondulatoria de la mecánica cuántica; sólo podemos inferir sus efectos. Pero en la condensación de Bose la naturaleza ondulatoria de cada átomo está
en fase con las demás; y lo está de manera precisa. Las ondas mecano-cuánticas atraviesan la muestra entera y se observan a simple vista. Lo submicroscópico deviene macroscópico .
La creación de condensados de Bose-Einstein ha arrojado luz sobre viejas paradojas de la mecánica cuántica. Por ejemplo, si dos o más átomos están en un solo estado mecánicocuántico, y eso es lo que pasa en un condensado, será imposible distinguirlos, se haga la medición que se haga. Los dos átomos ocuparán el mismo volumen de espacio, se moverán a la misma velocidad, dispersarán luz del mismo color, etc.
En nuestra experiencia, basada en el trato constante de la materia a temperaturas normales, no hay nada que nos ayude a comprender esta paradoja. Por un motivo: a las temperaturas normales y a las escalas de magnitud en que nos desenvolvemos, es posible describir la posición y el movimiento de todos y cada uno de los objetos de un conjunto… A temperaturas bajísimas o a escalas de magnitud pequeñas, la mecánica clásica va perdiendo vigor… No podemos saber la posición exacta de cada átomo, y es mejor imaginarlos como manchas imprecisas. La mancha es un paquete de ondas, la región del espacio donde cabe esperar que esté el átomo. Conforme el conjunto de átomos se enfría, crece el tamaño de los paquetes de ondas. Mientras cada uno esté espacialmente separado de los demás será posible, al menos en principio, distinguir átomos entre sí. Pero cuando la temperatura llega a ser lo bastante baja los paquetes de ondas de los átomos vecinos se solaparán. Entonces, los átomos «se Bose-condensarán» en el menor estado de energía que sea posible, y los paquetes de ondas se fundirán en un solo paquete macroscópico. Los átomos sufrirán una crisis cuántica de identidad: ya no podremos distinguir unos de los otros.
Superconductividad La superconductividad es otro de los fenómenos físicos en los que la cuantización se manifiesta macroscópicamente. El fenómeno en sí fue descubierto hace mucho, en 1911, cuando el físico holandés Heike Kamerlingh Onnes (1853-1926), el gran pionero y experto mundial en bajas temperaturas, encontró en su laboratorio de Leiden que cuando enfriaba el
mercurio metal a 4°K, se anulaba por completo su resistencia ante el paso de una corriente eléctrica (Kamerlingh Onnes 1911). Una vez iniciada esa corriente, continuaría indefinidamente aunque no se le aplicase ninguna diferencia de potencial. Más tarde se encontró que otros metales y compuestos se hacían también superconductores a temperaturas cercanas al cero absoluto de temperatura. Ahora bien, una cosa es la evidencia experimental y otra la explicación teórica, y ésta tardó en llegar. Fue, en efecto, en 1957 cuando los estadounidenses John Bardeen (1908-1991), Leon Cooper (n. 1930) y John Robert Schrieffer (n. 1931) dieron con tal teoría (conocida por las iniciales de sus apellidos: BCS). Su explicación (Bardeen, Cooper y Schrieffer 1957) consistía en que a partir de una cierta temperatura los electrones que transportan la corriente eléctrica en un elemento o compuesto superconductor se agrupan en parejas –como había supuesto con anterioridad Cooper (1956); de ahí los «pares de Cooper»– que actúan como bosones; esto es, partículas como los fotones que no están sometidos a ciertos requisitos cuánticos. Este agrupamiento se produce a temperaturas muy bajas y se debe a la interacción entre los electrones y la red de átomos metálicos del compuesto superconductor. En este momento, agrupados, los pares de electrones marchan como un armonioso ejército de bosones que ignoran los impedimentos atómicos. Es así como se manifiesta macroscópicamente este efecto cuántico.
La teoría BCS constituyó un éxito formidable de la física cuántica, pero no es totalmente satisfactoria, como se puso en evidencia por su incapacidad de predecir la existencia de superconductividad en materiales cerámicos a temperaturas mucho más elevadas que las que se manejaban hasta entonces. Fue en 1986, en los laboratorios de IBM de Zúrich, donde Georg Bednorz (n. 1950) y Alexander Müller (n. 1927) encontraron que un óxido de lantano, bario y cobre era superconductor a temperaturas tan altas (no, claro, para nuestras experiencias cotidianas) como 35°K. El año siguiente, Paul Chu (1987) elevó la escala de temperaturas superconductoras, hallando un óxido de itrio, bario y cobre que se volvía superconductor a la temperatura de 93°K, una temperatura que se puede alcanzar sin más que bañar ese óxido en nitrógeno líquido que –a diferencia del helio– es abundante y barato. Desde entonces, el número de estos materiales y de las temperaturas a las que se hacen superconductores no ha hecho sino aumentar.
El hallazgo de Bednorz y Müller (1986) por el que recibieron el Premio Nobel de Física en 1987, abre nuevas perspectivas no sólo a la física sino también, y acaso sobre todo, a la tecnología: materiales superconductores a temperaturas a las que se puede llegar en el
mundo cotidiano (esto es, fuera del laboratorio) pueden tal vez revolucionar nuestras vidas algún día.
Artilugios cuánticos: transistores, chips, máseres y láseres El comentario anterior, la relevancia de la física cuántica en la tecnología, va mucho más allá de la superconductividad. Es posible que materiales superconductores cambien en el futuro nuestras vidas, pero de lo que no hay duda es de otros materiales, los semiconductores, ya las han cambiado. La primera gran aplicación de los semiconductores llegó con la invención del transistor, debida a John Bardeen, William Shockley (1910-1989)) y Walter Brattain (19021987), mientras trabajaban en el departamento de física del estado sólido de los laboratorios Bell. En 1956 los tres recibieron el Premio Nobel de Física, el primero de los dos que ganó Bardeen (el segundo, como ya vimos, fue por la superconductividad).
Un transistor es un dispositivo electrónico hecho de material semiconductor, que puede regular una corriente que pasa a través de él y también actuar como amplificador o célula fotoeléctrica, y, que comparado con los tubos de vacío que le precedieron, necesita cantidades muy pequeñas de energía para funcionar; además son más estables, compactos, actúan instantáneamente y duran más.
Tras los transistores vinieron los circuitos integrados, minúsculos y muy delgados dispositivos en los que se fundamenta el mundo digital. Los circuitos integrados se fabrican sobre un sustrato (habitualmente de silicio) depositando finas películas de materiales que, ora conducen, ora aíslan, la electricidad. Estas películas, ensambladas según patrones elaborados de antemano, forman transistores (cada circuito integrado puede albergar millones de transistores) que funcionan como interruptores encargados de controlar el flujo de electricidad a través del circuito, o chip.
Integrados en los chips, los transistores desempeñan funciones básicas en los billones y billones de microprocesadores que, repartidos, controlan, por ejemplo, motores de coche, teléfonos celulares, misiles, satélites, redes de gas, hornos microondas, ordenadores o aparatos para discos compactos. Han cambiado, literalmente, las formas en las que nos comunicamos, relacionamos con el dinero, escuchamos música, vemos televisión, conducimos
coches, lavamos nuestras ropas o cocinamos.
Hasta la llegada de los transistores y circuitos integrados, las máquinas de calcular utilizadas eran gigantescos amasijos de componentes electrónicos. Durante la Segunda Guerra Mundial
se construyó una de los primeras máquinas de calcular electrónicas: el Electronic Numerical Integrator and Computer (Computador Integrador Numérico Electrónico, también conocido por sus siglas inglesas, ENIAC). Tenía 17.000 tubos electrónicos, unidos por miles de cables, pesaba 30 toneladas y consumía 174 kilowatios. Podemos considerarlo el paradigma de la primera generación de computadores. Con los transistores llegó, en la década de 1950, la segunda generación: el primer computador surgido de la física del estado sólido –una rama de la física cuántica– fue el TRADIC (de Transistor Digital Computer), construido en 1954 por los laboratorios Bell para la Fuerza Aérea estadounidense; utilizaba 700 transistores y podía competir en velocidad con ENIAC. A finales de la década de 1960, gracias a los circuitos integrados, llegaría la tercera generación, a la que siguió una cuarta, con computadoras que utilizan microprocesadores y refinados lenguajes de programación. Y ya se habla de los computadores cuánticos, que en lugar de utilizar bits, que toman valores 1 o 0, definidos, recurren a qubits, bits cuánticos, que pueden estar en superposiciones cuánticas de 0 y 1, lo mismo que un fotón puede estar en superposiciones de polarización horizontal y vertical. Pero los computadores cuánticos, si se logran, pertenecerán a, posiblemente, la segunda mitad del siglo XXI.
Gracias a todos estos desarrollos nos encontramos sumergidos de lleno en un mundo pleno de computadoras que realizan, a velocidades y fiabilidades extraordinarias, todo tipo de funciones, y sin las cuales nuestra vida sería muy diferente. Y nada de esto, es muy importante destacarlo, se habría producido sin los resultados obtenidos en una rama de la física cuántica: la física del estado sólido (también denominada de la materia condensada).
En el haber de esta rama de la física se encuentra también el que ha estrechado las relaciones entre ciencia y sociedad. En 1955, por poner un ejemplo, Shockley, uno de los inventores del transistor, abandonó los laboratorios Bell para fundar su propia compañía en el área de la bahía de San Francisco. El Shockley Semiconductor Laboratoryabrió sus puertas en febrero de 1956, reclutando un excelente grupo de profesionales. No tuvo, sin embargo, demasiado éxito, pero a la postre constituyó el germen que condujo al crecimiento de una zona en la que se agruparon diversas compañías tecnológicas en un lugar de California que terminó siendo conocido como Silicon Valley, el Valle del Silicio.
Ciencia y técnica se alían en este mundo tecnocientífico de una manera tan, digamos, íntima, que no es cierto que las innovaciones fundamentales se den sólo en los enclaves científicos y los negocios en los tecnológicos. Recordemos, en este sentido, que las técnicas fundamentales
(proceso «planar») para la fabricación de los chips fueron ideadas en 1957 por Jean Hoerni (1924-1997), de la empresa Fairchild Semiconductors. El primer circuito integrado fue construido allí por Robert N. Noyce (1927-1990) en 1958. Diez años después (1968), Noyce dejó Fairchild para fundar, junto a Gordon Moore (n. 1929), Intel, donde dirigió con Ted Hoff (n. 1937), la invención del microprocesador, que generó una nueva revolución.
Quiero mencionar, asimismo, que el desarrollo de los microprocesadores electrónicos ha estimulado –y, a su vez, se ha visto él mismo beneficiado por– la denominada «nanotecnología», cuyo objetivo es el control y manipulación de la materia a una escala del orden de entre 1 y 100 nanómetros (1 nanómetro equivale a 10-9 metros). La nanotecnología es más una técnica (un conjunto de técnicas) que una ciencia, pero de ella cabe esperar (en parte ya lo está dando) desarrollos que no sólo beneficien nuestras posibilidades materiales sino también al conocimiento científico más básico.
Máseres y láseres Aún no he mencionado –aunque cronológicamente precedieron a algunos de los desarrollos anteriores– al máser y al láser, acrónimos de, respectivamente, Microwave Amplification by Stimulated Emission of Radiation(amplificación de microondas mediante emisión estimulada de radiación) y de Light Amplification by Stimulated Emission of Radiation(amplificación de luz por emisión estimulada de radiación).
Desde el punto de vista de la teoría, estos instrumentos-procedimientos para amplificar ondas de la misma frecuencia (longitud de onda) se explican con base en el contenido de dos artículos de Einstein (1916a, b). Sin embargo, su realización práctica, con todos los nuevos elementos teóricos y experimentales que ello conllevó, no llegó hasta la década de 1950. Los responsables de este logro fueron, de manera independiente, los físicos del Instituto Lebedev de Física de Moscú, Aleksandr M. Prokhorov (1916-2002) y Nikolai G. Basov (1922-2001), y el estadounidense Charles Townes (n. 1915), de la Universidad de Columbia, Nueva York (los tres compartieron el Premio Nobel de Física de 1964).
En mayo de 1952, durante una conferencia sobre radio-espectroscopía en la Academia de Ciencias de la URSS, Basov y Prokhorov describieron el principio del máser, aunque no publicaron nada hasta dos años después (Basov y Prokhorov 1954). Y no sólo describieron su principio, sino que también Basov construyó uno como parte de su tesis doctoral, unos pocos meses después de que Townes hiciese lo propio.
Merece la pena resumir cómo Townes llegó por su parte a la misma idea del máser, ya que ilustra acerca de lo muy diversos que pueden ser los elementos que forman parte de los procesos de descubrimiento científico. Tras permanecer en los laboratorios Bell entre 1939 y 1947, en donde se ocupó, entre otros temas, de la investigación relacionada con el radar, Townes pasó al Radiation Laboratory de la Universidad de Columbia, creado durante la Segunda Guerra Mundial para desarrollar radares, esenciales para el desarrollo de la guerra. Al igual que otras instituciones, este laboratorio continuó recibiendo dinero de los militares después de la contienda, dedicando el 80% de su presupuesto al desarrollo de tubos que generasen microondas. En la primavera de 1950, Townes organizó en Columbia para la Oficina de Investigación de la Marina un comité asesor para considerar nuevas formas de generar microondas de menos de un centímetro. Tras un año de considerar la cuestión, se le ocurrió un nuevo enfoque antes de asistir a una de las sesiones de su comité: era la idea de máser. Cuando logró, en 1954 y en colaboración con un joven doctor, Herbert J. Zeiger, y un doctorando, James P. Gordon, hacer realidad operacional esa idea utilizando un gas de moléculas de amoniaco (Gordon, Zeiger y Townes 1954), resultó que las oscilaciones producidas por el máser se caracterizaban no sólo por su alta frecuencia y potencia, sino también por su uniformidad. El máser, en efecto, produce una emisión coherente de microondas; esto es, radiación altamente concentrada, de una única longitud de onda.
Incluso antes de que los másers empezasen a proliferar, algunos físicos comenzaron a intentar extender su idea a otras longitudes de onda. Entre ellos se encontraba el propio Townes (también Basov y Prokhorov), quien a partir del otoño de 1957 inició trabajos para ir desde las microondas a la luz visible, colaborando con su cuñado, Arthur Schawlow (19211999), un físico de los laboratorios Bell. Fruto de sus esfuerzos fue un artículo básico, en el
que mostraban cómo se podría construir un láser, al que todavía denominaban «máser óptico» (Schawlow y Townes 1958). No está de más mencionar que los abogados de los laboratorios Bell, para los que trabajaba Schawlow y con los que Townes tenía un contrato de asesor, pensaron que la idea del láser no tenía interés suficiente como para ser patentada; únicamente lo hicieron ante la insistencia de Townes (Schwalow y Townes 1960).
La carrera por construir un láser se intensificó a partir de entonces. Aunque la historia posterior no siempre ha sido lo suficientemente clara en este punto, el primero que tuvo éxito fue Theodore Maiman (1927-2007), de los Hughes Research Laboratories de Malibu (California), que consiguió poner en funcionamiento un láser de rubí el 16 de mayo de 1960. Maiman envió a la entonces recién establecida Physical Review Letters un manuscrito con
sus resultados, pero su editor, Samuel Goudsmit, lo rechazó como «sólo otro artículo sobre el máser». En su lugar, Maiman recurrió a Nature, en cuyo número del 6 de agosto de 1960 consiguió publicar el resultado de su trabajo (Maiman 1960). Poco después, Schawlow anunciaba –en Physical Review Letters– que había puesto en funcionamiento otro láser, también de rubí (considerablemente más grande y potente que el de Maiman) junto a cinco colaboradores (Collins, Nelson, Schawlow, Bond, Garret y Kaiser 1960). Habida cuenta de estos hechos es cuestionable que fuese Schawlow quien recibiese en 1981 el Premio Nobel (compartido con Nicolaas Bloembergen y con Kai Siegbahn) aunque formalmente fuese por su contribución (y la de Bloembergen) al desarrollo de la espectroscopia láser
Los máseres y, sobre todo, los láseres (otro «hijo», por cierto, de la física cuántica que muestra macroscópicamente efectos cuánticos) son instrumentos bien conocidos por el público, en particular algunas de sus aplicaciones (por ejemplo, en operaciones de desprendimientos de retina, en las que se emplean láseres); sin embargo, lo son menos otras de gran importancia científica. Una de ellas es su utilización en espectroscopía. Al ser radiaciones monocromáticas de gran energía es posible dirigirlas con precisión a niveles atómicos determinados; los resultados obtenidos permiten conocer mucho mejor las propiedades de las moléculas, cuya estructura las hace mucho más complicadas de estudiar que los átomos.
Un mundo no lineal Los descubrimientos y desarrollos a los que me he referido hasta ahora son, probablemente, los más sobresalientes desde un punto de vista, digamos, fundamental; no obstante, no incluyen un conjunto de avances que están abriendo nuevas y sorprendentes ventanas a la comprensión científica de la naturaleza. Se trata de los fenómenos no lineales; esto es, los gobernados por leyes que involucran ecuaciones con términos cuadráticos.
Si repasamos la historia de la física hasta bien entrado el siglo XX, nos encontramos con que sus teorías más básicas o son esencialmente lineales (los casos de la teoría de la gravitación universal de Newton y de la electrodinámica de Maxwell), o, permitiendo ser utilizadas para sistemas no lineales, como sucede con la mecánica newtoniana, se han aplicado mayoritariamente a sistemas lineales, incluso cuando es transparentemente claro que ello implica una aproximación a la realidad. El ejemplo más sencillo en este sentido es el de un péndulo plano simple. Cualquier estudiante de bachillerato, no digamos de física, sabe que la ecuación diferencial que se utiliza para describir el movimiento de este tipo de péndulo es
d2?(t)/dt2 + (g/l)?(t) = 0
donde ? representa el desplazamiento angular del péndulo, l la longitud del péndulo, g la aceleración de la gravedad y t el tiempo. Ahora bien, cuando se deduce (no es un problema difícil) la ecuación que debe cumplir el movimiento de un péndulo plano simple, no es ésta la ecuación a la que se llega, sino
d2?(t)/dt2 + (g/l)sen?(t) = 0
que es obviamente no lineal, ya que
sen(?1+?2)?sen?1+sen?2
Para evitar esta circunstancia, que complica enormemente la resolución del problema, se restringe el problema a oscilaciones pequeñas, esto es, a ángulos pequeños, lo que permite utilizar el desarrollo en serie de Taylor de la función seno
sen???-?3/6+…
y quedándose únicamente con el primer término, obtener la primera (lineal) de las dos ecuaciones citadas.
Lo que este ejemplo tan sencillo nos muestra es que la denominada «física clásica» no es ajena a sistemas no lineales, pero que trata de evitarlos debido a la dificultad matemática de su tratamiento: no existen, de hecho, métodos matemáticos generales sistemáticos para tratar las ecuaciones no lineales. Por supuesto, son numerosos los problemas conocidos de antiguo asociados a sistemas (leyes) no lineales, especialmente los pertenecientes al ámbito de la hidrodinámica, de la física de los fluidos. Así, por ejemplo, cuando el agua fluye con una velocidad pequeña por una tubería, su movimiento (denominado laminar), regular y predecible, se describe mediante ecuaciones lineales, pero cuando las velocidades involucradas son elevadas entonces el movimiento del agua se hace turbulento, formándose remolinos que siguen trayectorias irregulares, aparentemente erráticas, características típicas de un comportamiento no lineal. La aerodinámica, naturalmente, es otro ejemplo de dominio no lineal, como saben muy bien todos aquellos implicados en el diseño de aviones.
La riqueza de los sistemas no lineales es extraordinaria; la riqueza y las novedades que aportan con respecto a los lineales. Desde el punto de vista matemático (que con frecuencia encuentra su correlato en dominios reales), las ecuaciones-sistemas no lineales pueden mostrar transiciones de comportamientos regulares a aparentemente arbitrarios; pulsos localizados, que en sistemas lineales producen perturbaciones que decaen más pronto que tarde, mantienen su individualidad en los sistemas no lineales; esto es, dan lugar a estructuras localizadas y altamente coherentes, con las obvias implicaciones que este fenómeno puede tener en la aparición y mantenimiento de estructuras relacionadas con la vida (desde las células y organismos pluricelulares hasta incluso, aunque pueda parecer una idea peregrina, pensamientos). Uno de los primeros ejemplos conocidos de este tipo de comportamiento son los célebres «solitones», soluciones de la ecuación no lineal en derivadas parciales denominada de Korteweg-de Vries (o ecuación KdV), desarrollada en 1895 como una descripción aproximada de las ondas de agua que se movían en un canal estrecho y poco profundo. No fue, sin embargo, hasta 1965 cuando Norman Zabusky y Martin Kruskal encontraron una solución de esta ecuación que representa una de las formas más puras de estructura coherente en movimiento (Zabusky y Kruskal 1965): el solitón, una onda solitaria que se mueve con velocidad constante. Lejos de ser entelequias matemáticas, los solitones se manifiestan en la naturaleza: por ejemplo, en las ondas superficiales (que se mueven esencialmente en una dirección) observadas en el mar de Andamán, que separa las islas de Andamán y Nicobar de la península de Malasia.
El caos
Un caso particularmente importante de sistema no lineal son los sistemas caóticos. Un sistema caótico se caracteriza porque las soluciones de las ecuaciones que lo representan son extremadamente sensibles a las condiciones iniciales; esto es, son tales que si se cambian un poco, minúsculamente, esas condiciones, entonces la solución (la trayectoria que sigue el objeto descrito por la solución) se ve modificada radicalmente, siguiendo un camino completamente diferente, al contrario que en los sistemas no caóticos, aquellos con los que la física nos ha familiarizado durante siglos, en los que pequeños cambios en las condiciones iniciales no alteran sustancialmente la solución. Es por su extrema variabilidad frente a aparentemente insignificantes cambios en sus puntos y condiciones de partida, que esas soluciones y los sistemas a que pertenecen se denominan caóticos. Pero que sean «caóticos» no significa que no puedan ser sometidos a leyes expresables en términos matemáticos. Es preciso recalcar que los sistemas caóticos están descritos por leyes codificadas en expresiones
matemáticas, expresiones de hecho similares a las que pueblan el universo de las leyes lineales de la dinámica newtoniana.
El tiempo meteorológico constituye uno de los grandes ejemplos de sistemas caóticos; de hecho, fue estudiándolo cuando se descubrió realmente el caos: pequeñas perturbaciones en la atmósfera pueden cambiar el clima en proporciones enormes. Su descubridor fue el meteorólogo teórico estadounidense Edward Norton Lorenz (1938-2008).
Estaba trabajando en sus investigaciones sobre el tiempo atmosférico, desarrollando modelos matemáticos simples cuyas propiedades exploraba con la ayuda de ordenadores, cuando, en 1960, observó que algo raro ocurría cuando repetía cálculos anteriores. He aquí como él mismo reconstruyó los acontecimientos y su reacción en un libro que escribió años después, La esencia del caos(Lorenz 1995, 137-139):
En un momento dado, decidí repetir algunos de los cálculos con el fin de examinar con mayor detalle lo que estaba ocurriendo. Detuve el ordenador, tecleé una línea de números que había salido por la impresora un rato antes y lo puse en marcha otra vez. Me fui al vestíbulo a tomarme una taza de café y regresé al cabo de una hora, tiempo durante el cual el ordenador había simulado unos dos meses de tiempo meteorológico. Los números que salían por la impresora no tenían nada que ver con los anteriores. Inmediatamente pensé que se había estropeado alguna válvula o que el ordenador tenía alguna otra avería, cosa nada infrecuente, pero antes de llamar a los técnicos decidí comprobar dónde se encontraba la dificultad, sabiendo que de esa forma podría acelerar la reparación. En lugar de una interrupción brusca, me encontré con que los nuevos valores repetían los anteriores en un principio, pero que enseguida empezaban a diferir, en una, en varias unidades, en la última cifra decimal, luego en la anterior y luego en la anterior. La verdad es que las diferencias se duplicaban en tamañomás o menos constantemente cada cuatro días, hasta que cualquier parecido con las cifras originales desaparecía en algún momento del segundo mes. Con eso me bastó para comprender lo que ocurría: los números que yo había tecleado no eran los números originales exactos sino los valores redondeados que había dado a la impresora en un principio. Los errores redondeados iniciales eran los culpables: se iban amplificando constantemente hasta dominar la solución. Dicho con terminología de hoy: se trataba del caos.
Lo que Lorenz había observado empíricamente, ayudado por su ordenador, es que existen sistemas que pueden desplegar un comportamiento impredecible (lo que no quiere decir «no sujeto a leyes»): pequeñas diferencias en una sola variable tienen efectos profundos en la historia posterior del sistema. Por eso, por ser un sistema caótico, el tiempo meteorológico es tan difícil de predecir, tan, como solemos decir, imprevisible.
El artículo en el que presentó sus resultados (Lorenz 1963) constituye uno de los grandes logros de las ciencias físicas del siglo XX, aunque pocos científicos que no fueran meteorólogos repararon entonces en él, una situación que cambiaría de forma radical a lo largo de las décadas siguientes. No poco tuvo que ver en semejante cambio de actitud la célebre frase «El aleteo de una mariposa en Brasil puede producir un tornado en Texas», que Lorenz incluyó en una conferencia que pronunció el 29 de diciembre de 1972 en una sesión de la reunión anual de la American Association for the Advancement of Science .
Cada vez está más claro que los fenómenos caóticos abundan en la naturaleza. Los encontramos ya en dominios propios de la economía, aerodinámica, la biología de poblaciones (en, por ejemplo, algunos modelos «presa-depredador»), termodinámica, química y, por supuesto, en el mundo de las ciencias biomédicas (un ejemplo es el de algunas arritmias). Parece que puede manifestarse incluso en los aparentemente estables movimientos planetarios.
Las consecuencias que para nuestra visión del mundo tiene el descubrimiento del caos y su, por lo que parece, ubicua presencia son incalculables. El mundo no es como suponíamos. Y no lo es sólo en los dominios atómicos, descritos por la física cuántica, en los que reinan la probabilidad y la incertidumbre, sino también en aquellos gobernados por las más «clásicas» leyes de tipo newtoniano. Newtonianas, sí, pero no como las que utilizó el gran Isaac Newton y todos sus seguidores, esto es, leyes lineales sino no lineales. La naturaleza no es lineal, sino no lineal. No todos los sistemas no lineales son caóticos, pero sí que todos los sistemas caóticos son no lineales. El mundo es por ello más complicado de explicar; no podemos predecir todo lo que va a suceder siguiendo el viejo, newtoniano, estilo, pero ¿por qué iba a ser la naturaleza tan «sencilla»? Lo maravilloso es que seamos capaces de descubrir tales comportamientos y las leyes matemáticas que subyacen en ellos.
Podría, y acaso debería, haber mencionado otros desarrollos que se han producido, o iniciado, durante la segunda mitad del siglo XX, como, por ejemplo, en la termodinámica del no equilibrio, en la que uno de los elementos centrales son los gradientes, diferencias de
magnitudes como pueden ser la temperatura o la presión. Su importancia reside en que los gradientes son la auténtica fuente de la vida, que tiene que luchar contra la tendencia de la naturaleza a reducir gradientes, es decir, contra la tendencia de la energía a disiparse conforme a la segunda ley de la termodinámica (expresada según la a menudo citada entropía). Para los seres vivos, el equilibrio termodinámico equivale a la muerte, por lo que para comprender la vida es imperativo entender la termodinámica del no equilibrio y no limitarse a la del equilibrio, que dominó gran parte de los siglos XIX y XX. La complejidad de la vida –y de otros sistemas existentes en la naturaleza– es una derivación natural de la tendencia a reducción de gradientes: allí donde las circunstancias lo permiten, surgen organizaciones cíclicas para disipar entropía en forma de calor. Puede incluso argumentarse –es una nueva forma, poco darwiniana, de entender la evolución– que puesto que el acceso a los gradientes se mejora mediante el perfeccionamiento de la percepción, el incremento de la inteligencia es una tendencia evolutiva que promueve selectivamente la prosperidad de aquellos que explotan recursos menguantes sin agotarlos. Esta rama de la física (y de la química) experimentó un gran desarrollo en la segunda mitad del siglo XX, y por ello constituye un magnífico ejemplo de otros avances que han tenido lugar a lo largo de ese periodo en la física y que, como decía, tal vez debería haber tratado aquí, aunque sean en cierto sentido de un carácter «menos fundamental». Pero ya me he extendido demasiado y es hora de poner punto final.
SIRIUS – Acelerador de partículas - Brasil
Los hombres que construyeron América, sus trayectorias y conexiones
Tomado de la página Hechos de Hoy
La rápida transformación y el crecimiento que experimentó Estados Unidos tras su Guerra Civil (1861-1865) están relacionadas con el trabajo, la audacia y la visión de futuro de empresarios como Cornelius Vanderbilt, Andrew Carnegie, John D. Rockefeller, John Pierpont Morgan y Henry Ford.
La construcción de América debe mucho tanto a la trayectoria individual como a las conexiones que se establecieron entre estos hombres de negocio, pues ellos, de algún modo, forjaron los pilares de Estados Unidos y contribuyeron decisivamente a su consolidación como potencia económica. El escenario histórico para ellos y sus obras arranca en el periodo inmediatamente posterior a la Guerra Civil -que había dejado al país deprimido económica y psicológicamente-, cuando Cornelius “Commodore” Vanderbilt apuesta por conectar el país a través de la expansión del ferrocarril, incrementando la riqueza que amasó con el negocio de transporte marítimo a mediados de los cuarenta.
Analizar en profundidad este proceso histórico y las consecuencias que tuvo para la evolución de Estados Unidos, exige abordar las relaciones entre las distintas industrias de la nación. Así, mientras Vanderbilt y Rockefeller se dedicaron al transporte y el petróleo, Carnegie se centró en la construcción mediante el acero.
Pero lograr el dominio en la industria norteamericana no fue tarea fácil y el camino para conseguirlo estuvo marcado por una competencia salvaje, el crecimiento de los sindicatos y la experimentación en una economía inestable y en constante cambio. En este contexto, los titanes de los negocios norteamericanos se decantaron en momentos puntuales por la unidad frente a la división para asegurarse la expansión de sus empresas.
Sin embargo, el rumbo marcado por estos hombres de negocios se encontró con un giro inesperado cuando el presidente William McKinley fue asesinado en septiembre de 1901 y el vicepresidente Theodore Roosevelt asumió el cargo. Roosevelt, que había puesto trabas al poder de las empresas cuando fue gobernador de Nueva York, promovió las limitaciones en los monopolios. Esta línea restrictiva culminó en 1904, con el caso de Northern Securities Company (compañía formada por Rockefeller y Morgan -entre otros- que controlaba varios
de los grandes ejes ferroviarios) contra los Estados Unidos. La Corte Suprema dictaminó que la compañía obstaculizaba la libre competencia, por lo que fue disuelta. Tras el caso Northern Securities, prosperaron docenas de demandas contra las grandes compañías, muchas de las cuales provocaron la ruptura de conglomerados empresariales. No obstante, las empresas continuaron su camino, encontrando nuevos mercados en el siglo XX.
Los protagonistas
Andrew Carnegie (1835-1919) entró en el negocio del acero en la década de 1870 y, gracias a esta industria, amasó una gran fortuna. En 1892 todas sus propiedades constituyeron Carnegie Steel Company, que vendió en 1901 al banquero John Pierpont Morgan por 480 millones de dólares. Ese mismo año, Morgan fusionó la compañía con un grupo de empresas siderúrgicas con vistas a formar U.S. Steel, la primera corporación de miles de millones de dólares. Tras esta operación, Carnegie se dedicó a la filantropía y llegó a donar más de 350 millones de dólares.
Henry Ford (1863-1947) construyó su primer motor de gasolina en el cobertizo ubicado detrás de su casa, mientras trabajaba como ingeniero para Edison Illuminating Company. En 1903 fundó la Ford Motor Company, e introdujo nuevos métodos de producción a gran escala que revolucionaron la industria americana, con grandes plantas de producción y la línea de ensamblaje en movimiento. Además, Ford abrió plantas en todo el mundo y llegó a compaginar su gran influencia en el ámbito empresarial con su intento de entrar en la vida política norteamericana.
John Pierpont Morgan (1837-1913) fue uno de los banqueros más importantes de su época. En la década de 1850, siguió los pasos de su padre en el negocio bancario y en 1871 formó una sociedad con el banquero Anthony Drexel. Su empresa se reorganizó en 1895 como JP Morgan & Company, predecesora de la empresa JPMorgan Chase. Morgan estuvo involucrado en la consolidación de una serie de ferrocarriles con problemas financieros y compró Carnegie Steel en 1901, además de participar en el diseño de los acuerdos que establecieron General Electric, International Harvester, American Telephone & Telegraph, entre otros gigantes industriales. En una época en la que Estados Unidos no contaba con un banco central, J. P. Morgan también empleó su influencia para estabilizar los mercados estadounidenses durante varias crisis, pero tuvo que afrontar las acusaciones de ser demasiado poderoso y de manipular el sistema financiero en su propio beneficio.
John D. Rockefeller (1839-1937), hijo de un vendedor ambulante, comenzó en el negocio del petróleo en 1863 a través de la inversión en una refinería de Cleveland. En 1870 fundó Standard Oil, que a principios de 1880 contaba con el 90% de las refinerías y oleoductos de Estados Unidos. Distintos sectores le acusaron de incurrir en prácticas poco éticas orientadas a monopolizar la industria y criticaron los métodos que empleó para construir su imperio. En 1911, la Corte Suprema de Estados Unidos concluyó que la Standard Oil había violado las leyes antimonopolio y ordenó su disolución en más de 30 compañías. Uno de los hombres más ricos del mundo, donó más de 500 millones de dólares a causas religiosas y diversos programas educativos y científicos.
Tras trabajar como capitán de un barco de vapor, Cornelius Vanderbilt (1794-1877) entró en el negocio de la construcción de barcos de vapor y gestión de líneas de ferry en la década de 1820. Se convirtió en uno de los principales agentes del sector mediante su participación en feroces guerras de tarifas con sus rivales y se ganó la fama de despiadado y competitivo. En la década de 1860 se adentró en un nuevo negocio: la industria del ferrocarril. Se hizo con el control de una serie de líneas que operaban entre Chicago y Nueva York y estableció un sistema de ferrocarril interregional.
Y que siguen siendo referentes en el mundo de los negocios a día de hoy
Tomado de Revista GQ
Si Estados Unidos es considerada la primera economía del mundo a día de hoy es gracias a estos cinco millonarios del siglo XIX que, con su ojo para los negocios, levantaron el país con sus propias manos.
Podríamos afirmar que los hombres más ricos del mundo son lo que son, en parte, gracias a las lecciones de los millonarios del siglo XIX que lideraron esta misma lista dos siglos atrás. Bill Gates, Jeff Bezos, Elon Musk y Warren Buffet son algunos nombres que cualquiera mencionaría hoy como referentes en los negocios. Amancio Ortega es el español rico que inmediatamente viene a la cabeza, mientas que Mark Zuckerberg sería el nuevo chico que ahora se pasea entre mega millonarios. Cada época cuenta con nombres de grandes fortunas que todo el mundo conoce. En el Siglo I a. C., todos los romanos sabían que Marco Craso era el hombre más rico de la república.
Estos cinco empresarios millonarios del siglo XIX, asociados al color del dinero, levantaron Estados Unidos con sus propias manos. Se trata de Cornelius Vanderbilt, John D. Rockefeller, Andrew Carnegie, J.P Morgan, y Henry Ford; cinco nombres que todavía resuenan hasta el día de hoy.
No es que Estados Unidos ‘fuera todo campo’: el país había empezado a industrializarse a inicios de aquel siglo. Pero la que es hoy la primera economía del mundo entonces era ‘la tierra de las oportunidades’ en la que los más ambiciosos y agraciados por la fortuna lograron levantar auténticos imperios. Y estos cinco millonarios del siglo XIX jugaron un papel esencial para consolidar al país como una potencia económica e industrial.
Cornelius Vanderbilt, el primer hombre en acumular 100 millones de dólares
Conocido como ‘El Comodoro’, Cornelius Vanderbilt fue el primer magnate en acumular más de 100 millones de dólares en su fortuna. El patriarca de la familia Vanderbilt vivió entre 1794 y 1877. Era un inculto hijo de granjeros que llegó a crear un imperio alrededor de la boyante industria naviera y la del ferrocarril.
¿Cómo empezó a hacer dinero? Con sólo 16 años, 'El Comodoro' compró un barco para transportar pasajeros entre Staten Island y Nueva York. Poco a poco su flota fue creciendo hasta llegar a operar servicios de transporte desde Nueva York y Nueva Orleans hacia San Francisco vía Nicaragua. La 'fiebre del oro' en 1849 provocó un incremento en la demanda de transporte entre costa este y oeste. Fue en la década siguiente cuando empezó a invertir en ferrocarriles, un negocio que creció tanto que Vanderbilt construyó la Grand Central Terminal de Nueva York.
La enorme herencia que dejó fue desperdiciada por las generaciones siguientes. 'El Comodoro' tuvo 13 hijos y le legó prácticamente todo a uno de ellos, llamado William Henry, pero el imperio se fue diluyendo con el paso del tiempo. Como dato curioso, un miembro del clan Vanderbilt es Anderson Cooper, un famoso presentador de la CNN.
![](https://assets.isu.pub/document-structure/220727012318-448124598b4dfc03dfab351234821abd/v1/f1f36462e3b73e32e84f682ae9e6cce2.jpeg?width=720&quality=85%2C50)
John D. Rockefeller, rey entre los ricos
Posiblemente el nombre más famoso de la lista. Hasta día de hoy alguna vez se menciona a Rockefeller para definir a alguien al que le sobran los billetes. La riqueza de John D. Rockefeller surgió del petróleo y de su compañía, la Standard Oil, una de las primeras multinacionales de la historia.
John D. Rockefeller (1839-1937) también viene de abajo. Su padre era un vendedor ambulante de aceite de serpiente así que pasó su infancia viviendo en varias partes del país. En la década de 1860, el joven John notó que había un gran potencial en la producción petrolera en el oeste de Pensilvania, así que construyó una primera refinería en Cleveland en 1863. A partir de ese momento su nombre estará asociado al naciente sector del petróleo, un combustible cada vez más demandado ante la mayor industrialización que vivía Estados Unidos. Standard Oilcreció hasta prácticamente hacerse con el control total de esta industria gracias a un acuerdo secreto con las empresas de ferrocarril que le permitía vender sus productos a los precios más bajos del mercado, por lo que consiguió deshacerse de la competencia. En 1911 la empresa fue desmembrada en 34 empresas más pequeñas, después de que el Tribunal Supremo dictó en una sentencia que Standard Oil era un monopolio ilegal. Se estima que la fortuna de Rockefeller fue tan grande que en un momento llegó a representar un 1,6% de toda la economía estadounidense.
![](https://assets.isu.pub/document-structure/220727012318-448124598b4dfc03dfab351234821abd/v1/f977f6a56166094473e2701b73f81b58.jpeg?width=720&quality=85%2C50)
Andrew Carnegie, el filántropo del acero
El acero es uno de los materiales esenciales de la industria actual. También lo fue a partir de mitad del siglo XIX, cuando la industrialización impulsó significativamente la demanda de este material. Y Andrew Carnegie (1835-1919) es el hombre que suplió este material a través de su empresa Carnegie Steel.
Nació en Escocia pero emigró con 12 años a Estados Unidos con sus padres. En sus inicios, acumuló un capital importante invirtiendo en varios negocios, pero fue en el acero donde logró su mayor éxito. Y, en gran parte, se debe a que fue una de las primeras compañías manufactureras de Estados Unidos que logró una integración vertical en su organización, un sistema en el que todos los procesos de producción son controlados únicamente por una sola empresa: controlaba las minas donde se extraía el acero, las minas que suplían el carbón, los barcos y los ferrocarriles que los transportaban; y las fábricas en las que eran procesados.
Con 65 años, Carnegie vendió su empresa a J.P. Morgan por 480 millones de dólares y dedicó el resto de su vida a financiar diferentes obras en beneficio de la sociedad. Donó 350
millones de dólares a fundaciones, bibliotecas, universidades y organizaciones no gubernamentales.
![](https://assets.isu.pub/document-structure/220727012318-448124598b4dfc03dfab351234821abd/v1/004a50d9a85af33c505dc8efe05d727e.jpeg?width=720&quality=85%2C50)
J.P. Morgan, la inspiración del ‘Monopoly’
Hay una razón por la que el Tío Rico Pennybags, la mascota del juego ‘Monopoly’, va vestido así. Con su chaqué, bigote y sombrero de copa. Ese personaje —creado en 1936— está inspirado en la imagen de J.P. Morgan, (1837-1913), el poderoso financiero que jugó un papel esencial en la formación de varias compañías multinacionales como US Steel, General Electric, AT&To Western Union .
John Pierpont Morgan, su nombre completo, nació en una familia acomodada del estado de Connecticut. A diferencia de los otros millonarios que hemos visto, J.P. Morgan viajó al extranjero en su juventud y estudió en la universidad. Hablaba alemán y francés y estudió historia del arte. Empezó en el sector bancario en 1857, al trabajar en una empresa de la que su padre era codueño. La Guerra Civil estadounidense duró entre 1861 y 1865, pero Morgan no participó como soldado, ya que pagó 300 dólares a un sustituto a cambio de que lo reemplazara. En cambio, Jorn Pierpont hizo un controvertido negocio durante el conflicto al financiar la compra de 5.000 rifles por 3,5 dólares para luego volver a vendérselos al gobierno por 22 dólares la unidad, un incidente controvertido conocido como el ‘Hall Carbine Affair’. Finalizado el conflicto bélico, Morgan sería uno de los que también se beneficiaria de la expansión de los ferrocarriles en Estados Unidos. En 1907 ocurrió un pánico financiero y Morgan se encargó de formar una colación de banqueros que salvaron a Estados Unidos del colapso. Más adelante tomó control de la compañía Carnegie Steel, como comentamos antes.
Siempre estuvo interesado en el arte y fue un mecenas para numerosos artistas y galerías. Su fortuna al fallecer era de 118 millones de dólares, de los que unos 50 millones pertenecían a su colección de arte.
![](https://assets.isu.pub/document-structure/220727012318-448124598b4dfc03dfab351234821abd/v1/bf5c43e0f8ff6ee1b669c9e54fee9a67.jpeg?width=720&quality=85%2C50)
Henry Ford, el revolucionario de las líneas de montaje
Henry Ford (1863-1947) es el fundador de Ford; sí, la multinacional de coches. Ha pasado a la historia por ser el principal desarrollador de la técnica de línea de ensamblaje que permite la producción en masa. Así, Ford logró reducir los costes de fabricación que le permitieron vender el primer automóvil a precios asequibles para los estadounidenses. De hecho, el término 'fordismo' está basado en su nombre para definir un sistema de producción industrial en serie.
El punto negro en la biografía de Ford fue su antisemitismo. En 1918, el magnate adquirió un periódico llamado The Dearborn Independenta través del que publicó una serie de textos en contra de los judíos que podrían haber sido una inspiración para el Mein Kampfde Adolf Hitler, publicado en 1925.
![](https://assets.isu.pub/document-structure/220727012318-448124598b4dfc03dfab351234821abd/v1/5877611f645eb8bd0c2f45e5f1ebbb9b.jpeg?width=720&quality=85%2C50)
La revolución de todas las industrias
Por. Ramón Heredia Jerez
¿Qué entendemos por ecosistema digital? “Es una red de servicios y productos interconectados entre sí que están creados para generar una gran satisfacción y experiencia al cliente”. Hoy en día hay muchos ejemplos, veamos lo que sucede con los ecosistemas digitales que hay en la China, los más grandes son Alibaba, Tencent (Wechat) y Baidu (Google Chino), son gigantes tecnológicos que generan un ecosistema que está extremadamente integrado y combinan los medios sociales, los buscadores, el comercio electrónico y los medios de pagos que están unidos entre sí a través de las principales plataformas en línea. Veamos a los gigantes tecnológicos de América del Norte como el imperio GAFA (Google, Amazon, Facebook y Apple) que también combinan negocios diferentes para ser ecosistemas ya que tienen buscadores, música, aplicaciones, redes sociales, publicidad y medios de pago.
Estos ecosistemas digitales tienen un poder adicional, el poder de los datos, saben todo acerca de los usuarios como por ejemplo localización, hábitos de consumo, por donde navegan, cómo pagan, y además cuentan con ventajas tecnológicas muy importantes como la infraestructura en la nube.
Viendo este panorama es que las empresas están forzadas de alguna manera a crear un ecosistema propio y a su vez tener alianzas con otros ecosistemas digitales. Hoy y en el futuro vivimos y viviremos en un mundo donde todo va a ser compartido de alguna manera, rara vez evidenciaremos empresas que son las únicas que fabrican todos sus componentes y servicios, todos compartimos y estamos integrados con todos, sino no sobreviviremos y esto es lo que nos lleva a pensar en la supervivencia de las empresas.
Si hoy tomamos la lista de empresas en Fortune 500, podemos ver que solamente 60 de las 500 empresas más grandes de USA en 1955 están en la lista hoy en día. Eso evidencia que las empresas que fracasaron no supieron adaptarse al cambio o sucumbieron en el entorno que les tocó vivir, pero evidentemente no fueron capaces de adaptarse al cambio que produjo el invento del transistor en 1947, que fue el comienzo de la revolución digital como hoy la
conocemos.
El desarrollo de Ecosistemas Digitales Cuando Jeff Bezos tuvo la idea de crear Amazon, lo hizo impulsado por una nueva tecnología, Internet, esa tecnología estaba creciendo en forma exponencial y no se quería quedar fuera de esta ola y los negocios que ahí se generaran. Analizó qué tipo de servicio podía desarrollar en Internet y llegó a la conclusión que la venta de libros por medios electrónicos podía ser algo factible de desarrollar, porque la logística no le supondría el despacho de grandes paquetes, era fácil de promocionar en el naciente universo de navegantes de Internet. Mark Zuckerberg partió con la visión de conectar a las personas, por medio de una red social exclusiva, en la que las personas entraran por invitación y pudieran compartir sus actualizaciones, estados de ánimo, situación sentimental, fotografías y algún otro tipo de información.
Luego de esos inicios y sin pensarlo, estas empresas se han transformado en gigantes digitales y sus creadores en figuras mundiales, multibillonarias y ejemplo para las nuevas generaciones de emprendedores. Pero ¿cómo han podido generar tanto valor en sus empresas?, ¿por qué se han transformado en los gigantes que son hoy?
![](https://assets.isu.pub/document-structure/220727012318-448124598b4dfc03dfab351234821abd/v1/dfd233d03bfa12e4d3ba31fc627113aa.jpeg?width=720&quality=85%2C50)
Cuando Facebook compra WhatsApp, cuando Google compra a Waze, Microsoft compra Linkedin o IBM compra The Weather Company, ¿que está comprando? ¿usuarios? ¿personas? ¿Computadoras?, sí y no. Todas esas conexiones, toda esa interacción de las personas, todas esas actividades, todas esas plataformas, computadoras y personas, en el fondo facilitan la generación de datos. El concepto de Customer Centric o de poner al usuario en el centro de nuestros servicios, ha derivado en el concepto más importante para las empresas, el Data Centric. Las personas en el fondo, somos datos, somos información, como cuando Neo en la escena final de la película Matrix, logra detener las balas y derrotar a sus enemigos, descomponiendo todo su universo y transformándolo en datos, datos que una vez que los entendió, los pudo usar a su favor. ¿Para qué IBM va a necesitar el “canal de tiempo”? repetía una y otra vez mi hemisferio izquierdo, no tenía sentido de negocios, hasta que un amigo de IBM en el InterConnectde Las Vegas a inicios del 2016 me dijo, por los datos, porque Watson, nuestro súper cerebro de Inteligencia Artificial, puede con esos datos comenzar a hacer predicciones y vender esas predicciones a las compañías de seguros, empresas agrícolas, proveedores de químicos para la industria agrícola, etc. ¿Le queda claro? ¿Lo puede ver? Lo que buscan los actores de la nueva economía digital, es el petróleo del siglo XXI, los datos.
![](https://assets.isu.pub/document-structure/220727012318-448124598b4dfc03dfab351234821abd/v1/2cd28d098a24702bbb7a228c3b612c95.jpeg?width=720&quality=85%2C50)
Estas empresas, que comenzaron con simples visiones en el universo de Internet, incorporando nuevos componentes, comprando empresas y desarrollando otras, han creado Ecosistemas Digitales y casi sin darnos cuenta, saltamos de un componente a otro de sus
mundos regalando una valiosa huella digital, con nuestro comportamiento. Ya no tienen que esperar millones de años para que los dinosaurios se conviertan en petróleo, hoy el petróleo lo generamos en cada una de nuestras acciones.
![](https://assets.isu.pub/document-structure/220727012318-448124598b4dfc03dfab351234821abd/v1/5df500d2e4ef0a0d6ea3ce83eeee9e86.jpeg?width=720&quality=85%2C50)
Amazon, ya no es la empresa con escritorios creados con puertas y con los equipos de trabajo ordenando libros en el suelo de las oficinas para ordenar los pedidos de los clientes. Hoy es un complejo Ecosistema Digital que está compuesto por una variada gama de componentes, que van desde la inteligencia artificial, supermercados físicos, herramientas digitales, venta de todo tipo de productos por Internet, una empresa de cohetes espaciales y el Washington Post. Facebook no es sólo Facebook, hoy tiene a Instagram, WhatsApp, Oculus, Facebook Messenger, entre otros. La información que estos Ecosistemas Digitales van captando de los usuarios, es cada vez mayor. Desde simples “me gusta”, hasta transacciones financieras de compra realizadas por dispositivos móviles o por instrucciones de voz, como las realizadas por Alexa. Mark Zuckerberg este año, en la conferencia F8 de Silicon Valley, mostró cómo está incorporando las nuevas capacidades de realidad aumentada, realidad virtual y nuevas tecnologías a su Ecosistema. Como se integra Facebook con WhatsApp y a su vez con Instagram. Facebook ya no es la red social favorita de los jóvenes. Lo que pude sonar como una mala noticia para el Ecosistema de Mark, en realidad
no lo es, porque ahora la red favorita de los jóvenes es Instagram, aplicación que también es de su Ecosistema Digital. Las noticias para la industria financiera tradicional no son tan buenas. Con toda la información financiera y de preferencias de consumo que tiene Amazon, está trabajando para crear servicios financieros en México e India. Que Amazon se transforme en Banco o cree un Banco dentro de su Ecosistema es muy posible. Cuando esto ocurra, ¿Dónde le gustaría tener su cuenta bancaria? ¿En un Banco que lo atiende como hoy atienden los bancos, con varios procesos que causan fricción? ¿O en esta Plaza Digital que me atiende 24x7 y con facilidades para poder operar en todo el mundo, incluso cambiando las transacciones financieras, por transacciones de productos y servicios? Si no ponemos atención a esta nueva configuración de Ecosistemas Digitales, no sólo la industria financiera se verá amenazada, esta revolución impactará a todas las industrias.
El despertar digital de China. Copiar, adaptar, hacerse fuerte y atacar Uno de mis superhéroes favoritos de la innovación es Jack Ma, el fundador de Alibaba. En varias de sus entrevistas, hace referencia a las técnicas del Tai Chi, para el manejo de sus empresas, la flexibilidad, si te atacan por arriba, te agachas y atacas por abajo, si te empujan, usas la fuerza de tu oponente y no ofreces resistencia. Toda esta sabiduría, más un mercado interno de más de mil millones de habitantes, sumados a las barreras que el gobierno chino ha puesto a la entrada de los gigantes digitales como Facebook y Google, crearon un terreno fértil para la creación de empresas digitales que son el clon de las occidentales.
![](https://assets.isu.pub/document-structure/220727012318-448124598b4dfc03dfab351234821abd/v1/1144c641deebc54502106cb26e86f635.jpeg?width=720&quality=85%2C50)
Muchas de ellas están acercándose rápidamente a la valoración accionaria de sus pares occidentales. Amazon tiene a su clon en Alibaba, Facebook tiene a su par en Tencent y Uber en Didi. Didi que es el Uber chino, ya está incursionando en Latinoamérica, se compró a 99Taxi en Brasil, la principal competencia de Uber en dicho país y comenzó a operar en México.
Según el China Internet Network Information Center, los pagos digitales en China el 2016 llegaron a 9 trillones de dólares, que comparados con los 112 billones de dólares en el mercado norteamericano demuestran la fuerte adopción en China de las plataformas digitales. El fuerte crecimiento se produjo entre 2015 y 2016, donde los pagos móviles pasaron de 2 trillones de dólares en 2015 a 9 trillones de dólares en 2016. Los responsables de este explosivo crecimiento no son los bancos son sus App Digitales, ni su Banca Móvil. Más del 90% de los pagos móviles en China, se realizan en WeChat y Alipay, los dos Mega Ecosistemas Digitales que gobiernan las operaciones de los usuarios chinos. WeChat ha superado los mil millones de usuarios, lo que lo transforma en una de las Plazas Digitales más importantes del mundo. WeChat es una creación de la empresa Tencent, especialista en juegos móviles, que centra su modelo de ingresos en los pagos por suscripción. A Tencent se le conoce como el Facebook chino y se acerca a su competidor occidental en valoración accionaria. La diferencia entre ambos es que la principal fuente de ingresos de Tencent viene de pagos por suscripción y recién en 2015 muestra una contribución aceptable en la torta de ingresos por concepto de publicidad. En cambio, Facebook obtiene más del 90% de sus ingresos por el negocio de la publicidad. Esta diferencia le da a Tencent una ventaja importante para las proyecciones futuras de crecimiento.
Atenta a las tendencias y a las nuevas tecnologías, Tencent identificó que WhatsApp estaba creciendo enormemente en el mundo. Ellos tenían un servicio de mensajería basado en SMS, que se llama QQ, con el cual eran líderes en China y decidieron responder a la potencial amenaza de WhatsApp. Para esto hicieron una Hackathon interna, donde pusieron a competir equipos, para desarrollar una plataforma inspirada en WhatsApp. El equipo ganador, siguió reforzando el Ecosistema y hoy WeChat, que inicialmente se creó para chatear, ha generado una serie de servicios entre los que se cuentan la comunicación, los grupos, una Wallet que permite hacer pagos, donaciones y compras, una aplicación para buscar amigos, entre otros.
Muchas de las funcionalidades son propias de la empresa, pero también ha desarrollado las capacidades para integrarse con soluciones de terceros, como poder pedir y pagar el transporte de la Startup Didi, que es la competencia de Uber.
Este Ecosistema Digital, es uno de los responsables de que los chinos estén conectados varias horas del día en sus celulares escaneando códigos QR para consultar precios, agitando sus celulares para encontrar amigos o realizando pagos digitales mediante la Wallet digital. El día a día de las personas, se hace en estas Plazas Digitales, día a día que genera una cantidad importante de información para analizar y generar nuevos negocios para el Ecosistema.
Una funcionalidad muy popular, es la de realizar pagos, los comerciantes de cualquier nivel sólo deben imprimir o mostrar el código QR de su producto, para que un cliente con su celular lo lea y realice una transferencia en línea desde su Wallet de WeChat a la Wallet de cobro. Esta es clave del éxito de los pagos digitales en China, la simplicidad para las personas, no sólo para el que paga, sino que también para el que cobra. Inicialmente el gobierno chino, no normó este tipo de pagos y tampoco lo cargó con impuestos, los usuarios se acostumbraron a cobrar y a pagar así, palpando los beneficios de no recibir dinero efectivo. Hoy en muchos lugares de China no se acepta efectivo, no por una ley, sino porque las personas se sienten más cómodas con los pagos digitales.
Mercado Libre, el Ecosistema Digital de Latinoamérica En nuestro continente, un actor que está siguiendo los pasos de los Ecosistemas Digitales de Estados Unidos y China, es Mercado Libre. Esta empresa que es una los éxitos digitales de la región y uno de los emblemas del ecosistema de emprendimiento en Argentina, el año pasado lanzó Mercado Crédito, una plataforma que financia a los clientes comercio de Mercado Libre. El lanzamiento de esta unidad de negocios provocó un gran revuelo en el mercado financiero de Argentina. Los bancos, dominadores del negocio de captación y colocación, hicieron un llamado de atención al Banco Central de Argentina, por lo que ellos consideran es un servicio que está fuera de las reglas de la ley de Bancos. El negocio de captación y colocación, por ley, sólo puede ser realizado por instituciones financieras reguladas. Mercado Crédito, no está regulado y no es una institución financiera. La defensa de Mercado Créditoes que no están captando dinero y que los créditos los financian con sus propios fondos y riesgo. El vicepresidente el Banco Central de la época, zanjó el tema diciendo que era su intención regular a las Fintech y que, si esto beneficiaba a las empresas, iba a dejar que continuaran.
Independiente de la discusión técnica y legal del tema, lo importante es poner atención al hecho de que estos Ecosistemas Digitales, ya no están pidiendo permiso para entrar a otros negocios que en el siglo XX eran impensados. Almacenan datos, analizan la información, crean modelos, investigan, hacen pruebas y se lanzan. No tienen mucho que perder, han incorporado a sus modelos de riesgo información que la industria financiera tradicional se ha tardado mucho en incorporar y que muchas veces, por orden del hemisferio izquierdo, se niegan a utilizar, dejando a clientes lisa y llanamente fuera del sistema formal.
La amenaza no es lejana y no es futuro, estos gigantes digitales tienen el petróleo del siglo XXI, tienen una mentalidad diferente para arriesgarse, tiene importantes cantidades de dinero en caja para probar y lo que es fundamental, son relevantes para el día a día de las personas. Su empresa no es inmortal, tal vez sienta que esté a salvo porque no es una institución que vende servicios o productos por medios digitales, pero mire bien, mire en todas direcciones, no sólo adelante y atrás. Hoy las amenazas a la revolución de los modelos de negocios vienen de los actores menos pensados. Pero no sólo amenazas tenemos que mirar, también tenemos oportunidad de aprender de las experiencias de estos gigantes. Sus modelos disruptivos son nuevos y no nacieron grandes. Muchas veces copiaron modelos de otras partes, los adaptaron a su realidad y desde ese punto crecieron. Usted puede usar esa misma técnica, tener una idea, crear, aprender, pivotear y seguir aprendiendo. La tecnología está disponible, solo basta que mire desde otro punto de vista y aproveche su posición actual.
Amazon, el gigante de las ventas, el enano del Net Income Los estados financieros de Amazon son muy particulares. Desde su creación, Jeff Bezos ha estado más preocupado de la innovación que de la rentabilidad. Día a día va experimentando, reforzando plataformas, entrando en nuevos negocios, generando nuevas conexiones y poniendo en práctica sus ideas. En varias ocasiones la presión de los accionistas por mayor rentabilidad ha estresado el modelo de Bezos y creado un grado importante de fricción en la administración. El gráfico de ventas (página siguiente) versus Net Income de Amazon, muestra precisamente esa visión de innovación. Mientras las ventas crecen en forma importante, el Net Income se mantiene muy cerca de cero, ¿Cómo se explica esto? ¿Cómo los accionistas respaldan este comportamiento? ¿Por qué Amazon sigue creciendo en capitalización bursátil? La respuesta estas interrogantes está en el petróleo del siglo XXI. Cada venta de Amazon es más información para sus “tanques petroleros”, muchas veces realiza ventas por bajo el costo, sólo para conocer el comportamiento de compra de los
usuarios o para controlar un mercado. Es famosa la anécdota de una navidad en que Jeff Bezos mandó a varios de sus ejecutivos los días previos a noche buena, a comprar juguetes en varias tiendas de Toysrus para asegurar de tener stock de los juguetes más populares. Gran parte de las compras se quedaron en las bodegas y se perdieron, pero muchos clientes que fueron a Toysrus por sus juguetes no los encontraron y sí los encontraron en Amazon. Las pérdidas no fueron la preocupación de Jeff Bezos en esa navidad. Esta estrategia ha permitido que Amazon se demore cerca de 15 años en igualar la capitalización bursátil de Wal-Mart, su archienemigo, pero una vez que lo alcanzó se ha demorado solo dos años, en ser 2,5 veces más grande.
![](https://assets.isu.pub/document-structure/220727012318-448124598b4dfc03dfab351234821abd/v1/20a48fff32693878e514304a6f6621d9.jpeg?width=720&quality=85%2C50)
![](https://assets.isu.pub/document-structure/220727012318-448124598b4dfc03dfab351234821abd/v1/20dbf2b16963fedcb54464ac9b138d82.jpeg?width=720&quality=85%2C50)
Uber, transportar al mundo Hace unos meses, el nuevo CEO de Uber comentando los resultados a la prensa, le respondió a un periodista que le preguntó por las continuas pérdidas de la empresa, que su foco no era la rentabilidad, su foco es la innovación.
Uber es una empresa de innovación y nuestro objetivoes hacer que las personas no compren automóviles, transportarlos donde quieran y por diversos medios. Si analizamos esta respuesta es una amenaza para varias industrias, no solamente para industria automotriz directamente. De lograr su objetivo, este tipo de servicio hará caer los créditos automotrices, los seguros, el negocio de repuestos y los talleres de mantenimiento y las grandes áreas de estacionamientos, entre otras. Toda la inversión en autos autónomos podrá incluso transportar personas en horarios nocturnos que permitan a los pasajeros dormir mientras van en los autos, lo que afectará a la industria hotelera. Los 4.500 millones de dólares de pérdida del año 2017 no parecen ser un dato relevante para detener el avance de este unicornio.
Las cosas están pasando muy rápido y las que hoy vemos como pequeñas empresas, se mueven rápido y pronto se convertirán en dominadores de nuevos mercados o destruirán los mercados en los que hoy disfrutamos de nuestros negocios. Este año Volkswagen, una de las empresas automotrices más importantes del mundo, firmó una alianza con Didi, el Uber Chino. El objetivo de la alianza es compartir la información del comportamiento de los pasajeros de Didi, las rutas y los tipos de transporte entre otros datos, para que la automotriz alemana pueda diseñar autos más acordes a esa realidad. ¿Para qué necesito automóviles con potencia y velocidades de más de 200 kilómetros por hora, si los datos dicen que los coches de Didi nunca sobrepasan los 100 kilómetros por hora? ¿Para qué necesito coches con 5 asientos, si en el 70% de los viajes el pasajero es 1 persona? Toda esta información se traducirá en automóviles y servicios conectados con los comportamientos reales de las personas, evitando cada vez más los Espacios Vacíos.
El poder está pasando rápidamente a las empresas que capturan los datos, en la alianza anterior no se distingue si la empresa pequeña es Didi o Volkswagen. Los modelos de negocio, la forma de financiar a las Startups y las variables que determinan la continuidad de un negocio en la revolución digital, ya no son las que acostumbramos a usar en los negocios tradicionales. Es fundamental entender las fuerzas que hoy mueven el mercado, porque estos chicos “locos” de Silicon Valley, China o Seattle, están destruyendo mercados completos y pasando la riqueza de las empresas tradicionales a los Ecosistemas Digitales.
Activities
First Reply (respond): What are the Absolute State and the Nation State? How are the Absolute State and the Nation State related? Why is it said that Elizabeth I made England? Why is it said that Louis XIV made France?
Second Prepare an exhibition on the United States before and after the American Civil War
Third Prepare an exhibition on the origin and importance of unicorn companies (Unicorn Companies or Start-up Company)
Fourth Write a short text about Newton and Einstein. What is called Newton's physics? What did Einstein change?
Tercer periodo Filosofía de la Tecnología
Figura 3. Contenidos grado noveno tercer periodo
Frankenstein Fausto Prometeo
Hybris
Transhumanismo Conquista del espacio Cuántica
Proyecto: elaboración de un cómic (tema: la tecnología)
En el semestre anterior debiste dar vida a tu super héroe y debiste crear para él una realidad,
un mundo. Ahora vas a crear tu primera historieta y en ella el tema de la tecnología será
esencial. En los aspectos formales has de recordar la estructura actancial del relato, asuntos relativos al uso de figuras literarias y la importancia de saber elegir las imágenes, los colores,
etcétera. En lo relativo al contenido, este tercer periodo te ofrecerá la posibilidad de recordar
lo visto en sexto grado, cuando estudiaste la tecnología desde la perspectiva del mito, el cine
y la novela. Recordar y profundizar, porque estudiarás el concepto griego de hybris.
Habrá tres breves lecturas: una sobre Frankenstein, otra sobre el concepto de Hybris, y una tercera sobre los “Valores Transhumanistas”. Según lo acordado desde el primer periodo,
trabajaremos la idea del SARS-CoV-2 como arma biotecnológica, en algunos proyectos, en otros, como fenómeno natural, semejante a los sismos de gran intensidad o a las tormentas de gran magnitud, por tanto como amenaza real cuya solución podría estar en la tecnología,
pero también como oportunidad para reflexionar sobre el sentido.
Concluyes otro ciclo formativo (Básica) y comienzas el último ciclo (Educación Media). Sea nuestro proyecto una forma de explorar orientaciones profesionales, relacionadas con el diseño gráfico, la publicidad, el marketing y la comunicación. También una ocasión para
meditar el significado de vivir en la sociedad de la información y del conocimiento.
Frankenstein anotado
Un clásico de la literatura universal a la luz de la ciencia moderna.
Por. Luis Alonso en Revista Investigación & Ciencia
En la novela Frankenstein, or the modern Prometheus, escrita en 1818 por Mary Wollstonecraft Shelley (1797-1851), el protagonista, Víctor Frankenstein, al que nunca se le llamará «doctor» en la ficción, crea un monstruo sin nombre y sufre las terribles consecuencias de su atrevimiento cuando el humanoide mata a su hermano William, a su esposa Elizabeth y a su mejor amigo, Henry Clerval. La acción de la novela se desarrolla en los años finales del siglo XVIII, en los albores de la Revolución Industrial.
Siendo una adolescente, Mary abandonó Inglaterra en dirección al continente europeo acompañando a su amante, el poeta Percy Bysshe Shelley. En el verano de 1816, Lord Byron los invitó a la mansión que había alquilado a orillas del lago de Ginebra. Aquel fue el año sin verano, una anomalía climática causada por la erupción del monte Tambora, en Indonesia. Una lluvia pertinaz y unos cielos grises mantenían encerrados a los huéspedes. Para distraerlos, Lord Byron sugirió un juego: cada uno debía escribir una historia de terror. Así nació Frankenstein. Para entonces, Shelley había perdido a su hija Clara, que nació en 1815 y murió con dos semanas. Confesaría que el sueño despierto que la movió a escribir la novela fue su deseo de reanimar a Clara, de devolverla a la vida.
Víctor Frankenstein, el científico protagonista, vivió una idílica infancia en una Ginebra paradisíaca. Estudió medicina y técnicas avanzadas en la Universidad de Ingoldstadt, de la que salió en 1789, año de la toma de la Bastilla. Pergeñó su criatura monstruosa en 1793. Nada de extraño, en esa atmósfera revolucionaria, que Frankenstein nos presente un mundo de oscuridad, sombras y miedo.
Shelley deja sin nombre al monstruo; sin apelativo, queda patente que no posee una identidad clara ni hay forma idónea de definirle una. El drama de Frankenstein y su engendro se ha convertido ya en parábola universal que compendia nuestros miedos ancestrales sobre las promesas, peligros y fracasos de incontables áreas de la ciencia y la técnica. Desde el tiempo de Shelley, la ciencia y la técnica han ido calando profundamente en la sociedad. Nos encontramos hoy ante la fabricación de seres vivos por biología sintética, el diseño de sistemas a escala planetaria mediante ingeniería del clima, y la integración de la potencia computacional en todos los sectores de la sociedad y en las mismas fibras de nuestro ser.
Víctor procede de una familia de la alta nobleza. Aplica su preparación científica para crear una nueva vida. Le guían la búsqueda de la gloria y el reconocimiento público a través de la filosofía natural de su tiempo. Se propone crear la inmortalidad, pero luego abdica de la responsabilidad consiguiente. El aviso sobre los peligros de tales pretensiones lo encontramos en numerosos antecedentes de la Grecia clásica. En el mito clásico, Prometeo moldea la
arcilla en la que Atenea, diosa de la sabiduría, infunde vida, creando la especie humana. Prometeo dota a los humanos del fuego.
Shelley habla de la «chispa» que anima al monstruo y le confiere el aliento de vida. El término refleja la importancia adquirida por la electricidad y su aplicación para reanimar el cuerpo, una idea relativamente nueva en aquellas fechas. Hacia finales del siglo XVIII, Luigi Galvani había demostrado que la aplicación de una corriente eléctrica podía activar el músculo de una rana. Shelley se inspiró en los experimentos del profesor de la Universidad de Bolonia. Hoy, la estimulación eléctrica se aplica a millones de personas en múltiples medios, desde los desfibriladores hasta los tratamientos parciales de parálisis y los
marcapasos.
El lenguaje religioso que envuelve la ambición de Víctor Frankenstein se inscribe en una larga tradición del hombre que juega a ser Dios. Aunque la hybrises un tema recurrente en psicología y en filosofía, la tentación de igualar a los dioses parece solo aumentar con el poder creciente de la ciencia y la técnica.
Frankenstein sufre las dolorosas consecuencias de su atrevimiento. A modo de transacción, el
monstruo le propone un plan: que le cree una mujer y cesará en su macabra trayectoria. Víctor comienza a trabajar en la compañera, pero a medio camino se percata de que ello podría dar lugar a una progenie que acabase con la estirpe humana, por lo que destruye su
proyecto.
Una pauta similar la advertimos en muchos relatos sobre los riesgos de la técnica, como en R.U.R., de Karel Čapek (1920), una obra donde los robots confunden las expectativas de sus creadores y se convierten en rebeldes. Este fenómeno se hace hoy evidente en dos campos: la biología sintética y la inteligencia artificial. Objetivo central de la agenda de la biología sintética es el deseo de crear nuevas especies, alzarse con el control genético de los organismos que nos puedan beneficiar con nuevos alimentos, fármacos y combustibles. El peligro es que el comportamiento de esos organismos se torne imprevisible y se vuelvan contra nosotros, como los robots de Čapek.
Shelley ofreció pocos detalles sobre las piezas que iba conjuntando y la chispa de vida que infundió en aquella yuxtaposición inerte. Hoy podríamos reconstruir una persona, en parte al menos, con elementos prestados y aprovechando las técnicas disponibles, como trasplantes de riñón, hígado, corazón, pulmones o intestino. Podrían trasplantarse también tejidos de la piel, nervios e incluso un rostro. En 2014 se consiguió con éxito el primer trasplante de pene, y ese mismo año nació en Suecia un niño en un útero trasplantado. Además, se están desarrollando tejidos a partir de células extraídas del propio paciente. A ello cabe sumar las posibilidades que ofrecen los exosqueletos biónicos con control remoto de extremidades artificiales y prótesis, así como los implantes cocleares y órganos mecánicos, corazón incluido, siquiera sean de uso temporal. Y lo que realmente mueve a pensar en Frankenstein: las técnicas de edición génica, capaces de crear un ser humano y manipular el genoma para librarlo de enfermedades y potenciar determinadas capacidades, como la fuerza, la agilidad o la inteligencia.
ὕβρις
El término hybris: significado y discusión en torno a él
Por. Pablo Torres París
<<Hubris: Presumption, originally towards the gods; pride, excessive self-confidence>>. Así
define el Oxford English Dictionary la hybris. Esta es la visión que se tiene del término en
círculos cultos pero no especializados, perpetuada por, o incluso nacida de, autores de tanta influencia como Jaeger, que dice: “La peor ofensa contra los dioses es no pensar humanamente y aspirar a lo más alto. La idea de hybris, concebida originariamente como un modo perfectamente concreto en su oposición a la diké, y limitada a la esfera terrestre del derecho, se extiende, de pronto, a la esfera religiosa” (1957, 166). Esta visión ha perdurado hasta hoy incluso en ambientes académicos (“Hybris significa exceso, traspasar las capacidades humanas.” García Álvarez 2019, 186), y ha llevado a que se le dé una enorme
importancia en el análisis de los textos literarios, particularmente en la tragedia. Más aún, a
la hybris se le ha asociado un esquema muy concreto, que se considera, en ocasiones, prácticamente el esquema básico de la tragedia: un personaje incurre en hybris, lo que despierta la envidia de los dioses, que lo castigan por ello; tal venganza se llama némesis (“Hybrises, en consecuencia: exceso, desmesura, soberbia, transgresión u orgullo que atraen
un castigo. […] transgredir tal mandato antihybrico era atraer la ira de los dioses, la ira de Némesis, y desencadenar situaciones trágicas”, García Álvarez 2019, 187). Este esquema de superar los límites, además, puede extenderse más allá del ámbito divino, pudiendo significar todo tipo de exceso contrario a los mandatos délficos de mesura (Fisher 1992, 2-3).
Frente a esta perspectiva, Fisher realizó un estudio exhaustivo del concepto, a partir de su uso en distintos ámbitos, desde los contextos más prosaicos, como cuestiones judiciales, hasta su empleo en diversas obras de carácter literario y filosófico.
Fisher parte de la definición de Aristóteles (Rh. 2.2.5-8) del término:
καὶ ὁ ὑβρίζων δὲ ὀλιγωρεῖ· ἔστι γὰρ ὕβρις τὸ πράττειν καὶ λέγειν ἐφ᾽ οἷς αἰσχύνη ἔστι τῷ πάσχοντι, μὴ ἵνα τι γίγνηται αὑτῷ ἄλλο ἢ ὅ τι ἐγένετο, ἀλλ᾽ ὅπως ἡσθῇ· οἱ γὰρ ἀντιποιοῦντες οὐχ ὑβρίζουσιν ἀλλὰ τιμωροῦνται. αἴτιον δὲ τῆς ἡδονῆς τοῖς ὑβρίζουσιν, ὅτι οἴονται κακῶς
δρῶντες αὐτοὶ ὑπερέχειν μᾶλλον (διὸ οἱ νέοι καὶ οἱ πλούσιοι ὑβρισταί · ὑπερέχειν γὰρ οἴονται ὑβρίζοντες) · ὕβρεως δὲ ἀτιμία, ὁ δ᾽ ἀτιμάζων ὀλιγωρε ῖ· τὸ γὰρ μηδενὸς ἄξιον οὐδεμίαν ἔχει τιμήν, οὔτε ἀγαθοῦ οὔτε κακοῦ· διὸ λέγει ὀργιζόμενος ὁ Ἀχιλλεὺς “ἠτίμησεν: ἑλὼν γὰρ ἔχει γέρας αὐτὸς” (Hom. Il. 1.356) κα ὶ “ὡς εἴ τιν᾽ ἀτίμητον μετανάστην” (Hom. Il. 9.648), ὡς διὰ ταῦτα ὀργιζόμενος.
Y también el que comete hybris desprecia: pues hybris es el hacer y decir algo con lo que el que lo padece sufra deshonra, no para que le suceda otra cosa a sí mismo, ni porque ya haya sucedido, sino para disfrutarlo; pues los que actúan en respuesta no cometen hybris, sino que se vengan. Y la causa del placer de los que cometen hybris es que piensan que comportándose de mala forma se engrandecen a sí mismos (de ahí que los jóvenes y los ricos sean hybristai: pues piensan que cometiendo hybris se engrandecen); y la deshonra es propia de la hybris, y el que deshonra desprecia: pues el que no es digno de nada no tiene honra alguna, ni para lo bueno ni para lo malo; de ahí que Aquiles diga, enfurecido, “me ha deshonrado. Pues él tiene el botín tras haberlo tomado” (Hom. Il. 1.356) y “como si fuera un vagabundo sin honra” (Hom. Il. 9.648), como si estuviera enfadado por eso.
Esta “nueva” visión del término, visiblemente alejada de la tradicional, tiene la ventaja de que no se trata de una reconstrucción contemporánea del significado de la palabra, sino de la percepción de alguien de la Antigüedad que, además, cuenta con la autoridad de su excelencia como filósofo y su rigor como científico. Además, esta definición permite solventar un problema con el término, ya que unifica dos supuestos significados distintos de la palabra, ya fuera en contextos literarios o bien en contextos legales (“The traditional view concentrated on hybris in high poetry, but blithely failed to resolve a considerable gap between this, essentially religious, meaning of hybris and the legal action of the graphe hybreos”, Fisher, 1992, 4).
Así pues, la definición que da Fisher del término es “the serious assault on the honour of another, which is likely to cause shame, and lead to anger and attemps at revenge” (1992, 1). El término no tiene un valor religioso en sí mismo (1992, 142). Además, la hybris se refiere,
según este punto de vista, al acto en sí mismo, y no a la actitud, por lo que concepciones como la de soberbia estarían fuera de lugar (“The center of attention in uses of hybris […] is beyond any doubt the committing of acts of intentional insult […]. No cases have been found where hybris can plausibly be supposed to mean no more than high spirits, good fun, over-confidence, pride, enjoying success or thinking big”, 1992, 148). Así pues, el supuesto esquema trágico pierde su validez en la visión de Fisher, añadiendo además el hecho de que, por la gravedad de la hybris, “the more hybristic the acts, words and motives of any of his characters are, proportionately less does our inclinations become to regard them with sympathy and their sufferings as tragic” (1992, 297), con lo que se perdería el valor catártico que al menos Aristóteles asigna a la tragedia (Po. 1452 b30-1453 a12). De hecho, dice a propósito del relato de la caída de Creso en Heródoto: “We have yet to see any warrant in our texts for describing such over-confidence and unmortal thinking as hybris against the gods, and there is no case for doing so here” (1992, 359).
Esto provoca que el concepto sea mucho menos específico en su concepción general y, a la vez, más apegado a lo cotidiano. En la mayoría de las situaciones puede traducirse por ultraje. Por lo tanto, siempre implica una víctima (1992, 148). Dentro de los actos que pueden entrar dentro de esta concepción, están incluidos tanto abusos físicos como verbales, así como violaciones (2019, 438). También puede considerarse hybris la rebelión de sujetos considerados inferiores contra sus superiores (2019, 438), aunque el caso paradigmático es desde una posición de poder (1992, 497). En cualquier caso, lo que constituye la hybris es que se produzca un ataque contra la honra de otro, independientemente de cómo suceda esto y en qué términos.
Dentro de su visión, los usos que hace Platón del término son, cuando no exagerados y humorísticos (“One notable feature of the lively and competitive conversation found in many of the dialogues is the jocularuse of hybris-terms to indicate a character’s apparent distaste for another’s irony, sarcasm, insult or mockery”, 1992, 453), significados novedosos, acuñados para adecuarse a su rompedora filosofía (1992, 453). Dado que este uso es como contrapuesto a la sophrosyne (Pl. Phdr. 237 e – 238 c), lo justifica en parte con la relación entre la hybris y el alcohol (“drunkness and symposia are recognised as strong causes or contributing factors of agressive or violent hybristic behaviour”, Fisher 1992, 468). Esta asociación se repite a menudo en la obra, junto con la relación con los jóvenes y los ricos (ya visible en la definición de Aristóteles).
Curiosamente, la definición que ofrece el Oxford English Dictionary de hubristic (“Insolent, contemptous”) es mucho más acorde a la visión de Fisher que a la definición que da de hubris. Así, aun cuando el sustantivo ha sufrido una reconceptualización posterior, el adjetivo habría mantenido con bastante exactitud el significado originario. Anterior en su concepción al estudio de Fisher y enfrentada a este, está la visión de MacDowell, que entiende que “fundamentally it is having energy or power and misusing it self-indulgently” (1976, 30). Así pues, pone el foco no tanto en la acción en sí misma como en el sujeto que ejerce la hybris (Desmond 2005, 44). También señala su relación con kóros, la saciedad, que puede ser causante de la hybris o consecuencia de esta, en un círculo vicioso (1976, 16). Como para Platón, para MacDowell el contrario del término es sophrosyne, que aquí convendría traducir por templanza (1976, 21). No hay en su concepción del término ninguna relación intrínseca con la honra; de hecho, incluso pueden ser perpetradores de hybris los animales (1976, 15), que ni tienen honra ni pueden insultar conscientemente la de otros. A pesar de sus diferencias, nada desdeñables, comparte ciertos puntos en común, como la asociación del término con los jóvenes (1976: 15), con los borrachos (1976: 16) y con los ricos (1976: 16), así como no considerar la hybris un término religioso (1976: 22).
Finalmente, la posición de Cairns supone una síntesis de ambas posturas (1996, 32):
Thus the reason why MacDowell, Dickie, and others ought to recognize that their accounts of hybris should be firmly located within the concept of honour is also the reason why Fisher should accept that the essential relationship between hybris and dishonour can accommodate purely dispositional, apparently victimless forms of selfassertion.
Así pues, aunque la hybris pueda ser un acto en sí mismo, no tiene por qué serlo, sino que puede ser una disposición por la cual alguien exagere su propia honra y, por tanto, eso afecte negativamente a la de los demás (1996, 8). Al fin y al cabo, la honra no es algo que tenga el individuo aislado, sino que solo existe en el contexto de la sociedad; así, cualquier forma de acrecentarla entre en contacto con la honra de los demás miembros de la comunidad (1996, 32).
Por medio de esta visión, al perder su carácter necesario la existencia de la acción en sí misma, vuelve a tener su espacio en el concepto de la hybrisla soberbia (1996: 13), siempre y cuando esta se entienda en relación con la honra. Así, el esquema que se atribuía a la tragedia vuelve a ser posible: al exagerar uno su propio honor, puede situarse, a sus ojos o a
los de los demás, como digno de trato divino o casi divino. Como la honra solo se entiende en términos de relación social, el máximo nivel de autoafirmación supone una afrenta al honor de aquellos que gozan de ella en la mayor medida posible, es decir, los dioses (1996, 19). Así lo refleja el siguiente pasaje (1996, 14):
This is readily construed as 'thinking big'; but qua extravagant exaltation of one's own claim to honour, stemming from youth, existing good fortune, inexperience of failure, and blind faith in continued success, it also patently deserves the title of hybris. In this case it is not merely other mortals who are imagined as affronted, but the gods themselves.
Por supuesto, y esto no significa que la hybris sea un término religioso (1996, 17), se supone que los dioses deben desaprobar este tipo de comportamientos y actuar contra ellos (1996, 18):
here is in many passages a strong connexion between 'thinking more than mortal thoughts' and divine phthonos.
Así es como se recupera, en definitiva, el supuesto esquema trágico, incluyéndolo en todo un sistema que gira en torno a la honra.
Otro aspecto que no refleja Fisher, y relacionado con la visión de MacDowell, es el de la hybris como una energía que, por exceso, se desborda (Cairns 1996, 23-4):
This notion of nurture and growth in itself suggests those ideas of 'being full of oneself, 'becoming too great' which I have argued to be important, and surely implies a process in the hybristic organism itself, a process resulting in a condition of satiety in which the potency or energy of the subject exceeds the norm; in a human being this will be the disposition of excessive self-assertion which arises from having had too much of a good thing and entails the feeling that one's own claims are superior to those of others.
Esto se relaciona, entre otras cosas, con la imaginería habitual de la hybriscomo una planta que crece y el uso metafórico del término aplicado a animales (1996, 23). Así pues, la definición de MacDowell es en gran medida correcta, si no en el núcleo del término, al menos en su fenomenología (1996, 25), siempre y cuando se ponga en relación con la honra (1996, 32).
De esta forma, los usos del término en Platón, muy inusuales según Fisher, dejan de serlo tanto (1996: 25). Al fin y al cabo, la falta de sophrosyne(opuesta a hybris ya en la tradición:
1996, 25) en relación con el sexo acaba por llevar a la hybris, tanto en forma de violaciones como dentro de las relaciones pederastas (1996, 26); la hybris tiene una fuerte relación con la comida y la bebida, lo que suaviza lo inusual de que Platón use el término también para la falta de templanza en el comer y el beber (1996, 25); y, sobre todo, ya que la hybris puede ser meramente una disposición, todo deseo que implique autoafirmación excesiva, tanto del sujeto como, en la concepción platónica del alma, de la parte concupiscible, puede ser calificado como tal (1996, 26).
En definitiva, la perspectiva de Cairns tiene la virtud de aunar bajo un mismo sentido los distintos significados que se habían atribuido a la hybris y que, hasta entonces, o bien se habían separado o bien negado en parte. Estudios como el de Canevaro parecen darle la razón: dado que los esclavos no tienen honra, el hecho de que alguien pudiera ser legalmente acusado de hybris contra ellos implica que el término no tiene que ser un ataque directo contra el honor de alguien, sino que puede referirse meramente a una actitud en la que el acusado exagera el suyo propio (2018, 122).
En cualquier caso, el término sigue, a día de hoy, en discusión, como lo prueba el hecho de que en la Encyclopedia of Greek Comedy, Fisher no ponga en su definición del término ninguna aportación reseñable de Cairns, aunque sí lo cite (2019, 437-8).
Análisis de la hybrisen el discurso de Aristófanes en el Banquetede Platón
En este apartado, trataré de analizar la hybris dentro de la intervención de Aristófanes en el Banquete de Platón, explicando en qué consiste y qué implicaciones tiene dentro del discurso y del diálogo en general.
En el Banquete de Platón, Aristófanes elabora un mito según el cual los hombres de antaño eran criaturas dobles y portentosas, pero por tratar de asaltar a los dioses fueron partidos en dos. El deseo de unirse con la otra mitad de nuevo y ser otra vez un ser único y completo es el amor. Por tanto, llamamos amor a τοῦ ὅλου […] τῇ ἐπιθυμίᾳ καὶ διώξει (“al anhelo y la persecución de lo completo”, 192 e).
Aunque en ningún momento se use el término hybris en este pasaje, sí aparecen términos asociados, especialmente desde la perspectiva de Cairns, que trata de aunar el punto de vista de Fisher de hybris como agresión ultrajante y la posición, más tradicional, de MacDowell y
Dickie, entre otros, que conciben el término como “having energy or power and misusing it self-indugently”, (MacDowell 1976, 21). Según esta síntesis, la diferencia entre las dos corrientes estriba en la perspectiva que se toma a la hora de abordar el concepto, por lo que el término puede referirse a ambas realidades como “differents aspects of the same phenomenon” (Desmond 2005, 45). Así pues, en el discurso se hace referencia a su gran poder (δύναμις) y violencia (ἀσελγία), así como a su soberbia (τὰ φρονήματα μεγάλα εἶχον) (Desmond 2005, 46). Y, aunque no fuera así, no hay duda de que el hecho de que τὸ εἰς τὸν οὐρανὸν ἀνάβασιν ἐπιχειρεῖν ποιεῖν, ὡς ἐπιθησομένων τοῖς θεοῖς (“intentaron ascender al cielo para asaltar a los dioses”, 190 b-c) puede considerarse un acto de hybris desde cualquier perspectiva que se quiera tomar del término.
En este relato se sigue el “esquema trágico”, que tradicionalmente se venía atribuyendo al concepto y que Fisher desestimó en tanto que no era, a su juicio, algo verdaderamente asociado a la palabra, sino que simplemente podía, o no, aparecer con ella. Así, llevados por la soberbia, los primitivos hombres ignoraron sus límites y, creyéndose más que la divinidad, trataron de derrocarlos. Esto provocó un castigo o venganza por parte de estos, generalmente llamado némesis, en este caso la división en dos, con la consiguiente pérdida de poder y la irremediable insuficiencia de su nuevo ser.
Dentro de este relato, cabría preguntarse si la rebelión de los humanos primitivos está o no justificada. Ludwig, al poner el foco en la injusticia de los dioses (2002, 76) y su dependencia con respecto a los hombres (2002, 77), opina que el Aristófanes platónico simpatiza con los rebeldes (2002, 78). Si los dioses son injustos, ¿por qué iba a suponer una culpa el tratar de derrocarlos, más aún cuando su superioridad, teniendo en cuenta la fuerza prodigiosa de los primeros hombres, no es tan evidente? Sin embargo, estas cuestiones, aunque puedan ser interesantes, no son relevantes para analizar la hybris del asunto.
Como ya se ha visto en el artículo de Cairns, la hybris es una cuestión de honra (1996, 32). Así pues, la justicia no es, en principio, algo verdaderamente relevante. Al fin y al cabo, sean justos o no, los dioses gozan del más alto grado de honor existente (1996, 19). Que esto era así ya en el contexto del discurso lo muestra el hecho de que los hombres les hicieran sacrificios (190 c). Se trata de uno de aquellos casos en los que alzarse contra los superiores es considerado hybris(Fisher 2019, 438).
En cuanto a los motivos de esta hybris, puede considerarse que meramente se trata meramente de esos φρονήματα μεγάλα, de un puro deseo de poder y de llegar a lo más alto posible. Más o menos así lo interpretan tanto Ludwig como Reckford, aunque con matices importantes.
El segundo hace referencia a la busca de ser “outrageously happy” (1974, 44), un deseo que lleva incluso a “rival the gods” y se relaciona con el estadio infantil, tanto del individuo como de la especie, y sus fantasías (1974, 45). Este deseo se refleja como catarsis propia en la comedia por medio de fantasías en las que este se ve satisfecho, de imágenes de puro júbilo vital y de lo inmediato (1974, 51-54).
Por su parte, la interpretación de Ludwig es mucho más compleja y menos fácil de ver. En primer lugar, para él, los dioses olímpicos, en opinión de Aristófanes, no existen, sino que son meramente proyecciones de las normas de la sociedad (“An atheist deprives the gods of sustenance by withholding his belief. If everyone did likewise, the gods would die”, “…the city’s gods are […] tools of control in the empire of Nomos. […] the gods are products of the city” 2002, 79-83), aspecto en el que choca frontalmente con la visión de Reckford (“all this wild commentary is sanctioned by religious tradition and the very gods in question!”, 1974, 44). Así, el mito se convierte en un relato del paso del hombre natural al civilizado, y el eros del que se habla no es sino una forma de domesticación de las pasiones desbordadas del hombre primigenio, originariamente incestuoso (“there is enough here to support the interpretation that […] Aristophanes is suggesting that natural man propagated himself by means of incest”, 2002, 92). El eros originario, sin embargo, estaba dirigido “to rival their elders, to become equals, or even become superiors” (2002, 97). Esta es, entonces, la hybris del hombre natural, “the circle-people’s revolt against their parent-gods, an attemp to deify themselves” (2002, 101). Estos primeros hombres, rebosantes de libido dominandi(2002, 84), son además comparables con los cíclopes (2002, 93), de los que se sugiere que son ὑβρισταί (Hom. Od. 9. 175). Así pues, además del acto concreto de rebelarse contra el padre, el propio carácter de estos seres puede considerarse en sí mismo proclive a la hybris, y por tanto en su culpa estarían también los casos más cotidianos de esta, los abusos típicos de los poderosos.
La visión del amor como un elemento que impulsa a buscar la unión es, desde cierto punto de vista, reconciliable con la visión que refleja el discurso de Sócrates (Moellendorf 2009, 98), si se considera que la belleza última de la que habla Diotima (211. c) es unificadora en tanto
que participa de todas las bellezas concretas. Además, lo que busca el amor es, en cierto sentido, un remedio para el gran rasgo que hace incompleto al hombre: la mortalidad (Obdrzalek 2017, 75). Este ascenso del filósofo impulsado por el amor puede ser, por otra parte, considerado en sí mismo hybris, algo que ya adelanta el hecho de que Sócrates sea acusado de ello en numerosas ocasiones durante la obra (Desmond 2005, 45-46):
En primer lugar, lo es en el sentido tradicional en tanto que desoye los límites impuestos a la humanidad y se lanza en pos a lo divino (Moellendorf 2009, 101); también puede considerarse que lo es en el de Fisher y el de Cairns, ya que es probable que el ignorar así las diferencias entre lo humano y lo divino suponga un insulto a los dioses, una nueva forma de ἐπιθεῖν τοῖς θεοῖς, así como un caso de “excessive selfassertion” (Cairns 1996, 13). No en vano ambos casos se tratan, como dice Sedley, de una forma de divinización (2017, 94), algo que necesariamente entra en conflicto con la honra divina. Por si quedasen dudas de lo osado de la actuación filosófica ante la divinidad, la terminología que usa Sócrates (o Diotima) puede interpretarse sexualmente (Moellendorf 2009, 25). Además, supone, si se toma el mito de Aristófanes como cierto, enfrentarse al actual orden impuesto por la divinidad (Moellendorf 2009, 106), en contra de lo que propone el propio Aristófanes, que, si bien habla del eros como fuerza que impulsa a la reunificación, no concibe más salida para la unión total que la acción de los dioses, por lo que aboga por la piedad (193. d). Así, la acción del filósofo lo convierte en un monstruo (Moellendorf 2009, 103).
Por otra parte, la búsqueda de Sócrates supone un agravio contra el orden de pensamiento, moral y social de su momento y contra aquellos que participan de él (Desmond 2005, 63). Esto puede, además, verse desde una perspectiva más crítica: dado que el alcanzar la belleza absoluta supone dejar de amar (Gagarin 1977, 27) y “la ascensión hacia la Belleza en sí exige la renuncia del deseo por las bellezas particulares” (Luri 2011, 33), quien llega a este bien supremo desprecia a sus antiguos amados (Gagarin 1977, 31), causando así daño a sus allegados y haciendo que sea responsable del fracaso de sus alumnos, siendo Alcibíades un ejemplo particularmente notable. (Gagarin 1977, 37). Es señalable que este fuera calificado, precisamente, como “The most hybristic of those who lived under the democracy” (Fisher 1992, 148). La hybris del maestro, al menospreciar a sus alumnos, acaba por engendrar a su vez hybrisen estos.
Valores Transhumanistas
Por. Nick Bostrom
Resumen. Supongamos que podemos mejorar la condición humana a través del uso de la
biotecnología, pero que esto pueda requerir cambiar la condición de ser humano.
¿Deberíamos? El transhumanismo dice que sí. El transhumanismo es la visión audaz de que
los humanos deberían explotar el potencial de los inventos tecnológicos que mejoren,
alarguen y posiblemente cambien la vida de la humanidad. Los transhumanistas sostienen que debemos esforzarnos por superar las limitaciones y las debilidades humanas. Quizás, lo más importante es que los transhumanistas creen que debemos desarrollar un nuevo
conjunto de valores que están más allá de los valores humanos, lo cual hará que la vida sea
mejor en todo el mundo (mejor que lo que hemos podido hacer con los valores humanos actuales). En este artículo, Bostrom brinda un audaz enfoque al posible futuro radicalmente distinto para los humanos y los transhumanos, así como menciona las facultades
posthumanas que serán posibles gracias a los avances tecnológicos.
1. ¿Qué es el Transhumanismo? El transhumanismo es un movimiento vagamente definido que se ha desarrollado gradualmente en las últimas dos décadas. Promueve un enfoque interdisciplinario para comprender y evaluar las oportunidades que nos ofrece el avance tecnológico para mejorar la condición y el organismo humanos. Para ello serán
consideradas en la discusión tanto las tecnologías actuales, como la ingeniería genética y las
tecnologías de la información, así como las que se hallan en desarrollo, la nanotecnología
molecular y la inteligencia artificial.
Las opciones de mejoramiento humano que se discuten incluyen la extensión del tiempo de
vida, la erradicación de enfermedades, la eliminación de sufrimientos innecesarios y el
aumento de las capacidades intelectuales, físicas y emocionales. Otros temas transhumanistas incluyen la colonización espacial y la posibilidad de crear máquinas superinteligentes, junto
con otros desarrollos con efectos potenciales para alterar profundamente la condición
humana. El enfoque transhumanista no se limita únicamente a gadgets o medicamentos, sino
que abarca también diseño de modelos económicos, sociales e institucionales; y el desarrollo
de aspectos culturales y habilidades y técnicas psicológicas.
Los transhumanistas consideran la naturaleza humana como un proceso no concluido, un proceso en desarrollo que podemos aprender a moldear a voluntad a través de diversas
maneras. La humanidad actual no es ni debe ser el punto final de la evolución. Los
transhumanistas esperan que, mediante el uso responsable de la ciencia, de la tecnología y de
otros medios racionales, podamos llegar a convertirnos en posthumanos, seres con capacidades mucho mayores que las que tienen los seres humanos actuales.
Algunos transhumanistas toman medidas activas para aumentar la probabilidad de que sobrevivan el tiempo suficiente para convertirse en posthumanos, por ejemplo, eligiendo un estilo de vida saludable o haciendo previsiones para que sean criogenizados en caso de desanimación. A diferencia de muchas otras perspectivas éticas, que a menudo reflejan en la
práctica una actitud reaccionaria y contraria hacia las nuevas tecnologías, la visión
transhumanista se guía por una visión en evolución para adoptar un enfoque más proactivo
sobre políticas tecnológicas. Esta visión, a grandes rasgos, es para crear la oportunidad de
vivir vidas más largas y sanas, mejorar nuestra memoria y otras facultades intelectuales,
refinar nuestras experiencias emocionales y aumentar nuestro sentido subjetivo de bienestar, y en general lograr un mayor grado de control sobre nuestras propias vidas. Este enfoque sobre el potencial humano representa una alternativa contraria a las habituales objeciones de jugar a ser Dios, experimentar con la naturaleza, manipular nuestra esencia humana o mostrar una arrogancia castigable.
El transhumanismo no implica optimismo tecnológico. Si bien las capacidades tecnológicas
futuras tienen un inmenso potencial beneficioso, también pueden ser utilizadas de forma
indebida para causar un daño enorme, llegando incluso a albergar la extrema posibilidad de extinguir la vida inteligente. Otros posibles resultados negativos incluyen la ampliación de las
desigualdades sociales o un daño gradual de los bienes difíciles de cuantificar que son de
nuestro profundo interés, pero que tendemos a descuidar en nuestra lucha diaria por
acumular riqueza, como las relaciones humanas significativas y la diversidad ecológica. Tales
riesgos deben tomarse muy en serio, como reconocen plenamente los transhumanistas.
El transhumanismo tiene sus raíces en el pensamiento humanista secular, pero es más radical
porque promueve no solo los medios tradicionales para mejorar la naturaleza humana, como la educación y el refinamiento cultural, sino también la aplicación directa de la medicina y la tecnología para superar algunos de nuestros límites biológicos básicos.
2. Límites Humanos. El conjunto de pensamientos, sentimientos, experiencias y actividades accesibles a los organismos humanos constituyen, presumiblemente, solo una pequeña parte de lo que es posible. No hay razón para pensar que los seres humanos posean
menos límites impuestos por su biología que otros animales. De la misma manera en que los
chimpancés carecen de los medios cognitivos para comprender qué significa ser humano y lo
que ello acarrea, nuestras ambiciones, nuestras filosofías, la complejidad de la sociedad
humana o las sutilezas de nuestras interrelaciones, nosotros los humanos podríamos carecer
también de la capacidad de formar una comprensión intuitiva y realista de lo que sería ser un
ser humano mejorado (un "posthumano") y de los pensamientos, preocupaciones, aspiraciones y relaciones sociales que tales entidades puedan tener.
Nuestro propio modo actual de ser, por lo tanto, abarca solo un subconjunto diminuto de lo que es posible o permitido por las restricciones físicas del universo (ver Figura 1). No es
exagerado suponer que hay partes de este espacio más grande que representan formas extremadamente valiosas de vivir, relacionarse, sentir y pensar. Figura 1.
![](https://assets.isu.pub/document-structure/220727012318-448124598b4dfc03dfab351234821abd/v1/ddb70c3059e65f24dacd4cdea729afb6.jpeg?width=720&quality=85%2C50)
Figura 1. No hemos visto nada todavía (no está dibujado a escala). El término "transhumano" denota seres en transición, o seres humanos moderadamente mejorados, cuyas capacidades estarían en algún lugar entre las de los seres humanos no aumentados y
los posthumanos. (Por el contrario, un transhumanista es simplemente alguien que acepta el transhumanismo).
Las limitaciones del ser humano nos son tan familiares que a menudo no las notamos, y cuestionarlas requiere manifestar una ingenuidad casi infantil. Consideremos algunas de las más básicas.
Esperanza de vida. Debido a las condiciones precarias en las que vivieron nuestros antepasados del Pleistoceno, la esperanza de vida humana ha evolucionado hasta convertirse en una pequeñez de siete u ocho décadas. Esto es, desde muchas perspectivas, un período de
tiempo bastante efímero. Incluso las tortugas han superado ese margen ampliamente.
No tenemos que usar comparaciones geológicas o cosmológicas para resaltar lo corta que es
nuestra vida. Para tener la sensación de que podemos estar perdiendo algo importante por
nuestra tendencia a vivir tan poco, solo tenemos que recordar algunas de las cosas valiosas que podríamos haber hecho o intentado hacer si hubiéramos tenido más tiempo. Para los
jardineros, educadores, académicos, artistas, urbanistas y aquellos que simplemente disfrutan
observando y participando en los espectáculos culturales o políticos de la vida, tres una vida
es a menudo insuficiente para completar tan solo un proyecto importante, por no hablar de proyectos.
El desarrollo del carácter humano también se ve interrumpido por el envejecimiento y la
muerte. Imagina lo que podría haber sido de un Beethoven o un Goethe si todavía hubieran
estado con nosotros hoy en día. Tal vez se habrían convertido en viejos gruñones interesados
exclusivamente en conversar sobre los logros de su juventud. Pero tal vez, si hubieran seguido gozando de salud y vitalidad juvenil, habrían seguido creciendo como personas y artistas, hasta alcanzar niveles de madurez que apenas podemos imaginar. Ciertamente no podemos descartar eso en base a lo que sabemos hoy. Por lo tanto, hay al menos una posibilidad significativa de que haya algo muy precioso fuera de la esfera humana. Esto constituye una razón para buscar los medios que nos permitirán lograrlo y descubrirlo.
Capacidad intelectual. Todos hemos tenido momentos en los que deseábamos ser un poco
más inteligentes. La máquina de pensar de tres libras, parecida a un queso, que tenemos en nuestros cráneos puede hacer algunos trucos, pero también tiene notorias deficiencias.
Algunas de estas, como olvidar comprar leche o no alcanzar la fluidez nativa en los idiomas que aprendes de adulto, son obvias y no requieren mayor detalle. Estas deficiencias son inconvenientes, pero difícilmente barreras fundamentales para el desarrollo humano.
Sin embargo, hay un sentido más profundo en las limitaciones de nuestro aparato intelectual
y por ende en nuestra actividad mental. Mencioné la analogía del chimpancé anteriormente:
tal como es el caso de los grandes simios, nuestra propia composición cognitiva podría
excluir todo los niveles de comprensión y actividad mental que existen o puede existir. El
punto aquí no tiene que ver con ninguna imposibilidad lógica o metafísica: no debemos
suponer que los posthumanos no aprobarían el test de Turing o que tendrían conceptos que
no podrían expresarse con oraciones finitas en nuestro idioma, ni nada por el estilo. La
imposibilidad a la que me refiero es más como la imposibilidad para los humanos actuales de
visualizar una hiperesfera de 200 dimensiones o de leer, con un recuerdo y comprensión
perfectos, todos los libros de la Biblioteca del Congreso. Estas cosas son imposibles para nosotros porque simplemente carecemos de la capacidad intelectual. De misma forma, puede que no posea la capacidad de comprender intuitivamente cómo sería ser un posthumano o
de asimilar el amplio campo de asuntos de interés posthumanos
Además, nuestros cerebros humanos pueden limitar nuestra capacidad para descubrir verdades filosóficas y científicas. Es posible que la incapacidad de la investigación filosófica
por llegar a respuestas sólidas, y de aceptación general, para muchas de las grandes preguntas filosóficas tradicionales se deba al hecho de que no somos lo suficientemente inteligentes
como para tener éxito en este tipo de investigación. Nuestras limitaciones cognitivas pueden
estar condenándonos a yacer dentro de una cueva platónica, donde lo mejor que podemos hacer es teorizar sobre las "sombras", es decir, sobre representaciones que están lo
suficientemente simplificadas y reducidas para que quepan dentro de un cerebro humano.
Funcionalidad corporal. Nosotros mejoramos nuestro sistema inmunológico mediante
vacunas, y podemos imaginar mejoras adicionales en nuestros cuerpos que nos podrían
proteger de enfermedades o nos ayudarían a moldear nuestros cuerpos según nuestros deseos
(por ejemplo, al permitirnos controlar la tasa metabólica de nuestros cuerpos). Tales mejoras podrían incrementar la calidad de nuestras vidas.
Una suposición más radical podría ser posible si suponemos una visión computacional de la mente. De ser así, sería posible cargar (upload) una mente humana a una computadora, replicando detalladamente en circuitos (en silicio) los procesos computacionales que normalmente se ejecutan en un cerebro humano. Cargar la mente o convertirse en un upload poseería muchas ventajas potenciales, como la capacidad de hacer copias de seguridad de
uno mismo (con un impacto favorable en la esperanza de vida) y la capacidad de transmitirse como información a la velocidad de la luz. Las mentes cargadas o uploads pueden vivir en la
realidad virtual o también directamente en la realidad física mediante el control de un robot
o avatar.
Mecanismos sensoriales, facultades especiales y sensibilidades. Los mecanismos sensoriales que posee el ser humano no son ni los únicos existentes ni se hallan desarrollados
plenamente. Algunos animales tienen orientación sonar, orientación magnética, sensores
eléctricos y de vibración; muchos tienen un sentido del olfato mucho más agudo, una visión
más aguda, etc. El rango de posibles mecanismos sensoriales no se limita a las que
encontramos en el reino animal. No hay una razón por la cual no contemplar, por ejemplo,
una capacidad para ver la radiación infrarroja o para percibir señales de radio, incluso agregar
algo similar a la telepatía como consecuencia de la adición de transmisores de radio con
interfaces adecuadas al cerebro.
Los humanos también disfrutan de una variedad de facultades singulares, como la
apreciación de la música y el sentido del humor, y sensibilidades como la capacidad de
excitación sexual en respuesta a estímulos eróticos. Nuevamente, no hay razón para pensar
que lo que tenemos agota el rango de lo posible, y ciertamente podemos imaginar niveles más altos y complejos de sensibilidad y capacidad de respuesta ante los mismos o diversos
estímulos.
Estado de ánimo, energía y autocontrol. A pesar de nuestros mejores esfuerzos, a menudo no nos sentimos tan felices como nos gustaría. Nuestros recurrentes niveles de bienestar
subjetivo parecen estar en gran parte determinados genéticamente. Las vivencias tienen poco impacto a largo plazo; los altos y bajos de la suerte nos dan momentos de euforia o nos derriban, pero hay ligero efecto a largo plazo en el bienestar identificado por el individuo. La alegría duradera sigue siendo difícil de alcanzar, excepto para aquellos que han tenido la
suerte de haber nacido con el temperamento preciso para ello.
Además de que nuestro nivel de bienestar dependa de nuestros genes, estamos limitados en
lo que respecta a la energía, la fuerza de voluntad y la capacidad de configurar nuestro
propio carácter de acuerdo con nuestros ideales. Incluso los objetivos "simples" como perder peso o dejar de fumar resultan inalcanzables para muchos.
Algunos problemas de estos tipos podrían ser necesarios en lugar de una infortunada
consecuencia dependiente de nuestra composición biológica. Por ejemplo, no podemos
poseer ambos, la capacidad de romper fácilmente cualquier hábito y la capacidad de formar hábitos estables y difíciles de romper. (En este sentido, lo mejor que podemos desear es la
capacidad de deshacernos fácilmente de hábitos que no elegimos deliberadamente en primer
lugar, y tal vez un sistema de formación de hábitos más versátil que nos permita elegir con
mayor precisión cuando adquirir un hábito y cuánto esfuerzo debería costar romperlo.
3. El valor transhumanista central: explorar los dominios del posthumano. La conjetura de que existen valores mayores de los que actualmente podemos comprender no implica que los valores no se hallen definidos de acuerdo a nuestros rasgos actuales. Tomemos, por ejemplo, una teoría del rasgo de los valores, como la que describe David Lewis. De acuerdo
con la teoría de Lewis, algo es un valor para ti si y solo si quisieras desearlo si estuvieras
perfectamente familiarizado con él y estuvieras pensando y deliberando lo más claramente posible al respecto. Desde esta perspectiva, pudiera haber valores que no deseamos actualmente, y que ni siquiera deseamos, porque no estamos familiarizados con ellos o porque no somos muy reflexivos. Algunos valores pertenecientes a ciertas formas de existencia posthumana puede que sean de este tipo; podrían ser valores para nosotros ahora,
y pueden serlo en virtud de nuestras capacidades actuales, y, sin embargo, es posible que no podamos apreciarlos plenamente con nuestras actuales capacidades de reflexión y nuestra
falta de facultades receptivas suficientes para su correcta interpretación. Este punto es
importante porque muestra que la visión transhumanista de que debemos explorar el
universo de los valores posthumanos no implica que debamos renunciar a nuestros valores actuales. Los valores posthumanos pueden ser nuestros valores actuales, aunque no los hayamos comprendido claramente. El transhumanismo no implica que debamos favorecer a los seres posthumanos sobre los seres humanos, sino que la manera correcta de favorecer a los seres humanos es permitiéndonos realizar mejor nuestras metas e ideales y que algunos
de estos pueden estar ubicados fuera del conjunto de conductas que nos son accesibles con nuestra actual constitución biológica.
Podemos superar muchas de nuestras limitaciones biológicas. Es posible que haya algunas
limitaciones que nos son imposibles de superar, no solo por dificultades tecnológicas sino
también por razones metafísicas. Dependiendo de cuáles sean nuestros puntos de vista
acerca de lo que constituye la identidad personal, podría ser que ciertos modos de ser o vivir,
mientras sea posible, resulten imposibles para nosotros porque cualquier ser de aquel tipo sería tan diferente de nosotros que simplemente no podríamos ser nosotros mismos. Las preocupaciones de este tipo son familiares a partir de las discusiones teológicas de la vida
futura. En la teología cristiana, Dios permitirá que algunas almas vayan al cielo después de la
muerte física. Antes de ser admitidos en el cielo, las almas serán sometidas a un proceso de
purificación en el que perderán muchos de sus atributos corporales anteriores. Los escépticos
dudan de que las mentes resultantes sean lo suficientemente similares a las mentes actuales como para que sea posible identificarlos como la misma persona. Un problema similar surge dentro del transhumanismo: si la forma de ser de un ser posthumano es radicalmente diferente del de un ser humano, entonces podríamos dudar de si un ser posthumano podría
ser la misma persona que un ser humano, incluso si el ser posthumano fue producto de ese mismo ser humano.
Sin embargo, podemos imaginar muchas mejoras que no harían imposible que alguien
posterior a la transformación sea la misma persona que la persona anterior a la
transformación. Una persona puede obtener una mayor esperanza de vida, inteligencia, salud, memoria y sensibilidad emocional, sin dejar de existir en el proceso. La vida intelectual de una persona puede transformarse radicalmente gracias a la educación. La esperanza de vida de una persona puede extenderse sustancialmente al curarse inesperadamente de una enfermedad letal. Sin embargo, estos procesos no se ven como el final de la persona original. En efecto, parece que las modificaciones que aportan a las capacidades de las personas son más sustanciales que las modificaciones que restan, como el daño cerebral. Si la mayoría de
las personas que están actualmente, incluidos sus recuerdos, actividades y sentimientos más
importantes, se conservan, agregar capacidades adicionales no haría que la persona dejara de
existir fácilmente.
La preservación de la identidad personal, especialmente si a esta noción se le da una
interpretación estrecha, no lo es todo. Podemos valorar otras cosas más que a nosotros
mismos, o podríamos considerar satisfactorio si algunas partes o aspectos de nosotros sobreviven y florecen por separado, incluso si eso implica renunciar a algunas características
o partes de nosotros de manera que ya no seamos la misma persona o contemos como el
mismo individuo. Las partes de nosotros mismos que podríamos estar dispuestos a sacrificar
pueden no quedar claras hasta que estemos más familiarizados con las implicaciones de las
otras opciones. Una exploración cuidadosa del mundo posthumano podría ser indispensable
para adquirir tal comprensión, aunque también podríamos aprender de las experiencias de los
demás y de la imaginación.
Además, si los posthumanos gozarán de vidas más provechosas que los humanos deberíamos
promover que las personas futuras sean posthumanas en lugar de humanas. Cualquier razón
derivada de tales consideraciones no dependería del supuesto de que nosotros mismos
podríamos convertirnos en seres posthumanos.
El transhumanismo promueve la búsqueda de un mayor desarrollo para que podamos
explorar realidades valiosas que nos son hoy inaccesibles. Para lograr este fin, la mejora tecnológica de los organismos humanos es el medio que debemos perseguir. Existen límites
sobre cuánto se puede lograr con medios de baja tecnología, como la educación, la
contemplación filosófica, el autocontrol moral y otros métodos similares propuestos por
filósofos clásicos con inclinaciones perfeccionistas, incluidos Platón, Aristóteles y Nietzsche, o
mediante la creación de una sociedad más justa y mejor, tal como lo previeron reformistas sociales como Marx o Martin Luther King. Esto no es denigrar lo que podemos hacer con las herramientas que tenemos hoy. Sin embargo, en última instancia, los transhumanistas
esperan llegar más lejos.
4. Condiciones básicas para realizar el proyecto transhumanista. Si esta es la gran visión,
¿cuáles son los objetivos más particulares a los que se traduce este proyecto cuando se le
considera como una guía de políticas?
Lo que se necesita para la realización del sueño transhumanista es que los medios tecnológicos necesarios para aventurarse en el posthumanismo se hallen disponibles para
quienes deseen usarlos, y que la sociedad esté organizada de tal manera que puedan
realizarse tales exploraciones sin causar daño inaceptable al desarrollo de las sociedades y sin imponer riesgos existenciales inaceptables.
Seguridad global. Si bien los desastres y las complicaciones son inevitables tanto en la implementación del proyecto transhumanista como en caso de que no se persiguiera el
proyecto transhumanista, hay una clase de catástrofe que debe evitarse a cualquier costo para
lograr la transhumanización del hombre.
Riesgo existencial: uno en el que un resultado adverso aniquilaría la vida inteligente originada
en la Tierra o restringiría de forma permanente y drástica su potencial.
Varias discusiones recientes han argumentado que la probabilidad combinada de los riesgos existenciales es muy importante. La relevancia de la condición de seguridad existencial para
la visión transhumanista es obvia: si nos extinguimos o destruimos permanentemente nuestro potencial para seguir desarrollándonos, entonces no se realizará el valor central del
transhumanismo. La seguridad global es el requisito más fundamental y no negociable del
proyecto transhumanista.
Progreso tecnológico. Que el progreso tecnológico sea generalmente deseable desde un punto
de vista transhumanista también es evidente. Muchas de nuestras deficiencias biológicas
(envejecimiento, enfermedad, débiles recuerdos e intelectos, un repertorio emocional limitado y una capacidad inadecuada para un bienestar sostenido) son difíciles de superar, y para
hacerlo se requerirán herramientas avanzadas. Desarrollar estas herramientas es un desafío
enorme para las capacidades colectivas de resolución de problemas de nuestra especie. Dado que el progreso tecnológico está estrechamente relacionado con el desarrollo económico, el
crecimiento económico, o más precisamente, el crecimiento de la productividad, puede en
algunos casos servir como un intermediario del progreso tecnológico. (El crecimiento de la
productividad es, por supuesto, solo una medida imperfecta de la forma relevante de progreso tecnológico, que, a su vez, es una medida imperfecta de mejora general, ya que
omite factores tales como la equidad de distribución, la diversidad ecológica y la calidad de
las relaciones humanas.)
La historia del desarrollo económico y tecnológico, y el crecimiento concomitante de la
civilización, se considera con admiración, como el logro más glorioso de la humanidad. Gracias a la acumulación gradual de mejoras durante los últimos miles de años, grandes
porciones de la humanidad han sido liberadas del analfabetismo, la esperanza de vida de veinte años, las alarmantes tasas de mortalidad infantil, las enfermedades horribles que se soportan sin paliativos, el hambre periódica y la escasez de agua. La tecnología, en este
contexto, no abarca a los gadgets únicamente, sino que incluye todos los objetos
instrumentales y sistemas útiles que se han creado deliberadamente. Esta definición amplia
abarca prácticas e instituciones como la contabilidad con doble entrada, la revisión científica
por pares, los sistemas legales y las ciencias aplicadas.
Amplio acceso. No es suficiente que unos pocos exploren el reino posthumano. La plena realización del valor transhumanista central requiere que, idealmente, todos tengan la
oportunidad de convertirse en posthumanos. No sería óptimo si la oportunidad de
convertirse en posthumano estuviera restringida a una pequeña élite.
Hay muchas razones para apoyar el acceso amplio: para reducir la desigualdad; porque sería
un arreglo más justo; para expresar solidaridad y respeto por los demás seres humanos; para
ayudar a obtener apoyo para el proyecto transhumanista; para aumentar las posibilidades de que tú tengas la oportunidad de convertirte en posthumano; para aumentar las posibilidades
de que aquellos que te importan puedan convertirse en posthumanos; porque podría
aumentar el rango del reino posthumano que se explora; y para aliviar el sufrimiento humano en la mayor escala posible.
El requisito de acceso amplio subyace a la urgencia moral de la visión transhumanista. El
acceso amplio no apoya la duda para actuar. Por el contrario, que todo siga igual es un argumento para avanzar lo más rápido posible. 150,000 seres humanos en nuestro planeta mueren cada día, sin haber tenido ningún acceso a las tecnologías de mejora anticipadas que
permitirán que hubieran permitido que se convierta en posthumano. Cuanto antes se
desarrolle esta tecnología, menos personas morirán sin acceso a la posthumanidad.
Considere un caso hipotético en el que hay una opción entre (a) permitir que la población
humana actual continúe existiendo y (b) reemplazar a través de una muerte instantánea e
indolora a la humanidad por seis mil millones de nuevos seres humanos que son muy similares pero no idénticos a las personas que existen hoy. Tal reemplazo debe ser
fuertemente resistido por razones morales, ya que implicaría la muerte involuntaria de seis
mil millones de personas. El hecho de que serían reemplazados por seis mil millones de personas similares creadas recientemente no hace que la sustitución sea aceptable. Los seres
humanos no son desechables. Por razones análogas, es importante que la oportunidad de
convertirse en posthumano se ponga a disposición de tantos humanos como sea posible, en
lugar de que la población existente simplemente se complemente (o, lo que es peor, se
sustituya) por un nuevo conjunto de personas posthumanas. El ideal transhumanista se realizará al máximo solo si los beneficios de las tecnologías se comparten ampliamente y si se
ponen a disposición lo antes posible, preferiblemente dentro de nuestra vida.
4. Valores Derivados De estos requisitos específicos fluyen una serie de valores
transhumanistas derivados que traducen la visión transhumanista a la práctica. (Algunos de
estos valores también pueden tener justificaciones independientes, y el transhumanismo no
implica que la lista de valores que se proporciona a continuación sea exhaustiva).
Para empezar, los transhumanistas suelen hacer hincapié en la libertad y la elección
individuales en el área de las tecnologías de mejora. Los seres humanos difieren ampliamente
en sus concepciones de en qué consistirían su propia perfección o mejora. Algunos quieren desarrollarse en una dirección, otros en diferentes direcciones, y algunos prefieren quedarse
como están. Tampoco sería moralmente aceptable que alguien imponga una norma única que
todos deberíamos cumplir. Las personas deben tener derecho a elegir qué tecnologías de
mejora usar, si desearan usarlas. En los casos en que las elecciones individuales impactan sustancialmente en otras personas, este principio general podría ser restringido, pero el
simple hecho de que alguien se sienta disgustado o moralmente ofendido por alguien que usa la tecnología para modificarse a sí misma no habrá de ser un motivo legítimo para la
interferencia coercitiva, es decir, para evitar la mejora. Además, la mala trayectoria de los
esfuerzos planificados centralmente para crear mejores personas (por ejemplo, el movimiento eugenésico y el totalitarismo soviético) muestra que debemos tener cuidado con la toma de
decisiones colectivas en el campo de la modificación humana.
Otra prioridad transhumanista es ponernos en una mejor posición para tomar decisiones
sabias sobre hacia dónde vamos. Necesitaremos toda la sabiduría que podamos obtener al
negociar la transición hacia la posthumanidad. Los transhumanistas dan un gran valor a las
mejoras en nuestros poderes individuales y colectivos de comprensión y en nuestra capacidad
para implementar decisiones responsables. En conjunto, podríamos ser más inteligentes e
informados a través de medios como la investigación científica, el debate público y el debate
abierto sobre el futuro, los mercados de información, y el filtrado de información
colaborativo. A nivel individual, podemos beneficiarnos de la educación, el pensamiento
crítico, la mentalidad abierta, las técnicas de estudio, la tecnología de la información y quizás
las drogas que mejoran la memoria o la atención y otras tecnologías de mejora cognitiva.
Nuestra capacidad para implementar decisiones responsables se puede mejorar expandiendo el estado de derecho y la democracia en el plano internacional.
Además, la inteligencia artificial, especialmente si alcanza la equivalencia humana o superior, podría dar un enorme impulso a la búsqueda de conocimiento y sabiduría. Dadas las
limitaciones de nuestra sabiduría actual, un cierto carácter epistémico es apropiado, junto
con una disposición para reevaluar continuamente nuestros supuestos a medida que más
información esté disponible. No podemos dar por sentado que nuestros viejos hábitos y
creencias serán adecuados para navegar a lo largo de las nuevas circunstancias posthumanas.
La seguridad mundial puede mejorarse promoviendo la paz y la cooperación internacionales
y contrarrestando fuertemente la proliferación de armas de destrucción masiva. Las mejoras
en la tecnología de vigilancia pueden facilitar la detección de programas de armas ilícitas.
Otras medidas de seguridad también podrían ser apropiadas para contrarrestar varios riesgos
existenciales. Más estudios sobre tales riesgos nos ayudarían a comprender mejor las
amenazas a largo plazo para el florecimiento humano y lo que se puede hacer para reducirlos.
Dado que el desarrollo tecnológico es necesario para concretar la visión transhumanista, se
deben promover el espíritu empresarial, la ciencia y el espíritu ingenieril. Más generalmente,
los transhumanistas favorecen una actitud pragmática y un enfoque constructivo de resolución de problemas para los desafíos, prefiriendo los métodos que experimentalmente
nos den buenos resultados. Piensan que es mejor tomar la iniciativa de "hacer algo al respecto" en lugar de sentarse a quejarse. Este es un sentido en el que el transhumanismo es optimista. (No es optimista en el sentido de defender una creencia inflada en la probabilidad de éxito o en el sentido Panglosiano de inventar excusas para las deficiencias del status quo).
El transhumanismo aboga por el bienestar de toda entidad sintiente, ya sean inteligencias artificiales, humanos y animales no humanos (incluidas las especies extraterrestres, si las hay). El racismo, el sexismo, el especismo, el nacionalismo beligerante y la intolerancia religiosa son inaceptables. Además de los motivos habituales para considerar tales prácticas
objetables, también existe una motivación específicamente transhumanista para esto. Con el
fin de prepararnos para un momento en que la especie humana pueda comenzar a ramificarse en varias direcciones, debemos comenzar ahora para alentar enérgicamente el
desarrollo de sentimientos morales que sean lo suficientemente amplios como para abarcar la esfera de las preocupaciones de interés moral que se constituyen de manera diferente a
nosotros mismos.
Finalmente, el transhumanismo enfatiza la urgencia moral de salvar vidas o, más
precisamente, de prevenir muertes involuntarias entre personas cuyas vidas valen la pena vivir. En un mundo desarrollado, el envejecimiento es actualmente el asesino número uno. El
envejecimiento también es la principal causa de enfermedad, discapacidad y demencia. (Incluso si todas las enfermedades cardíacas y el cáncer pudieran curarse, la esperanza de vida aumentaría en solo seis a siete años). Por lo tanto, la medicina antienvejecimiento es una prioridad transhumanista clave. El objetivo, por supuesto, es extender radicalmente la vida activa de las personas, no agregar algunos años adicionales a un ventilador al final de la
vida.
Nick Bostrom
![](https://assets.isu.pub/document-structure/220727012318-448124598b4dfc03dfab351234821abd/v1/7ab44b8fdcadb6d61687885db7efb888.jpeg?width=720&quality=85%2C50)
Como todavía estamos lejos de poder detener o revertir el envejecimiento, la suspensión
criónica de los muertos debe estar disponible como una opción para aquellos que lo deseen.
Es posible que las tecnologías futuras permitan reanimar a las personas que se han
suspendido crónicamente. Si bien la criónica puede ser una posibilidad remota,
definitivamente tiene mejores probabilidades que la cremación o el entierro. La siguiente
tabla resume los valores transhumanistas que hemos discutido.
Figura 2. Tabla de Valores Transhumanistas
![](https://assets.isu.pub/document-structure/220727012318-448124598b4dfc03dfab351234821abd/v1/5462cf3d3194a6580676f51f76c2f29a.jpeg?width=720&quality=85%2C50)
Activities
First What do the expressions "Promethean science" and "Faustian science" mean?
Second What is technoscience?
Third Prepare an exposition on SARS-CoV-2 and the human immune system
Fourth Explain how a virus can be created in the laboratory
Cuartoperiodo Filosofía Ambiental
Figura 4. Contenidos grado noveno cuarto periodo
Moderna (cartesiana) Antigüedad: arjé y physis. Medievo. San Francisco
Contemporánea (GAIA) (Antropoceno)
Proyecto: elaboración de un cómic (tema: medio ambiente)
Terminamos el curso con un solo texto, para poder comentarlo detalladamente. El ejercicio ha de servir como preparación para metodologías propias de la educación media. Por otra parte, se trata de un documento que examina la forma de pensar la naturaleza propias de cada una de las épocas, tal cual hemos estado haciendo desde el primer periodo. Finalmente, aunque en muchos puntos me distancio de la autora, como tendremos ocasión de ver, el texto se inscribe en aquella perspectiva para la cual Occidente se ha distanciado de su origen (un autor habla de Olvido del Sery el texto, desde el subtítulo habla de “la pérdida del ser”), Perspectiva que comparto y que ha servido de base para el diseño curricular Con-Sentidos para la vida buena .
Este cuarto y último periodo será ocasión de presentar la segunda historieta, dedicada al tema medio ambiental. El proyecto es ideal para evaluar la comprensión alcanzada en torno
al significado de los Objetivos de Desarrollo Sostenible y la Sociedad de la Información y el Conocimiento. También, desde luego, para evaluar las destrezas alcanzadas en la creación de historias y el uso de las imágenes y del lenguaje escrito.
La relación del ser humano y la naturaleza en Occidente (la pérdida del SER)
Por. Ana Alicia Real en XIIJornadas Inter escuelas del Departamento de Historia de la Universidad del Comahue
La relación del ser humano de occidente con el mundo en que vive, ha sido atravesada por la
historia del pensamiento y aquí se hace hincapié en esta palabra porque precisamente el
pensar, separado del sentir, cosifica todo aquello que pueda objetivar. Al ser humano le costó
siglos el verse a sí mismo como tal. En la antigüedad se confundió con la naturaleza; en la
Edad Media, con Dios. Es recién con el renacimiento tardío que surge como sujeto del
conocer, y se reconoce como “distinto” de la naturaleza y de Dios; se separa de ambos e inventa su propio territorio: la Razón.
El pensamiento griego, cuna de la civilización occidental, tuvo –en sus albores- dos características sobresalientes: Panteísmo e Hilozoísmo. Primariamente, durante el período de
pensamiento mítico, no existió distinción taxativa entre naturaleza, seres humanos y dioses.
Los dioses podían adoptar cualquier forma y, a su vez, la humanidad cohabitaba la totalidad
en que se constituía junto con la naturaleza.
Al comenzar el pensamiento racional, si bien, los primeros filósofos se dedicaron a la
observación de la “Physis”, no obstante no tomaron distancia de esta: el “Ser” envuelve a
todos por igual. Es necesario recordar que dentro del pensamiento griego no existe la idea de “creación”, por lo tanto, habrá que hacer una diferenciación entre “Physis” –que tenía al
menos tres sentidos: a) el aparecer de algo, b) la fuerza interna que impulsa dicho aparecer, c) el conjunto de todo lo que existe y que no surge de la mano del hombre-; y el término “Arjé” -que es el principio originario y primigenio del cual se generan las cosas que componen el mundo.
Otra observación a tener siempre en cuenta, es que la distinción entre “materia” y “espíritu”
es ajena al mundo griego: el espíritu es materia más sutil, o sea, que todo es “Physis”.
Es a partir del platonismo que se abre una brecha entre dos mundos, perfilándose la humanidad por un lado, y la naturaleza, por el otro. La Edad Media se va a encargar de colocar a la humanidad en manos de Dios, y a la naturaleza como sierva de aquélla, y habrá
que esperar el despuntar del renacimiento para ver nacer al Sujeto y con él el abandono definitivo de lazos de amor hacia la naturaleza. En esta historia de Occidente, la naturaleza
se encontró tratada como objeto por parte de un Sujeto poderoso y depredador.
La relación ser humano-naturaleza llega al siglo XX equiparándose a la relación
epistemología-ética. Al rastrearla a través de la historia, se encuentra por un lado una razón
hipertrofiada para la cual “conocer es poder”. Solamente en la segunda mitad del siglo XX
aparecen voces en busca de lo que Prigogine llamó “una nueva alianza” ; lo que llevó a
Margulis y Sagan a escribir: “La continua metamorfosis del planeta es el resultado acumulativo de sus múltiples seres. La humanidad no dirige la sinfonía sensible; con nosotros
o sin nosotros la vida seguirá adelante. Pero detrás del desconcertante tumulto del movimiento presente uno puede escuchar, como trovadores medievales subiendo una montaña distante, una nueva pastoral. La melodía promete una segunda naturaleza en la que
vida y tecnología juntas dispersen propágulos de multiespecies terrenas por otros planetas y estrellas. Desde una perspectiva verde, un vivo interés en la alta tecnología y la alteración del
ambiente global, tiene perfecto sentido. Hay una nueva conciencia. La humanidad está en
pleno apogeo. La Tierra va a sembrar semillas”. La filosofía presocrática es caracterizada
como filosofía de la realidad externa y como cosmología. Del mito a la filosofía no hubo un
salto brusco; fue más bien una pérdida de fuerza del elemento mítico ante la creciente
racionalización. Este proceso en el pensamiento griego tuvo su cuna en Jonia.
A los jónicos les impresionó profundamente el hecho del cambio, del nacer y del morir. Es
grave error suponer que los griegos fueron felices y despreocupados hijos del sol: fueron también muy conscientes del aspecto sombrío de nuestra existencia sobre este planeta. Si
bien es un hecho el ideal griego de la moderación y la armonía, es también un hecho la
voluntad de dominio. Con respecto a esto, hay dos vertientes en la cultura de Grecia, la de la moderación, del arte, de Apolo y por el otro lado, la del exceso, de la afirmación
desenfrenada de sí mismo, la de Dionisos.
La filosofía jonia se aboca a tratar de elucidar qué es ese elemento primordial enfatizando la
idea de unidad, y de algo primigenio que siempre permanecía a pesar de los cambios. Vale
decir que no podían concebir la diferencia entre dos sustancias (espíritu y materia). Si bien
partían de los datos de los sentidos, fueron más allá de las apariencias. Alejándose cada vez
más de lo mítico, trataron de diferenciar entre lo divino, lo natural y lo humano, siempre sosteniéndose en un monismo, como por ejemplo, en la indistinción entre evolución y
estructura, un principio original está en el fondo, siempre presente; o bien como una ley evolutiva es a la vez una ley estructural (el logos de Heráclito). Esta ley es por primera vez
investigada racionalmente. Algunos autores identifican la physiscon la sustancia primaria o la materia de la cual todo se hace.
El sustantivo φυσιζ physis está relacionado con el verbo φυω que quiere decir
“engendrar”, o sea que su primer significado es “lo que engendra”. Esta noción difícilmente
pudo haber sido forjada por la mera experiencia sensorial. Implica una intuición metafísica,
que –al decir del doctor Cappelletti- tiene antecedentes en antiquísimas ideas religiosas o
mejor dicho mágico-místicas.
La ruptura entre mitología y filosofía se da porque estos filósofos jónicos no se conforman
con dejar librada esta intuición de la physis al mito y tratan de explicarla a través de la
experiencia, de la analogía y de la dialéctica.
Es importante hablar de Heráclito de Efeso (-545/480) ya que es quien introduce la idea del “logos” como principio ordenador de la physis. Al observar el flujo de la conciencia advierte que el mismo puede ser descrito como una sucesión de actos creadores. La physis en este
caso –según el doctor Cappelletti- es concebida sobre el arquetipo de la psykhé (alma). El elemento material que elige Heráclito para designar a la physis, es el fuego (πυρ) y esta
elección no es azarosa, ya que el fuego es el que cambia los distintos estados de la materia (tierra, agua, aire). Por acción del fuego se cambia uno en otro.
El fuego heraclíteo es principio del cambio y del devenir y al mismo tiempo es sustancia que subyace a todo cambio y a todo devenir. De esta manera Heráclito no excluye la pluralidad,
sino que el fuego por su propia naturaleza, la exige, vale decir que el fuego representa la necesidad ontológica que lo uno originario tiene de multiplicarse. En su encenderse y apagarse según medida, el fuego recorre un camino cíclico “Vive el fuego la muerte de la tierra y el aire vive la muerte del fuego; el agua vive la muerte del aire; la tierra, la del agua” (Frag.22-B-76ª).
El monismo dinámico de Heráclito se verá enfrentado al monismo estático de la Escuela de
Elea. El epicentro del filosofar pasa otra vez del Oriente (Efeso) al Occidente del mundo griego (Elea). Jenófanes de Colofón (-565/470), su primer representante piensa a la physis por primera vez como un Ser único, eterno e infinito y que además es absolutamente
inmóvil, ajeno a todo cambio.
Este sería el primer paso hacia la brecha entre la unidad del ser y la pluralidad de los seres.
Se inicia el divorcio entre lo uno, inmóvil, inteligible y lo múltiple, cambiante, sensible, que
eventualmente puede verse como un antecedente a la escisión platónica cuerpo-alma.
Parménides (-515/440) toma esta idea del Ser y su originalidad consiste en darle a esta idea una base estrictamente lógico-ontológica: “el Ser es el Pensar”
En la segunda mitad del Siglo- V el pensamiento se desplaza desde la naturaleza hacia el ser humano como miembro de la Polis. La nueva época tiene, filosóficamente hablando, un
carácter antropológico, ya que hace objeto de estudio al hombre mismo. Frente a las
convicciones humanas fundadas en la tradición y la fe, los sofistas tratan de llegar a
conclusiones racionalmente aceptadas, dudando de las creencias y costumbres morales de sus conciudadanos. Fueron los sofistas los que introdujeron en el pensamiento dos elementos que nos llegan en la postmodernidad: el relativismo y el escepticismo.
Platón (-428/348) es conocido como el padre de la metafísica porque el punto fundamental
de su doctrina es el dualismo metafísico. Divide la realidad en dos mundos: el mundo
inteligible y el mundo sensible, adjudicándole valor de verdad al primero y prácticamente,
anulando al segundo. En el ámbito de lo antropológico esta división está representada por el
cuerpo y el alma. Desde el ámbito de lo gnoseológico, por la doxa (opinión), y la episteme (conocimiento verdadero). Aquí cabe hacer una aclaración acerca de que el conocimiento
verdadero para la antigua Grecia tenía dos partes: el logos(razón) y la gnosis(intuición). No
sería ilógico pensar que Platón hubiera incluido ambas partes y que la historia de occidente se quedó solamente con el logos, el tópico más cristalizador y dominador de la mente.
Aristóteles (-384/322), en cambio no estuvo de acuerdo con su prestigioso maestro en el punto del dualismo. Negó la dualidad de un mundo cualitativamente diferente, superior y más verdadero que este mundo inmanente. En cambio le dio una fuerte atención a la
realidad natural y a la ciencia. De cualquier manera, ya estábamos divididos. Para tratar de
subsanarlo insistió en la teoría “hile mórfica”, por la cual todo lo que existe está constituido
por dos principios: hile (materia) mórfos (forma): en el ser humano, cuerpo y alma. Fue el gran organizador de las ciencias y con su pensamiento horizontal fragmentó a las mismas,
como que cada una es independiente y autónoma con respecto a las otras.
En el medioevo, el cristianismo no trató de interpretar al mundo a través de proposiciones
teóricas o prácticas, sino de transformar el sentido de la existencia, pues alteró el vínculo “ re -ligador” que une al mundo con Dios.
El hombre griego se encuentra con la Naturaleza eterna y siempre joven, fuente incesante de existencia, morada del hombre y de los dioses inmortales. El cristiano, por el contrario cree que el mundo está implantado en la nada y que salió de su radical y constitutivo nihilismo por la acción creadora de Dios.
La consecuencia que se sigue es que el universo cristiano tiene un profundo sentido histórico. Hay un origen absoluto: la creación, un acontecimiento central: redención y un fin
o consumación. El tiempo, dentro del cual se lleva a cabo la existencia, tiene una dirección
irreversible y única, contrariamente a las antiguas teorías del retorno cíclico en las que el
tiempo no tenía un comienzo.
Con respecto a la existencia de Dios como sustancia divina, ahora se convierte no solo en ordenador sino en “testigo” del cumplimiento de ese orden, lo cual trae como consecuencia
el traspaso del sentido de la “ignorancia” de Platón, en el “pecado” del cristiano, dando
origen así a un nuevo concepto. A partir de ahora una nueva clasificación aparece que recae
sobre la humanidad: virtud-pecado.
Durante la época moderna, en el Renacimiento tardío, las condiciones sociales y culturales
van a dar lugar a un cambio que Ortega y Gasset llamó “la anábasis” de Descartes. El
universo deja de ser considerado como un conjunto de sustancias con sus propiedades y poderes y es visto como un flujo de acontecimientos que suceden según leyes. Esta nueva
concepción del mundo que ya es patente en hombres como Galileo o Bacon, no es metafísica
o finalista, sino funcional y mecanicista. No se van a buscar las respuestas del “por qué” o
“para qué” de los fenómenos, sino el “cómo”. Los nuevos ojos de la ciencia están transidos
de ansias de poder. La mirada del hombre va a cosificar y a reducir a objeto a la naturaleza. El libro de la naturaleza estaba escrito en lenguaje matemático. Galileo cambia las
explicaciones físicas cualitativas de Aristóteles por las formulaciones matemáticas de Arquímedes.
Al mismo tiempo las condiciones sociales engendradas por el capitalismo incipiente va a dar el marco social para este nuevo poder y va a aparecer una nueva clase social urbana: la burguesía, con su gusto por una cultura más secular y positiva. La nueva ciencia señala una
actitud tecnológica del conocimiento. Las hipótesis causalistas van a tener aquí una
connotación funcional en un sentido mecanicista más que finalista. Estas hipótesis causalistas
vendrán determinadas por el análisis experimental. Toda la ciencia hasta Galileo suponía que
el entendimiento gira en torno a las cosas. Galileo invertirá este supuesto y sostendrá que las
cosas giran en torno al entendimiento. Es lo que Kant llama la “revolución copernicana en la
ciencia”. Así se inventa otra forma de vida. Es muy audaz reducir las diversas corrientes del Renacimiento: las disquisiciones de Maquiavelo nada tienen que ver con la de los humanistas cristianos. La Reforma abre una brecha que en vano el Concilio de Trento trató de reparar. La imagen del mundo ya no vuelve a ser la misma: la Inquisición va a intentar detener el
movimiento, pero las ideas están en pleno vuelo.
Con Descartes (1596/1650) se inaugura la época del subjetivismo. El Yo Pienso como
legitimación última de la verdad va a plantear la distinción ontológica entre dos esferas: el
hombre como sujeto (el contenedor del pensamiento) y el mundo como objeto. Descartes cambia el punto de partida de la filosofía: ya no será el mundo sino el pensar y cambia el
sentido de la verdad: ya no será lo que se muestra como mundo, sino la idea clara y distinta
de las cosas. Pero cuando a la certeza última del Yo Soy, le sigue la pregunta ¿qué soy yo?, surge con una intuición intelectual, la respuesta: “Yo Soy una cosa que piensa” (rescogitans) y a su vez el mundo pasa a ser la “res extensa”. La res cogitans tiene su legalidad en sí
misma, mientras que la legalidad de la res extensa, Descartes la hace descansar en Dios.
Definitivamente Descartes instaura el paradigma: materia frente a espíritu. Nuevamente en la
historia de la filosofía reaparece con nueva fuerza un dualismo que ya habíamos visto y que
había interpelado a la ética: ¿Se puede cosificar alguna de las partes del hombre si el hombre
está hecho de dos cosas totalmente distintas? De Descartes proviene la concepción filosófica
del cuerpo como inmensa y complicada máquina. Ya no es el cuerpo principio de
individuación, ni es el cuerpo como semilla que al desarrollarse dará como flor el alma y
como fruto la inteligencia. El cuerpo es máquina con elementos físicos, regido por leyes
matemáticas. En otro nivel funciona el alma, con superioridad sobre el cuerpo y que es el
asiento del cogito .
Este racionalismo atravesó no solamente el pensamiento científico, sino también la
dimensión axiológica. El Cogito hizo que la razón fuera “más valedera” que la materia y
provocó la conclusión de que ambas cosas eran básicamente distintas. Afirmó que el
concepto de cuerpo no incluye nada que pertenezca a la mente y viceversa.
Los efectos de separar de manera dicotómica el cuerpo y la mente, el pensamiento y la
materia, se reflejan en todos los aspectos de nuestra cultura y llegamos así a la idea del
universo como sistema mecánico, formado de partes aislables y aisladas que a su vez podían
reducirse a compuestos básicos, cuyas propiedades estarían siendo la causa de los fenómenos
naturales. Estaría operando así el paradigma de la simplicidad y del reduccionismo.
La Subjetividad de Occidente es hija del “cogito ergo sum” cartesiano, y lo que es
significativo es que Descartes haya usado la palabra “pienso” en lugar de “siento”,
característica ésta que expulsó al sentimiento de la esfera de la subjetividad, lo cual atravesó
toda la filosofía occidental. Así, el sujeto occidental cartesiano y kantiano quedó equiparado a
la Razón fuerte, enalteciéndose categorías como el saber teórico y el saber pragmático, la
verdad científica, la lógica, el raciocinio, lo intelectivo, lo cognitivo, lo academicista, lo
positivista…
De las otras esferas de la subjetividad, la esfera volitiva acompañó a esta Razón fuerte de la
mano de Kant y su “deber ser”. El aporte de la tradición del Utilitarismo completó el
pragmatismo del pensamiento occidental
La subjetividad moderna se configura a partir de estos rasgos con omnipotencia en el saber sobre el mundo exterior y sobre el “yo”. Se producirá además, el descubrimiento de un poder que surge como signo mismo de la modernidad: la creencia en el progreso indefinido hacia el ideal de lo humano hacia la perfección, que en principio es indefinida, y que se dirige hacia
el imperio de la Razón, y hacia el uso y el abuso de la tecnología sobre la naturaleza.
Lo que en el postmodernismo se llamó la desconstrucción del Sujeto, se remonta a Hegel
cuando destituye al Sujeto de la “titularidad” de lo Absoluto, narrando la historia de cómo el
“Otro”, la sustancia social, desbarata el proyecto de que el Sujeto sea el que contenga la
esencia o la sustancia. Para Hegel no hay tal “Sujeto Absoluto” ya que pone todo el acento en lo social.
Ese Sujeto fuerte de la modernidad no estaba constituido solamente de Razón y de Voluntad;
estaba atravesado por una categoría que acompaña a la cultura occidental desde sus más
remotos orígenes míticos: la Hybris. Este concepto griego puede traducirse como “desmesura”, y encierra la idea no solo de un excesivo orgullo, sino también de un desprecio
temerario hacia el espacio natural y hacia el espacio ajeno unido a la falta de control sobre los propios impulsos, inspirado por las pasiones exageradas e inútiles que se adosan a la
subjetividad y conforman un ego hipertrofiado, como un cáncer, siendo éstas las únicas y
olvidadas representantes del emocional del ser humano. Pero ellas eran pasiones, vale decir, emociones atravesadas por la máscara del ego, la construcción por excelencia del hemisferio
izquierdo, y que nos impide vernos como parte de una totalidad. Si pudiéramos tomar
distancia de la “egoicidad” y pudiéramos desactivar la capacidad de vernos como entidades
separadas, podríamos aprender, más que a pensarnos, a sentirnos, a interpretar el
surgimiento de las emociones, no para ahogarlas sino para entenderlas y atravesarlas.
Existe una vieja tradición de origen sufí que describe las nueve máscaras pasionales del ego:
la ira, el orgullo, la envidia, la avaricia, el miedo, la gula, el odio y la holgazanería, tema éste
que se repite también en la tradición cristiana en los siete pecados capitales. Esta hybris, entonces, conforma el Sujeto Occidental, aparentemente contradiciendo la mesura de la
razón, pero en realidad, es una alianza muy fuerte que hacen estas dos categorías con todos
los valores plenos como la victoria, la competencia, el liderazgo, el logro de la supremacía, en
pocas palabras, el uso del poder.
Siguiendo con el derrotero de esta desconstrucción del Sujeto, de la Razón y de la Hybris,
nos encontramos con los filósofos que introdujeron el pensamiento oriental, pensamiento
éste que no ha tomado distancia de la naturaleza, y que intentaron transpolar categorías de
una tradición a la otra. Una consecuencia de este intercambio, es una extensión de la Razón
hacia lo irracional, que sería una búsqueda de nuevos caminos, no una ausencia de razón.
Pero mientras estos filósofos, basándose en categorías orientales, atacaban todo lo que de cristalizado y dogmático tiene la Razón Occidental, dejaron intacta a la Hybris, como lo demuestra el surgimiento del Nacional Socialismo que tomó como ideólogo a Nietzsche y
como protagonista a Heidegger. Estos filósofos, al incursionar en el pensamiento oriental, dieron con una categoría –no ajena a occidente, a través de Aristóteles- cautivante por su misterio y su poder: la “Energeia” y la mixturaron con la Hybris suponiendo como resultado
el superhombre nietzscheano. Aunque el origen etimológico de nuestra moderna palabra
“energía” deviene de aquélla, el término ha evolucionado tanto que los dos conceptos se
distancian uno del otro. Mientras “energía” es una magnitud física, “energeia” es una realidad
actuante que extiende su campo de acción tanto dentro como fuera del ser humano.
En este sentido, los tres filósofos “des constructores” de la Razón fuerte, que es lo mismo
decir el sujeto sapiente cartesiano, más importantes fueron: Schopenhauer, Nietzsche y
Freud, quienes adoptaron distintos nombres para esta concepción hecha de “Hybris” y de
“Energeia”. Así, el primero, le llamo “voluntad de vida”. La versión de este concepto se
refería al impulso ciego de la vida misma que anida en la parte instintiva de todo ser
humano…“La voluntad como cosa en sí jamás está ociosa, jamás se fatiga”…
Nietzsche, fue el más ferviente discípulo de Schopenhauer. Toma especialmente la dicotomía
dionisíaco-apolínea. Su frase fetiche fue “voluntad de poder”. La voluntad de poder, fuerza
vital, energética, psicológica, libidinal, cultural o espiritual –según las distintas lecturasimpulso irresistible que movía a los hombres, no podía considerarse más que la clave última
de toda realidad humana. Contra ella no era posible oponerse; por lo tanto, los valores de la moral fuerte kantiana de la época carecían de fundamento. Freud introduce la fuerza del
inconsciente como una suerte de sustancia, entidad autónoma y poderosa (como una persona
dentro de la persona), que determinaría la conducta humana. El sueño sustituía a la vigilia, el
dejarse llevar de la libre asociación reemplazaba a la reflexión, y la razón se constituía en un
obstáculo para la espontaneidad instintiva que era el medio para el conocimiento de uno
mismo.
Hasta aquí hemos visto surgir un sujeto omnipotente y fuerte, y lo hemos visto deconstruirse. En la primera instancia, el tratamiento hacia la naturaleza fue del orden de la depredación y
veremos a ésta llegar a su más alto grado a través de la razón instrumental devenida en
Ciencia.
A fines del Siglo XVIII tuvo lugar un acontecimiento que conmovió las bases de la estructura
social: la Revolución Francesa. La sociedad europea entró en crisis y tomó conciencia de sí
misma. Problematizó su modo de organización y su modo de comprensión y por lo tanto los hombres se enfrentaron a la necesidad de una nueva reordenación social. Para el Siglo XIX
nos encontramos, por un lado con una ciencia natural asentada fuertemente sobre los pilares de la tradición cartesiana y una ciencia humana incipiente, con pretensiones científicas.
La filosofía que continuó basada en una tradición de ciencia natural y por lo tanto
fuertemente galileana, fue la del Positivismo Decimonónico, representado típicamente por Comte y Stuart Mill. Sintetizando sus rasgos característicos son cuatro: 1) monismo metodológico, o sea unidad de método y homogeneidad doctrinal; 2) modelo o canon de las
ciencias naturales y exactas (fisicomatemáticas); 3) explicación causal como característica de
la explicación científica, vale decir la búsqueda de leyes generales hipotéticas de la naturaleza
que subsuman los casos o hechos individuales; 4) interés dominador del conocimiento
positivista. El objetivo de este interés es el control y dominio de la naturaleza; su peligro,
reducir a objeto todo, hasta el mismo hombre. Este positivismo científico va a pretender
hacer ciencia social, histórica y económica. A esta concepción positivista se va a enfrentar, en
Alemania, una tendencia contraria. La vamos a denominar “Hermenéutica” por la que se
entiende el arte de interpretar y comprender conjuntos simbólicos hablados o escritos. Habrá
distintos pensadores de la misma tendencia, pero a todos los va a unificar dos características,
el historizar la razón y el oponerse a la filosofía positivista, sobre todo a la reducción de la
razón instrumental.
Para Droysen el ser humano expresa su interioridad mediante manifestaciones sensibles. Este fue el primero que utilizó la distinción entre “explicación” y “comprensión”, adjudicando el
primero a las ciencias naturales y el segundo a las ciencias humanas. El concepto de la comprensión como metodología de la hermenéutica, fue variando en distintas formas
(empatía, reconstrucción del sentido, etcétera). Dilthey afirmaba que el sujeto kantiano de la
razón pura, es un individuo por el cual no corre sangre sino savia filosófica y por eso la
epistemología kantiana –según él- solo servía para legitimar y justificar el conocimiento de los
objetos naturales. Sin embargo, el conocimiento humano no se agota allí, ya que la vida
humana está llena de actos particulares y contingentes, los cuales serían comprendidos por
las ciencias del espíritu. Para esto –siguiendo a Hegel- habría que “historizar la razón” o sea
introducir la dimensión histórica en la conciencia humana, ya que esta no es solamente una
razón pura, repleta de elementos apriorísticos, sino que también es memoria, sentimiento,
voluntad, tradiciones.
En el período que se encuentra entre las dos guerras, hay un resurgimiento del positivismo
en el cual el desarrollo de la lógica se vinculó con aquél y dio como resultado, en la década
de los años ’20, el denominado “Positivismo Lógico”. A esta corriente pertenecen B. Russell, el primer Wittgenstein y el denominado neopositivismo del Círculo de Viena. Esta tendencia
sostenía que únicamente los enunciados sometidos a la lógica y la verificación empírica,
pueden ser calificados como científicos.
Desde la filosofía analítica, el pensamiento filosófico y las ciencias humanas son rechazadas
como pseudociencias. Solamente el racionalismo crítico de Popper arremete contra el positivismo lógico del Círculo de Viena. Es fácil ver cómo esta filosofía analítica seguía
basándose en el paradigma de la simplicidad y de la reducción cartesiana.
La ciencia en cambio, para Popper, deja de ser un saber absolutamente seguro para ser hipotético y conjetural y sostiene este autor, que no se puede pretender evitar el lenguaje
ordinario y con ello los conceptos “no claros”. La ciencia no es posesión de la verdad, sino
búsqueda incesante y crítica de la misma. Y además, éste sería el método al que se
someterían también las ciencias sociales humanas.
Lo que se le escapa al positivista es que su ver y su percibir está mediado por la sociedad en
la que vive. Si niega esta mediación de la totalidad social del momento histórico que vive, se condena a percibir apariencias.
La Teoría Crítica hace notar que no se puede desvincular la lógica de la ciencia del contexto
“sociopolítico económico” y por lo tanto del marco ético donde se asiente tal ciencia. Las
decisiones morales estarán íntimamente conectadas con los factores existenciales y sociales y van a penetrar hasta la estructura misma del conocimiento. Quien olvida este entorno, que Adorno y Horkheimer denominan “totalidad social”, desconoce no sólo las funciones sociales
que va a poner en juego su teorización, sino la verdadera objetividad de los fenómenos que
analiza.
Así como para Popper el método científico es el deductivo, para la filosofía crítica, la raíz del
método científico es la razón crítica, pero si para Popper “crítica” es confiar en la fuerza de la razón, para Adorno el racionalismo crítico es el interés emancipador, el “interés por la
supresión de la injusticia social”.
El carácter no ortodoxo de esta teoría es además desideologizador y desenmascara la
injusticia como camino, como vía negativa para hacer aflorar la verdad en una deseada
sociedad futura.
La Escuela Epistemológica Francesa tiene dos vertientes, la de la crítica de la ciencia, cuya
principal motivación es la crítica al dogmatismo y la de la epistemología interna a la ciencia, para la cual la ciencia crea filosofía.
En el pensamiento crítico, podemos remontarnos como antecedente a Henri Bergson. En su
crítica vinculó a la metafísica con la biología, la psicología, la física. Para este filósofo, la
filosofía debe participar del progreso de la ciencia porque ésta tiene un origen filosófico.
Otro filósofo enrolado en esta tendencia es Gastón Bachelard, quien se basó en una original
concepción de la dialéctica, en la que cada noción se clarifique de manera complementaria desde dos extremos diferentes, empirismo y racionalismo. Para Bachelard la filosofía del
conocimiento es una filosofía abierta en la cual el “no” a la experiencia anterior dado por la
nueva experiencia, es aceptado para dar al conjunto la dialéctica necesaria para hacer surgir un nuevo resultado. En esta dialéctica, los opuestos no se destruyen sino que se
complementan. El “no” de Bachelard no es de evolución, sino de revolución; no se refiere a
registro de datos, sino a interpretación, valoración y juicios; parte de criterios históricos que
pide a la actualidad de las ciencias; no traza demarcaciones estáticas, sino inestables, sujetas
a transformación; no explica la acumulación de la verdad, sino que narra los infortunios de la
razón en la rectificación del error.
Así llegamos a la filosofía contemporánea con una epistemología y una ética que parecen
dominadas por tres cuestiones sobresalientes: 1. La crítica de la verdad objetiva, universal y
necesaria, pasa a dar lugar a múltiples interpretaciones. 2. La crítica del totalitarismo y de las
políticas revolucionarias que habrían desembocado en desastres, pasa a dar lugar a
democracias consensuales. 3. La crítica de un concepto universal de Bien, dejando de lado la
pluralidad de opiniones, pasa a criterios éticos de aceptación y convivencia pacífica.
Si ya no existe una verdad que sea válida para todos, pareciera que estamos llegando a la
necesidad de un paradigma de complementariedad y de adición más que a uno de supresión
y de reducción. Nos inclinamos por el paradigma de la complejidad, que como su nombre lo indica va a intentar integrar lo más posible lo multidimensional de la dimensión humana.
Complejidad no quiere decir completitud, ya que como lo indica la frase de Adorno “la
totalidad es la no verdad”. O sea que parte del reconocimiento de un principio de
incompletitud y de incertidumbre. Este pensamiento complejo consiste en una tensión
permanente entre la pretensión de un saber no fragmentado y el reconocimiento de la
inevitable incompletitud de todo conocimiento. Pero las verdades profundas y antagonistas entre sí son complementarias. La complejidad se puede definir como un “tejido” de
elementos heterónomos ineluctablemente ligados.
Indudablemente que esto nos remite a todas esas ideas de las cuales hablamos al principio cuando tratamos de elucidar la verdad de los presocráticos. Para el paradigma de la
complejidad, la vida no es una sustancia “sino un fenómeno de “auto eco organización”
extraordinariamente complejo que produce la autonomía”.
Por lo que vemos, los fenómenos sociales y antropológicos no podrían responder a factores
de inteligibilidad menos complejos que aquellos de los fenómenos naturales. En este tejido
de la complejidad, por lo tanto, donde hablamos de “incertidumbre” de contradicción,
indefectiblemente vamos a estar compenetrados con los comportamientos morales y éticos.
Morín sostiene que “aún somos ciegos al problema de la complejidad, porque esa ceguera es
parte de nuestra barbarie”. La barbarie de las ideas. En este paradigma vamos a necesitar de todos y de cada uno de los elementos que vimos ponderados en cada una de las filosofías
que nos antecedieron (physis, eudemonía, teleología, fragmentación, autonomía, sistema, historicidad y acción). En el dinamismo de todos estos elementos encontramos contingencia,
azar, iniciativa, decisión, conciencia de las derivas y de las transformaciones, estrategia y
también programa. Esta teoría piensa que la razón es evolutiva y que aún va a evolucionar y
que hay una perfecta complementariedad entre ella y la intuición. Conceptos e intuiciones
mudan entre sí y se intercalan “el concepto de trabajo, de origen “antropológico sociológico”
se ha vuelto un concepto físico.
El concepto científico de información que surgió del teléfono, se ha vuelto un concepto físico
y ha migrado luego a la biología, donde los genes se han vuelto portadores de información”.
Y vamos más lejos aún al decir que el concepto de información vuelve casi metafísicamente a
las emociones, ya que es la inteligencia emocional la que concentra la mayor cantidad de información. ¿Qué quiere decir barbarie? Quiere decir que las teorías no saben convivir unas
con otras y que los humanos tampoco sabemos convivir en el plano de las ideas. Es, por lo tanto, tiempo de intentar esta empresa, tanto en una alianza entre nosotros mismos, como comunidad y como totalidad con el resto del planeta. Como dice Maturana “el conocimiento
del conocimiento obliga” y la obligación es la de estar permanentemente atentos a un autocuestionamiento contra la tentación de la certeza y contra la tentación del olvido del
amor. ¿Por qué amor? Porque éste es la clave para la comprensión de que el mundo es aquel que traemos a la mano con otros, y que por lo tanto tal perspectiva habrá de ser lo más
abarcadora posible. Nos lo demuestra la vida, esa fuerza vital de la que hablaron los presocráticos, los filósofos de la sospecha y los biólogos en nuestros últimos tiempos.
Para concluir nuestro discurrir sobre el paradigma de la complejidad, destacamos que para éste todo acto humano tiene sentido ético, ya que la acción misma imprime legitimidad a la
presencia del otro.
Al hablar de ética contemporánea volvemos a tocar el tema de la desconstrucción del Sujeto.
En los países en vías de desarrollo se encuentra que este indicador es sinónimo de seres
humanos ignorados, despreciados, negados y devenidos invisibles.
Deconstruir es descentrar (eidos, arjé, telos, sustancia…). Desde la Filosofía podemos seguir
discurriendo indefinidamente, pero que la deconstrucción del Sujeto se transforme en
moneda corriente en el discurso es peligroso, al plasmarse en el inconsciente colectivo, ya que si el sujeto deja de existir, dejan de existir sus derechos y su dignidad. En nombre del relativismo ético cualquier actitud que lleve a pensar en contra de la integridad y dignidad
del ser humano puede ser racionalizada y admitida. En nuestros tiempos, esta categoría es
tomada por los estructuralistas y postestructuralistas para los cuales el Sujeto sería nada más
que un constructo-social; lo que llamamos subjetividad, no es más que parte del tejido
relacional, y los construccionismos sociales enfatizan el papel determinante que posee lo lingüístico, lo discursivo y el significado en la constitución de nuestros mundos mentales, con
lo cual se estaría priorizando el “yo”, en plena crisis del “si-mismo” o del Sujeto. La muerte
del Sujeto fascinó a estos filósofos del postmodernismo. Hoy, el Sujeto es construido desde los medios de comunicación manipulados por el Poder. Tal Sujeto “des sujetado” no puede ni sabe tratar bien a su ambiente.
No obstante, podemos nombrar éticas de la complejidad que tratan de revertir estas
situaciones... Alansdair MacIntyre desarrolla el “paradigma de la comunidad”. La justicia para
este filósofo no tiene que ver con la igualdad, sino con que cada uno reciba lo que le
corresponda en función del rol social que encarna. Hans Jonas es el filósofo que defiende los
derechos humanos sosteniendo como primer principio la responsabilidad ante las generaciones futuras.
Llegando un poco más lejos, tanto Badiou como Negri, formulan una ética de la solidaridad.
Esta ética sostiene que el otro no sería un límite, sino la condición misma para la realización
de mis deseos. Vale decir, que aquella voluntad de poder que habíamos visto en Nietzsche,
puede aumentarse con la cooperación, con lo cual la solidaridad lejos de ser un imperativo altruista sería la condición de la realización de mi deseo. En este caso, la comunidad no se
confundiría nunca con la etnia o con la hybris. Sustituir estas morales por una ética de la
amistad o de la solidaridad, cuyo exponente fue Epicuro, tres siglos antes de Cristo, fue retomada y realzada por Michel Foucault en sus últimos escritos. Foucault insistió en el tema
relacional, por ejemplo, de la homosexualidad con respecto a la comunidad diciendo “lo que
inquieta a las instituciones son esas relaciones que hacen cortocircuito y que introducen el amor allí donde debería existir la ley, la regla o el hábito”. Y aquí el término relación hace
referencia a los vínculos activos de un determinado grupo, que por molestar a lo instituido, es lo que queda descalificado.
La amistad entonces, es entendida como deseo de comunidad. Y según Foucault, la amistad
o la solidaridad son esos vínculos irreductibles a las mediaciones jurídicas, a la ley, a la regla
o a la institución.
El desarrollo de la humanidad ha encontrado en su camino dos tipos de errores, el error vago, evasivo, frente a una información genética que eventualmente puede dispararse hacia
una evolución en mayor grado de complejidad y el error engañoso que acarrea fracaso y
desastre. Esto se cumple tanto en epistemología como en ética. La ciencia se introduce en el
juego de la conciencia y juegan dialécticamente. Según Morin, estamos en vísperas de un
nuevo nacimiento del hombre o de un nuevo advenimiento, que según Badiou sería un
nuevo acontecimiento. En ese nuevo acontecimiento se fusionan en el “sapiens demens” el lenguaje, la cultura, el mito, la magia, la desmesura y el desorden, o sea Apolo-Dionisos.
La ruptura del pensamiento binario que sólo había conseguido reducir lo sensible, a una pura
física sin alma y lo inteligible a una pura lógica sin cuerpo, da paso al reencuentro con el
paradigma otrora perdido. Desplazar la intuición del marco de una ética y de una
epistemología, no solo es quitarle al hombre la mitad de su humanidad: es quitarle también
una porción de su racionalidad, aquélla que dice somos uno: “lo vivo”. Para sintetizar, una
ética de la ciencia cognitiva, es una ética de mínimos, o sea que se basa en pautas
comunicables y al mismo tiempo compatibles con todas aquellas que no están en abierta
contradicción con ella. Para esto hay tres principios fundamentales: 1. Pensar por uno mismo (principio de autonomía de la moralidad) 2. Imaginarse en el lugar del otro a la hora de pensar (principio de reciprocidad) 3. Pensar de forma consecuente con uno mismo (principio de reflexividad).
Estos tres principios los podremos aplicar para vivir en sintonía con nuestra propia especie,
pero la alianza quedará definitivamente sellada cuando los podamos aplicar más allá de
nosotros mismos y seamos capaces de ver nuestra interdependencia con todas las demás
formas de vida, así como su belleza. Somos los únicos seres capaces de “erotizar” la realidad,
y solamente usamos esa capacidad para nosotros mismos; pero estamos condicionados por la historia y esa historia está compartida con otros seres.
En algún momento, será posible dejar de lado la obsesión cultural con los seres humanos que
raya mucho en la locura del ego del mito de Narciso. Podríamos pensar este paradigma de la
Complejidad como la ciencia de Gaia.
Al terminar este trabajo y al haber recurrido a los filósofos y epistemólogos tradicionales no
nos olvidamos de Krishnamurti, Jung, Fritz Perls, Reich. Ellos hicieron pensar a la humanidad como un tejido vivo e hicieron abrir el cerebro y abrir el cuerpo para que lo que deba circular, circule; para que lo que deba unirse, se una; y tomar conciencia finalmente de que, para vivir debemos entregar la vida. Esta actitud encuentra un eje común en una gran
categoría que surge del paradigma hermenéutico y que es la empatía, siendo esta la
capacidad de poder situarse en el lugar del Otro. Esta categoría surge del accionar humano
como tal. En este accionar Habermas distingue entre “acción instrumental” y “acción
comunicativa”. El fundamento de este tipo de acción libre y responsable es la capacidad de comprensión que poseen todos los hombres. La acción comunicativa es la condición esencial
de la sociabilidad humana. Finalmente el ideal de todas las acciones humanas es convertirse en acciones comunicativas, o sea en acciones que sean el fundamento de una sociedad en libertad. Lo que ocurre realmente es que la mayoría de las acciones humanas son acciones
instrumentales, ya que el ser humano tiende a tomar a los otros hombres y a la naturaleza como medio para realizar sus fines. En este caso estamos ante una relación alienante que es
preciso superar.
Ahora bien, toda acción comunicativa va a tener base en el aspecto emocional. “No hay
acción humana sin una emoción que la funde como tal y la haga posible como acto (…) se
requiere de una emoción fundadora particular, sin la cual ese modo de vida en la convivencia
no sería posible. Tal emoción es el amor. El amor es la emoción que constituye el dominio
de acciones en que nuestras interacciones recurrentes con otro, hacen al otro un legítimo
otro en la convivencia (...) finalmente, no es la razón que nos lleva a la acción sino la
emoción.”
A propósito de estos temas de emociones, virtudes y valores, vamos a citar un pequeño texto
de Tzvetan Todorov, acerca de un pacto ignorado que había llevado a cabo el hombre con el diablo. Éste le dice al hombre:
“Si quieres conservar la libertad, deberás pagar un triple precio separándote primero de tu Dios, luego de tu prójimo y finalmente de ti mismo (...) No más
Dios: no tendrás ninguna razón para creer que existe un ser por encima de ti,
una entidad cuyo valorsería superior al de tu propia vida; ya no tendrás ideales
ni valores: serás un materialista.
No más prójimo: los demás a tu lado y nunca más sobre ti, seguirán existiendo
por supuesto, pero ya no contarán para ti. Tu círculo se restringirá: primero a
tus conocidos, luego a tu familia inmediata, para limitarse finalmente a ti mismo;
serás un individualista.
Intentarás entonces agarrarte a tu yo, pero este estará a su vez amenazado de
dislocación. Te atravesarán corrientes sobre las cuales no ejercerás ninguna
influencia; creerás decidir, escoger y querer libremente, cuando en realidad esas
fuerzas subterráneas lo harán en tu lugar; de modo que perderás las ventajas
que, a tus ojos, parecían justificar todos esos sacrificios. Ese yo no será más que
una colección heteróclita de pulsiones, una dispersión al infinito; serás un ser
alineado e inauténtico, que no merece que lo sigan llamando sujeto.”
Según el autor: “hay tres familias que comparten el rasgo común de aceptar y aprobar el advenimiento de la modernidad; (...) estas familias modernas son la de los humanistas, la de los individualistas y la de los cientificistas (…) Para los cientificistas, no hay que pagar un precio por la libertad, porque no hay libertad en elsentido en que se la entiende habitualmente, sino solo un nuevo dominio de la naturaleza y de la historia, fundado en el saber. Para los individualistas no hay que pagar un precio porque lo que hemos perdido no merece que se lo eche de menos y porque nos arreglamos bastante bien sin valores comunes, sin lazos sociales molestos y sin un yo estable y coherente. La última gran familia, los
humanistas, piensan por el contrario que la libertad existe y tiene un enorme valor, pero aprecian a sí mismo esos bienes que son los valores compartidos, la
vida con los demás hombres y el yo que se considera responsable de sus actos;
por lo tanto, pretenden seguir gozando de la libertad sin tener que pagar un precio por ello. Los humanistas toman en serio las amenazas del diablo, pero no
admiten que se haya establecido alguna vez un pacto con él y a su vez, le lanzan
un desafío.
Hoy en día, en nuestra parte del mundo vivimos todavía bajo el peso de las
amenazas del diablo. Amamos nuestra libertad pero también tememos tener que
soportar un mundo sin ideales ni valores comunes, una sociedad de masas poblada de solitarios que ya no conocen el amor; sospechamos secretamente, a menudo sin saberlo, la pérdida de nuestra identidad. Estos temores y
cuestionamientos son siempre nuestros. Para afrontarlos, he escogido desplazarme hacia la historia del pensamiento. He querido, para defenderme de esas amenazas recurrir a la ayuda del pensamiento, de los autores de esta época
un tanto alejada, durante la cual el pacto ignorado se habría cerrado; y contar en
cierto modo la novela de la invención de la modernidad, con sus grandes
personajes: sus aventuras, sus conflictos y sus alianzas. Creo especialmente, que una de las familias de espíritus modernos, la de los humanistas, podrá
ayudarnos, mejor que las demás, a pensar nuestra condición presente y a superar
las dificultades.”
Podríamos agregar, colaborando con el profesor Todorov que hay aún otro grupo que podría
desafiar al diablo y que son aquellos que defienden el ambientalismo por amor a la naturaleza en su primigenia característica de sagrada y por amor a las generaciones que nos
siguen.
Activities
First Prepare an exhibition on the concepts of arche (Pre-Socratic) and physis Aristotle).
Second How did nature think the movement called romanticism?
Third How does nature look from the Cartesian perspective?
Fourth How is nature seen from the perspective of the Frankfurt School or Critical Theory?
![](https://assets.isu.pub/document-structure/220727012318-448124598b4dfc03dfab351234821abd/v1/0ab89bf36ef0705295f44ba0f3e97b0a.jpeg?width=720&quality=85%2C50)
![](https://assets.isu.pub/document-structure/220727012318-448124598b4dfc03dfab351234821abd/v1/ea7a216c4b81577392cecda2ef91de03.jpeg?width=720&quality=85%2C50)
![](https://assets.isu.pub/document-structure/220727012318-448124598b4dfc03dfab351234821abd/v1/f23ef66852b438165b70cb098f241a43.jpeg?width=720&quality=85%2C50)