ISAGOGE NUMERO 3.

Page 1


ROBERT TAIT MCKENZIE, (1867-1938) Coautor del diseño de la Medalla Fields (junto con el propio artífice del premio) y escultor de la misma, nació en Ramsay Township, una ciudad de Ontario, Canadá, en 1867. Fue el tercero de los hijos de una familia de inmigrantes escoceses y quedó huérfano a la edad de sólo nueve años. Estudió en la Escuela Superior de Almonte, localidad donde residía junto a su familia. Ingresó en la Universidad McGill en 1885, estudió medicina en ella y se mostró como una promesa deportiva al ganar los campeonatos universitarios de Canadá, en las especialidades de gimnasia deportiva y salto de longitud. Practicó destacadamente la carrera, el salto de vallas, el boxeo y el fútbol. McKenzie no tardó en destacar por su brillante carrera en la profesión médica. En su último año de carrera en McGill fue interno en el hospital universitario y, un año después, instructor de anatomía y especialista en cirugía ortopédica. Acumuló fama en el mundo de la medicina por sus innovadoras ideas en el tratamiento de la escoliosis. Fue gran amigo de colegio del Dr. James Naismith (el creador del baloncesto) en la Escuela Superior de Almonte. Al año siguiente de obtener el título de doctor, asumió la responsabilidad de desempeñar, además de su trabajo dentro del Departamento de Anatomía, el cargo de Director Médico de Entrenamiento Físico en McGill, labor que le ocupó los años entre 1894 y 1904. Pero las dificultades que encontró le empujaron a trasladarse a la Universidad de Pennsylvania, Filadelfia, donde se le dejaba mayor margen de actuación para el desarrollo de sus innovadoras ideas. Encabezó el nuevo Departamento de Educación Física en Pennsylvania desde 1904 y fue profesor de la Facultad de Medicina. Promovió, dentro de la universidad, los exámenes médicos previos a todos los atletas antes de su participación en alguna prueba. Fue cofundador de la Academia Americana de Educación Física, de la que fue presidente desde 1927 hasta su muerte el jueves 28 de Abril de 1938. Asimismo, presidió multitud de otras instituciones y asociaciones relacionadas con el mundo de la educación física y la salud. McKenzie participó en la I Guerra Mundial dentro del Cuerpo Médico de la Armada Real y tuvo un papel destacado, implantando nuevos métodos y terapéuticas de rehabilitación física y mental para los convalecientes en los hospitales de guerra. Tuvo el honor de leer, durante las Olimpiadas celebradas en St. Louis, las bases del entrenamiento físico, como parte del programa olímpico. Fue un gran amigo personal del fundador de la sociedad de Boy Scouts, Sir Robert Baden-Powell, y fiel defensor de su filosofía. Destacó en su faceta artística como escultor e ilustrador por la belleza y la precisión anatómica de sus obras. En 1912, para los juegos Olímpicos de Estocolmo, diseñó su famosa placa de tres corredores de vallas conocida como The Joy of Effort, cuyo original está situado en un muro del estadio de Estocolmo y por el cual recibió la Medalla del Rey por parte del monarca de Suecia. Es autor de muchas esculturas repartidas por todo el mundo, como el Ideal Scout, o el Scottish-American Memorial, situado en el Princess Street Gardens de Edimburgo, Escocia. También fueron notables sus obras escritas, como su libro Exercise in Education and Medicine, publicado en 1910. Fuentes: Wikipedia & <http://home.earthlink.net/~scouters/RTaitMcKenzie.html>


ÍNDICE

Colaboran en este número:

PRESENTACIÓN Editorial................................................................................ 2 Presentación del Coordinador de actividades humanísticas......................................................................3 Presentación del Coordinador de actividades científicas......................................................................... 4

Bermúdez Vázquez, Manuel:

ARTÍCULOS DE DIVULGACIÓN

Doctor en Filosofía, investigador, Univ. de Córdoba. Castillo Arenas, Francisco: Lcdo. Historia Univ. de Córdoba, DEA; Prof. IES Antonio Mª Calero.

ESPECIAL AÑO DE LA MATEMÁTICA 2006: Un año para la Matemática o The International Congress of Matematicians en Madrid............................ 5 La Topología, esa rama oculta de las Matemáticas, también es bella……………………………………................... 18 Una explicación darwiniana del crecimiento tumoral......... 22 Relación entre la intensidad del tráfico web y el número de alumnos en los campus españoles.................................. 27

Castillo Rodríguez, Francisco: Catedrático de Biología Molecular, Univ. de Córdoba González, Beatriz: Violonchelista, estudiante en Conservatorio y Escuela de Arte Dramático, Sevilla. Guerrero Cabrera, Manuel: Profesor de Lengua y Literatura, IES Sayena, Castell de Ferro. Gutiérrez León, Ignacio: Estudiante, Ingeniería en Informática-Licenciatura en Matemáticas, UAM. Martínez García, Jesús: Estudiante, Ingeniería en Informática-Licenciatura en Matemáticas, UAM. Martínez García-Gil, José: Lcdo. en Biología, Lcdo. CC. Exactas, Profesor ayudante del Dpto. de Patología Molecular, Univ. Córdoba.

Martínez Jiménez, José Mª: Lcdo. en Biología por la Univ. de Córdoba.

Martínez Luque-Romero, Manuel: Catedrático de Biología, IES Luis de Góngora; Dpto. de Bioquímica y Biología Molecular, Univ. Córdoba.

Martín-Lorente Rivera, Enrique: Ingeniero Técnico Industrial, Univ. de Córdoba. Millán Torres, Vicente: Investigador, Laboratoire de Déclassement Comparé, París. Miralles Aranda, Antonio José: Lcdo. en Biología, Profesor CEPA La Oreja Verde, Galapagar. Muñoz Castillo, Juan Antonio: Profesor de Historia y Economía, IES El Yelmo, Cortijos Nuevos Núñez Delgado, Eduardo: Licenciatura en Matemáticas, Univ. Autónoma de Madrid. Ruiz Gómez, Aarón: Lcdo. en Física, Becario de investigación del Dpto. de Física Atómica, Molecular y Nuclear, Universidad de Sevilla.

Santiago Bermón, Rafael: Lcdo. en Historia, Univ. de Córdoba. Santiago del Río, Pedro Mª: Estudiante, Ingeniería Informática-Licenciatura en Matemáticas UAM. Serrano Castro, Antonio Jesús: Profesor Asociado al área de Filosofía del Derecho, Univ. de Córdoba; Abogado, miembro del Instituto Olof Palme.

Valle Porras, José Manuel: Lcdo. en Historia, Coordinador de la revista Saigón.

Depósito Legal: CO 259-05 ISSN: 1885-2475

Isagogé, 3 (2006)

ARTÍCULOS VARIOS En busca de Luca................................................................ 31 Investigando el límite K-T.................................................. 36 Estudio del paleomagnetismo terrestre mediante detección de 10 Be en sedimentos marinos profundos. Espectrometría de Masas con Aceleradores (AMS).................................... 40 Energía solar fotovoltaica................................................... 43 Las «afirmaciones informativas», conceptos novedosos en la moderna teoría del conocimiento.......................... 47 Criminología, una ciencia por descubrir............................. 50 Poe y Chesterton en «La muerte y la brújula» de Borges... 54 Timbuktu y los mártires de la memoria. Cristóbal Benítez, último de los grandes exploradores del África Occidental...................................................................... 59 OPINIÓN Y ANÁLISIS Neoconsumismo y Eurocrack: dos realidades que se dan la mano............................................................................. 63 Estructura básica del sistema educativo de los EE UU y el papel de las diferentes administraciones.................. 67 Breve historia de los castillos............................................. 71 MISCELÁNEA Reseña literaria: Los Hermanos Karamázov.................................................. 76 Reseña cinematográfica: Matrix: la relectura de un incondicional............................. 78 Efemérides musical: Shostakovich, el hijo de la Revolución............................... 82 INFORMACIÓN DE OURÓBOROS ¿Qué es el Instituto Ouróboros de Estudios CientíficoHumanísticos? ............................................................. 86 Memoria de actividades 2006 ............................................ 87 ¿Cómo hacerse socio? ........................................................ 88

1


PRESENTACIÓN

EDITORIAL José Mª Martínez Jiménez Presidente del Instituto Ouróboros

Año convulso como pocos, el 2006 nos deja multitud de reflexiones pendientes a las que hacer frente, relacionadas, por ejemplo, con el terrorismo, que a finales de año nos azotó de nuevo a todos, aportando dos nuevos nombres a la macabra lista de muertos que ETA tiene en su haber; o con el cambio climático global, que ha impedido a más de uno disfrutar del estacional placer de deslizarse por pendientes nevadas y que con mayor gravedad viene haciéndose sentir sobre nuestras cuencas hidrográficas. La guerra en Irak, que tantas muertes genera a diario y que tantos quebraderos de cabeza está dando al Sr. Bush, la relación de este conflicto con la escalada armamentística y la tensión que se está viviendo en la zona, las guerras fratricidas de las que casi nunca se habla y que son la tónica general en muchos países africanos, las pruebas con armamento nuclear en Corea del Norte y la permanencia de cárceles secretas y no tan secretas como la de Guantánamo, tampoco ayudan a tener una visión optimista del panorama internacional. Pero como con odio no se fabrica pan y, como quien dice, la vida sigue a pesar de todo, en el Instituto Ouróboros nos empeñamos en seguir nuestro camino y un año más podemos ofrecerle nuestro fruto más preciado: el número 3 de Isagogé. En este número especial y conmemorativo del año de las Matemáticas que dejamos atrás, se incluyen una selección de artículos de muy diversa índole, entre los que con seguridad podrá encontrar temas de su interés o que cuando menos despierten su curiosidad, relacionados con la Matemática (no podría faltar en un especial como este), la Tecnología, la Biología, la Geología y la Física, así como sobre Filosofía, Literatura, Historia, Criminología, Educación, Cine, Música, Opinión... En fin, lo acostumbrado en nuestra publicación, toda una colección de artículos seleccionados que en esta ocasión incluyen colaboraciones ilustres como la de nuestro socio honorífico D. Manuel Martínez Luque-Romero junto a D. Francisco Castillo Rodríguez; o un artículo premiado por la Comunidad de Madrid y realizado por varios autores (entre los que encontramos a D. Pedro María Santiago del Río) y relacionado con la previsión del ancho de banda necesario para una universidad en función del número de alumnos de la misma. No quiero dejar de destacar la relevancia de la colaboración del resto de autores, para conseguir con Isagogé lo que intentamos en cada número: poner en sus manos una publicación de calidad, donde la cultura y el conocimiento sean pilares maestros y de la que cualquiera pueda disfrutar. Desde la presidencia de esta humilde asociación no me queda sino desearle una agradable lectura del ejemplar de Isagogé del que disfruta en estos momentos y animarle a formar parte de este proyecto denominado Instituto Ouróboros de estudios científico-humanísticos de Córdoba, que nació con vocación de ofrecerse y trabajar para lectores como usted, en una ciudad como Córdoba, que pretende alcanzar el reto de ser nombrada Ciudad Europea de la Cultura en el año 2016. Ahí va nuestro granito de arena.

2

Isagogé, 3 (2006)


PRESENTACIÓN DEL COORDINADOR DE ACTIVIDADES HUMANÍSTICAS José Manuel Ventura Rojas Coordinador de Actividades Humanísticas del Instituto Ouróboros

Una vez más nos toca presentar nuestro breve informe desde la coordinación de actividades humanísticas. Fue el 2006 un año repleto de efemérides, como ya tuvimos ocasión de señalar en el número anterior de nuestra revista. Esta vez hablaremos del presente y el porvenir, para cuya mejor comprensión se proporcionan al lector en estas páginas algunos materiales para el estudio de cuestiones fundamentales. Así, en este número 3 y cuarto de nuestra revista, llamaremos la atención sobre temas tan importantes como irregularmente tratados hoy día, empezando por la Educación y la Economía, a través de dos artículos de análisis y opinión que esperamos aviven su curiosidad. Se abordará igualmente la Criminología que, como la Historia, es una «disciplina de disciplinas», trascendiendo de las modas coyunturales que han servido en esta ocasión para dar pie a hablar de ella, de una manera global y con un talante verdaderamente humanista, al servicio de la ciudadanía, como debe ser. Tanto en ella como en otras muchas actividades, en las ciencias, las humanidades y hasta en la vida cotidiana, es fundamental saber manejar la información, máxime en nuestros días, por constituir una marea inundatoria y en constante flujo. En ese sentido, la Filosofía sigue prestando su apoyo, hoy como ayer, a través de la correspondiente rama de la Teoría del Conocimiento. Y es precisamente aquí donde se sitúan las «afirmaciones informativas», concepto del que hasta ahora no se había escrito en castellano y que con ello añade una nota extra de interés al artículo que sobre dicha cuestión publicamos. Tampoco resulta fácil hallar bibliografía, ni en nuestro idioma ni en otros, del explorador Cristóbal Benítez, un buen ejemplo de la importante labor que aún queda pendiente de rescatar las biografías y el estudio de las obras de notables españoles en muchos campos, hoy sumidos en el olvido. En ese sentido, tampoco está de más recordar aquí a los músicos Juan Crisóstomo Arriaga y Vicente Martín Soler, de quienes se cumplió en 2006 el bicentenario, del nacimiento del primero y de la muerte del segundo. La de este último acaeció en San Petersburgo, ciudad en la que también fallecieron dos gigantes de la cultura rusa y, por extensión, del arte de todos los tiempos: Dostoievski —en concreto su inmortal novela Los hermanos Karamázov— y Shostakóvich, en el centenario de su nacimiento, ambos incluídos en la Miscelánea. Continuaremos repasando las colaboraciones sobre diferentes asuntos artísticos con las no menos interesantes aportaciones en torno a la narrativa de Borges —tan apasionado por lo fantástico y su relación con el mundo real—, la película Matrix —en una lectura más allá de la estética para centrarse en las propuestas intelectuales de la misma— y la historia de los castillos, cuyo breve perfil aquí mostrado nos da un atisbo de la importancia de aquellas estructuras, tanto en el ámbito de estudios históricoarqueológicos como en lo que se refiere a la recuperación, conservación del patrimonio y disfrute estético en la actualidad. Confiamos en que los contenidos de los trabajos aquí repasados sean de su interés y aviven su curiosidad por conocer el mundo y ampliar sus horizontes, objetivos que seguiremos defendiendo en Instituto Ouróboros con el mismo ahinco. Sólo nos queda reiterar nuestro más sincero agradecimiento a los colaboradores de este número, por su dedicación y esfuerzo; y a todos ustedes, apreciados lectores, por su atención.

Isagogé, 3 (2006)

3


PRESENTACIÓN DEL COORDINADOR DE ACTIVIDADES CIENTÍFICAS Enrique Fernández Borja Coordinador de Actividades Científicas del Instituto Ouróboros

Este año, el Instituto Ouróboros dedica sus esfuerzos en la divulgación científica a la Matemática. Nos hacemos eco con ello de la elección de Madrid como ciudad sede de la entrega de la medalla Fields. Éste es el premio más prestigioso entre los matemáticos, comparable al Nobel, y con el aliciente de que sólo se otorga si se hace una aportación fundamental antes de los cuarenta años. La Matemática siempre ha sido un campo inhóspito y poco atractivo para la mayoría de nosotros. Sin embargo, una breve reflexión nos mostrará que forma parte de nuestras vidas, y con una incidencia directa. Se hace por tanto esencial mostrar que, aparte de un cuerpo teórico construido sobre un entramado de relaciones lógicas, nos proporciona un método excepcional en la formulación y resolución de problemas de carácter eminentemente práctico. Basta mencionar la matemática financiera, por la que se rigen los movimientos económicos a todas las escalas, incluida la de nuestra propia cuenta corriente. La ciencia actual se cimenta sobre un LENGUAJE matemático, porque la matemática es justamente eso, un lenguaje. Y de todos es sabido que adquirir soltura con una nueva lengua requiere el estudio de su estructura gramatical, axiomas, teoremas y demostraciones, y su empleo continuado, haciendo cálculos. Podemos entender la Matemática como un estudio de las relaciones entre estructuras abstractas, por ejemplo, espacios vectoriales, álgebras, variedades, etc. Esto requiere de un grado de formalización muy alto, con una gran rigidez en las definiciones y en las relaciones permitidas entre dichos objetos. Pero es justo esta rigidez la que da la ductilidad y flexibilidad que muestran las distintas ramas matemáticas en la codificación de los problemas que se nos presentan en la naturaleza y en nuestras vidas. Dicho de otro modo, que la matemática se formule con tal asepsia lógica es lo que nos asegura que nuestros razonamientos no contendrán ninguna inconsistencia. Evidentemente, el dominio de las teorías matemáticas actuales implicaría una gran dedicación, pero debemos confiar en que las ideas que encierran y los resultados obtenidos se puedan, al menos, vislumbrar y disfrutar del desarrollo de este apasionante camino. Y como siempre, un comentario para los humanistas que estén leyendo estas palabras. Las ciencias sociales se están aprovechando actualmente de la potencia de este lenguaje: en el desarrollo de los modelos estadísticos, esenciales en Historia, Sociología, etc.; o las aproximaciones por parte de los lingüistas para entender la gramática desde el punto de vista de la teoría de conjuntos. Estos ejemplos no son más que unas pinceladas para hacer que los hombres y mujeres de «Letras» vuelvan su mirada con mayor frecuencia hacia este lenguaje. Desde Isagogé queremos motivar a los lectores a buscar en la Matemática un divertimento, una manera de pensar y de afrontar problemas. Debemos de aprender a contemplarla como la mayor construcción de la inteligencia humana y, en cierto sentido, como el hilo conductor que unifica las distintas ciencias. Porque, si bien los físicos buscan la teoría de la unificación que explicaría todo el universo basándose en un único principio, sea lo que sea estará escrito en forma matemática. Os animamos a participar en esta construcción y os agradecemos vuestro interés al leer estas páginas.

4

Isagogé, 3 (2006)


ARTÍCULOS DE DIVULGACIÓN ESPECIAL AÑO DE LA MATEMÁTICA

2006: UN AÑO PARA LA MATEMÁTICA O THE INTERNATIONAL CONGRESS OF MATHEMATICIANS EN MADRID José Martínez García-Gil «…era tan indescriptiblemente hermoso, tan simple y elegante. No podía creerlo y así permanecí por veinte minutos. Luego, durante el día, caminé por el apartamento. Regresé una y otra vez a mi escritorio para ver si aún estaba allí. Aún estaba allí». Andrew Wiles

DE LA BELLEZA EN MATEMÁTICA Y SU UTILIDAD Una de las principales características de la matemática es que tiende a buscar teorías que generalicen los resultados, no conformándose con resolver un problema concreto, sino que busca resolver todos los de ese tipo dado. En matemática, las dimensiones 2 o 3, que son las fáciles de imaginar, de ver, de palpar, las sensoriales, no son suficientes: se busca resultados para la dimensión «n», con n cualquier número. Un caso parecido podría ser el de la acción de grupos. Es fácil imaginar una simetría. Más precisamente, un grupo de simetría es aquel que describe todas las simetrías de los objetos y, generalizando esta idea, la acción de grupos hace referencia a los grupos en los que todos sus elementos actúan como una «biyección» en algún conjunto. Con estos grupos de simetrías no visibles se trabaja en la «cohomología equivariante» que es una teoría de la topología algebraica que se aplica a espacios sobre los que actúa un grupo. De todo esto, y mucho más, habló Michèle Vergne en el ICM2006 que se celebró en Madrid durante los días 22 al 30 de agosto pasado. El matemático francés se propuso demostrar cómo los teoremas de la localización en cohomología equivariante no sólo proporcionan fórmulas matemáticas hermosas, sino que también estimulan el progreso en cómputos algorítmicos. Para no hacer demasiado árida la narración, tan sólo destacaremos que discutió sobre las cohomologías equivariantes de una variedad provista de una acción de un grupo de Lie; a continuación se adentró en los operadores elípticos relacionados con acciones hamiltonianos y en los cómputos numéricos de volúmenes de politopos convexos 1 . LAS ECUACIONES DIFERENCIALES COMO EXPRESORES Y EXPLICADORES DE LAS LEYES QUE GOBIERNAN LA NATURALEZA

Las leyes que gobiernan los fenómenos naturales se suelen expresar en forma de ecuaciones diferenciales (ED). Así, el movimiento de los cuerpos se formaliza con una ED de segundo orden, como lo son las que describen la propagación de las ondas, la transmisión del calor, la difusión, el movimiento de partículas subatómicas, etc. Su capacidad explicativa de series de fenómenos que evolucionan con el tiempo, ha hecho de ellas las técnicas matemáticas más usadas para modelizar el mundo físico. Sin las ED las poblaciones de microbios cultivados en laboratorio se deberían calcular de forma tediosa, con las consecuencias negativas que se derivarían para la Biociencia y la síntesis de fármacos; sin ellas difícilmente se podría modelizar el cambio climático ni el crecimiento de las plantas ni las singularidades cósmicas llamadas agujeros negros. Ahora bien, pocas ED tienen una solución expresable de manera sencilla o exacta y las más de las veces sólo se consiguen aproximaciones 2 . Sobre este reto de estudiar las propiedades de las soluciones de las ED que modelizan situaciones «singulares», esto es, de cambio brusco, disertó Jorge Mozo, quien también hizo una incursión en la teoría K y la geometría no conmutativa. LA ESCUELA «MATEMÁTICAS PARA LA PAZ» EN CÓRDOBA Celebrada en la semana del 17 al 23 de julio como acontecimiento satélite al ICM, el matemático estadounidense Fritz Scheuren —expresidente de la Asociación Americana de 1

Un politopo es una nueva generalización en matemática: si en la dimensión 2 están los polígonos, y en la dimensión 3 los poliedros, en la dimensión n están los politopos. 2 Aún así, se pueden establecer numerosas propiedades de estas soluciones sin conocerlas.

Isagogé, 3 (2006)

5


Estadística— cerró su intervención con la siguiente frase: «Arquímedes dijo: “Dadme un punto de apoyo y moveré el mundo”. Pues ahora nos toca a nosotros mover el mundo». Con 150 participantes, entre estudiantes y profesores de más de veinte nacionalidades, de los que nueve fueron palestinos y diez israelíes, se puso de manifiesto, por si cabía la duda, de que la matemática es universal y supera todas las barreras, antojándose esencial para el desarrollo. De ahí que el espíritu de la escuela fue contribuir a su avance en las regiones menos favorecidas del planeta. Los ICM´s se celebran cada cuatro años y el de 2006 ha sido el número 25. Además de tener un programa científico, abanderan un tema de contenido social, correspondiendo el de Madrid a la situación geopolítica española como crisol de encuentro de los tres ejes fundamentales en toda la humanidad: el europeo, el mediterráneo y el latinoamericano. La elección de Córdoba ha tenido un significado simbólico, ya que en ella convivieron pacíficamente las tres culturas y el resultado fue el avance del arte y la ciencia, amén de mucha matemática. Después, en agosto, el ICM2006 celebró una mesa redonda con las conclusiones de la escuela, que abarcaron desde la historia y educación de la matemática, pasando por aspectos más abstractos hasta llegar a las aplicaciones en economía y en biología. GEOMETRÍA Además de ser una rama clásica de la matemática, tiene relaciones con otras ramas como la topología, la física matemática o la informática. Se discutieron problemas formulables en Geometría Euclidiana clásica como en otras geometrías más complejas, pero no menos interesantes o útiles. Bajo el primer prisma, destacaron los problemas referentes a superficies con un área mínima o que encierran un volumen máximo. Por ejemplo, sea un alambre curvado con forma de aro deformado. De entre todas las superficies cuyo borde es el alambre, aquellas que tengan área mínima se llaman minimales. Una tal superficie se puede visualizar como la de una película de jabón sustentada en el alambre. Pues bien, el español Antonio Ros es coautor de la reciente solución al problema isoperimétrico, cuyo trabajo fue presentado en Madrid: de entre las superficies que encierran dos cavidades (piénsese en dobles pompas de jabón) y que tienen un valor fijado del área (sea 1cm2), ¿qué forma tienen las que encierran un volumen máximo? No resulta difícil entender que estos problemas de maxi (mini)mización presentan aplicaciones prácticas, pero que el espíritu que motiva su estudio son la belleza y profundidad de la matemática utilizada 3 . En lo relativo a las geometrías abstractas, muchas son geometrías de Riemann. 4 Se debatieron la geometría de espacios de Riemann curvados positivamente (como una pelota, ya apepinada ya ahuevada) o negativamente (como una silla de motar); la geometría conforme (estudia los espacios de Riemann en las que sólo importan los ángulos entre direcciones, y no las distancias); la geometría de Kähler (las peculiaridades de los números complejos producen bellas propiedades); las geometrías simpléctica y de contacto (que proporcionan estructuras naturales en Mecánica) y la gran protagonista: la geometría discreta, en la que los objetos de estudio son de naturaleza discreta o combinatoria, y los conceptos de límite o continuidad pierden relevancia. Ligada a ésta última, la geometría computacional ha conseguido demostrar la Conjetura de Kepler, que explicaba la forma óptima de empaquetar esferas en el espacio euclidiano.

3

Otros tipos de superficies, tanto en el espacio euclidiano como en otros más generales –que son estudiados por la geometría extrínseca (estudio de superficies en relación con el espacio donde están incluidas) – fueron tratados en el ICM. 4 Las geometrías de Riemann son aquellas que infinitesimalmente –en el límite de regiones muy pequeñas– son como la de Euclides. La geometría de la superficie terrestre o los espaciotiempos curvados de la Relatividad General serían ejemplos de espacios de Riemann.

6

Isagogé, 3 (2006)


Si bien toda la expectación del ICM se centró en la exposición de la reciente solución, a caballo entre la topología y la geometría, de la Conjetura de Poincaré (uno de los, hasta agosto, llamados «Problemas del Milenio»), a la que se dedicó la conferencia plenaria de Richard Hamilton. Tras ella, se elevó a la categoría de teorema —pues ya goza de demostración— y pasó a denominarse Teorema de Poincaré-Perelman. ÁLGEBRA Y GEOMETRÍA COMO DESCRIPTORES DE LA REALIDAD Las sinergias de la unión entre ambas se plasman en una disciplina: la Geometría algebraica: estudio, clasificación y conocimiento de las propiedades de los objetos geométricos (curvas, sólidos, superficies) que se pueden describir, en los casos más sencillos, como los ceros comunes a varios polinomios. Las líneas rectas, circunferencias, cónicas, cilindros, superficies regladas, esferas,… son ejemplos elementales de las llamadas variedades algebraicas. En las construcciones de nuestras casas, edificios, calles, etc., encontramos estructuras de este tipo. En los últimos siglos, la Geometría algebraica se ha desarrollado considerablemente por mor de otras ramas matemáticas y por el interés en elaborar una teoría lo más completa posible en dar respuesta a problemas del tipo del papel de las curvas cónicas en el estudio de las órbitas planetarias iniciado por Kepler, de las aplicaciones a la Teoría de Códigos y la Criptografía 5 y de las aportaciones a la Física Teórica en la búsqueda de una teoría unificadora de la gravedad con las fuerzas nucleares fuerte, débil y electromagnética. ED Y SISTEMAS DINÁMICOS Los sistemas dinámicos (SD) modelizan aquellos procesos que cambian con el tiempo, de acuerdo con reglas fijas 6 . En muchas de estas situaciones, las reglas que regulan estos cambios vienen dadas por ED (parciales u ordinarias). Uno de los objetivos de los SD es hacer predicciones (hacia el futuro o hacia el pasado); otro es discutir el efecto de diferentes parámetros sobre estas predicciones. Incluso si el modelo es determinista, a veces no es posible obtener el estado del sistema para un cierto tiempo. Este fenómeno, conocido como caos determinista, o simplemente caos, es extraordinariamente importante en los SD porque los estados futuros dependen, con un alto grado de sensibilidad, del presente. Siempre se cometen pequeños errores a la hora de medir el estado presente y tales errores crecen con el tiempo, hasta el punto de hacer imposible las predicciones. En estas situaciones, el comportamiento futuro puede parecer aleatorio, aunque está regulado por leyes deterministas. 7 Este concepto se ha popularizado con la denominación de «efecto mariposa». El campo de los SD también constituye un terreno abonado para otros con los cuales interacciona, a saber: análisis funcional, variable compleja, geometría diferencial o topología. Y también actúa de atractor de otras ramas de la ciencia —diseño y control de misiones espaciales, dinámica molecular, diseño de aceleradores de partículas o la ecología. La sesión sobre ED y SD constó de 11 conferencias, de las que resaltaríamos la del español Rafael de la Llave, que versó sobre la inestabilidad de la mecánica hamiltoniana. La teoría moderna de los SD se inició con el trabajo seminal de Henry Poincaré a finales del XIX, estudiando la estabilidad del Sistema Solar, lo que viene a ser el mismo problema que la estabilidad de un sistema hamiltoniano. El profesor de la Llave abundó en los avances en este campo y, aunque hoy día sabemos que el Sistema Solar es un SD inestable, me tranquilizó el hecho de que el tiempo necesario para que dicha inestabilidad se manifieste es del orden de varios millones de años. Sin duda, el lector agradecerá que hayamos disipado esta preocupación. ÁLGEBRAS DE OPERADORES Y ANÁLISIS FUNCIONAL Desde los mismos albores del cálculo, se impuso la conveniencia de considerar conjuntos cuyos elementos no fueran puntos del espacio ordinario 8 , sino funciones de distintas

5

Construcción de códigos indescifrables para la transmisión de datos. Ejemplos de sistemas dinámicos: las olas en el mar, el oscilar de un reloj de péndulo, el movimiento del sistema solar o una reacción química. 7 Un ejemplo paradigmático es la predicción del tiempo meteorológico, sólo válida para unos 3-4 días. 8 A diferencia de lo que sucede en el Análisis clásico. 6

Isagogé, 3 (2006)

7


clases 9 . Estos conjuntos de funciones no aparecen sólo de forma natural, sino que también surgen de la necesidad de extender a ellos las operaciones típicas del análisis sobre conjuntos del plano o el espacio. 10 Ésta es la razón del nombre «Análisis funcional»: el estudio de los espacios funcionales en tanto que conjuntos de funciones dotados de determinadas estructuras algebraicas y topológicas, junto con los operadores definidos sobre ellos. Si bien la idea de espacio funcional estaba plantada ya en el siglo XIX, no fue sino hasta la primera mitad del XX, con el desarrollo de la teoría de conjuntos, la topología general y la noción de estructura, que consiguió su sistematización. Hasta 1920, se fue gestando una teoría de funciones de infinitas variables, a la que contribuyeron Volterra, Hilbert, Hadamard, Fréchet, Wiener, etc. En 1920, Banach establece en su tesis la noción de espacio normado, que supone una síntesis axiomática de propiedades algebraicas y topológicas para construir una teoría potente y versátil. La potencia de sus métodos y el enorme ámbito de aplicación se pusieron de manifiesto en 1932, con la publicación de tres obras fundamentales 11 . Desde entonces, el desarrollo del análisis funcional ha sido espectacular, con interrelaciones con otras áreas, como las ecuaciones funcionales (teoría de distribuciones, teoría espectral), análisis armónico (álgebras de Banach), mecánica cuántica, etc. Actualmente, se están realizando contribuciones de un alto nivel que versan sobre ciertos resultados sobre productos tensoriales de espacios de Banach a la información cuántica. COMBINATORIA Aún cuando la combinatoria suele definirse, de manera simplista, como el «arte de contar», lo cual deja de lado la mayoría de las teorías de la combinatoria moderna, tal definición suele ser válida para explicar la ubicuidad de ésta en el conjunto de la matemática. La diversidad de los modelos discretos, sobre todo en relación con la informática teórica, ha consolidado el carácter de pluridisciplinaridad que caracteriza a esta rama matemática. El encargado de las conferencias plenarias sobre esta disciplina fue Richard P. Stanley, especializado en el desarrollo de técnicas de álgebra conmutativa para problemas de enumeración combinatoria. Para comenzar, ofreció una introducción del clásico teorema de Erdos-Szekeres como ejemplo de la cuestión sobre la máxima longitud de secuencias monótonas en permutaciones, pasando por la distribución asintótica de esa longitud máxima, las conexiones con matrices aleatorias o la teoría de representación de grupos; y la extensión a nociones más generales, como la de configuraciones prohibidas en permutaciones. Le siguió Terence Tao con el resultado de la existencia de progresiones aritméticas arbitrariamente largas en el conjunto de los números primos 12 . De la ubicuidad interdisciplinar dan buena cuenta los métodos algebraicos y analíticos en enumeración combinatoria. Se describieron las conexiones entre propiedades deterministas y aleatorias de estructuras de gran tamaño. Este tipo de conexiones se manifiestan en el llamado Lema de Regularidad de Szémeredi. Las estructuras combinatorias aleatorias fueron tratadas por Jeong Han Kim. Por su parte, Robin Thomas cubrió el espectro de aplicaciones matemáticas y algorítmicas de un concepto aislado, sólo de forma aparente, las orientaciones Pfaffianas, relacionadas con la teoría moderna de la complejidad algorítmica y con un problema clásico de Pólya de 1913.

9

Piénsese en las familias de curvas o superficies que dependen de uno o más parámetros que surgen al tratar algunos problemas geométricos, el conjunto de soluciones de una ED o el conjunto de funciones admisibles en los problemas de cálculo de variaciones. 10 Paso al límite, continuidad, determinación de extremos de funciones reales sobre estos conjuntos, etc. 11 Mathematische Grundlagen der Quantermechanick, de J. von Neumann, donde se formula el modelo matemático actual de la mecánica cuántica; Linear Transformations in Hilbert spaces, de M. H. Stone, donde se establece el tratamiento moderno del estudio de ED e integrales por medio de la teoría espectral de operadores; y Théorie des opérations linéaires, de S. Banach, que recoge los resultados más importantes de la teoría. 12 Existe relación entre las progresiones aritméticas arbitrariamente largas, los números primos y la teoría combinatoria de los números.

8

Isagogé, 3 (2006)


Otros temas tratados fueron la combinatoria estructural 13 , las conexiones entre la teoría aditiva de números y la geometría 14 . El español Francisco Santos destacó con su conferencia sobre las triangulaciones de politopos, de la que es un experto de reconocimiento internacional. UN PASEO ESTADÍSTICO POR LA BIOCIENCIA Los laboratorios de Biomedicina tampoco han quedado aislados de las ramificaciones de la matemática. En este sentido, la Bioestadística resulta muy útil para el análisis de datos en Ciencias de la vida y, entre ellas, en Medicina. Se antoja cada vez más prioritario el hecho de responder a cuestiones tales como determinar cuándo una enfermedad tiene algún componente hereditario o saber si una persona está más predispuesta genéticamente a padecer algún mal. El catedrático de Estadística de la Universidad de Santiago de Compostela, Wenceslao González Manteiga, hizo hincapié en este sentido con el siguiente ejemplo: la recogida de todos los datos relevantes de un grupo de pacientes en lo que se denomina micromatrices y la comparación con la misma información de otro grupo con un diagnóstico de cáncer de mama. El análisis estadístico permite calcular qué riesgos tienen los individuos sanos de llegar a contraer la enfermedad para mejorar la prevención. Otras formas de estudiar los datos es buscar los genes o los factores (sexo, edad, ambientales) que intervienen en la patogenia de las enfermedades. El trabajo de González Manteiga, en colaboración con la también matemática Carmen Cadalso, se centra en la búsqueda de factores de riesgo genético en el cáncer, análisis de señales fisiológicas relacionadas con las noxas, y la posibilidad de calcular la supervivencia de los enfermos, lo que se les antoja clave en los ensayos clínicos de nuevos fármacos para comprobar sus efectos en una determinada población. De ahí que estos investigadores incluyan la estadística dentro de la modelización estocástica, las ED y la modelización determinista. Pero sin duda, la más extraordinaria de las conferencias de ICM2006 fue, a título personal, la impartida por Sir Michael Atiyah (ver foto, Londres, 29 de abril de 1929- ), uno de los mayores matemáticos de todos los tiempos. Sus contribuciones abarcan áreas tales como topología, geometría, análisis, física de partículas o cosmología, entre otras. Sus primeros trabajos en 1966 —teoría K en topología y el teorema del índice— ya le valieron la medalla Fields. Reflexionando sobre el hecho de que la matemática es un ejercicio solitario, en el que uno se sienta y piensa intensamente durante una hora, intentó hacer comprender al público lego, agolpado en la sala principal del Palacio de Congresos de Madrid, que la gente puede tener buenos motivos para pensar que la disciplina no ha avanzado en los últimos siglos, al menos al nivel de la enseñanza secundaria. Afirmó que la matemática es muy antigua y, si es correcta, no cambia con el tiempo. Así, la geometría euclidiana o el cálculo de Newton y Leibniz siguen vigentes, mientras que la física de Aristóteles sólo interesa a los historiadores y filósofos. De esto se sigue que, en el instituto, se deba aprender todavía los conceptos de Euclides y Newton, pero no las aportaciones físicas de Aristóteles. A menos que se cursen estudios superiores de matemática, se puede llegar a tener la impresión que la matemática se detuvo en los siglos XVI y XVII. Pero nada más lejos de la realidad (piénsese en la matemática que hubo de surgir para amparar la modificación einsteniana de la gravedad) También a menudo, suele ocurrir que los matemáticos se preocupan de aspectos más «físicos» que estrictamente de su disciplina. Así, por ejemplo, la teoría de cuerdas tiene un contenido matemático y una interpretación física. Lo fascinante de las teorías es que no se sabe nunca cuánto de ellas explicará el mundo real y cuánto será absorbido por la matemática. A la pregunta de por qué los matemáticos se sentían cómodos manejando el concepto de infinito en contraste con los físicos, respondió, bromeando, que a estos últimos les asusta la idea de una teoría en la que aparezcan muchos infinitos. Ya en tono más serio, explicó que la noción del «infinito» es una de las cuestiones más antiguas y difíciles de la matemática y uno de los mayores éxitos de su historia ha consistido en comprender cómo interpretar y utilizar dicha 13 14

Trató la extensión del llamado Proyecto de los Menores en Grafos a matrices y matroides. Con aplicaciones en combinatoria e informática teórica.

Isagogé, 3 (2006)

9


noción. El cálculo depende de entender lo infinitamente pequeño 15 . La única diferencia entre físicos y matemáticos, puntualizó, estriba en que los primeros son más valientes y los segundos más cautelosos. ¿QUÉ QUEDA POR RESOLVER? El 24 de mayo de 2000 se celebró, en el auditorio del Collège de France, el centenario del planteamiento de los problemas no resueltos por parte de David Hilbert en el Congreso de Matemáticos de París. A lo largo de todo el siglo XX, los 23 problemas propuestos por Hilbert han sido guía e inspiración de todo matemático que se precie. De ellos, trece se han resuelto, ocho son lo suficientemente generales como para resultar todavía de interés y una de las cuestiones no resueltas todavía —la hipótesis de Riemann— sigue siendo el problema pendiente más importante. De hecho, el propio Hilbert afirmó que, si llegara a despertarse tras dormir varios milenios, lo primero que preguntaría sería si se había demostrado dicha hipótesis. La tal hipótesis de Riemann constituye uno de los siete problemas que los consejeros del ramo del Instituto Clay de Matemáticas (fundado por Landon Clay) seleccionaron para celebrar la entrada en el siglo XXI. El matemático que logre resolver uno de ellos recibirá la nada desdeñable recompensa de un millón de dólares. La tradición de ofrecer premios sobre determinadas cuestiones ha estado a punto de desaparecer porque algunos de ellos han contribuido en el pasado al progreso de la matemática. Así, el premio del rey Óscar de Suecia, a finales del siglo XIX, vió el éxito de las ideas de Poincaré sobre el problema de los tres cuerpos en interacción gravitatoria. Las ideas matemáticas adelantadas por Poincaré siguen vigentes en la actualidad: una de sus conjeturas se ha disuelto con la demostración de Perelman. Así las cosas, se ha venido clasificando a los matemáticos en dos clases: aquellos que resuelven problemas y los constructores de teorías —problem solver y theory builder—. Pero, para resolver problemas, se necesitan teorías sobre las que apoyarse y aquéllas progresan por el esfuerzo conjunto de la comunidad matemática. En opinión de otro ganador de la Fields, Alain Connes, las teorías necesarias para la resolución de los problemas planteados embellecen el paisaje matemático. En el congreso de 1900 se reunieron 226 matemáticos, en el anual de Estados Unidos están representados más de 5.000 y en IMC2006 se dieron cita más de 10.000 asistentes de todo el mundo. Si a comienzos del siglo XX el saber matemático cabía en unos 80 volúmenes, hoy serían necesarias diez veces más. Pero, ¿cuáles son esos problemas del milenio? 1. El problema P versus NP: Sea que es sábado noche y Alistair asiste a una fiesta con muchos invitados. Se pregunta a cuántos de los presentes conoce ya. El anfitrión le dice que sin duda conoce a Christine, la señora de la mesa del fondo. Mirar y comprobarlo le llevará unos segundos. Pero, si el anfitrión no le hubiera advertido de tal hecho, Alistair hubiera tenido que dar un paseo por el salón, mirando una por una a cada persona para reconocer a alguien. Esta situación ilustra el hecho de que el descubrimiento de una solución requiere mucho más tiempo que comprobar que una solución dada realmente lo es. De otra forma, hallar un divisor de 13.717.421 requiere más tiempo que comprobar que dicho número es producto de 3.607 por 3.803. Los matemáticos han aislado una categoría de problemas que pueden resolverse en un tiempo eficaz: los llamados problemas P versus NP. El problema P vs. NP lo formuló Stephen Cook en 1971 y plantea si en todo problema, cuyas soluciones se pueden comprobar en tiempo polinómico, se podrá descubrir siempre una solución en tiempo polinómico 16 . 2. La hipótesis de Riemann: Ciertos números enteros tienen la propiedad de no ser producto de otros dos más pequeños (por ejemplo: 2, 3, 5, 7,…53,…1999,…etc.) A estos números especiales se les denomina números primos y resultan fundamentales en diversas aplicaciones matemáticas (por ejemplo, en criptografía). La sucesión de los números primos parece no seguir una regla fija, pero su distribución dentro de los números enteros está ligada al comportamiento de la función ζ(s), descubierta por Euler. Riemann postuló que las soluciones 15

A un nivel elemental, el mero hecho de contar 1, 2, 3,… puede seguir eternamente. Esto implicaría un proceso infinito, de no ser por la finitud de la vida del contador. 16 Para iniciados, el problema es decidir si la inclusión entre las clases de complejidad P y NP es estricta.

10

Isagogé, 3 (2006)


interesantes de la ecuación ζ(s) = 0 están localizadas sobre una recta. La hipótesis de Riemann se ha comprobado numéricamente para las 15·108 primeras soluciones 17 . 3. La conjetura de Hodge: En el siglo XX se han ido hallando métodos eficaces para descubrir la geometría de los objetos complejos. Básicamente, consiste en preguntarse cómo reconstruir la forma de un objeto complejo a partir del ensamblaje de formas geométricas simples de dimensión creciente. Esta técnica ha dado lugar a la creación de un conjunto de herramientas denominadas teorías de cohomología. Con ellas, se ha progresado en la clasificación de objetos matemáticos. Pero los orígenes geométricos de la teoría, vale decir el espíritu, se ha dispersado por la incursión y/o aportación de elementos no geométricos. Hodge sugirió que para ciertos tipos de espacios definidos mediante ecuaciones algebraicas 18 , los elementos llamados ciclos de Hodge se pueden interpretar como una combinación de formas geométricas de origen algebraico, esto es, que son combinación lineal racional de ciclos algebraicos. 4. La conjetura de Birch y Swinnerton-Dyer: Los matemáticos suelen manifestar una irresistible fascinación por el problema de encontrar soluciones a ecuaciones algebraicas como x2+ y2= z2. Básicamente, el problema consiste en encontrar soluciones para las que x, y y z sean números enteros. Para la anterior ecuación, Euclides ya describió todas las soluciones pero, si se trata de polinomios más complejos, la cosa cambia. En 1970, Yu Matijasevich demostró que no se podían encontrar soluciones, esto es, que no existía ningún método general para saber si una ecuación de este tipo admite una solución compuesta por números enteros. Pero para una clase de ecuaciones que corresponden a las curvas elípticas de primer género, la conjetura establece que el grupo de soluciones racionales tiene un tamaño que depende del comportamiento de una generalización de la función ζ(s) en las proximidades de s=1 19 . 5. Las ecuaciones de Navier- Stokes: Dichas ecuaciones rigen la mecánica de fluidos (líquidos y gases), cuyo conocimiento es fundamental para, por ejemplo, el control de las turbulencias aerodinámicas 20 o la predicción del tiempo. Estas ecuaciones datan del siglo XIX, pero casi no se comprenden sus soluciones debido a la no linealidad de las ecuaciones y los numerosos términos acoplados. El problema estriba en decidir si estas ecuaciones admiten solución y en obtener una teoría matemática rigurosa que explique y prediga el comportamiento de las soluciones de tales ecuaciones. Esto es, si a partir de unas condiciones iniciales de fluido laminar la solución del flujo para todos los instantes de tiempo es también un flujo laminar. 6. Las ecuaciones de Yang-Mills y del salto de masa: La mecánica cuántica es al microcosmos lo que la mecánica newtoniana al macrocosmos. Hace más de medio siglo, los físicos Yang y Mills descubrieron una relación entre la física de partículas y la geometría de los espacios fibrados: obtuvieron una ecuación fundamental —la ecuación de Yang-Mills— cuyas predicciones experimentales se comprueban diariamente en los aceleradores de partículas (Brookhaven, Stanford, CERN, Tsukuba). Tal ecuación describe partículas de masa positiva que tienen ondas clásicas que se desplazan con velocidad c. Este es el salto de masa. Empero, no se tiene demostración matemática de la existencia de campos cuánticos regidos por estas ecuaciones ni del confinamiento de los quarks (uno de los problemas formidables de la física). Por tanto, el problema es establecer la existencia de la teoría de Yang-Mills y un salto de masa. 7. La conjetura de Poincaré: En agosto pasado, en el seno del IMC2006, ha pasado a la categoría de teorema, rebautizándose con el nombre de teorema de Poincaré-Perelman. Hasta entonces, la conjetura establecía lo siguiente: sea una curva cerrada 21 sobre la superficie de una

17

Para los iniciados, la hipótesis afirma que todos los ceros no triviales de la función zeta de Riemann tienen una parte real de ½. 18 Tales espacios vienen dados por variedades algebraicas proyectivas. 19 La conjetura afirma la existencia de una forma sencilla de saber si esas ecuaciones tienen un número finito o infinito de soluciones racionales. 20 Gracias a este tipo de estudios, se sabe que si se pinta el fuselaje de los aviones con un solo color, se reduce el consumo de combustible/avión/año de forma significativa. Esto ha llevado a la compañía Boeing a cambiar de estrategia en los próximos aviones que ponga en el aire, en lo que a diseño y colores se refiere. 21 Una curva cerrada que no se corte a sí misma.

Isagogé, 3 (2006)

11


esfera. Al cortar la esfera a lo largo de la curva, se obtienen dos piezas distintas. Pero no siempre ocurre así cuando las superficies son más complicadas —léase por ejemplo un toro 22 . Se dice que la esfera es simplemente conexa, mientras que el toro no lo es. Se puede demostrar que toda superficie simplemente conexa que sea acotada 23 y carezca de borde es necesariamente la superficie de un objeto esférico. Pues bien, Henri Poincaré conjeturó que tal caracterización de los objetos esféricos seguiría siendo cierta al pasar de las superficies de dimensión 2 a los espacios de tres dimensiones. Este problema ya ha sido retirado de la lista de los problemas del milenio, si bien el premio de la Fundación Clay ha quedado desierto por no haberlo aceptado Perelman. Una conjetura es un teorema al que le falta la parte más interesante: la demostración. Dicho de otro modo: una conjetura nada tiene que ver con un teorema; es una simple afirmación. Aunque a veces se pervierta la nomenclatura, como en el caso del «último teorema de Fermat» (Wiles, 1994). Visto así, parece que una conjetura tiene poco valor, y es poco más que una opinión. Así es en parte; de hecho muchas conjeturas resultaron falsas a la postre. Sin embargo, normalmente tienen el valor de ser agudas observaciones realizadas por especialistas, retos lanzados al mundo para que las mejores mentes del planeta se esfuercen en desentrañar sus misterios. La Conjetura de Poincaré (ver foto) es una afirmación topológica. La topología tiene un estatus muy especial dentro de la matemática. A veces, los matemáticos tenemos algo de naturalistas; taxónomos más concretamente. Nos gusta clasificar cosas y ponerles etiquetas. Este gusto es totalmente lógico: para clasificar atendemos a las propiedades más esenciales de las cosas e investigamos la diversidad de las mismas. Esta conjetura pertenece a la rama de la Topología Geométrica. El procedimiento básico suele ser el siguiente: se establecen relaciones de equivalencia entre los objetos; no relaciones cualesquiera, sino relaciones que se consideran importantes precisamente porque atienden a propiedades que pensamos son esenciales de las mismas. Dichas relaciones inducen clases de equivalencia dentro de las cuales todos los objetos están «emparentados» y estudiamos el conjunto cociente de clases obtenido. Ese es el esquema esencial de clasificación en matemáticas, si bien su aplicación práctica puede variar; así se han establecido clasificaciones para los grupos simples finitos, para las superficies en Rn, las formas cuadráticas, los grupos de Lie, etc. Pues bien, la capacidad simplificadora de este procedimiento es impresionante: al tratar a todos los objetos de cada clase como uno solo (su representante canónico), obtenemos un panorama mucho más racional del universo que estamos estudiando. Es de esperar (de hecho, está asegurado) que todos los objetos de una misma clase de homeomorfia exhiban las mismas propiedades topológicas. La relación más habitual que se emplea en topología es la relación «ser homeomorfo». Pocas veces se ha escondido detrás de una palabra tan fea un concepto tan bello. Dado un espacio de trabajo X, dos objetos A y B de dicho espacio (dos subconjuntos de «puntos» de X) son homeomorfos si pueden transformarse el uno en el otro mediante una transformación continua especial llamada homeomorfismo. Diremos que una aplicación de A a B es un homeomorfismo si es biyectiva, contínua e inversible, siendo su inversa igualmente contínua. Dado que si A y B son homeomorfos, entonces para un topólogo «son» esencialmente el mismo objeto, se comprende la importancia de la clasificación atendiendo a tal concepto. El problema es que lo que vale para un espacio topológico no tiene porqué valer para otro. Dado que un espacio de tres dimensiones no es homeomorfo a uno de siete, cabe esperar que ciertas cosas (cosas topológicas, entiéndase) que ocurran en un universo de tres dimensiones no ocurrirán o, al menos, no tienen porqué ocurrir en otro de siete, y viceversa. Y aquí está el quid de la cuestión en lo que a la Conjetura de Poincaré se refiere. Consideremos una esfera. Es muy importante explicar que una esfera es el conjunto de puntos del espacio que equidistan de otro, llamado centro. Con esta definición, una esfera es una 22 23

Superficie matemática cuya representación puede ser un donut o una cámara de neumático. Una superficie está acotada si se puede encerrar en una caja.

12

Isagogé, 3 (2006)


superficie. No una bola maciza, sino la superficie que la delimita. Esto es básico para entender lo que sigue. Para dejar más claro el asunto, la llamaremos 2-esfera por ser un objeto bidimensional, aunque esté inmerso en un espacio de tres dimensiones. Todo objeto homeomorfo (topológicamente equivalente) a una esfera tendrá las mismas propiedades topológicas que una esfera. Cabe preguntarse si una determinada colección de propiedades de la esfera es una caracterización topológica de la misma. Esto no es nada trivial. Y de eso va la conjetura 24 . Una 3-esfera NO ES maciza, como alguno podría pensar. Una 3-esfera es una variedad diferenciable de tres dimensiones, que podemos definir como el conjunto de los 4-puntos de R4 que equidistan de uno dado (centro). Es una 3-variedad inmersa en un espacio de 4 dimensiones, por tanto. Pues bien, ¿sigue siendo el conjunto de las tres propiedades una caracterización de las 3-esferas? Apreciad el sabor de este bello (bellísimo, no lo dudéis) postulado, dar con una demostración de este reto que el genial Poincaré lanzó a sus iguales. El propio Poincaré ensayó algunas respuestas a su Conjetura, que se demostraron falsas. A lo largo del siglo XX, la suya fue una de las preguntas más erróneamente respondidas de la historia de las matemáticas. Tanto fue así, que el prestigioso Clay Institute de Massachussetts la incluyó como uno de los siete Problemas del Milenio, para cuya resolución ofreció hace pocos años un millón de dólares por cada una de las respuestas. La zanahoria estaba colgada. Y a por ella se lanzaron cientos de científicos de todo el mundo. Para optar al premio del Clay Institute deben cumplirse dos condiciones (además de resolver los enigmas, claro está): publicar el trabajo en una revista científica y dejar que transcurran dos años, durante los cuales la comunidad matemática comprobaría las conclusiones. En el año 2002, precisamente el 11 de noviembre, un científico ruso, Grigory Perelman, publicó en internet lo que parecía ser una respuesta parcial a la Conjetura. Meses más tarde, en marzo de 2003, publicaría una ampliación de sus tesis. La profunda investigación de las superficies llevada a cabo durante muchos años condujo a los geómetras a ver en las herramientas desarrolladas en el área conocida como Análisis Matemático un poderoso arsenal con el cual potenciar notablemente tal investigación. Procedieron entonces a dotar localmente a las superficies con sistemas de coordenadas (como el que comúnmente se usa en el plano y que permite, entre otras cosas, extender a dimensión los conceptos del Cálculo Infinitesimal). De este modo, un concepto fundamental del Cálculo Infinitesimal, como lo es el de función diferenciable, fue puesto al servicio de la Geometría con excelentes resultados (de paso, ideas como ésta jugaron un papel esencial en el origen de una bella rama de la Matemática denominada Geometría Diferencial). Tales superficies, dotadas con sistemas locales de coordenadas y en las cuales, por tanto, es posible «hacer» Cálculo Infinitesimal, fueron denominadas variedades diferenciables o simplemente variedades. Un subproducto de estos trabajos fue la posibilidad de definir nuevos criterios de clasificación para las superficies. Pero, en el contexto de las variedades, resulta particularmente apropiado un criterio de clasificación proveniente de otra rama de la Matemática denominada Topología, la cual frecuentemente se define como la investigación, a un nivel considerablemente abstracto, de aquellas propiedades de las superficies que no son alteradas por «deformaciones continuas». La noción topológica de «deformación continua» es descrita intuitivamente mediante la sugerencia de pensar en las superficies como si fuesen objetos reales hechos de algún material elástico como, por ejemplo, el caucho. De este modo, las superficies pueden ser deformadas cambiando de aspecto. Las «deformaciones continuas», tal como son entendidas por los topólogos, permiten «estirar», «contraer» y «retorcer», pero no «rasgar» ni «romper». Así, un plano puede ser 24

La Conjetura de Poincaré afirma que para cualquier número de dimensiones el conjunto de las tres propiedades es en efecto una caracterización de la n-esfera. Esto es, la esfera tridimensional ¿es el único espacio limitado de tres dimensiones sin orificios? El problema adelanta incluso cuestiones planteadas por la Teoría de la Relatividad de Albert Einstein pocos años después.

Isagogé, 3 (2006)

13


deformado continuamente en un paraboloide de revolución y la superficie de una esfera puede ser deformada continuamente en la superficie de un elipsoide. En cambio, no es posible deformar continuamente la superficie de una esfera en la de un toro, debido a que no se puede eludir la necesidad de hacer un «rompimiento» para obtener el «agujero» característico de la superficie del toro. A los ojos de un especialista en Topología, si una superficie puede ser deformada continuamente en otra, entonces las dos son «esencialmente iguales», ya que aquellas propiedades que interesan al topólogo no son afectadas durante el proceso de deformación. Los topólogos utilizan la expresión técnica superficies homeomorfas para referirse a aquellas superficies que son «esencialmente iguales» (La noción precisa de superficies homeomorfas es un poco más complicada de explicar y en la práctica resulta ser ligeramente más general que la noción intuitiva de superficies «esencialmente iguales») Así, en el lenguaje de la Topología, las superficies de dos esferas con radios distintos son homeomorfas (el procedimiento práctico de inflar un balón hasta alcanzar un radio sensiblemente mayor materializa la noción intuitiva de deformar continuamente la superficie de una esfera en la de otra esfera de radio mayor) En consecuencia, para un topólogo sólo hay ¡una superficie de esfera en el espacio! Y por eso él habla de «la» esfera. En Topología se usa la expresión «la esfera» para referirse a lo que en esta presentación he denominado hasta ahora «la superficie de una esfera». En adelante seguiré esta convención del lenguaje de los topólogos. El problema de clasificar las variedades en el espacio usando como criterio de clasificación el concepto de homeomorfismo fue completamente resuelto en el siglo XIX. Por ejemplo, se observó que la esfera es una variedad de dimensión 2 (cada trozo pequeño de la esfera es una porción reducida de plano ligeramente deformado), cerrada y simplemente conexa. La intuición sugiere que estas propiedades parecen caracterizar topológicamente la esfera. En efecto, se estableció que toda variedad de dimensión 2, cerrada y simplemente conexa, es homeomorfa a la esfera. Dicho de otro modo: esencialmente, sólo hay una variedad de dimensión 2, cerrada y simplemente conexa, y se trata de la esfera. El paso siguiente fue extender el concepto de variedad a otros espacios. Las variedades mencionadas hasta ahora son de dimensión 2 y están inmersas en el espacio de dimensión 3. Por analogía, se definieron las variedades de dimensión 3 en el espacio de dimensión 4 (se puede pensar en estas variedades como si fueran las «superficies» propias del espacio de dimensión 4) y, más generalmente, se definieron las variedades de dimensión n en el espacio de dimensión n+1. En realidad, el concepto de variedad se extendió de tal manera que en el espacio de dimensión n+1 hay variedades de dimensiones 0,1, 2,..., n+1. En 1904, el gran matemático francés Jules Henri Poincaré (1854-1912) conjeturó que el resultado obtenido para la esfera del espacio de dimensión 3 tenía un análogo para la esfera del espacio de dimensión 4. En otras palabras: «En el espacio de dimensión 4, toda variedad de dimensión 3, cerrada y simplemente conexa, es homeomorfa a la esfera de dimensión 3». El mismo Poincaré no consiguió probar su conjetura. Tampoco ninguno de sus contemporáneos ni sucesores. Con el tiempo, la conjetura cobró interés hasta convertirse en el problema abierto más notable de la Topología Geométrica, con destacables implicaciones para la Física. Aún más, llegó a convertirse en uno de los problemas abiertos más importantes de la Matemática. Se denominó la Conjetura de Poincaré. Una técnica empleada con éxito algunas veces por los matemáticos para intentar resolver un problema difícil es particularizarlo, resolver el problema particularizado y, con las pistas que esto proporciona, retornar al problema original. En el otro extremo del espectro, está la técnica de generalizarlo, resolver el problema generalizado y, con la visión que de este modo se logra, retornar al problema original. Con este último enfoque, se procedió a generalizar la Conjetura de Poincaré a espacios de dimensión arbitraria adquiriendo la siguiente forma: En el espacio de dimensión n+1, cada variedad compacta de dimensión n es homotópicamente equivalente a la esfera de dimensión n si, y sólo si, es homeomorfa a la esfera de dimensión n.

14

Isagogé, 3 (2006)


La homotopía es otro concepto matemático que, en cierto sentido, puede considerarse que tiene que ver también con la existencia o no de «huecos». La versión generalizada de la Conjetura de Poincaré resultó ser un problema en gran medida desafiante. Aunque para n=1 es trivial y para n=2 ya había sido demostrada en el siglo XIX, tan sólo en 1961 fue demostrada para n=5 por Erik Christopher Zeeman (1925−). Ese mismo año, el estadounidense Stephen Smale (1930−) obtuvo un sensacional avance al demostrarla para todo n≥7. En 1962, John R. Stallings demostró el caso n=6. Los casos n=3 y n=4 mostraron ser extremadamente difíciles. Hubo que esperar hasta 1986 cuando el estadounidense Michael Hartley Freedman (1951−), en lo que fue considerado una espectacular hazaña matemática, consiguió demostrar el caso n=4. Su logro fue de tal magnitud que lo hizo merecedor de una Medalla Fields en 1986. Irónicamente, después de ser resuelto exitosamente en todas las demás dimensiones, ¡el caso original n=3 se mantuvo inusitadamente resistente a los ataques más agresivos de los matemáticos! Resulta sumamente curioso el hecho de que, contrariamente a lo que podría esperarse, la conjetura se muestre mucho más difícil de probar en dimensiones inferiores que en las superiores ¿Por qué se da esta situación? El eminente matemático estadounidense John Willard Milnor (medallista Zeeman, Freedman Smale & Stallings Fields en 1962 por sus trabajos de clasificación de las variedades) explica así este fenómeno: «Finalizando la década de 1950 y comenzando la de 1960, se observó una avalancha de progreso con el descubrimiento de que las variedades de dimensiones superiores son realmente más fáciles de trabajar que las de dimensión .Una razón para esto es la siguiente: El grupo fundamental juega un papel importante en todas las dimensiones, incluso en el caso en que resulta ser trivial, y las relaciones entre generadores del grupo fundamental corresponden a discos bidimensionales aplicados en la variedad. En dimensión o mayor, tales discos pueden ponerse en posición general de tal manera que son disjuntos por parejas, sin autointersecciones, pero en dimensión o no parece posible evitar las intersecciones, lo cual conduce a serias dificultades».

Así las cosas, la Conjetura de Poincaré regresó finalmente a su estado original: El caso n=3 en el espacio de dimensión 4. Ha habido muchos intentos fallidos de demostración entre matemáticos profesionales y aficionados. El mismo Poincaré, cuatro años antes de formular la conjetura, creyó tener una demostración pero, poco después, encontró un contraejemplo. Algo parecido ocurrió con John Henry Constantine Whitehead, quien en 1934 propuso otra supuesta demostración para la cual él mismo descubrió un contraejemplo conocido como el enlace de Whitehead. Mark Brittenham de la University of Nebraska señala que hay tal cantidad de producción sobre el tema que la American Mathematical Society dedicó un código de clasificación de temas (57M40) para los artículos que pretenden demostrar o refutar la Conjetura de Poincaré. Brittenham también se refiere con gracia a la enfermedad que esto ha generado: «Con la Conjetura de Poincaré en particular, parece darse la enfermedad llamada Poincaritis que algunas personas adquieren —una vez enfermas, ellas continúan tratando de probar la conjetura de Poincaré durante aproximadamente 20 años continuos. Ha habido una gran cantidad de topólogos bien conocidos que han sido atacados por esta enfermedad (...) como R. H. Bing, John Stallings, John Hempel, y C. D. Papakyriakopoulos».

La Conjetura de Poincaré, por su importancia y por el notable grado de dificultad que comportan todos los intentos de demostrarla, adquirió un estatus similar al de otros problemas matemáticos famosos como El Último Teorema de Fermat (resuelto en 1994) y la Hipótesis de Riemann (aún abierto). Más aún, un inusitado interés en demostrar la conjetura de Poincaré se ha despertado después de que, en mayo de 2000, el Clay Mathematics Institute, de Cambridge, Massachusetts, anunció oficialmente la apertura del concurso Millennium Prize Problem. Consiste en siete Isagogé, 3 (2006)

15


problemas cuidadosamente seleccionados que, como la Conjetura de Poincaré, son relevantes en diferentes áreas de la Matemática y se han resistido a los esfuerzos por resolverlos. Para algunos matemáticos, se trata de los siete problemas no resueltos más importantes y más difíciles de la Matemática actual. El premio, para cada uno de los siete problemas, es ¡un millón de dólares! para la primera solución correcta que sea presentada. Una de las reglas del premio especifica que la solución propuesta deberá estar expuesta previamente, por un periodo de al menos dos años, al escrutinio de la comunidad matemática internacional. No obstante, para muchos matemáticos está claro que, dada la naturaleza de los problemas seleccionados, la solución de uno de ellos indudablemente proporcionará a su autor no sólo una considerable cantidad de dinero, sino además un lugar sobresaliente en la historia de la Matemática. A partir del momento en que se anunció el premio, varios «competidores» probaron suerte. Un caso que recibió difusión ocurrió en abril de 2002, cuando M. J. Dunwoody presentó un artículo de cinco páginas con una supuesta demostración de la Conjetura de Poincaré, pero se le encontró un fallo fundamental. El 16 de octubre de 2002, el matemático Everett Pitcher, profesor del departamento de Matemáticas de Lehigh University desde 1938 hasta 1978 y además Secretario de la American Mathematical Society desde 1967 hasta 1988, presentó, en Lehigh University, una conferencia titulada The Poincaré Conjecture is True. Pitcher sometió el documento correspondiente para publicación pero no aparecieron informes de aceptación. El 22 de octubre de 2002, Sergey Nikitin de Arizona State University, publicó un preprint en arXiv e-Print Archive, en el que proponía otra demostración de la Conjetura de Poincaré reduciéndola al caso de ciertas variedades denominadas estelares. El 31 de octubre, el grupo de noticias sci.math.research publicó un supuesto contraejemplo para esta demostración. Entre el 30 de octubre y el 10 de diciembre, Nikitin agregó siete versiones del preprint con correcciones y mejoras. El preprint aún está expuesto en arXiv pero, en este caso, tampoco hubo comentarios al respecto en los medios. En noviembre de 2002 corrió el rumor en Internet de que el matemático ruso Grigory Perelman, del Instituto Steklov de la Academia Rusa de Ciencias en San Petersburgo, había publicado en arXiv un preprint en el que presentaba una demostración de la Conjetura de Poincaré. Esto llamó poderosamente la atención ya que Perelman es reconocido como un sobresaliente especialista en Geometría Diferencial. Además, el rigor y la solidez de su trabajo gozan de prestigio en la comunidad matemática. El 11 de noviembre de 2002, Perelman puso a consideración de la comunidad matemática mundial su preprint de 39 páginas The entropy formula for the Ricci flow and its geometric applications. Perelman no anuncia en este preprint una demostración de la Conjetura de Poincaré, sino de otra conjetura más general (que implica la de Poincaré) denominada la Conjetura de Geometrización de Thurston. Esta última fue propuesta en 1970 por el matemático estadounidense William Paul Thurston (1946−), ganador de una Medalla Fields en 1982 por su revolucionario e influyente trabajo de investigación acerca de las variedades de dimensiones 2 y 3. La Conjetura de Geometrización de Thurston es descrita como mucho más ambiciosa que la de Poincaré al plantear una clasificación muy precisa de todas las variedades tridimensionales. Dada la relación entre ambas conjeturas, basta demostrar la Conjetura de Geometrización de Thurston para que, en particular, quede automáticamente demostrada la Conjetura de Poincaré. El 10 de marzo de 2003, Perelman publicó en arXiv un segundo preprint de 22 páginas con el título Ricci flow with surgery on three−manifolds, en el cual anuncia algunas mejoras y complementa varios aspectos de su trabajo del 11 de noviembre. Ambos preprints son de un nivel altamente técnico, accesibles prácticamente sólo a los especialistas del área. Los días 7, 9 y 11 de abril de 2003, Perelman ofreció un ciclo de conferencias públicas en el Departamento de Matemáticas del Massachusetts Institute of Technology (MIT). El ciclo se tituló Ricci Flow and Geometrization of Three Manifolds. Esta fue la primera discusión pública de Perelman sobre los resultados contenidos en sus dos preprints expuestos en arXiv. Más de 100 matemáticos asistieron al ciclo, entre ellos Andrew Wiles (autor de la primera demostración correcta del Último Teorema de Fermat) y John Forbes Nash, Jr. (A Beautiful Mind). Vale la pena mencionar que, en su juventud, Nash demostró un teorema «sorprendente» y «hermoso» —calificado así por matemáticos de la época— que desveló una inesperada

16

Isagogé, 3 (2006)


relación entre las variedades suaves compactas y las variedades denominadas algebraicas. Poco después demostró otro teorema según el cual toda variedad riemanniana puede ser inmersa en algún espacio euclidiano, teorema que, según afirmó en 1994 el matemático John Horton Conway, es «una de las obras de análisis matemático más importantes del siglo». El 15 de abril de 2003, en su sección Ciencia, el diario New York Times publicó la noticia sobre la demostración propuesta por Perelman en un reportaje titulado Celebrated Math Problem Solved, Russian Reports. El mismo día, el acontecimiento fue reseñado en MathWorld Headline News, la sección de noticias de Eric Weisstein’s World of Mathematics con el título Poincaré Conjecture Proved — This Time for Real. El 17 de abril The Daily Princetonian publicó la noticia titulándola Perelman explains proof to famous math mystery. El 20 de abril, en su edición dominical, el New York Times retomó la historia en la sección Week in Review bajo el título A Mathematician's World of Doughnuts and Spheres. El 7 de mayo, la BBC, en su edición online de BBC News, se refirió al tema bajo el titular Great maths puzzle 'solved'. Tras el ciclo de conferencias en el MIT, el matemático Peter Sarnak expresó que Perelman «obviamente ha logrado un avance notable» pero agregó que, aunque el geómetra ruso «no ha hecho afirmaciones que no pueda sustentar previamente, podría haber errores en lugares muy delicados». De cualquier modo, Sarnak destaca la dimensión del trabajo realizado por Perelman: «Él no está confrontando directamente la Conjetura de Poincaré. Está tratando de conseguir una meta mucho más ambiciosa». Hasta el momento, todo parece indicar que podríamos estar asistiendo a otro acontecimiento histórico en Matemática: la demostración de la Conjetura de Poincaré. Sin embargo, debemos esperar un poco más de un año para que se consolide el concepto de la comunidad matemática mundial y luego aguardar el veredicto del Clay Mathematics Institute. Grigori Perelman Mientras tanto, muchos se preguntaban si el premio del millón de dólares constituye la motivación principal para el colosal esfuerzo de Perelman. No sería extraño que así fuera si se tiene en cuenta que Perelman ha realizado este trabajo en Rusia, en solitario, durante ocho años, afrontando las difíciles condiciones por las que pasan los académicos rusos como consecuencia de la situación que se vive actualmente en ese país. Pero la matemática Sun-Yung Alice Chang, galardonada con el premio Ruth Lyttle Satter en 1995 por sus contribuciones al estudio de las ecuaciones diferenciales parciales en variedades Riemannianas, opina: «No creo que el millón de dólares sea la motivación». La Conjetura de Poincaré está «en la misma escala del Último Teorema de Fermat. [Demostrarla] lo coloca a usted en la historia de las matemáticas; el sueño de todo matemático». PARA SABER MÁS http://www.uco.es/congresos/mpd/index.htm http://www.icm2006.org/ http://www.icm2006.org/scientificprogram/plenarylectures/ http://www.claymath.org/index.php http://www.matesco.unican.es/maurica/2002/millenium.html http://sevein.matap.uma.es/~aciego/ercim-lsc/ http://agt.cie.uma.es/~ggt06/ Pueden dirigir sus comentarios a: h12magaf@uco.es

Isagogé, 3 (2006)

17


LA TOPOLOGÍA, ESA RAMA OCULTA DE LAS MATEMATICAS, TAMBIÉN ES BELLA Eduardo Núñez Delgado INTRODUCCIÓN En este breve artículo vamos a tratar el concepto de Topología (no distinguir tazas de rosquillas), así como los de conexión y compacidad. La palabra «Topología» la inventó en 1847 J. B. Listing (un matemático alumno de Gauss) y es una de las ramas mas desconocidas de las matematicas para el público, ya que solemos estar más en contacto con el álgebra, el análisis, y la geometría. Pero ¿qué es esto de la Topología? Pues bien, no es más que la ciencia que estudia la forma y sus invariancias (lo que ya hemos dicho antes, que no podremos distinguir una taza de una rosquilla), todo ello sin preocuparnos de medir distancias, aunque daremos una definición de ella para hablar de continuidad. Con todo, volveremos a ello más adelante. ¿Y qué es la topología (en minúscula)? Una familia de subconjuntos llamados abiertos (ya lo veremos más abajo) que incluye el vacío y el total. Un ejemplo gráfico de dos figuras topológicas son la botella de Klein y la banda de Moebius:

UN POCO DE DISTANCIA Y CONTINUIDAD Hemos dicho que no íbamos a medir, pero siempre nos vemos obligados a dar la definición de «distancia» (aunque nos parezca a algunos ya aburrida), para así medir algo si procede y saber si algo esta cerca de algo o no lo está. Pues bien, no es más que una funcion, d, que tiene que cumplir tres propiedades, que son las siguientes: d(x,y) ≥ 0 y tendremos la igualdad si x=y. d(x,y) = d(y,x). d(x,z) ≤ d(x,y)+d(y,z). Al par (X,d) lo llamaremos Espacio Métrico. No podemos dejar de mencionar una distancia que a la gente que se dedica a Teoría de Códigos le resulta muy curiosa y es la distancia de Hamming, d h , que consiste en que dados dos mensajes de la misma longitud se define como el número de letras correspondientes desiguales. Ahora veamos otro concepto útil así como muy importante, que es el de ∞ «convergencia»: Digamos que una sucesión { xn }n =1 converge en un espacio métrico

18

Isagogé, 3 (2006)


(X,d) a l ∈ X, si para todo ε > 0 existe un número entero positivo N tal que para todo n > N se tiene que xn − l < ε . Y éste nos lleva al concepto clave de esta sección, que es el de «continuidad». Ahora sí nos ponemos manos a la obra y diremos que la función f es continua en x perteneciente a X si y solo si, para toda sucesión xn convergiendo a x, se cumple que f( xn ) converge a f(x). POR FIN ALGO DE TOPOLOGÍA Pero, ¿qué es en matemáticas una Topología? Pues bien, diremos que dado un conjunto X, se dice que T es una Topologia definida sobre X si T es una colección de subconjuntos de X tales que: 1) ∅, X ∈ T. 2)U α ∈ T ⇒ ∪α U α ∈ T. n

3) U1 ,U 2 ,...,U n ∈ T ⇒ ∩ U i ∈ T. i =1

Por cierto, vamos a darle nombre a los elementos de T, a los que llamaremos «abiertos». También diremos que el par (X,T) es un «Espacio Topológico». Existen dos propiedades fundamentales que no podemos dejar pasar sobre los abiertos y es que la unión (arbitraria) de abiertos es un abierto y que la intersección finita de abiertos también es un abierto.

La Topología nos permite aplastar, encoger y estirar ciertos conjuntos debido a la continuidad, pero no acciones como pellizcar, ya que eso no es algo continuo. Otra cosa maravillosamente ventajosa de los espacios topológicos es que nos libran de la tirania malvada de los ε − δ de la demostración de continuidad; ahora lo hacemos todo con abiertos: Dados dos espacios topologicos (X, TX ) e (Y, TY ) y una funcion f : X → Y , se dice que es continua si para cada U ∈ TY se tiene que f −1 (U ) ∈ TX . Esto es, si la imagen inversa de un abierto es siempre un abierto. También F. Hausdorff dio una definición de Topología en 1914 en su libro Grunzuge der Mengenlehre e incluyó una propiedad que no es equivalente a ninguna de la que hemos visto, y era que cualquier par de puntos pudiera separarse mediante un par de abiertos. Matemáticamente se dice que un espacio topologico tiene la propiedad Isagogé, 3 (2006)

19


Hausdorff, o que es T2 , si para cada pareja de puntos x,y ∈ existen entornos disjuntos a ellos. Esto es, que existan U ( x ), V ( y ) ∈ T tales que U ( x) ∩ V ( y ) ≠ ∅ . A Hausdorff no le parecía muy normal un espacio en el que dos puntos vecinos estuvieran tan próximos que no hubiera ninguna manera de construirles viviendas separadas. Todo continúa en matematicas y se construye ya T0 , T1 , T2 , T5/ 2 , T3 , T7 / 2 , T4 y T5 que son los que existen ya, aunque probablemente haya alguno más. En los T2 todo funciona como nosotros queremos. Por ejemplo, si X es Hausdorff, el límite de una sucesión, si existe, es único. LAS DOS PROPIEDADES DE LA TOPOLOGÍA: LA CONEXIÓN Y LA COMPACIDAD Vamos a ver las dos propiedades fundamentales de la Topología. Éstas son la conexión y la compacidad. 1. LA CONEXIÓN: En la primera en la que vamos a hacer hincapié es en la conexión, que consiste básicamente en algo que es de una pieza, que esta conectado, que no esta separado. Hay varias definiciones para este concepto (las realizadas por dadas por G. Cantor en 1883, por C. Jordan en 1893, por Schoenfliesz en 1904, etc…), pero la que utilizamos hoy en día y emplearemos aquí es la dada por S. Mazurkiwicz en 1920, que es la siguiente: Se dice que un espacio topologico es conexo si no existen dos abiertos, U y V, disjuntos y no vacios tales que X=U ∪ V. Tambien diremos que un subconjunto de un espacio topológico es conexo si lo es con la topología relativa a ese subconjunto. Veamos un sencillo ejemplo para ilustrarnos un poco y hacernos amigos de la conexión: A = (2, 3] ∪ [4, 5) no es conexo en A = U ∪ V, con U=(2,3] y V=[4,5).

Y otro ejemplo es que en

con la topología usual porque tiene la separación

con la topología usual

no es conexo porque

=U ∪ V

con U= ( −∞, 2 ) y V= ( 2, ∞) . De todo esto observamos una bonita proposicion que nos dice que cualquier intervalo, ya sea abierto, cerrado, semiabierto, semicerrado, finito o infinito es conexo en con la topología usual, y por extensión en n . Y todo ello nos sirve para ver continuidades y discontinuidades de funciones. Y continuando con las funciones, vemos un elegante y bonito resultado debido a la conexión enunciado por Borsuk Ulam para n=1 y demostrado en 1933: Si f : S 1 → es una funcion continua, existendos puntos antipodales de S 1 que tienen la misma imagen. S 1 Esto quiere decir que, por ejemplo es posible cortar por la mitad, con un solo corte de cuchillo, una tarta circular adornada con chocolate de manera que cada mitad tenga exactamente la misma cantidad de chocolate. Este resultado es otra consecuencia del teorema del valor medio. Tambien se extiende a tartas no circulares e irregulares. Así, observando esto y como en casi todo lo relativo a las matemáticas, podemos obtener un teorema del punto fijo de forma bastante sencilla, pero no vamos a enunciarlo en estas breves lineas. 20

Isagogé, 3 (2006)


2. LA COMPACIDAD: Ahora introduciremos la segunda de las propiedades fundamentales de los espacios topológicos: la compacidad. Para ello vamos a fijarnos en los abiertos, y de terminaremos si un abierto es compacto o no de la siguiente manera: Se dice que en un espacio topológico, X es compacto si todo recubrimiento abierto de X admite un subrecubrimiento finito. Pero, ¿qué es un recubrimiento abierto? No es nada más que una colección de abiertos cuya unión es todo el espacio y, por analogía, un subrecubrimiento es una subcolección con la misma propiedad. De este modo diremos que un subconjunto de un espacio topológico es un compacto si lo es con la topología relativa a ese subconjunto. Veamos un ejemplo: ∞

(0,1) ⊂

es compacto. Nos bastaría con tomar:

1 ( ,1) = (0,1) ∪ n n=2

Hay algo también importante que se utiliza en análisis y es que si f : X → Y es contínua y K ⊂ X es compacto, entonces f ( K ) también lo es. Veamos otro resultado muy importante en análisis matemático y en análisis funcional conocido como teorema Heine-Borel; y es que en n , con la topología y distancia usuales, un subconjunto es compacto si y solo si es cerrado y acotado. El concepto de compacidad engloba otros dos muy importantes: los de Supremo e Ínfimo, que son los principios del Análisis y de los números reales. Los iniciadores en esta pelea fueron H. F. Heine y K. Weierstrass junto con Kronecker y Gauss, que dieron raíces a la palabra compacidad. El caso es que los compactos hacen que las funciones se comporten muy bien. Por ejemplo: Sea X un espacio topológico compacto e Y un espacio topológico con la topología del orden, entonces cualquier función f : X → Y alcanza un máximo y un mínimo. Todo esto es útil en nuestro análisis matemático. CONCLUSIÓN En este trabajo se han presentado algunos de los conceptos y resultados básicos de la Topología General desde una perspectiva analítica. Lo que para nosotros será equivalente topológicamente hablando es todo aquello que se queda invariante bajo homeomorfismo, es decir, bajo funciones continuas cuya inversa es continua. Hemos hablado también de dos de las propiedades fundamentales de la Topología: la conexión y la compacidad. Todos aquellos que quieran profundizar en estos conceptos pueden ver la bibliografía. BIBLIOGRAFÍA KURATOWSKI, K. (1966 y 68): Topology, Academia Press, 2 volúmenes. CAIN, G. L. (1994): Introduction to General Topology, Addison-Wesley. HINRINCHSEN, D. y J. FERNÁNDEZ (1977): Topología General, Editorial Urmo. JANICH, K. (1984): Topology, Springer.

Isagogé, 3 (2006)

21


UNA EXPLICACIÓN DARWINIANA DEL CRECIMIENTO TUMORAL José Martínez García-Gil INTRODUCCIÓN HISTÓRICA Hace unos 2.500 años, Hipócrates relacionó la capacidad invasora y letal de los procesos tumorales con un desajuste entre los cuatro humores que constituían el organismo. Tal desarreglo resultaba en un exceso de uno de ellos: la bilis negra (segundo cambio sustancial). Posteriormente, Galeno retomó el testigo del razonamiento y propuso que en las regiones invadidas por el tumor había una concentración excesiva de bilis negra 25 . Desde entonces, se ha podido determinar la composición bioquímica de la tal bilis negra descrita por el médico de Cos y su discípulo de Pérgamo. Muchas han sido las aportaciones realizadas al conocimiento del cáncer, pero contrasta sobremanera el hecho de que no se haya considerado la enfermedad a la luz de la teoría de la evolución y su mecanismo de selección natural, habida cuenta de lo evidente que resulta pensar en el tumor como una estructura que compite con su «huésped» por el espacio y el alimento, recursos ambos fundamentales, entre otros, para la supervivencia. Nuestra visión del problema bajo la consideración evolutiva no es nueva. Desde 1986 estamos trabajando en esta línea, siempre de forma teórica, y hoy día se están recogiendo ciertos resultados que confirman nuestras intuiciones iniciales, gracias al apoyo de los datos experimentales. La carcinogénesis es un proceso emergente que requiere una secuencia de pasos evolutivos, desde la proliferación celular hasta la adaptación a limitaciones variables del entorno. En el desarrollo inicial de la lesión preneoplásica, la proliferación celular está controlada tan sólo por interacciones con otras células, la matriz extracelular (MEC) y factores de crecimiento. Pero, si se produce una ganancia de función por mutaciones en los oncogenes y/o una pérdida de función por mutaciones en los genes supresores de tumores y/o la alteración de las vías de apoptosis normales, tales tres eventos permitirán la expansión clonal. Esta visión proporciona mecanismos de selección para las mutaciones descritas. Por otro lado, la proliferación neoplásica también se puede promover por alteraciones en el paisaje fenomático que reduce las señales inhibitorias producidas por las células normales y/o la MEC. En este 2006, declarado «año de la Matemática», hemos querido ilustrar la relación que mantiene hoy aquélla con la Biociencia a través de la exposición de nuestro trabajo; un ejemplo más de la potencia que posee la Matemática para definir, en un lenguaje preciso y analítico, cualquier aspecto de la realidad, incluso el accidente más hiriente para el ser humano: la enfermedad. LOS ORÍGENES BIOLÓGICOS DEL PROBLEMA La adquisición de la pluricelularidad, hace más de 800 millones de años, y con ella la posibilidad de construir organismos multicelulares, llevó aparejada la formación de rutas que conducirían, entre otros patrones, al cáncer. Digámoslo así: el cáncer es el coste evolutivo que los seres pluricelulares deben pagar por su naturaleza tan compleja. Se trata de una enfermedad que nos ha acompañado, al menos, desde que existimos como especie. De hecho, por Paleopatología, se sabe de la existencia de tumores óseos malignos en el registro de vértebras de dinosaurios del mesozoico. La autopersistencia de las formas unicelulares en clones, lo que se mantuvo durante más de dos mil millones de años, dio paso a la generación de seres pluricelulares, estableciéndose de este modo toda suerte de estrategias y trayectorias de reproducción y supervivencia, de información y organización evolutivas. Empero, tal eclosión dejó hiatos moleculares, algunos de los cuales proporcionaron alguna ventaja evolutiva y, a la vez, posibilitaron, cuando menos, tres estrategias o trampas evolutivas inherentes a la naturaleza pluricelular: a) Infidelidad en los mecanismos de replicación y reparación del DNA. La incapacidad de no 25

Hoy día se sabe que la concentración mayoritaria del tumor maligno es a base de proteasas –enzimas que degradan a otras proteínas– concentradas en la zona de invasión tumoral.

22

Isagogé, 3 (2006)


cometer errores en el material genético ha sido crucial, desde el punto de vista cualitativo, porque ha impulsado la evolución de las especies, al proporcionar el fundamento para la adquisición de la diversidad de individuos intraespecíficos. Pero, siendo cuantitativamente pequeña la tasa de error, ha resultado suficiente para que alguna célula pueda adquirir cambios heredables –mutaciones– compatibles y hasta necesarios, con el proceso de malignización. Visto así, una situación ventajosa desde el punto de vista evolutivo puede describir una trayectoria absorbente hacia una cuenca de predisposición tumoral. b) Necesidad de adquisición de una red de comunicación y señalización intra e intercelulares. Cada célula contacta con otras semejantes y/o diferentes, con las que se comunica por medio de una red compleja de señales físico-químicas. Tal complejidad comunicativa es sensible de experimentar alteraciones en las vías de comunicación. De hecho, existen procesos tumorales compatibles con una pérdida de la regulación en la señalización y comunicación celulares. c) Mantenimiento de un conjunto celular con potencial proliferativo e invasor 26 , conjuntamente con el conjunto celular diferenciado que le corresponde a su estadio madurativo. Las funciones de este conjunto celular proplásico se mantienen dentro de un rango finamente controlado cuya alteración resulta en la adquisición de propiedades mitógenas e invasoras, inherentes a los oncocitos. Pero desde el punto de vista evolutivo, el diseño de los metazoos también ha adquirido mecanismos biológicos tales que intentan minimizar dichas deficiencias mecanicistas, como son la capacidad finita de replicación celular, la inversión energética e informacional en sistemas de reparación del DNA dañado, los programas de apoptosis, la eficacia del sistema inmune,… Siendo así, se puede considerar que entre un tumor y el biosistema en el que asienta, se establece una carrera de armamentos cuyo fundamento teorético hunde sus raíces en la teoría de juegos no cooperativos 27 . Con todo, parece ser un hecho empíricamente contrastado que los biosistemas pluricelulares desarrollan neoplasias y, en el caso de la especie humana, con una frecuencia cada vez mayor. Se aducen varias causas para explicar este considerable incremento: alteraciones en la dieta 28 , exposición a factores carcinógenos, mayor longevidad y otras formas de interferencia retroactiva. EL MODELO DE GOMPERTZ Este modelo se usa para el crecimiento de ciertos tumores sólidos. Se fundamenta en el conocimiento experimental de que la tasa de crecimiento relativo de la masa tumoral x(t) decrece exponencialmente con el tiempo (y no con la masa del tumor como cabría esperar). Así, se obtiene una ecuación que es no autónoma 29 : dx(t)/dt = r e –λt x (1) La solución de (1) se obtiene directamente, por separación de variables: dx(t)/dt = x0 e r/λ (1-e –λt) (2) La representación gráfica de (2) es una curva sigmoide característica. La curva presenta dos regiones bien diferenciadas: una primera, de crecimiento exponencial decreciente, y otra de meseta o plateau con mayor o menor pendiente. Ambas regiones están separadas por un punto de inflexión que supone un instante determinado de tiempo, tc = (log r)/λ, en el que se produce un cambio cualitativo en el crecimiento, a partir de que el tumor alcance un tamaño determinado: xc = x0e(r-1)/λ. Se tiene que para t→∞, x(t)→ x∞ = x0er/λ →la curva alcanza un estado estacionario. Los parámetros r y λ representan características ligadas al tumor y al tejido donde se desarrolla. Se ha observado experimentalmente que ciertas células libres se desarrollan o crecen a una tasa proporcional al volumen de las células en proceso de división en ese momento. Sea v(t) el volumen de las células en el tiempo t. Entonces: dv/dt = λv (para alguna λ constante >0) (3) Cuya solución es: V(t) = v0 eλ(t-t0) (4) donde v0 es el volumen de las células en división en tiempo 26

Fundamentales para las funciones fisiológicas de recambio (desarrollo embrionario), de mantenimiento y defensa del biosistema (inflamación, cicatrización). Hoy día también se habla de potencial proplásico. 27 Rama de la matemática que estudia los conflictos entre ≥2 elementos (llamados jugadores) cuya suma total de ganancias es nula. 28 Ya lo asintió Hipócrates con su famoso aforismo: Somos lo que comemos. 29 Una ecuación se dice que es no autónoma cuando depende directamente del tiempo.

Isagogé, 3 (2006)

23


inicial t0. Las células libres crecen exponencialmente en el tiempo. Una consecuencia importante de la solución (4) es que el volumen celular se duplica continuamente, cada intervalo de tiempo de magnitud (Ln 2)/λ. Por otro lado, los tumores sólidos no crecen exponencialmente con t. Al crecer un tumor tipo como éste, el tiempo de duplicación del volumen total se incrementa continuamente. Se ha señalado que los datos para muchos tumores se ajustan bastante bien, durante un desarrollo a casi mil veces el volumen inicial, a la expresión: V(t) = v0 exp[λ/α(1-exp(-αt))] (5); donde exp(x) = ex, λ, α son constantes >0. La expresión (5) recibe el nombre de relación gompertziana. Expresa el hecho de que el tumor crece cada vez más lento y que su volumen tiende al valor v0eλ/α . Durante mucho tiempo se ha intentado explicar esta desviación del crecimiento exponencial. Para valorarlo con perspectiva, se va a buscar una ecuación diferencial que tenga a v(t) como solución. En efecto, si se deriva (5) se tiene: dv/dt = v0 λexp(-αt)exp{λ/α[1-exp(α(t))]}= λe-αt V(6) Se han propuesto dos teorías antagónicas para explicar la dinámica del crecimiento tumoral, que corresponden a cada una de las siguientes modificaciones de la expresión (6): a) dv/dt = (λe-αt)V → el efecto de retardo en el crecimiento tumoral se debe al aumento del tiempo medio de generación de las células que se reproducen, sin cambio en la proporción de la reproducción de las células. Con el tiempo, las células reproductoras maduran o envejecen, por lo que se dividen más lentamente. b) dv/dt = λ(e-αtV) → el tiempo medio de generación de las células en proceso de división es constante y el retraso en el crecimiento se debe a la pérdida de células reproductoras en el tumor. Esto se puede explicar por el desarrollo de una región necrótica en el centro del tumor. La necrosis aparece para un tamaño crítico en un tipo particular de tumor y después el núcleo necrótico aumenta rápidamente, conforme crece la masa total del tumor. Según esta teoría, el desarrollo del núcleo necrótico se debe a la restricción de sangre (O2 y nutrientes) a la superficie tumoral y regiones cercanas a ella. El aumento del tumor dificulta el suministro de O2 por difusión hacia el núcleo, lo que conlleva la formación de un núcleo necrótico. Existen razones de carácter médico que justifican este enlentecimiento: presión física del entorno del tumor, problemas aludidos de nutrición, acumulación de catabolitos (conforme crece el tumor) y la actuación de mecanismos inmunitarios que, hasta entonces, eran ineficaces para retrasar o detener el crecimiento tumoral. Sea como fuere, se sabe que en la primera etapa casi todas las células están en fase de multiplicación; mientras que después, muchas de ellas pasan a un estado quiescente. Ésta es la etapa de diagnóstico clínico, pero sólo aquellas células activas son sensibles a los tratamientos externos (radioterapia –RT– y quimioterapia –QT–) con lo que los resultados obtenibles de esta forma no son muy esperanzadores. Si se extirparan todos los oncocitos, la curación terapéutica sería completa; pero técnicamente esto sólo sucede en contadas ocasiones. Aún así, si se extirpa una gran parte de la masa tumoral, las células que quedan comienzan a crecer exponencialmente y las condiciones son ideales para la RT y/o QT. De ahí la dramática importancia de conocer en qué fase se encuentra un tumor para aplicarle el tratamiento correcto. MODELO TEORÉTICO PARA LA COEVOLUCIÓN DE UN PACIENTE Y SU CÁNCER Existen expresiones matemáticas que explican adecuadamente el crecimiento tumoral. Pero, ¿cabe afirmar lo mismo de las interpretaciones biológicas? Es conocido el hecho de que las personas conviven, en su propio cuerpo, con verrugas, nevus y otras neoformaciones. Esta coevolución, a nivel individual, no parece comprometer la existencia del huésped y su parásito. Otra línea de nuestro trabajo es dilucidar las relaciones que se establecen entre el tumor y el enfermo desde la perspectiva de la interacción intraespecífica 30 , toda vez que ambos 30

La interacción intraespecífica, junto con la interespecífica, es objeto de estudio de la ecología de poblaciones.

24

Isagogé, 3 (2006)


componentes comparten el mismo contenido en DNA, básicamente. Desde este punto de vista, las relaciones son variadas: parasitismo, depredación; en definitiva, competencia por los recursos disponibles –espacio y nutrientes–. Y, bajo este paradigma, la población tumoral puede considerarse como una especie invasora que distorsiona al resto de la población celular, que está bien ordenada y coopera para formar tejidos funcionantes en el organismo. Cada especie tumoral, que surge dentro del conjunto somático, puede experimentar uno de los siguientes comportamientos: 1. puede ser sometida a una proliferación sin estricciones, que conducirá al conjunto celular normal a la extinción, formando así un tumor invasivo. Si esto es así, el tumor desarrolla una estrategia evolutivamente estable (EEE) 31 y domina sobre las demás. 2. puede desarrollar una coexistencia estable con las células normales, dando un tumor benigno. 3. puede ser eliminada por el tejido huésped y extinguirse. En este caso, la estrategia evolutivamente estable es desarrollada por la población celular normal. Una primera aproximación al problema de las interacciones huéspeds parásito es el cálculo del índice de diversidad (Hs) según Shannon y 32 Weaver (7), donde s representa el número de especies celulares Hs = – ∑ piLnpi (7) presentes en el grupo y pi la frecuencia relativa por unidad de superficie i=1 (abundancia) de la especie celular i-ésima (toma valores desde 0 a 1). Se añade el signo negativo para que H quede positiva. El principio de exclusión competitiva fue inicialmente enunciado por Darwin (1859). Aplicado a las poblaciones celulares que nos ocupan, afirma que «Dos especies celulares con necesidades idénticas de recursos (espacio y/o nutrientes) no pueden ocupar el mismo nicho». Si se verifica este principio (que lo hace y su demostración es empírica), entonces, una de las dos poblaciones celulares acaba expulsando a la otra, lo que vale decir, que se extingue. Corolario: Si dos especies celulares coexisten, debe haber diferencias entre ellas en cuanto a la necesidad de recursos. Esto es, es necesaria cierta diferencia para que se produzca la coexistencia entre especies competitivas de entornos saturados. Sea xh (t) y xp(t) las dos poblaciones –huésped y parásito–. En ausencia de cualquier tipo de interacción entre ellas, se supondrá que se desarrollan siguiendo un modelo de tipo logístico. Esta variación en el tamaño de las especies celulares se ve afectada, en cada caso, por un término negativo (llamado coeficiente de competencia) que es dxh/dt = rhxh (1- xh/kh)- hhxhxp (8) proporcional al número de encuentros entre las células de ambas dxp/dt = rpxp (1- xp/kp) – hpxhxp (9) especies. Así, el modelo más simple de competencia posible es el descrito con el sistema de ecuaciones diferenciales (8) y (9), donde rh y rp son las tasas de crecimiento de cada una y kh y kp dxh/dt = rhxh (1-xh/kh –ahpxp/kh) (10) son las capacidades de soporte del medio para las poblaciones dxp/dt = rpxp (1- xp/kp –aphxh/kp) (11) respectivas en ausencia de interacción. Haciendo hh= ahprh/kh y hp = aphrp/kp en (8) y (9) resulta (10) y (11), donde ahp y aph son los coeficientes que miden el efecto de competencia de xp sobre xh y de xh sobre xp respectivamente. En general, se cumple que ahp ≠ aph. Nosotros hemos definido una expresión para el impacto que una determinada célula tiene sobre las que la rodean, que es de la forma: I = Ni · c · d (12) donde Ni representa el número de células que se ven relacionadas con la célula dada, c es el consumo celular de los recursos y generación de residuos y d es el estado de diferenciación del i= p i=n conjunto. Basándonos en dicha expresión, introducimos el siguiente ∏ / ∏ (13) Postulado: Cada tejido tiene asignado un nivel máximo o umbral de impacto i=1 i=1 permitido por encima del cual la estabilidad tisular se hace crítica. Como cada célula tiene un estado diferenciativo distinto que está en función de los exones expresados, se puede escribir la siguiente expresión para una célula dada (13), donde p designa el ordinal del 31 32

Para una definición de EEE, véase nuestro trabajo: La evolución de la ontogenia en Isagogé nº 0.

Las especies celulares se definen como las células en los diferentes estados del ciclo celular: G0, G1, S, M (Profase, Metafase, Anafase, Telofase, Citocinesis)

Isagogé, 3 (2006)

25


conjunto de proteínas para un estado diferenciativo dado y n es el número total de proteínas expresable para un genoma dado, con p<n. De otra forma, el numerador expresa el fenoma 33 de una determinada célula y el denominador designa el genoma de la misma. Está comprobado que la interfaz tumor-huésped es una estructura compleja que está regulada por procesos estocásticos y no lineales para los que, de momento, no se dispone de un marco teórico adecuado. Las propiedades fenomáticas de cada población celular de tamaño Ni se identifican por una estrategia ui que define su interacción con factores del entorno que controlan la proliferación 34 y distribución de sustratos. De forma característica, se dispone de un conjunto de posibles estrategias que están en función del número de genomas viables que pueden ser generados mediante mutaciones del genoma. Cada mutación genómica produce una nueva estrategia celular que confiere alguna ventaja a la función Hi sobre la población celular definida por su capacidad para proliferar en el contexto de las estrategias utilizadas por las poblaciones adyacentes. Establecemos, pues, el Criterio: Para una población tumoral, la esperanza matemática de ui es positiva. Más precisamente: E (ui) >0 (14) Las restricciones evolutivas impuestas sobre la población tumoral son eliminadas suponiendo una tasa de mutación aumentada por efecto de inestabilidades (cromosómica o de microsatélites), o factores mutagénicos del entorno (la infección o la inflamación crónica). Pero lo que se mantiene es la competencia celular por los recursos críticos, que deviene en una serie de presiones de selección darvinianas que favorecen aquellos genomas que incrementan la distribución de dichos recursos (por ejemplo, la angiogénesis y los transportadores de membrana). ¿CONCLUSIONES? La vida pretende crecer, multiplicarse y, con ello, expandirse. Si las células cooperan en la construcción de un organismo, tal crecimiento es controlado. Escribámoslo ya: un organismo sólo es posible bajo una política de crecimiento represiva. La más pequeña de las libertades puede resultar fatal porque el oncocito no obedece a la regulación que impone el organismo y cualquier cambio, en cualquier lugar, puede resultar dramático para la integridad del sistema. Pensamos haber encontrado, al menos, cuatro características que rigen la competencia tumorhuésped, a saber: una contribución decreciente de las especies celulares a las siguientes generaciones; el(los) recurso(s) por el(los) que compiten las especies celulares a las siguientes celulares tiene un aporte limitado; la reciprocidad y, por fin, la dependencia de la densidad. Teóricamente, el crecimiento neoplásico y su impacto sobre el huésped pueden ser controlados interrumpiendo la formación del nuevo orden estructural y funcional o controlando sus procesos metabólicos para llevarlos al equilibrio, o estimulando la adaptación del huésped a la estructura parasitaria que ha surgido de él mismo. Estos planteamientos teóricos deben ser contrastados con los tradicionales de la ciencia natural y la medicina –experimentos en el laboratorio y ensayos clínicos 35 . BIBLIOGRAFÍA GREENSPAN, H. P. (1976): «On the growth and stability of cell cultures and solid tumors», JTheoBiol, 56, pp. 229-242. HANAHAN, D. y R. A. WEINBERG (2000): «The hallmarks of cancer», Cell, 100, pp. 57-70. HARDIN, G. (1960): «The competitive exclusion principle», Science, 131, pp. 1.292-1.297. MAY, R. M. (1976): Theoretical Ecology: principles and applications, Blackwell Scientific Publications. 33

También hemos definido el fenoma como la proporción de proteínas expresadas en una célula dada del total de proteínas codificadas en los exones del genoma. 34 tales como promotores, factores de crecimiento o inhibidores (incluidos los fármacos quimioterápicos) 35 Dedico este artículo a la memoria de: mis tíos Ángel Martínez Prado, Manuel García Ferrer, Francisca Caballé y Pedro Cambronero; mis vecinos Emilio Mingorance, Daniel Gallardo Gallego, Antonio Moruno, Manuel Pedrajas y su hija Maite Pedrajas, Rafael Hidalgo (padre de mi amigo Juan Luis Hidalgo), Fº Pérez Merino, mis amigos Purificación Millán, José Fº López Lucena y Carlos León Mejía (hijo de mi mentor y amigo Antonio León Sánchez); Juan Murcia Navas; Carlos Padilla Martínez; José García (mi peluquero); Rosario Arenas Bueno, Salvador Arenas Bueno, Mª del Rosario Lopera Arenas y Pablo Cabrera Alcántara; a Stephen Jay Gould, un maestro en la distancia. Ellos, y sus familiares, saben por qué. Por último, a nuestro secretario y amigo Antonio José Miralles Aranda; y a Ángeles Martínez Arcos, ineludible.

26

Isagogé, 3 (2006)


RELACIÓN ENTRE LA INTENSIDAD DEL TRÁFICO WEB Y EL NÚMERO DE ALUMNOS EN LOS CAMPUS ESPAÑOLES * Pedro María Santiago del Río, Ignacio Gutiérrez León y Jesús Martínez García El objetivo fundamental de esta investigación consiste en realizar algunos pequeños avances en el estudio de la relación entre el número de alumnos de una universidad y su necesidad de ancho de banda real, para poder aprovechar los recursos informáticos de una manera mucho más eficiente. Cuando se construye una nueva universidad, ésta, entre otras muchas cosas, necesita acceso a Internet. Para acceder a la red, solicita una conexión a RedIris de un determinado ancho de banda. RedIris es una red troncal (backbone) formada por un conjunto de nodos distribuidos por el territorio nacional, conectados entre sí por un conjunto de enlaces que forman una red (ver figura 1). En la actualidad, no existe ninguna fórmula que relacione el número de usuarios de una comunidad con el ancho de banda estimado que van a necesitar, como tampoco para el caso del número de estudiantes de una universidad y el ancho de banda que necesitan. De esta forma, no se puede determinar con exactitud el ancho de banda que hay que destinar a las universidades. Pero obteniendo una fórmula del tipo que aquí buscaremos, se podría conseguir una buena aproximación de las necesidades reales de los campus. Quizá no sea posible, al menos por ahora, una medición 100% exacta, pues resulta evidente que entran en juego otros factores de manera determinante (como, por ejemplo, el número de profesores, centros de investigación, tipo titulaciones impartidas,...); pero, al menos, sería deseable obtener una referencia que nos pudiese ayudar, puesto que el ancho de banda de las redes de comunicaciones es un recurso limitado. Actualmente, si contemplamos el tráfico generado en los nodos de las distintas universidades y la capacidad de la línea que se les ha sido asignada, podemos observar que no se utiliza ni un 5% de la capacidad (ver figuras 2-3). Se infrautiliza la línea y se paga por un ancho de banda muy grande que no se emplea. *

El presente artículo forma parte de una investigación a la que se ha concedido una beca de aprovechamiento académico excelente de la Comunidad de Madrid durante el Curso 2005-6.

Isagogé, 3 (2006)

27


La relevancia del problema es clara: RedIris proporciona ancho de banda a los campus universitarios, como lo puede hacer una operadora con un conjunto de clientes. Si logramos obtener una relación que nos permita conocer el tráfico generado frente al número de alumnos de un campus, tendremos una valiosa información para acotar las dimensiones de futuros accesos a campus universitarios, con el consiguiente ahorro económico. Además, este resultado se podría extrapolar al ancho de banda que necesita un usuario doméstico. Con esta información, las compañías de telecomunicaciones podrían construir líneas en sus centrales con un ancho de banda adecuado a las necesidades de cada caso y momento, evitando tener líneas congestionadas o con un ancho de banda desperdiciado. Parece obvio que, si existe una necesidad de consumo de ancho de banda medio en cada universidad, este consumo dependerá de diversos factores. Claramente, uno de los factores determinantes es el tamaño de la universidad. Las más modestas consumirán menos ancho de banda que las mayores. Hay muchos aspectos para medir el tamaño de una universidad (son bien conocidos ciertos rankings internacionales), pero uno de los indicadores más precisos es el número de estudiantes. Por tanto, cabe entonces preguntarse si el tráfico medio por estudiante será el mismo para universidades con una población discente similar, sin tener en cuenta otras consideraciones como la cantidad de Personal Docente e Investigador, el de Administración y Servicios, el número y tipo de centros de investigación, o el tipo de titulaciones impartidas. Nos centraremos en analizar si el tráfico generado por campus de tamaño medio tiene un grado de similitud importante. La premisa lógica de la que partimos es la siguiente: dos campus con el mismo número de alumnos pueden generar un tráfico, en principio, parecido. Las muestras para realizar este estudio se tomaron de los 'logs' de RedIris para los nodos de entrada de cada universidad entre el mes de febrero de 2004 y el de junio en 2005. Las universidades seleccionadas para el estudio han sido la Universidad Jaume I de Castellón (UJI), la Universidad de Cantabria (UniCan), Universidad de Burgos (UBU), Universidad de Illes Balears (UIB) y Universidad Miguel Hernández (UMH), cada una de las cuales tiene una población en torno a los 10.000 estudiantes (ver Cuadro 1). Se eligieron éstas porque en este trabajo se pretende analizar el tráfico medio por estudiante y, en dichos campus, la mayoría del mismo se debe a aquéllos. En otros campus más grandes existen centros de cálculo de notables dimensiones que utilizan el ancho de banda del mismo nodo y, por tanto, alteran las muestras de manera considerable. Los datos de RedIris, se filtraron de manera que las muestras con las que se elabora esta investigación correspondiesen con el tráfico medio por estudiante y segundo de todos los martes y miércoles entre esas dos fechas. Así evitamos, en la medida de lo posible, que nuestras muestras se vean alteradas por las irregularidades generadas por los días festivos o aquellos en los que, como el viernes, una gran parte de los estudiantes no tiene clase, y por tanto, no acude a la universidad. Una vez filtradas las muestras, se estudia la distribución que siguen, su media y varianza, valorando si son iguales o no entre universidades distintas y, en caso de que no lo sean, se analizan los posibles motivos.

28

Isagogé, 3 (2006)


Para realizar este análisis nos centraremos en técnicas tipo ANOVA (ANalysis Of Variance) El tráfico que se medirá es, en realidad, un promedio y lo que deseamos es comprobar la igualdad de resultados en cada caso. Por ello, será preciso recurrir a dichos procedimientos. El test ANOVA está basado en el análisis de las varianzas de las poblaciones. Sean μ1,…, μk las medias de las k poblaciones, se realiza el siguiente contraste de hipótesis:

La característica común de las poblaciones que se estudian se llama «factor», el cual tiene varios «niveles» representados por las poblaciones. En nuestro caso, el factor es una comunidad universitaria y los niveles son cada universidad en particular (UBU, UniCan,...) La comparación entre poblaciones se hace escogiendo una cantidad numérica, llamada «variable de respuesta», que se mide para cada elemento de la población, siendo en nuestro caso el flujo medio diario por estudiante. Para determinar si las medias de la población difieren, ANOVA compara la variación de la media de las poblaciones teniendo en cuenta la variabilidad interna en cada muestra. El test hace una relación entre los dos tipos de variaciones.

La alternativa no paramétrica al test ANOVA es el test de Kruskal-Wallis. Este último decide si las k muestras provienen de la misma población, es decir, siguen la misma distribución y tienen la misma media y varianza. Sin embargo, tan sólo requiere que las muestras sigan distribuciones continuas. El contraste de hipótesis es el siguiente:

El primer contraste realizado ha consistido en comprobar, como exige el test ANOVA anteriormente mencionado, que las poblaciones siguen una distribución normal. Para ello, se ha aplicado el test estadístico de Shapiro-Wilks (ver tabla 2).

En el test de Shapiro-Wilks se acepta H0 al nivel de significación del 5% para las universidades UBU, Unican, UMH y UIB, rechazando H0 para UJI. Dicho resultado se esperaba, ya que, tal y como se puede observar en la figura siguiente, las funciones de densidad de nuestras muestras y la de la distribución normal teórica son similares. A continuación se ha realizado el test de Levene para verificar la otra hipótesis necesaria para el test ANOVA: la de igualdad de varianzas. Para cualquier nivel de confianza ha resultado que las varianzas son distintas. Ya que no se cumplen las hipótesis del test ANOVA, se ha tenido que aplicar el test de Kruskal-Wallis, que Isagogé, 3 (2006)

29


comprueba lo mismo exigiendo sólo distribuciones continuas (que lo son, pues, de hecho, hemos visto que son Normales). Para un nivel de significación del 0,05, se rechaza la hipótesis nula. Esto es, que todas las muestras no provienen de la misma población. En la figura 22 puede verse la fuerte variación entre las poblaciones. Se representa con una línea horizontal roja la mediana, y un polígono azul delimita los cuartiles superior e inferior. Por último, la línea punteada sigue hasta unir todos los valores. Se aprecia así que las únicas poblaciones que contienen una media similar son UMH y Unican. De hecho, sólo estas dos muestras pasan de manera favorable el test ANOVA. Se concluye que el tráfico medio por estudiante no es el mismo para todas las universidades. Este resultado es bastante sorprendente, pues la lógica nos hace conjeturar que el tráfico debería ser muy similar en todos estos campus, que son muy similares entre sí, por estar situados en el territorio nacional y contar con un número muy similar de alumnos. Debemos pensar que otros factores influyen de manera determinante en el tráfico medio de la universidad, como la proporción de profesores y PAS respecto al resto de miembros de la comunidad universitaria, el número de terminales con acceso a la Red, el tipo de titulaciones que se imparten, el número y tipo de centros de investigación y/o de cálculo. Esto hace que sea necesaria una nueva investigación de mayor complejidad teórica, que requerirá el uso de funciones probabilísticas en varias variables y la determinación y observación de los factores que influyen y en qué medida lo hacen. Sólo de esta manera podríamos saber las verdaderas causas de por qué no se ha obtenido el resultado que esperábamos. Este podría ser el siguiente paso en la búsqueda de una fórmula que nos permitiese relacionar el ancho de banda con una serie de factores (entre ellos el número de alumnos). Aunque no hayamos podido demostrar nuestras conjeturas con métodos estadísticos, hemos llegado a un resultado importante: el tráfico medio por estudiante sigue una distribución normal. Esta conclusión, aunque era de esperar, supone una información útil al poder ser utilizada en futuras investigaciones, pues muchos contrastes y otros métodos estadísticos requieren la consideración de dicha hipótesis. BIBLIOGRAFÍA DEVORE, J. L. (1999): Applied statistics for engineers and scientists, Duxbury. PEÑA, D. (2001): Fundamentos de estadística, Alianza.

30

Isagogé, 3 (2006)


ARTÍCULOS VARIOS

EN BUSCA DE LUCA M. Martínez Luque-Romero y F. Castillo Rodríguez 1. EL ÁRBOL UNIVERSAL DE LA VIDA EN EL PLANETA TIERRA Charles Darwin apuntó al final del Origen de las especies (1859): «Tengo que inferir, por tanto, que todos los seres orgánicos que han vivido en la Tierra han descendido de alguna forma primordial en la que comenzó a latir la vida». Esta forma primordial o antepasado común de toda la vida terrestre es el postulado fundamental de la Biología Evolutiva y ha recibido diversos nombres: cenancestro, LUCA (last universal common ancestor), LCA y MRCA (most recent common ancestor), que se usan como sinónimos aunque realmente resulta muy difícil definir con precisión sus relaciones. Su búsqueda es el «Santo Grial» de la filogenia. La filogenia, la genealogía o parentesco en el tiempo de las especies, se representa mediante grafos de topología dendriforme llamados árboles filogénicos. Éstos se construyen comparando información fenética (filogenia clásica) o genética (filogenia molecular) de parejas del conjunto cuya genealogía se desea establecer. La comparación se efectúa mediante algoritmos apropiados que miden distancia o similitud y los números obtenidos se representan por un grafo reticular cuya raíz se puede encontrar disponiendo de una referencia ajena al conjunto llamada grupo externo. En la bibliografía se encuentran multitud de ejemplos que van desde la escueta y única figura del Origen de C. Darwin (1859), pasando por los impresionantes y descabellados árboles de E. Haeckel (1874), hasta los basados en principios cladistas y moleculares actuales cuyo aparataje informático y estadístico desborda a los no especialistas. El objetivo principal de la filogenómica, el ambicioso programa de integrar filogenia y genómica (análisis de los genomas), es construir el árbol filogénico universal que incluya toda la vida terrestre (Fig. 1). Este abordaje de envergadura darwiniana comenzó cuando Woese y sus colaboradores emplearon los rRNA 16S como cronómetros idóneos y obtuvieron el cladograma que define los tres famosos Dominios de la vida (Archaebacteria, Eubacteria, Eukarya). Pudiera parecer imposible tratar de enraizar el árbol universal (¿con qué grupo externo podría compararse?). Sin embargo, esta dificultad se soslaya (R. Schwartz y M. Dayhoff, 1978) empleando dos secuencias de DNA (genes parálogos) surgidas por duplicación de una ocurrida en el antepasado universal y reconociendo las sinapomorfías (estados avanzados compartidos) de secuencias presentes en los tres Dominios. Figura 1. Árboles filogénicos universales basados en principios filogénicos. A) W.F. Doolitle (1999): Science 284, 2124-2128. B) C.R. Woese (2000): PNAS 97, 8392-8396.

Los dos principios en que se basa la construcción de un árbol filogénico universal (herencia vertical por cladogénesis y constancia de la velocidad de mutación) no son inviolables. Otros procesos, como la especiación por fusión (parcial o transferencia genética horizontal HGT y total o endosimbiosis) o la selección intensa, hacen que un linaje gane o pierda genes rápidamente y modifican la velocidad de evolución. Por todas estas razones, cuando se comparan diferentes lotes de secuencias Isagogé, 3 (2006)

31


puede ocurrir que se obtengan árboles filogénicos de topología distinta (incongruencia) que debilitan la idea de árbol como grafo adecuado para representar la filogenia. Basta revisar un poco la bibliografía para percatarse de la gran complejidad del problema. Las posiciones van desde los autores que piensan que la reconstrucción filogénica es imposible hasta los que creen que aún no se dispone de algoritmos de búsqueda con suficiente resolución para proporcionar señales filogénicas adecuadas. Lo que sí parece estar claro es que se ha sobreestimado la cantidad de HGT (C.G. Kurland et al., 2003). El problema de la incongruencia podría resolverse si se demuestra la hipótesis del core (R. Jain et al., 1999), es decir, la existencia de un subconjunto conservado de genes informativos relacionados con los aparatos transcripcional y traduccional que, por formar parte de redes reguladoras complejas, tiene poca probabilidad de transferirse horizontalmente. La aplicación del algoritmo CR (reconstrucción condicionada) a ocho (J. A. Lake y M. C. Rivera, 2004) o diez (A.B.Simonson et al., 2005) genomas secuenciados pertenecientes a los tres Dominios ha permitido deducir dendrogramas que, ¡simplemente! son permutaciones de un patrón cíclico. Es decir, el árbol filogénico universal de la vida no tiene ni muchas ni una raíces: es una ¡circunferencia! denominada anillo de la vida (Fig. 2A), de manera que la topología general o grosera de la filogenia se parece más a una red complicada que a un árbol, aunque se siga llamando «árbol universal» (Fig. 2B) Sin embargo, la cuestión no está, ni mucho menos, cerrada, porque en este grafo no se incluyen los virus (que carecen de rRNA y cuyo origen sigue siendo muy discutido)

Figura 2. «Anillo de la vida» (A) y el árbol filogénico universal modernizado (B). Se emplea un sistema tiempo (t)-espacio biológico (EB) todavía por determinar. B

2. NATURALEZA DE LUCA «La raíz de todas las raíces» (S.L. Baldauf, 2003) es «la cuestión más importante y menos reconocida de la biología actual» (C.R. Woese, 1987). ¿Corresponde LUCA/ LCA/cenancestro a la primera entidad viva?

Figura 3. Escenarios del origen y evolución de la vida terrestre.

Existen, obviamente, dos posibilidades (Fig. 3). En el caso de que la respuesta fuera no, LUCA procedería de una entidad anterior que podría ser lo que C. de Duve 32

Isagogé, 3 (2006)


(2003) denomina FUCA (first universal common ancestor). A LUCA se habría llegado a través de un cuello de botella o catástrofe o por un proceso de coalescencia, es decir, cuando la probabilidad de escisión de un linaje en otros dos es igual a la de extinción de uno de ellos. Con independencia de la respuesta correcta (desconocida por ahora) hay algo que parece estar claro, a saber, que los antepasados de Bacteria y Achaea debieron ser bastante complejos porque los análisis de los grupos de genes ortólogos (COG) realizados por diferentes autores indican un complemento de 200-300 genes. La «raíz» de Bacteria-Archaea podría haber tenido una complejidad génica intermedia, pero también otra mayor o menor. Todo depende de la preponderancia que tuvieran en la evolución primordial la cladogénesis, la HGT y la pérdida de genes. Sin embargo, desde el punto de vista de la lógica química (autoorganización progresiva) parece sensato suponer que las primeras entidades vivas eran tanto más sencillas cuanto más se retrocede en el tiempo. I. PROCESADO DE LA INFORMACIÓN La propiedad más genuina de los sistemas vivos, y que ha conmocionado a los pensadores, es la intencionalidad. Esta forma de actuar requiere información (conocimiento). La información biológica actual es secuencial y está contenida en (codificada por) el genoma (de DNA). El rastreo filogenómico de los procesos informáticos de los sistemas vivos es, por tanto, crucial para comprender su aparición. L. Collins y D. Penny (2005) han analizado los espliceosomas (maquinaria que procesa los transcritos) de veintiuna especies de eucariotas y han encontrado que la complejidad de dicho aparato en el antepasado de Eucarya fue similar a los actuales. Más del 80% de los segmentos conservados de veinte proteomas de los tres Dominios (L. Delaye et al., 2005) corresponden a proteínas que interaccionan directamente con el RNA o participan en la biosíntesis de ribonucleótidos o de RNA. Estos resultados y otros muchos llevan a pensar que las redes cinéticas e informáticas que hicieron posible la vida (mantenimiento, replicación, evolucionabilidad) de LUCA se caracterizaban por el predominio del RNA y las proteínas. A esta fase se la denomina mundo de las ribonucleoproteínas (mundo RNP). En el mundo de las RNP ya existían moléculas funcionalmente equivalentes a los RNA (mRNA, rRNA y tRNA) y las proteínas actuales y algún tipo de código genético. Dado que el mundo de las RNP sigue siendo bastante complejo desde el punto de vista químico, los investigadores se han visto forzados a postular la existencia de otros mundos organizados anteriores de los que, por definición, el análisis filogenómico poco tiene que decir. II. PROGENOTA/GENOTA C.R. Woese (1997) propuso que LUCA no es un organismo sino una comuna de agregados supramoleculares (SMA) metabólicamente complementarios dotados de pequeños cromosomas lineales que experimentan frecuentes y multidireccionales HGT. Esta entidad génica (progenota) se caracteriza por una relación imprecisa genotipofenotipo en la que todavía no se había establecido el dogma central de la biología molecular (DNA → RNA → Proteína) y la barrera de Weismann (impermeabilidad soma-germen) que define las especies o entidades genómicas (genota). El modelo del atemperamiento genético (C.R. Woese, 1998; Fig. 4) indica que al irse enfriando la temperatura evolutiva (una función de las frecuencias de mutación y HGT) fueron cristalizando fraccionadamente los subsistemas relacionados con el procesamiento de la información (traducción → transcripción → replicación) y haciéndose cada vez más refractarios. El punto de inflexión de la vida terrestre que separa los mundos protobiótico (precelular) y biótico (celular) se ha denominado umbral de Darwin (C.R. Woese, 2002). Isagogé, 3 (2006)

33


Figura 4. Modelo del atemperamiento genético de la evolución primitiva.

Desde el punto de vista conceptual la propuesta de Woese parece impecable y modelos teóricos desarrollados por M. Santos et al. (2003) concuerdan plenamente con la idea de progenota. No obstante, los resultados filogenómicos indican que la raíz de Bacteria-Archaea tiene más cohesividad génica de la que debiera esperarse para progenota. ¿Significa que esta fase evolutiva fue anterior a LUCA? ¿Son la misma entidad progenota y FUCA? III. MATERIAL GENÉTICO LUCA podría haber tenido un genoma de RNA o DNA y A. M. Poole y D. T. Logan (2005) han discutido los dos posibles escenarios (Fig. 5), siendo las ribonucleótido reductasas RNR (enzimas que convierten los ribonucleótidos en 2´-desoxirribonucleótidos) las moléculas clave que podría proporcionar la solución del problema.

Figura 5. Posibles genomas de LUCA.

a) Los estudios de D.D. Leipe et al. (1999) relacionados con el aparato de la replicación del DNA se han interpretado suponiendo que éste evolucionó independientemente en los linajes Bacteria y Archaea/Eucarya. Estos autores han indicado que LUCA dispuso de un ciclo genético de tipo retrovírico (el DNA no se fabrica por replicación sino por retrotranscripción). P. Forterre (2005) ha propuesto: i) hipótesis del origen vírico del DNA (los virus «inventaron» el DNA para protegerse de las RNAsas de las células de RNA hospedadoras o ribocitos) y ii) hipótesis de los «tres virus-tres Dominios» según la cual Bacteria, Archaea y Eukarya se formaron por transferencias génicas de virus de DNA a tres linajes de LUCA de RNA distintos. b) No obstante, existen pruebas filogenómicas en favor de que el DNA bicatenario ya se había establecido antes de la divergencia de los tres Dominios: i) Las RNR son monofiléticas y ii) las complejas y universales enzimas de los sistemas genéticos operan con precisión pero un genoma de RNA no podría codificarlas con mucha fidelidad (umbral del error) a no ser que polimerasas proteicas reparadoras lo hicieran posible. IV. MEMBRANA La diferencia bioquímica más notable entre Archaea y Bacteria es la estereoquímica del glicerol-fosfato de los fosfolípidos de membrana, que generalmente son éteres de isoprenoides en el primer taxón y ésteres de ácidos grasos en el segundo (Y. Koga et al.,1998). El análisis filogénico ha revelado que los genes que codifican las 34

Isagogé, 3 (2006)


enzimas responsables de la síntesis del G-1-P arqueano y del G-3-P eubacteriano no son homólogos porque las sn G-1-P y G-3-P deshidrogenasas correspondientes (G1PDH y G3PDH) sólo se parecen en el segmento (dominio) con el que se unen al NAD(P)H. G. Wächtershäuser (2003) ha propuesto la teoría de que LUCA podría haber tenido una membrana formada por una mezcla racémica (heteroquiral) de fosfolípidos (menos estable) y que posteriormente se produciría una rotura espontánea de simetría al seleccionarse membranas homoquirales más estables: fosfolípidos de G-3-P en la rama Eubacteria/Eukarya y fosfolípidos G-1-P en la rama Archaea. V. METABOLISMO Según J. Castresana et al. (1995, 1999) LUCA tuvo un sistema de fosforilación oxidativa acoplado a una o varias cadenas respiratorias anaerobias (NO3-, SO4= y S) o aerobias (O2) junto con las enzimas que les proporcionaran los electrones, un sistema fijador de nitrógeno y otro desnitrificador ya que tanto en Archaea como en Bacteria se encuentran las enzimas correspondientes. También es probable que tuviera un sistema fijador de CO2 de los tres existentes. Por el contrario, no es probable que LUCA fuera fotosintético, ya que en Archaea no se han encontrado centros de reacción clorofílicos. VI. ENCLAVE La hipótesis del reactor hidrotermal (M. J. Russell y W. Martin, 2004; E. V. Koonin y W. Martin, 2005) postula que LUCA emergió no en los humeros submarinos negros (demasiado calientes) sino en los «blancos», asociados a un gradiente térmico de 20-110º C, en los que podría haber jugado un papel preponderante el equivalente inorgánico de la ruta del acetato. Esta teoría es un perfeccionamiento del mundo del hierro-azufre de G. Wächtershäuser (1988). 3. ANTES DE LUCA Existen, por consiguiente, muchas incertidumbres sobre la naturaleza de LUCA. Y lo que es peor: LUCA no resuelve el problema del origen de la vida en la Tierra (J. Whitfield, 2004). La sentencia de L. E. Orgel «Nada es seguro sobre el origen de la vida» (1998) sigue vigente. Un sistema vivo mínimo no puede tener tanta complejidad como LUCA o FUCA. Deben haber existido sistemas autoordenados mucho más simples como los postulados por los mundos del RNA y del preRNA (Fig. 6).

Figura 6. Hipótesis de C. de Duve (2003) sobre la biogénesis terrestre.

4. BIBLIOGRAFÍA RECOMENDADA DOOLITE, W. F. (1999): «Phylogenetic classification and the universal tree», Science, 284, pp. 2.124-2.128. DUVE DE, C. de (2003): «A research proposal on the origin of life», Orig. Life Evol. Biosph., 33, pp. 559-574. MARTÍNEZ, M. [et alii] (en prensa): El problema de la biogénesis, Ser. Publ. UCO. RIVERA, M. C. y J. A. LAKE (2004): «The ring of life provides evidence for a genome fusion origin of eukaryotes», Nature, 431, pp. 152-155. WOESE, C. R. (2002): «On the evolution of cells», PNAS, 99, pp. 8.742-8.747.

Isagogé, 3 (2006)

35


INVESTIGANDO EL LÍMITE K-T Antonio José Miralles Aranda INTRODUCCIÓN La Tierra, como el resto de astros del Sistema Solar, ha recibido a lo largo de su historia un elevado número de impactos de meteoritos. La mayoría se produjeron en las etapas iniciales de su formación y a ellos debemos agradecer que trajeran a la Tierra prácticamente la totalidad del agua actual existente y, por ende, la vida en este planeta. Paradójicamente, desde que la vida comenzó a desarrollarse, estos impactos, aunque menos numerosos, han provocado grandes catástrofes e incluso notables extinciones. Sin duda, uno de los más estudiados y de mayor interés se corresponde con el acaecido en la Tierra hace 65 millones de años, en la transición del Cretácico superior al Terciario inferior o Paleoceno, y que se señala hoy como la explicación más plausible para explicar la gran extinción del Terciario, incluyendo la desaparición de los grandes dinosaurios. EXPLICACIÓN DEL LÍMITE K-T Fue Walter Álvarez, geólogo de la Universidad de Berkeley (California) quien, en 1980 y con la colaboración de su padre, Luis W. Álvarez (Premio Nobel de Física en 1978), dio cuerpo a esta teoría. Ambos estudiaron el contenido de Iridio (Ir, un elemento extraño en la Tierra y frecuente en la composición de los meteoritos) en una muestra de un delgado estrato de arcilla gris claro (extraída de los Apeninos italianos), material datado en ese mismo período de transición (límite K-T) 1 , encontrando 30 veces más Ir del esperado. Por su parte y dando respuesta a la localización del impacto, la compañía estatal de petróleos mexicanos PEMEX descubrió en 1981, mediante sus perforaciones, un nivel de rocas fracturadas que, sumado a estudios magnéticos, revelaron una estructura circular enterrada y con idéntica fecha a la de la muestra antes citada. El meteorito en cuestión fue llamado KT e impactó en la hoy conocida como península del Yucatán (México), sobre la actual ciudad de Chicxulub, dejando un cráter de 176 a 300 Km. de diámetro, hasta el día de hoy el mayor conocido en la Tierra. Su edad aproximada es de 64’98 millones de años, con un margen de ± 60.000 años, encajando fielmente con el límite K-T establecido en 64’3 millones de años ± 1’2 millones aproximadamente. El asteroide, que tendría un diámetro aproximado de unos 10 kilómetros, cruzó la atmósfera a una velocidad de 25 kilómetros por segundo e impactó con una fuerza equivalente a cinco mil millones de bombas atómicas. Los efectos derivados del impacto fueron numerosos. El choque creó nubes de ácido sulfúrico y lanzó a la atmósfera grandes cantidades de partículas, afectando a una superficie de 200.000 Km2. La sacudida directa y el calor del impacto pudieron 1

Vid. W. ÁLVAREZ, F. ASARO, H. V. MICHEL y L. W. ÁLVAREZ (1982): «Iridium anomaly approximately synchronous with terminal Eocene extinctions», Science, 216, pp. 886-888. Etiam J. SMIT y J. HERTOGEN (1980): «An extraterrestrial event at the Cretaceous-Tertiary boundary», Nature, 285, pp. 198-200.

36

Isagogé, 3 (2006)


aniquilar toda la vida en un radio de 1.600 Km. desde el punto donde cayó, mientras los tsunamis y terremotos devastarían todo lo que se encontrase a nivel del mar en la cuenca Atlántica y más gravemente en el Golfo de México. En efecto, se han encontrado capas de escombros de más de un metro de grosor, provocadas por las olas de los tsunamis por todo el Caribe, y depósitos que se extienden hasta 700 kilómetros tierra adentro. Estos hechos han sido corroborados por los resultados de estudios realizados en Cuba. Según Abel Hernández, en esa zona se encontraron fósiles de ostreas (ostras), sifones (tubos de moluscos), rudistas (moluscos bivalvos marinos) y una gran cantidad de erizos de mar, fauna «guía» del Cretácico Superior y que compartieron con los dinosaurios la colosal catástrofe que marcó el límite K-T. De mayor interés para nosotros es el tránsito Cretácico-Terciario registrado en España 2 . Existen importantes y relevantes estudios en la región pirenaica, como los de Zumaya (País Vasco) y, sobre todo, en la costa levantina, en las localidades de Agost (Alicante) y Caravaca (Murcia), pues formaron parte de la antigua cuenca del Mar del Thetis. El estudio de los distintos indicadores cronológicos y paleoambientales (microrrestos de invertebrados, vertebrados, plantas, isótopos de Sr87, C13 y O18), el hallazgo de microesférulas de Si y Si-Al y la correlación de su situación en las columnas estratigráficas, una vez establecida la sucesión de secuencias deposicionales con las del límite KT, han venido a corroborar las teorías de W. Álvarez 3 . El límite K-T se refleja a nivel global en una capa de sedimentos que va de 1 a 2 mm. de grosor a unos pocos cm. (ver foto) y que presenta inusuales cantidades de Ir, microtektitas de vidrio y espinelas de níquel (testigos de la lluvia de restos, procedentes de un gran impacto). No obstante, la prueba definitiva parecen aportarla los fulerenos, unas moléculas de carbono que adoptan una estructura esférica en condiciones de metamorfismo por impacto y que son capaces de retener átomos en su interior. El estudio de estos átomos nos permite distinguir isótopos del H y He (gases nobles) diferentes a los terrestres, que debieron proceder del espacio y que ya han sido encontrados a lo largo de todo el límite K-T 4 . CAMBIOS A NIVEL PLANETARIO Los materiales proyectados posiblemente cayeron formando en la atmósfera un mar de lava, que originó incendios por doquier. El hollín y la nube polucionante de sulfatos y aerosoles, procedente del meteorito, oscurecieron la atmósfera durante años y absorbieron el 90% de la luz que llegaba del Sol, dejando que en la superficie reinaran temperaturas inferiores a anteriores glaciaciones. Posteriormente la acumulación de dichos gases, incluyendo el CO2, derivaría en un efecto invernadero que aumentó posteriormente la temperatura media del planeta, hasta que el océano redujo sus niveles. 2

E. DÍAZ-MARTÍNEZ (2005): «Registro geológico de eventos de impacto meteorítico en España: revisión del conocimiento actual y perspectivas de futuro», Journal of Iberian Geology, 31 (1), pp. 65-84. 3 R. COCCIONI y S. GALEOTTI (1994): «K-T boundary extinction: geologically instantaneous or gradual event? Evidence from deep sea benthic foraminifera», Geology, 22, pp. 779-782. 4 T. ARINOBU, R. ISHIWATARI, K. KAIHO y M. A. LAMOLDA (1999): «Spike of pyrosynthetic polycyclic hydrocarbons associated with an abrupt decrease in δ13C of a terrestrial biomarker at the Cretaceous-Tertiary boundary at Caravaca, Spain», Geology, 27, pp. 723-726. Isagogé, 3 (2006)

37


Como prueba de ese súbito descenso de temperatura, se han encontrado en la región de El-Kef, Túnez (antigua parte oriental del Thetis), dos nuevas especies de foraminíferos bentónicos (criaturas microscópicas adaptadas al agua fría) que, justo después del impacto, invadieron un mar que hasta entonces había sido cálido. Junto a ello se encontró una diferencia curiosa en el gasterópodo Cibicidoides pseudoacutus, cuyo caparazón puede enroscarse preferentemente hacia la derecha en aguas cálidas o hacia la izquierda en aguas frías. En el caso que nos incumbe, se registró tras el límite K-T un incremento proporcional con enroscamiento hacia la izquierda. Parece claro que la extinción Cretácico-Terciaria fue de tipo selectivo, ya que grupos enteros tales como los dinosaurios o los amonites fueron exterminados, mientras que otros permanecieron prácticamente inalterados. Se cree que los primeros organismos afectados pertenecerían al plancton marino y con ello, finalmente, se vio notablemente influido todo el ecosistema marino. Entre los grupos de invertebrados más castigados se encuentran los foraminíferos (fusulináceos, reducidos hasta en un 90%), corales (de los tipos tabulados y rugosos), equinodermos (blastoideos), briozoos, bivalvos, gasterópodos, anmonites y la desaparición de los últimos representantes de trilobites 5 . También desaparecieron múltiples especies de vertebrados dentro de los peces agnados, tiburones y anfibios. Por su parte, aunque las formas de vida animal terrestres pudieron soportar mejor el fenómeno, los efectos de este último se dejaron sentir de una forma notoria, llegándose a cifrar en, al menos, un 50 por ciento la desaparición de dichas especies, entre ellas gran parte de los representantes que ocupaban la cúspide de la cadena trófica (incapaces a su vez de regular eficazmente la temperatura corporal), entre los que destacaban los grandes dinosaurios como Inostrancevia (reptil terápsido teriodonto), Dinogorgon o Lycaenops (reptiles mamiferoides terápsidos). En cuanto a las especies vegetales, éstas sufrieron también importantes cambios, tales como la casi desaparición de los profusos bosques de Glossopteris (gimnospermas pertenecientes a la clase de las pteridospermas), cordaítes (gimnospermas de la clase de las pinópsidas) o calamites (helechos del orden equisetales).

2

Cuadro donde se muestra la extinción de microforaminíferos en el límite KT .

Volviendo al mar, «cuna de la vida», se produjo una regresión marina que condujo a la desaparición de parte de las plataformas continentales, las zonas más ricas 5

K. KAIHO y M. A. LAMOLDA (1999): «Catastrophic extinction of planktonic foraminifera at the Cretaceous-Tertiary boundary evidenced by stable isotopes and foraminiferal abundance at Caravaca, Spain». Geology, 27, pp. 355-358.

38

Isagogé, 3 (2006)


biológicamente hablando. En concordancia con lo anterior, se acumularon amplios depósitos de rocas sedimentarias salinas, que acarrearon cambios en los niveles de salinidad marina. Asimismo, la formación de un único supercontienente, Pangea II, favoreció la mayor presencia de climas del tipo continental en la superficie terrestre, con la aparición de variaciones más extremas en las temperaturas, lo cual produjo un aumento de la aridez continental. La emisión de cenizas, partículas y gases deberían haber afectado a multitud de especies por anoxia en los océanos y los cambios en el CO2 atmosférico, sumados a los de la temperatura global, ocasionarían alteraciones en la solubilidad marina del O2 y CO2. CUESTIONANDO LA HIPÓTESIS Sin embargo, algunos científicos muestran sus reticencias sobre esta teoría. Markus Harting cuestiona la datación del impacto y lo sitúa 300.000 años antes de la extinción de los dinosaurios, por muestras examinadas en México, Texas, Guatemala, Belice y Haití. No obstante, sí consideró los efectos del cataclismo como los causantes de la anterior desaparición de los amonites. Para el paleontólogo Peter Ward la mayoría de las extinciones masivas fueron causadas de forma gradual, sólo por cambios climáticos y no por colisiones de asteroides, lo que significaría que el planeta se encuentra hoy en medio del sexto evento de este tipo. Gerta Keller y su equipo han encontrado tektitas proyectadas del impacto de Chicxulub, pero éstas se hallarían separadas del límite K-T por una capa caliza de unos treinta centímetros rica en microfósiles y que presenta una estratificación. Estos indicios demuestran que, durante unos 300.000 años, se produjo un fenómeno de sedimentación lenta y, por lo tanto, nos dicen que la vida pudo continuar desarrollándose hasta la extinción masiva que acabó con los dinosaurios. Otro argumento que hace replantearse la hipótesis se encuentra en la región del Deccan, en la India, donde se tienen datos de la existencia de una falla de 400 Km. que dejó escapar lava en fusión durante varios meses. Hoy son conocidos como los «Trapps del Deccan», capas de rocas volcánicas de hasta 1 Km. de grosor. Los estudios demuestran que un vulcanismo con emisiones masivas de CO2 y de azufre es mucho más propenso a modificar el clima mundial que un meteorito. Por otra parte, se han podido asociar los «trapps» (indicios de un intenso vulcanismo) a cada una de las cinco grandes extinciones masivas que se han producido desde la aparición de la vida en la Tierra. CONCLUSIÓN A la vista de todas estas investigaciones, se puede concluir que es innegable que ocurrió un impacto devastador para la vida en la Tierra hace 65 millones de años, pero se nos antoja más difícil poder demostrar fehacientemente su grado de implicación en la masiva extinción de especies, de la cuál fue seguro parte implicada, pero no única. En cualquier caso, su estudio se prolongará por lo menos durante algunos años más.

Isagogé, 3 (2006)

39


ESTUDIO DEL PALEOMAGNETISMO TERRESTRE MEDIANTE DETECCIÓN DE 10BE EN SEDIMENTOS MARINOS PROFUNDOS. ESPECTROMETRÍA DE MASAS CON ACELERADORES (AMS) Aarón Ruiz Gómez 10

La producción de radionúclidos cosmogénicos tales como Be, 14C o 36Cl en la Tierra es proporcional al flujo de rayos cósmicos galácticos (GCR) que alcanzan las partes altas de la atmósfera. Esta radiación, que alcanza la atmósfera terrestre con energías comprendidas entre 100 y 10000 MeV, se compone aproximadamente de un 12% de partículas alfa y un 67% de protones y, debido a que las partículas cargadas son desviadas por los campos magnéticos, el flujo de GCR incidentes sobre la atmósfera de la Tierra está inversamente relacionado con el campo magnético interplanetario inducido por el Sol (IMF) y el campo magnético terrestre (GMF) debido al poder de apantallamiento que provocan[1]. Consecuentemente, la producción atmosférica de radionúclidos atmosféricos depende de (i) el flujo de GCR que llegan a nuestro sistema solar, (ii) el poder de apantallamiento del IMF y (iii) el poder de apantallamiento del campo geomagnético. Todos estos parámetros varían con el tiempo, pero en diferentes escalas. Para largas escalas de tiempo (>100 Ma) el flujo de GCR alcanzando el sistema solar se espera que varíe de manera significativa debido a que, con esa periodicidad, nuestro sistema solar pasa cerca de los brazos espirales de la Vía Láctea, donde la mayoría de estrellas masivas nacen y, poco después de morir, producen los GCR. Se piensa que las variaciones del flujo de GCR procedentes de fuera de nuestro sistema solar a lo largo de los últimos pocos millones de años son pequeñas comparadas con los posibles cambios que pudieron originarse en épocas más remotas debido a la proximidad de nuestro sistema solar a zonas de mayor actividad en el seno de la galaxia. Cabe también destacar que la IMF y el GMF mostraron varias fluctuaciones pronunciadas durante el Cuaternario Tardío [2]. Si bien los registros de paleointensidad magnética terrestre (GPI) muestran que el campo magnético terrestre varió en escalas de tiempo de cientos de años y aún más largas, los ciclos de variabilidad solar son mucho más cortos (los ciclos solares de 11, 87 y 210 años son bien conocidos) la variabilidad solar en escala de miles de años no ha sido aún detectada de manera que no dé pie a ambigüedades. Por tanto, se asume que la modulación geomagnética controla la variabilidad de la producción de núclidos cosmogénicos en la escala de varios cientos y miles de años, mientras que la variabilidad solar controla la producción en escalas de tiempo más cortas. Para este tipo de estudios nos centramos en uno de los radionúclidos citados al principio: El 10Be. Éste se produce principalmente en la estratosfera y es absorbido por aerosoles, quedando adherido a la superficie de éstos, siendo posteriormente eliminado de la atmósfera de manera rápida por medio de precipitaciones y tormentas secas (el tiempo de residencia en la atmósfera es de 1-2 años). En el océano, el 10Be es absorbido por partículas que se sedimentan y es lentamente eliminado de la columna de agua. Debido a que el tiempo de residencia oceánico del 10Be (500-1000 años) es mucho mayor que el atmosférico, las variaciones rápidas de la producción de 10Be que son de escalas de décadas o cientos de años llegan a ser fuertemente amortiguadas en el ambiente marino [3]. Por consiguiente, la variabilidad solar no puede ser reconstruida en registros de 10Be marinos, pero sí puede usarse este 10Be en sedimentos marinos para reconstruir cambios en el GMF, mientras que cambios a largo plazo del IMF y del flujo de GCR exteriores a nuestro sistema solar son registrados también. 40

Isagogé, 3 (2006)


De esta manera, si contamos con un testigo de sedimentos del que conocemos su tasa de sedimentación hasta una determinada profundidad, podremos datar sedimentos enterrados y, de este modo, si en ese sedimento podemos medir la cantidad de 10Be, tendremos datos de la actividad magnética terrestre en esa época.

1. Tasas de sedimentación en el ODP Site 1089 a lo largo de los últimos 580 ka. [4]

Nuestro objetivo es obtener la tasa global de producción de 10Be para distintas épocas (dentro del intervalo de datación que permiten las tasas de sedimentación conocidas) y para ello debe aplicarse un delicado proceso de corrección para cuantificar los procesos de transporte oceánico, la redistribución de sedimentos y el transporte lateral de 10Be y 230Th. Para la primera se aplica la normalización del 230Thex y el segundo se calcula usando un sencillo modelo de caja. La descripción de estos métodos va más allá del alcance de este artículo. La segunda parte de este breve ensayo, acerca de la determinación del paleomagnetismo terrestre por medio de la detección de radionúclidos cosmogénicos en sedimentos marinos profundos, nos gustaría dedicarla a hacer especial mención de la técnica que permite la medida de 10Be en la muestra a analizar. La espectrometría de masas con aceleradores (AMS) es una técnica analítica ultrasensible de detección de radioisótopos presentes en muestras a concentraciones extremadamente bajas y, sin la cual, la medida de éstos sería imposible. Recordemos que la semivida del 10Be es del orden de 1,5 Ma, lo que hace imposible su análisis con las técnicas tradicionales de recuento. La técnica AMS se podría entender como una especie de sistema de filtros que tratan de separar el 10Be existente en la muestra de todos los interferentes existentes en la misma para su medida final en el detector de ionización gaseosa. Ni que decir tiene que el material sedimentario del que se obtienen las muestras a analizar debe sufrir, previamente a la medida con AMS, un proceso químico de purificación, con el objetivo de eliminar todas aquellas sustancias que entorpezcan el funcionamiento del sistema. Una vez colocadas las muestras en la fuente de iones, son sometidas al denominado proceso de sputtering, mediante el cual se obtiene un haz con distintos iones moleculares (todos ellos con estado de carga -1). Este haz es acelerado hasta llegar al primer filtro magnético, donde se seleccionan los iones m⋅E con la misma relación . Una vez atravesado el imán, los iones penetran en el q acelerador, elemento clave que mejora de manera muy importante la sensibilidad de la técnica, principalmente por dos razones. En primer lugar, el proceso de intercambio de Isagogé, 3 (2006)

41


carga que tiene lugar en el stripper del acelerador permite reducir de manera drástica el fondo molecular (esto es, moléculas que tienen la misma relación m/q que la componente de interés del haz iónico), ya que se produce una importante rotura de moléculas. En segundo lugar, el haz es acelerado suficientemente (con potenciales del orden del MV, dependiendo del sistema) como para que pueda estudiarse con un detector de ionización gaseosa. Para suprimir el fondo isobárico se recurre a la ecuación de BetheBloch del poder de frenado, ya que esta fórmula predice poderes de frenado diferentes para distintos valores de la carga nuclear Z. De esta forma, pueden detectarse de manera separada los iones de 10Be+ (Z=4) de los de 10B+(Z=5) o de los de 9BeH+, principales interferentes del berilio que llegan al detector final. Mediante el empleo de esta avanzada técnica pueden medirse cocientes isotópicos 10Be/9Be del orden de 10-14 a 10-15, esto es, un átomo de 10Be por cada mil billones de átomos de 9Be.

Analizado Magnético

BP

(Inyección Secuencial)

Pulsado

Lente Einzel

Fuente de

Cs

+

Lente Q-

Be + (TV=1 MV) Al 3+ (TV=700 kV) Acelerador Tandetron Lente Cuadrúpola

Faraday Cup

Nanosecond BeamBlanking

Analizado Magnético

(Rotura de moléculas)

(Sputtering Cs+) BeOAl-

Sistemas

Detector ΔE-E

(Poder de frenado)

de Detección

Faraday Cup

Foil Absorber Deflector Electrostático 120º

2. Esquema del sistema de AMS de 1 MV del Centro Nacional de Aceleradores (Sevilla)

REFERENCIAS BIBLIOGRÁFICAS [1] REEDY, R. C., J. R. ARNOLD y D. LAL (1983): «Cosmic-Ray Record in Solar System Matter», Science, 219(4581), pp. 127-135. [2] WAGNER, G., J. BEER, J. MARARIK [et alii] (2001): «Presence of the solar de Vires cycle (similar to 205 years) during the last ice age», Geophysical Research Letters 28(2), pp. 303-306. [3] MCHARGUE, L. R. y P. E. DAMON (1991): «The global beryllium-10 cycle», Reviews of Geophysics 29(2), pp. 141-158. [4] STONER, J. S., J. E. T CHANNELL, D. A. HODELL y C. D.CHARLES, (2003): «A ≈580 kyr paleomagnetic record from the sub-Antartic South Atlantic (Ocean Drilling Program Site 1089)», Journal of Geophysics Research, 108(B5), p. 2.244.

42

Isagogé, 3 (2006)


ENERGÍA SOLAR FOTOVOLTAICA Enrique Martín-Lorente Rivera La falta cada vez más acuciante de recursos energéticos fósiles y la preocupación de la opinión pública por el medio ambiente ha hecho que se investigue y hayan surgido técnicas de aprovechamiento de las energías renovables. Un ejemplo entre algunas de ellas es la fotovoltaica, cuyos paneles no hay que confundir con los térmicos de calentamiento de agua, de los cuales ya hemos hablado en los números anteriores de Isagogé. En las terrazas o tejados podemos apreciar los dos tipos de placas. Las térmicas son más grandes, tienen más espesor y su fondo es negro; mientras que en las fotovoltaicas el fondo es azul violeta, son más pequeñas y más estrechas. Igualmente, en el fondo de estas últimas se puede apreciar unas siluetas con la forma de galletas un poco grandes. Hoy en día existen varias formas comerciales de producir electricidad a partir de la radiación solar: • Procesos termosolares: Están basados en la reflexión de unos espejos, que se enfocan en un punto donde está la caldera, en la cual el agua se convierte en vapor gracias al sol. El vapor mueve una turbina, y ésta un alternador, generándose energía eléctrica. • Proceso fotovoltaico: Una célula, normalmente de silicio, que es un semiconductor, producirá un par de electrones/huecos, los cuales se conducirán por un cable, dando lugar a una corriente eléctrica. Su comportamiento es similar al de una pila eléctrica. La conversión de la radiación solar en corriente eléctrica es directo en la célula. En este artículo vamos a ver de qué está compuesta básicamente una instalación fotovoltaica. LA CÉLULA Una célula es la unidad fundamental de un panel o módulo fotovoltaico (fig. 1) Ésta se comporta como si fuera una pila eléctrica, con su lado positivo y negativo. Su funcionamiento es bastante complejo. Baste decir, por el momento, que es un semiconductor, el cual tiene unas propiedades extraordinarias. Una célula tiene la forma de una galleta grande (fig 1). (fig. 1) Imaginemos que un lado, una cara de nuestra galleta, tiene azúcar y el otro tiene sal y que las dos caras están pegadas y constituyen la galleta en sí. Con esta idea o símil, la diferencia radica en que, en vez de harina de la galleta, lo que tiene nuestra célula es silicio, que es un semiconductor; en vez de azúcar tiene átomos con mayor número de electrones que el silicio y en vez de sal tiene átomos con menos electrones que el silicio. Si ahora exponemos la cara que contiene azúcar al sol, la cara que tiene la sal queda en sombra y colocamos estratégicamente unos cables por los que circulen los electrones, habremos creado una corriente eléctrica, que tendrá su sentido desde el azúcar (que es el lado negativo) a la sal (que es el lado positivo) Gracias a los semiconductores tenemos hoy día una gran variedad de artículos electrónicos de pequeño tamaño, gran economía y bajo consumo energético. Buenos ejemplos son el teléfono móvil y el ordenador portátil con baterías. Isagogé, 3 (2006)

43


MÓDULO FOTOVOLTAICO El módulo fotovoltaico está formado por un marco metálico para sujetarlo a la estructura que se diseñe y darle robustez. Dentro de este marco se encuentran las células, protegidas por un cristal que atraviesan los rayos solares para llegar a aquéllas. En el módulo las células están conectadas en serie y en paralelo con el fin de conseguir la tensión suficiente (en serie) para alimentar, por ejemplo, una batería de 12 V. Mientras más intensidad tenga (es decir, células en paralelo), antes la cargará. El módulo se sitúa siempre mirando al sur, a menos que, por problemas de sombras u obstáculos arquitectónicos, se varíe ligeramente su orientación. La razón de ello es que se pretende que el módulo aproveche el máximo de horas de sol al día. El módulo se instala con un ángulo de inclinación. Quiere esto decir que la posición del módulo no es horizontal (suelo) ni vertical (perpendicular al suelo), sino que está en un término intermedio, dependiendo este ángulo de la latitud del lugar. En España se sitúa en torno a 40 grados, lo cual quiere decir que ese es el ángulo que forma el módulo con la horizontal. No será igual la inclinación en Cádiz que en Santander debido, como ya hemos dicho, a la latitud en que se encuentra cada localidad. Asimismo, los módulos pueden conectarse en serie y en paralelo dependiendo del diseño por el que optemos en la instalación. ESTRUCTURA La estructura sirve para soportar los módulos y darle la inclinación precisa. Puede ser de varios tipos, según donde vaya ubicada (terraza, tejado, pared, suelo, poste, etcétera) y el material con el que esté hecha (acero, acero inoxidable, aluminio, poliéster,…) Su diseño lo realiza el instalador en función del número de módulos y teniendo mucho cuidado con las sombras que aquéllos se puedan dar unos a otros. ACUMULADORES En instalaciones solares aisladas donde la energía eléctrica sólo sea suministrada por la instalación fotovoltaica, tendremos que pensar en un dispositivo que almacene la energía eléctrica por el día o cuando haya sol, para que podamos disponer de ella por la noche o en ausencia del mismo (fig. 2) Para esto utilizamos un acumulador eléctrico, que no es ni más ni menos que un aparato similar a la batería de un coche. El empleo de esta última no es recomendable para una instalación solar, aunque ambos artilugios están basados en el mismo principio. De modo que se diseñan otro tipo de baterías que hacen frente al consumo nocturno e incluso a varios días nublados, cuando los módulos fotovoltaicos no puedan cargar la batería por falta de radiación solar y, entonces, la vivienda consumirá la energía que se almacenó en la batería en los días soleados. Acumuladores hay de muchos tipos, pero los más usuales son de plomo-ácido. En los últimos años han salido al mercado baterías sin mantenimiento, lo cual las hace idóneas para instalaciones remotas o de difícil acceso. En el conjunto de la instalación fotovoltaica, el acumulador es el elemento que tiene menor vida útil. REGULADOR DE CARGA Hay dos cosas que no deben ocurrirle nunca a un acumulador: que se siga cargando cuando ya lo está; y que se descargue por debajo de un nivel mínimo. Para evitar esto, se instala un regulador de carga (fig. 2), el cual regula la carga entre módulos y acumulador y la descarga entre acumulador y consumo. 44

Isagogé, 3 (2006)


El funcionamiento del regulador se basa en la desconexión de los módulos de la batería cuando esta última ya está cargada (evitando así acortar su vida) y, cuando ha llegado a un nivel mínimo de carga, avisa de ello al propietario, llegando incluso a desconectar el consumo. Esto se traduce en que nos quedamos sin luz, pero dicha situación no suele ser normal. Si ello ocurriera a menudo, podría ser debido a una avería o habría que revisar los cálculos de la instalación. INVERSORES Un inversor es un aparato que va conectado a una tensión continua (que es la que existe en los módulos fotovoltaicos y el acumulador) y la transforma en alterna, que es igual que la que tenemos en nuestras casas (fig. 2) Esto hace que una vivienda con una instalación solar pueda funcionar igual que nuestra casa (con los mismos electrodomésticos). Con lo que ha de tenerse mucho cuidado es con la potencia máxima y el consumo.

(fig. 2)

CÁLCULO DE INSTALACIONES El cálculo de una instalación fotovoltaica se hace en función de la energía que necesitamos, donde el término es igual que lo que nos vende la compañía suministradora de electricidad que, en definitiva, es energía. Más concretamente nos referimos a kilowatios-hora (Kwh), término que significa «energía», y que rogamos encarecidamente al lector no lo confunda con «potencia» (Kw) En principio se calcula la energía que necesitamos diariamente en la vivienda o lugar de instalación. Esto se hace conociendo la potencia de los aparatos e iluminación que vamos a conectar al día y un promedio de las horas que van a estar funcionando. Haciendo uso de tablas que nos permiten conocer la radiación solar que incide en una superficie con distintos ángulos de inclinación en el lugar donde vayamos a hacer la instalación (Córdoba, Madrid, Cáceres, etc.), podemos saber la energía solar de un día medio de cada mes que llega a este lugar. Por ejemplo, para una vivienda que va a estar habitada todo el año, nos iremos en las tablas a los meses más desfavorables, que son noviembre, diciembre y enero. Haciendo un promedio de estos meses, conoceremos por las tablas la energía que llega a una superficie en un día medio. Determinando un módulo fotovoltaico sabremos cuanta energía nos da ese módulo en un día con la radiación correspondiente. Dividiendo la energía que necesita la vivienda al día entre la que nos da un módulo, sabremos los módulos que necesitamos y habremos así determinado el campo fotovoltaico. Para determinar el acumulador necesitamos precisar los días de autonomía que queremos darle a la instalación, para asegurar el suministro. Cuantos más días de autonomía, mayor deberá ser el tamaño del acumulador y la instalación será, por tanto, más cara, pero con ello estaremos asegurando el suministro eléctrico. Isagogé, 3 (2006)

45


En función de los módulos y el acumulador, definiremos el regulador de carga, el cual está en función de la intensidad y tensión a la que va a trabajar la instalación. El inversor, por su parte, estará determinado por la máxima potencia en el consumo. INSTALACIONES FOTOVOLTAICAS CONECTADAS A LA RED Hay una modalidad distinta de instalaciones fotovoltaicas que incluye la posibilidad de vender a la compañía suministradora la energía que produzca nuestro equipo. Básicamente estas instalaciones no se encuentran aisladas, sino que están conectadas a la línea eléctrica de la compañía (la red eléctrica, fig. 3) El proceso consiste en que el propietario de la instalación fotovoltaica vende energía a la compañía, la cual está obligada a comprarla por ley. Estas instalaciones constan de un campo de módulos y de uno o varios inversores que transforman la corriente continua de los módulos en alterna y la acoplan a la red para su consumo. La conexión entre la instalación y la red se hace a través de un contador que contabiliza la energía (Kwh) vertida. Estas instalaciones no constan de reguladores de carga ni de acumuladores. Simplemente, cuando hay sol generan electricidad y la inyectan en la red, puesto que, al estar conectadas a esta última, no tiene sentido (fig. 3) acumular energía. ALGUNAS CUENTAS Una instalación de 5 Kw para una vivienda cuesta unos 36.000 €. Habrá que calcular entonces si sale más barato traer el cable de la compañía o si es mejor colocar un equipo de energía fotovoltaica. Si la compañía, por la razón que sea, no nos suministra electricidad, entonces no hay mucho más que considerar y será conveniente realizar la instalación fotovoltaica si queremos luz. En cuanto a la conexión a red, el Kw instalado sale por 6.000 €. Esto quiere decir que una instalación de 5 Kw cuesta 30.000 €. En Andalucía dicha inversión se amortiza en 10 años y en los 15 años siguientes se generan ingresos ya que, legalmente, la compañía está obligada a comprar durante 25 años la energía a un precio que ronda los 0,42 €/Kwh. Compárelo el lector con los 0,08 €/Kwh que paga en el recibo de la luz y téngase en cuenta, además, que las instalaciones fotovoltaicas tienen un mantenimiento mínimo. Para terminar, sólo añadiré a lo ya dicho que esta energía eléctrica generada por instalaciones fotovoltaicas es limpia y, al margen de divergencias políticas, legales, económicas o de otra índole, conviene adoptarla, perfeccionarla, difundirla y fomentarla. Al ritmo que va el consumo de los recursos planetarios, nuestros hijos nos lo agradecerán. 46

Isagogé, 3 (2006)


LAS «AFIRMACIONES INFORMATIVAS», CONCEPTOS NOVEDOSOS EN LA TEORÍA MODERNA DEL CONOCIMIENTO Manuel Bermúdez Vázquez Las «afirmaciones informativas» son un nuevo concepto gnoseológico relacionado con el escepticismo cognitivo, uno de los tipos de escepticismo filosóficamente más potentes en el presente. El escepticismo cognitivo de orientación factual —un tipo de escepticismo que cuestiona o niega la posibilidad de que el ser humano posea la capacidad de lograr conocimiento o una convicción racionalmente garantizada respecto a los asuntos que conforman la realidad— cuestiona, duda y/o niega la capacidad del ser humano de obtener información de los hechos sobre el «mundo real». Es un tipo de escepticismo orientado específicamente hacia lo que Hume caracterizó como «cuestiones de hecho» 1 . A diferencia de los otros tipos de escepticismo, como el ético o el religioso, esta forma histórica de la corriente de la duda se declara agnóstica específicamente con todo lo relacionado con la capacidad del ser humano para conseguir tener un conocimiento seguro sobre el mundo que le rodea. La clave fundamental de este tipo de escepticismo sería que no mantiene que lo que habitualmente pensamos que sabemos sobre el mundo es falso, sino que nuestras reclamaciones de conocimiento en este ámbito no están garantizadas, nos falta la debida justificación para poder hacerlas con seguridad. El escepticismo que llamamos cognitivo considera que la base evidente que se invoca normalmente para sostener esas pretensiones de conocimiento factual se muestra probadamente insuficiente. El escéptico explotaría el hecho de que existe un círculo vicioso de preguntas y respuestas en el terreno de la búsqueda de certezas. Habida cuenta de la regresión hacia el infinito que supone todo círculo vicioso, el escéptico insiste en que no podemos saber nada porque el conocimiento debe ser completamente seguro y cierto —seguro contra cada cuestión que se le haga— mientras que las lista de preguntas potenciales es siempre infinita 2 . Esta tesis es la de que, sea lo que sea lo que aceptemos como conocido y verdadero, siempre debe apoyarse en alguna afirmación última que será defectuosa en lo referente a su garantía racional 3 . Es en este marco donde resulta clave el concepto de nuevo cuño de «afirmaciones informativas», uno de los temas más avanzados en la gnoseología moderna o teoría del conocimiento y cuya clarificación permite analizar con mayor precisión la cuestión referida a la realidad y el tratamiento de la misma que lleva a cabo el escepticismo. Así, falta en la literatura crítica contemporánea un artículo que lidie con este concepto y lo defina con precisión, y esa es nuestra intención con estas líneas breves.

AFIRMACIONES INFORMATIVAS Las llamamos «afirmaciones» porque son aseveraciones que tratan de declarar que alguna condición tiene lugar, es o existe; e «informativas» porque tratan de ser demostradas por una información factual y/o verificable, tal como una estadística, un ejemplo específico o un testimonio personal (en ocasiones llamado anécdota). Muchas de las afirmaciones informativas no ofrecen información interesante porque es fácilmente verificable a través de los sentidos. Un

1

Véase D. HUME (1910): An enquiry concerning human understanding, Harvard Classics, sección IV, parte I. 2 El tropo del dialello o la regresión al infinito. Sobre los tropos escépticos véase G. STRIKER (1983): «The ten tropes of Aenesidemus», en M. BURNYEAT (ed.): The skeptical tradition, University of California Press, pp. 95-115, véase también M. BERMÚDEZ (2006), La recuperación del escepticismo en el Renacimiento como propedéutica de la filosofía de Francisco Sánchez, Fundación Universitaria Española, pp. 100-101, n. 161. 3 En otras palabras, es el viejo tropo escéptico del criterio puesto al día. Éste se halla en Sexto Empírico, Hipotiposis pirrónicas, II, 19-20 y también en I, 114-116. Isagogé, 3 (2006)

47


ejemplo sería: «Está lloviendo». Otro tipo podría ser de un origen tan familiar o procedente de nuestra experiencia que no lo cuestionamos, como: «Me gusta el chocolate» 4 . Otras afirmaciones, tales como aquellas que aparecen en libros de referencias — diccionarios y enciclopedias, libros de texto o material de investigación—, no podemos verificarlas por nosotros mismos, pero tendemos a tratarlas como hechos porque confiamos en la fuente de la que proceden. Sin embargo, en la vida cotidiana podemos encontrar afirmaciones informativas que no han sido verificadas. A menudo encontramos que hacemos afirmaciones que pueden verificarse, pero tenemos que recopilar, comprobar y presentar las evidencias. Por ejemplo, si alguien asevera «Muchos estudiantes no leen libros», se debe esperar de la persona que lo dice que presente algún tipo de prueba que sostenga esta afirmación. La evidencia que se podría aceptar incluiría el resultado de una investigación, historias anecdóticas, etcétera. La mayoría de las afirmaciones, incluyendo las informativas, se apoyan en una combinación de evidencia y razonamiento. Véanse los siguientes ejemplos: — «La batería de mi coche debe estar agotada ya que no arranca y no funcionan ni las luces ni el claxon». — «La batería de mi coche debe estar bien ya que aunque no arranca, las luces y el claxon funcionan». En estas oraciones, por ejemplo, podemos ver que la afirmación —la primera parte u oración principal—, está respaldada tanto por pruebas experimentales —los intentos de utilizar las luces y el claxon— como por el razonamiento —basado en el conocimiento previo de los sistemas eléctricos. A menudo muchos ensayos y artículos periodísticos comienzan con afirmaciones informativas de todo tipo que luego suelen ser apoyadas mediante estadísticas y otros datos. Pero con frecuencia estos textos están basados en cuestiones asumidas un tanto precipitadamente. Cuando leemos y evaluamos una afirmación informativa debemos considerar primero algunos factores: ¿Se aportan suficientes datos? ¿Son fidedignos? ¿Se presentan autoridades fiables? ¿Se confunden los hechos con inferencias? Dado el vínculo ineluctable del concepto «afirmación informativa» con la fiabilidad de los datos, el criterio de autoridad y los hechos e inferencias, pasamos a analizar cada uno de estos puntos por separado.

DATOS SUFICIENTES Y FIDEDIGNOS La cantidad y el tipo de datos necesarios para apoyar una afirmación depende del tema y de la audiencia. Si, por ejemplo, tuviéramos que escribir un folleto para explicar el SIDA a dos grupos diferentes —a unos niños de 7-8 años por un lado y a unos adultos por otro—, alteraríamos casi cada aspecto de la información. Cambiaríamos el lenguaje, con seguridad, ya que no podríamos dirigirnos igualmente a ambos tipos de audiencia. La información también cambiaría: con toda probabilidad usaríamos menos ejemplos y menos gráficamente con la audiencia más joven, frente a más ejemplos, con mayor detalles y especificidad para los adultos. La audiencia es la preocupación crucial aquí. Son necesarios ejemplos suficientes del tipo correcto para convencerla. Algunos retóricos, de hecho, sostienen que para el buen escritor y el buen comunicador la audiencia determina todo lo que se hace —el uso del lenguaje, el número de detalles, la clase de esos detalles y su arreglo y preparación.

AUTORIDADES FIABLES La importancia de unas autoridades fidedignas no puede minusvalorarse. Es concebible encontrar a alguien que tenga algún tipo de credenciales para opinar sobre algo. Sin embargo, la

4

En esta descripción de tipos de afirmaciones informativas no vamos a detenernos a plantear las cuestiones escépticas que pueden afectarles, pues el propósito es el de clarificar el sentido de este término. Así pues, en este ejemplo, nos abstenemos de presentar la objeción escéptica a la certeza que la frase «está lloviendo» puede contener.

48

Isagogé, 3 (2006)


propia experiencia nos enseña que no todos los expertos son dignos de confianza. Es necesario leer detenida y críticamente. Los expertos también cometen errores. Me parece oportuno encontrar otro ejemplo para describir la cuestión de la fiabilidad de las autoridades. En 1543 Nicolás Copérnico propuso la idea de que la Tierra era únicamente uno entre varios planetas que orbitaban alrededor del Sol, lo hizo en su libro De Revolutionibus Orbium Caelestium. La reacción de la ortodoxia conservadora (valga la redundancia semántica) fue lenta en llegar pero devastadora cuando finalmente llegó. En 1616, el libro de Copérnico y todos los otros libros que afirmaban el movimiento de la Tierra fueron incluidos en el índice de libros prohibidos promulgado por la Iglesia Católica. Sólo en 1822, casi 300 años después de que la idea fuera sugerida en Europa, la Iglesia permitió a sus miembros leer los libros que afirmaban que la Tierra se mueve. Los protestantes conservadores, aunque tenían un mecanismo menos efectivo para aplicar la ortodoxia que los católicos, no fueron menos vehementes en sus objeciones a Copérnico, pero por una razón diferente muy sutil. Algunos creían, mucho más enérgicamente que los católicos, que la Biblia era la fuente de la verdad sobre el mundo, y la Biblia contiene algunos pasajes, como Josué 10:13, que dice: «Y paráronse el sol y la luna hasta que el pueblo del Señor se hubo vengado de sus enemigos». Claro que, ya en el siglo XIX, sólo las sectas más dogmáticas y fundamentalistas podían mantener aún la inmovilidad de la Tierra. Como Thomas Kuhn dice en su libro The Copernican Revolution: «Durante el siglo y medio que siguió a la muerte de Galileo en 1642, la creencia en una tierra situada en el centro del universo fue transformándose gradualmente de un signo inequívoco de lucidez y cordura hasta un indicio, primero, de conservadurismo inflexible, luego de simplicidad pueblerina y, por último, en el más completo fanatismo» 5 . La gente comete errores: «Errare humanum est». A menudo somos muy lentos en cambiar nuestras opiniones: «Perseverare, autem diavolicum». Debemos estar siempre persiguiendo la verdad y cuestionando nuestras propias fuentes a causa de estas dos características de la condición humana.

HECHOS E INFERENCIAS Definimos «hechos» como declaraciones que pueden ser verificadas. Las «inferencias» son declaraciones sobre lo desconocido basadas en lo conocido. Como lectores cuidadosos, analíticos y críticos pretendemos estar seguros de que distinguimos los hechos de las inferencias. Esto, que a priori puede parecer fácil, es frecuentemente difícil porque las inferencias se construyen sobre los hechos; así, en ocasiones las tratamos como hechos en sí mismos. Pero debe quedar claro, las inferencias no son hechos; son interpretaciones de los hechos. Un ejemplo clásico: imaginemos un vaso que está lleno hasta la mitad de agua. Habrá gente que lo describirá como medio lleno y otros dirán que está medio vacío. Ambas posturas son interpretaciones de un hecho. Se me ocurre otro ejemplo sacado de un anuncio publicitario de una cadena de televisión norteamericana. En un giro irónico, el anuncio decía que los estadounidenses son el pueblo más productivo, el más eficiente y el más rico del planeta. Entonces, la voz decía que los estadounidenses son también los que más televisión ven. Y concluía diciendo: «¿Coincidencia?». Este anuncio quiere que pensemos que esto es una afirmación informativa, pero, en realidad, es una inferencia. Así, se infiere que el éxito y ver la televisión están relacionados, pero no hay hechos que lo prueben. En su lugar, lo que nos ofrecen aquí, es una falacia lógica del tipo post hoc. Vemos, pues, cómo se torna imprescindible, a la hora de tratar de elaborar cualquier afirmación, el disponer de una serie de condiciones y características no siempre asequibles. El avance del conocimiento y de la ciencia, que en último término no es más que la elaboración de afirmaciones, ha de disponer de una conditio sine qua non y ésta es la de poder sustraerse al proceloso terreno de la falta de una definición concreta y precisa. 5

T. S. KUHN (1959): The Copernican Revolution, Random House, p. 19.

Isagogé, 3 (2006)

49


CRIMINOLOGÍA, UNA CIENCIA POR DESCUBRIR Antonio Jesús Serrano Castro La televisión tiene un atractivo que se convierte en gran poder de persuasión y promoción, lo cual le otorga el título de gran comunicador y, en cierta manera, educador socializador, cuando no de medio manipulador. Fuera de la discusión sobre esto ultimo —en la cual se nos hace evidente que, más que al mensajero o al medio por el que llega a nosotros, a quien habría que analizar es al responsable de la emisión del mensaje—, lo que queremos destacar es su poder para presentar ante el publico general una cuestión o materia y lo aparentemente fácil de su difusión, llevando a la popularización de la misma. Uno de estos casos ha sido la serie C.S.I. y cómo ha conseguido enganchar a muchos a la ciencia interdisciplinaria de la Criminología. C.S.I., en especial la primera serie ambientada en Las Vegas, ha supuesto una buena forma de plantear el acercamiento al mundo del delito y un cambio en la forma de ver las series de género policiaco. Salvando la necesaria licencia literaria que la televisión se concede, y atendiendo a que la distorsión de la realidad no conlleva escorzos muy bruscos en la trama ni en lo que de real se supone que tiene, la serie es una magnifica presentación para los que se dedican a este mundo de la Criminología. Que en un mismo personaje se reúnan tal cantidad de conocimientos científicos o profesionales y que prácticamente con un pequeño equipo se puedan resolver casos complejos en tan corto espacio de tiempo, además de que análisis que tardarían en proporción bastante más aparezcan en tan breve lapso temporal, son pecata minuta para una serie que nos cambió el chip de la acción pura y desnuda —o el de una curiosidad a veces lindando el morbo— por el de la reflexión sobre las pistas que van apareciendo y el aprendizaje de saber ver y leer todo cuanto aparece en el escenario de un crimen. En una crítica purista se podría achacar que C.S.I. es más una serie de criminalistas que de criminólogos, pero el objetivo de este artículo es tratar de introducirnos en una ciencia interdisciplinaria como la criminología, en la que encuadro a la criminalística. Y precisamente en los planes de estudios hay materias, como luego veremos, en las que nos encontramos con los elementos de detección y recogida de muestras o signos que nos van a permitir hacer un «diagnóstico» de qué ha acontecido y cuál es el perfil de un criminal, por poner un ejemplo paradigmático de lo que vemos en la serie. Por ello esta serie ha despertado una curiosidad mayor, si cabe, para hacernos partícipes de ese descubrimiento, convirtiéndonos en pseudo-científicos que seguimos y analizamos las pistas, tamizadas con un filtro potente que, a modo de lupa, destaca esos minúsculos elementos que de otro modo podríamos pasar por alto, y nos permite andentrarnos en este fascinante mundo. La fascinación puede venir dada por lo que de profundizadora en la condición humana tiene esta ciencia con independencia del objeto central y específico —no por ello menos discutido— que alberga en su compleja e interdisciplinaria conjunción de materias que en ella concurren. García-Pablos ya señala que «el delito deja de identificarse con la fría decisión abstracta, casi ahistorica, de un arquetipo de hombre ideal, algebraico, que se enfrenta asombrosamente con la ley como consecuencia de alguna patología o disfunción que le hace diferente. Antes bien, el crimen debe comprenderse como conflicto o enfrentamiento interpersonal histórico, concreto, tan doloroso como humano y cotidiano: como problema social y comunitario» 1 . Y continúa con una de las consideraciones que nos van a justificar la interdisciplinariedad de esta materia: «Por otra parte, la ciencia ve hoy en el 1

A. GARCÍA-PABLOS DE MOLINA (1991): Criminología. Una introducción a sus fundamentos para juristas, Ed. Tirant lo Blanch, p. 10.

50

Isagogé, 3 (2006)


delincuente un individuo normal, un hombre más de su tiempo, esto es, un ser muy condicionado, como todos, por su herencia; pero también por los demás y por su entorno: social, comunicativo, abierto y sensible a un continuo y dinámico proceso de interacción con los otros hombres, con el medio; un ser, en definitiva inacabado, receptivo, que mira al futuro y puede trascender sus propios condicionamientos. Porque el hombre no es solo Biología: es también, historia, cultura, experiencia». «Carece, pues, de sentido el viejo dilema: hombre o sociedad, en el momento de explicar la génesis del delito. Todo es mucho más complejo, La propia decisión criminal no puede entenderse estática y objetivamente, prescindiendo de lentos y sutiles procesos de aprendizaje y socialización del infractor, ni de ciertas operaciones ‘cognitivas’ matizadas por el ‘contexto subjetivo’ de éste. Factores espaciales, ambientales, interpersonales, culturales, etc, etc…convergen en el escenario criminal, contribuyendo decisivamente al muy selectivo diseño del ‘perfil’ del sujeto delictivo» (p. 10). Ya con este párrafo tendríamos una primera reflexión para ver la Criminología desde diversos ángulos, pero cabe aun más un añadido que también realiza en el prólogo de su obra García-Pablos: «No basta con buenas leyes, buenos funcionarios y un sistema legal eficaz. Penas más severas, más policías, más cárceles […] determinan, tal vez, un incremento de la población reclusa, pero no una disminución correlativa y sensible de la criminalidad. La calidad —y eficacia— de la reacción al delito no puede tomar como único indicador el grado de satisfacción de la pretensión punitiva del Estado (castigo del delincuente), sino, también, la de otras legitimas expectativas de los implicados en el drama criminal: victima, infractor y comunidad jurídica. Reparación del daño, rehabilitación del delincuente y prevención racional del crimen (eficaz y con el menos coste social) representan objetivos esenciales que permiten verificar la bondad de cualquier sistema». (p. 11) Traigo a colación este párrafo, transcribiéndolo in extenso, pues inicia una reflexión muy extendida en el mundo criminológico sobre el objeto y la utilidad de la misma. Se señalan en él las cuestiones primigenias a debatir para empezar cualquier análisis sobre lo relacionado con la criminología, las cuales veremos a continuación. Primero circunscribir el campo: Qué es el delito y cómo dicha limitación no puede quedarse necesariamente en términos de Derecho Penal, aunque sea éste el punto de arranque, pues como el viejo aforismo nos recuerda que «no hay pena sin ley», es decir, no puede haber acción punitiva si no hay una norma de determine qué acción cabe incluir dentro de un tipo penal y qué pena habrá de aplicársele a dicha acción. Esto no deja de estar discutido. Pero también es cierto que cabrían dentro de la criminología como objeto de estudio la anomia o aquellas conductas que son reprobables socialmente aunque no constituyen delito; o las que llama David Matza «desviaciones sociales». Pensemos en las situaciones de los accesos de violencia juvenil que ocurren en estos momentos y que, sin llegar a delito ni siquiera en materia de orden de juzgado de menores, o nuevas formas delictuales, preocupan al estudioso de la materia; u otras que no parecen tan cercanas al delito. Queremos señalar con esto que si el Código Penal es referente ineludible para el criminólogo, es necesaria una visión o perspectiva más amplia para no dejar demasiado reducido el campo de estudio y actuación. Además, podemos pensar con razón que, aunque resulta conveniente contextualizar un estudio en un marco espacio temporal concreto, por lo general el estudioso de la materia criminológica no suele circunscribirse solamente al delito dentro un territorio, sino que también analiza y comprueba el de otras sociedades a modo de estudio comparado, por los puntos en común que pueden Isagogé, 3 (2006)

51


darse en algunos casos concretos sobre cómo delimita cada ordenamiento o cómo cada contexto social provoca «reacciones» en los miembros de dicha comunidad, en cuanto a la posible perpetración de acciones punibles o a la misma calificación de lo que es delito o no en un término no solamente jurídico, sino sociológico; a la vez que analiza las respuestas dadas dentro del mismo. Un segundo punto que nos lleva las consideraciones de García-Pablos es el de los campos objeto de estudio: víctima, infractor y comunidad jurídica, con los elementos delito y control social. A esto opino que podíamos unir los estadios del delito: Prevención, detección, rehabilitación y reparación. Ya hemos visto el aviso que se nos hace de no caer en la tentación de quedarnos en el delito como la mera infracción —ya de por si grave— de un ordenamiento jurídico en su faceta punitiva o penal. Para ello ya contamos con el Derecho Penal, que de manera superficial y breve ya hemos definido. Y podría derivar en aplicar el concepto de seguridad en términos estrictamente de eliminación del delincuente de la escena social durante el mayor tiempo posible, sin otra respuesta, como si fuera garante y socializadora por sí misma. La criminología debe, en mi opinión, abarcar un campo previo y posterior. Ha de intentar estudiar y conocer los posibles condicionamientos: biológicos, ambientales, sociológicos, patológicos, arquitectónicos, etc… que pueden incidir desfavorablemente y aumentar el riesgo de que se produzca una conducta desviada social o que incluso llegue a poder encuadrarse dentro del ya mencionado Código Penal. Se une aquí también la ciencia desde diversos campos para ayudar a construir modelos favorecedores de condiciones que impidan o reduzcan dicha posibilidad delictiva, tanto en su prevención como en su reincidencia. Igualmente en el momento de producirse una situación delictiva, se debe comprobar que dicha acción es efectivamente un crimen y, en su caso, quiénes son los autores del mismo. Es uno de esos «momentos Grissom». Esa es, o debe ser, la actuación de la criminalistica: analizar las diferentes pruebas que en un supuesto se dan para de esa visión poder determinar unos hechos y unas personas y la relación que hay entre ellos mismos y entre éstos y el tipo penal. Multitud de ciencias vuelven a acudir necesariamente en la realización de estas labores. El mencionado miembro del CSI es biólogo y creo que su especialidad es la entomología. A título de curiosidad, existe una obra de Jean-Pierre Mégnin —un «clásico» que aún creo que podemos encontrar en edición facsímile en estas ferias de libro de ocasión— en la que nos habla de esos insectos, a los que llama «cuadrilla de obreros de la muerte». Recoger muestras, analizarlas, determinar la relación y presentar los pertinentes informes son más que una mera curiosidad: desde un tipo de pintura de vehículo, las marcas de unos neumáticos, la posibilidad de reconstruir unos hechos —desde un asesinato a un accidente de trafico—, determinar la naturaleza de una substancia, comprobar la datación de una muerte, certificar la muerte natural o violenta, el ADN, la dactiloscopia o estudio de ese «carnet de identidad» que son nuestras huellas y que aun hoy sigue teniendo un altísimo índice de identificación frente a otras —una ciencia que nació en el siglo XIX—,… son multitud de aspectos que cada día la criminalistica ha de poner al servicio de la determinación de lo verdaderamente acontecido y poder así adoptar las medidas necesarias. Y, por ultimo y no por ello menos importante, una vez detectado el delito y aplicada la pena, entramos en otra fase que tiene que ver con la victimología, o cómo 52

Isagogé, 3 (2006)


tratar a la víctima de un delito o posible víctima de un delito, cómo prevenir que pueda serlo, y, si sucede un hecho en el que se vea implicada, cómo ayudar a recomponer la situación inicial, cómo conseguir que se minimicen los efectos del mismo y, en su caso, cómo obtener la reparación del daño ocasionado; y sobre todo evitar que de una primera victimización —la del hecho en sí— se pueda pasar a una segunda o incluso tercera victimización, la cual suele ocurrir al tener que enfrentarse ante un juzgado o funcionarios o intervinientes en este proceso, lo que significa pasar por ese trance —con lo que puede conllevar de incidir en la herida provocada por el delito—, sin olvidarnos de lo que supone conocer si efectivamente es una victima o no de un delito. Igualmente, la estancia en prisión de un delincuente, el carácter rehabilitador y resocializador que nuestras normas, establecen como fines prioritarios el conseguir que, una vez cumplida la pena, se dote de una serie de habilidades sociales, de condicionamientos ambientales, de elementos médicos, etcétera, que prevengan y reduzcan la posibilidad de volver a cometer de nuevo un delito o incurrir en otro. Caen también esas tareas bajo la jurisdicción de la criminología, pues al autor de un delito no cabe aparcarlo en prisiones y dejarlo solo, encerrado, durante un espacio de tiempo determinado. Sin dicha actuación, por otro lado difícil y no menos conflictiva, la reincidencia tiene muchos puntos ganados. No me puedo extender en este momento más allá, pero relacionadas con todo ello se encuentran, como ya he dicho, disciplinas como la medicina, la química, la física, la arquitectura, etcétera, que son tenidas en cuenta por la criminología. Si miramos un plan de estudio, aunque sea antiguo, nos encontraremos en perfecta armonía materias tales como la Psicología y la Psiquiatría, la Sociología, la especifica de Criminología —que nos hace un recorrido por los conceptos, teorías e historia de ésta— , las propias del mundo jurídico —como el Derecho Penal o el Derecho Procesal, por no decir también el Derecho Penitenciario—, la Medicina legal —donde encontraremos las propias de la medicina y donde se suelen incluir las ya conocidas de criminalistica, la Estadística, Tratamiento y Trabajo Social—, y, cómo no, la Política Criminal. También en algunas universidades se añaden otras materias, que se reparten entre las ya vistas o se abordan de manera independiente, como en el caso de la victimología y otras más. El criminólogo, por tanto, tiene visión de conjunto y coordina de alguna manera toda la información que se produce en torno al hecho delictivo, bien en los instantes previos, durante o posteriormente. Según la fase en la que se incide tendrá una serie de funciones añadidas, pero esa visión de conjunto le da un puesto privilegiado para poder hacer un diagnóstico mucho más certero y coordinado que desde una visión puntual. Además deberá dotar de un elemento nuevo a la ciencia penal y es el de «humanizar», desde el punto de vista de introducir otros elementos que no caben en lo estrictamente jurídico y proponer políticas criminales que puedan ser porcentualmente más efectivas, seguras e integradoras. Como suele decirse, la curiosidad mató al gato, pero en este caso gracias a la curiosidad —que se convierte en aliada— y al conocimiento, sabremos de qué murió y quién fue el autor de la tan extraña situación en la que permanece contorneado por la línea blanca. Con ello trataremos también de hacer que esta sociedad sea un punto más humana. Sirva este artículo de primera invitación que, si cabe podría desarrollar aspectos más concretos en posteriores entregas y, en cualquier caso, ojalá estimule la curiosidad por indagar en la perfecta sincronía de múltiples ciencias que se unen para orquestar un beneficio común.

Isagogé, 3 (2006)

53


POE Y CHESTERTON EN «LA MUERTE Y LA BRÚJULA» DE BORGES Manuel Guerrero Cabrera Ficciones está considerada como una obra importante del relato corto y un ejemplo perfecto de la obra de Jorge Luis Borges, hasta llegar a convertirse en uno de los pilares de la literatura hispanoamericana del siglo XX. Nuestro autor, a partir de las colecciones El jardín de los senderos que se bifurcan (1941), Ficciones (1944) y El Aleph (1949), evoluciona hacia la perfección y su sincretismo de elementos y de referencias bibliográficas, literarias, filosóficas, etcétera. El cuento es artificio, ficción, símbolos, construido como un ensayo con personajes reales e imaginarios, y en el que Borges narrador-protagonista relata y agrega interpretaciones posibles, fuentes literarias o filosóficas. Así, el cuento adquiere tal carácter de verosimilitud que confunde realidad y ficción, ubicando al lector en un mundo en el que se combinan y mezclan ideas, apariencias y realidades. Afirma Jaime Alazraki que «sus cuentos, que algunos consideran de evasión de la realidad, nos acercan más estrechamente a la realidad, no a esa realidad que nos aturde, sino […] una realidad inverosímil, contradictoria, ambigua y hasta absurda» 1 . «La muerte y la brújula» es una de las narraciones que integran Ficciones. A modo de resumen diremos que el comisario Treviranus y el detective Lönnrot tienen que desentrañar tres asesinatos «en un Buenos Aires de sueños» 2 . La primera víctima es un autor judío de obras cabalísticas, y en el lugar del crimen aparece un mensaje: «La primera letra del Nombre ha sido articulada». Este mensaje se repetirá en los otros dos con similar construcción. Los lugares de los crímenes coinciden con los vértices de un triángulo equilátero, pero, al contrario que para Treviranus, para Lönnrot todo apunta hacia un cuarto asesinato, que será el que le lleve a Triste-le-Roy. En este estudio vamos a atender la posible influencia de Poe y Chesterton en «La muerte y la brújula», tras lo que expondremos unas conclusiones. EDGARD ALLAN POE, PADRE DEL CUENTO DETECTIVESCO «Borges ha dicho de “La muerte y la brújula”, que es un cuento policial. Lo es porque responde a la preceptiva del género, pero también excede sus límites» 3 . Por ello, parte de Poe para reflejar el contraste y llegar a la parodia 4 . Señaló Borges que Edgar Allan Poe en Los crímenes de la rue Morgue es quien fija las leyes fundamentales de este tipo de relatos: el crimen enigmático y a primera vista sin solución, y el investigador sedentario que lo descifra con el uso de la racionalidad 5 . A esto podemos unir lo aportado por Juan José Millás en un preciso prólogo titulado «Introducción a la novela policíaca» para una edición escolar de los relatos de Poe. Cuando señala las características generales, apunta que «Poe plantea tres temas que se van a repetir hasta la obsesión a lo largo de toda la historia de la novela

1

J. ALAZRAKI (1978) : «Jorge Luis Borges», en J. ROY (ed.) Narrativa y crítica de nuestra Hispanoamérica, Castalia, pp. 73-74. 2 J. L. BORGES (1981): Ficciones, Alianza, p. 119. Todos los textos de «La muerte y la brújula» (pp. 147-163) se han tomado de esta edición, por lo que no volveremos a hacer referencia. 3 J. ALAZRAKI (1978), p. 50. 4 M. GUERRERO CABRERA (2007): «“La muerte y la brújula”: cuento de detectives, cábala y laberintos», Noseolvida, 36 y ss. (de próxima aparición en http://www.noseolvida.com) 5 Apud V. BRAVO (1998): «El relato policíaco postmoderno. Tres novelas argentinas contemporáneas», Espéculo. Revista de Estudios literarios, 9 <http://www.ucm.es/info/especulo/numero9/policial.html>

54

Isagogé, 3 (2006)


policíaca» 6 : 1) El recinto cerrado. 2) La novela-problema. 3) El detective analítico. Precisamente, estos tres aspectos aparecen en el relato borgesiano, por lo que, en un principio, parece que el cuento responde a las características del género. En referencia a la novela-problema, que ofrece al lector las mismas claves que al detective, teniendo la misma información tanto el uno como el otro, como se ha dicho, Borges nos las ofrece al principio para llegar al final y, a lo largo del relato, continuará proporcionándolas; por lo que el lector sabe de antemano detalles que se articulan coherentemente al final del relato. En cuanto al recinto cerrado, cuyo esquema trata de situar la escena del crimen en una habitación cerrada, se relaciona con la muerte de Yarmolinsky, la primera de la serie. Treviranus esclarece el asesinato con suma facilidad, contradiciendo la regla de que el crimen parece que no tiene solución a primera vista (y lo volverá a hacer con el tercer crimen), pero Lönnrot no lo considera resuelto, debido a su proceso de razonamiento que «le impide ver lo obvio» 7 ; ya que Lönnrot no hace sino actuar como un detective analítico, como Dupin: pensamiento y observación. Dupin no es sino la influencia de Poe, del que Borges dijo que «fue inventor del cuento policial» 8 ; de ahí que Lönnrot se encuadre dentro de la serie de detectives que resuelven los misterios mediante una operación puramente intelectual, aunque a él todo le será servido en bandeja por su asesino para dirigirlo al punto donde lo mata. La serie se inició con el personaje de Edgar Allan Poe y continuó con Sherlock Holmes de Conan Doyle y, posteriormente, con el Padre Brown de Chesterton 9 . El perspicaz Dupin es el modelo de los detectives analíticos, cuyos preceptos pueden considerarse el comienzo del relato de Poe Los crímenes de la Rue Morgue: «Las condiciones mentales que pueden considerarse como analíticas son, en sí mismas, de difícil análisis. Las consideramos tan sólo por sus efectos. De ellas conocemos, entre otras cosas, que son siempre, para el que las posee, cuando se poseen en grado extraordinario, una fuente de vivísimos goces. Del mismo modo que el hombre fuerte disfruta con su habilidad física, deleitándose en ciertos ejercicios que ponen en acción sus músculos, el analista goza con esa actividad intelectual que se ejerce en el hecho de desentrañar. Consigue satisfacción hasta de las más triviales ocupaciones que ponen en juego su talento» 10 .

De estas palabras derivarán las características de los detectives posteriores a Dupin, cuya personalidad es similar (por no decir igual) a la de Lönnrot: No suele hablar mucho y parece que no comparte con el hombre las emociones tristes y alegres de la vida. Siente predilección por la ciencia y por la deducción, que manifiesta tanto en la teoría como en la práctica 11 . Pero la influencia de Poe va más allá del arquetipo de detective. Clemens A. Franken K. 12 ha señalado de qué modo se ha apoyado el autor argentino de las aportaciones literarias del estadounidense, refiriéndose, entre otros aspectos, a la metáfora del laberinto como una manifestación de su personalidad e inquietudes, en resumen, de su mundo interior. Pero le atrae esta imagen porque «al igual que E. A. 6

J. J. MILLÁS (1988): «Introducción a la novela policíaca», en E. A. POE: El escarabajo de oro y otros cuentos, Anaya, p. 18. Esta edición presenta la ventaja de ser clara al tratar aspectos básicos de los relatos policíacos. 7 R. de COSTA (1999): El humor en Borges, Cátedra, p. 48. 8 J. L. BORGES (1981): «Sobre Chesterton» en Otras inquisiciones, Alianza, p. 86. 9 En su conferencia «El cuento policial», Borges señaló esta sucesión: «Este hecho está ejecutado por un hombre muy inteligente que se llama Dupin, que se llamará después Sherlock Holmes, que se llamará más tarde Padre Brown». 10 E. A. POE (1983): Obras selectas, Orbis, pp. 350-351. 11 Respecto a Dupin, añade J. J. MILLÁS (1988), p. 26, que es «una máquina pensante que convierte toda la información recibida a través de los orificios de los ojos y de los oídos en un proceso analítico en el que ya no queda espacio para los sentimientos». 12 C. A. FRANKEN K. (2003): «Jorge Luis Borges y su detective-lector», Literatura y Lingüística, 14, pp. 93-111. Isagogé, 3 (2006)

55


Poe, Borges trata de combinar la intuición y la imaginación con la matemática y la geometría» 13 . Un laberinto muy especial del argentino es su utilización de la intertextualidad, que coincide, ante todo, con Poe: la labor literaria toma como referencia otros libros y pretende expresar en su literatura «un orden secreto del universo», sin interesarse en imitar la naturaleza o la realidad, inspirándose en otros autores. También Franken nos habla del tipo de lector que Borges desea, porque éste trata de descifrar como un detective el libro secreto del mundo. De ahí que también el lector deba tratar de descifrar los cuentos del argentino, «es decir, los debe leer como textos sagrados, cuyo secreto se puede descubrir sólo con mucha perspicacia detectivesca» 14 . Efectivamente, en este relato hallamos varios aspectos propios del relato policial heredado de Poe, junto con los ya señalados, el tratamiento de lo que Franken denomina «temáticas subterráneas» y la utilización de pistas y citas falsas. Forman parte de esto las dos versiones opuestas de los sucesos, la del detective Erik Lönnrot, basada en el número cuatro que imprime el Tetragrámaton (que significa «el nombre cuadrado») y los losanges, y la del comisario Franz Treviranus, apoyada en el número tres y en el triángulo. Con este tema, de forma subyacente, Borges teoriza con su creencia en una tradición judeo-cristiana que considera idénticos el judaísmo y el cristianismo. LA INFLUENCIA DE GILBERT KEITH CHESTERTON Junto con Poe, otro autor de la narrativa de carácter policial que ha influido en el autor argentino es Chesterton. Seguramente, mucho más que ningún otro. De él ha dicho Borges que «Lo cierto es que Chesterton es un gran poeta, con un lenguaje rico y lleno de vida… Y como cuentista es aún más extraordinario» 15 , así como que lo admite por ser «un católico liberal», «un creyente que no toma su fe por un método sociológico» 16 . Señaló E. A. Imbert que a Borges «la apología del catolicismo que Chesterton emprende le resulta tolerable sólo porque es absurda, ilógica, inverosímil, Fuente:http://www.uweb.ucsb.ed fabuladora» 17 . No obstante, aunque no comparta su teología, u/~cheyla/borges/borges2.html confiesa que le ha deparado muchas horas felices. Pese a que el propio autor hubiera afirmado su predilección por él, Gillian Gayton ha apuntado en un buen y provechoso artículo que la crítica anglófona no aprecia el valor que el argentino hallaba en Chesterton 18 , indicando que la mayor parte de los críticos o desechan o aceptan de mala gana «la afición de Borges por Chesterton y sus contemporáneos» 19 ; mientras que otros estudiosos «señalan ciertos anglicismos en el vocabulario y la expresión borgianos, y admiten que el elemento imaginativo en su 13

Ibíd. Ibíd. 15 C. A. FRANKEN K. (2003) 16 J. L. BORGES (1999): «Modos de G. K. Chesterton» en Jorge Luis Borges en Sur (1931-1990), Emecé, pp. 18-24. 17 Apud C. A. FRANKEN K. (2003), que hace referencia a un ensayo de Enrique Anderson Imbert intitulado «Chesterton en Borges», pero no hemos podido encontrar y, por consiguiente, consultar la obra donde está incluido. 18 G. GAYTON (1977): «Jorge Luis Borges y G. K. Chesterton» en A. M. GORDON y E. RUGG (dir.): Actas del VI Congreso de la Asociación Internacional de Hispanistas, pp. 312: «Este aspecto de la obra borgiana, señalado repetidas veces por el mismo autor, ha sido menospreciado por los críticos anglófonos». Completa esta aportación con una nota donde señala los siguientes nombres: George Steiner, Ronald J. Christ, John Updike y Martin S. Stabb. 19 Ibíd., p. 314. 14

56

Isagogé, 3 (2006)


obra deriva sin duda de la literatura fantástica e irreal inglesa» 20 . Gayton nos da las claves de la relación entre los dos autores, centrándose principalmente en tres cuentos: «El jardín de los senderos que se bifurcan», «Tema del traidor y del héroe» y «La muerte y la brújula». Lógicamente, vamos a recoger lo que dice respecto a este último. Gayton comienza con la referencia de Borges acerca de que «“La muerte y la brújula” lo escribió pensando en Chesterton» 21 , por lo que nos hallamos ante otra prueba de su influencia. Luego, aporta cómo puede haber influido Chesterton, mostrando, en primer lugar, la ironía marcada en el comienzo y en el final del cuento, que trataremos más adelante, y, en segundo lugar, señalando los siguientes elementos: 1) El desarrollo del laberinto. Quizá influido por el relato «The Curse of the Golden Cross» 22 donde, dentro de un laberinto cretense, un arqueólogo recibe señales y símbolos que parecen amenazar con matarle. Al igual que al arqueólogo, Lönnrot recibe este tipo de mensajes, señales y símbolos de Scharlach, con el resultado de que el propio detective será el que se dirija hacia el laberinto de Triste-le-Roy. De modo irónico, Lönnrot será el que, al final, le dará un mensaje a su asesino para cuando tenga que matarle en otra ocasión: «Yo sé de un laberinto griego que es una línea única, recta. […] cuando en otro avatar usted me dé caza, finja (o cometa) un crimen en C, a 4 kilómetros de A y de B, a mitad de camino entre los dos. Aguárdeme después en D, a 2 kilómetros de A y de C, de nuevo a mitad de camino. Máteme en D, como ahora va a matarme en Triste-le-Roy». Además de relacionarse con el problema de Aquiles y la tortuga propuesto por Zenón de Elea, el astuto Lönnrot piensa en la subdivisión infinita del espacio y que, por tanto, Scharlach nunca podrá alcanzarlo. Antes de matar al detective, Scharlach le promete seguir su laberinto para la próxima vez que lo mate; es decir, utilizará otra geometría según las señales que ahora el asesinado le da al asesino. Pero insistamos en que lo mata, porque Scharlach le demuestra que la aporía de Zenón es falsa al dar unos pasos atrás y «en esa “línea recta”, dispara, y naturalmente, da en el blanco» 23 . Como apunta Juan Carlos Rodríguez, «la escritura “more geométrico” tiene su inverso: el otro lado del espejo» 24 . 2) Precisamente el espejo es otro de los elementos señalados por Gayton, que no procede de Chesterton, sino que es utilizado como lo hace el autor inglés. El relato «The sins of Prince Sarradine» utiliza el espejo como creador y multiplicador maniático; además de ser símbolo del reflejo de Sarradine en su hermano, como Lönnrot es reflejo de Scharlach. 3) El pájaro que anuncia un mal agüero, en el caso del cuento, la muerte del detective: «desde el polvoriento jardín subió el grito inútil de un pájaro». También en «The sins of Prince Sarradine» aparecerá este pájaro en la forma de un avetoro antes del duelo. 4) Y la casa que parece agrandarse. Si a Lönnrot la casa le pareció «infinita y creciente», el Padre Brown creyó en «The perishing of the Pendragons» que estaba creciendo el lugar donde se hallaba 25 . 20

Ibíd. Gayton indica los siguientes: Manuel Ferrer, Ricardo Paseyro, Alicia Jurado y Jaime Alazraki. Ibíd., p. 313. Añade en una nota que ha extraído la cita de «Entretiens avec James E. Irby», p. 394. 22 Ibíd. Reproducimos el resumen que aparece en este artículo: un arqueólogo que explora un laberinto cretense es perseguido por el ruido de pasos, y oye una voz desconocida jurar asesinarle por medio de un plan de una perfección artística. 23 R. de COSTA (1999), p. 48. Se recuerda el poema «Cosas» de Borges, que también trata sobre este problema de Zenón: «…El inasible/instante en que la flecha del eleata, inmóvil en el aire, da en el blanco». 24 J. C. RODRÍGUEZ (2002): De qué hablamos cuado hablamos de literatura, Comares, p. 301. 25 Hemos traducido una oración del texto aportado por G. GAYTON (1977), p. 313: «…he almost thought the whole place must be growing larger...» 21

Isagogé, 3 (2006)

57


No hay duda de que estos elementos son factores decisivos en la consecución del ambiente policíaco en el cuento, además de crear los valores oculto y poético. CONCLUSIONES 1) Todos estos aspectos, donde radica la originalidad del cuento, promueven la inversión y parodia de la estructura de los relatos policíacos. Como indica Franken 26 , esto sucede por el planteamiento posmoderno de Borges, unido a la pérdida de fe en la posibilidad de encontrar la verdad. En iguales términos califica Víctor Bravo 27 «La muerte y la brújula». Como contrapunto, Gillian Gayton, al referirse al menosprecio que la crítica tiene acerca de Chesterton en la obra de Borges, argumenta que la opinión crítica se ha empeñado en que el argentino sea un autor «sumamente moderno, y su obra como un sistema completo metafísico al que debe ajustarse cada cuento, cada poema y cada ensayo» 28 , por lo que se cree que sólo Borges puede verse influido por autores de igual o mayor nombradía, cuando se acerca más a los escritores de la época eduardiana por la importancia que otorga a las palabras. 2) Chesterton y Poe actúan como modelos, porque asumen la perspectiva puramente formal y estética del asesinato, junto con la combinación del esquema del cuento policial con problemas metafísicos, teológicos y estéticos. En los cuentos de detectives y de aventuras Borges encuentra rigor y elegancia ideales para el argumento que se puede lograr mediante un sistema de convenciones simples, como en una geometría o en una dinámica 29 . Borges escribe un relato policial porque en él se utiliza la mente y el razonamiento, incrementado por un protagonista, cuya principal característica es la de ser un Dupin frío, calculador y pensador, que no advierte que todo ha sido creado por otro hombre. 3) La utilización de pistas y citas falsas, que toma de Poe, refleja lo vano e inútil de desentrañar la realidad y la verdad mediante la filosofía, la literatura y, especialmente en «La muerte y la brújula», la teología. BIBLIOGRAFÍA ALAZRAKI, J. (1978): «Jorge Luis Borges», en J. ROY (ed.): Narrativa y crítica de nuestra Hispanoamérica, Castalia, pp. 35-76. BORGES, J. L. (1981): Ficciones, Alianza. - - - - (1981): Otras inquisiciones, Alianza. - - - - (1999): «Modos de G. K. Chesterton» en Jorge Luis Borges en Sur (1931-1990), Emecé, pp. 18-24. BRAVO, V. (1998): «El relato policíaco postmoderno. Tres novelas argentinas contemporáneas», Espéculo. Revista de Estudios literarios, 9 <http://www.ucm.es/info/especulo/numero9/policial.html> COSTA, R. de (1999): El humor en Borges, Cátedra. FRANKEN K., C. A. (2003): «Jorge Luis Borges y su detective-lector», Literatura y Lingüística, 14, pp. 93-111; También disponible en <http://www.scielo.cl/scielo.php?script=sci_arttext&pid=S071658112003001400006&lng=en&nrm=iso/> GAYTON, G. (1977): «Jorge Luis Borges y G. K. Chesterton» en A. M. GORDON y E. RUGG (dir.): Actas del VI Congreso de la Asociación Internacional de Hispanistas, 1977, pp. 312-314. GUERRERO CABRERA, M.: (2007): «“La muerte y la brújula”: cuento de detectives, cábala y laberintos», Noseolvida, 36 y ss. (de próxima aparición en http://www.noseolvida.com). MILLÁS, J. J. (1988): «Introducción a la novela policíaca», en E. A. POE: El escarabajo de oro y otros cuentos, Anaya. POE, E. A. (1983): Obras selectas, Orbis. RODRÍGUEZ, J. C. (2002): De qué hablamos cuado hablamos de literatura, Comares.

26

C. A. FRANKEN K. (2003) V. BRAVO (1998) 28 G. GAYTON (1977), p. 314. 29 C. A. FRANKEN K. (2003) 27

58

Isagogé, 3 (2006)


TIMBUKTU Y LOS MÁRTIRES DE LA MEMORIA. CRISTÓBAL BENÍTEZ, EL ÚLTIMO DE LOS GRANDES EXPLORADORES DE ÁFRICA OCCIDENTAL Vicente Millán Torres Timbuktu —desgraciadamente más conocida por la deformación de su nombre a la forma francesa, Tombouctou— cuenta, entre sus pocas virtudes, el hecho de haber sido una de las ciudades sobre la tierra que más leyenda ha generado. La capacidad de ablandar seseras de esta urbe del desierto llegó a tal grado que causó la muerte de algunos de los que fueron a su encuentro, como tendremos oportunidad de ver. En la actualidad no es nada difícil dar con tan legendaria ciudad. En un mapa de África Occidental la encontraremos en un país que atiende al nombre de Malí, hipopótamo en lengua bambara, ya sea por rememorar imperios pasados o en honor a los famosos animales que tanto abundan en el río Níger. Si observamos un mapa de Malí veremos que el mencionado río forma una enorme curva en la que destacan las tres ciudades más significativas de la historia de África Occidental: Jenne, Timbuktu y Gao. Tomando el Níger como la vía natural de comunicaciones y las tres ciudades mencionadas, en el siglo XV comenzó a emerger un nuevo poder en África Occidental que, bien consolidado en el siglo XVI, se conoce como el imperio songhay. Fue bajo la administración songhay cuando la ciudad de Timbuktu alcanzó su esplendor. Punto de encuentro entre las caravanas saharianas y el gran río, tal como cuenta las crónicas, se convirtió en pocos años en uno de los centros urbanos más importantes de todo el continente 1 . El songhay se había convertido en el intermediario del comercio de oro; accedía a las minas del preciado metal situadas a unos mil kilómetros al sur de la Curva del Níger e impedía que los «árabes» —nombre genérico por el que designaba a cualquier grupo étnico que proviniese del desierto— llegar hasta las tan ansiadas minas de oro. Para tener una buena idea del nivel que alcanzaba el tráfico del oro en la zona bastará una simple anécdota. En 1496 uno de los sultanes del songhay, Askiya Muhammad, decidió realizar la peregrinación a Meca más orientada a ampliar su cartera de clientes que a la devoción propia de los santos lugares. La cantidad de oro que llevó consigo para donativos piadosos, forzar voluntades y placeres obviados por los panegiristas fue suficiente para que el valor del oro en Europa y Oriente Medio se devaluase hasta límites desconocidos en la época. A pesar de todo su esplendor el imperio songhay tenía los pies de barro. Toda su estructura económica se fundamentaba en el comercio del oro y los esclavos. A partir del siglo XVI entrarían en escena los nuevos elementos que estaban destinados a liquidar para siempre al último de los grandes imperios africanos. Lo que nunca consiguieron los enemigos tradicionales del songhay —mosis al este y mandes al sur—, lo pudo la proverbial pericia de los navegantes portugueses de la época. Estos últimos, tras costear África, habían comenzado a crear factorías comerciales en puntos estratégicos; algunas de ellas llevarían nombres tan significativos como «La Mina». En pocos años la actividad comercial de los portugueses iba a producir la mayor desestabilización económica que ha sufrido esta zona del mundo. Todas las rutas del oro cambiaron de sentido. El comercio ya no se vertebraba 1

La principal fuente documental para conocer la historia de África Occidental en una horquilla temporal que abarca desde el siglo XIII hasta el siglo XVII es el Ta’rîj al-Sûdân («Crónica del país de los negros»), una crónica timbuktiana cuya primera edición árabe en Europa data de 1898 y que jamás ha sido traducida al castellano. A esta crónica nos remitiremos continuamente en este artículo. Existe traducción francesa: A. ES SA’DI (1964): Tarikh es-Soudan, texto árabe y traducción francesa de O. Houdas, Maisonneuve.

Isagogé, 3 (2006)

59


en dirección norte, hacia las grandes ciudades del songhay situadas en la Curva del Níger como Timbuktu, Jenne y Gao. De ahí que las grandes caravanas que salían de estas ciudades cargadas de oro y esclavos en dirección a Marrakesh y a Ghadames comenzasen a declinar y, con ellas, toda la estructura económica del comercio sahariano. Casi todo el tráfico del codiciado metal precioso se dirigía ahora hacia el sur donde se encontraban las factorías portuguesas. El golpe que esto supuso para el Sahel y el Magreb fue de tal magnitud que aún hoy en día se sienten sus consecuencias. Que el tan ansiado oro no llegase con la frecuencia habitual a Marrakesh empezó a preocupar seriamente a su sultán, Mulay Ahmad Mansur. Éste optó cortar por lo sano y decidió ir por el oro ya que éste no venía hacia él. Se comenzó a gestar una de las empresas más asombrosas de su siglo y menos conocidas en los medios hispanos: la conquista del songhay 2 . En la primavera del año 1591 apareció sobre la Curva del Níger un cuerpo expedicionario enviado desde Marrakesh. La composición de esta columna era realmente interesante: al mando iba un renegado andaluz —Yawdar Bajá—, como lugartenientes un grupo de renegados de los más diversos orígenes, un buen número de moriscos españoles e incluso un pequeño cuerpo de cristianos. Si atendemos a la información de las fuentes documentales el cuerpo principal de esta tropa estaba compuesto por elementos de procedencia hispana; incluso la lengua que utilizaban era el castellano de la época. Este grupo de renegados y moriscos, al que se le supone un número de 3.000 individuos, fue el primer cuerpo expedicionario en toda regla, amén de los pertrechos habituales iban provistos de artillería ligera, un cuerpo de gastadores, etc., capaz de cruzar el desierto del Sahara. En un abrir y cerrar de ojos aniquilaron a las fuerzas songhay cerca de Gao. Tras la victoria y la posterior ocupación del territorio los supervivientes de esta expedición establecieron un bajalato dominado por los elementos de procedencia hispana. Entre los primeros bajás se encuentran individuos cuya procedencia no deja lugar a dudas: Almería, Córdoba, Guadix, Sevilla, etc. Debido a la enorme distancia que separaba a Timbuktu de Marrakesh, amén de la rápida decadencia en la que entró el sultanato magrebí, el bajalato se independizó totalmente de este último. Este bajalato, que dominaba todos los grandes centros urbanos de la Curva del Níger, compuesto principalmente por moriscos y renegados de origen hispano —más un importante contingente llegado del sur del Magreb—, perduraría hasta mediados del siglo XIX. Por desgracia, a partir del XVII, Timbuktu desaparecería del imaginario geográfico y su nombre pasaría a convertirse en una leyenda muy atractiva para cualquier aventurero. En el siglo XIX el continente africano quedaba como la única zona del planeta, salvando los polos, en la que el hombre blanco no había penetrado con cierta profundidad. Desde los tiempos de las navegaciones portuguesas, siglos atrás, los europeos se habían conformado con mantener un sistema de factorías costeras. Jamás osaron internarse dentro del continente, les bastaba la actitud sumisa de las numerosas tribus costeras que les proveían de esclavos y oro 3 . Del mismo modo que África Oriental tuvo sus Livingstone y Stanley la parte occidental del continente no fue parca en locuras semejantes. Los exploradores que se lanzaron a la aventura en la zona occidental del continente se sentían terriblemente atraídos por Timbuktu, una ciudad de la que en esa época apenas se podía estar seguro de su existencia. 2

Para todo lo referente a la conquista del songhay y la presencia hispana en la Curva del Níger véase A. CANO y V. MILLÁN (2006): De Córdoba a Timbuktu. Historia del renegado Sulayman del Pozo, Almuzara. 3 Sirva como curiosidad que muchos de los dirigentes africanos actuales, habituales del discurso anticolonial, son descendientes directos de las familias que no dudaban en vender a sus «hermanos» al primer blanco que diese en sus costas.

60

Isagogé, 3 (2006)


La primera víctima europea de la ciudad del desierto fue el escocés Mungo Park. Su táctica era bajar el Níger sobre una embarcación para dar con las principales ciudades, las míticas Jenne, Timbuktu y Gao. Nunca regresó de su último intento; el songhay dio buena cuenta de él en 1806 sin que a día de hoy sepamos si alcanzó o no Timbuktu. El segundo en intentarlo fue otro escocés, Alexander Gordon Laing, quien sufrió el mismo destino que su compatriota. En este caso sí podemos afirmar a ciencia cierta que llegó a Timbuktu en 1826, pero fue asesinado nada más abandonar la ciudad en dirección norte. Con el orgullo nacional en juego y algunas oscuras razones coloniales de por medio, la Sociedad Geográfica de París ofreció como premio a quien alcanzase Timbuktu y volviese vivo —esto último lo más importante— la nada despreciable suma de 10.000 francos. El premio lo ganaría un joven autodidacta llamado René Caillé quien en 1828 llegó a Timbuktu siguiendo una complicada ruta que partía del golfo de Guinea. Nadie duda de su valor pero su capacidad de observación era bastante limitada y la información que trajo Europa era poco valiosa. Por desgracia no pudo disfrutar mucho de su premio: si bien los nativos no habían acabado con él, una buena malaria adquirida en la Curva del Níger le pasó factura 4 . Quien se merece la honra de ser considerado el mejor de los exploradores que recorrieron estas peligrosas zonas es el alemán Henry Barth, un erudito en toda regla cuyos libros siguen siendo una referencia fundamental para conocer la Curva del Níger. Partiendo desde Trípoli en 1850 fue capaz de cruzar el desierto del Sahara y llegar a Timbuktu tres años después. Sus siete meses de estancia en la ciudad, apoyado por uno de los grandes jefes nativos, tuvieron como resultado que por primera vez Europa supiese algo sobre la historia de la Curva del Níger; Barth fue el primero de los europeos que tuvo acceso a los famosos manuscritos timbuktianos 5 . En 1879 Oskar Lenz, un austriaco que recibe de la Sociedad Africana de Alemania la misión de emprender un viaje a Marruecos con el fin de estudiar la cadena montañosa del Atlas, llega a Tetuán con la intención de extralimitarse un poco en sus funciones, cruzar el desierto del Sahara y alcanzar la ciudad de Timbuktu. Lenz, centroeuropeo obstinado y voluntarioso como mandan los cánones, estaba destinado a pasar a la historia como el último de los grandes exploradores de África Occidental y uno de los últimos hombres en llegar a Timbuktu antes de la ocupación colonial francesa. Lo que no se suele contar es que toda su gloria se debe a un duro diario; un duro de la época. Cuando Lenz todavía se encontraba en Tetuán maquinando su viaje a Timbuktu se dio cuenta que ni tan siquiera hablaba árabe, algo un tanto extraño para quien estaba destinado a realizar estudios en Marruecos. Tuvo la fortuna de encontrarse a un pobre español, Cristóbal Benítez, natural de Alhaurín de la Torre, quien desde su niñez había residido en Tetuán con su familia y, por supuesto, hablaba y escribía árabe correctamente. A pesar que en la mentalidad de Lenz los españoles que habitaban en Tetuán estaban al mismo nivel que gitanos, judíos, negros y gentes de mal vivir, tuvo que hacerse con los servicios de Benítez a cambio del famoso duro diario 6 . Cristóbal Benítez no sólo contaba con la ventaja de conocer el idioma, sino que los años de su estancia en Tetuán le habían permitido hacerse con las costumbres de los nativos. De la noche a la mañana Cristóbal Benítez pasó a convertirse en el buen musulmán 'Abd Allâh y a Lenz, carente de las virtudes de nuestro protagonista, le hicieron pasar por un médico turco suponiendo que en su viaje no encontrarían a nadie que supiese diferenciar la lengua turca de la alemana. 4

CAILLIÉ, R. (1830): Journal d'un voyage à Temboctou et à Jenné dans l'Afrique centrale: précédé d'observations faites chez les Maures Braknas, les Nalous et d'autres peuples, pendant les années 1824, 1825, 1826, 1827, 1828, Impr. Royale. 5 BARTH, H. (1857-1858): Reisen und Entdeckungen in Nord- und Central-Afrika, in den Jahren 1849 bis 1855, J. Perthes, 5 vol. 6 LENZ, O. (1884): Timbuktu, Reise durch Marokko, Sahara und Sudan, Leipzig, 2 vol.; trad. fran., Paris, 1886, 2 vol. Isagogé, 3 (2006)

61


Así pues, el bendito 'Abd Allâh, el médico turco y algún que otro apoyo nativo que se encontraron en el camino tomaron las rutas saharianas en dirección a Timbuktu. Tras siete meses de un viaje lleno de incidentes Cristóbal Benítez consiguió cruzar el desierto del Sahara por uno de sus sectores más difíciles y cumplir el sueño de Lenz. Ambos llegaron sanos y salvos a Timbuktu el 1 de julio de 1880, habiendo transcurrido 27 años desde la última visita de un hombre blanco a la ciudad. Durante su corta estancia en la ciudad Benítez tuvo la oportunidad de realizar una serie de observaciones, que sólo serían tomadas en serio un siglo después, y que desencadenarían toda una serie de descubrimientos relativos a las estrechas relaciones que han existido entre España y la Curva del Níger. La habilidad para comunicarse en árabe con los nativos de Timbuktu le concedió a nuestro Cristóbal Benítez ser el primer hombre en conocer la presencia de origen hispano en la Curva del Níger; los mismos descendientes de los españoles que antaño conquistaron la zona se lo dijeron. También tiene el honor de descubrir, entre otras cosas, vocablos españoles en la lengua songhay, una muestra de gran importancia que denota esa presencia. Todas sus anotaciones sobre la ciudad de Timbuktu y su medio, aunque escuetas, son bastante certeras. Cristóbal Benítez no sólo cuenta con el mérito de haber llevado a Lenz hasta Timbuktu, sino que también hay que incluir el hecho de volver a cargar con el fardo y devolverlo vivo a Europa. De nuevo tuvo que cruzar el Sahara, esta vez en dirección norte, hasta alcanzar las ciudades del Magreb. La misión tuvo éxito a pesar de las enormes dificultades, pero Benítez iba a ser objeto de la indiferencia más absoluta de sus compatriotas. Sufrir una travesía transahariana es mucho mejor que sufrir la «maldición del becario». Lenz y Benítez escribieron ensayos sobre su fabuloso viaje; el de Lenz es una burda copia de las anotaciones de Benítez, algo que no pasa desapercibido a cualquier lector. Obviamente el libro de Lenz fue editado pocos meses después de su llegada a Europa, incluso traducido a otras lenguas rápidamente; el de Benítez tardó un siglo en conocerse en su propio país 7 . Mucha peor injusticia iba a tener que soportar Benítez de las autoridades españolas. Tuvo la osadía de presentar al gobierno un plan para que España se hiciese con las rutas comerciales que confluían en Timbuktu e iniciase un proceso de penetración en África Occidental. Su estrategia, utilizar a ciertas tribus beréberes aliadas y colaboradoras en las ciudades que España mantenía en las costas del Sahara Occidental, era muy sofisticada y nada irreal para su tiempo. Ni que decir que los planes de Benítez acabaron en la papelera y España perdió una ventaja única en su expansión colonial. Tan sólo 15 años después de la gesta de Benítez aparecía frente a la ciudad de Timbuktu una cañonera francesa que había sido capaz de remontar el río Níger. Las gentes de Timbuktu, fieles a su reputación de cobardes como buenos mercaderes que eran, no dudaron en rendirse. Plantada la tricolor se iba a iniciar un proceso de colonización mucho menos visible que la explotación económica de los nuevos territorios ocupados. Junto a las bayonetas francesas y de sus auxiliares senegaleses desembarcaban los intelectuales que iban a definir nuestra imagen del África Occidental hasta nuestros días. De la noche a la mañana se procuró borrar cualquier rastro de la presencia hispana en la Curva del Níger. No se dudó en alterar las traducciones de los primeros manuscritos timbuktianos editados en Europa, hacer desaparecer los últimos restos materiales del bajalato, acusar a las tropas hispanas del declive del último gran imperio africano, etc. Esta labor de recreación colonial ha perdurado hasta nuestros días; se ha necesitado un siglo para volver a recuperar la presencia hispana en los acontecimientos que cambiaron la historia de toda la Curva del Níger. 7

BENÍTEZ, C. (1987): Viaje a Tombouctou, Laertes.

62

Isagogé, 3 (2006)


OPINIÓN Y ANÁLISIS

NEOCONSUMISMO Y EUROCRACK: DOS REALIDADES QUE SE DAN LA MANO Juan Antonio Muñoz Castillo En los últimos tiempos, por esta parte de la Andalucía profunda desde la cual escribo las presentes líneas, hubo mucha labor. Así que, cuando ha habido tiempo para la reflexión, la he hecho sobre algo muy cercano y que al mismo tiempo afecta, no ya a una colectividad, sino a toda la sociedad denominada «occidental», y que, en contra de los cantos de sirena de algunos iluminados, parece irremisiblemente condenada, por su propio demérito, a sufrir una inmensa crisis. Valga como ejemplo una gota en medio de un océano de ellos (y usted puede acoplar también los suyos, querido lector). Hace pocos días visité a un muy querido amigo, ya convertido por los azares de la vida, en esposo y padre de familia. A partir de una conversación sobre trabajos, empleos y ocupaciones, salió el tema económico. Echando cuentas, deduje que su relación con el Banco debía ser un suma y sigue de pagos, pagos y más pagos, de deudas, créditos y más préstamos, con lo cual no parecía preocuparse. ¿Cambio de mentalidad? Es posible. Con dos sueldos en su casa, pagando una hipoteca bastante alta por una casa edificada en una parcelación ilegal (y con riesgo de demolición), pagando préstamos por dos automóviles de gama media/alta, aún haciendo frente al pago de otro préstamo porque no podía pasar sin vacaciones y su cónyuge estaba sopesando la posibilidad de pedir otro para hacerse unos «retoques». Por si esto fuera poco, había cierto desacuerdo entre ambos cónyuges porque, en la mañana de Reyes, a su vástago le había correspondido una himalayana montaña de juguetes, los más, inadecuados para la edad del niño. Y es que uno sintió verdadero marasmo sólo de pensar en los números que, si mi amigo quisiera, debería echar para llegar a fin de mes. Al «¿cómo lo haría?» le siguió el «¿se planteará echar cuentas?» y el «¿cómo se le puede dar crédito con ese sueldo?», y «¿están seguros los Bancos de cobrar, máxime con las tendencias al impago ante tanta usura, que roza lo abyecto y lo inmoral?». Pensé que mi amigo podría plantear (y hay jurisprudencia) declararse en quiebra 1 . Pero quién sabe si lo hará. En el ir y venir de estas preguntas, tuve otra interesante conversación, no mucho tiempo después, con dos compañeros míos, matrimonio muy querido y apreciado. Parecía tener bastante bien encauzado el asunto de sus deudas, préstamos e hipotecas. De hecho, les vi mucho mejor que a mi querido amigo el parcelista. «Una nómina entera es para pagar, la otra es para ir tirando». Y no son de los que escatiman a la hora de consumir. El cambio de mentalidad en nuestra sociedad, con estos dos ejemplos y muchísimos más, es claro y evidente. Podemos decir que en los últimos quince años, superada la división económica en dos bloques antagónicos, la economía «cuartocapitalista» o «globalista» 2 ha ido generando (al menos de modo palmario en el mundo antes llamado «occidental») una realidad, el neoconsumismo, que supera a la etapa terzocapitalista denominada «sociedad de consumo» (o por algunos autores, como los denostados «desarrollistas», «sociedad post-industrial») El neoconsumismo tiene unas características aún por definir, pero abreviando, podrían ser las que veremos: 1

Hay una reciente sentencia judicial en Cataluña por la cual una familia se ha declarado en quiebra. Es una excepción, pero lo excepcional puede dejar de serlo. 2 Términos propios del autor, que se deducen tras una lectura de todo un clásico reciente. Vid. R. MÉNDEZ, (1998): Geografía económica. La dinámica espacial del capitalismo global, Ariel. Isagogé, 3 (2006)

63


Es propio de una sociedad en la que se crean demandas artificiales, rápidamente asumidas por los consumidores, que no han salido del consumismo precedente.

Es un modelo de consumismo simple y con efectos devastadores. Los empresarios de las grandes cadenas distribuidoras, armados con grandes capitales invertidos en fuertes aparatos publicitarios, crean redes de falsa dependencia, falsa demanda, lo cual les hace aumentar su cuota de mercado, incluso exponencialmente.

La sugestión 3 generada por este aparato publicitario-propagandístico lleva a distorsionar evidentemente las tendencias de consumo. No hemos salido de una campaña de Navidad de cerca de tres meses cuando al consumidor se le enloda en las «rebajas» (no tan rebajas como parecen) 4 . Y al acabar éstas, llegan las compras porque es primavera. Y al acabar la primavera, rebajas de verano. Y después, ese azote llamado «vuelta al cole» (sobre todo para las familias con hijos). Y en pocos años, si no ocurre algo previsible (aunque la miopía neoconsumista a muchos no les permite ver más allá de sus chatas narices que le costaron un crédito a un 35 % de interés), acabaremos de «llegar al cole» y ya habrá saturación de Papás Noeles (otro icono del consumismo) en árboles, terrazas y balcones.

Este consumismo manejado por grandes corporaciones lleva a un cambio de hábitos de consumo peligroso per se. Algunas mentes calculadoras lo llaman «democratización» (por ejemplo, los viajes, la cirugía estética o el tuning). Pero no nos engañemos, que si por algo se caracteriza la economía cuartocapitalista es por escasa racionalidad, empezando por sus deslocalizaciones y acabando por sus límites indefinidos

El neoconsumismo es altamente destructivo. Cambia la estructura del consumo y cambia la mentalidad del consumidor, al que vuelve sumiso y adicto a los cambios del mercado y en particular de sus ofertas, creando una y otras demandas artificiales, harto peligrosas y que le afectan al bolsillo, con el riesgo de degenerar en peligrosas patologías como la «compra compulsiva».

Pues bien, hundida en el neoconsumismo se encuentra la sociedad occidental. Y particularme gravoso es el caso de esta entidad, en principio económica, pero ya cargada de peso político como es la Unión Europea. Esto no es ser agorero ni casandrista, es tener algo de sentido común: la Unión Europea no funciona bien 5 , y su modelo económico y monetario, o cambia, o se verá abocado a una profunda crisis de consecuencias insondables, cuyo principal efecto vamos a denominar «Eurocrack» 6 . Neoconsumismo y Eurocrack van cogidos de la mano, como causa y efecto. Si no se producen una serie de cambios a medio plazo, el Eurocrack será inevitable.

3

Pensemos en fenómenos como la «publicidad subliminal», ampliamente estudiada por la Psicología. Hay recientes estudios de organizaciones de consumidores (por ejemplo, FACUA), alertando a propósito de rebajas que no lo son. Como muestra, en Andalucía no existe la obligación legal de exponer en el etiquetado de los artículos rebajados su precio original. 5 Por lo prontro, tras las recientes adhesiones de Rumanía y Bulgaria, no se admitirán más países candidatos mientras no se solucione el espinoso asunto de la Constitución Europea. El gigante europeo, cada vez es más «un gigante de pies de barro», con serio peligro de resquebrajarse en una «Europa de varias velocidades» a la que le pueden saltar piezas (¿países expulsados de la UE? ¿Quién sabe? Puede no ser tan política-ficción como a priori podría pensarse) 6 Ya hablé de él en un fallido relato inédito escrito en 1997, cuando la llegada del euro se veía como algo a medio plazo y yo sólo era un joven aprendiz con bastantes inquietudes. 4

64

Isagogé, 3 (2006)


Una sociedad como la europea, con «Estados-presidentes» de la economía, con un alto grado del providencialismo estatal (el manido welfare state, que realmente se haya, no en crisis, sino mal administrado), con sociedades enfermas hasta el tuétano de neoconsumismo (en no pocos casos extremo), está predispuesta para este fenómeno (el «Eurocrack») Sociedades como la española, en la que unos aparentes (y no sabemos si reales) «buenos resultados macroeconómicos» quedan en entredicho con las siguientes realidades:

Alarmante e imparable subida de los precios de artículos básicos.

Elevadísima presión fiscal sobre las clases medias y populares, agravada en los últimos tiempos.

Notable grado de endeudamiento del consumidor medio, especialmente por precio inflado de la vivienda.

Injusto e irracional aumento de los tipos de interés y del precio de dinero, al parecer, decidido por altas instancias europeras, ahítas de gestores políticos y no económicos, además, harto ineptos 7 .

Incremento de la precariedad laboral y del paro: y esto, pensando de buena fe en una no descartable inexactitud o manipulación de estadísticas, porque ya en España hay dos millones largos de parados y un número bastante superior de trabajadores en situaciones precarias.

Si a esto le sumamos que la moneda única, el «euro», crea mucha inflación, nos podemos encontra a medio plazo con el antedicho Eurocrack: el sistema económico (y monetario) europeo no será capaz de regularse (y no digamos, si se encuentra en manos de políticos de dudosa y dudable reputación), y nos podemos encontra con una moneda hinchada, con un mercado híperespeculado sin una demanda real. Lo virtual se desploma. Las Bolsas europeas arrastrarán en su caída a la moneda única, produciéndose un parón económico y una crisis de consecuencias imprevisibles, pero es de creer, harto onerosas:

Pérdida evidente (y ya palpable) de poder adquisitivo de unas clases medias extremadamente endeudadas e incapaces de hacer frente a unos préstamos, bien inmobiliarios, bien neoconsumistas.

Destrucción y/o precarización de empleos, con consiguiente cambio radical en el mercado de trabajo.

Asimismo, crisis del sistema del «Estado providencialista», con la consiguiente pérdida de acceso a servicios sociales y la reducción de éstos.

Descrédito del sistema democrático, ya muy erosionado por la corrupción (escandalosa en algunos países) y sus manifestaciones más preclaras (especulación urbanística, nacionalismos de quita y pon, prevaricación, enchufismo, etc...), con la consiguiente ascensión de nuevos totalitarismos.

Crisis generalizada a todos los efectos de la sociedad, especialmente en las que más han devaluado sus valores, con una nueva redistribución social, tal que así: los poderosos, una minoría elitista y cuasi cerrada, y las masas, quizá abocadas a nuevos modos consumistas, con escasa promoción social.

7

Piénsese en las desaforadas subidas del indicador europeo EURIBOR y los desafueros proferidos por el ínclito responsable del BCE, Jean-Claude Trichet.

Isagogé, 3 (2006)

65


Las soluciones, las recetas para evitar este más que presumible «Eurocrack», son harto complejas de pergeñar y atisbar, pero la sociedad cuartocapitalista europea, atragantada de deudas, emponzoñada por hábitos (y vicios) neoconsumistas, necesita algunos cambiosque, sin ser radicales, tampoco pueden ser lentos:

Despenalizacion fiscal del ahorro familiar, así como el fomento progresivo de instrumentos que lo hagan atractivo para entidades financieras.

Contención del crédito de modo racional, así como de los tipos de interés, fomentándose los tipos de interés fijo, aunque mucho más bajos que en la actualidad: así, al poderse hacer frente al pago de deudas de modo razonable, el consmumo se puede mantener de modo racional, y las entidades financieras mantienen su capacidad de negocio.

Despolitización de la gestión económica del mercado por parte del Estado: acaba llevando a dirigismos contraproducentes que fomentan las malas prácticas empresariales (como por ejemplo, la OPA sobre Endesa con la intrusión de Gas Natural frente a a E-ON)

Pese a esta despolitización gradual, mantenimiento de modo racional del «Estado providencialista» en sus aspectos básicos.

Y sobre todo, un cambio en la política educativa, que la devuelva por la senda del sentido común, alejándola de pretenciosos gurús narcisistas 8 , tautócratas y figurantes que, llevados de los más rastreros sectarismos políticos 9 , han emponzoñado la enseñanza en las últimas décadas 10 . Reconducir la educación, la enseñanza por la senda del sentido común, para formar ciudadanos responsables, que sepan consumir, comportarse, trabajar, y no una masa de borregos de opinión asamblearia (por no decir irrelevante), auténticas bestias de carga, perfectos candidatos a conformar un nuevo «Tercer Estado» 11 después de dos siglos de capitalismo y otros sistemas económicos surgidos de su crítica por parte de un sector del pensamiento económico y, en consecuencia, político.

Quizá todo este artículo sólo sean las cavilaciones de un maestro rural en una tarde invernal, pero conforme los días van pasando, neoconsumismo y Eurocrack son más que dos palabras que se aproximan la una a la otra, como una causa a su efecto. BIBLIOGRAFÍA MÉNDEZ, R. (1998): Geografía económica. La dinámica espacial del capitalismo global, Ariel. ORTEGA Y GASSET, J. (1999): La rebelión de las masas, Espasa-Calpe. TAMAMES, R. (1988): Economía y desarrollo. Las claves para el crecimento, Alianza Editorial.

8

Díganse sociólogos alejados de la realidad (de las aulas) y otros pretenciosos «desertores de la tiza», tan matrimoniados con el poder político como alejados del «día a día» escolar. Sería larga la lista de elementos a mencionar. 9 Por ejemplo, esa perversión de la Historia denominada «recuperación de la memoria histórica», que se muestra como un negocio para algunos y un fraude para muchos/as. 10 Como los sistemas educativos basados en el fracasado modelo de la comprehensive education inglesa, cuya mala traducción ha generado sistemas como el LOGSE/LOE/LEA, que pese a los intentos de maquillaje evaluatorio, se han mostrado como se han mostrado (opinión compartida por amplios sectores del profesorado) 11 Sí. El término clásico de Sieyès podría servirnos para explicar el resultado de la aniquilación de las clases medias como consecuencia de un Eurocrack provocado por una crisis del sistema neoconsumista/ cuartocapitalista.

66

Isagogé, 3 (2006)


ESTRUCTURA BÁSICA DEL SISTEMA EDUCATIVO DE LOS EE.UU. Y EL PAPEL DE LAS DIFERENTES ADMINISTRACIONES Francisco Castillo Arenas El presente trabajo tiene como objetivo el estudio de los elementos básicos del sistema escolar de los Estados Unidos de América y la implicación en él de los diferentes niveles administrativos: local, estatal y federal. La escolarización en los Estados Unidos es obligatoria hasta los dieciséis años y se configura básicamente en tres niveles: Educación Primaria (elementary), Secundaria (high school) y Superior (que no es obligatoria). En algunos lugares hay variantes en esta división y se crea un nivel intermedio entre la Primaria y la Secundaria llamado «Middle School» o «Junior High School», según si engloba los cursos del 6 al 8 o bien del 7 al 9. El modelo con «Middle School» se está imponiendo en todo el país por considerarse que hay una diferencia entre la primera adolescencia y la segunda y que por ello requieren de un nivel de enseñanza diferenciado. La preocupación por la adaptación a las necesidades del alumno es un elemento fundamental en todo el sistema escolar norteamericano y existen programas para quienes presentan discapacidades o sobre capacitación, así como se tienen en cuenta la diversidad cultural, étnica y lingüística 1 . Por otro lado, la educación profesional está disponible tanto en la primaria como en la secundaria. Además, existen programas formales e informales de educación para adultos en todos los estados y para cualquier segmento de edad. Los estudiantes de primaria en los Estados Unidos suelen pasar todo el tiempo en una misma aula con un mismo profesor, salvo en asignaturas como música o arte. Por el contrario, los estudiantes de secundaria cambian de aula y de profesor en cada periodo, produciéndose una mezcla de grupos y de edades. Las «Junior High School» suelen imitar el sistema de las «High school», mientras que las «Middle school» tienden a un sistema más flexible. El horario escolar en primaria y secundaria transcurre entre las 8:30 p.m. y las 3:30 p.m. (seis horas, excluyendo almuerzos y descansos), siendo más flexible en la educación superior. Como constante general en todo el país, la religión se mantiene fuera de todo lo relacionado con la escolaridad pública pues, de acuerdo con su Constitución 2 , debe haber una separación completa entre Religión y Estado. Para los padres que quieran una educación religiosa hay ofertas de centros privados, destacando por su elevado número los católicos. EL PAPEL DE LAS AUTORIDADES LOCALES A pesar de que, según la Constitución, son los estados quienes deben dirigir el grueso de la administración educativa, muchos de ellos delegan gran parte de estos asuntos en los distritos escolares. Cada uno de los aproximadamente 1.500 que existen 1

El país cuenta con importantes minorías étnicas destacando la afro americana, que habla inglés y la hispana (en especial los mexicanos) que aportan sus propias lenguas, destacando el español. 2 «Enmiendas. Artículo 1: El Congreso no hará ley alguna por la que adopte una religión como oficial del Estado o se prohíba practicarla libremente, o que coarte la libertad de palabra o de imprenta, o el derecho del pueblo para reunirse pacíficamente y para pedir al gobierno la reparación de agravios». AA. VV. (2000): Constitución de los Estados Unidos, Analítica, p. 15. Isagogé, 3 (2006)

67


en los Estados Unidos supervisa las escuelas primarias y secundarias públicas, mientras que las instituciones privadas suelen estar fuera de este control. Las instituciones públicas de educación post-secundaria están bajo el de las autoridades estatales, siendo los centros privados relativamente autónomos. En la mayoría de los casos los distritos escolares son responsables de lo siguiente: •

Contratar maestros, profesores y otros empleados.

Salarios de los profesores y del administrador.

Administrar el servicio de capacitación de los maestros.

Coordinar el gasto escolar.

Asignar presupuestos entre escuelas y programas.

Supervisar la construcción de edificios y su mantenimiento.

Relaciones con la comunidad.

Existe en los últimos tiempos una tendencia creciente a que los distritos intervengan en los diseños de los planes de estudios, sin menoscabo de las pautas generales que marcan los estados. EL PAPEL DE LOS ESTADOS Es en los estados donde de fija el grueso de la política educativa 3 . Ésta es desarrollada por los «State Board of Education» y por el legislativo estatal, mientras que el departamento estatal de educación encabezado por el superintendente (o comisionado) es responsable de llevar a cabo dicha política y vigilar el funcionamiento de los distritos escolares. Los «State boards of education» Los «State boards of education» son organismos compuestos por ciudadanos prominentes que, dependiendo del estado, son elegidos por el legislativo estatal, el gobernador o por los ciudadanos. Su labor es la de supervisar la política educativa y su funcionamiento, determinar las prioridades presupuestarias, aprobar políticas nuevas y pautas (incluso las del plan de estudios), aprobar reuniones profesionales y considerar los requerimientos de agencias educativas locales. En algunos casos los «State boards of education» son responsables de todos los niveles educativos, pero en la mayoría de los estados se concentra tan sólo en los niveles de primaria y secundaria. Los Superintendentes o Comisionados Los Superintendentes del estado o Comisionados son los funcionarios de educación de mayor nivel en el estado y los elige el gobernador o el «State board». El nombre genérico es el de «funcionario jefe escolar del estado». Estos profesionales manejan los asuntos del día-a-día de los departamentos estatales de educación e informan de lo que acontece periódicamente al «State board of education», al gobernador y al legislativo. 3

Recordemos que hay cincuenta estados además del distrito federal de Columbia, los territorios de Guam, Carolinas y Marianas y el Estado Libre Asociado de Puerto Rico.

68

Isagogé, 3 (2006)


Los gobiernos estatales son responsables en general de lo siguiente: •

Autorizar a instituciones para operar dentro de su jurisdicción.

Establecer pautas del plan de estudios.

Fijar el número de días escolares.

Establecer las normas de salud y de seguridad.

Autorizar o certificar a los profesores y administradores.

Desarrollar políticas y regulaciones de gobierno de la educación primaria y secundaria.

Designar agencias de vigilancia de la calidad educativa en todos los niveles.

Proporcionar fondos y ayuda técnica a las agencias gubernamentales locales y escuelas. La educación supone el capítulo de gastos más grande para los estados y los territorios. De media, el desembolso económico de los estados en educación representa el 48 por ciento de todo el gasto educativo en los Estados Unidos de América.

En cuanto a la enseñanza superior, los estados generalmente no la regulan tan estrechamente como la educación primaria y secundaria. La esencial autonomía de las instituciones que se dedican a este nivel en asuntos académicos es reconocida por ley y en la práctica política. Sin embargo, a través de consejos especiales o comisiones, los estados ejercen una supervisión de la educación post-secundaria pública, con políticas generales o monitorizando las responsabilidades por el gasto de recursos públicos. EL PAPEL DEL GOBIERNO FEDERAL El gobierno federal desempeña un papel de liderazgo y apoyo en todo el proceso educativo. El «U.S. Department of Education» El «U.S. Department of Education» («Departamento de Educación de los Estados Unidos») es la agencia responsable de la política educativa federal, aunque numerosas agencias federales contribuyen con recursos a programas de formación y actividades. La aportación del Departamento de Educación supone un 7% del gasto estatal, mientras que la del resto de agencias federales equivale a un 4%, lo que suma un 10% de contribución del gobierno federal. Hoy día el Departamento de Educación se encarga de lo siguiente: •

Recolectar y distribuir información, tales como estadísticas, datos de investigaciones e informes de prácticas educativas más efectivas.

Ejercer un liderazgo de la opinión pública, estados, instituciones privadas, comunidades, padres y profesores en pro de una mejora de la educación.

Asegurar unas mismas oportunidades educaciones como dictan las leyes de derechos civiles. El Departamento de Educación puede retirar fondos federales a cualquier organización que no respete los derechos civiles. La enmienda a la constitución de los Estados Unidos número 14 dicta que ningún estado puede quitar a un individuo alguno de los derechos concedidos por la ley. Por tanto, los estados deben proporcionar una

Isagogé, 3 (2006)

69


educación que no viole los derechos civiles y que permita las mismas oportunidades a todos los niños. •

Apoyar las mejoras educativas y reformas mediante ayudas a los estados, gobiernos locales o escuelas individuales (frecuentemente a grupos marginales). El Título I es el programa federal de ayudas más grande para escuelas primarias y secundarias y por este concepto reciben fondos el 93 por ciento de los distritos escolares.

Ayuda financiera a estudiantes para sufragar su educación post-secundaria. Aproximadamente el 45 por ciento del presupuesto del Departamento se consagra a este nivel formativo, mayoritariamente en concepto de apoyo económico a los estudiantes. Aproximadamente el 75 por ciento de toda la ayuda financiera que aquéllos reciben es proporcionada por el gobierno federal.

Las Asociaciones Nacionales Las Asociaciones Nacionales suelen estar formadas por profesionales con similares intereses (por ejemplo, administradores, profesores, etc.) y metas comunes. Son organizaciones no gubernamentales y sin ánimo de lucro y juegan un papel en la comunicación y colaboración que excede los limites jurisdiccionales entre individuos y situaciones; representan los intereses de sus miembros en el ámbito local, estatal y nacional y regulan la manera en que operan sus miembros y la conducta que siguen. Las Asociaciones Nacionales ejercen frecuentemente una influencia considerable en el funcionamiento de la política nacional, son consultadas regularmente por el gobierno a todos los niveles y en algunos casos desempeñan tareas delegadas por el gobierno. CONCLUSIONES A través de este trabajo se ha expuesto un sistema escolar ampliamente descentralizado. El gobierno federal sólo tiene un poder orientativo y de estímulo en educación, materia que tradicionalmente suele detentar el estado en primera instancia. No obstante en los últimos tiempos está aumentando la autonomía y la capacidad de decisión de las autoridades locales, que son las que verdaderamente están en contacto con la problemática de los alumnos. Un objetivo fundamental es servir mejor a los alumnos mediante la adaptación a sus especificidades, y se piensa que es la autoridad local la que mejor puede hacerlo, encarnando el espíritu de todo el sistema escolar. BIBLIOGRAFÍA AA.VV. (2000): Constitución de los Estados Unidos, Analítica AA.VV. (2002): Curso de formación en educación multicultural y plurilingüe, Dossier de Apoyo, Salamanca. AA.VV. (2000): The Educational System in the United States: Case Study Findings, U.S. Government Printing Office of Washington. BERNAL, J. L y M. T. GIL (1996): «Los Ángeles: CP ‘Mark Twain’ Respuesta al Multiculturalismo» Cuadernos de Pedagogía, 250, pp. 38-44. GÓMEZ DACAL, G. (2001): «La población hispana en EE UU», Anuario del Instituto Cervantes 2001, Plaza y Janés / Círculo de Lectores, pp. 169-242 <http://cvc.cervantes.es/obref/ anuario/anuario_01/gomez/> SMITH, A. (2002): «How global is the curriculum», Educational Leadership, 20, pp. 38-41.

70

Isagogé, 3 (2006)


BREVE HISTORIA DE LOS CASTILLOS Rafael Santiago Bermón INTRODUCCIÓN El término castillo proviene del latín, castellum, diminutivo de castrum, que era como los antiguos romanos denominaban a los campamentos fortificados de los nativos de otras tierras (muy buenos ejemplos quedan de ellos en la Península Ibérica). Por lo tanto, el origen de la palabra es «pequeño campamento fortificado». Sin embargo, con el paso de los siglos se ha aplicado el término castillo a una gran cantidad de edificaciones diferentes, llenándose el concepto de cierta ambigüedad. El concepto de castillo se suele emplear básicamente de dos formas, una reducida y otra extensiva. En el primer caso se trata de un edificio de función militar destinado en la Edad Media a controlar el territorio, y en donde se alojaba el poder, ya fuesen señores feudales o el mismo monarca. El castillo estaba compuesto por un recinto amurallado en cuyo interior se disponía la torre del homenaje, cobertizos para los hombres de armas, establos, silos y otras estructuras defensivas. Sin embargo, dicha estructura es en realidad un paso más en el proceso evolutivo del castillo, que nació en época romana y que se fue transformando hasta llegar al siglo XIX. Si empleamos la acepción amplia, castillo es un lugar fuerte, una construcción defensiva que puede presentar una amplia tipología dependiendo de su función específica: defensa estratégica del territorio, protección de la población, posición de vigía, residencia de representación de la aristocracia… En función de esta variedad de edificaciones el castillo presentará algún elemento concreto de defensa, como por ejemplo una muralla, foso, puente levadizo, torre del homenaje, empalizadas, torres angulares, etc. De esta forma se considera castillo una torre exenta como un burgo fortificado. Este concepto de castillo es el que seguiremos en el presente artículo. LA ALTA EDAD MEDIA O EDAD OSCURA (SIGLOS VI-X) La palabra castillo continuó empleándose tras la caída del Imperio Romano de Occidente, cuando pueblos de origen germano se apoderaron del antiguo solar del Imperio para fundar sus propios reinos. Durante los siglos de las invasiones bárbaras Europa entró en una profunda crisis política, pues sin un poder hegemónico los distintos reinos entraron en una guerra continua por el control del territorio. En esta época los ejércitos eran bandas mal organizadas, pequeños, sin máquinas de asedio, cuya principal táctica era la razzia o rápida incursión sobre territorio enemigo. Los castillos de entonces, sobre todo en el norte de Europa, consistían en una torre, muchas veces realizada de madera, sobre una colina artificial llamada «mota», rodeada por una empalizada. En ellos residía el líder militar y, en caso de ataque enemigo, la población ingresaba dentro de su estacada y se preparaba para la lucha. Fue un sistema eficaz y barato de defensa hasta que se desarrolló la organización militar y las tácticas de guerra a lo largo de la Edad Media, demostrando que las torres de madera no ofrecían una protección eficaz. Valga a modo de ejemplo la mota de Chichester, ilustrada idealmente a la derecha.

Isagogé, 3 (2006)

71


LA PLENA EDAD MEDIA: ORIGEN DEL CASTILLO CLÁSICO (SIGLOS XI-XIII) Los más antiguos castillos medievales conservados provienen de la plena Edad Media. Con anterioridad quedan algunos vestigios, como es el caso de la muralla del castillo de los Mouros en Sintra, Portugal, pero la mayor parte de las estructuras defensivas anteriores al año 1000 han desaparecido. Durante este periodo los castillos se ubicaban en zonas estratégicas del territorio para su protección, generalmente en lugares fácilmente defendibles como en lo alto de una colina. Además, constituían el lugar de residencia de los distintos señores feudales, así como del rey, que no dejaba de ser un señor más. El feudalismo se había impuesto en la plena Edad Media en Francia, Alemania e Inglaterra como sistema de organización política, de tal forma que el poder centralizado del Estado prácticamente desapareció a favor de pequeños núcleos, autosuficientes desde el punto de vista económico (agricultura autárquica), y militar (pequeños ejércitos feudales cobijados bajo castillos). Encontramos diferentes tipologías de castillo, aunque en todas ellas se extiende el empleo de la piedra como material de construcción en detrimento de la madera. El castillo más simple lo constituye la torre vigía para el control del territorio; se trata de una torre exenta, sin muralla, de diferentes plantas, algunas para guardar el grano y los víveres, otras para alojar a la guarnición. Similar a la anterior, aunque de mayores proporciones, es el castillo-casa del señor feudal, un edificio fortificado que suele aparecer sin muralla, articulado en plantas, con puerta en altura a la que se accedía mediante una escalera retráctil. Sin embargo, el tipo de castillo de mayor éxito consistía en una muralla, generalmente cuadrangular, con torres en sus vértices, en cuyo interior se extendía el patio de armas rodeado con edificios destinados al establo, acuartelamiento de tropa, capilla, etc., así como un fortín para la defensa extrema, conocido como la torre del homenaje. Esta última podía estar en el centro del castillo o anexa a la muralla, de mayor altura que el resto de las torres, y solía ser la residencia del señor feudal. Junto a los castillos se congregaban las aldeas de los campesinos, que buscaban su amparo en caso de guerra, fruto de lo cual los castillos se convirtieron en la génesis de muchas ciudades a lo largo de la Edad Media. Desgraciadamente, debido a las acciones militares y al tiempo transcurrido, son pocos los castillos bien conservados de esta época que han llegado hasta nuestros días. La mayor parte de ellos han sobrevivido en un estado ruinoso, o bien fueron remozados posteriormente, guardando poco parecido con el castillo original. Algunos ejemplos destacables son el castillo de Pemboke en Gran Bretaña, o el de Loarre en España (en la fotografía derecha) LA BAJA EDAD MEDIA: LA EDAD DORADA DE LOS CASTILLOS (SIGLOS XIV-XV) Durante los siglos XIV y XV se produjo la génesis del Estado moderno, con la centralización de la administración del reino por parte de los monarcas, en contra de los poderes feudales, lo que provocó frecuentes guerras civiles contra la nobleza y, por consiguiente, la proliferación de los castillos. Pero las principales necesidades bélicas no provenían del interior, sino del extranjero; en esta época se producen grandes conflictos entre reinos y regiones independientes por el control del territorio, caso de la Guerra de los Cien Años (1337-1453), guerras entre Inglaterra y Escocia, los frecuentes 72

Isagogé, 3 (2006)


enfrentamientos entre Castilla y Aragón, o las fortificaciones fronterizas mandadas realizar por el rey portugués Dionisio I (1279- 1325) para protegerse de los castellanos. Los ejércitos se hicieron más numerosos, y las máquinas de asedio se desarrollaron notablemente. Estos cambios tuvieron como consecuencia que los castillos ampliaran su tamaño, para poder alojar en ellos mayores ejércitos; y para contrarrestar artefactos de asedio, como catapultas y escalas, las murallas y torres se desarrollan en potencia y altura. También se populariza la ubicación del castillo en lagunas artificiales o lagos, de más fácil defensa, así como el levantamiento de fosos rodeando la muralla para evitar la eficacia del asalto al castillo. Otra circunstancia relevante es el engalanamiento del castillo, residencia de nobleza y realeza, para convertirlo además de en una estructura defensiva en un edificio de representación de su poder, naciendo un interés por la decoración, el ornato y la armonía de las formas. Se trata, en definitiva, de hacer más habitables y lujosos los castillos con salas separadas para comedor, cocina, habitaciones, etc. El gótico, estilo artístico imperante en estos siglos en catedrales e iglesias, fue el lenguaje adoptado, con la búsqueda de altura, mayor luminosidad gracias a la profusión de vanos, el empleo de arcos apuntados y bóvedas de crucería. Existen muchos ejemplos de castillos bajomedievales, con características regionales particulares. Podemos destacar en Francia el castillo de Pierrefonds, en Suiza el de Chillon, en Alemania el de Eltz, y en España, por su belleza y estado de conservación, el castillo de la Mota (Valladolid), Olite en Navarra (ilustración derecha), Belmonte en Cuenca, o el alcázar de Segovia. En la baja Edad Media se produjo otro hecho de gran relevancia para la civilización occidental: el auge del comercio y de las ciudades. Muchas urbes crecieron bajo la sombra de un castillo, dotándose de murallas, y otras, celosas de su independencia y seguridad, levantaron murallas de piedra y una fortaleza interior que las protegiese del enemigo y un castillo urbano como último bastión defensivo. Dentro de este capítulo destacan el palaciocastillo de los papas de Avignon, en Francia, o el castillo y doble anillo de murallas de Carcasona (en la imagen). En España tenemos elocuentes ejemplos de fortalezas urbanas: en el reino nazarí, en Granada, dentro del recinto de la Alhambra, se levantó un fastuoso castillo-palacio de ornato extremo, emulado por el alcázar de Sevilla. EL CASTILLO RENACENTISTA. EL TRIUNFO DEL CASTILLO-PALACIO (SIGLO XVI) Durante el siglo XVI el castillo continuó evolucionando en dos direcciones opuestas, atendiendo a su doble funcionalidad. Por un lado, como residencia suntuosa de la monarquía autoritaria o de la nobleza, que toma como alojamiento palacios urbanos, villas y castillos, estos últimos con un importante significado de representación, carentes ya de toda función militar y más parecidos, por elegancia y ornamentación, a un palacio. Y por otro el castillo con una finalidad defensiva y militar. Isagogé, 3 (2006)

73


El castillo-fortaleza se ve obligado a evolucionar debido al poder de destrucción de las nuevas armas de asedio: fundamentalmente los cañones. Para minimizar el daño provocado por las balas de cañón los ingenieros militares descubren que las formas cilíndricas o en talud son más resistentes que las murallas rectas convencionales. De esta forma, los nuevos castillos se caracterizan por tratarse de estructuras cerradas plegadas sobre sí mismas, con potentes torres cilíndricas adosadas al cuerpo principal. Este tipo de estructura podemos verlo en la fortaleza costera del puerto de La Rochelle, en Francia, Torre Angevina en Nápoles, o el castillo de Villaviciosa de Odón, en Madrid, obra del arquitecto Juan de Herrera. Otro tipo de castillo, que a la postre será el empleado como fortaleza a lo largo de toda la Edad Moderna (siglos XVI- XVIII) es el baluarte, consistente en un poderoso y grueso lienzo de muralla en talud, capaz de resistir la fuerza destructiva de los cañones. Muchas veces esta fortificación tiene planta poligonal, con lienzos de muralla con salientes en forma de cuña. Los baluartes también contaban con baterías de cañones para hacer frente a la artillería o a los navíos de guerra enemigos. Podemos apreciar un ejemplo de baluarte en Colliure (siglo XVI), Francia, el más cercano de la Guardia, siglo XVI, o San Fernando en Figueras, ya del siglo XVIII. Respecto al castillo-palacio, era centro de fiestas y lugar de esparcimiento de la aristocracia, donde podía practicar su afición favorita, la caza, por lo que se ubicaban en zonas boscosas y de sublime belleza natural. Los castillos estaban tan asociados a la idea de residencia de la nobleza que ésta no quiso deshacerse de ellos, transformándolos en bellas mansiones, aunque en muchas regiones europeas, caso de Italia, tuvo que competir con las villas suburbanas, con formas más elegantes y clásicas, propias del Renacimiento. Las características de los castillos-palacio del siglo XVI, y de la Edad Moderna en general, son: el menor empleo de la muralla/foso e incluso su desaparición; paulatinamente el patio de armas se fue transformando en un jardín de recreo; la torre del homenaje se suprimió para convertir la estructura en una mole arquitectónica exenta, de grandes proporciones, con la finalidad de servir de lujosos aposentos a sus ocupantes, por lo que se multiplicaron vanos y ventanas, desapareciendo el coronamiento almenado. El único elemento de arquitectura militar que pervivió fue la torre, casi siempre anexa a las esquinas del edificio, alta y de planta circular. Los mejores ejemplos de castillo-palacios renacentistas se encuentran en Francia, en la región del Loira, como el castillo Chambord o Blois, de bellas y elegantes formas.

La Rochelle

74

Baluarte

Castillo del Loira

Isagogé, 3 (2006)


EL OCASO DE LOS CASTILLOS: LOS PALACIOS BARROCOS (SIGLOS XVII-XVIII) El siglo XVI marcó el punto de inflexión en la construcción de nuevos castillos que sirvieran de residencia del poder. A partir del siglo XVII los nuevos castillos tendrán una función eminentemente militar, construyéndose baluartes. La monarquía y la aristocracia se alojaron preferentemente en palacios barrocos siguiendo la moda italiana de villas y palacios urbanos. Así, cuando en el siglo XVIII se incendió el alcázar de Madrid, lugar de residencia de la monarquía española, se mandó construir un palacio barroco en vez de rehacer el castillo. EL CASTILLO ROMÁNTICO. EL HISTORICISMO DEL SIGLO XIX El siglo XIX fue una época desastrosa para los castillos. A la dejadez provocada por la marcha de sus ocupantes a majestuosas mansiones, se unieron las revoluciones liberales, que provocaron el ataque y destrucción por parte de los campesinos de los castillos de su región, símbolo del poder inamovible de la aristocracia. Será a finales del siglo XIX, y sobre todo del XX, cuando la sociedad recupere la fascinación por los castillos y se reformen buena parte de ellos, presentando su actual aspecto. El interés por recuperar los castillos nace en la segunda mitad del siglo XIX. Gran parte de la alta sociedad y del mundo artístico, influidos por el las consecuencias negativas del mundo industrial y movidos por un espíritu romántico, volvieron la vista atrás, al evocador recuerdo de los castillos medievales en medio de frondosos bosques, al placer de contemplar la naturaleza más evocadora. Buena parte de los artistas quisieron recuperar las formas medievales, rechazando el neoclasicismo y la nueva arquitectura del hierro. De nuevo se puso de moda el estilo gótico, sobre todo en regiones como Gran Bretaña, Francia y Alemania, y con ello los castillos. Proliferaron los estudios sobre el gótico, como los de Viollet le-Duc, quien restauró Carcasona o el castillo de Pierrefonds, y se levantaron de nuevo edificios en este estilo, sobre todo templos. Por su parte, algunos mecenas decidieron construirse mansiones que simulasen las formas de un castillo. Evidentemente su función no era militar, pero se pueden consideran castillos al seguir las pautas del castillo-palacio renacentista, aunque con decoración típicamente medieval. Existen dos castillos románticos paradigmáticos: el Palacio da Pena de Sintra y el Castillo de Neuschwanstein (en la imagen de la derecha). Por último, en la actualidad los castillos de nueva construcción siguen las pautas del historicismo decimonónico. Se trata de casas que añaden algún elemento estructural propio de los castillos, con una finalidad más plástica que arquitectónica, como son altas y esbeltas torres. Un ejemplo interesante español es la casa modernista de Terrades, de Joseph Puig i Cadafalch, en Barcelona (en la imagen) donde un bloque de viviendas ha adquirido algunos elementos visuales del castillo centroeuropeo, como las torres cilíndricas de tejado picudo * . *

Remitimos también a los curiosos a nuestro trabajo «10 Castillos Pintorescos de Europa», Noseolvida, 33 (2006), <http://www.noseolvida.com/noseolvida/docs/articulos/pdf/oct06_02.pdf> Isagogé, 3 (2006)

75


MISCELÁNEA RESEÑA LITERARIA

LOS HERMANOS KARAMÁZOV José Manuel Valle Porras Fíodor M. DOSTOYEVSKI (1987): Los hermanos Karamázov, Cátedra, 1.120 pp. (Edición y traducción de Natalia Ujánova)

Esta novela de Dostoievski no se reduce a un solo tema de fondo, sino que, como todas las grandes obras de la literatura —en este punto, el lector hispano ya estará pensando en nuestra Obra con mayúsculas, la que no necesita ser nombrada—, de ella se pueden hacer varias lecturas y encontrar para esta novela la definición que mejor satisfaga nuestros anhelos. Los hermanos Karamázov es la narración de un error judicial, es cierto; pero también es un largo debate de tono filosófico y moral; o una historia de atormentados e incompatibles amores, que preludian la tragedia; y, sobre todo, es una magistral representación de la muerte del padre a manos del hijo, de los hijos, de todos sus hijos, con la excepción del bondadoso Aliosha. Fiódor Pavlóchich Karamázov, el padre, es un lujurioso propietario, carente de valores, que acaso busca refugiarse de su nihilismo en el placer. De sus tres hijos, es el mayor, Dimitri —el oficial dado a la bebida y a las fiestas, derrochador, peleón—, el que, en las páginas iniciales, más nos recuerda al padre. Son ellos dos los que pleitean por la herencia de la difunta madre de Dimitri y por el amor de una mujer. Es él quien amenaza con matar al padre y quien carga con la condena por el parricidio. El segundo hijo, Iván Karamázov, es el pensador, el hombre perturbado por su exceso de conciencia, hasta tal punto que al acabar la novela el trastorno mental se está apropiando de su persona. El último, el protagonista, Aliosha, es el ser amable y entregado, cuyo amor inunda a todos las personas con las que se encuentra, que ya no pueden tener para él sino consideración, respeto y sincero aprecio. Pero nuestras primeras suposiciones se van cambiando conforme nos adentramos en la lectura. Dostoievski nos sorprende mostrándonos, hacia la mitad del libro, a Dimitri —junto con Aliosha— como uno de los personajes más simpáticos, con esa mezcla de entusiasmo por la vida y de ingenua generosidad con los demás. Iván, por el contrario, en una conversación con su hermano pequeño, se manifiesta como aquejado por los males espirituales que, afirma, habrán de llevarlo con los años a buscar refugio en los deleites del cuerpo. El más inteligente y racional de la familia no cree ser capaz de escapar al mismo modus vivendi que caracteriza a su padre, el más abyecto, animal y «estropeado» de todos ellos. Y es que, al fin, el asesinato no es obra de Dimitri, pese a que él sea condenado por ello. Pero parricidio, eso sí hubo. Iván acaba, aquejado ya por las visiones y las fiebres, confesando su culpabilidad, de la que nadie hace caso. Es él, dice, quien, aunque sin ser consciente de ello, ha provocado la muerte del padre. Su nihilismo, su convicción de que «todo vale», ha sido asumida por el criado Smerdiakov, ejecutor material del asesinato. A la postre, nos damos cuenta de que Iván debe reconocer, derrotado por los hechos y su conciencia, que no «todo vale», a pesar de que no exista Dios, que la moral no depende en exclusiva de la existencia de la divinidad. Pero, y con 76

Isagogé, 3 (2006)


esto pasamos a otra cosa, parricidio sí hubo: Smerdiakov parece ser el hijo ilegítimo del viejo Karamázov. De los cuatro hijos, Aliosha es el único que, de una manera u otra, no ha matado a su padre. Dostoievski, en esta obra, se muestra soberbio en la expresión de ideas filosóficas y sociales. Nos da el primer golpe de lucidez cuando Iván Karamázov defiende que el Estado ruso ha de convertirse en Iglesia —y no la Iglesia en Estado, que sería una idea ultramontana, ni el Estado hacer desaparecer la Iglesia, que sería la postura opuesta—. La clarividencia del autor, en este punto, nos sobrecoge: ¿no son ochenta y cuatro años de historia rusa del siglo XX suficiente cumplimiento de esta predicción? También nos deslumbra la antes mencionada conversación entre los hermanos Iván y Aliosha, donde el primero —postura que más adelante empezará a ser asumida por el segundo— dice que duda de la existencia de Dios, pero que su principal preocupación no es ésa, sino que, aún asumiendo su existencia, el sufrimiento, el de —por ejemplo— cualquier inocente niño, es un precio demasiado elevado por el mundo armonioso y por la justicia que la divinidad promete. Aunque fuera verdad que existen Dios y la inmortalidad del alma, el coste de una vida eterna de felicidad es, en esta vida mortal, excesivo para estar de acuerdo en asumirlo. Iván se rebela contra este orden de cosas. Aliosha, creyente él, también lo hará cuando muera su querido monje Zósima. Quizás el relato fantástico del Gran Inquisidor sea de los más conocidos, aunque también figura entre los criticados, en tanto se está en desacuerdo con este personaje que, en su conversación con un regresado Jesucristo del siglo XVI, le echa en cara que haya puesto sobre los seres humanos la pesada carga de la libertad, que acaba haciendo a los hombres —dice el autor— infelices. Sin embargo, si una cosa preside el aspecto ideológico de la novela es la contradicción, la oposición de ideas entre los principales personajes e incluso dentro de ellos mismos. Contradicción que tal vez sea reflejo de la que acuciaba a Dostoievski y que, en definitiva, es propia del espíritu humano, como también lo son las inquietudes, los deseos discordantes y contrapuestos, la oposición entre lo que se ansía y nuestras actuaciones. En la indagación de las emociones es Dostoievski amo y señor, como también lo es a la hora de mostrar las más íntimas sensaciones y pensamientos que invaden al hombre que sufre. En contra de esta obra podemos decir que está extendida en demasía, que algunos monólogos son abrumadoramente largos y que, sobre todo en su segunda mitad, la lectura se hace pesada con divagaciones de más. Esto, sin embargo, puede ser más bien una impresión del lector, de unos pero no de otros, pues, en definitiva, es éste quien, al leer, reinventa la obra y, de otra parte, —como decía Calamaro— cada obra ha de buscar los lectores que estén hechos para ella. Lo que a uno le parezca extendido, para otro será extenso pero sabroso. A todos, sin embargo, les quedará, en la imaginación y el recuerdo, la impronta de las fabulosas cualidades de Dostoievski para representar el sufrimiento, las emociones, las inquietudes y contradicciones de la condición humana.

Isagogé, 3 (2006)

77


RESEÑA CINEMATOGRÁFICA

MATRIX: LA RELECTURA DE UN INCONDICIONAL José Mª Martínez Jiménez Muy a menudo me surge la oportunidad de recordar, en compañía de amigos y casi en cualquier conversación, la singular obra maestra de los hermanos Wachowski, The Matrix. Tal es el extremo que, con la misma frecuencia, suelo ser apercibido del profundo cansancio que suelo generar hablando siempre de lo mismo. Quien me conoce sabe que lo hago sin maldad alguna y que, con total seguridad, todo ello se debe al profundo impacto que en mí causó la cinta desde el primer día que pude disfrutar de ella en el cine, no ya por la maraña desenfrenada de efectos especiales, sino por el atrevimiento de intentar condensar en una sola obra una cantidad ingente de conceptos, ideas y reflexiones metafísicas y filosóficas, así como veladas denuncias políticas que a cualquiera que sepa ver más allá apabulla, cuanto menos. Son tantas y tan variadas las metáforas que plantea el film que sólo con esfuerzo consigo que no se convierta en mi única fuente alusiva y ejemplificante en mis conversaciones. Tras dejar claro que quien escribe estas líneas no es ni mucho menos neutral en su análisis, me dispondré a realizar uno de los muchos recorridos intelectuales a los que invita la que es, según mi criterio personal «una de las mejores películas ideológicas y de ciencia ficción de todos los tiempos» y una magnífica obra de arte. Me gustaría avisar también, antes de empezar, que, a lo largo de esta reseña, desvelaré momentos y escenas que son altamente relevantes para la trama de la película, por lo que sólo recomiendo leer estas líneas a aquel que la haya visto previamente. EL RETRATO DE UNA SOCIEDAD Nuestro protagonista, brillantemente encarnado por Keanu Reeves, tiene en principio una vida normal, como la de cualquier otro trabajador en una gran empresa (Metacortex en este caso). En principio, la vida de Thomas Anderson en Matrix representa a la de cualquier otro ciudadano, inmerso tanto en sus obligaciones diarias como en la búsqueda de un sentido para su vida. Matrix pretende mostrarse como una realidad insulsa que acaba aplacando a los individuos con su ración diaria de apatía, rutina y conformismo, un mundo gris que se transmite al espectador a través de una iluminación, un vestuario y unos decorados en los que predominan los colores apagados, grisáceos, verdosos, oscuros... Un mundo uniformado en el que la única nota de color de una chica vestida de Rojo, supone un estímulo tan destacable que es usado como cebo seguro en un programa de entrenamiento, el cual pretende enseñar que cualquier individuo es en potencia un enemigo por formar parte activa de un sistema que aliena, deshumaniza y utiliza al ser humano como una herramienta más para perseguir su fin último: el control máximo para alcanzar el poder máximo. Esta es una de las primeras ideas sobre la que se nos invita a reflexionar. Nuestra sociedad actual postula en la práctica la preponderancia de la colectividad por encima del reconocimiento individual, hasta tal punto que los rasgos identitarios del individuo acaban reduciéndose a los de pertenencia a un colectivo. Los grupos y opciones minoritarias acaban desapareciendo, mientras que se instalan cíclicamente, por ejemplo, modas que acaban por desheredar del mundo de los aparentemente normales e 78

Isagogé, 3 (2006)


integrados a quienes van por libre y no están en la onda. En el mundo de las ideas, favorecido por el sistema democrático de mayorías, también se tiende a la uniformidad, pues las opciones discordantes o minoritarias, al tiempo que son rechazadas socialmente, acaban por perder fuerza y poder de decisión y actuación. De este modo se extienden los medios de masas que, lejos de alentar la pluralidad, tienden a adoctrinar a los lectores, oyentes, televidentes, internautas,... Pues bien, a diferencia del conjunto de individuos del rebaño, Neo no se conforma con esta realidad, sabe que debe haber algo más, algo no funciona en su mundo, necesita encontrar, buscar,... Al tiempo que busca, Neo transgrede, no solo las leyes y normas establecidas al dedicarse fuera de las horas de trabajo al pirateo informático, sino con la imagen de lo que debería ser un ciudadano corriente. Neo es un individuo solitario que, incluso cuando decide salir a una discoteca, se aísla de los demás, inmerso en una búsqueda sin sentido. Es precisamente este afán de búsqueda de la verdad la que le convierte en candidato perfecto para llegar a ser El elegido. Sólo a quien la busca o a determinados individuos con potencial se le ha de revelar «la naturaleza de la Verdad», a la cual se ha de llegar a través de no pocos sacrificios y renuncias. Decisiones cruciales en la vida de quienes se adentran en la búsqueda de una verdad que, cuanto más cerca se encuentra, más miedo parece dar y más difícil parece de asumir. La única promesa que, a modo de regalo, ofrece el alcanzar la verdad es la libertad. El conocimiento te hace libre, aún cuando la realidad que se muestre ante tus ojos sea difícil, triste o injusta, pues ser consciente de esta realidad te permite optar entre luchar contra ella o rendirte al conformismo de asumirla como una parte más de la vida misma. El problema fundamental de la decisión de afrontar la culminación de la búsqueda de la verdad es que, una vez se alcanza el conocimiento, uno no puede hacer como si no hubiera pasado nada. Hay un antes y un después, del cual se hace imposible escapar y, claro está, la gran duda es si quedarse con lo malo conocido o con lo desconocido a secas sin vuelta a atrás. Este es, a mi modo de ver, uno de los símiles más directamente relacionados con la denuncia política y/o moralista que los hermanos Wachowski se atreven a presentar en el conjunto de la película. De este modo, en la sociedad actual se proyectan multitud de problemas de carácter global y local a los que se nos llama a hacer frente desde la implicación personal y a los que, en su mayoría, hacemos caso omiso, bien por temor a adentrarnos en una realidad demasiado dura, o por simple comodidad momentánea, renunciando en multitud de ocasiones al conocimiento de la verdad o incluso huyendo del mismo. Preferimos no saber a asumir la dureza de la realidad que a todos nos llama, en mayor o menor medida. De este modo, optamos por la información irrelevante, los programas de entretenimiento, la comidilla rosa o cualquier otra cosa que nos sumerja en un mundo irreal, que nos mantenga inmersos en la serena inconsciencia. Muchos preferimos, como Cifra, permanecer en el desconocimiento de la existencia de Matrix enganchados a él, en vez de afrontar una verdad hiriente y que nos exige una implicación personal, algún sacrificio y, sobre todo, una vida menos cómoda. DESCUBRE LO INCREÍBLE A lo largo de toda la cinta aparecen multitud de ocasiones en la que los personajes han de tomar decisiones cruciales para el destino, no sólo de ellos mismos, sino de los que les rodean, con la sola premisa del desconocimiento de las consecuencias de dichos actos. En este aspecto se nos presentan diversas personalidades que afrontan sus dilemas de manera diferente. Así tenemos a Morfeo («dios de los sueños»), el mentor de Neo, que basa sus decisiones en la fe absoluta que profesa hacia éste y a su creencia en la profecía del elegido. Del mismo modo confía el peso de sus decisiones, al menos en parte, a la figura del Oráculo, con lo que definitivamente podemos asegurar que Isagogé, 3 (2006)

79


asume como factible la predeterminación del futuro. Esta posición coloca a Morfeo en una situación de riesgo, al no limitar sus acciones por el filtro de la prudencia razonada, pero al tiempo le sitúa como elemento clave, sin el cual el desenlace sería nefasto. De este modo, cuando tanto él como Neo huyen por la pared maestra del acoso de los agentes, la decisión de atacar para dar tiempo a los demás de escapar se convierte prácticamente en un acto suicida, que no tendría lugar de no ser por el convencimiento íntimo de servir a un fin último en el que Neo no puede morir. Podemos decir, por tanto, que Morfeo representa la Fe como elemento motor de voluntades y decisiva en el conjunto de la trama. En varios momentos, cuando todo parece no concordar con lo esperado según el pronóstico del dogma, Morfeo se niega a asumir la evidencia, no puede aceptar que todo aquello que sustenta sus decisiones, sus esperanzas, el motivo de su lucha e incluso de su propia existencia sea una patraña, un engaño, un espejismo maquinado como una forma más de control. Más tarde, es al incrédulo Neo, rechazado por el Oráculo como elegido, al que se le presenta la oportunidad de decidir en favor de Morfeo, capturado y torturado por los agentes. Se trata de una decisión rápida (pues no hay mucho tiempo antes de que sea demasiado tarde), no exenta de dificultades, más aún proviniendo de alguien que fracasó en sus pruebas anteriores como la del salto de edificios. La diferencia con Morfeo es que, cuando Neo toma la decisión de acudir en su ayuda, no lo hace desde la creencia en el fin último de la culminación de la profecía, sino en el convencimiento de cumplir con su deber, creyendo en las capacidades aprendidas poco a poco a lo largo de su entrenamiento y, sobre todo, confiando en su potencial a pesar de saber que, según el Oráculo, no es el elegido. A Neo le mueve la confianza en sí mismo, aunque en su evolución encontramos los altibajos propios de todo aprendiz. Él es el eterno aprendiz y los fracasos y los éxitos, aspectos que no le son ajenos, son superados por la insaciabilidad en la adquisición de conocimientos, lo cual le hace especial frente al resto y en un momento dado le dota de la autoestima necesaria para intentar lo imposible, lo nunca intentado hasta el momento: adentrarse en Matrix solo, en misión de rescate. Neo representa en este aspecto la confianza en uno mismo, el arrojo, el coraje y la voluntad de superación a través del conocimiento. Neo asume la realidad que le ha tocado vivir y su papel dentro de la misma. Entiende cuál es su deber, más allá de lo que los demás esperan de él y lo afronta con la esperanza alimentada por el reconocimiento propio de su valía y la confianza en sí mismo. Se trata de una versión del Superhombre nietzscheano, que asume su capacidad y la usa, desde una posición de valoración de la importancia de la dignidad y del deber moral. Pero claro, en la lucha contra el coloso la voluntad puede no ser suficiente. Neo se crece ante la adversidad y se confirma en cada ataque, en cada éxito, su confianza crece y su audacia con ella. Pero con el exceso de confianza llegan los fracasos, los golpes a encajar, el desaliento e incluso el desfallecimiento. En el fragor de la lucha Neo llega a asumir que el enemigo es superior a él y acaba por decidir, como el resto, que debe huir. La misión está cumplida, Morfeo y Trinity están liberados y a salvo, es hora de volver, de mirar por su ombligo, de salvarse a sí mismo. La lucha le cansa, le supera por momentos y es hora de escapar por un instante de esa irrealidad que, a diferencia del resto de los aborregados humanos, a él le es profundamente hostil. Son los órganos e instrumentos de control de Matrix los que le acosan y pretenden destruirle, no ya por el 80

Isagogé, 3 (2006)


peligro que él como individuo pueda implicar para el sistema, sino por el ejemplo que puede suponer para el resto. Es en este momento cuando más débil y vulnerable se muestra, sus cinco sentidos se dedican a la búsqueda de una salida y le dan la espalda a los problemas que le disparan y le persiguen allá donde vaya. Incluso cuando parece que la salida, que el fin de los problemas está más cerca, cuando menos lo espera, estos problemas reaparecen sorprendiéndole y golpeándole con más violencia si cabe, hasta el punto de acabar con él. La clave y moraleja del suceso, de la muerte temporal de Neo, se encuentra en que, si decidimos huir de los problemas en lugar de hacerles frente, irremediablemente bajamos la guardia, por lo que el problema, o los problemas sociales, que son de origen estructural, acaban por resucitar y resucitar sin fin (siguiendo el símil), encontrándonos allá donde hayamos decidido huir. Aquí entra a formar parte del juego el otro gran motor a tener en cuenta en la toma de decisiones. La impulsividad, los instintos, las emociones. El amor, encarnado en la figura de Trinity, lleva a nuestra heroína a grandes contradicciones morales cuando se ve en la tesitura de tener que tomar decisiones vitales como responsable de la Nebuchadnezzar en ausencia de Morfeo y querer seguir a Neo en su misión de rescate suicida, empujada por el amor incipiente que profesa a este último. Son los sentimientos los que sirven de guía a Trinity y, por ese motivo, el Oráculo le confiesa que aquél a quien ella amase sería el elegido. La forma que tiene Trinity de interpretar los acontecimientos es emocional e impulsiva, aunque intente aparentar lo contrario escondida tras esa fachada de mujer fatal, fría y calculadora. Tras ser capturado Morfeo y salir de Matrix, escapando de la emboscada de Cifra, Neo le confiesa a Trinity que, según el Oráculo, él no es el elegido, con lo cual se le plantea un dilema: debe elegir entre hacer caso a sus sentimientos siguiendo a Neo en su misión suicida o renunciar a intentarlo en virtud de la sensatez y el deber como responsable de la nave. La decisión vuelve a contraponer el deber y la sensatez frente a la esperanza, pero para Trinity esto no supone una reflexión sesuda y meditada, sino optar clara y meridianamente por seguir los impulsos y los mandatos del corazón. En esta línea argumental, este tercer pilar, el Amor, los sentimientos, la impulsividad, aporta un elemento crucial en la visión del ser humano en la que un cierto sentido de la trascendencia, la búsqueda de la Verdad y los sentimientos conforman una trinidad que necesita confluir para lograr la consecución de lo imposible, alcanzar la utopía. Cuando Neo cae mortalmente herido por el implacable golpe del sistema, encarnado en la figura del agente Smith, es el Amor quien viene en su rescate. El Amor que nuevamente logra lo imposible, redescubrir que la realidad no es como parece y que se puede seguir luchando aún cuando parecía que todo estaba perdido. El amor que se erige como fuente de esperanza, salvador último e ingrediente final que convierte al hombre, instruido y seguro de sí mismo, en un Superhombre tranquilo y capaz de enfrentarse a las adversidades de una forma diferente, mucho más decisivamente y mucho más seguro que antes, sin necesidad de expresar odio en su actuación. En definitiva, más allá de las ideas filosóficas que continuamente destila la película a lo largo de toda la saga, de la crítica social y la visión moralista que se puede sacar de Matrix, queda más que patente, para todo aquel que decida tomar la pastilla roja, lo que supone adentrarse en las ideas y postulados que ofrecen los hermanos Wachowski bajo el lema de «Creerás lo increíble» y que yo cambiaría por «Asumirás que la utopía es posible». Sólo hay que transformarse, seguir al conejo blanco, adentrarse en su madriguera y abrir los ojos al mundo real. Isagogé, 3 (2006)

81


EFEMÉRIDES MUSICAL

SHOSTAKOVICH, EL HIJO DE LA REVOLUCIÓN Beatriz González De todos es sabido que este año se celebra el 250 aniversario del nacimiento de Mozart, genio de la música donde los haya (véase el apartado que le dedicamos en el número anterior de Isagogé) Sin embargo, resulta sorprendente que, siendo el centenario de otro de los grandes compositores, Shostakovich, apenas se le nombre en su efeméride. Es por ello que, mediante el presente artículo, trataremos de hacer una breve semblanza del personaje y su obra, nos adentraremos en su universo creativo y, así, intentaremos dar a conocer al gran público una visión general sobre la trayectoria de uno de los grandes genios musicales del siglo XX. Shostakovich fue un músico esencial en la vida artística oficial de la Unión Soviética. Prueba de ello es haber recibido varias veces el Premio Stalin, así como el cargo de secretario de la Unión de Compositores y otros títulos. Pero, a su vez, también fue un músico vetado, como en el caso de Prokofiev y otros en 1948, a causa de su formalismo y, por ello, obligado a silenciar parte de su creatividad hasta la muerte de Stalin. Dmitri Dmitrievich Shostakovich nació en San Petersburgo el 25 de Octubre de 1906. Hijo de un químico e ingeniero y de una pianista, comienza sus estudios musicales en 1915, resultando ser un niño prodigio. Uno de los más célebres maestros de San Petersburgo, Ignaz Glasser, se hizo cargo de su formación, aunque por poco tiempo, ya que la creatividad del pupilo no era tolerada por Glasser. Posteriormente, Dmitri comenzó a dar clases con Rozanova, maestra de su madre, con la que permaneció cuatro años. Desde una temprana edad, Shostakovich demostró un ardiente compromiso político en una época de grandes trasformaciones. Se encuadran aquellos años de su niñez en el marco internacional de la Primera Guerra Mundial y el malestar interno de la Rusia zarista (que desembocó en la marcha de los trabajadores por la Perspectiva Nevski) y los rumores acerca del retorno a Rusia de Lenin, quien, a su llegada a la estación de San Petersburgo, el 17 de abril de 1917, encontró una manifestación de apoyo de miles de personas, entre las que se encontraba el joven Dmitri. Shostakovich se sintió hijo de la Revolución, por lo que, con apenas 13 años, compuso obras como El Soldado, El Himno de la Libertad o La Marcha fúnebre en memoria de las víctimas de la Revolución de Octubre. A finales de 1919, Alexander Glazunov, director del conservatorio de Petrogrado, en el que Shostakovich acababa de ingresar como alumno de composición, diría de éste: «El conservatorio se honra en aceptar a un estudiante, cuyo talento está a nivel de un Mozart». Su capacidad auditiva era absoluta, poseía un magnífico oído interno y era capaz de conocer el más mínimo detalle de una partitura con un simple vistazo. Interpretaba obras orquestales al piano, reduciéndolas simultáneamente, tocaba cualquier pieza pianística a primera vista y no paraba de componer. En 1922 fallece su padre y, al año siguiente, tras superar una tuberculosis broncolinfática, Shostakovich fue contratado como pianista en una sala de cine. Su vinculación con el séptimo arte es uno de los episodios fundamentales en la floreciente vida artística de la nueva república socialista, ya que las salas de cinematógrafo proliferaban en las grandes capitales y una generación de intelectuales, convertidos en cineastas, estaba creando las leyes del nuevo medio. Al igual que su colega Prokofiev, a partir de los años treinta Shostakovich compondrá música para diversas películas, desde Nueva Babilonia en 1929 hasta El Rey Lear en 1969 (dirigidas por Grigori Kozintsev), pasando por El Contraproyecto de Yutkevich y la animación El cuento del ratoncito tonto. 82

Isagogé, 3 (2006)


En la década de los veinte, Rusia proyectó hacia el resto de Europa una corriente artística innovadora y se comenzaron a recibir influencias de las tendencias más avanzadas procedentes de Italia, Francia, y, sobre todo, Alemania. Sobresalieron en diversas exposiciones y revistas la pintura y literatura futuristas y el teatro de Meyerhold fue uno de los más emblemáticos de la estética en la escena soviética. La música de vanguardia se transmitía a través de canales como la «Asociación de músicos contemporáneos», que organizaba encuentros con interpretaciones de Alban Berg y Hindemith, del grupo de «los Seis» francés, de Stravinsky y Prokofiev (que se encontraban exiliados) y de Scriabin, profeta musical del momento. En 1925 aparecieron las obras de dos nuevos nombres en la creación artística (cinematográfica el uno y musical el otro), destinados a convertirse en los estandartes de la máxima brillantez cultural en la recién nacida Unión Soviética: Serguei M. Eisenstein realizó su famosa película El acorazado Potemkin y Shostakovich concluyó sus estudios componiendo su primera sinfonía. Su estreno el año siguiente en Europa y América corroboró el descubrimiento de un nuevo talento y, lo que fue más decisivo, del primer gran autor formado íntegramente bajo y por la Revolución. Tras componer en 1928 su segunda sinfonía (titulada Octubre) y ahondar en los universos sonoros de Wagner, Bruckner y Mahler, Shostakovich se trasladó a Moscú como supervisor musical, a las órdenes de Meyerhold. Allí conoció a Eisenstein y realizó la mayor parte de su insólita y satírica ópera La nariz, cuyo libreto se basó en un cuento de Gogol. No obstante, sus malas relaciones con Meyerhold le hicieron regresar a Leningrado. Comienzan aquí unos años de intensa producción, con ballets, óperas y su tercera sinfonía, Primero de Mayo. El compositor buscó su propio lenguaje musical y, para forjarlo, se sirvió de múltiples y variados recursos: el maquinismo, las onomatopeyas, el atonalismo libre, el serialismo, las disonancias, elementos paródicos, los ritmos populares folclóricos y de moda, etcétera. Entre estos últimos podemos destacar el jazz, cultivado por algunos artistas soviéticos con quienes trabó amistad y cuya influencia es perceptible en la popular pieza Tahiti Trot, compuesta en aquel año, y sus dos Suites de Jazz, de 1934 y 38. Mientras tanto, los tiempos habían ido cambiando y, tras la muerte de Lenin en 1924, se había retornado a los principios económicos puramente comunistas bajo el mandato de Stalin, quien cerró de nuevo las puertas a las influencias externas y, hacia 1929, consiguió afianzarse en la cima del poder soviético. En 1932, Shostakovich termina la ópera Lady Macbeth del distrito de Mtsensk, dedicada a su esposa, que se estrenará simultáneamente en Leningrado y Moscú en 1934, con un éxito tan arrollador que la hizo permanecer en cartel dos años. Pero cuando Stalin acudió a una representación, salió disgustado y calificó la obra de «pornográfica». Se especulaba que aquellas críticas del líder comunista fueron reproducidas (o escritas directamente por aquél) poco después en el editorial del diario Pravda titulado Caos en lugar de música, publicado el 28 de enero de 1936. Shostakovich fue culpado de «pretender hacerse el moderno» y Lady Macbeth pasó, en pocos días, de ser el éxito del momento a resultar algo peligroso y reprobable. Ello produjo diversos debates en la Unión de Compositores pero, aún así, el resultado final fue la retirada de la ópera. Shostakovich se vio sumido en una profunda amargura y temió estrenar su cuarta sinfonía, que fue retirada de los ensayos por aquel entonces y no fue publicada hasta 1962. No obstante, en noviembre de 1937 presentó su quinta sinfonía, subtitulada «Respuestas de un artista soviético a unas críticas justas». Fue el primer intento del autor de adaptar su música a lo que de él se esperaba y cosechó un gran éxito. Su vida comenzó a normalizarse: conoció a los miembros del Cuarteto Beethoven, que estrenaron su primera obra en esta modalidad, y el quinteto con piano, que él mismo Isagogé, 3 (2006)

83


acompañó y por el que ganó el Premio Stalin. También en 1937 fue nombrado profesor de composición del Conservatorio de Leningrado. La Segunda Guerra Mundial supuso un acontecimiento de enorme trascendencia para el autor y su país. Tras invadir los países de la Europa central y del este limítrofes con la Unión Soviética, el 22 de junio de 1941 las divisiones hitlerianas atravesaron la frontera y comenzó la campaña en el frente ruso, posteriormente conocida por los soviéticos como la «Gran Guerra Patriótica», nombre que refleja el exaltado sentimiento nacional que el estado trató de insuflar a sus habitantes y que recibió una respuesta entusiasta y masiva de alistamientos voluntarios. En el mes de julio comenzó la evacuación de Leningrado, pero Shostakovich se negó a partir, tratando además de hacerse miembro de la defensa civil, petición que fue rechazada por motivos de salud, siendo finalmente aceptado como bombero en las fuerzas de sanidad. Concluyó por esa época el segundo movimiento de la Sinfonía Leningrado. Pero en octubre, por orden del Centro de Defensa, fue evacuado por vía aérea y enviado a Kuibishev junto a su familia y los manuscritos de Lady Macbeth y su mencionada séptima sinfonía, que concluyó en aquella nueva residencia y fue estrenada en 1942. La obra, transmitida por la Radio Soviética a toda Rusia, Gran Bretaña y Estados Unidos, se convirtió en un himno de la Rusia invadida y directores de todo el mundo (como en el caso de Toscanini), se disputaron dirigirla. Entre tanto, los horrores de la guerra hacían estragos en todo el mundo y entre los allegados al autor (diversos amigos suyos murieron o desaparecieron en el frente de batalla) Es la época de su magistral octava sinfonía y de proyectos inacabados, como la ópera basada en Los jugadores de Gogol. En 1945, mientras las tropas rusas avanzaban sobre territorio alemán, Shostakovich trabaja en su novena sinfonía, en la cual pensó, en un principio, incluir pretenciosamente una coral, tratando de emular la grandiosidad de la novena de Beethoven; pero, finalmente, constituyó una página burlesca de gran brevedad y motivos circenses. Su música volvió a ser atacada en marzo de 1948 por el «decreto Zhdánov», que afectó también a otros compositores y que lanzaba acusaciones de «formalismo», como en el anterior caso de Lady Macbeth, llegándose al punto de prohibir el estreno de sus obras orquestales, así como las interpretaciones de sus sinfonías números 8 y 9, con el pretexto de ser música «antidemocrática, extraña al pueblo soviético y a sus gustos artísticos». Shostakovich trató de disculparse con obras como El canto de los bosques, entre otras, aunque siguió componiendo para sí trabajos tan personales como el primer concierto de violín. Por otro lado, en los años siguientes, el maestro ruso realizó viajes a diversas ciudades de Estados Unidos, Varsovia o Leipzig y, entre 1950-1, compuso sus 24 preludios y fugas para piano, una de las obras más brillantes en la historia de la música para teclado, que nació como tributo a El clave bien temperado de Bach. Un papel simbólico de gran envergadura tuvo el estreno de su décima sinfonía en 1953, con motivo de la muerte de Stalin, que se convirtió en el emblema del período conocido como «el deshielo». Por otra parte, tras varias pérdidas familiares (destacando la de su primera esposa en 1954), el compositor decidió abandonar su carrera de concertista de piano en 1956 y, un año después, compuso su undécima sinfonía, titulada El año 1905. En 1958 fue nombrado doctor honoris causa por la universidad de Oxford y recibió numerosos galardones. A partir de aquí comienza una etapa de gran producción musical, en parte compuesta en Estados Unidos y Europa, de la que cabe destacar el concierto de violonchelo y varios cuartetos de cuerda. A su regreso, conmovido por la situación de Rusia, fue nombrado primer secretario de la Unión de Compositores y admitido en el Partido Comunista, según algunos autores por compromiso político sincero y para otros fue por cobardía o presiones que le forzarían a ello. Sobre este tema hay opiniones encontradas y divergentes y en la polémica ha jugado un papel fundamental la aceptación o rechazo del 84

Isagogé, 3 (2006)


libro Testimonio, publicado por Solomon Volkov en 1979 y basado en las conversaciones del autor con el músico. A partir de 1960 Shostakovich padeció una enfermedad del sistema nervioso central, que le condujo a la muerte quince años después, no sin antes realizar varios proyectos, como el reestreno de su Lady Macbeth con el nuevo título de Katerina Ismailova, en una versión suavizada. También compuso la decimotercera sinfonía, BabiYar, que rememora la matanza de los judíos junto a Kiev y que, obviamente, creó una gran polémica entre el círculo musical y político. No obstante, tras algunas modificaciones, fue estrenada en 1965. A finales de mayo de este último año sufrió un infarto y la lenta recuperación le llevo a una depresión, en la que predominaron las ideas de muerte y extinción. Inmerso en esta atmósfera pesimista, compuso la decimocuarta sinfonía, dedicada a Britten (basada en diversos poemas cuya idea central es la muerte) y sus cinco últimos cuartetos. Pero aún fueron éstos unos años prolíficos en la vida del compositor, durante los cuales escribió el segundo concierto de violonchelo, el segundo concierto de violín y, ya en 1971, su decimoquinta y última sinfonía. Poco después de terminarla sufrió un segundo infarto, que también superó. En 1973 viajó a Copenhague para supervisar una producción de su Katerina Ismailova y, posteriormente, a Estados Unidos, para ser tratado de su enfermedad. Sabiendo que nada se podía hacer, volvió a Moscú. En 1974 compuso su decimoquinto cuarteto. Poco después recibió la visita de su amigo, el violonchelista Rostropovich, quien le anunció que abandonaba Rusia. Sabiendo que no volverían a verse, Shostakovich le pidió que alguna vez interpretara Lady Macbeth tal como él la concibió (deseo que aquél llevó a cabo en 1978) Esta separación, junto con el fallecimiento de sus amigos más próximos, hicieron que Shostakovich se quedara solo. Sus últimas composiciones fueron su Suite sobre poemas de Miguel Ángel, los Poemas del Capitán Lebiadkin y su sonata para viola, en la cual siguió trabajando incluso en el hospital, pocos días antes de su muerte, acontecida el 9 de agosto de 1975. Esta introducción a la vida y obra de Shostakovich, no pretende sino crear en el lector el deseo de ahondar en su música. Para ello, nos permitimos realizar tres sugerencias, imprescindibles en la memoria auditiva y el corazón de todo melómano:

En primer lugar, la Quinta Sinfonía, estandarte de su producción sinfónica, cargada de gran dramatismo y simbología. Esencial para comprender su carácter.

Resulta también muy destacable el Segundo Concierto para Piano, especialmente por su segundo movimiento, sencillamente mágico.

Por último, su Lady Macbeth, porque es la obra que le acompañó toda su vida, la que vivió su evolución personal y artística, y la que defendió a pesar de todo.

Por nuestra parte, aquí concluye esta reseña sobre uno de los mejores compositores de la Historia de la Música, no sólo por su genialidad, sino por su capacidad creativa, su personal e inconfundible lenguaje en todas sus obras y, en suma, por su magnífica aportación al Arte. Ya sólo nos queda disfrutarlo. BIBLIOGRAFÍA SOBRE EL AUTOR FEUCHTNER, B. (2004): Dimitri Shostakóvich, y el arte amordazado por la autoridad: identidad artística y represión política, Turner. JACKSON, G. (1993-4): «Política y música en la vida de Dmitry Shostakóvich» y «El significado de las sinfonías de Shostakóvich», Claves de Razón Práctica, 34, pp. 73-77 y 48, pp. 73-78. MEYER, K. (1997): Shostakovich: Su vida, su obra, su época, Alianza Editorial. PÉREZ DE ARTEAGA, J. L. (1983): Los grandes compositores (Tomo 5), Salvat.

Isagogé, 3 (2006)

85


¿QUÉ ES EL INSTITUTO OURÓBOROS DE ESTUDIOS CIENTÍFICO-HUMANÍSTICOS?

El Instituto Ouróboros es una asociación sin ánimo de lucro nacida de la inquietud de un grupo de amigos y tiene vocación abierta para todas aquellas personas que compartan dicho interés. La principal finalidad del Instituto Ouróboros es la defensa de la «cultura del conocimiento» como opción frente a los valores que imperan en la sociedad actual y que no solo favorecen la desaparición de la capacidad crítica, que tanto interesa a muchos poderes económicos y políticos del planeta, sino que deshumanizan al ser humano ⎯valga la redundancia⎯ en su empeño por convertirlo en máquina especialista, que domina su campo de acción pero que luego sale al mundo y es abrumado por la creciente complejidad de éste. Se trata de retomar en los principios del siglo XXI el antiguo concepto de hombre renacentista que, lejos de parecer una máquina que se especializa en un aspecto muy concreto del conocimiento, se siente libre y capaz, como sólo el ser humano puede, de abarcar todas las ramas del conocimiento. Ahora bien, si no con el dominio en la materia del especialista, sí con la capacidad, gracias a este empeño, de enfrentarse al mundo sin el miedo y la desconfianza que inunda en nuestros días a la gran mayoría de los miembros de la sociedad. En definitiva, pretendemos alentar un cambio en la mentalidad del hombre para que, gracias al conocimiento, amplíe sus fronteras y pierda el miedo a reivindicar sus derechos, defender sus libertades y desarrollarse como persona. Para ello el Instituto Ouróboros ha de tener como fin la promoción de la cultura en todas sus vertientes, la facilitación del acceso al conocimiento científico y humanístico entre las personas, el fomento de la cultura oral como principal medio de transmisión de conocimientos y experiencias entre los individuos, sin olvidar el medio escrito que perpetúa los conocimientos en el seno de la sociedad; promocionar la implantación de una actitud crítica y científica; y por último, el intento de alejar al conocimiento de la visión tradicionalmente elitista. Además, no se debe entender, que esta organización tenga tintes políticos orientados en sentido alguno, porque ni se pretende, ni mucho menos es esa nuestra intención, sino todo lo contrario. Como decimos, uno de los objetivos debe ser alejar el viejo concepto de que el interés por el conocimiento de las ideas, postulados o propuestas —tanto filosóficos como de otro tipo, procedentes de cualquier orientación, pueda ser política o religiosa o similar—, implique un acercamiento o pertenencia alguna a dicha tendencia. Por tanto no es un grupo de derechas ni de izquierdas —ni de centro—, tan solo se trata de un asociación sin ánimo de lucro que asume los valores y objetivos anteriormente expresados, lo cual le lleva forzosamente a un compromiso de tipo social tanto en el entorno de la ciudad de Córdoba como en ámbitos superiores de la sociedad.

86

Isagogé, 3 (2006)


MEMORIA DE ACTIVIDADES 2006

Seminario: «Sexo y cerebro: paralelismo histórico y evolutivo». Casa del Ciudadano (Lepanto), miércoles 4 de enero, 10:30 horas. Charla-Coloquio: «Breve reseña histórica sobre la teoría de la medida». Sábado 7 de enero, 17 h. Mes Temático (Febrero): «Jornadas de la Risa». En colaboración con el Centro Cívico de Levante (Carlos III), Casa del Ciudadano y diversas asociaciones del distrito. Actividades: «Anticonferencia: ¿De qué nos reímos?» (miércoles 1, 19:30 h.) Talleres de la Risa (martes 7, 14, 21 y miércoles 22) Mesa Redonda «Los doctores de la risa» (miércoles 15, 19:30 h.) Ciclo de Cine-Forum: El Gran Dictador, Una noche en la Ópera, Bienvenido Mr. Marshall y La vida de Brian (jueves 2, 9, 16 y 23, 19 h.) Teatro (viernes 19 y 24, 19:30 h.) Curso-Taller: «Curso de escultura y modelado en barro», Centro Cívico de Levante, de lunes 3 a miércoles 26 de abril, horario de tarde. Cine-Forum: Bowling for Columbine. Casa de la Juventud, sábado 25 de marzo, 17 h. Conferencia: «Espectrometría de masas con aceleradores: AMS y sus aplicaciones». Casa del Ciudadano (Lepanto): martes 11 de abril, 17 h. Conferencia: «Declive de anfibios, ecología y futuro de la biodiversidad». Casa de la Juventud, sábado 29 de abril, 17 h. Cine-Forum «Mozart, 250 aniversario de un genio»: Amadeus. Casa de la Juventud, sábado 10 de junio, 17 h. Visita: asistencia al concierto del grupo Axabeba, IV Festival Internacional de Música Sefardí. Jardín Botánico de Córdoba, sábado 24 de junio, 22:30 h. Segunda velada literaria nocturna Ouróboros. Lagar de la Cruz (Sierra de Córdoba), sábado 8 de julio, 22 h. Perol nocturno Ouróboros. El Arenal, sábado 2 de agosto, 22 h. Conoce tu ciudad-Gymkhana: «Los personajes de Córdoba (Córdoba Enigmática Apócrifa)». Sábado 19 de agosto, 22 h. Cine-Forum, «Celos y Ensoñaciones»: Eyes Wide Shut. Casa de la Juventud, sábado 16 de septiembre, 17 h. Charla-Coloquio: «Demostración Lógico-matemática de la no-existencia de Dios». Casa de la Juventud, sábado 7 de octubre, 17 h. Charla-Coloquio: «Realismo, conocimiento y más allá». Casa de la Juventud sábado 30 de septiembre, 17 h. Ciclo de Cine-Forum: «La Literatura en el Cine»: El Nombre de la Rosa, La Novena Puerta, La Carta Final y Fahrenheit 451. Casa de la Juventud, sábados 11, 18, 25 de noviembre y 2 de diciembre, 17 h. Presentación: «Science’s Top Ten 2006». Casa del Ciudadano (Lepanto), jueves 28 de diciembre, 10:30 h. Seminario de Navidad: «Loop Quantum Gravity». Casa del Ciudadano (Lepanto), jueves 28 de diciembre, 11:15 h.

Isagogé, 3 (2006)

87


CÓMO HACERSE SOCIO Ser socio del Instituto Ouróboros de estudios Científico-Humanísticos, es ciertamente sencillo. Solo tiene que rellenar esta solicitud que puede fotocopiar, y enviarla al Centro Cívico Municipal de Levante situado en la Avda. Carlos III Nº 53 bis 14014, Córdoba, o remitir un correo electrónico a <instituto_ouroboros@hotmail.com>, con los datos requeridos en la solicitud incluida unas líneas más abajo. Una vez recibamos su solicitud, nos pondremos en contacto con usted, para terminar de tramitarla. Ser socio del Instituto Ouróboros es contribuir con los fines que este persigue, sólo por 8 € al año. Anímese y entre a formar parte de una asociación joven y con proyección de futuro y participe en un proyecto que tiene a la cultura y a las personas como primer objetivo.

Solicitud de Admisión INSTITUTO "OURÓBOROS" DE ESTUDIOS CIENTÍFICO-HUMANÍSTICOS Apellidos: Nombre: D.N.I.

Dirección: Localidad:

Provincia:

Teléfono: Fecha de Nacimiento:

C.P.: e-mail:

Estudios:

Intereses: (solo a efectos estadísticos)

Ocupación: Firma:

Sí, deseo ser socio del Instituto Ouróboros de estudios CientíficoHumanísticos. Con este motivo, les remito mis datos personales para que puedan ponerse en contacto conmigo para terminar de tramitar mi solicitud. Firma: (Imprescindible)

88

Isagogé, 3 (2006)



Web: http://institutoouroboros.atspace.com http://isagoge.atspace.com E-mail: instituto_ouroboros@hotmail.com

Colabora:

Delegaciรณn de Participaciรณn Ciudadana

La Delegaciรณn de Participaciรณn Ciudadana del Ayuntamiento de Cรณrdoba no se hace responsable de lo que en esta revista anual se publique o comente


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.