ISSN 1692-729X > N o. 08 > DICIEMBRE DE 2006 > UNIVERSIDAD DE LOS ANDES > FACULTAD DE CIENCIAS
Apuntes científicos uniandinos
> Pág. 10.
El quinto postulado de Euclides > Pág. 28. Diagnóstico
molecular delcáncer hereditario de tiroides > Pág. 38. El colesterol, una molécula con mala reputación
> Pág. 03. > Pág. 04. > Pág. 06. > Pág. 08. > Pág.
10.
Editorial Bio-notas Astro-notas Problemas y rompecabezas
El quinto postulado de Euclides El sistema axiomático-deductivo de Los elementos de Euclides se convirtió en el paradigma a seguir en un tratado científico. En el mundo helenístico y en el árabe, y luego en las universidades europeas del medioevo y posteriormente hasta el siglo XIX, se enseñaba Los elementos como el tratado lógico intachable y ejemplo de una verdad patente. Sin embargo, el quinto postulado fue controversial desde un principio. Hernando Echeverri Dávila
> Pág.
28.
Diagnóstico molecular del cáncer hereditario de tiroides La finalización del proyecto genoma humano ha sido uno de los grandes avances del siglo XX, ya que ha abierto la puerta al planteamiento y desarrollo de proyectos de investigación que permiten dar a conocer tanto la organización como la funcionalidad de los miles de componentes de nuestro material genético. Gracias al avance en la investigación del área genética y molecular se han podido caracterizar importantes enfermedades causadas por la mutación de un gen, así como por la modulación de otros genes. Alexandra Ortiz Rodríguez / Gonzalo Guevara Pardo
> Pág.
38.
El colesterol
Una molécula con mala reputación Es natural que el colesterol no sea visto con buenos ojos por la población en general, y se podría decir, sin miedo a equivocarse, que esta molécula se ha ganado una muy mala reputación. Sin embargo, en este artículo intentamos presentar el colesterol desde otra perspectiva, la de una molécula exquisitamente diseñada con una función fisiológica esencial: regular la organización y complejidad de las membranas celulares, fomentando la diversidad funcional de los diferentes sistemas celulares del organismo. Chad Leidy / Carola Hernández H.
> Pág. 54. > Pág. 56.
Facultad de Ciencias Graduandos de maestría y doctorado
Hipótesis
Apuntes científicos uniandinos No. 8, diciembre de 2006 / 4000 ejemplares ISSN 1692-729X ISSN ONLINE 1794-354X © Universidad de los Andes, 2005 Prohibida la reproducción total o parcial de esta obra sin la autorización escrita de los editores Director: Hernando Echeverri Dávila Profesor asociado, Departamento de Matemáticas Comité Editorial: José M. Rolando Roldán Decano, Facultad de Ciencias Profesor titular, Departamento de Física Carlos Jaramillo Profesor titular, Departamento de Ciencias Biológicas Director de Investigaciones y Posgrados Facultad de Ciencias Jaime Lesmes Profesor titular Departamento de Matemáticas Luis Quiroga Puello Profesor titular Departamento de Física Adolfo Amézquita Torres Profesor asociado Departamento de Ciencias Biológicas Edgar Vargas Profesor asociado Departamento de Química Diseño gráfico y desarrollo editorial Alfonso F. Castañeda Feletti Teléfonos: (571) 481 1847 / 232 8701 castafeletti@cable.net.co / castafeletti@artemucca.com Edición de textos y corrección de estilo: Pedro Lama Preprensa: CTP Contextos Gráficos Impresión: Contacto Gráfico Universidad De Los Andes Facultad de Ciencias Carrera 1ª. No.18A-10 / Apartado Aéreo 4976, Bogotá, D.C., Colombia Teléfonos: (571) 332 4533 - 3394949 - 339 4999, Ext.: 2700 hipotesis@uniandes.edu.co Ediciones Uniandes Carrera 1ª. No. 19-27, Edificio AU 6, Bogotá, D.C., Colombia Teléfonos: (571) 339 4949 - 339 4999, Ext. 2181, 2071, 2099 infeduni@uniandes.edu.co
Educando para el siglo XXI > Editorial
Aprovecho la discusión que se ha abierto en torno al tema de la educación en Colombia para presentar diversos puntos de vista propuestos desde la universidad y, en particular, desde una facultad de ciencias. Muchos profesores pensamos que nuestra educación primaria y secundaria ha empeorado en lugar de mejorar. Esto se debe en parte a que a la juventud de hoy le llueve una cantidad indescriptible de información sin priorizar, y en parte a que prefiere dedicarse a otras actividades menos aburridas. En últimas, nuestra educación no ha logrado ajustarse a los tiempos, y los estudiantes muchas veces sienten que es una colcha de retazos que no los motiva puesto que no se relaciona con su futuro. Para repensar la educación en nuestro país, sugiero que centremos la atención en las habilidades, criterios y actitudes que requerirá una persona en el siglo XXI, más que en los conocimientos o contenidos que rápidamente se vuelven obsoletos en un mundo cambiante. Las habilidades más importantes, sin duda, son las que conciernen al lenguaje: leer, escribir, hablar y escuchar. Primero porque el lenguaje es esencial para el raciocinio, y segundo porque es la base de la comunicación con los demás. En ambos casos, el énfasis está en la transmisión de significados: en la habilidad de comprender las ideas de otros para poder sopesarlas contra las propias y, de manera recíproca, poder hacerse comprender por los demás y convencerlos de nuestras opiniones. Este enfoque le resta protagonismo a la ortografía, a la que tanta preeminencia se le da en la actualidad, para otorgárselo acertadamente a la semántica, que, además de palabras, requiere de oraciones y de párrafos para su fundamento. Como las habilidades lingüísticas se aprenden con la práctica, los cursos de sociales, humanidades y ciencias deben ofrecer múltiples oportunidades para ejercitarlas. En primer lugar, se requieren libros de texto bien escritos, con un nivel de lectura apropiado para el estudiante, y en segundo término, profesores que le exijan su lectura al alumno, pidiéndole que resuma y discuta lo leído y que responda a preguntas que le demanden algún tipo de análisis. Se trata de entrenar al estudiante para comprender lo que lee, para apropiarse de ello y explicarlo a otros de una manera organizada, ya sea oralmente o por escrito. El objetivo se malogra si el profesor le dicta el resumen de la lectura o si le permite que lo copie de un libro o de internet. No sobra
decir que estas mismas habilidades se deben extender al inglés. La globalización lo exige, tanto en el comercio como en las ciencias. En cuanto a las matemáticas –que han sido el lenguaje de la ciencia desde antes de Galileo y de Newton–, su simbología ha evolucionado a una precisión que exige un cuidado especial con su sintaxis. Cualquier lapso en la escritura de una fórmula puede cambiarle por completo el significado o dejarla sin sentido. Sin embargo, por darle un viso comercial utilitarista en nuestra educación, hemos descuidado este aspecto lingüístico en la enseñanza de las matemáticas. Los estudiantes tampoco conocen el vínculo entre éstas y la lógica; el tema de la geometría que lo ilustraba se enseña muy poco hoy en día. Además, al esquivar cualquier dificultad, se le esconden al estudiante los retos de creatividad que brindan las matemáticas en la resolución de problemas. Para que Colombia pueda ser competitiva en ciencia y tecnología, debemos mirar hacia los países del Oriente que rescataron tanto la enseñanza de las matemáticas como la de las ciencias. Retaron a los estudiantes con la curiosidad por comprender el mundo, con la emoción del descubrir y con el gusto por descollar. Encontraron en estas disciplinas un entrenamiento metodológico para la resolución de problemas que repercutió en un mayor poder de invención. Respecto a la tecnología, hay que saberla aprovechar –conociendo sus limitaciones–, sin vulnerar el aprendizaje del estudiante. Por ejemplo, el uso indiscriminado de la calculadora podría perjudicarlo cuando está aprendiendo las tablas de la suma o de la multiplicación. Sin embargo, en instancias en que hay que trazar gráficas o hacer muchos cálculos rutinarios, ésta e incluso las hojas de cálculo y otros programas matemáticos pueden proporcionar un apoyo invaluable. Asimismo, un procesador de palabras con diccionarios ayuda a mejorar la redacción de un estudiante y el uso adecuado de internet le brinda muchísima información para enriquecer sus trabajos. Pero los cursos especiales para el manejo del computador no aportan mucho y tienden a aburrir a los alumnos mayores. Hay que dejar que los estudiantes se instruyan unos a otros y, si acaso son necesarias, las prácticas con el teclado del computador deben hacerse a edades muy tempranas. Lo importante es la disponibilidad de estos aparatos para que los estudiantes exploren y experimenten.
La formación de valores y actitudes es tal vez el aspecto más importante de la educación, y también lo más difícil de lograr. Demasiado a menudo, los profesores de colegio se encuentran en contravía con sus alumnos al tratar de entusiasmarlos por la ciencia, las artes y el conocimiento, o al intentar transmitirles un mínimo de disciplina de trabajo, conciencia ciudadana y honestidad. Éste es el gran reto, pues estos valores no se logran inculcar con cursos de cívica. Es más bien cuestión de una vivencia que debe orquestarse entre todos los agentes del colegio: administradores, profesores, alumnos y padres de familia. De manera concertada deben establecerse estrategias para ayudar a resolver los problemas crónicos de nuestra sociedad –como la violencia familiar, la deshonestidad y la discriminación social y racial–, para que las acciones de unos no desmeriten las buenas intenciones de otros. El colegio, entendido como comunidad, podría coordinar espacios de discusión y actuar de catalizador para un cambio social. Esta formación también puede apoyarse con una instrucción informal bien orientada. Para comenzar, es necesario incentivar la producción de literatura para jóvenes de todas las edades. Es encomiable lo que hicieron los libros de Harry Potter para formar valores y fomentar la lectura entre la juventud de los países anglosajones, prácticamente sin apoyo de los colegios. ¿No podríamos tener este tipo de publicaciones escritas por autores colombianos o hispanoparlantes? Hagamos un inventario de las obras existentes, según las franjas de edad de sus posibles lectores, y tratemos de enriquecer las franjas más exiguas. En ciencia y tecnología puede ser más difícil hacer lo mismo, pero no me parece desacertado transmitir por los canales nacionales los excelentes programas de ciencias desarrollados en otros países –así como los de artes, historia y geografía–. Sin duda serían más formativos que muchas de las telenovelas y realities que predominan en nuestra televisión. Obviamente, éste, como otros puntos aquí tratados, puede politizarse con argumentos nacionalistas o laboralistas, pero hay que tener clara la prioridad: la juventud, el futuro del país. > Quiero disculparme con los lectores y algunos de los contribuyentes de Hipótesis por el retraso en este número. Haremos lo posible para que esto no vuelva a suceder.
Hernando Echeverri Dávila Director Revista Hipótesis
Diciembre 2006 | Hipótesis | 3
> Bio/notas > Salamandras colombianas:
una vida sin pulmones Bolitoglossa biseriata (Valle del Cauca) Foto: Adolfo Amézquita
Jesús Eduardo Ortega / Estudiante de posgrado Departamento de Ciencias Biológicas Las salamandras pertenecen al orden Urodela o Caudata, de la clase de los anfibios. Son parientes más cercanos de las ranas que de las lagartijas, a pesar que la forma de su cuerpo nos recuerda a un pequeño lagarto. No obstante esta semejanza superficial, las salamandras se distinguen fácilmente por la ausencia de escamas en su cuerpo. Existen aproximadamente 352 especies en el mundo con cuerpos delgados, patas cortas y colas largas. Su hábitat está restringido a zonas húmedas o cercanas a cuerpos de agua. Unas especies son acuáticas durante toda su vida, algunas regresan a los cuerpos de agua en forma intermitente y otras son completamente terrestres en su edad adulta. La mayoría habita el hemisferio norte, salvo unas pocas especies que se encuentran en el norte de Sudamérica.
Extinción de anfibios: una crisis mundial
Catalina González Z. Estudiante de maestría. Departamento de Ciencias Biológicas
Agalychnis callidryas Foto: http://www.harunyahya.com/fr/verite_pour_les_ enfants/pictures/wallpaper1024/frog.jpg
La familia Plethodontidae es la única presente en Colombia. Sus características más llamativas son la carencia de pulmones y la forma de respirar a través de la piel y de la mucosa de la boca. La fecundación es interna: las hembras tienen una cavidad en la cual almacenan espermatozoides depositados por los machos. Las salamandras colombianas pertenecen a la tribu Bolitoglossini, depositan sus huevos en tierra y tienen desarrollo directo; es decir, del huevo nace una pequeña salamandra sin pasar por la fase de larva acuática. Las del género Bolitoglossa poseen membranas interdigitales y dedos cortos que les permiten adherirse a la vegetación. En las primeras etapas de su vida se alimentan de larvas de insectos, pequeños crustáceos y gusanos. Al llegar a la edad adulta incorporan en su dieta invertebrados de cuerpo blando, como artrópodos, lombrices, caracoles y babosas. No son animales venenosos como piensan algunos, aunque segregan una sustancia blanca y espesa, que al hacer contacto con los ojos produce irritación.
La actual disminución de las poblaciones y especies de anfibios ha generado una gran preocupación en todo el mundo, ya que casi un tercio de las 5.918 especies catalogadas se encuentran en peligro de extinción. Según la Global Amphibian Assessment, 165 especies ya están extintas y 456 se encuentran gravemente amenazadas. El mayor número de especies en peligro se halla en América Latina, y Colombia encabeza la lista con 208 especies, seguida por México con 198 y Ecuador con 163. Varios factores han sido asociados con las rápidas disminuciones en las poblaciones de estas especies, entre éstos se encuentran: 1) el deterioro y la pérdida del hábitat, 2) los cambios climáticos a escala global, 3) la polución, 4) la introducción de especies invasoras y 5) el tráfico ilegal de animales. Uno de los factores más recientes, que ha generado un gran impacto sobre numerosas poblaciones en el mundo entero, es la quitridiomicosis, enfermedad causada por un hongo conocido como Batrachochytrium dendrobatidis.
los 1.000 m sobre el nivel del mar y afecta a un gran número de especies. Hasta ahora no hay manera de controlar el avance del hongo, por lo que la implementación de planes de conservación ex situ se convierten en la única herramienta para proteger numerosas especies. El objetivo es mantener y reproducir poblaciones genéticamente viables en cautiverio, pensando en la posibilidad de reintroducirlas en un futuro en su medio natural, cuando se descubra la forma de protegerlas. Recientemente han surgido iniciativas muy importantes de conservación en diferentes partes del mundo, como el programa Amphibian Ark. Éste se encarga de liderar y coordinar proyectos ex situ de investigación y capacitación en zoológicos, acuarios, laboratorios y bioparques. Aunque esta medida de conservación es reciente, ya ha mostrado resultados importantes en algunas especies que se encuentran fuera de peligro en poblaciones ex situ, como la rana dorada de Panamá, Atelopus zeteki, que se ha reproducido exitosamente en varios zoológicos estadounidenses.
En 1998 se tuvo noticia por primera vez de este hongo, cuando se registraron eventos de mortalidad masiva en parques naturales, reservas y otras zonas aparentemente bien conservadas. Este patógeno ataca la queratina cutánea y afecta el proceso de osmorregulación y la respiración en el estado adulto, causando la muerte. En las larvas afecta de manera localizada las estructuras bucales y pocas veces es mortal. Se ha encontrado principalmente en elevaciones superiores a
Afrontar la crisis de la disminución de las poblaciones y especies de anfibios es uno de los mayores retos de conservación actuales. Por lo tanto, se espera el apoyo de investigadores, laboratorios, acuarios, zoológicos, centros de manejo de fauna, zoocriaderos, y de todas las entidades y personas que puedan ayudar a contrarrestar esta crisis que amenaza con acabar con los anfibios del mundo, uno de nuestros tesoros biológicos más preciados.
4 | Hipótesis | Apuntes científicos uniandinos | no. 8 | diciembre 2006
El pico más largo
Serpientes Gigantes
Juan Camilo Muñoz Camacho / Estudiante de Biología
Lina María Arenas / Estudiante de Biología Temidas por muchos y admiradas por muy pocos, las anacondas y los pitones se encuentran entre las serpientes más grandes del mundo. Al no tener veneno, su arma secreta es la constricción muscular, con la cual inmovilizan a sus presas hasta ahogarlas para después tragarlas enteras. La fuerza de constricción de estas serpientes es de unos 6.000 kg/cm2, comparable con la que ejercería un bus escolar sobre el pecho de un ser humano. Las serpientes constrictoras enrollan su cuerpo alrededor de su presa y aprietan más de cinco mil músculos para romper sus huesos e impedir la respiración y el latido del corazón. Empiezan a tragarla por la cabeza, evitando cortarse con cachos o pezuñas. Dos filas independientes de dientes curvados hacia atrás deslizan la presa hasta su sistema digestivo. A diferencia de otros animales vertebrados, no tienen articulaciones mandibulares. Esto les permite abrir su boca casi 180 grados para engullir presas que a veces son más grandes que la misma serpiente, como antílopes, vacas, venados y posiblemente humanos, aunque no hay registros oficiales de esto.
Colibrí pico de espada (Ensifera ensifera) Foto: Sid Dunkle http://www.ups.edu/x6260.xml
Los colibríes pertenecen a la familia Trochilidae, y se encuentran cercanamente emparentados con los vencejos. Se caracterizan por ser aves nectarívoras, con una tasa metabólica considerablemente elevada, y por poseer picos delgados con una increíble variabilidad morfológica asociada a las flores que visitan. Sus picos pueden ser cortos, largos e incluso curvos para adaptarse a las corolas de las flores y obtener el alimento de los nectarios. Por esta razón, son continuamente citados como ejemplos de coevolución en los sistemas de polinización, ya que se ha generado una dependencia planta-ave tan estrecha que incluso, en algunos casos, llega a ser específica para determinados grupos. Esto significa que las plantas probablemente no sobrevivirían sin los colibríes adecuados que las polinicen y los colibríes no encontrarían otras flores apropiadas para alimentarse usando sus picos modificados. Uno de los ejemplos más espectaculares de modificación del pico es el del colibrí pico de espada (Ensifera ensifera), que habita las regiones altas de los Andes de Colombia, Venezuela, Ecuador, Perú y Bolivia. Se caracteriza por ser el ave con el pico más largo, pues éste llega a superar el tamaño del resto de su cuerpo. No sorprende, entonces, que su lengua también sea extremadamente larga y que mientras descansa en las ramas mantenga el pico hacia arriba, evitando así la gran tensión de su peso sobre
los músculos del cuello. La extraña morfología de su pico le permite libar flores que tienen corolas extremadamente largas, como las de los borracheros (Brugmansia), los curubos (Pasiflora), las trompetas de ángel (Datura) y las fucsias (Fucsia), entre otras. Sin embargo, el colibrí pico de espada puede ser observado visitando flores con corolas más cortas, e incluso, cazando pequeños insectos. Esto refleja una asimetría en las relaciones de polinización: el colibrí no depende exclusivamente de las flores que tienen el mismo tamaño de su pico, pero las plantas probablemente sí dependen de esta ave; pues dadas sus corolas tan largas, es difícil imaginar que puedan ser polinizadas por otras especies.
Python reticulatus del sureste asiático, alcanza los 10 m de largo. Foto: Dennis Desmond. ©2000. http://stuff.mit.edu/afs/sipb/ project/iap/publicity/posters/python1.jpg
Borrachero (Brugmansia) Foto: Reiman Gardens. http://www.extension. iastate.edu/newsrel/reiman/brugmansia2.jpg
Diciembre 2006 | Hipótesis | 5
para el primer semestre de 2007 / Benjamín Oostra
Nebulosa de Orión. Foto: http://antwrp.gsfc.nasa.gov/apod/image/0202/orion_gendler_big.jpg
> Astro/notas
6 | Hipótesis | Apuntes científicos uniandinos | no. 8 | diciembre 2006
¡Vuelve Orión! Después de medio año sin ver en el cielo “la más hermosa de las constelaciones” (según Camille Flammarion), de nuevo nos saluda diariamente este gran cazador. Hay que aclarar que este comentario concierne sólo a los que miran las estrellas al anochecer, porque los que también contemplan el cielo en la madrugada, han visto a Orión de julio a diciembre. Asimismo, vuelven al firmamento vespertino las Pléyades, Sirio, Canopo y las Híades, el grupo que acompaña a Aldebarán: todo un elenco de viejos amigos que hace días no veíamos.
que cuando oscurezca estará ya a más de 30 grados de altura. En junio, al anochecer, Saturno se encontrará cerca de nuestro cenit. No se ve como una estrella muy brillante, pero quien conozca bien la constelación del León sabrá inmediatamente señalar al “intruso”. Si se observa con cuidado durante varias semanas, se podrá notar el movimiento del planeta con respecto a las estrellas, que ocupan lugares fijos en la constelación. Y si queda alguna duda sobre cuál es Saturno, un pequeño telescopio podrá disiparla al permitir ver el anillo que rodea al planeta.
También debemos estar atentos a la Gran Nebulosa de Orión, un poco al sur del centro de la constelación mencionada. Se ve a simple vista como una estrella borrosa de color rojo. Se trata de una gran nube interestelar de muchos años-luz de diámetro. Está compuesta de hidrógeno, oxígeno y otros gases que emiten luz gracias a la energía de estrellas muy calientes que se esconden en su interior.
¿Qué hay de Marte y Júpiter? Es preciso verlos por las mañanas, antes del amanecer. A principio del año ambos saldrán por el oriente poco antes que el Sol; y al observarlos día tras día, siempre a la misma hora, veremos cómo van subiendo lentamente, alejándose del Sol. Marte realmente es muy lento en este aspecto, y sólo en agosto estará cerca de nuestro cenit cuando amanezca. En cambio Júpiter va mucho más rápido. En los amaneceres de marzo ya estará cerca del cenit, y en junio se habrá desplazado tanto hacia el oeste, que se ocultará tras el horizonte occidental justo a la hora en que sale el Sol por el oriente; es decir, estará en oposición. Después de esto, podrá ser visto al anochecer.
También vuelve la hermosa Venus a mostrarse en el occidente, después de más de medio año sin ver a este blanco y brillante lucero vespertino. Ya hacía falta. Cada día estará un poco más arriba y más luminoso, hasta que en junio llegue a su máxima altura, su máxima separación del Sol: más de 45 grados. Mercurio es más difícil de ver. También es brillante, pero nunca se separa del Sol más de unos 28 grados; es decir que cuando este último esté debajo del horizonte, Mercurio se encontrará a muy poca altura. En los primeros días de febrero será visible en el occidente al atardecer, pero se separará apenas 18 grados del Sol, porque estará cerca de su perihelio. Luego de pasar entre la Tierra y el Sol, se dejará ver en los amaneceres, al oriente; el 22 de marzo se percibirá a casi 28 grados del Sol, porque estará cerca de su afelio. A fines de mayo volverá al atardecer, y se alejará del Astro Rey hasta algo más de 23 grados el 1 de junio. Al comparar a Mercurio con Venus se ve claramente la relación entre los períodos y los tamaños de las órbitas: entre más grande la órbita, más tiempo necesita el planeta en recorrerla. Venus se separa más del Sol por tener la órbita más grande, y su ciclo de apariciones dura más de año y medio, mientras que Mercurio tiene su órbita más pequeña y completa varios ciclos cada año. Esta relación ya la intuyeron los astrónomos antiguos dos milenios atrás; pero fue Johannes Kepler, hace unos cuatro siglos, quien descubrió la relación exacta: el cuadrado del período orbital es proporcional al cubo del tamaño de la órbita. Aquí hay que hacer una precisión importante: el tiempo que emplea un planeta en dar una vuelta al Sol no es la duración del ciclo de apariciones tal como se ve desde la Tierra; a lo primero se le llama período sideral, y a lo segundo período sinódico. No obstante, en ambos casos es válido decir que el período de Venus es mayor que el de Mercurio. Otra atracción en los atardeceres es Saturno. Desde el comienzo del año se puede ver a este planeta en el oriente, en la constelación del León. A mediados de enero sale a las ocho de la noche, y un mes después a las seis de la tarde; es decir, está exactamente opuesto al Sol, o “en oposición”, como generalmente se dice. En marzo sale del horizonte a las cuatro, de manera
Un fenómeno muy común, casi tanto como la diaria salida y puesta del Sol, ocurre todos los meses: el ciclo lunar. Todos conocemos las diferentes formas que presenta la Luna según la dirección en que la ilumina el Sol. Pero no todos nos hemos fijado en el movimiento de este hermoso lucero de la noche. Si observamos cuidadosamente todas las tardes, no sólo cómo se ve la Luna sino también dónde se encuentra, podremos notar que cada día se mueve unos 13 grados hacia el oriente, alejándose del Sol que está en el occidente. Y mientras se aleja, podemos ver una fracción cada día mayor de la cara iluminada: es Luna creciente. Si observamos a nuestro satélite natural todas las madrugadas, podremos ver que continúa moviéndose hacia el oriente; pero ahora el Sol también se encuentra a ese lado, de modo que la Luna se acerca a él. La cara iluminada se aleja de la Tierra, y cada día la vemos menos: es Luna menguante. Pero siempre podemos percibir ese movimiento hacia el oriente, es el movimiento orbital del satélite alrededor de nuestro planeta. La Luna cobra particular interés cuando hay eclipses. Cada año hay por lo menos dos eclipses de Luna y dos de Sol, pero muchas veces los de Luna son poco notables y los de Sol suelen ocurrir en partes remotas de la Tierra. En este semestre ocurren dos eclipses. Habrá uno parcial de Sol el 18 de marzo, pero a una hora que para nosotros es nocturna, de modo que no podremos ver este fenómeno. El otro es de Luna, el 3 de marzo, y sí tenemos una buena posibilidad de disfrutarlo. No podremos ver su comienzo, pero a las 6 de la tarde, cuando la Luna llena salga del horizonte oriental, estará totalmente oscurecida por la sombra de la Tierra. Debe ser muy curioso ver salir a la Luna de esta manera. Tendremos que estar atentos a su salida, a alrededor de las 6 de la tarde, porque la fase total del eclipse terminará poco antes de las 7 de la noche.
Diciembre 2006 | Hipótesis | 7
el espejo no diferencia entre derecha-izquierda y arriba-abajo, la aparente discriminación en las direcciones de que trata este problema se debe sólo a la interpretación de la mente. Carlos Montenegro Profesor asociado del Departamento de Matemáticas Los problemas de este número abarcan dos áreas de las matemáticas. Los primeros dos son de geometría –relacionan puntos, segmentos, longitud y área–, aunque los objetos físicos son listones y monedas; el tercero podría decirse que es de lógica. Al final encontrarán las respuestas a los problemas de la edición pasada. Como siempre, pueden hacernos llegar sus soluciones o enviar otros problemas a la dirección: cmontene@uniandes.edu.co. Problema 1 Listones y cuadrados. Tome ocho listones, cuatro de 15 cm y cuatro de 30 cm. Colóquelos sobre un plano de manera que delimiten tres cuadrados que tengan la misma área. Problema 2 Más monedas. Ponga cinco monedas sobre una mesa de tal forma que todas estén a la misma distancia de cada una de las demás. Problema 3 El día menos esperado. A un prisionero le dicen: “Lo liberaremos la próxima semana, el día menos esperado”. ¿Qué día lo deben liberar? Nota: desconozco la fuente de estos problemas, pues los copié hace mucho tiempo.
Problema 1 Cuando miramos a través de un espejo, lo que está a la izquierda aparece a la derecha, y lo que está a la derecha, a la izquierda; lo de arriba, arriba, y lo de abajo, abajo. ¿Por qué el espejo invierte el sentido derecha-izquierda y no el sentido arriba-abajo? >Solución. La óptica del espejo hace que los objetos se vean con la orientación contraria. Por ejemplo: sin importar cómo se coloque frente al espejo, un guante derecho se ve como si fuera zurdo. Si el espejo invirtiera tanto derecha-izquierda como arriba-abajo, la doble inversión no cambiaría la orientación de las cosas; por esa razón sólo vemos una inversión. Además, como
Realmente el espejo intercambia el dorso por el frente, pero pensamos que la inversión es de derecha-izquierda porque comparamos nuestro encuentro con uno mismo ante el espejo con el encuentro frontal con otra persona. Para ver lo que está detrás, giramos sobre el eje vertical, por lo que la orientación vertical (arriba-abajo) no cambia mientras se invierte la orientación horizontal (izquierda-derecha). Si giráramos sobre el eje horizontal (mirando entre las piernas) se conservaría la orientación horizontal y cambiaría la vertical. En otras palabras, imaginémonos unos seres extraterrestres que viven en completa ingravidez y suelen encontrarse frontalmente entre ellos, de manera que los pies de uno queden frente a la cara del otro. Al verse en el espejo, estos seres pensarían que éste invierte el sentido arriba-abajo y no el sentido derecha-izquierda [1 y 2]. Problema 2 Hay doce monedas idénticas en apariencia, pero una es falsa y tiene un peso distinto a las otras. Encuentre la moneda falsa usando una balanza sólo tres veces. Se trata de una balanza antigua con dos platones en los que se pueden poner las monedas para comparar su peso. >Solución. Para este problema hay muchas variaciones y generalizaciones. Invitamos al lector a consultarlas en internet. La solución para el problema clásico se explica a continuación. Se colocan ocho monedas en la balanza, cuatro en cada plato. Hay dos posibles resultados: 1. Si la balanza no queda en equilibrio, se tiene un grupo liviano de cuatro monedas, que podemos llamar A, B, C, D, y un grupo pesado de cuatro monedas: E, F, G, H, y se puede concluir que las cuatro monedas restantes –I, J, K, L– son buenas. Ahora se pesan los siguientes dos grupos: E, I, J, K y A, F, G, H; en otras palabras, se intercambia una moneda del grupo liviano con una del pesado y se cambian las demás monedas del grupo liviano por tres buenas. Si la balanza se invierte, la moneda falsa está entre las dos monedas de la balanza que fueron intercambiadas; es decir, A y E. Si la balanza no cambia su posición, la falsa está entre las tres del grupo pesado que permanecieron en la balanza: F, G, H, y podemos concluir que es más pesada que las otras.
8 | Hipótesis | Apuntes científicos uniandinos | no. 8 | diciembre 2006
Si la balanza queda en equilibrio, la moneda falsa está entre las tres del grupo liviano que se sacaron y es más liviana que las demás. Para terminar, en el primer caso se pesa una moneda buena junto a la moneda A. Si la balanza queda en equilibrio, la falsa es E, y si no, la falsa es A. En los otros dos casos, pesando dos de las tres monedas resultantes se puede decidir, pues se sabe si la moneda falsa es más liviana o más pesada. 2. Si en la primera pesada la balanza queda en equilibrio, el problema se reduce a encontrar una moneda falsa entre cuatro. Esto se puede hacer con dos usos más de la balanza. Le dejamos al lector la posibilidad de descifrar cómo hacerlo [3]. Problema 3 Cuatro señoras están en una sala esperando una entrevista. Dos de ellas tienen la cara sucia. Todas las señoras pueden percatarse de que alguna o algunas de las otras tienen la cara sucia, pero no dicen nada. Se asoma el entrevistador y dice: “¡Aquí hay personas con la cara sucia!”, y cierra la puerta. Minutos después, sin pronunciar palabra alguna, las dos señoras con la cara sucia se paran y van al baño a lavársela. Las cuatro mujeres escucharon lo que dijo el entrevistador, pero, ¿cómo lograron descifrar que se dirigía explícitamente a ellas o no? >Solución. Si sólo una señora tuviera la cara sucia, ella se habría puesto de pie inmediatamente cuando el entrevistador hizo su comentario. Al ver que las demás la tenían limpia, la suya tendría que ser la sucia. Como son dos señoras las que tienen la cara sucia, cada una de ellas verá a otra con la cara sucia, y al ver que la otra no se levanta enseguida, caerá en cuenta que es ella porque está viendo una cara sucia que tiene que ser la suya. Por último, al ver que estas dos señoras se levantan, las otras seguirán tranquilas, porque si las que se pusieron de pie hubieran visto dos caras sucias, no se habrían levantado. [1] Navon D. 2001.The puzzle of mirror reversal: A view from Clockland. Psycolocuy: 13(11). Disponible en http://psycprints.ecs.soton.ac.uk/archive/00000146/. [2] Corballis MC. 2001. Why mirrors reverse left and right. Psycolocuy: 12 (32). Disponible en http:// psycprints.ecs.soton.ac.uk/archive/00000161/. [3] Michon G. 2000-2006. The counterfeit penny problem. En Numericana.com. Disponible en http://home.att.net/~numericana/answer/weighing.htm.
http://www.kirb.com/images/vista/Mirror%20Lake.jpg
M.C. Escher Moebius Strip II. 1963 Wood engraving in three colors, 455 x 207
> El quinto postulado de Euclides
> El quinto postulado de Euclides
Adaptado de M.C. Escher. Balcón. © Cordon Art BV http://britton.disted.camosun.bc.ca/escher/jbescher.htm
Hernando Echeverri Dávila
12 | Hipótesis | Apuntes científicos uniandinos | no. 8 | diciembre 2006
Hacia el año 300 antes de Cristo, apareció en el Museo de Alejandría un tratado titulado Los elementos, que pretendía ser un compendio de todas las matemáticas conocidas hasta el momento. Tan bien lograda estaba la obra y tan desconocido era su autor, Euclides, como persona, que los matemáticos alejandrinos posteriores se refirieron a él como el “autor de los Elementos”. El libro primero, que inicia el resumen de la geometría plana de la época, parte de veintitrés definiciones, cinco postulados y cinco nociones (véase el Recuadro 1); y, de manera deductiva, demuestra uno a uno los teoremas principales en un orden riguroso. En este sistema lógico, los axiomas –es decir, los postulados y las nociones comunes– no se demuestran pues, como dice Aristóteles, se necesitaría una cadena infinita de demostraciones para no caer en un círculo vicioso [1]. Los axiomas, por lo tanto, sirven de supuestos iniciales sobre los cuales se basa el resto de las afirmaciones. > Postulados [En el plano:] 1. [Es posible] trazar una [única] línea recta de un punto cualquiera a otro punto cualquiera. 2. [Es posible] prolongar una línea recta continuamente en otra línea recta. 3. [Es posible] describir un [único] círculo con cualquier centro y cualquier distancia [o radio]. 4. Todos los ángulos rectos son iguales entre sí. 5. Si una línea recta que corta a otras dos líneas rectas forma ángulos internos de un mismo lado que midan juntos menos de dos rectos, las dos líneas rectas, si se prolongan indefinidamente, se encontrarán en el mismo lado en que se forman los ángulos menores a los dos ángulos rectos. > Nociones comunes 1. Magnitudes iguales a una tercera son iguales entre sí. 2. Si se suman magnitudes iguales a magnitudes iguales los totales serán iguales. 3. Si se restan magnitudes iguales de magnitudes iguales las diferencias serán iguales. 4. Cosas que coincidan una con otra son iguales entre sí. 5. El todo es mayor que cualquiera de sus partes [2]. Recuadro 1. Los anteriores postulados y nociones comunes son los axiomas del Libro I de Los elementos sobre los cuales está basada la geometría plana.
Este estilo axiomático-deductivo se le atribuye principalmente a Eudoxo de Cnido, quien parece haber sido el primero en mostrar cómo debe llevarse a cabo1. Eudoxo tuvo al menos dos contactos con la Academia de Platón en sus viajes a Atenas en 385 y en 368 a.C., donde fue discípulo de Platón y posteriormente maestro de un séquito de alumnos propios. A juzgar por los comentarios que hace Platón en el Libro IV de La república [4] y la discusión que hace Aristóteles en el Libro I de Analíticos posteriores [1], es claro que el estilo axiomático-deductivo fue discutido allí. Adicionalmente, por el importante número de matemáticos que participaron en la Academia, que era más una escuela de matemáticas que de filosofía, y por la discusión que hace Aristóteles de la relación entre puntos y líneas en su Metafísica [5] es posible deducir que fragmentos importantes de Los elementos de Euclides se gestaron allí y en Cnidos, donde Eudoxo terminó sus días. La debilidad de los sistemas axiomáticos-deductivos para alcanzar “la verdad”, recaía, según Platón, en los postulados, que debían aceptarse sin demostración [4]. Esta debilidad se nota claramente en Los elementos, pues aunque para los antiguos tal vez fuera fácil aceptar como cierto que “por dos puntos pasa una y sólo una recta” o que “hay una sola circunferencia con un centro y un radio dados”, como se citan hoy popularmente los postulados primero y tercero, era mucho más difícil aceptar el quinto postulado. Éste dice, también en versión popular: “Dados una recta y un punto exterior a ella, por el punto pasa una y sólo una paralela a la recta dada”. Es posible que un estudiante de colegio acepte esto por la fuerza de la costumbre, pero probablemente reviraría si se le presenta la versión de Euclides del Recuadro 1, que se ilustra en la Figura 1.
¿No podría ser posible que los dos ángulos sumaran 179.9999…999°, por ejemplo, y que las dos rectas resultaran siendo asíntotas que no se cortan? ¿No debería haber una demostración del quinto postulado para eliminar cualquier duda? Esta última pregunta estuvo en el centro de la controversia más importante de la geometría, casi desde los tiempos de Euclides. Los tres primeros postulados de Los elementos plasmaban el método de regla y compás que constituía la ortodoxia pitagórica de la geometría a la cual pertenecía Euclides. A los pitagóricos también se remonta otra versión del quinto postulado, pues se dice que ellos sabían que los ángulos internos de un triángulo suman dos rectos [6]. Para Euclides, esta afirmación, la proposición 32 de Los elementos, se deduce de la proposición 29 que dice que “si una recta corta a dos paralelas, los ángulos alternos formados por ellas son iguales”; y la proposición 29 se demuestra directamente del quinto postulado. Según Eudemo2, los pitagóricos demostraron la fórmula de los ángulos internos de un triángulo en forma muy parecida a Euclides, como se muestra en la Figura 2 [6].
Figura 2. Demostración pitagórica de la fórmula de la suma de los ángulos internos de un triángulo. Dado un triángulo ABC, por el vértice B se traza una recta paralela a AC. Entonces α = δ, por ser ángulos alternos entre paralelas y γ = ε por la misma razón. Luego, α + β + γ = δ + β + ε = 180°. (α = δ es cierto porque φ + δ debe ser igual a 180°; si no, por el quinto postulado, la recta AC y su paralela por el punto B se cortarían de un lado o del otro.)
Figura 1. Ilustración del 5° Postulado. Si una recta secante p corta a dos rectas m y n formando, a un lado de p, los ángulos α y β cuya suma es menor que 180°, entonces las dos rectas prolongadas se cortarán en ese lado. La teoría de magnitudes de Eudoxo, que Euclides transcribe con pocas modificaciones en el Libro V de Los elementos, es el primer texto conocido con una estructura axiomática [3]. 1
Eudemo de Rodas (350-290 a.C.) fue discípulo de Aristóteles. Escribió una historia de la aritmética, una de la geometría y otra de la astronomía, ninguna de las cuales subsiste. Sin embargo, muchos historiadores posteriores –Proclo en particular, comentarista de Euclides–, se basan en sus libros. 2
Diciembre 2006 | Hipótesis | 13
Como Eudemo vivió más de un siglo después de que los pitagóricos se fragmentaran, se puede especular que inicialmente éstos procedieron de esta otra manera: Comience con un triángulo rectángulo y complete con él un rectángulo de manera que el triángulo inicial aparezca dos veces, y las hipotenusas de los dos triángulos sean el mismo segmento que la diagonal del rectángulo. Como los ángulos del rectángulo suman cuatro rectos, los de cada triángulo suman la mitad, o sea, dos rectos (Figura 3 a). Para generalizar la afirmación a cualquier triángulo, sólo debemos trazar la altura de éste sobre su lado mayor y constatar que si los ángulos internos de los dos triángulos rectángulos resultantes suman dos rectos, los del triángulo inicial también (Figura 3 b).
Figura 3. Demostración de la fórmula de la suma de los ángulos internos de un triángulo con la construcción de un rectángulo.
(a) Los ángulos internos del triángulo ABC miden la mitad de los del rectángulo ABCD
Esta demostración parece obviar el quinto postulado, pero tiene un supuesto escondido: el hecho que se pueda construir un rectángulo. El sistema axiomático-deductivo de Los elementos de Euclides se convirtió rápidamente en el paradigma a seguir en un tratado científico. El modelo lo siguieron Apolonio de Perga (262-190 a.C.) en Cónicas; Arquímedes (287-212 a.C.) en Sobre los cuerpos flotantes y Sobre equilibrios del plano; Newton (1643-1727) en su Principios matemáticos de la filosofía natural, obra en la cual sus célebres leyes hacen las veces de postulados; y hasta el filósofo Spinoza (1632-1677) en su Ética. En el mundo helenístico y en el árabe, y luego en las universidades europeas del medioevo y posteriormente hasta el siglo XIX, se enseñaba Los elementos como el tratado lógico intachable y ejemplo de una verdad patente. Sin embargo, el quinto postulado siguió siendo controversial. Entre los que trataron de arreglarlo, algunos propusieron versiones equivalentes que parecieran más aceptables. Por ejemplo, Proclo (410-485 d.C.) sugirió la versión antes citada que hoy se enseña en los colegios. Otros trataron de deducirlo de los primeros cuatro axiomas utilizando el método de reducción al absurdo. En otras palabras, tomaban la negación del postulado e intentaban llegar a una contradicción. Por ejemplo, se puede negar la versión de Proclo de dos maneras:
1. Existen una recta y un punto exterior a ella tales que no hay paralela a la recta que pase por el punto. 2. Existen una recta y un punto exterior a ella por el cual pasan más de una paralela a la recta dada. La primera negación no se puede dar si se aceptan los otros postulados de Euclides. Él mismo demostró que se puede trazar una perpendicular del punto a la recta dada y luego otra perpendicular a la anterior por el mismo punto, que resulta siendo paralela a la primera recta. Si no fueran paralelas, se cortarían formando un
(b) La suma de los ángulos internos del triángulo ABC se obtiene sumando los ángulos del triángulo ABD con los de BCD y restando los 180° que resultan de sumar los dos ángulos rectos en D.
14 | Hipótesis | Apuntes científicos uniandinos | no. 8 | diciembre 2006
triángulo con dos ángulos rectos, lo que contradice el teorema del ángulo exterior que dice: “el ángulo exterior a un triángulo es estrictamente mayor que cada uno de los dos ángulos internos remotos” (véase la Figura 4). Debemos resaltar que para demostrar este teorema Euclides no utilizó el quinto postulado.
Figura 4. Teorema del ángulo exterior (Los elementos, Libro I, Proposición 16) En cualquier triángulo, si se prolonga uno de los lados, el ángulo exterior es mayor que cualquiera de los ángulos internos opuestos [3].
> Demostración: sin utilizar el quinto postulado.
Se traza el segmento AD de manera que AM = MD y BM = MC. Entonces los triángulos ABM y DCM son congruentes por tener iguales dos lados y el ángulo entre ellos. Luego los ángulos ABC (β) y MCD son iguales y menores que el ángulo γ. Se procede de la misma manera para mostrar que γ > α.
Quedaba, sin embargo, la otra negación. Varios matemáticos importantes presentaron pruebas falaces de que con ésta se llegaba a una contradicción. Entre ellos podemos citar a Ptolomeo (siglo II d.C.), el astrónomo; a Proclo (410-485), el comentarista de Euclides más importante de la antigüedad; a Omar Khayyam (10481131), poeta y matemático persa; a John Wallis (1616-1703), precursor inglés del cálculo; a Gerolamo Saccheri (1667-1733) y Johann Lambert (1728-1777), quienes trataron de construir un rectángulo; a John Playfair (1748-1819), que popularizó la versión de Proclo del quinto postulado; y, finalmente, a Charles Dodgson (1732-1797), más conocido por el pseudónimo de Lewis Carroll, autor de Alicia en el país de las maravillas. Sus errores consistían generalmente en rechazar, por absurdos, algunos resultados que se deducían de la segunda negación del quinto postulado [7 y 8]. Es importante recalcar que en ningún momento se ponía en duda la geometría euclidiana. Todo lo contrario, ésta se consideraba una verdad contundente, pero se creía que su edificio de demostraciones se podía perfeccionar limpiándole esa única mancha, el quinto postulado, que parecía requerir una demostración. Es más, la posición de la geometría euclidiana se consolidó en el siglo XVII.
Mosaicos de Escher en el disco de Poincaré: Circle Limit IV, III, I. © Cordon Art BV http://britton.disted.camosun.bc.ca/escher/jbescher.htm
Diciembre 2006 | Hipótesis | 15
Por una parte se desarrolló la geometría analítica, primero de manera muy rudimentaria con Descartes y Fermat hacia 1635, y luego, con los trabajos de Wallis y del propio Newton, se fue perfeccionando. Con esta herramienta, los puntos de la geometría se representan con parejas de números en el caso del plano, y con ternas en el del espacio tridimensional. La distancia entre dos puntos del plano ( x 1 , y 1 ) y ( x 2 , y 2 ) se puede medir con la fórmula,
que se deduce directamente del teorema de Pitágoras, y hay una fórmula análoga para la distancia en el espacio. Además, hay ecuaciones para representar las rectas; y las funciones, concepto que se comenzaba a desarrollar, también tienen representaciones gráficas en estos espacios. Por otra parte, el espacio euclidiano se identificó con el espacio físico. En el escolio que precede a sus leyes, Newton aclara que el “tiempo absoluto, verdadero y matemático” al que se refiere en su tratado “fluye uniformemente” y el espacio absoluto, donde se mueven todas las cosas, “siempre permanece igual e inmóvil”. Dentro de este espacio, en ausencia de fuerzas, “todo cuerpo persevera en su estado de reposo o movimiento uniforme y rectilíneo”. Se pasó así del espacio ptolemaico, confinado y esférico donde el movimiento circular era lo normal, a un espacio esencialmente infinito donde el movimiento rectilíneo es el natural [9].
porque no requieren de la experiencia sensorial. En últimas, para él eran verdades necesarias que la mente percibe por intuición, como el espacio y el tiempo que están a la vez fuera de nosotros, como sostenía Newton, y dentro de nuestra mente para estructurar el pensamiento, como afirmaba Leibniz [10]. Gauss (1777-1855) fue el primero en darse cuenta no sólo de que el quinto postulado probablemente no se podía demostrar a partir de los otros axiomas, sino también de las implicaciones que esto tenía tanto en las matemáticas como en la física. Si en efecto dicho postulado resultaba ser independiente de los demás axiomas –por lo que no se podía demostrar a partir de ellos–, había dos geometrías diferentes igualmente válidas: una en la que se cumple el quinto postulado, la ya conocidísima geometría euclidiana, y otra en la que existen una recta y un punto exterior a ella por el cual pasan más de una paralela a la recta. Se podía demostrar, además, que en esta segunda geometría, que él llamó hiperbólica, todas las rectas gozan de esta propiedad: por cualquier punto exterior a cualquier recta pasan no sólo dos, sino una infinidad de rectas que no la intersecan4.
La combinación de estas dos construcciones, reforzada por las nuevas herramientas del cálculo y de las ecuaciones diferenciales, alcanzó su clímax hacia el final del siglo XVIII con dos obras cumbres que explicaban todos los movimientos del universo: la Mecánica analítica de Lagrange –la cual no contaba con dibujos pues, según él, éstos le restarían rigor–, y la Mecánica celeste de Laplace, que ya no requería la hipótesis de un Dios gobernante3. A este universo euclidiano, Kant, contemporáneo de Lagrange y Laplace, le dio la bendición de la filosofía. Kant argumentaba que las afirmaciones de la matemática y de la geometría, como “dos más tres es cinco” o “los ángulos internos de un triángulo suman
Gauss había comenzado a trabajar en este problema desde una edad temprana. Para el año 1817 ya estaba convencido de que el quinto postulado era independiente de los demás axiomas de Euclides y había comenzado a deducir las consecuencias de la nueva geometría hiperbólica [7]. Por ejemplo, dedujo que en ella la suma de los ángulos internos de un triángulo no es un número fijo, y siempre es menor que dos rectos. Por lo que alguna vez comentó que en las triangulaciones que realizó para la medición del estado de Hannover en 1818 no notó ninguna desviación significativa de la suma euclidiana de sus ángulos [11]. Para resaltar este comentario, se puede citar lo que le escribió a un colega. Le señalaba que a pesar de lo que dijeran los metafísicos, refiriéndose a Kant y a sus seguidores, se conocía muy poco “acerca de la verdadera naturaleza del espacio para considerar absolutamente imposible lo que nos parece innatural”. Sin embargo, nunca publicó sus trabajos al respecto, pues, como le comunicó a sus amigos, no quería involucrarse en ningún tipo de polémica y le temía al
dos rectos”, son juicios sintéticos a priori; sintéticos o informativos por cuanto el predicado no está contenido en el sujeto, y a priori
“clamor de los beocios”, haciendo alusión a la reconocida incultura de esta comunidad de la antigua Grecia [12].
Newton, en el escolio general, sigue insistiendo en un Dios “dueño de todo” y “παντοκρατωρ” o gobernante universal [9].
4
3
16 | Hipótesis | Apuntes científicos uniandinos | no. 8 | diciembre 2006
Éste es el teorema de “todas o ninguna” (véase el Teorema 7. 3. 10 en [8]).
Gauss (1777-1855)
Diciembre 2006 | Hip贸tesis | 17
Entretanto, dos jóvenes matemáticos, el ruso Nikolai Lobachevsky (1792-1856) y el húngaro Janos Bolyai (1802-1860), desarrollaron gran parte de la teoría de la geometría hiperbólica. Lobachevsky, en 1829, fue el primero en publicar “Sobre los principios de la geometría” en el Mensajero de Kazan, el periódico de la universidad de provincia donde enseñaba. El tratamiento que le dieron en la Academia de Ciencias de San Petersburgo no fue muy justo. El gran matemático ruso Mihail Ostrogradski, director de la revista de la Academia, rechazó su ensayo porque, según él, estaba tan mal escrito que no se entendía, y, para añadirle una injuria, uno de sus discípulos publicó una burla a los hallazgos de Lobachevsky en una revista literaria. Tal vez era esto lo que temía Gauss. Bolyai publicó sus resultados entre 1831 y 1832, como apéndice de un trabajo de su padre que intentaba darle unas bases más sólidas a la geometría euclidiana. Curiosamente, Farkas, el padre de Janos Bolyai, había intentado demostrar el quinto postulado durante toda su vida y, como había sido condiscípulo de Gauss en la universidad de Gotinga y pensaba que éste era un matemático influyente, le envió el trabajo de su hijo. Una carta a un amigo muestra que Gauss sintió admiración por el joven Janos, pero le dijo a Farkas que él, Gauss, ya había pensado en todo lo que se exponía en el escrito y, en últimas, no hizo nada por hacerlo conocer. Lobachevsky siguió insistiendo, pero nunca tuvo suerte en divulgar de manera apropiada su visión de la nueva geometría. Publicó un artículo en francés titulado “Geometría imaginaria” en 1837, y luego un resumen en alemán del artículo de Kazan, en 1840, pero a pesar de haber impresionado a Gauss, sus descubrimientos no lograron interesar a otros matemáticos [13]. Varias circunstancias tuvieron que ver con esta apatía inicial hacia la geometría hiperbólica. Primero, ésta enfrentaba una tradición muy arraigada en la geometría euclidiana; segundo, había sido descubierta lejos del centro de gravedad de la comunidad matemática por jóvenes sin ningún reconocimiento y con poco acceso a las revistas importantes; y finalmente, Gauss, quien posiblemente era el único que hubiera logrado posicionarla, no quiso hacer frente a la controversia que habría podido ocasionar. El tema volvió a surgir en 1854 en la conferencia ofrecida por Riemann para su habilitación como profesor de la Universidad de Gotinga: “Sobre las hipótesis sub-
nianas– en analogía a las superficies que, para este estudio, tienen dos dimensiones. También definió la curvatura de estas variedades y las geodésicas –caminos más cortos entre dos puntos–, generalizando estos conceptos del trabajo de Gauss en geometría diferencial respecto a superficies6. Al final se preguntó acerca de la geometría que podría regir el mundo exterior. Era una visión extremadamente general en la cual cabía la geometría hiperbólica, pero el nivel de dificultad de la conferencia fue tal que sólo la comprendió Gauss, quien se encontraba entre los asistentes. El interés por la geometría hiperbólica finalmente se despertó catorce años más tarde con la reedición en francés del trabajo de Lobachevsky de 1840 y de las cartas de Gauss que hacían alusión a esta geometría no euclidiana. Esta vez, un italiano, Eugenio Beltrami, leyó este material y logró ver su conexión con las superficies o variedades 2-dimensionales de Riemann. Beltrami estudió el caso más sencillo, el de las superficies de curvatura constante, la esfera y la pseudo-esfera (Figura 5), y en su ensayo “Sobre una interpretación de la geometría no euclidiana” mostró que la pseudo-esfera servía de modelo para la geometría hiperbólica si se consideraba que las geodésicas eran las “rectas” de la geometría. Este trabajo prácticamente ponía fin al problema del quinto postulado porque demostraba que si la geometría euclidiana era lógicamente válida, como la pseudo-esfera era una superficie que se podía trazar en el espacio euclidiano, la geometría hiperbólica también tendría que ser lógicamente válida. Adicionalmente, como se tenía un modelo que negaba el quinto postulado mientras cumplía los otros axiomas euclidianos, no podía haber una demostración de aquél a partir de éstos. Se había abierto el arcón de un tesoro matemático. Rápidamente se dieron otros modelos para la geometría hiperbólica, como el disco de Klein y, más tarde, los modelos de Poincaré, como semiplano y como disco. (Ilustramos el comportamiento de este último en la Figura 6, que muestra algunos de los resultados de la geometría hiperbólica). Además, se reconocieron otras geometrías no euclidianas. La superficie esférica, tan reconocida y estudiada por matemáticos y astrónomos desde la antigüedad, resultaba ser
yacentes a los fundamentos de la geometría”5. En esta conferencia definió espacios n-dimensionales –hoy llamados variedades rieman-
otro tipo de geometría no euclidiana si se tomaban como “rectas” sus geodésicas: los círculos máximos7. En la esfera, que hace par-
Riemann había preparado tres conferencias y Gauss, actuando de parte del profesorado de la universidad, escogió ésta para la exposición [14].
6
5
18 | Hipótesis | Apuntes científicos uniandinos | no. 8 | diciembre 2006
Gauss había sido asesor de la tesis de Riemann que daba un tratamiento geométrico a las funciones de variable compleja. 7 Los círculos máximos sobre la esfera son los que la dividen en dos hemisferios, por ejemplo, el ecuador y los meridianos en la esfera terráquea.
Figura 5. (a) Pseudo-esfera con un triรกngulo cuyos รกngulos suman menos de 180ยบ.
Figura 5. (b) Esfera con un triรกngulo cuyos รกngulos suman mรกs de 180ยบ. (Figuras trazadas con Maple).
te del tipo de geometrías llamadas elípticas, los ángulos internos de un triángulo suman más de dos rectos, y no existen paralelas: todas sus rectas se cortan… en dos puntos. Esto mostró que se podían hacer cambios en otros axiomas euclidianos. Ni siquiera el primer postulado era sagrado: por dos puntos de la esfera –como el polo norte y el polo sur– pueden pasar una infinidad de “rectas”. De esta manera, la geometría –y la matemática en general– dejaban de ser una verdad de la realidad exterior. Aun cuando en general matemáticos y físicos seguían coincidiendo en que la geometría de la realidad era la euclidiana, el hecho de que hubiera varias alternativas válidas, desde el punto de vista matemático, hacía patente que esta disciplina no podía decidir por sí sola –de una manera a priori– cuál era la “verdadera”. Estos descubrimientos tuvieron una primera repercusión en la lógica. Los axiomas volvían a ser meros supuestos iniciales, es decir postulados, que en últimas no tenían por qué reflejar la realidad. Este desprendimiento de la realidad provocó una revisión del concepto de definición. Euclides, para definir “línea”, hacía alusión a un dibujo en la arena, especificando que la línea de la geometría tenía longitud pero no anchura. Para definir “punto” usaba una palabra conocida por todo su público, que significa marca o mojón [16], aclarando que “no tiene partes”. Al no poderse aludir a la realidad externa, estos dos términos quedaban sin definición. Estrictamente hablando, tiene que haber términos que no se pueden definir porque de lo contrario se incurriría en un círculo vicioso como el que se observa en los diccionarios.
Figura 6. Construcciones de la geometría hiperbólica en el disco de Poincaré*. Las “rectas” son o bien diámetros del disco o arcos de círculo perpendiculares al borde, que corresponde a los puntos en el infinito y por tanto no está incluído en la geometría. Las fi guras se trazaron utilizando el programa NonEuclid [15] excepto la (b) que se obtuvo de http://winnie.kuis.kyoto-u.ac.jp/~okuno/Lecture/05/IntroAlgDs/Escher-Limit.html.
a) Una recta (en morado) tiene una familia de paralelas (en gris) por un punto exterior dado. Entre las paralelas hay dos que se acercan asintóticamente a la recta. Además, los ángulos internos de un triángulo (en rojo) suman menos de 180°.
Remozado de este modo, el método axiomático de Euclides tuvo un gran auge en las postrimerías del siglo XIX. Como había demostrado su eficiencia a través de los siglos, con todo y quinto postulado, podía servir para darle rigor a muchas teorías matemáticas recién consolidadas, como la de los números reales y la teoría de conjuntos, que se definieron en la década de 1870. También servía para revisar conceptos antiguos, como los mismos números naturales –los de contar–, que fueron axiomatizados por Peano en 1889. La geometría de Euclides no escapó a esta revisión. En 1899, David Hilbert publicó su Fundamentos de la geometría, tratado de geometría euclidiana en el cual tuvo que aumentar el número de axiomas a veintiuno, cada uno justificado con todo rigor8 [17]. El método axiomático llevaría a otra controversia en el siglo XX, pero ésta nos apartaría del tema geométrico. Por ejemplo, uno de los “nuevos” axiomas de Hilbert es el que postula el caso Lado-Ángulo-Lado en la congruencia de triángulos. Euclides lo había “demostrado”, pero con un método que hace alusión a la realidad externa y, por lo tanto, inaceptable para el nuevo rigor (véase la Proposición 4 del Libro I de Los elementos [3]) 8
b) En esta geometría, dos triángulos son congruentes si sus ángulos son congruentes. Como los triángulos de esta figura tienen dos ángulos de 45° y uno de 60°, todos son congruentes y por lo tanto sus lados correspondientes y sus áreas son iguales. Esto ilustra la variación en la escala o métrica del disco.
Diciembre 2006 | Hipótesis | 21
c) El área de un triángulo no puede ser la mitad de la base por la altura porque dependería de la base y la altura escogidas. Por ejemplo: ½(AB)(CF)≠ ½(AC)(BD)≠ ½(BC)(AE). Por lo tanto se define el área del triángulo como 180 menos la suma de sus ángulos internos, en este caso 180-96 = 84. El área de cualquier otra figura se define como el área de los triángulos que la componen. Por ejemplo: el área del pentágono GHIJK sería la suma de las áreas de los tres triángulos o, equivalentemente, 3 por 180 menos la suma de sus ángulos internos.
d) No puede haber triángulos de áreas arbitrarias. Por la definición de su área en (c), 180 es el límite para el área de cualquier triángulo. Acá, el área del mayor es 178 porque sus ángulos suman 2°; la del menor es 0,7 porque sus ángulos suman 179,3°. Esto último muestra que en regiones pequeñas la geometría hiperbólica se parece a la euclidiana.
e) No hay rectángulos. En el cuadrilátero superior, estudiado por Saccheri, los ángulos A y B son rectos y los lados BC y AD son iguales, pero los ángulos C y D son agudos. El otro cuadrilátero, estudiado por Lambert tiene tres ángulos rectos y un agudo.
f) Los círculos se representan como círculos que parecen descentrados en esta familia concéntrica. Pero no es así, los dos radios trazados para el círculo mayor tienen la misma longitud. Las fórmulas para el área y la circunferencia del círculo son A=4πsenh2 (r/2) y C=2πsenh (r), luego las razones entre la circunferencia y el diámetro, y entre el área y el cuadrado del radio no son constantes y siempre son mayores que π.
22 | Hipótesis | Apuntes científicos uniandinos | no. 8 | diciembre 2006
La pregunta respecto a cuál geometría representaba el mundo exterior, como era de esperarse después de la discusión anterior, vendría de un físico: Alberto Einstein. Claro está, no sin la ayuda de varios matemáticos. En 1905, Einstein enunció su teoría especial de la relatividad en un artículo titulado “Sobre la electrodinámica de los cuerpos en movimiento”. Movido por la idea de que las leyes de la física son independientes del marco de referencia, para resolver las asimetrías que surgían cuando se aplicaba la electrodinámica a cuerpos en movimiento, debió concluir que la velocidad de la luz era la misma en cualquier sistema inercial9. Además, tuvo que formular nuevas transformaciones de tiempo y espacio para los cambios de sistema inercial, las cuales no coincidían con las deducidas de los principios de Galileo y de Newton. En particular, un observador en un sistema inercial vería más corto el metro patrón de otro sistema inercial, y más larga la medida reglamentaria de tiempo, el segundo. Más curioso aún, en perfecta simetría, el observador del otro sistema vería lo mismo respecto al primero. Hermann Minkowski había sido profesor de Einstein en el Instituto Politécnico de Zurich, donde luego serían colegas, y compartía algunos de sus intereses. Minkowski se impresionó con la teoría de la relatividad, al punto de reformularla en el lenguaje de la geometría al definir el espacio-tiempo. Para los matemáticos era ya corriente darse muchas libertades en la formulación de una geometría, y Minkowski se apropió de esto al definir la distancia espacio-temporal entre dos sucesos que ocurren en lugares y tiempos distintos (x1, y1, z1, t1) y (x2, y2, z 2, t2 ) como: , donde c es la velocidad de la luz; las cantidades, x, y, z, representan la posición espacial del suceso, y t su posición en el tiempo10. No sólo combinaba espacio y tiempo en un continuo 4-dimensional, sino que definía una distancia, parecida a la euclidiana, que podía ser imaginaria cuando el radicando fuera negativo. La ventaja para el matemático estaba en que las transformaciones para pasar de un sistema inercial a otro se podían representar como simples cambios de base o de sistema de coordenadas, en
A Einstein inicialmente no le pareció muy importante la contribución de Minkowski, pero reconoció el poder del lenguaje geométrico cuando formuló su teoría de la relatividad general, publicada finalmente en 1915. Hacia 1911, se había dado cuenta de que su teoría implicaba una desviación de los rayos de luz en el campo gravitacional, pero si se consideraba que éstos describían “curvas”, debían darse las rectas de referencia en la geometría que atravesaban. La gravitación también deformaba el espacio y el tiempo del espacio-tiempo de Minkowski. Luego, no había más remedio que considerar un espacio-tiempo generalizado, donde los rayos de luz terminarían recorriendo geodésicas. Para la definición de este espacio no se basó en la formulación axiomática al estilo de Lobachevsky, sino en la geometría general de las variedades que Riemann había expuesto en su conferencia de habilitación de 1854. Esta teoría había sido completada por Christoffel, un alemán originario del estado de Renania, y dos italianos, Ricci-Curbastro y su discípulo Levi-Civita. Entre ellos terminaron de dotar a las variedades de Riemann de las herramientas técnicas del cálculo tensorial. La ventaja era que en una variedad puede haber regiones euclidianas, donde se cumple el quinto postulado, al lado de otras hiperbólicas, donde no se cumple por haber varias paralelas a una recta por un punto, y de otras elípticas, donde no existen tales paralelas11 (véase la Figura 7). Una variedad es semejante a una superficie pero en una dimensión general n, de manera que una superficie es una variedad de dimensión dos. Así como las superficies se parecen mucho a su plano tangente en cada punto, las n-variedades se parecen en cada punto a su espacio tangente euclidiano de dimensión n, notan do R . Si decimos que el globo terráqueo en cada punto parece plano, asimismo, una variedad tridimensional en cada punto se parece al espacio euclidiano de tres dimensiones, R3. Otra similitud se deduce de la propiedad que tiene una superficie de proyectarse en diferentes mapas planos; de la misma manera, una variedad tridimensional se puede proyectar en mapas tridimensionales euclidianos o “planos” de R3. Además, así como al proyectar la tierra en un mapamundi plano la escala se deforma, sobre todo hacia los
los cuales la distancia permanece invariante [18].
polos, por efecto de la curvatura de la esfera (Figura 8), al proyectar una variedad tridimensional sobre R3 se puede represen-
Marco de referencia en el que se cumple la primera ley de Newton. Realmente, Minkowski usaba los signos al revés, pero nos parece que de esta manera es más fácil ver la relación con la distancia pitagórica.
11
9
10
Esto no entra en contradicción con el teorema de “todas o ninguna” de la nota 4, porque no se satisface el axioma “Lado-Ángulo-Lado” de la nota 8, que se requiere para que el teorema se cumpla.
Diciembre 2006 | Hipótesis | 23
Figura 7. Superficie con regiones hiperbólicas donde los ángulos de un triángulo suman menos de 180º, regiones elípticas donde suman más de 180º y regiones euclidianas donde suman 180º. (Figura trazada con Maple).
tar su curvatura con una escala de medición variable. Esta escala variable que permite medir las distancias entre pares de puntos muy cercanos es lo que se llama la métrica de la variedad. Finalmente, para calcular la distancia entre puntos más lejanos se debe primero encontrar la geodésica –el camino más corto entre los puntos–, para luego calcular su longitud mediante una integral. En la relatividad general, Einstein combinó la geometría del espacio-tiempo de Minkowski con las variedades de Riemann y los tensores de Christoffel, Ricci y Levi-Civita. La variedad espaciotiempo de cuatro dimensiones que propuso tiene una distancia espacio-temporal minkowskiana que varía como una métrica, de un punto a otro, según la intensidad del campo gravitacional. En esta variedad, tanto los rayos de luz como los diferentes cuerpos celestes describen trayectorias geodésicas. Sin duda hubo cierto “clamor beocio” en contra de las ideas de Einstein, clamor tiznado de cierto antisemitismo. Sin embargo, su teoría fue aceptada con admirable celeridad. Fue nombrado conferencista en la Universidad de Berna en 1908, profesor de física de la Universidad de Zurich en 1909, profesor titular de la Univer-
sidad de Praga en 1911, catedrático del Instituto Politécnico de Zurich en 1912 y catedrático-investigador de la Universidad de Berlín en 1914. En 1919, después de que las observaciones de ciertas estrellas durante el eclipse solar de ese año confirmaran el efecto que tenía la gravitación sobre los rayos de luz, el Times de Londres sacó el titular: “Revolución en la ciencia - Nueva teoría del universo - Ideas newtonianas derrocadas”. Finalmente, en 1921 Einstein recibió el premio Nobel; sin embargo, éste no se le concedió por la teoría de la relatividad sino por su trabajo –menos controversial en ese momento– sobre el efecto fotoeléctrico [19]. Al final de cuentas, el juego lógico-matemático de axiomas y teoremas de la geometría volvió a tener repercusiones contundentes. Sin duda, sus resultados habían sido resumidos y aplicados por ingenieros y artesanos desde la antigua Grecia, pero sólo los puristas se habían preocupado de su estructura lógica llevada a sus últimas consecuencias. En el siglo XIX, algunos de ellos se arriesgaron a ser tildados de locos y, con una visión asombrosamente futurista, desarrollaron una geometría que sería el armazón de la teoría de la relatividad. Y el propio Einstein tuvo que aplicarse a aprender una teoría matemática que aparentemente no servía para nada.
1.000 millas
1.000 millas
1.000 millas
1.000 millas
Figura 8. Proyección de Mercator de la Tierra. La escala oriente-occidente es igual a la escala norte-sur, para que preserve la medida de los ángulos. Sin embargo, la escala cambia de un punto a otro –como se puede ver–, distorsionando el tamaño de los objetos geográficos.
La región de los polos se afecta tanto que no se puede mostrar, pues la escala tiende a ser infinita. Se señalan la escala en varios puntos y tres geodésicas o círculos máximos en colores diferentes.
Diciembre 2006 | Hipótesis | 25
[1]
Aristóteles. Analíticos posteriores I, 3. En: Samaranch F, traductor. 1973. Obras. 2ª ed. Madrid: Aguilar.
[2]
Joyce DE, editor. 1998. Euclid’s Elements. Worcester, MA: Clark University. Disponible en http://aleph0.clarku.edu/~djoyce/java/elements/ele ments.html
[3]
Suppes P. 2001. Axiomatic Theories. En: Collected Works of Patrick Suppes. Palo Alto, CA: CSLI Publications. Disponible en http://suppes-corpus.stanford.edu/article. html?id=391.
[4]
Platón. La república VI, 511a. En: Azcárate P, traductor. 1946. Obras completas de Platón. Buenos Aires: Áncora.
[5]
Aristóteles. Metafísica I, 9. En: Samaranch F, traductor. 1973. Obras. 2ª ed. Madrid: Aguilar.
[6]
Heath T. 1981. A history of Greek mathematics. Nueva York: Dover. Vol. 1. 143 p.
[7]
O’Connor JJ, Robertson EF. 1996. Non-Euclidian geometry. The MacTutor History of Mathematics archive. St. Andrews (Escocia): University of St. Andrews. Disponible en http://www-groups.dcs. st-and.ac.uk~history/HistTopics/Non-Euclidean_ geometry.html.
[8]
[9]
Millman RS, Parker, GD. 1991. Geometry, a metric approach with models. 2° ed. Nueva York: Springer-Verlag. Newton I. Principios matemáticos de la filosofía natural. En: Hawking S, editor. 2003. A hombros de gigantes. Barcelona: Crítica.
[10]
Kemerling G. 2001. Kant: Synthetic a priori judgments. Philosophy pages. Disponible en http://www.philosophypages.com/hy/5f.htm.
[11]
Breitenberger E. 1984. Gauss’ geodesy and the axiom of parallels. Archive for History of Exact Sciences 31(3): 189-289. Disponible en http://www.springerlink.com/
[12]
Fujimura JH. 1998. Authorizing knowledge in science and anthropology. American Anthropologist, New Series 100(2): 347-360. Disponible en http://www.jstor.org/
[13]
O’Connor JJ, Robertson EF. 2000. Nikolai Ivanovich Lobachevsky. The MacTutor History of Mathematics archive. St. Andrews (Escocia): University of St. Andrews. Disponible en http://www-groups.dcs. st-and.ac.uk/~history/Biographies/Lobachevsky.html
[14]
O’Connor JJ, Robertson EF. 1998. Georg Friedrich Bernhard Riemann. The MacTutor History of Mathematics archive. St. Andrews (Escocia): University of St. Andrews. Disponible en http://www-groups.dcs.st-and. ac.uk/~history/Biographies/Riemann.html
[15]
Castellanos J. 1994-2007. Non-euclid, interactive constructions in hyperbolic geometry. Software interactivo disponible en http://www.cs.unm.edu/~ joel/NonEuclid/
[16]
Mejía Rivas S. 1999. Construcciones clásicas de los reales a la luz del intuicionismo [tesis]. Bogotá: Universidad de los Andes.
[17]
O’Connor JJ, Robertson EF. 1999. David Hilbert. The MacTutor History of Mathematics archive. St. Andrews (Escocia): University of St. Andrews. Disponible en http://www-groups.dcs.st-and.ac.uk/ ~history/Biographies/Hilbert.html
[18]
O’Connor JJ, Robertson EF. 2005. Hermann Minkowski. The MacTutor History of Mathematics archive. St. Andrews (Escocia): University of St. Andrews. Disponible en http://www-groups.dcs.st-and.ac.uk/ ~history/Biographies/Minkowski.html
[19]
O’Connor JJ, Robertson EF. 1997. Albert Einstein. The MacTutor History of Mathematics archive. St. Andrews (Escocia): University of St. Andrews. Disponible en http://www-groups.dcs.st-and.ac.uk/ ~history/Biographies/Einstein.html
Foto: A.F. Casta単eda Feletti
> Diagnóstico molecular del cáncer hereditario de tiroides
Alexandra Ortiz Rodríguez / Gonzalo Guevara Pardo
La finalización del proyecto genoma humano ha sido uno de los grandes avances del siglo XX, ya que ha abierto la puerta al planteamiento y desarrollo de proyectos de investigación que permiten dar a conocer tanto la organización como la funcionalidad de los miles de componentes de nuestro material genético. Gracias al avance en la investigación del área genética y molecular se ha conseguido el perfeccionamiento de técnicas que hacen posible el estudio del ADN –ácido desoxirribonucléico–, componente del genoma humano. De esta forma se han podido caracterizar importantes enfermedades causadas por la mutación de un gen, así como por la modulación de otros genes. La identificación de los genes asociados con estas enfermedades humanas ha revolucionado el campo de la genética médica, ya que es posible acceder a diagnósticos y tratamientos mucho más precisos [1]. Entre estas enfermedades se encuentran la poliposis adenomatosa familiar, la retinitis pigmentosa, el melanoma maligno, el retinoblastoma, la neurofibromatosis y la neoplasia endocrina múltiple. El estudio molecular de las enfermedades genéticas permite comprender a nivel bioquímico las alteraciones que dan origen a las diferentes patologías. Es por ello que diversos laboratorios de investigación y diagnóstico alrededor del mundo están desarrollando pruebas que permitan dictaminar de una forma exacta dichas alteraciones y, con base en esto, dar un manejo clínico adecuado. En ciertas enfermedades, dependiendo de la alteración sufrida, se presentan diferentes características clínicas, y es en esto que radica la importancia, para el paciente, de un diagnóstico molecular preciso. > Neoplasia endocrina múltiple tipo 2 El carcinoma medular de tiroides hereditario es uno de los cánceres de la glándula tiroides. Es un tumor maligno que se origina en las células parafoliculares C que secretan calcitonina, una hormona que interviene en el metabolismo del calcio y del fósforo. Entre el 3% y el 10% de los tumores de la glándula tiroides son de este tipo. Es una enfermedad de herencia autosómica dominante, es decir que sólo se necesita que un gen de uno de los padres funcione de manera inadecuada para que la persona se vea afectada. El tumor aparece esporádicamente entre el 75% y el 90% de los pacientes, en el resto de los casos se manifiesta un alto grado de penetrancia y variabilidad en su expresión, que se puede presentar como síndrome de carcinoma medular de tiroides familiar (FMTC) o como neoplasia endocrina múltiple tipo 2 (MEN-2) [2 y 3].
30 | Hipótesis | Apuntes científicos uniandinos | no. 8 | diciembre 2006
La neoplasia endocrina múltiple tipo 2 comprende dos desórdenes: el tipo 2A y el tipo 2B. El tipo 2A (MEN-2A), también conocido como síndrome de Sipple, es la forma hereditaria más común y se caracteriza por la asociación con el carcinoma medular de tiroides (80% de MEN-2). Esta afección también está asociada, entre el 30% y el 50% de los casos, con la predisposición a desarrollar tumores adrenales o feocromocitomas, e hiperparatiroidismo entre el 10% y el 30% de los casos. La neoplasia endocrina múltiple tipo 2B (MEN-2B) corresponde al 5% de los casos, y está asociada con el carcinoma medular de tiroides (CMT) en el 90% de los casos y con el desarrollo de feocromocitomas en el 45% de los casos. También se caracteriza por la presencia de neuromas en los labios y lengua, ganglioneuromatosis intestinal y anormalidades esqueléticas –incluyendo el hábito marfanoide1– [4]. Dentro de los síndromes de carcinoma medular de tiroides, el carcinoma medular de tiroides familiar tiende a ser el menos agresivo. Se caracteriza por la aparición de cuatro o más casos de CMT en la misma familia, presentándose el carcinoma como única manifestación clínica [2 y 3]. > Proto-oncogen RET Los diferentes síndromes de neoplasia endocrina múltiple se deben a la alteración del gen RET, el cual fue ubicado en el año 1987 en la banda 11 del cromosoma 10 (10q11.2) [5 y 6]. Indudablemente, la presencia de mutaciones en la línea germinal del gen se encuentra relacionada con los tres síndromes: FMTC, MEN-2A y MEN-2B. El proto-oncogen RET codifica para un receptor de membrana del tipo tirosina kinasa2. Dentro de los ligandos del receptor se encuentra la molécula neurotrófica llamada GDNF o “factor neurotrópico derivado de una línea celular glial”, y otras moléculas que traducen señales de crecimiento y diferenciación celular (Figura 1). En efecto, la expresión del proto-oncogen RET tiene un rol importante en el desarrollo de la cresta neural y del tejido neuroendocrino [7 y 8]. De síntomas parecidos al mal de Marfan: estructura alta y delgada, con extremidades largas y modo inestable de caminar. 1
Una tirosina kinasa es una enzima que puede transferir un grupo fosfato al residuo tirosina de una proteína. Esta fosforilación es un mecanismo importante en la transducción de señales que regulan la actividad de las enzimas. http://en.wikipedia.org/wiki/Tyrosine_kinase. 2
Foto: A.F. CastaĂąeda Feletti
Figura. Secuenciador automĂĄtico ABI310.
Figura 1. Estructura secundaria del receptor tirosina kinasa codificado por el gen RET en humanos (PDB: 2IVS), interactuando con los principales ligandos dentro de los que se encuentra GDNF representados por esferas blancas y azules (vista lateral). En verde laminas β y en azul α hélice.
32 | Hipótesis | Apuntes científicos uniandinos | no. 8 | diciembre 2006
Figura 2. Funcionamiento de los receptores tirosina kinasa. Ilustración: A.F. Castañeda Feletti
Con una longitud estimada de 55 kb, el proto-oncogen RET presenta veintiún exones3 que varían de tamaño, oscilando entre 60 bp (exón 19) y 248 bp (exón 3). El gen transcribe cinco especies de RNAm. Además, por medio del splicing alternativo produce tres isoformas, que varían en la presencia de 9, 51 y 43 aminoácidos diferentes, respectivamente, en el extremo carboxi-terminal [7]. El receptor codificado por el proto-oncogen RET está constituido por un dominio extracelular, un dominio transmembranal y un dominio intracelular. El dominio extracelular está conformado por una región rica en cisteínas4 –codificada por los exones 7, 8, 9, 10 y 11–, que tiene importancia en la conformación tridimensional de la molécula, así como en la unión con el ligando GDNF [9]. 3
El dominio transmembranal, que hace parte de la región rica en cisteínas, está codificado por el exón número 11, en el que se ha reportado la mayor cantidad de mutaciones responsables del síndrome MEN-2A. El dominio intracelular está codificado por los exones numerados del 12 al 21, y está conformado por dos dominios tirosina kinasa TF1 y TF2, representados por los exones 12 al 18. Esta subunidad tiene actividad tirosina kinasa y capacidad de autofosforilarse e iniciar las señales de transducción y señalización intracelular [10]. Una mutación presente en los dominios extracelular, transmembranal o intracelular del receptor genera una sobreexpresión de éste, que conlleva a la alteración en su funcionalidad.
Partes de ADN que contienen porciones del código de una proteína.
Cisteína (abreviada Cys o C): aminoácido, uno de los veinte que conforman las proteínas. http://es.wikipedia.org/wiki/Cisteina 4
Diciembre 2006 | Hipótesis | 33
> Receptores proteína-tirosina kinasa Los receptores tirosina kinasa fosforilan las proteínas sustrato en los residuos tirosina y comparten una estructura común. La unión del ligando al dominio extracelular de estos receptores activa el dominio kinasa citosólico, dando lugar a la fosforilación del propio receptor y de las proteínas diana intracelulares, que propagan la señal iniciada por la unión del factor de crecimiento [11].
Péptido señal
Región caderina-like
Sindrome
Región rica en cisteinas
Dominio Tirosin-kinasa
Codón mutado
NEM 2A CMTF
609 611 618 620 630 634 790
CMTF
768 791 804 891
NEM 2A/A CL
634
NEM 2A/ Hirschsprung
609 618 620
NEM 2B
883 918 922
Figura 3. Receptor tirosina kinasa codificado por el proto-oncogen RET y principales mutaciones relacionadas con los síndromes MEN 2 y CMTF. Ilustración: A.F. Castañeda Feletti
34 | Hipótesis | Apuntes científicos uniandinos | no. 8 | diciembre 2006
El primer paso del proceso de señalización en la mayoría de los receptores proteína-tirosina kinasas es la dimerización del receptor inducida por ligando. Esta dimerización conduce a la autofosforilación del receptor, ya que las cadenas polipeptídicas del dímero se fosforilan la una a la otra de manera cruzada (véase la Figura 2). La autofosforilación desempeña dos papeles fundamentales en la señalización a través de estos receptores. En primer lugar, la fosforilación de los residuos de tirosina del dominio catalítico es un mecanismo regulador, puesto que incrementa la actividad proteína kinasa del receptor. En segundo lugar, la fosforilación de los residuos de tirosina que no pertenecen al dominio catalítico supone la generación de sitios de unión específicos para otras proteínas, a través de las que se transmitirá la señal al interior celular desde los receptores activados (Figura 2) [11]. La asociación de las moléculas-señal intracelulares con los receptores proteína tirosina-kinasa, se lleva a cabo a través de un dominio de la proteína que se une a péptidos específicos del receptor que contienen fosfotirosinas. De estos dominios, los mejor conocidos se denominan dominios SH2 [11]. Los dominios SH2 se componen de cien aminoácidos aproximadamente, y se unen a cortas secuencias peptídicas específicas que contienen residuos de fosfotirosina. La asociación de las proteínas que tienen dominios SH2 con los receptores proteína tirosina-kinasa activados, tiene varios efectos: sitúa a las proteínas con dominios SH2 junto a la membrana plasmática, permite su interacción con otras proteínas y promueve tanto su fosforilación como su actividad enzimática. La asociación de estas proteínas con los receptores autofosforilados supone el primer paso en la transmisión intracelular de señales, que comenzó con la unión de los factores de crecimiento a la superficie celular [11]. > Diagnóstico genético: relación genotipo-fenotipo La distinción entre las formas esporádicas y hereditarias del CMT es de gran importancia clínica, tanto para el pronóstico de la enfermedad como para el estudio familiar de la misma. Es por ello que la consultoría genética y el seguimiento de las formas hereditarias son esenciales para la prevención y el tratamiento de los pacientes afectados.
Desde una perspectiva bioquímica, el diagnóstico de hiperplasia de las células C o CMT se basa en la detección de cifras elevadas de calcitonina sérica, ya sea basal o estimulada con pentagastrina [12]. A nivel molecular, en MEN-2A y CMTF las mutaciones involucran principalmente cinco cisteínas relacionadas con el dominio extracitoplasmático del receptor tirosina kinasa (Cys 609, 611, 618, 620 y 634). Estas alteraciones resultan en la substitución de la cisteína por un aminoácido diferente. La gran mayoría de mutaciones en MEN-2A afectan el codón 634, mientras que en CMTF, las mutaciones están igualmente distribuidas entre los codones 618, 620 y 634. Los últimos hallazgos indican que los pacientes con mutaciones en el codón 634 también están en riesgo de desarrollar feocromocitoma e hiperparatiroidismo, además del carcinoma medular de tiroides (Figura 3). La coexistencia de MEN-2A con la enfermedad de Hirschsprung se ha observado en individuos que presentan mutación de los codones 609, 618 y 620 [12]. Adicionalmente, las mutaciones presentes en los exónes 13 a 16, los cuales codifican para el dominio intracelular tirosina kinasa del receptor, están relacionadas con casos de MEN-2B (principalmente el codón 918) [2].
> Técnicas de diagnóstico genético de MEN-2 y CMTF Diferentes estudios realizados en el proto-oncogen RET han podido establecer frecuentes puntos de mutación (hot spots), que se relacionan a su vez con los diferentes fenotipos de la neoplasia endocrina múltiple tipo 2 (Figura 3). Estudios poblacionales han permitido restringir ciertas mutaciones a poblaciones particulares. El estudio de Cheng et al 2004, estableció que en la población koreana las mutaciones del proto-oncogen RET están restringidas principalmente a los codones 634 (exón 11) y 618 (exón 10) [13]. El conocimiento previo de los principales puntos de mutación y la relación con la manifestación clínica de la enfermedad hacen posible el diagnóstico molecular del síndrome de neoplasia endocrina múltiple tipo 2, principalmente mediante dos metodologías: por enzimas de restricción y por secuenciación automática. La primera metodología se lleva a cabo con base en la propiedad de las endonucleasas de restricción de cortar sitios específicos del ADN. Dado que ya se tienen caracterizadas las mutaciones y la secuencia obtenida con la mutación, se emplea una enzima que corte esa secuencia específica. Si el paciente objeto de estudio es normal, la enzima no digerirá el fragmento; pero si efectivamente presenta la mutación que da origen a la secuencia que reconoce la enzima, ésta sí cortará el fragmento (Figura 4).
Tanto las mutaciones en MEN-2A y CMTF como en MEN-2B conllevan una estimulación del receptor tirosina kinasa, independientemente del ligando. En los casos de MEN-2A y CMTF, las mutaciones de la cisteína causan una alteración en la dimerización del receptor tirosina kinasa, mientras que en MEN-2B, la mutación M918T parece modificar la especificidad del substrato de la proteína kinasa [7]. Desde hace unos años, el estudio genético de las mutaciones en el proto-oncogen RET ha llegado a ser más importante que las pruebas bioquímicas para el diagnóstico de CMT, lo cual está dado por la precisión y exactitud alcanzadas por las herramientas moleculares útiles en el diagnóstico genético y molecular de los síndromes MEN-2. Lo anterior no le resta importancia a la implementación de las pruebas bioquímicas tales como la medición de la calcitonina, como screening de aproximación a un diagnóstico certero de la enfermedad. Sin embargo, la neoplasia endocrina múltiple tipo 2 se ubica dentro de un gran número de síndromes de cáncer genético (cáncer de seno y cáncer de ovario, entre otros), en los cuales una decisión clínica puede basarse solamente en el resultado de una prueba genética [4].
Figura 4. Gel de agarosa al 2%, teñido con bromuro de etidio. Carril 1: marcador de peso 25 bp. Carril 2: exón 11 del proto-oncogen RET digerido con la enzima de restricción CfoI; tamaño exón normal: 234bp. Carril 3: exón 11 del proto-oncogen RET digerido con la enzima de restricción CfoI; tamaños del exón mutado: 62 y 173 bp.
Diciembre 2006 | Hipótesis | 35
Foto: A.F. Castañeda Feletti
Figura 5. Secuenciador automático ABI310.
La técnica gold standard para la detección de mutaciones es la secuenciación automática, denominada de esta forma por su alta sensibilidad. Esta técnica consiste en visualizar el orden exacto de los nucleótidos del gen, y así identificar las mutaciones de una manera puntual. Como su nombre lo indica, esta técnica se lleva a cabo en un secuenciador automático (Figura 5). El diagnóstico de mutaciones en el proto-oncogen RET por secuencia directa se hace más sencillo, gracias a que ya son conocidos los principales puntos de mutación, sin descartar que puedan presentarse mutaciones en toda la secuencia del gen (Figura 3). Figura 6. Secuencia del exón 13 del proto-oncogen RET. Izquierda: secuencia consenso. Derecha: secuencia con un cambio puntual.
36 | Hipótesis | Apuntes científicos uniandinos | no. 8 | diciembre 2006
Dentro del estudio de diagnóstico molecular del gen RET, se secuencian los exones principalmente afectados en los diferentes tipos de MEN-2 y CMTF, como son 10, 11, 13, 14, 15 y 16 (Figura 6). La articulación entre la investigación molecular y el manejo clínico de las enfermedades genéticas es cada vez más necesaria para obtener avances en el área médica, no sólo desde el punto de vista del tratamiento de las enfermedades, sino con miras al avance de la medicina preventiva. El diagnóstico molecular del proto-oncogen RET se realiza actualmente en el Laboratorio de Genética y Oncología Molecular del Instituto Nacional de Cancerología por investigadores especializados. Ellos analizan los resultados en detalle para emitir un concepto que se explica al paciente durante la consejería genética.
> Referencias
[9]
Santoro M, Carlomagno F, Melillo RM, Fusco A. 2004. Dysfunction of the RET receptor in human cancer. Cell Molecular Life Sciences 61(23): 2954-64.
[1]
Agarwal S, Moorchung N. 2005. Modifier genes and oligogenetic disease. Journal of the Nippon Medical School 72(6): 326-34.
[10]
Tallini G, Asa SL. 2001. RET oncogene activation in papillary thyroid carcinoma. Advances in Anatomic Pathology 8(6): 345-54.
[2]
Wiench M, Wygoda Z, Gubala E, Wloch J, Lisowska K, Krassowski J, Scieglinska, D, Fiszer-Kierzkowska A, Lange D, Kula D, Zeman M, Roskosz J, Kukulska A, Krawczyk Z, Jarzab B. 2001. Estimation of risk of inherited medullary thyroid carcinoma in apparent sporadic patients. Journal of Clinical Oncology 19(5): 1374-1380.
[11]
Cooper GM. 2002. La célula. 2a ed. Madrid (España): Marbán. 685 p.
[12]
Wohllk N, Becker P, Veliz J, Pineda G. 2000. Neoplasias endocrinas múltiples: un modelo clínico para aplicar técnicas de genética molecular. Revista médica de Chile 128(7): 791-800.
[3]
Magalhaes P, De Castro M, Elias L, Soares E, Maciel, L. 2004. Polymorphisms in the RET proto-oncogene and the phenotypic presentation of familial medullary thyroid carcinoma. Thyroid 14(12): 848-852.
[13]
Chung YJ, Kim HH, Kim HJ, Min YK, Lee MS, Lee MK, Kim KW, Ki CS, Kim JW, Chung JH. 2004. RET proto-oncogene mutations are restricted to codon 634 and 618 in Korean families with multiple endocrine neoplasia 2A.Thyroid 14 (10): 813-818.
[4]
Jiménez C, Gagel R. 2004. Genetic testing in endocrinology: lessons learned from experience with multiple endocrine neoplasia type 2 (MEN2). Growth hormone & IGF research 14: S150-S157.
[5]
Mathew CG, Chin KS, Easton DF, Thorpe K, Carter C, Liou GI, Fong SL, Bridges CD, Haak H, Kruseman AC, Schifter S, Hansen HH, Telenius H, Telenius-Berg M, Ponder BAJ. 1987. A linked genetic marker for multiple endocrine neoplasia type 2A on chromosome 10. Nature (London) 328: 527-528.
[6]
Simpson NE, Kidd KK, Goodfellow PJ, McDermid H,. Myers S, Kidd JR, Kackson CE, Duncan AM, Farrer LA, Brasch K, Castiglione C, Genel M, Gertner J, Greenberg CR, Gusella JF, Holden JAA, White BN. 1987. Assignment of multiple endocrine neoplasia type 2A to chromosome 10 by linkage. Nature (London) 328: 528-530.
[7]
Michiels FM, Chappuis S, Caillou B, Pasini A, Talbot M, Monier R, Lenoir GM, Feunteun J, Billaud M. 1997. Development of medullary thyroid carcinoma in transgenic mice expressing the RET protooncogene altered by a multiple endocrine neoplasia type 2A mutation. Proceedings of the National Academy of Sciences USA 94: 3330-3335.
[8]
Randolph G, Maniar D. 2000. Medullary carcinoma of the thyroid. Cancer Control 7(3): 253-26.
> Reseña de los autores Alexandra Ortiz Rodríguez, Ms.C alex-ort@uniandes.edu.co Bióloga con Maestría en Ciencias Biológicas con énfasis en Biología Molecular de la Universidad de los Andes. Asistente de Investigación del Centro de Investigación en Bioquímica CIBI en el proyecto “Estandarización de protocolo para diagnóstico cuantitativo de cistina en leucocitos de pacientes con cistinosis”. Investigadora del Instituto Colombiano de Genética y Oncología Molecular en el proyecto “Detección de mutaciones en línea germinal de los genes BRCA1 y BRCA2 en pacientes con cáncer de ovario”. Gonzalo Guevara Pardo, M.D Ms.C gguevara@incancerologia.gov.co Médico Genetista de la Universidad Nacional y Microbiólogo Universidad de los Andes 1980. Director del Laboratorio de Genética y Oncología Molecular, Instituto Nacional de Cancerología. Director Instituto Colombiano de Genética y Oncología Molecular.
Dominios lipĂdicos en membranas artiďŹ ciales visualizados en un microscopio confocal.
> El colesterol una molécula con mala reputación Chad Leidy / Carola Hernández H.
Inspirado por charlas de Ole G. Mouritsen. Es bien sabido que la regulación inadecuada del colesterol en el sistema circulatorio presenta riesgos fisiológicos para el ser humano. La bien fundamentada correlación que existe entre “altos” niveles de colesterol en el torrente sanguíneo y el desarrollo de enfermedades cardiovasculares ha hecho de esta molécula uno de los principales enemigos de la salud pública. Por esta razón, a través de entidades que se ocupan de esta clase de problemas, se ha difundido la necesidad de reducir los niveles de colesterol sanguíneos mediante dieta, ejercicio y medicamentos. Así pues, es natural que el colesterol no sea visto con buenos ojos por la población en general, y se podría decir, sin miedo a equivocarse, que esta molécula se ha ganado una muy mala reputación. En este artículo intentamos presentar el colesterol desde otra perspectiva, la de una molécula exquisitamente diseñada con una función fisiológica
40 | Hipótesis | Apuntes científicos uniandinos | no. 8 | diciembre 2006
esencial: regular la organización y complejidad de las membranas celulares, fomentando la diversidad funcional de los diferentes sistemas celulares del organismo. Se podría decir de manera un poco audaz que sin el colesterol los humanos no seríamos lo que somos, y que esta sencilla molécula es esencial para mantener el complejo comportamiento del organismo. Pero, ¿por qué es esencial? Ésta es una pregunta que ha intrigado a biofísicos por varias décadas. El colesterol no es una fuente importante de energía en el organismo, tampoco forma parte esencial del funcionamiento de los diferentes sistemas proteicos de la célula y definitivamente su rol central no es el de un mensajero químico, como en el caso del calcio. Se sabe que el colesterol interactúa con la membrana celular, intercalándose con los otros componentes de ésta, pero está claramente comprobado que no es esencial en la formación de la bicapa lipídica que la conforma. Entonces, ¿qué es aquello
que lo hace tan importante? Hoy se continúa explorando intensamente la respuesta a esta pregunta en diversos grupos de investigación del mundo. Si exploramos la evolución de esta molécula y entendemos los aspectos fisicoquímicos que le dan su carácter de administrador de interacciones moleculares en la membrana celular, encontraremos algunas claves. Antes de entrar a discutir el porqué del colesterol, describiremos a grandes rasgos cómo se ganó tan deplorable reputación. Es importante enfatizar que las implicaciones del colesterol en la salud no se deben a la molécula en sí. Es decir, el colesterol, en concentraciones adecuadas, no es tóxico para el organismo; por el contrario, es esencial para él. Comenzaremos explicando, desde una perspectiva biofísica sencilla y sin atrevernos a invadir demasiado el territorio técnico de la medicina, que los problemas a nivel cardiovascular son sólo consecuencia de la pobre regulación del colesterol en la sangre. Una vez clarificado este punto, procederemos a entender un poco más a fondo la molécula en sí. Intentaremos explicar el porqué de su estructura química cuidadosamente diseñada y exploraremos
cómo su interesante comportamiento fisicoquímico presenta importantes implicaciones a nivel celular. > El colesterol, ¿asesino o esencial? El nombre colesterol se formó con las palabras griegas chole (bilis) y stereos (sólido), por haber sido identificado por primera vez en los cálculos de la vesícula biliar. El colesterol es un lípido que está en diversos tejidos corporales y presenta variadas concentraciones. Por ejemplo, se encuentra en altas concentraciones en el cerebro y la médula espinal, en el hígado –donde es procesado– y, en niveles considerables, en la piel y en los surfactantes de pulmón [1]. El colesterol presenta diversos niveles en otros sistemas celulares del organismo. Es importante anotar que cualquier célula en particular también presenta variaciones en el nivel de colesterol en los diferentes organelos, mostrando, en general, una gradiente de concentraciones (Figura 1). Se presentan, entonces, bajas concentraciones cerca al núcleo, que se incrementan al moverse a través de la retícula endoplasmática y el aparato Golgi hasta llegar a la membrana plasmática, la cual presenta los niveles más altos de colesterol [2].
Figura 1. El colesterol es sintetizado en la retícula endoplasmática y transportado por un sistema de vesículas a través del aparato de Golgi para finalizar en la membrana plasmática. Este flujo preferencial induce una gradiente incremental de concentración de colesterol desde la retícula endoplasmática hasta la membrana plasmática. Los pequeños glóbulos de la imagen son proteínas. El colesterol es formado y transportado dentro de las membranas. retícula endoplasmática
membrana plasmática
núcleo
aparato de Golgi
Diciembre 2006 | Hipótesis | 41
El colesterol en el organismo proviene tanto de la síntesis directa en las células, a partir de esteroides, como de la absorción a través de la dieta. Aunque el colesterol se sintetiza en las células, se ha comprobado que aquél que se absorbe a través de la alimentación es indispensable para mantener al organismo en niveles funcionales; de modo que una dieta completamente libre de colesterol es perjudicial para la salud [3]. Otro aspecto interesante es que una dieta baja en colesterol no necesariamente resulta en niveles bajos del mismo en la sangre, ya que éste puede ser sobrecompensado por síntesis celular. Por lo tanto, para mantener niveles adecuados de colesterol es necesario mantener un balance entre el colesterol sintetizado y el que se absorbe a través de la dieta. Los niveles de colesterol en los diferentes tejidos se mantienen gracias a una cuidadosa regulación. Dentro de ésta, el plasma sanguíneo actúa como medio de distribución y como reserva que absorbe o que suministra el colesterol a los diferentes tejidos, en la medida en que sea necesario. El nivel de colesterol en el plasma sanguíneo puede fluctuar, y los niveles altos de colesterol están relacionados con el desarrollo de arteriosclerosis, la principal causa de muerte en países como Estados Unidos [3]. El rasgo característico de la arteriosclerosis es la acumulación de unas lesiones llamadas placas que, dependiendo de su tamaño, pueden llegar a obstruir el flujo sanguíneo [3]. El mayor riesgo, el infarto, se genera con el desprendimiento de una placa que lleva a la formación de un coágulo de sangre que la envuelve y que tapona una arteria, asfixiando completamente una parte del músculo del corazón. La interrelación entre el desarrollo de la arteriosclerosis y el colesterol se puede entender más a fondo cuando se reconoce que existen dos tipos de colesterol en la sangre: uno “bueno” y otro “malo”. Es importante aclarar que sólo hay una estructura molecular del colesterol –aunque durante su transporte ésta puede encontrarse esterificada o no esterificada–. La diferencia entre los dos tipos de colesterol se basa en las dos estructuras macromoleculares distintas utilizadas para empaquetarlo y transportarlo en la sangre [4 y 5]. El colesterol es una molécula altamente hidrofóbica
(que le tiene miedo al agua o que repele el agua) que tiende a cristalizarse y precipitarse a no muy altas concentraciones cuando entra en contacto con el agua. Por lo tanto, debe asociarse con otras moléculas que ayuden a suspenderlo. Así pues, el colesterol en el plasma existe en la forma de complejos macromoleculares llamados lipoproteínas [4 y 5]. Éstos están formados por proteínas, glicerolípidos y triglicéridos que, al asociarse con el colesterol, esconden de manera efectiva la molécula evitando su interacción con el medio acuoso. De esta manera se puede mantener alta la concentración de colesterol en el torrente sanguíneo sin que éste se precipite. El llamado colesterol “bueno” (Figura 2) es una lipoproteína denominada de alta densidad (HDL o High Density Lipoproteins), que asume un rol protector en el sistema cardiovascular debido a varias razones, siendo la más importante su capacidad de conducir un proceso conocido como ‘transporte de colesterol inverso’. En este proceso las HDL ayudan a extraer y transportar al hígado el exceso de colesterol depositado en las paredes del vaso sanguíneo, para su eliminación por la vía gastrointestinal [3]. Por otra parte, el colesterol “bueno” también ayuda a mantener los vasos sanguíneos dilatados, promoviendo un mejor flujo de sangre. Adicionalmente, reduce las heridas en los vasos sanguíneos y la formación de placas al ejercer funciones antioxidantes y antiinflamatorias. De la Tabla 1 se puede inferir que tener altos niveles de HDL es beneficioso para la salud y que niveles muy bajos de HDL en el medio sanguíneo pueden ser peligrosos aun si el nivel de LDL está en el ideal, ya que esto indica que el desalojo de colesterol a través del hígado no es adecuado. El sistema de eliminación presenta un proceso cíclico de transporte, absorción y secreción del colesterol con base en cambios estructurales en la lipoproteína, que puede verse en las Figura 3. El colesterol “malo” es una lipoproteína denominada de baja densidad (LDL o Low Density Lipotroteins). Las LDL son principalmente responsables de actuar como reservas de colesterol en el torrente sanguíneo, ya que él migra fácilmente entre las LDL y los tejidos. Modelos recientes afirman que las LDL presentan una forma esférica con un centro lipídico enriquecido en triglicéridos y colesterol esterificado, rodeado de una superficie de glicerolípidos y proteínas [5].
Nivel de colesterol LDL
Categoría de colesterol LDL
Nivel de colesterol HDL
Categoría de colesterol HDL
Menos de 100 mg/dL 100-129 mg/dL 130-159 mg/dL 160-189 mg/dL 190 mg/dL o más
Óptimo nivel Cerca del óptimo nivel Bordeando el alto nivel Alto nivel Muy alto nivel
Menos de 40 mg/dL 40- 49 mg/dL 50- 59 mg/dL 60 mg/dL o más
Muy bajo nivel Bordeando el bajo nivel Cerca del óptimo nivel Óptimo nivel
Tabla 1. Los niveles de colesterol son medidos en miligramos por decilitros en el cuerpo humano. Niveles superiores a 130 mg/dL de LDL son considerados riesgosos para la salud humana. Niveles inferiores a 40 mg/dL en HDL también son peligrosos para la salud, aun si el nivel de LDL es óptimo.
42 | Hipótesis | Apuntes científicos uniandinos | no. 8 | diciembre 2006
Figura 2. HDL naciente. Imagen de Theoretical and Computacional Biophysics Group http://www.ks.uiuc.edu/Research/apoa1/apoa1.gif
Se podría decir que las LDL son semejantes en el exterior a una estructura de membrana esférica que ayuda a capturar colesterol y que presenta un sistema compacto de transporte. De esta manera, podemos afirmar que las LDL son fragmentos esféricos compactos semejantes exteriormente a la membrana celular, fáciles de suspender en el medio sanguíneo y con capacidad para capturar y ceder colesterol. La formación de placas y el desarrollo de la arteriosclerosis se deben, en parte, a que se rebasan los límites de solubilidad de las LDL
Arteria
Ilustración: A.F. Castañeda Feletti
HDL
Hígado
HDL
HDL3
LDL
LDL oxidado
Figura 3. Proceso cíclico de eliminación de colesterol LDL por el transporte de las HDL desde el una placa en un vaso sanguíneo hasta el hígado.
en la sangre. Cuando hay demasiado colesterol en el organismo, el cuerpo puede responder incrementando los niveles de LDL en la sangre e intentando almacenarlo de manera efectiva. Al llegar a niveles demasiado altos se fomenta el proceso de precipitación y se generan placas. Por último, en cuanto comienza a acumularse colesterol en las paredes vasculares empieza un proceso de oxidación, seguido por el reclutamiento de macrófagos y el incremento en el tamaño de la placa, lo que conduce al desarrollo de la enfermedad [3]. > El colesterol y la organización de la membrana plasmática De la argumentación anterior surge un claro mensaje: el organismo se esfuerza por mantener suficiente colesterol en la sangre y por hacerlo accesible a los diferentes tejidos del organismo, aun si esto conlleva riesgos fisiológicos debido a posibles fallas en el sistema de regulación. Entonces, ¿cuál es la función del colesterol en la célula? Es claro que no es esencial en la formación de la bicapa lipídica de la membrana celular, ya que, aunque toda célula eucariota presenta una concentración de un 15% a un 50% molar de colesterol (o esteroles equivalentes) en su membrana plasmática, las membranas bacteriales también forman sin problema una estructura de bicapa lipídica en ausencia de colesterol [1]. Por otro lado, las concentraciones de colesterol son muy altas para actuar exclusivamente como señal química y, por lo tanto, se piensa que el colesterol debe actuar más bien como regulador de las propiedades fisicoquímicas de la membrana [6]. Aunque se sabe que la molécula afecta el nivel de fluidez y resistencia de ésta, es difícil explicar el proceso de diversificación de células eucariotas basándose solamente en esta habilidad, ya que otras
Diciembre 2006 | Hipótesis | 43
Coexistencia de fase líquida-desordenada (partes lisas) con sólida ordenada (partes corrugadas) visualizada por un microscopio de fuerza atómica que genera imágenes topográficas “al tacto”
En el modelo clásico, propuesto por Singer y Nicholson, la membrana celular era un mosaico fluido en el cual los lípidos formaban un medio laminar, fluido y homogéneo, donde las proteínas podían moverse libremente [8]. Hoy se sabe que la organización de la membrana plasmática es un poco más complicada. Cuenta con una gran diversidad de lípidos que pueden presentar poca afinidad entre ellos, lo cual conlleva la segregación de los mismos en regiones claramente diferenciadas llamadas dominios [9]. Esto es exactamente homólogo a lo que uno observa al verter aceite sobre un contenedor con agua: el aceite tiende a conglomerarse y separarse del medio acuoso, y lo que observamos después de un tiempo son dos regiones bien diferenciadas en la superficie, una con agua y otra con aceite. Lo mismo se observa en la superficie de la membrana: diferentes regiones que se separan espontáneamente formando un sistema de dominios. Este sistema de dominios es regulable por factores externos como la temperatura, el pH y la acción enzimática, entre otros. Los lípidos de la membrana plasmática tienen la capacidad de formar dominios en ausencia de colesterol. Es claro, por ejemplo, que en ciertos rangos de temperatura las membranas bacteriales pueden generar dominios debido a que los lípidos presentan diferentes estados de organización [10]. Los dos estados más estudiados son el sólido-ordenado y el líquido-desordenado. El primero generalmente se presenta a temperaturas bajas, y se caracteriza por las cadenas lipídicas altamente organizadas y con un empaque denso y ordenado; tal estado presenta un alto nivel de rigidez e inmovilidad. Por otro lado, el estado líquido-desordenado se caracteriza por tener lípidos con cadenas lipídicas altamente desordenadas y cuyo empaque es menos denso, lo cual genera un alto nivel de fluidez y movilidad [1] (Figura 5). Los distintos lípidos de la membrana plasmática presentan diferentes temperaturas de transición entre el estado sólido-ordenado y el líquido-desordenado. Por tanto, a una temperatura dada, pueden existir en la membrana plasmática lípidos tanto en la fase líquida-desordenada como en la sólida-ordenada. Al separarse se presenta el mismo fenómeno que observamos en el ejemplo del agua y el aceite; es decir, dos regiones bien diferenciadas con características claramente distintas [11 y 12].
Ilustración: A.F. Castañeda Feletti
moléculas, incluidas las proteínas transmembranales, presentan el mismo efecto [7]. Es así como en las últimas décadas el enfoque científico se ha centrado en estudiar cómo el colesterol regula la organización superficial de la membrana plasmática, alcanzando resultados sorprendentes que abren un espectro de posibilidades inesperadas para ésta molécula. Es importante tener en cuenta que la membrana plasmática es la barrera entre el interior y el exterior de la célula que permite la entrada y salida de los compuestos necesarios para la subsistencia de ésta, mediante diversos canales de transporte. Está formada de manera espontánea por la agregación de lípidos en una estructura de dos moléculas de grosor, e incorpora una gran diversidad de proteínas que cumplen funciones de transporte de compuestos y transmisión de señales (Figura 4).
Figura 4. Diagrama de la membrana plasmática celular. Las moléculas de lípidos están representadas por pequeñas esferas en amarillo con dos colas. Las esferas o cabezas son hidrofílicas mientras que las colas son hidrofóbicas.
Fase líquida desordenada
Fase sólida ordenada
Coexistencia de fases
50 µm Formación de dominios
Figura 5. Fase líquida-desordenada y fase sólida-ordenada y coexistencia de las dos fases, con la consecuente formación de dominios de fase como se observa en la imagen por microscopía de fuerza atómica de una membrana apoyada. Adaptada de Fidorra M, Duelund C, Leidy C, Simonsen AC, Bagatolli LA. 2006. Biophysical Journal 90:4437-4451.
Diciembre 2006 | Hipótesis | 45
Figura 6. Fase líquida-ordenada Simulaciones de dinámica molecular muestran el ordenamiento de las cadenas de hidrocarbones (en gris) en presencia de colesterol (en verde). Este ordenamiento en combinación con el alto nivel de fluidez lateral le otorgan a esta fase lipídica el carácter de líquidaordenada. www.lce.hut.fi/research/polymer/membranes.shtml La fase líquida-ordenada se genera cuando el colesterol se intercala preferentemente con lípidos saturados alineándose con las cadenas de hidrocarbones de los lípidos. El colesterol incrementa el nivel de fluidez de los lípidos al impedir un empaquetamiento óptimo. La estructura molecular del colesterol presenta una serie de anillos que hacen que la molécula presente una configuración rígida y plana. El grupo hidroxilo ayuda a alinear la molécula ya que genera puentes de hidrógeno con el agua interfacial cercana a la cabeza polar de los lípidos. http://www.npaci.edu/online/v4.4/zchol.GIF
Si se considera que diferentes proteínas pueden preferir moverse a una de las dos fases [13], la formación de dominio adquiere utilidad para que la célula organice sus componentes en la superficie. Esto consistiría simplemente en conglomerar o segregar componentes con base en su afinidad por las diferentes fases. Por ejemplo, una célula motriz que se desplaza estirando parte de su membrana plasmática para adherirse y arrastrarse, puede generar dominios que aglutinen los componentes necesarios para el proceso de arrastre en uno de sus extremos [14]. En el caso anterior, la célula no tendría que dirigir cada uno de los componentes independientemente; sólo tendría que generar un dominio adecuado, de tal manera que los componentes se muevan hacia esa región de forma espontánea debido a su preferencia por tal dominio, lo cual podría ser una excelente idea para ahorrarle trabajo y gasto de energía a la célula. Infortunadamente esta idea tiene un serio inconveniente: una de las dos fases, la sólida-ordenada, es extremadamente rígida [1], lo cual presenta varias desventajas. Dicha rigidez restringe enormemente la incorporación de proteínas a esta fase y reduce el nivel de plasticidad necesario para la proyección de esta sección de la célula. Adicionalmente, la frontera entre la fase sólida-ordenada y la líquida-desordenada es bastante abrupta, lo que implica la formación de defectos que pueden generar pérdidas en el contenido celular [15]. En general, estos inconvenientes indican que la fase sólida-ordenada no es muy funcional para la célula, lo que restringe enormemente la utilidad de la formación de dominios. Por varias décadas, en parte debido a las características de la fase sólida-ordenada, se creyó que la única fase útil para la célula era la líquida-desordenada, la cual se estableció como la fase fisiológicamente relevante [8]. Sin embargo, la idea de la formación de dominios siguió fascinando a varios fisicoquímicos, a quienes les parecía inaudito que la célula desperdiciara una idea tan útil como lo era la formación de dominios.
46 | Hipótesis | Apuntes científicos uniandinos | no. 8 | diciembre 2006
Entre los años 1987 y 1991 surgió una extraordinaria solución a esta paradoja. Utilizando simulaciones moleculares computacionales y resonancia magnética, se descubrió que al interactuar con los lípidos de la membrana, el colesterol podía formar una tercera fase lipídica [16 y 17]. Ésta era muy especial, ya que presentaba características mixtas entre la fase líquida-desordenada y la fase sólida-ordenada. Las moléculas de colesterol inducían a un ordenamiento de las cadenas lipídicas al intercalarse entre los lípidos, manteniendo un espaciamiento relativamente grande entre los mismos. En consecuencia, la fase enriquecida de colesterol presentaba cadenas rígidas como la fase sólida-ordenada, mientras mantenía la movilidad y fluidez de la fase líquida-desordenada. Debido a esta mezcla de características se le denominó fase líquida-ordenada (Figura 6). Otra característica importante en esta nueva fase era que el colesterol se agrupaba preferentemente con los lípidos de temperatura de transición alta, dejando de lado los lípidos de temperatura de transición baja. Esto implicaba que la fase líquida-ordenada se formaba con los lípidos que antes constituían la fase sólida-ordenada, sustituyéndola [17]. Finalmente, se aceptó la idea de la formación de dominios, ya que la nueva fase líquida-ordenada en coexistencia con la fase líquida-desordenada tenía la capacidad de formar un sistema de dominios fisiológicamente adecuado. La nueva fase resuelve todos los problemas que presentaba la sólida-ordenada: al ser fluida, permite la incorporación de proteínas y presenta un alto nivel de plasticidad; se vuelve menos abrupta la frontera entre la fase líquida-desordenada y la sólida-ordenada, y no presenta las imperfecciones que resultan en la pérdida de contenido celular. La idea de los dominios enriquecidos en colesterol era tan lógica y atractiva que sólo fue cuestión de tiempo descubrir su existencia en las células. Esto sucedió en 1992, cuando Brown et al., utilizando un tratamiento de detergentes, lograron aislar la fase líquida-ordenada desde células epiteliales, la cual
efectivamente presentaba un enriquecimiento de colesterol. Hoy se tienen imágenes muy claras de células que presentan dominios líquido-ordenados y líquido-desordenados en coexistencia [18]. Mirando de nuevo nuestro ejemplo anterior, en el que presentamos la posibilidad de dominios en células motrices, se ha comprobado recientemente y de manera clara que la formación de dominios líquido-ordenados/líquido-desordenados es importante para la polarización de estas células [2]. Además, se ha demostrado que la extensión de la célula necesaria para generar tracción está formada por la fase líquida-ordenada y que, por otro lado, la entrada de virus diversos –entre ellos el catarro común y el VIH– se da a través de los dominios de fase líquida-ordenada [19]. Éstas son sólo algunas de las funciones descubiertas en los últimos años que involucran la formación de dominios de colesterol. Gracias a ellas se ha comprobado claramente que la formación de dominios es una característica intrínseca a la membrana plasmática de células eucariotas. > El origen evolutivo del colesterol De los tres dominios de seres vivos –Prokarya, Archaea y Eukarya– sólo las células eucariotas contienen esteroles con las mismas propiedades estructurales del colesterol [1]. A grandes rasgos, la diferencia evidente entre el dominio Eukarya y los otros es la enorme capacidad de las células eucariotas para formar sistemas multicelulares de alta complejidad. Esto se debe a que éstas presentan una mayor capacidad de diferenciación al compararlas con las células de los otros dos dominios. Por ejemplo, en el organismo humano existe una clara diversidad de células que definen espacialmente los diferentes órganos, y todas provienen del mismo ADN. Aunque las células procariotas tienen la capacidad de formar sistemas multicelulares en los que se pueden detectar funciones específicas asignadas a diferentes células, esta capacidad no es comparable con la habilidad que presentan las células eucariotas para formar sistemas complejos diversificados. La presencia de esteroles parece jugar un
papel importante en esta capacidad de diversificación [2]. En particular, argumentamos que la capacidad de los esteroles de promover la formación de dominios abre un cuello de botella evolutivo, que incrementa la capacidad de diversificación de las células eucariotas. Analicemos el trayecto evolutivo del colesterol para aclarar tales planteamientos. Los lípidos son posiblemente las moléculas orgánicas más antiguas de la Tierra. La vida apareció hace unos tres mil ochocientos millones de años, pero algunos esteroles importantes como el colesterol, el ergoesterol y el sitoesterol sólo aparecieron mil cuatrocientos millones de años más tarde, cuando se hicieron posibles las condiciones químicas para su síntesis gracias a la presencia de oxígeno molecular [1]. Hacia 1940, Konrad Bloch propuso una hipótesis basada en sus estudios bioquímicos sobre el camino de la síntesis del colesterol. Suponía que durante el tiempo de la evolución natural, se había venido seleccionando el colesterol por su capacidad de optimizar ciertas propiedades físicas de las membranas celulares con respeto a funciones biológicas desconocidas en ese momento [20]. En otras palabras, la secuencia temporal del sendero biosintético del colesterol en seres vivos actuales representa su secuencia evolutiva. Además, estudiando esta secuencia es posible clarificar la propiedad física que se pretende optimizar. Debido a estos estudios hoy se sabe que el lanosterol, que forma parte del sendero biosintético, constituye un “fósil viviente” en la evolución hacia el colesterol. Por lo tanto, comparando las propiedades físicas del lanosterol con el colesterol se puede inferir el comportamiento físico que se pretende optimizar de manera evolutiva. Figura 7. El proceso bioquímico de síntesis del colesterol puede ser visto como un diagrama de la evolución de la molécula de acuerdo a Konrad Block. La formación de la estructura de anillos se observa en la transformación de escualeno a lanosterol. El colesterol se forma al remover sistemáticamente tres grupos metil de la molécula de lanosterol con lo cual obtiene su estructura plana característica.
Diciembre 2006 | Hipótesis | 47
(b) En presencia de colesterol
T(ºC)
T(ºC) ld
15.0
ld
15.0
10.0
ld + lo
10.0 so
so + ld
so
5.0
5.0
0.0
0.0
0
10%
20%
Figura 8. Diagramas de fase determinados experimentalmente por resonancia magnética para un lípido modelo de la membrana celular en presencia de (a) lanosterol y (b) colesterol. En presencia de lanosterol se observan regiones sólida-ordenada (so), líquida-desordenada (ld) y una región de coexistencia (so + ld). Sólo en presencia de colesterol se observa la formación de fase líquidadesordenada (lo) [6].
La Figura 7 muestra el camino evolutivo del lanosterol al colesterol reconstruido principalmente por Block [1 y 20], el cual se inicia con la molécula lineal de escualeno, que empieza a mostrar una estructura cíclica característica de los esteroles. La oxidación del escualeno permite la evolución hacia el lanosterol que contiene tres grupos metil (-CH3), lo que hace que su superficie estructural sea más voluminosa y texturada que la del colesterol. Los pasos siguientes muestran cómo la pérdida de uno de los tres grupos metil ayuda a dar la forma aplanada a la molécula de colesterol. La forma plana del colesterol ayuda a aumentar la eficiencia con que la molécula interactúa con las cadenas lipídicas en la membrana, induciendo una alineación de las cadenas. Como consecuencia de esta alineación de cadenas se reduce la flexibilidad de la membrana a la vez que se provoca un incremento en su resistencia mecánica, lo cual presenta claras ventajas para un sis-
30%
0
tema multicelular eucariótico, en cuanto le ayuda a sobrellevar las tensiones mecánicas inducidas por el medio circundante [21 y 22]. Sin embargo, si comparamos la capacidad de incrementar la resistencia mecánica del lanosterol con la del colesterol, vemos que no hay una diferencia drástica que justifique la enorme preferencia que presentan las células eucariotas por el colesterol. En cambio, existe una propiedad física del colesterol en la membrana que no se observa en presencia de lanosterol: la capacidad de formar la fase líquida-ordenada. La Figura 8 presenta dos diagramas de fase de un lípido típico de la membrana celular en presencia de cantidades incrementales: (a) de lanosterol y (b) de colesterol [6]. A bajas concentraciones de esteroles ambos diagramas presentan las dos fases más típicas de la membrana: la líquida-desordenada y la sólida-ordenada. Al incrementar la cantidad de lanosterol se siguen observando las dos fases, hasta llegar a concentraciones altas de lanosterol. En cambio, al incrementar la concentración de colesterol se forma una tercera fase: la líquida-ordenada. Como mencionamos anteriormente, la presencia de esta fase líquida-ordenada es la que permite una coexistencia fisiológicamente útil de dominios. Así pues, la diferencia más evidente entre el lanosterol y el colesterol parece ser que este último puede generar un sistema
48 | Hipótesis | Apuntes científicos uniandinos | no. 8 | diciembre 2006
so + lo
10%
20%
fase líquida ordenada
(a) En presencia de lanosterol
30%
fisiológicamente útil de dominios en las membranas celulares. > La formación de la fase liquida-ordenada y la diversificación de las células eucariotas ¿Es posible explicar la mayor complejidad en los sistemas de células eucariotas por la propiedad que tiene el colesterol de formar dominios? La formación de dominios le otorga a la célula una nueva capacidad para organizarse, abriendo así una dimensión adicional de diversificación. Es importante notar que el colesterol no es estructuralmente esencial para la membrana; por lo tanto, se puede variar la concentración de colesterol desde cero hasta el nivel más alto que pueda aceptar la membrana, alrededor del 55% molar [23], sin que ésta presente fallas estructurales. Esto implica que el colesterol es regulable y, en consecuencia, diferentes células pueden presentar distintas concentraciones de colesterol dependiendo de sus necesidades. La Figura 8b muestra que en altas concentraciones de colesterol solamente está presente la fase líquida-ordenada; en cambio, en concentraciones intermedias coexisten dos fases y, por lo tanto, se forman dominios. Así, diferentes niveles de colesterol pueden generar distintas situaciones, que van desde una fase líquida-desordenada homogénea (lado izquierdo) hasta una fase líquida-ordenada homogénea (lado
Figura 9. Diagramas de fase de tres componentes. Cada lado del diagrama representa un eje composicional igual que el presentado en la Figura 8. Los círculos blancos representan la región donde existe sólo la fase liquida-ordenada. Los círculos rojos representan la zona donde coexisten las fases líquida-ordenada y líquida-desordenada. Se indica con flechas la composición lipídica representativa de la membrana plasmática de un eritrocito (glóbulo rojo) y de una plaqueta. A 37º C los dos tipos de célula se encuentran en la región de sólo fase líquida-ordenada. A 24º C las plaquetas entran a la región de coexistencia de fases y por lo tanto se espera la presencia de dominios. En el lado derecho de la figura se muestran vesículas unilamelares gigantes artificiales que simulan la composición para los eritrocitos y las plaquetas en las dos temperaturas. Se observa formación de dominios sólo en las vesículas gigantes que representan las plaquetas a 24º C. Veatch S, Keller S. 2005. DOPC/PSM/Chol and POPC/PSM/Chol Phase diagrams. Physical Review Letters 94: 148101
derecho), pasando por un amplio rango en el que se presentan dominios de diferentes proporciones [24]. Es evidente que esto genera un gran rango de posibilidades para la célula. Aunque la Figura 8b ilustra relativamente bien la formación de dominios en función de la concentración de colesterol, un diagrama de tres componentes –como se presenta en la Figura 9– es más representativo de la situación en la célula. Esto se debe a que, aunque la membrana plasmática presenta una composición compleja, los lípidos se pueden clasificar en lípidos de baja transición de fase, como lo representa popc en el ápice inferior izquierdo del triángulo de la figura, y lípidos de alta transición de fase, como lo representa esfingomielina en el ápice inferior derecho. El colesterol se encuentra en el ápice superior, y cualquier composición en este sistema de tres componentes se puede definir como una posición en el triángulo, diagrama que modela adecuadamente la situación real en la célula. Aunque varios grupos de investigación han tratado de definir correctamente la formación de domi-
nios, todavía existe la polémica acerca de la ubicación exacta de las fronteras [25, 26 y 27]. Se puede observar que todas las fases están representadas en el triángulo y que la presencia de dominios depende de la composición, teniendo en cuenta que la temperatura juega un papel muy importante en la ubicación de las diferentes regiones de coexistencia de fases. En la Figura 9 puede observarse que a 24ºC las regiones de coexistencia se han desplazado considerablemente. Procederemos ahora a analizar un ejemplo concreto a partir de estos diagramas de tres componentes. Los glóbulos rojos (o eritrocitos) y las plaquetas representan dos componentes sanguíneos con funciones claramente distintas. Los eritrocitos están encargados del transporte de oxígeno en el organismo a través de un proceso de intercambio que involucra hemoglobina y, por otro lado, las plaquetas están involucradas en el proceso de coagulación durante la respuesta inflamatoria. Tales diferencias funcionales entre eritrocitos y plaquetas se reflejan en su comportamiento físico. Los eritrocitos, por una
parte, son sistemas pasivos y estables que deben ser resistentes ante las variaciones de condiciones físicas en el medio sanguíneo, permitiendo que el sistema de intercambio de oxígeno en el organismo no se vea comprometido por variaciones fisiológicas o ambientales. Adicionalmente, los eritrocitos deben presentar resistencia mecánica durante su travesía en el sistema circulatorio, ya que deben resistir fuerzas cortantes que se presentan durante la circulación. Las plaquetas, por el contrario, deben ser altamente sensibles a bruscos cambios químicos o físicos que indiquen una situación de trauma, lo que les permite actuar rápidamente durante un proceso inflamatorio. Estas diferencias en comportamiento se ven reflejadas en el contenido de colesterol de la membrana plasmática que define las fases lipídicas predominantes. La membrana plasmática de los eritrocitos contiene niveles de colesterol por encima del 35% molar [28], lo que la coloca en el rango de fase líquida-ordenada en un cien por ciento, tanto a 37° C como a 24° C. Esto se puede observar en la Figura 9 en donde
Diciembre 2006 | Hipótesis | 49
la flecha superior muestra la composición del eritrocito sobre el triángulo de fases. Se observa que la composición del eritrocito se encuentra en la región de círculos blancos que representa un 100% de fase líquida-ordenada. Esto es adecuado para el comportamiento de los eritrocitos, pues les otorga alta resistencia mecánica sin que los cambios ambientales generen una respuesta significativa en la membrana con la formación de dominios. Por otra parte, la membrana plasmática de la plaqueta sólo contiene una concentración del 15% molar de colesterol [28], lo cual la ubica en un sector del diagrama de fases donde se espera la formación de dominios. Es interesante observar que la plaqueta sólo entra en el régimen de dominios –representado por los círculos negros– al reducirse la temperatura a 24º C. Las imágenes en el lado derecho de la Figura 9 son de membranas artificiales que simulan la composición de eritrocitos y plaquetas en las dos temperaturas. Es claro que la formación de dominios reflejada en la aparición de regiones oscuras en la superficie de las membranas artificiales, correspondiente a la coexistencia de fases, sólo ocurre en el caso de plaquetas a 24º C de temperatura. Se ha observado que las plaquetas se activan y comienzan el proceso de coagulación si se reduce la temperatura por debajo de 22º C [29], en correlación con la visualización de dominios microscópicos en su superficie. Al bajar la temperatura, la membrana plasmática entra en un régimen del diagrama de fases en el que se presenta coexistencia de la fase líquida-ordenada con la líquida-desordenada, activando la formación de dominios. Esto indica que la formación de dominios en la plaqueta humana funciona como un sistema de detección de condiciones ambientales, que puede participar en el proceso de coagulación al activar la plaqueta. Aunque existen diversos factores bioquímicos que participan en inducir la diferenciación entre eritrocitos y plaquetas, la regulación de los niveles de colesterol parece jugar un papel primordial en esta diferenciación, por lo menos al nivel de la membrana plasmática. Es claro que en la plaqueta esta membrana es altamente sensible a factores ambientales y, por lo tanto, puede actuar como sensor de condiciones externas durante la formación de dominios. Falta aún
por descifrar precisamente la forma como los dominios lipídicos participan en la activación de plaquetas humanas. Otro ejemplo ilustrativo del papel crítico que juega el colesterol en la diferenciación funcional de la membrana plasmática se da en el nivel intracelular con las células epiteliales [2]. Estas células forman uniones entre sí para generar una capa, relativamente impermeable a componentes iónicos y polares, encargada de separar el espacio intersticial celular y el medio externo en cavidades como el sistema gastrointestinal. Las células epiteliales presentan dos regiones claramente diferenciadas en sus membranas plasmáticas: la zona basolateral y la zona apical. En la zona basolateral se generan uniones entre célula y célula que sellan el sistema, evitando la fuga no controlada de diversos componentes. En contraposición, la zona apical está en contacto con el medio externo, y es en ella donde se dan procesos de transporte de nutrientes de manera controlada entre el exterior y el interior de la célula. Tal zona debe presentar una resistencia mecánica mayor al contacto con un ambiente hostil. La zona apical y la basolateral difieren drásticamente en la composición proteica y lipídica gracias al transporte de vesículas regulado por la formación de dominios lipídicos desde el aparato de Golgi. Las vesículas que surgen de dominios en fase líquida-ordenada son transportadas activamente hacia la zona apical, y en ellas se acumulan preferentemente las proteínas necesarias para la funcionalidad de dicha zona [2]. Por otra parte, las vesículas que surgen de la fase líquida-desordenada son transportadas activamente a la zona basolateral, y en ellas se acumulan las proteínas necesarias para las funciones de dicha zona. Adicionalmente, el enriquecimiento en colesterol de la zona apical ayuda a incrementar la resistencia mecánica de la membrana, una característica importante debido a las condiciones variantes del medio externo. Es claro que el colesterol –y especialmente el papel que éste tiene en la formación de dominios– es crucial en la diferenciación de estas células. > Conclusión ‘A lo largo de millones de años, a través del proceso evolutivo, la estructura química del colesterol se ha ido perfeccionando en pasos metabólicos bien definidos. Este lento proceso de optimización le ha otorgado las
50 | Hipótesis | Apuntes científicos uniandinos | no. 8 | diciembre 2006
propiedades fisicoquímicas que lo hacen esencial para el funcionamiento de las células eucariotas. La ventaja evolutiva que provee el colesterol no ha sido fácil de elucidar, y varias décadas de investigación biofísica no habían logrado esclarecer la función primordial que él desempeña. Sin embargo, en las últimas dos décadas ha salido a la luz una ventaja fisicoquímica clara: la capacidad que tiene el colesterol para regular la formación de dominios en las membranas plasmáticas. Predecesores evolutivos como el lanosterol, presentan algunas similitudes fisicoquímicas con el colesterol, como por ejemplo la capacidad de incrementar la resistencia mecánica de la membrana. No obstante, a diferencia del lanosterol, el colesterol es capaz de formar una fase lipídica adicional a las fases que tradicionalmente presentan las membranas celulares que no contienen colesterol, como por ejemplo las bacteriales. Esta fase lipídica, líquida-ordenada, participa en la formación de dominios lipídicos, otorgándole a la célula una dimensión organizacional adicional, independiente y regulable que incrementa efectivamente la capacidad de diferenciación y complejidad en los sistemas de células eucariotas. La fase líquidaordenada es fluida, lo cual es esencial para el funcionamiento celular, y su presencia es regulable con base en los niveles de colesterol presentes en la célula. Lo anterior nos permite afirmar que el colesterol le otorga a las células eucariotas una plasticidad funcional que les permite cumplir diferentes tareas complejas que van mas allá de la capacidad que presentan las células procariotas. Sin ignorar otros factores importantes de las células eucariotas, como son la presencia de organelos y del núcleo celular, parece evidente que el colesterol juega un papel esencial en incrementar la capacidad de complejidad de tales células. Podríamos decir, entonces, que el colesterol ha abierto un cuello de botella evolutivo, rompiendo con restricciones termodinámicas que aletargaban la formación de sistemas diferenciados de alta complejidad. Para finalizar, cabe notar que nuestro entendimiento de la función del colesterol en la célula nos abre una ventana en la comprensión detallada de la enorme capacidad de los sistemas vivientes para generar mecanismos moleculares novedosos, con el fin de incrementar su nivel de complejidad y flexibilidad.
> Referencias [1] Mouritsen OG. 2005. Life as a matter of fat, the emerging science of lipidomics. Berlin: Springer. [2] Simons K, Ikonen E. 1997. Functional rafts in cell membranes. Nature 387 (5): 569-572. [3] Toth PP. 2005. The “good cholesterol” high-density lipoprotein. Circulation, Journal of the American Heart Association 111: 89-91. [4] Spin J, Atkinson D. 1995. Cryoelectron microscopy of low density lipoprotein in vitreous ice. Biophysical Journal 68: 2115-2123. [5] Philips J, Wriggers W, Li Z, Jonas A, Schulten K. 1997. Predicting the structure of apolipoprotein A-I reconstituted high-density lipoprotein disk. Biophysical Journal 73: 2337-2346. [6] Miao L, Nielsen M, Thewalt J, Ipsen JH, Bloom M, Zuckermann MJ, Mouritsen OG. 2002. From lanosterol to cholesterol: Structural evolution and differential effects on lipid bilayers. Biophysical Journal 82: 1429-1444. [7] Arrondo J, Goñi F. 1998. Infrared studies of protein-induced perturbation of lipids in lipoproteins and membranes. Chemistry and Physics of Lipids 96: 53-68. [8] Singer SJ, Nicolson GL. 1972. The fluid mosaic of the structure of cell membranes. Science, New Series 175 (4023): 720-73. [9] Vereb G, Szöllösi J, et al. 2003. Dynamic, yet structured: The cell membrane three decades after the Singer-Nicolson model. Proceedings of the National Academy of Sciences 100 (14): 8053-8058. [10] Ocampo HJ, Vives M, Moreno JC, Leidy C. 2007. Liquid-disordered/ solid-ordered phase coexistence in Escherichia coli and Staphylococcus aureus and their sensitivity to phospholipase A2: An FTIR study. En 51th Annual Biophysical Society Meeting, Baltimore. [11] Leidy C, Wolkers W, Jorgensen K, Mouritsen OG, Crowe J. 2001. Lateral organization and domain formation in a two-component lipid membrane system. Biophysical Journal 80: 1819-1828.
[12] Leidy C, Kaasgaard T, Crowe J, Mouritsen OG, Jorgensen K. 2002. Ripples and the formation of anisotropic lipid domains: Imaging two-component supported double bilayers by atomic force microscopy. Biophysical Journal 83: 2625-2633. [13] Silvius JR. 2003. Role of cholesterol in lipid raft formation: Lessons from lipid model systems. Biochimica et Biophysica Acta 1610: 174-183. [14] Gaus K, Gratton E, Kable E, et al. 2003. Visualizing lipid structure and raft domains in living cells with two-photon microscopy. Proceedings of the National Academy of Sciences 100 (26): 1555415559. [15] Tomczak M, Hincha D, Estrada S, et al. 2002. A mechanism for stabilization of membranes at low temperatures by an antifreeze protein. Biophysical Journal 82: 874-881. [16] Ahmed SN, Brown DA, London E. 1997. On the origin of sphingolipid-cholesterol rich detergent-insoluble cell membranes: Physiological concentrations of cholesterol and sphingolipid induce formation of a detergent-insoluble liquidordered lipid phase in model membranes. Biochemestry 36 (36): 10944-10953. [17] Vist MR, Davis JH. 1990. Phase equilibria of cholesterol/dipalmitoyl phosphatidylcholine mixtures: 2H nuclear magnetic resonance and differential scanning calorimetry. Biochemistry 29: 451-464. [18] Brown DA, Rose JK. 1992. Sorting of GPI-anchored proteins to glycolipidenriched membrane subdomains during transport to the cell surface. Cell 68: 533-544. [19] Chazal N, Gerlier D. 2003. Virus entry, assembly, budding, and membrane rafts. Microbiology and Molecular Biology Reviews: 226-237. [20] Vance DE, Van den Bosch H. 2000. Cholesterol in the year 2000. Biochimica et Biophysica Acta 1529: 1-8. [21] Henriksen J, Rowat AC, et al. 2006. Universal behavior of membranes with sterols. Biophysical Journal 90: 1639-1649. [22] Henriksen JR, Rowat AC, Ipsen JH. 2004. Vesicle fluctuation analysis of the effects of sterols on membrane bending rigidity. European Biophysics Journal 33: 732-741.
[23] Huang J, Feigenson GA. 1999. Microscopic interaction model of maximum solubility of cholesterol in lipid bilayers. Biophysical Journal 76: 2142-2157. [24] Brown DA, London E. 1998. Structure and origin of ordered lipid domains in biological membranes. Journal of Membrane Biology 164: 103-114. [25] Almeida R, Fedorov A, Prieto M. 2003. Sphingomyelin/ phosphatidylcholine/cholesterol phase diagram: Boundaries and composition of lipid rafts. Biophysical Journal 85 (4): 2406-2416. [26] Veatch S, Keller S. 2003. Separation of liquid phases in giant vesicles of ternary mixtures of phospholipids and cholesterol. Biophysics Journal 85 (5): 3074-3083. [27] Veatch S, Keller S. 2005. Seeing spots: Complex phase behaviour in simple membranes. Biochimica et Biophysica Acta 1746:172-185. [28] Leidy C, Gousset K, et al. 2004. Lipid phase behavior and stabilization of domains in membranes of platelets. Cell Biochemistry and Biophysics 40: 123-148. [29] Tsvetkova N, Walker N, Crowe J, et al. 2000. Lipid phase separation correlates with activation in platelets during chilling. Molecular Membrane Biology 17: 209-218.
> Reseña de los autores Chad Leidy Ph.D. cleidy@uniandes.edu.co Profesor Asistente, director del grupo de Biofísica, Departamento de Física, Universidad de los Andes; Postdoctorado en el grupo de Biofísica de Membranas, MEMPHYS Universidad Técnica de Dinamarca, Lyngby, Dinamarca. Ph.D. en Biofísica de la Universidad de California, Davis. Físico de la Universidad de California, Davis Carola Hernández H. c-hernan@uniandes.edu.co Física de la Universidad de los Andes. Magíster en educación Universidad de los Andes y profesor asistente del CIFE (Centro de Investigación y Formación en Educación). Actualmente estudiante de la Maestría en Física en la Universidad de los Andes.
Dominios de fases, visualizados con un microscopio de fuerza atómica que genera imágenes topográficas “al tacto”
> Facultad de Ciencias Áreas de Investigación
- Departamento de Ciencias Biológicas - Biología Molecular Marina. - Bioquímica. - Bioquímica de parásitos. - Botánica y sistemática. - Diagnóstico molecular y bioinformática. - Ecología animal y primatología. - Ecofisiología del comportamiento y herpetología. - Fisiología vegetal. - Fitopatología y micología médica. - Genética humana. - Genética de poblaciones. - Microbiología y alimentos. - Microbiología molecular ambiental. - Parasitología tropical. - Zoología y ecología acuática.
Departamento de Física - Física de la materia condensada (teórica, experimental). - Física de altas energías (teórica). - Astrofísica. - Mecánica cuántica y física de la información. - Biofísica.
Departamento de Matemáticas - Álgebra, lógica, combinatoria y computación teórica. - Ecuaciones diferenciales, análisis funcional y análisis numérico. - Geometría diferencial y su aplicación a la física teórica. - Topología. - Metodología de la enseñanza de matemáticas. - Probabilidad, procesos estocásticos, estadística, optimización y control.
Departamento de Química - Ciencias agroalimentarias, fitoquímica y aromas. - Electroquímica y materiales poliméricos. - Fluidos supercríticos. - Hidrología y química del medio ambiente. - Nuevos materiales. - Procesos de oxidación avanzada. - Química bioorgánica. - Química de la interfase inorgánica-orgánica. - Reología de polímeros. - Sólidos porosos y calorimetría. - Termodinámica de soluciones.
Actividades
> Departamento de Ciencias Biologicas
Decanatura Rubén Darío Cordero Alarcón, estudiante de maestría en Ciencias Biológicas, área Biología, quien presentó el proyecto “Determinación de la concentración de metales pesados en truchas (Salmo trutta, Almoniformes: Salmonidos) del Lago de Tota, Boyacá-Colombia”, avalado por el profesor Emilio Realpe, fue el ganador del VII Foro para la Presentación de los Resultados de Proyectos de Investigación financiados en la Convocatoria del primer semestre de 2006. Éste se llevó a cabo del 27 al 29 de septiembre de 2006. La valoración de los trabajos presentados por los estudiantes fue realizada por un comité evaluador conformado por profesores de nuestra facultad.
CIMPAT: Centro de Investigaciones en Microbiología y Parasitología Tropical.
En el marco de las conferencias divulgativas de la Facultad de Ciencias, se presentaron durante el segundo semestre de 2006 las siguientes charlas: • La historia geológica del bosque neotropical. Conferencista: Carlos Jaramillo, Ph.D. del Smithsonian Tropical Research Institute. Invitado por el Departamento de Ciencias Biológicas. Agosto de 2006. • La Universidad de los Andes en la era de la genómica y la bioinformática. Conferencistas: Silvia Restrepo, Ph.D., y Lope Andrés Flórez, Departamento de Ciencias Biológicas. Septiembre de 2006. • Catastrophe Theory. Conferencista: Mikhail Malakhaltsev, Ph.D. de Kazan State University, Kazan, Rusia. Profesor Silla Sanford, Departamento de Matemáticas. Octubre de 2006. • Quarks, Leptones… ¿Qué es todo eso? Conferencista: Javier Magnin, Ph.D. Brazilian Center for Physics Research. Profesor Silla Sanford, Departamento de Física. Noviembre de 2006.
El profesor Felipe Guhl, director del cimpat, fue invitado en noviembre por la Comisión Europea a participar como conferencista en la International Conference on Neglected Diseases, así como en una mesa redonda cuyo objetivo era establecer las pautas para la cooperación científica en relación con este tema entre la Unión Europea y los países en vías de desarrollo durante el período 2007-2013.
LDMB: Laboratorio de Diagnóstico Molecular y Bioinformática. Durante el primer semestre académico del 2007 ha tenido lugar el curso de inmunología molecular en cooperación entre las universidades de Yale y del Valle, el CIDEIM y la Universidad de los Andes. El curso organizado por el LDMB se ha llevado a cabo entre el 23 de enero y el 15 de mayo, y ha contado con la asistencia de conferencistas y moderadores nacionales e internacionales.
Laboratorio de Genética Humana. La profesora Helena Groot organizó el Primer curso Colombiano de Evaluación del Riesgo Genético en Poblaciones Humanas, con la participación del doctor Stefano Bonsái y el apoyo de COLCIENCIAS del 22 al 26 de mayo de 2006. Por otra parte, del 28 al 31 de agosto de 2007 se llevará a cabo el VII Congreso Latinoamericano de Mutagénesis, Carcinogénesis y Teratogénesis Ambiental y el I Congreso Colombiano de Mutagénesis y Carcinogénesis bajo el nombre colectivo de Genes, Ambiente y Salud, en el hotel Hilton de Cartagena de Indias. Para mayor información escriba a la dirección ghumana@uniandes.edu.co o a geneticahumana@uniandes.edu.co.
Congreso de Zoología LAMFU: Laboratorio de Micología y Fitopatología Uniandes. La Universidad de los Andes –más específicamente los laboratorios LEMA y LAMFU– está organizando, junto con las universidades Javeriana y Jorge Tadeo Lozano, el VI Simposio Latinoamericano de Biodeterioro y Biodegradación. Informes en la página web http:// www.6labs2007.com. Asimismo, se está organizando, para el mes de junio, un curso teórico-práctico sobre la identificación de hongos Ascomycetes y Deuteromycetes, dictado por la profesora María Caridad de García.
BBMP: Grupo de investigación en bioquímica y biología molecular de parásitos. Myriam Andrea Hortúa Triana, estudiante de doctorado, y Manuel Garavito, estudiante de pre-grado, participaron en la International Conference on Arginine and Pyrimidines, ICAP 2006, que se realizó del 17 al 20 de agosto de 2006 en Lund, Suecia. Myriam Andrea Hortúa Triana hizo una presentación titulada Immunolocalization of Two Enzymes of the Pyrimidine Biosynthetic Pathway in Toxoplasma Gondii. El grupo BBMP agradece el apoyo del Banco de la República y de la Facultad de Ciencias de la Universidad de los Andes. La doctora Valérie Verdier fue nombrada profesora adjunta del Departamento de Ciencias Biológicas por dos años, comenzando el 1 de septiembre de 2006. Además, los doctores María Mercedes Torres Carvajal y Jorge Alberto Molina Escobar se vincularon al departamento como profesores de planta a partir de enero de 2007. > Departamento de Física El Premio TWAS, correspondiente al año 2006, que otorga a científicos jóvenes colombianos la Academia Colombiana de Ciencias Exactas, Físicas y Naturales en el área de física, fue concedido al doctor Gabriel Téllez. Durante sus siete años de vinculación al departamento, el doctor Téllez ha demostrado una gran eficiencia y compromiso en los ámbitos de la investigación, la docencia y la administración. Pertenece
al Grupo de Física de la Materia Condensada y ha liderado la línea de investigación de materia condensada suave (soft condensed matter). En este corto periodo de tiempo ha publicado un gran número de artículos en revistas internacionales y un libro que ha sido de mucha ayuda para los estudiantes de pre-grado y postgrado. Mantiene una activa colaboración con Francia desde que finalizó sus estudios doctorales y ha dirigido varias tesis de pre-grado y postgrado con mucho éxito. El premio fue entregado el 23 de agosto de 2006.
ciembre de 2006. Adicionalmente, el Comité de Ordenamiento Profesoral de la Universidad, otorgó el 4 de octubre la promoción a Profesor Titular a Gabriel Téllez, tras considerar sus valiosos aportes al Departamento.
El Premio Elizabeth Grose a la Investigación Distinguida de la Facultad de Ciencias, le fue conferido al profesor Luis Quiroga Puello el pasado jueves 13 de diciembre de 2006.
> Departamento de Química
El Premio Nobel de Física 2006 fue otorgado a John Mather y George Smooth por los resultados del experimento cobe: “Blackbody Form and Anisotropy of the Cosmic Microwave Background Radiation”. Éste fue un trabajo realizado por un equipo de más de mil personas, entre las cuales figuró Sergio Torres, profesor del Departamento de Física de la Universidad de los Andes. Durante parte del tiempo en que tuvo lugar la toma de datos del satélite cobe y durante su análisis y publicación, Torres ejercía como profesor del departamento. Hubo, además, mediciones complementarias con antenas puestas en tierra. Una de ellas, la antena de George Smooth, fue traída desde la universidad de Berkeley a Villa de Leyva y después llevada a la Antártica. Estudiantes de la Universidad de los Andes participaron en las mediciones de la contaminación electromagnética en el rango de frecuencias de interés –lo que contribuyó a la elección de Villa de Leyva– y luego en el proceso de medición con dicha antena. Las antenas para las mediciones iniciales fueron construidas en el laboratorio del departamento, con asesoría del Departamento de Ingeniería Eléctrica. El profesor Javier Edgardo Magnin del Centro Brasileiro de Pesquisas Físicas, estuvo como profesor Silla Sanford en el Departamento de Física durante los meses de septiembre y di-
>Departamento de Matemáticas Del 15 al 19 de mayo de 2006 se llevó a cabo la exposición La geometría en el diseño, en homenaje al Día del Maestro, bajo la responsabilidad del profesor Jacinto Eloy Puig.
El Departamento de Química recibió sus primeras dos cohortes de estudiantes para el programa de pre-grado en Química durante el año 2006, continuando así su proceso de fortalecimiento de la docencia y la investigación en la Universidad. Durante el segundo semestre de este año se recibieron las visitas de los doctores Wolfram Baumann, de la Universidad Johannes Gutemberg (Maguncia, Alemania), y Karim Sapag, de la Universidad Nacional de San Luis (Argentina). El Profesor Baumann intercambió ideas con varios profesores del Departamento, en temas relacionados con los proyectos de investigación que ellos adelantan. En el marco del convenio existente con el DAAD, se definieron las fechas en las que tres profesores del departamento realizarán pasantías en la Universidad Johannes Gutemberg en 2007. El profesor Sapag realizó dos visitas durante el segundo semestre, durante las cuales participó activamente en los trabajos que adelanta el Grupo de Investigación en Sólidos Porosos y Calorimetría que dirige el profesor Juan Carlos Moreno. Los profesores Edgar F. Vargas y Juan Carlos Moreno fueron nominados a los premios de la Facultad de Ciencias Aldona Gabriunas a la Docencia Distinguida y Elizabeth Grose a la Investigación Distinguida, respectivamente. Adicionalmente, el Profesor Edgar F. Vargas E. fue promovido a la categoría de Profesor Asociado.
Graduandos de MaestrĂa y Doctorado Facultad de Ciencias Septiembre de 2006
ISSN 1692-729X > N o. 08 > DICIEMBRE DE 2006 > UNIVERSIDAD DE LOS ANDES > FACULTAD DE CIENCIAS
Apuntes científicos uniandinos
> Pág. 10.
El quinto postulado de Euclides > Pág. 28. Diagnóstico
molecular delcáncer hereditario de tiroides > Pág. 38. El colesterol, una molécula con mala reputación