SUPLEMENTO DE CAMBIO DE MICHOACÁN CAMBIO DE MICHOACÁN | C I E N C I A R I O | 16 DE SEPTIEMBRE DE 2 0 14 | 1 PARA LA DIVULGACIÓN DE TEMAS CIENTÍFICOS Y TECNOLÓGICOS PREMIO ESTATAL DE DIVULGACIÓN 2013 EDITOR: RAÚL LÓPEZ TÉLLEZ ixca68@hotmail.com MARTES 16 DE SEPTIEMBRE DE 2014 NÚMERO 546 APARECE LOS MARTES www.cambiodemichoacan.com.mx
..................................................................................................................................................................................
Idos pero no olvidados
«La historia natural que acontece a la vida está llena de eventos catastróficos en los cuales se han producido numerosas extinciones, y precisamente en un evento de una extinción a gran escala ocurrido alrededor de 250 millones de años en el pasado, la vida estuvo a punto de ser erradicada en la peor catástrofe ocurrida sobre la Tierra en toda su historia»
David Tafolla Venegas La historia del fenómeno biológico de la vida ocurre más allá de lo que alcanzamos a recordar, de lo que cualquier linaje animal pudiera recordar. La primigenia manifestación de la vida en la Tierra se remonta a poco más de tres mil millones de años, y a partir de entonces este fenómeno se ha mantenido y diversificado en multitud de formas y estilos adaptativos a los ambientes que el planeta ha ofrecido. No obstante, los humanos percibimos a la vida como algo inmutable y constante en sus manifestaciones pero no es así; la historia natural que acontece a la vida está llena de eventos catastróficos en los cuales se han producido numerosas extinciones, y precisamente en un evento de una extinción a gran escala ocurrido alrededor de 250 millones de años en el pasado, la vida estuvo a punto de ser erradicada en la peor catástrofe ocurrida sobre la Tierra en toda su historia. El evento al cual me refiero es la extinción masiva llamada Pérmico-Triásico, evento que marcó, incluso, el fin de la Era Paleozoica y el inicio de la Mesozoica. En un tiempo se pensó que había ocurrido una serie de extinciones de diversas especies tanto animales como vegetales muy seguidas a lo largo de algunos millones de años, pero nuevas evidencias apuntan que no fue así, que lo que en realidad pasó fue un cataclismo que desencadeno la rápida extinción de casi todas las formas de vida (hasta el 95 por ciento de las especies marinas desapareció y sobre la tierra un poco más del 70 por ciento) en un periodo de tiempo que duró menos de un millón de años; en una escala de tiempo geológico quiere decir que en un abrir y cerrar de ojos el planeta se quedó prácticamente despoblado. En la crisis del Pérmico-Triásico muchos linajes de animales fueron cercenados para siempre, quedando sólo sus recuerdos impresos en rocas. De los animales invertebrados más representativos que
ESPECIAL
Blastozoos, en una recreación gráfica.
PÁGINA 4
.. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. ..
EL AVE FENIX DE LAS EXTINCIONES PÁGINA 4
.. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. ..
LAS MAYORES EXTINCIONES BIOLÓGICAS PÁGINAS 5
.. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. ..
LA DEUDA DE LA NEUROCIENCIA PÁGINA 6
2 | 16 DE SEPTIEMBRE DE 2 0 14 | C I E N C I A R I O | CAMBIO DE MICHOACÁN
REVIST A REVISTA En el país la investigación en biotecnología, disciplina donde se desarrollan los cultivos mejorados genéticamente, se enfrenta a un sinnúmero de trabas y reglamentaciones que le impiden llegar al mercado En México hay diversos centros de investigación, como el Laboratorio Nacional de Genómica para la Biodiversidad (Langebio), del Centro de Investigación y de Estudios Avanzados del Instituto Politécnico Nacional, donde se mejoran genéticamente semillas y plantas con la finalidad de que sean más eficientes para un cultivo intensivo. Sin embargo, no llegan a comercializarse. Luis Herrera Estrella, director del Langebio, explicó que en México las leyes en la materia son muy rigurosas y es muy costoso aprobar un organismo genéticamente modificado (OGM) para que se pueda comercializar. De entrada sí se puede experimentar dentro de un laboratorio o un invernadero, pero no se permiten hacer pruebas de campo, «si no se experimenta a cielo abierto no se sabe a qué problemas se enfrenta el desarrollo tecnológico en las condiciones reales donde se cultivará porque puede que no funcione por la luz ultravioleta, la temperatura, la humedad, etcétera», destacó el especialista. El integrante de la Academia Mexicana de Ciencias añadió «cuando se hace un descubrimiento, éste se patenta, pero se tienen que conseguir los recursos económicos para patentarlo porque las instituciones públicas no tienen dinero. Una vez que se tiene la patente hay que licenciarla para iniciar una empresa. Las autoridades mexicanas para dar el permiso piden una serie de análisis químicos y moleculares muy costosos». Por ejemplo, el desarrollo transgénico no debe contener elementos antinutricionales ni alergénicos y aprobar pruebas de toxicidad. Se tienen que hacer experimentos con diversos animales como ratones, conejos, borregos, etcétera. Aunado a ello se debe explicar qué le pasará a los insectos, a las bacterias, a
la maleza en el terreno bajo diferentes contextos. «Para poder sacar un producto resistente a las plagas al mercado necesito sacar 100 líneas y probarlas todas. En Estados Unidos y otros países permiten probarlas y cuando funcione una, esa se analiza. En México se pide que se analicen las 100 aunque no sepas si sirven o no. Si me cuesta tres mil dólares analizar una línea, las 100 me costarían 300 mil dólares», agregó. No hay institución que pueda financiar esas pruebas, a menos que sea una empresa privada la que lo pague.
Transgénicos, los retos en México Luz Olivia Badillo | DGDC-UNAM | AMC
Temor infundado
ESPECIAL
«Una vez que se tiene la patente hay que licenciarla para iniciar una empresa. Las autoridades mexicanas para dar el permiso piden una serie de análisis químicos y moleculares muy costosos»
Se ha difundido la idea de que consumir los OGM puede causar enfermedades como el cáncer; sin embargo, no existen pruebas concluyentes que lo demuestren. Los OGM llevan 30 años en el mercado y en México no es la excepción, pese a que un juez federal en 2013 emitió una medida precautoria que ordena no otorgar permisos a transnacionales
CAMBIO DE MICHOACÁN | C I E N C I A R I O | 16 DE SEPTIEMBRE DE 2 0 14 | 3
REVIST A REVISTA como Monsanto, Pioneer, Syngenta y Dow AgroSciences para la siembra de maíz transgénico experimental, piloto y comercial en el país, importamos éste y otros granos. En el periodo 20132014 México importó trece millones 766 mil toneladas de productos agrícolas transgénicos. De ese total, 56.7 por ciento fue maíz; también importamos tres millones 450 mil toneladas de soya, un millón 480 mil toneladas de canola y un millón 36 mil toneladas de algodón, de acuerdo con la declaración que dio para El Economista el 25 de agosto de 2014 Adriana Otero, analista del Departamento de Agricultura de Estados Unidos. El académico mexicano Luis Herrera considera que el principal temor de la sociedad es que empresas como Monsanto monopolicen la venta de semillas genéticamente modificadas; sin embargo, «Monsanto ya monopolizó la venta de semillas tradicionales desde hace 20 años. El 90 por ciento de la semilla certificada que se utiliza en este país la venden dos empresas: Monsanto 80 por ciento y Pioneer 20 por ciento, se trata de las semillas para sembrar maíz, tomate, chile, brócoli y coliflor. Las empresas semilleras mexicanas no controlan ni el cinco por ciento del mercado», comentó. Ante este escenario, el investigador, quien es pionero en el mundo en ingeniería genética, propuso como alternativa a nuestra dependencia alimentaria de otros países que: «Apoyemos los programas nacionales para que tengamos nuestras empresas productoras y distribuidoras. Si se asignara el dos por ciento de los 44 mil millones de pesos que se destinaron este año a Proagro (que antes se llamaba Procampo), tendríamos suficiente». | Academia Mexicana de Ciencias
Diversos compuestos sintetizados de forma natural por microorganismos y plantas podrían ser utilizados como drogas o fármacos. Algunos ejemplos son los antibióticos como la penicilina, antiparasitarios como la ivermectina, inmunosupresores como la ciclosporina y anticancerígenos como el taxol
Las señales químicas de las plantas Noemí Rodríguez González El proceso de producción y liberación de compuestos químicos por parte de organismos vivos afecta significativamente las condiciones del medio ambiente e influye sobre el crecimiento, la salud y la conducta de las plantas, animales y microorganismos que entran en contacto con ellos, afirmó la doctora Ana Luisa Anaya Lang. La investigadora del Instituto de Ecología de la Universidad Nacional Autónoma de México (UNAM), explicó que los compuestos producidos por plantas, microorganismos y animales, que determinan las relaciones químicas entre unos y otros, reciben el nombre de metabolitos secundarios, los que a su vez pueden recibir el nombre de infoquímicos, aleloquímicos, alelopáticos, feromonas o semioquímicos, dependiendo del papel ecológico que desempeñen. Los organismos producen estos metabolitos por las mismas vías a través de las cuales producen sus compuestos primarios como los carbohidratos, grasas y proteínas, sólo que en las vías metabólicas secundarias intervienen enzimas que son exclusivas de este proceso. Algunas de las moléculas que tienen un papel alelopático en la naturaleza han tenido en ocasiones un uso benéfico para los seres humanos, comentó la especialista integrante de la Academia Mexicana de Ciencias, ya que todos los metabolitos secundarios se caracterizan por su bioactividad (que tienen efectos en células vivas), y ésta ha sido aprovechada, particularmente las
que se originan en algún tipo de plantas para combatir ciertas enfermedades. Algunos compuestos sintetizados por microorganismos y plantas son utilizados directamente como drogas o fármacos. Algunos ejemplos son los antibióticos como la penicilina, antiparasitarios como la ivermectina, inmunosupresores como la ciclosporina y anticancerígenos como el taxol. Los resultados de las investigaciones sobre ecología química o alelopatía proporcionan información sobre aquellos metabolitos con potencial para el desarrollo de nuevas drogas, o bien de herbicidas, insecticidas y microbicidas de origen natural. Potencial alelopático Para identificar si una planta produce compuestos alelopáticos y saber de qué manera se liberan y emiten señales químicas que pueden ser positivas o negativas para otra planta u otro organismo, la doctora Ana Luisa Anaya primero investiga el órgano de la planta donde se producen y liberan las sustancias de interés, este procedimiento se realiza en el Laboratorio de Alelopatía. Las plantas que se van a investigar se colectan con criterios ecológicos: se observa si crecen en poblaciones donde no existe ninguna otra especie de planta o si bajo su sombra no existe crecimiento de otras especies. Para ilustrar cómo se realizan estos estudios, la doctora Anaya Lang explicó que el material vegetal se colecta por separado (hojas, raí-
ces, corteza, flores, semillas) y se pueden hacer pruebas con muestras frescas o secas al aire. Con cada órgano vegetal se preparan soluciones acuosas, remojándolos durante tres horas en agua con el fin de que se liberen los compuestos que contiene (a este procedimiento se le conoce como lixiviación), esto se hace con la intención de imitar lo que sucede en la naturaleza cuando llueve, ya que el agua lava los compuestos alelopáticos de diferentes partes de las plantas, de las hojas, de la raíz o de la hojarasca que ha caído y está en descomposición. El lixiviado se mezcla con un medio de cultivo que puede ser papa-dextrosaagar (PDA) para obtener una solución de prueba; esta solución se vacía en cajas de Petri (recipiente redondo de cristal o plástico) y una vez preparadas, se siembran en cada una diez o quince semillas blanco (dependiendo del tamaño). Las condiciones que las semillas deben cumplir para ser consideradas como «blanco» son que presenten una alta y rápida germinación. Paralelamente, se preparan cajas de Petri que contienen PDA sin lixiviado y en ellas se coloca el mismo número de semillas que en las cajas con el tratamiento para que sirvan como controles para hacer la comparación con las primeras. Estas pruebas se repiten de cinco a diez veces por cada uno de los procedimientos, siguiendo un diseño estadístico al azar. Todas las cajas de Petri se colocan dentro de una estufa a temperatura controlada (27
grados centígrados) en la oscuridad. Después de 24, 48 o 72 horas, dependiendo de la velocidad de germinación de la especie de semilla blanco, se mide el número de semillas germinadas y la longitud de las raíces de las semillas que germinaron en cada procedimiento. Si a través de estos bioensayos in vitro se comprueba que la planta produce compuestos alelopáticos, el paso siguiente es aislar e identificar la parte de la planta que mostró el potencial alelopático, además del metabolito o la mezcla de metabolitos responsables de este efecto y para ello se utilizan diversos solventes orgánicos como metanol, acetato de etilo, cloroformo, diclorometano o hexano. Paralelamente se puede llevar a cabo un estudio in vivo para observar el efecto alelopático de la planta, mediante la siembra conjunta de ésta con una planta blanco en macetas con suelo en el invernadero, o bien sembrando a la planta blanco y añadiendo al suelo la planta alelopática como cobertura vegetal o composta verde o seca. En este tipo de experimentos se puede obtener mayor información de las interacciones entre las dos especies de plantas, dividiendo el experimento en dos bloques, uno donde el suelo se utiliza, tal como se colectó para ponerlo en las macetas, y el otro donde este mismo suelo se utiliza estéril. Los metabolitos secundarios que las plantas liberan al ambiente no llegan a un medio estéril y sin actividad química. | Academia Mexicana de Ciencias.
4 | 16 DE SEPTIEMBRE DE 2 0 14 | C I E N C I A R I O | CAMBIO DE MICHOACÁN
El Ave Fénix «Retoñarán aladas de savia sin otoño, / reliquias de mi cuerpo que pierdo en cada herida.» – Poema de Miguel Hernández La vida como la conocemos en la Tierra puede parecer en ocasiones frágil, sobre todo si pensamos en nosotros mismos, pero cuando pensamos en la vida en general tenemos que reconocer que ha resultado bastante fuerte, persistente, ubicua y muchos calificativos más. Si nos ponemos a investigar la historia de la vida, como la han descubierto los geólogos, biólogos y otros especialistas, nos daremos cuenta que hubo épocas en que la vida casi se extinguió, un gran porcentaje de las especies desaparecieron, pero cada vez surgieron otras nuevas que volvieron a dominar los mares y los continentes. Un criterio señalado para el posible surgimiento y mantenimiento de la vida, ya sea en los cuerpos del Sistema Solar o en los correspondientes a otras estrellas, es la existencia de agua líquida. La razón parece obvia, dada la abundancia de agua en los tejidos de los seres vivos. En el hombre adulto el 75 por ciento del peso corporal es agua. El agua líquida, contrariamente a la sólida, es muy buen sol-
de las extinciones Cuauhtémoc Sarabia Martínez vente, permite el movimiento y las reacciones químicas y energéticas entre los compuestos vitales: proteínas, lípidos, carbohidratos. Algunas propiedades físicas del agua benefician a la vida, por su contribución para moderar la temperatura. El cambio de estado de líquido a sólido y viceversa, implica el flujo de mucha energía (calor latente), lo que explica que al producirse un cambio en la energía radiante que se recibe del Sol, el efecto en la temperatura del planeta se produce sólo a largo plazo. El hielo y las nubes (formadas de pequeñas gotas de agua), son de color blanco, reflejan en gran medida la luz y el calor que reciben del Sol y esto también tiene un efecto regulador. El equilibrio delicado y frágil de las condiciones que sustentan la vida, se ha visto afectado en varias ocasiones, de manera rápida, y muchas especies y familias enteras de organismos han sido llevados a la extinción, al no poderse generar por los mecanismos de la evolución organismos capaces de resistir los cambios. En varios de los eventos el origen
ha sido el enfriamiento del planeta. Muchos especialistas han encontrado evidencias que cuando menos en tres ocasiones, se produjeron macro-glaciaciones, en las que el hielo de los polos llegó prácticamente hasta el ecuador. A estos eventos los han llamado «bola de nieve». El más reciente de estos fenómenos se produjo hace 650 millones años. El origen pudo haber sido una reducción del flujo de energía desde el Sol, las zonas de hielo de latitudes altas aumentaron su extensión, reflejaron más calor hacia el espacio y el efecto se intensificó. En otros eventos el origen de las extinciones masivas se ha atribuido al impacto de pequeños cuerpos celestes (asteroides). A las velocidades típicas de estos cuerpos (10 a 30 Km. / seg) la energía de impacto es mucho mayor que si estuvieran hechos de dinamita. Los de gran tamaño arrojan al espacio cercano enormes cantidades de material incandescente y vapor de agua (si impactan en el océano), de manera que al volver a caer todo ese material arra-
sa con la vegetación, con los animales y cubren el planeta con nubes densas de polvo humo y agua, que impiden que la luz y el calor solar lleguen a la superficie terrestre. Como lo explicaran mis compañeros de Cienciario, se tienen bien estudiadas dos extinciones masivas por impactos, una ocurrió hace 250 millones de años, llamada P-T entre los periodos Pérmico y Triásico, que extinguió al 95 por ciento de las especies marinas y al 70 por ciento de los vertebrados terrestres. La más reciente ocurrió hace 65 millones de años entre el periodo Cretácico y la era Terciaria. Esta última quizá terminó con los últimos dinosaurios.
Lo que en particular me parece interesante, es que al recuperarse el planeta de los efectos catastróficos, la vida ha resurgido con más vigor. Al terminar la última «bola de nieve» proliferaron los animales pluricelulares en la llamada «Explosión del Cámbrico». Después del Evento K-T, los mamíferos nos desarrollamos en una gran diversidad e incluso en las glaciaciones menores, como la que terminó hace diez mil años el hombre terminó de extenderse por toda la Tierra. La llegada de nuestros antepasados a América, probablemente ocurrió al reducirse el nivel marino (el hielo se acumuló en los continentes) en el Estrecho de Bering (Alaska).
gran páramo desértico donde la vida quedó muy lastimada. Finalmente sobrevivió refugiada en algunos linajes de animales pequeños, sencillos, generalistas, características útiles para continuar con la historia; no obstante, tardó realmente mucho tiempo para recuperarse pero lo hizo bien. Todos los nichos ecológicos liberados paulatinamente fue-
ron ocupados por los sobrevivientes, adaptándose a las nuevas condiciones hasta repoblar de colores y latidos el planeta una vez más. La vida es fuerte como tal, pues aunque quede reducida a su forma más sencilla siempre prosperará a ingeniosos diseños para aprovechar al máximo los recursos disponibles.
DE PORTADA
olvidados Idos, os os, pero no olvidad Id PÁGINA 1
la vida no pudo arrancar de las garras de esa gran extinción se encuentra el grupo noble de los trilobites, artrópodos de diversos tamaños y en extremo especializados y adaptados a todos los ambientes marinos. Los blastozoos, animales estrechamente emparentados a los equinodermos actuales donde se ubican a las estrellas de mar y a los erizos de mar, que solían vivir sobre todo en zonas someras marinas, muy diversificados en ese entonces pero tampoco ni una
especie logró sobrevivir. A los imponentes euriptéridos, llamados escorpiones marinos, los artrópodos más grandes que jamás hayan existido pues llegaban a alcanzar tallas de casi tres metros de largo, ni su gran tamaño pudo salvarlos de la extinción. Además, algunos linajes de corales también desaparecieron, tales como los corales rugosos, caracterizados por tener un esqueleto de carbonato de calcio en forma de cuerno con un tamaño de casi un metro y no formadores de colonias;
otro tipo de coral ido para siempre son los tabulados, los cuales sí formaban colonias, cuyo esqueleto, igualmente de carbonato de calcio, tenía forma de panal de abejas. En el caso de los terrestres, se extinguieron diversas especies de escarabajos, avispas y abejas que apenas comenzaban su coevolución con las nuevas, plantas con semillas verdaderas, además de diversas especies de arácnidos, ciempiés y milpiés. Cuando la gran hecatombe biológica concluyó, la Tierra tuvo un semblante de un
CAMBIO DE MICHOACÁN | C I E N C I A R I O | 16 DE SEPTIEMBRE DE 2 0 14 | 5
«Se sabe que la distribución que tienen los continentes en la actualidad no es la misma que tuvieron en el pasado, ya que alrededor de 540 millones de años, toda la masa continental estuvo unida formando un supercontinente llamado Pangea»
Las mayores extinciones biológicas y sus probables causas El tiempo de vida de un ser humano es tan corto que muchas veces no percibimos los cambios por los que pasa nuestro planeta, excepto que se trate de un evento notable: Un sismo como el que ocurrió en Sumatra, en 2009, el sismo y posterior tsunami en Japón, en 2011, o eventos menos recientes de erupciones volcánicas (Monserrat, Pinatubo, Santa Elena), quedan marcadas en nuestra memoria y nos permiten ver la fuerza de la naturaleza. Los estudios que han permitido conocer y estudiar los grandes eventos que sufre nuestro planeta, han llevado a los geólogos a contarnos historias inimaginables, que han ocurrido en sus 4,500 millones de años, desde el propio nacimiento del Sistema Solar. Se sabe que la distribución que tienen los continentes en la actualidad no es la misma que tuvieron en el pasado, ya que alrededor de 540 millones de años, toda la masa continental estuvo unida formando un supercontinente llamado Pangea. Debido a procesos de Deriva Continental comenzó una separación que propició el nacimiento del llamado Mar de Tetis, hace 250 millones de años. Todo lo que eran tierras emergidas se dividieron en dos separando este nuevo canal de agua la parte norte (renombrado como Laurasia) y la parte sur (Gondwana). Aunque en este momento, muchas de las partes continentales ya tenían un aspecto que nos lleva a reconocerlas, aunque de la parte de nuestro continente apenas una parte queda expuesta, pues el resto estaría cubierto por el mar. En esa película imaginaria que muestra los cambios de nuestra Tierra otra referencia temporal se vuelve importante: 65 millones de años. La paleontología es una rama de las ciencias biológicas que con base en fósiles estudia cómo fue la vida en el pasado. Cuando estos es-
Cony González
pecialistas recolectan fósiles de un sitio, pueden notar que unos fósiles se parecen o son iguales a otros que se han colectado en otros puntos, aunque sean geográficamente distantes; es más, si sólo se enfocaran a un solo grupo de fósiles, incluso podrían apreciar cómo fueron cambiando a lo largo del tiempo. Sin embargo, había momentos de ese registro fósil que notaban que algo había pasado y parecía que muchas de las formas de vida desaparecían de la faz de la Tierra y que los que le seguían, eran completamente diferentes. Comenzaron a entender que estos cambios evidenciaban extinciones que en muchos casos, eran masivas. Se dividió entonces el tiempo geológico (en forma relativa) con base en los fósiles estudiados, en tres Eras: el Paleozoico, el Meso-
zoico y el Cenozoico y (de forma absoluta, conociendo la edad de las rocas) que empiezan en los 540, 250 y 65 millones de años a los que hice referencia en párrafos previos. (Una aclaración a esta escala oficial de tiempo geológico: Hasta hace relativamente poco tiempo no se conocían fósiles que pudieran fecharse en edades previas a los 540 millones de años. Ahora se han descubierto y ello lleva a mover el conocimiento de las antiguas formas de vida hasta más allá de los 630 millones de años). Aunque se conocen al menos cinco grandes extinciones, las dos más importantes son las que comentan mis compañeros de este suplemento: la que se da entre el Paleozoico y el Mesozoico (conocida como extinción del Permo-Triásico) y la ocurrida a final del Mesozoi-
co y principios del Cenozoico (conocida como la del Cretácico-Terciario). La pérdida de especies en el PT, que es a la que se hace referencia en este Cienciario, fue sin duda la más importante. La explicación de estas extinciones ha llevado a los estudiosos del tema a defiESPECIAL nir dos posturas que parecieran antagónicas. Los catastrofistas dicen que un fenómeno global (hablando redundantemente una catástrofe) provocó la extinción, y los gradualistas, que dicen que varios factores (cambios climáticos que incluyen glaciaciones, actividad volcánica, sismos, impactos meteóricos y etcétera,) fueron gradualmente (dicho también en forma redundante) provocando la extinción. Es difícil concluir en cuántos años se dio la extinción del Permo-Triásico, pero diversos autores proponen periodos de tiempo que van desde los ocho mil hasta los 160 mil años, lo que de entrada me lleva a pensar en cambios graduales en donde un posible impacto pudo ser simplemente otro de los factores. De forma personal me defino por las explicaciones gradualistas.
FRONTERAS Adiós a Samuel Gitler «Me dedico a hacer investigación en una de las ramas más fascinantes de las matemáticas, la topología algebraica, geometría que se creó en el siglo XX. Estudia propiedades intrínsecas de espacios de cualquier dimensión». Samuel Gitler Uno de los mayores genios de las matemáticas de nuestro país dice adiós. México y la comunidad científica se encuentran de luto tras la muerte del doctor Samuel Gitler el pasado 9 de septiembre en la ciudad de México. Gitler nació en la ciudad de México el 14 de julio de 1933. Su vida se vio envuelta en el mundo de las matemáticas. Por esta razón se graduó de ingeniero civil en la Universidad Autónoma de México (UNAM), y posteriormente obtuvo el doctorado en matemáticas en la Universidad de Pricenton, Estados Unidos, con una especialidad en topología algebraica. De 1960 a 1961 ocupó el cargo de investigador en la Universidad de Brandeis en Whaltam, Massachusetts. Gitler dividía en dos grandes rubros su interés por la ciencia: el papel de la topología algebraica y sus aplicaciones a la topología diferencial. Por mencionar, debido al interés científico y de investigación que poseía Gitler generó una de las aportaciones más importantes a la ciencia: «Espectro de Brown-Gitler». El artículo que hablaba del «Espectro de Brown-Gitler» genero problemas importantes en la teoría de homotopía (derivación de la topología algebraica) y a un simposio organizado por la Sociedad Matemática Americana, sobre la «tecnología de los espectros Brown-Gitler», mencionado por el proPÁGINA 8
6 | 16 DE SEPTIEMBRE DE 2 0 14 | C I E N C I A R I O | CAMBIO DE MICHOACÁN
Antes de publicar su libro ¿Somos todos enfermos mentales? escribió en su blog Saving normal varios artículos contra la nueva edición del manual de los trastornos mentales DSM-5, considerado ‘La Biblia de la psiquiatría. ¿Por qué consideró que debía protestar? -Nunca imaginé que iba a escribir un libro. Tampoco imaginé que iba a escribir un blog. Me había jubilado y me dedicaba a disfrutar de mis nietos y la playa. Pero en una fiesta con amigos que estaban trabajando en el DSM5, me di cuenta de que estaban muy entusiasmados con ideas bastante peligrosas si se aplican a decenas de millones de personas. -¿Qué le desconcertó? -Iban a introducir la pena como un síntoma de la depresión. Mis olvidos propios de la vejez se convertirían en demencia, los berrinches de mis nietos en trastorno de desregulación disruptiva del estado de ánimo y comer demasiado en trastorno por atracón. Mis colegas no eran conscientes de las consecuencias no deseadas del nuevo manual. Estaban tan preocupados porque la psiquiatría no dejara a ningún paciente fuera de sus límites, que no prestaban atención a un problema mayor: muchas personas serían mal diagnosticadas. Recibirían medicamentos innecesarios y un estigma que reduciría las expectativas y la confianza en sí mismas. No me gusta protagonizar controversias, pero sentí que denunciarlo era mi trabajo. -Pues ha liderado la polémica. Thomas Insel, director del Instituto Nacional de Salud Mental de los Estados Unidos, también se desmarcó del nuevo DSM alegando que «los pacientes con una enfermedad mental merecen algo mejor». -«Tom Insel es riguroso cuando dice que los avances en biología no son suficientes para hacer diagnósticos, tal y como todos esperaban. Ahora sabemos más sobre esquizofrenia que hace 25 años, pero desconocemos qué función tienen los 108 genes recientemente descritos que están implicados
El libro que clasifica las patologías psiquiátricas es el manual de los trastornos mentales (DSM). La última versión de este atlas se publicó en 2013 envuelto en una fuerte polémica. Ahora, Allen Frances (Estados Unidos, 1942), coordinador de la anterior edición, ha levantado la voz contra los excesos diagnósticos de la psiquiatría moderna y la sobremedicación. Además, denuncia que la psiquiatría debería ayudar al paciente ahora, en lugar de depositar sus esperanzas en los logros futuros de la neurociencia y la genética.
Lo que la neurociencia ha quedado a deber Núria Gar | Barcelona | Agencia SINC ESPECIAL
«Ningún logro de la neurociencia ha ayudado todavía a un solo paciente»:Allen Frances, autor de ¿Somos todos enfermos mentales?
en este trastorno. «Quizás sea más útil estudiar uno de sus síntomas, como las alucinaciones. Hazte preguntas sencillas y encontrarás respuestas mejores». -En el libro acusa al nuevo DSM de «no hacerse las preguntas realmente importantes». Póngame un ejemplo concreto. -«El trastorno por déficit de atención con hiperactividad (TDAH) es el ejemplo más claro. Antes había un tres por ciento de población afectada. La previsión del DSM-IV, cuidadosamente elaborada, preveía cambios que provocarían un incremento de sólo el quince por ciento, pero ahora un 30 por ciento de nuestros estudiantes universitarios y el diez por ciento de nuestros alumnos toman medicación para el TDAH. Si yo hubiese es-
crito el DSM-5 me habría preguntado si tal incremento tiene sentido. La gente no cambia, la naturaleza humana es la misma. Lo que varía son las etiquetas. El manual debería advertir sobre el peligro de sobrediagnosticar, pero la nueva edición amplió las definiciones para que se pueda tratar con mayor rapidez a más gente. En lugar de curar un problema, lo agrava». -¿Entona su parte de mea culpa como coordinador de la edición anterior? «Me sentí culpable por el DSM-IV. Aunque trabajamos duro para prevenir la inflación diagnóstica, no fuimos capaces de predecir tres nuevas falsas epidemias de trastornos mentales infantiles: TDAH, trastorno bipolar y autismo. No
nos anticipamos al posible mal uso del manual, que escribimos cuidadosamente». -¿Los niños son las principales víctimas del nuevo DSM? «Si quieres saber qué niño tiene TDAH el mejor predictor es la fecha de nacimiento. Resulta que los niños nacidos en diciembre tienen un 70 por ciento más de probabilidades de ser diagnosticados con TDAH que sus compañeros de clase nacidos en enero, que son más mayores. Es un error, no deberíamos tildar de enfermedad la inmadurez normal de un niño. El análisis clínico debe ser más específico y muy cuidadoso, porque puede mejorar la vida de una persona y hacerla sentir compren-
dida. Un mal diagnóstico la condena y paraliza». -El coordinador del DSM 5, David Kupfer, comentó a Sinc que las críticas entorno al nuevo manual son «inevitables». -«Yo coordiné el DSM-IV y no hubo críticas». -¿Absolutamente ni una? -«Los trabajadores sociales nos hicieron alguna crítica porque decían que la nueva edición del manual era demasiado biológica. Pero en general no hubo pegas porque no teníamos grandes ambiciones, queríamos estabilizar el sistema y restringir el crecimiento de la inflación diagnóstica. En cambio, el DSM-5 comenzó con grandes metas: identificar biomarcadores de dolencias psiquiátricas, evaluaciones dimensionales para calcular la severidad y ampliar la detección precoz. El estado actual de la ciencia no lo permite porque aún no tenemos suficientes evidencias». -¿Todavía es demasiado pronto para aplicar los hallazgos de la neurociencia a la psiquiatría actual?
CAMBIO DE MICHOACÁN | C I E N C I A R I O | 16 DE SEPTIEMBRE DE 2 0 14 | 7
Un equipo internacional de investigadores ha participado en la publicación de un número especial en la revista Philosophical Transactions of the Royal Society sobre teoría de redes complejas, que permiten analizar y comprender mejor los datos experimentales obtenidos del registro de la actividad cerebral.
Redes complejas para entender el cerebro ESPECIAL
Los editores del número especial de Phil. Trans., esperan que dé lugar a una nueva serie de estudios más críticos con la manera en la que este tipo de análisis teórico se aplica a las neurociencias.
-«Se invierte demasiado dinero en la investigación biológica y no lo suficiente en la psicológica y social. Lo único que hemos aprendido en 30 años es que podemos descubrir muchas cosas sobre el funcionamiento del cerebro, pero traducirlo para mejorar la práctica clínica es muy difícil. Al día de hoy no creo que ningún paciente que se haya beneficiado de los avances en neurociencia. No hay nada más excitante que los descubrimientos en neurobiología y genética, pero aún no han ayudado a ningún paciente. «Necesitamos ayudar a la gente ahora, en vez de prestar tanta atención a las promesas de un futuro lejano». -¿Qué le parecen los 100 millones de dólares del presupuesto 2014 que ha destinado Obama al proyecto BRAIN para cartografiar el cerebro humano? -«Cualquier proyecto que intente entender cómo funciona nuestro cerebro es muy valioso, pero no debería promocionarse a bombo y platillo. La tecnología y las promesas del futuro no tendrían que despistarnos. El cinco por ciento de la población sufre un trastorno mental grave, con síntomas incapacitantes que afectan a todos los aspectos de la vida y persisten en el tiempo. Lo terrible es que, mientras estas personas no están recibiendo un tratamiento suficiente, hay mucha gente sobremedicada. Las estadísticas dicen que una cuarta parte de la población tiene una enfermedad mental, pero la cifra me parece exagerada. España es un buen ejemplo». | SINC
ción a través de las conexiones entre regiones cerebrales. También se combinan trabajos puramente teóricos, con modelos neuronales, trabajos experimentales o de neurociencia clínica, cubriendo de esta manera gran parte del amplio espectro de problemas que es posible atacar con este tipo de metodología. Un futuro prometedor, no exento de grandes retos
ESPECIAL | AGENCIA SINC | CORTESÍA DE JOSÉ ÁNGEL PINEDA PARDO
De izquierda a derecha. 1. Mapa de tractos obtenido a partir de una imagen por tensor de difusión de un cerebro sano. 2. Red cerebral macroscópica, donde cada esfera representa un nodo de la red, resultado de una parcelación cerebral. Las líneas muestran las conexiones funcionales o anatómicas entre los distintos nodos. 3. Red por defecto de un sujeto sano obtenida a partir de una adquisición de resonancia funcional en estado de reposo, es decir, sin enfocar la atención en una tarea. La teoría de las redes complejas (TRC) comprende una serie de herramientas para el análisis de las propiedades topológicas y dinámicas de un conjunto de sistemas en interacción. Este es el paradigma de los sistemas complejos, donde la interacción entre sus elementos da lugar a fenómenos emergentes que no podrían explicarse mediante el análisis de sus componentes por separado. ¿Cómo puede ayudar la TRC a entender mejor el funcionamiento del cerebro? A responder a esta cuestión se dedica el último número de la prestigiosa revista Philosophical Transactions of the Royal Society, en cuya edición han participado investigadores del Centro de Tecnología Biomédica (CTB) de la Universidad Politécnica de Madrid (UPM), junto a colegas de la Universidad de Cambridge. El especial pone el foco de atención en el desarrollo de nuevas metodologías que permitan analizar y comprender mejor los datos experimentales obtenidos del registro de la actividad cerebral, con el objetivo de aumentar el conocimiento
sobre la estructura, dinámica y función del cerebro. Concretamente, el trabajo se centra en la aplicación a las neurociencias de la TRC, la cual combina técnicas de la dinámica no lineal, la física estadística y la teoría de grafos, aportando una nueva perspectiva al análisis del cerebro. Las redes complejas y el cerebro «La TRC nos permite estudiar como las redes anatómicas cerebrales están organizadas y condicionan los procesos dinámicos que en ellas ocurren», explica Javier M. Buldú, investigador del CTB y de la Universidad Rey Juan Carlos. «Pero no sólo eso, también es posible proyectar la actividad cerebral en una red funcional y estudiar cómo ésta se comporta con el envejecimiento o a medida que una enfermedad neurodegenerativa va avanzando. «La teoría de las redes complejas permite estudiar cómo las redes anatómicas cerebrales están organizadas y condicionan los pro-
cesos dinámicos que en ellas ocurren». Ha transcurrido más de una década desde las primeras aplicaciones de la TRC en neurociencia y, a pesar de que se han alcanzado algunos logros importantes, el potencial de este tipo de estudios corre el riesgo de quedarse en una «eterna promesa», dado que no ha producido ningún punto de inflexión o cambio radical en la forma en la que se estudia el cerebro. «En este número especial de Phil. Trans, se ha querido cristalizar las fortalezas, debilidades, dificultades y posibles futuros avatares de la teoría de redes complejas en las neurociencias, con el fin de comprender si se puede ir un paso más allá de donde se ha llegado», indica David Papo, investigador del CTB y uno de los editores del número especial. La publicación contiene artículos de revisión crítica, pero también nuevos trabajos con enfoques innovadores en el tratamiento del cerebro como una red compleja como, por ejemplo, la utilización de potenciales evocados para el estudio de la transmisión de informa-
Es probable que la TRC aumente en un futuro cercano la capacidad del ser humano para representar aspectos complejos de la actividad cerebral, como la interacción entre la estructura y la dinámica, o incluso identificar las reglas fundamentales que guiaron la formación del cerebro durante el curso de la evolución. «La teoría de redes complejas podría ayudarnos también en la clasificación de enfermedades o en la predicción la dinámica cerebral, tanto a escalas rápidas, como sucede en la percepción, como en tiempos muy lentos, como ocurre en la evolución», afirma Papo. «Otro de los grandes retos es el control de la actividad cerebral, con el objetivo de dirigirla hacia regímenes deseados, o incluso para la evaluación del máximo potencial del cerebro, ayudando a averiguar lo que se puede aprender y lo que no». Sin embargo, no existe todavía un desarrollo formal que permita analizar este tipo de problemas que, en algunos casos, no han llegado incluso ni a plantearse. Por ello es fundamental incentivar la colaboración entre teóricos y experimentales para, primero, plantear nuevos retos a los que la TRC podría enfrentarse para, después, desarrollar las herramientas de análisis que permitan resolverlos. A la vez, no se descarta que, aunque la TRC surgió inicialmente para explicar la formación de otros tipos de redes, la neurociencia podría proporcionar una nueva revolución en la TRC. | SINC
8 | 16 DE SEPTIEMBRE DE 2 0 14 | C I E N C I A R I O | CAMBIO DE MICHOACÁN
Un reciente estudio publicado en el Journal of Human Evolution por un equipo científico español ha demostrado que la morfología de las falanges, y por tanto, de la mano, ha permanecido estable desde hace 1.3 millones de años.
La mano humana apenas ha evolucionado El equipo de investigación de Atapuerca acaba de publicar en la revista Journal of Human Evolution un estudio basado en el análisis de una falange humana hallada en 2008 en la Sima del Elefante, en Atapuerca (Burgos), de 1.3 millones de años de antigüedad. Este fósil demuestra que la morfología de las manos estaba ya definida en aquellos tiempos. El fósil, identificado científicamente como ATE9-2 y atribuido a Homo sp (sin precisas, consiste en la primera falange del quinto dedo izquierdo de un individuo adulto y se halló en el mismo nivel que la mandíbula publicada en la revista Nature como el homínido más antiguo de Europa, de 1.2 a 1.3 millones de años. Las comparaciones que se han establecido con el escaso registro fósil mundial para esta parte anatómica y con dos muestras de humanos modernos, indica que el fósil ATE9-2 no difiere en gran medida ni de estos ni de los neandertales en lo que a su morfología se refiere. «Es decir que la falange, y por tanto la mano, ha cambiado poco en su morfología desde hace 1.3 millones de años hasta la actualidad», explica Carlos Lorenzo, autor principal del trabajo e investigador del Instituto Catalán de Paleoecología Humana y Evolución Social (IPHES) y de la Universitat Rovira i Virgili (URV), de Tarragona. «Las únicas diferencias observadas –prosigue– tienen que ver con la robustez del fósil, algo que comparte con los neandertales y los homínidos de la Sima de los Huesos. Esta robustez o anchura de la articulación distal parece un carácter primitivo que ya se detecta con otras partes esqueléticas y en homínidos más antiguos. Lo que confirma el hecho de que la especie Homo sapiens se diferencia de otras especies fósiles en su gracilidad corporal».
ESPECIAL | AGENCIA SINC | CENIEH | IPHES.
Al centro, falange de hace 1.3 millones de años hallada en la Sima del Elefante, en Atapuerca, en 2008.
Hasta la aparición de esta falange no hay registro fósil del género Homo para este elemento anatómico más antiguo que los neandertales y los homínidos de la Sima de los Huesos. Sólo existen restos de falanges proxima-
les de mano del quinto dedo de Australopithecus, y algunos restos fragmentarios de los que no se sabe si pertenecen al género Homo o Australopithecus. Evolución tecnológica
Las manos de Australopithecus presentan falanges proximales curvadas, hecho que algunos investigadores han relacionado con su dificultad o imposibilidad a la hora de realizar y utilizar herramientas líticas. La falange de la Sima del Elefante es tan recta como la de los humanos modernos. Sin embargo, el modo de fabricar herramientas ha cambiado mucho desde hace 1.3 millones de años. Los investigadores han llegado a la conclusión de que las falanges, y por tanto la mano de los homínidos, ya tenía todas las características morfológicas para elaborar herramientas muy avanzadas hace al menos 1.3 millones de años, y que por consiguiente, la evolución tecnológica está relacionada con la capacidad craneal y no con la variabilidad morfológica de la mano.
FRONTERAS PÁGINA 5
fesor George Whitehead como uno de los trabajos en la teoría de homotopía. De 1957 a 1959 fue asistente de profesor en la Universidad de Princeton; en el año de 1961 fue nombrado profesor adjunto del Cinvestav, cargo que ocupó hasta 1963, al año siguiente fue nombrado profesor adjunto del mismo. Considerado un profesor emérito del Centro de Investigación y de Estudios Avanzados (Cinvestav). La Royal Society de Londres invitó al investigador mexicano para estancias de un año como profesor visitante en la Universidad de Oxford, la primera en el All Souls College y la segunda en el New College, y en esta le dieron el grado de maestro en ciencias. Pero, ¿cómo se puede mejorar la enseñanza? Era muy frecuente que cada vez que Gitler participaba en una conferencia le hicieran la misma pregunta, a la cual el respondía: «Basta que la gente aprenda a leer en español y ello será ganancia. La matemática le va a venir después. Al leer se hace un análisis y eso es suficiente como preparación para entender la matemática». La manera correcta de mejorar la enseñanza. Añadía que el problema en México es que los niños no leen y que ello implica no solo juntar las letras, sino saber que dice el texto: «Unir letras lo hacemos todos, pero entender el mensaje es lo que tiene que cultivar el maestro en la escuela» Las aportaciones en el área matemática del doctor Gitler fueron ampliamente reconocidas. Por ejemplo: Sociedad Matemática Mexicana (1953) y de la American Mathematical Society (1957), secretario (1965-1967) y presidente (1967-1969) de la Sociedad Matemática Mexicana. | Maricruz Rios Velazquez, con información de la Academia Mexicana de Ciencias