Suplemento Cienciario 14 04 2015

Page 1

SUPLEMENTO DE CAMBIO DE MICHOACÁN CAMBIO DE MICHOACÁN | C I E N C I A R I O | 14 DE ABRIL DE 2 0 15 | 1 PARA LA DIVULGACIÓN DE TEMAS CIENTÍFICOS Y TECNOLÓGICOS PREMIO ESTATAL DE DIVULGACIÓN 2013 EDITOR: RAÚL LÓPEZ TÉLLEZ ixca68@hotmail.com MARTES 14 DE ABRIL DE 2015 NÚMERO 575 APARECE LOS MARTES www.cambiodemichoacan.com.mx

..................................................................................................................................................................................

ESPECIAL | IMAGEN TOMADA DE INTERNET

Aprendo, luego existo

«A medida que envejecemos, la composición física de nuestro gran tesoro, el cerebro, cambia y estos cambios van deteriorando las conexiones estructurales en su interior y que si se permite la comparación sería semejante a una red de intrínseco y sofisticado cableado que al paso de los días se puede ir oxidando».

Laura E. Robles B.

La cognición, proceso mediante el cual un organismo adquiere información, término que de inicio parece agrupar únicamente procesos de aprendizaje, engloba aparte de éste, la percepción, memoria, inteligencia, funciones simbólicas y lenguaje; pero ¿es esta una capacidad que debe ir menguando? Con el pasar del tiempo nuestro cerebro, el contenedor de la cognición, cambia. Ahora sabemos que a los seis años el cerebro tiene ya el 90-95 por ciento del tamaño que tendrá al ser adulto, de esta edad a los doce años aproximadamente aumenta de manera poco considerable y en esta etapa puede ser .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. ..

EL INDESEABLE «GAS DE LOS PANTANOS» PÁGINA 4

tomado como una « obra en proceso de construcción», misma que se concreta prácticamente hasta los 20 o 30 años, en donde aumenta considerablemente la mielinización ( proceso por el cual las neuronas son cubiertas por mielina que ayuda a transmitir rápida y eficientemente los impulsos nerviosos). Sin embargo a medida que envejecemos, la composición física de nuestro gran tesoro, el cerebro, cambia y estos cambios van deteriorando las conexiones estructurales en su interior y que si se permite la comparación sería semejante a una red .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. ..

FOBIA A LA RADIACTIVIDAD PÁGINA 5

de intrínseco y sofisticado cableado que al paso de los días se puede ir oxidando. A este respecto, en la Universidad de Illinois, mediante estudios de resonancia magnética realizaron estudios en adultos de edad avanzada, sin rastros de demencia y sorprendentemente encontraron que los adultos mayores tienen una mayor variabilidad de las señales cerebrales y el rendimiento cognitivo en diferentes áreas como el razonamiento, el vocabulario, la semántica (estudio del PÁGINA 4

.. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. ..

MÁS VALE LOMBRICES EN LA PANZA PÁGINA 7


2 | 14 DE ABRIL DE 2 015 | C I E N C I A R I O | CAMBIO DE MICHOACÁN

REVIST A REVISTA La detección de la presencia o ausencia de ciertas mutaciones permite dar a los pacientes un tratamiento personalizado, que en muchos casos, incrementa la sobrevida por varios meses, incluso en estadios avanzados de la enfermedad, señala el investigador Óscar Arrieta Rodríguez.

Genotipificación, necesaria en el cáncer de pulmón Alejandra Monsiváis Molina | Academia Mexicana de Ciencias Nuestro conocimiento sobre el cáncer de pulmón ha aumentado exponencialmente en los últimos años. Hasta hace poco tiempo se le clasificaba sólo como cáncer de pulmón de células pequeñas y de células no pequeñas, pero ahora ya se cuenta con una extensa clasificación de tumores de acuerdo con el tipo de alteraciones genéticas que les dan origen. Hoy en día, se está en posibilidades de saber si se trata de mutaciones puntuales, que ocurren en un solo gen, o si se dan en diferentes genes, indicó Óscar Arrieta Rodríguez, investigador del Instituto Nacional de Cancerología (Incan). De ahí que la caracterización de ciertas regiones del ADN, o genotipificación, de las células cancerosas cobre cada vez mayor importancia para la implementación de un tratamiento personalizado, pues su seguimiento y pronóstico -que genere una mejor respuesta en el paciente y le sea lo menos tóxico posible- depende de detección de la presencia/ausencia de ciertas mutaciones. El responsable desde hace ocho años del Laboratorio de Oncología Experimental de dicho instituto agregó que antes a todos los pacientes se les daba quimioterapia, pero ahora se pueden hacer subgrupos en función de lo que es más adecuado para cada uno. Con esto la posibilidad de respuesta de los pacientes son abismales. En la actualidad podemos detectar quién tendrá un mayor beneficio de cierto tratamiento y qué paciente no se beneficiará.

El cáncer de pulmón de células no pequeñas representa aproximadamente el 75 por ciento de todos los tumores pulmonares y los genes más comúnmente mutados en esta masa anormal del tejido, o neoplasia, son el EGFR, el DRAS y el ALK. El doctor Arrieta ha contribuido al describir la frecuencia e impacto clínico de estas mutaciones en adenocarcinoma de pulmón en distintas partes de Latinoamérica, con particular interés en pacientes con factores de riesgo importes para nuestro país, como es la exposición crónica a humo de leña. Sus aportaciones a un mayor entendimiento de este problema de salud pública y su tratamiento le valieron el Premio de Investigación 2013 en el área de ciencias naturales que otorga la Academia Mexicana de Ciencias. Había -afirmó- una carencia enorme de información de la frecuencia de mutaciones en la población latinoamericana, se sabía, por ejemplo, que en pacientes europeos y norteamericanos la mutación de EGFR tiene una frecuencia del quince por ciento, en pacientes asiáticos del 40 por ciento y en pacientes afroamericanos entre el dos y el catorce por ciento. En los estudios en los que Arrieta ha participado, se ha encontrado que la frecuencia de esta mutación en la población de América Latina es relativamente más alta que en las regiones antes descritas. En Argentina la frecuencia es del catorce por ciento; en Colombia, del 25 por ciento; en México, del 34 por ciento, y en Perú, del 67 por ciento. Las cifras dejan ver que en Latinoamérica la frecuencia es muy heterogénea

ACADEMIA MEXICANA DE CIENCIAS

El científico participó en el desarrollo, por primera vez en Latinoamérica, de la genotipificación de neoplasias mediante una técnica citogenética de marcaje de cromosomas y la secuenciación en tiempo real de ciertas regiones del material genético para atender a pacientes con adenocarcinoma de pulmón. A la derecha, imagen de fibrosis pulmonar idiopática, progresiva y letal.

y sugieren una posible susceptibilidad genética presente en estas poblaciones, aunque también hay otros factores involucrados como la exposición al humo de leña, como sucede en nuestro país, y la tuberculosis.

En el caso de la mutación KRAS, se sabía que la frecuencia es del 30 por ciento en la población caucásica y del diez por ciento en la del medio asiático. Arrieta ayudó a determinar que la frecuencia en la región latinoa-

mericana es alrededor del siete por ciento. En el Incan, el investigador ha participado en el desarrollo, por primera vez en Latinoamérica, de la genotipificación de neoplasias mediante una téc-


CAMBIO DE MICHOACÁN | C I E N C I A R I O | 14 DE ABRIL DE 2 0 15 | 3

REVIST A REVISTA nica citogenética de marcaje de cromosomas y la secuenciación en tiempo real de ciertas regiones del material genético para su empleo en tratamientos personalizados en pacientes con adenocarcinoma de pulmón. Sus resultados de investigación le han servido para diseñar nuevos esquemas de tratamiento, determinar marcadores predictivos y pronósticos para este tipo de neoplasia. Esto ha permitido aumentar la media de sobrevida de los pacientes de 8-10 meses a 22 meses en estadios avanzados. Falta de datos Arrieta Rodríguez considera que la investigación en México se encuentra muy limitada. En primer lugar, hace falta recopilar datos propios sobre la frecuencia de las alteraciones genéticas y los diferentes padecimientos a los que dan origen, qué perfil tienen los pacientes, lo cual facilitaría la búsqueda de nuevos blancos terapéuticos. En México hay un subregistro de las muertes por cáncer de pulmón, «no tenemos datos epidemiológicos confiables», aseguró. «Hay intentos que se han hecho de registro de patologías de neoplasias que arrojan alrededor de seis mil casos al año, pero si se le compara con los datos de otros países, la cifra no cuadra. En Estados Unidos, por ejemplo, se tienen 159 mil casos al año». En gran medida esto se debe a que no se diagnostica adecuadamente a los pacientes y fallecen con un diagnóstico de neumonía o tuberculosis. En el Incan sólo el 1.2 por ciento de los pacientes atendidos se encuentran en una etapa temprana, el resto tiene una enfermedad localmente avanzada o metastásica, lo cual implica un pobre pronóstico de sobrevivencia, lamentó.

Hace mil años, en 1015, se escribió el primer gran libro de óptica, que consta de siete volúmenes y en el que su autor, el egipcio Alhazen Ibn al-Haytham, registró algunas de las observaciones que hizo, entre ellas, que el ojo es un instrumento óptico. El conocimiento de la luz está relacionado con nuestra forma de pensar y de concebir la naturaleza: qué entendemos por luz, cómo funciona y cuál es nuestra relación con ella. Como parte de la celebración en 2015 del Año Internacional de la Luz, la doctora Ana María Cetto, del Instituto de Física de la Universidad Nacional Autónoma de México (UNAM), hizo un recorrido histórico sobre las diversas teorías de la luz que aparecieron en su momento, durante la conferencia «Los mil y un años de la luz». Hace mil años, en 1015, se escribió el primer gran libro de óptica, que consta de siete volúmenes y en el que su autor, el egipcio Alhazen Ibn al-Haytham, registró algunas de las observaciones que hizo, entre ellas, que el ojo es un instrumento óptico. A mil años de dicho acontecimiento, la responsable del proyecto de renovación del Museo de la LUZ e integrante del Comité Internacional para el Año Internacional de la Luz, recordó que aunque ahora estamos conscientes de la existencia de la luz –a pesar de nuestra visión y de nuestra propia existencia–, los griegos no la concebían si no había alguien que la viera. Al hablar de la historia de las teorías en este campo se puede destacar que la concepción de la luz ha cambiado; por ejemplo, en la Edad Media se tenía un sentido espiritual de ella, mientras que en el Renacimiento se reconoció el valor teórico y experimental de los instrumentos ópticos, sin olvidar lo que, de acuerdo con la también integrante de la Academia Mexicana de Ciencias, fue un debate presente en varios momentos de esta historia sobre si la luz era corpuscular u onda. La investigadora señaló que con las exploraciones a otras tierras los navegantes necesitaron instrumentos: los holandeses se dedicaron a pulir lentes, Galileo Galilei fabricó su propio telescopio pues le interesaba reconocer a los barcos que se

Los mil y un años de la luz Noemí Rodríguez González | Academia Mexicana de Ciencias

ne en colores que van del rojo al violeta. Por su lado, William Herschel estudió las propiedades de la luz que llega de las estrellas y se dio cuenta de que diferentes cuerpos celestes tienen luz de distinto color, y al pasar un haz de luz a través de un prisma y medir con termómetros la temperatura de cada una de ellas, identificó la existencia de una luz que no se ve, tal es el caso de la radiación infrarroja que calienta, pero que no pueden detectar los ojos. La luz: onda y fotón ESPECIAL | AGENCIA SINC

ESPECIAL | TOMADA DE INTERNET

Luz fragmentada por un prisma.

ACADEMIA MEXICANA DE CIENCIAS

Hoy se podría decir que la luz no existe sin la materia porque se origina en algo material y va a dar a algo material; es decir, la materia absorbe, filtra, desvía, refleja y difracta la luz: Ana María Cetto

aproximaban a Venecia, pero también apuntó su telescopio al cielo y sus observaciones quedaron plasmadas en el libro El mensajero de las estrellas. «Galileo utilizó los aparatos ópticos para hacer nuevos descubrimientos, además probó el valor teórico y

experimental de los objetos ópticos, en especial para la astronomía», apuntó la física durante su exposición en el Auditorio Fósforo, del Museo de la Luz. Ahora bien, la luz visible es una de las formas de la radiación electromagnética, cuando la longitud de onda de la radiación electromagnética está entre 0.4 micras (una micra equivale a la millonésima parte de un metro), que corresponde al color violeta, y 0.8 micras, que pertenece al color rojo, la podemos detectar con nuestros ojos. Al respecto, Isaac Newton, que estudió las propiedades de la luz, se percató de que si se envía un haz de luz blanca a través de un prisma, ésta se descompo-

El debate sobre si la luz tiene propiedades ondulatorias o cuánticas estuvo presente en varios momentos de la historia de las teorías de la luz. El científico Thomas Young realizó experimentos de interferencia de la luz, tomó una fuente de luz y la hizo pasar por una pantalla a la que se le hicieron dos ranuras muy pequeñas y en la pantalla final, en la que se proyecta la imagen, lo que observó fueron bandas oscuras alternadas con bandas claras, lo que para él significó una prueba de que la luz sí es un fenómeno ondulatorio. A pesar de este experimento y sus resultados, los científicos del momento no tomaron en cuenta a Young, porque para Isaac Newton la luz estaba compuesta de corpúsculos o partículas. Posteriormente, el físico e ingeniero Agustine Fresnel desarrolló la teoría detrás del experimento de Young y confirmó teóricamente y matemáticamente que la luz es un fenómeno ondulatorio. Para Albert Einstein la luz presenta propiedades ondulatorias y corpusculares, y a partir de ello desarrolló la teoría cuántica de la luz que, entre otros aspectos, nos permite entender cómo interactúa la luz con la materia. «En la actualidad se podría decir que la luz no existe sin la materia porque se origina en algo material y va a dar a algo material; es decir, la materia absorbe, filtra, desvía, refleja y difracta la luz», sostuvo Ana María Cetto.


4 | 14 DE ABRIL DE 2 015 | C I E N C I A R I O | CAMBIO DE MICHOACÁN

El indeseable

DE PORTADA

o eexisto luego Aprendo, xisto o, lueg Aprend

«gas de los pantanos» Cony González

PÁGINA 1

significado de los signos lingüísticos) y sorprendentemente para muchos, la memoria. Esto evidentemente viene a causar revuelo en una sociedad que prácticamente da por hecho que luego de llegar a la cima las capacidades adquiridas a lo largo de la vida, de forma imparable se van perdiendo y que las características de una mala senilidad deben aparecer sin importar qué se haga para evitarlo. Ya es bien sabido que los buenos hábitos, ejercicio y alimentación afectan la forma en que envejecemos, sin embargo actividades sencillas y aparentemente fáciles como el aprender un nuevo idioma, tomar clases de fotografía o computación básica ayudan a mejorar considerablemente. La función cognitiva, según un estudio del Canisius College, puede seguirse modificando y para probarlo se trabajó con un grupo de más de 200 participantes de edades 60 a 90, para participar en actividades durante quince horas a la semana durante el transcurso de tres meses. Algunos fueron asignados a aprender una nueva habilidad que requiere la participación de la memoria a largo plazo y otros procesos cognitivos de alto nivel. Al final de este periodo, se encontró que el grupo que aprendió a usar programas de computación para fotografía obtuvo un aumento de su memoria a largo plazo, esto debido a que eran desafiados constantemente durante la actividad.

A la par otro grupo participó en actividades como crucigramas, sudoku, ver documentales y escuchar música clásica, que dicho sea de paso son actividades que generalmente se recomiendan para evitar o al menos detener en lo posible el avance de las características clásicas de la senilidad. Y como se sabe por cierto que la influencia del realizar actividades que involucran las relaciones interpersonales y sociales son por demás importantes algunos de los participantes también fueron asignados a un grupo que incluía excursiones y entretenimiento. La novedad se dio al poder cuantificar que quienes realizaron actividades de implicación social, crucigramas, sudoku, etcétera, no obtuvieron tanto beneficio como quienes aprendieron algo nuevo, en donde eminentemente debieron hacer un esfuerzo para comprender y realizar una tarea, algo que no conocían en absoluto y esforzarse por lograrlo. Qué más da lo que se quiera aprender, las opciones son tantas como gente para llevarlas a cabo. Evidentemente no todos disfrutan de la misma manera el proceso de aprendizaje, pues les recuerda el estar aburrido con un tremendo libro en las manos, con tareas, maestros, evaluaciones, en fin, presionados y obligados, pero no es así, el aprendizaje debe ligarse a emoción, a retos, descubrimientos…vivir experiencias nuevas ¿Hay algo mejor que eso a cualquier edad?

«El grupo que aprendió a usar programas de computación para fotografía obtuvo un aumento de su memoria a largo plazo, esto debido a que eran desafiados constantemente durante la actividad...»

Un tema frecuente en mi participación en Cienciario ha sido sobre el metano, que es el hidrocarburo más sencillo. Contiene un átomo de carbono unido a cuatro de hidrógeno, y su fórmula CH4 es reconocida por los estudiantes, los que también saben que constituye un alto porcentaje del llamado gas natural. Se le conoce como gas de los pantanos porque en ellos se produce debido a la descomposición de la materia orgánica ahí contenida, formándose un ambiente libre de oxígeno (anaerobio) que es ideal para que microorganismos (metanógenos) que viven en ese ambiente, proliferen y generen como resultado el gas. El ambiente ideal y la presencia de estos microorganismos no es exclusivo de los pantanos; también se les encuentra en el tracto digestivo de muchos animales (incluidos los humanos y los rumiantes), con la consabida producción del gas, que es detectable por su característico olor. La generación del metano por cualquier método, alimenta la concentración de éste a la atmósfera y ahí su presencia no es deseable, ya que se conoce que forma parte de los llamados «gases de invernadero» que han aumentado su concentración debido a la actividad humana y provocan el «calentamiento global» que entre otras cosas, causa un deshielo acelerado de los casquetes polares (aumentando el nivel del agua de los oceános) con los consiguientes problemas tanto ecológicos como sociales. La detección de metano en Marte en 2003 resultó una curiosidad y una sorpresa para los científicos planetarios, pues su presencia se ha tratado de explicar

debido a procesos abióticos pero -las más interesantescontemplan la posibilidad que sea generado por microorganismos (como los terrestres) que vivan en microambientes subterráneos. Esta propuesta ha permitido la aprobación de misiones robóticas que viajarán a tratar de encontrar la respuesta. Pero el metano se ha vuelto noticia recientemente en dos notas referidas a espacios diferentes: El satélite Encelado (en Saturno) y la Tierra. La nave Cassini que orbita a Saturno desde 2004 y que no sólo estudia también a sus satélites descubrió en uno de ellos (en Encelado) géiseres que lanzan desde el interior chorros de agua y algunos compuestos volátiles como dióxido de carbono (CO 2), amoniaco y... metano), que al depositarse sobre la superficie le dan un aspecto suave, brillante, sin cráteres. Un equipo de científicos publicó el pasado mes de marzo escenarios que pudieran explicar la abundancia (relativa) del metano (clatratos de metano). Una propuesta dice (igual que ocurrió en Marte) que ésta se debe a procesos hidrotermales similares que generan a los géiseres en la Tierra, pero un segundo escenario dice que éste se libera durante la fusión del hielo, al igual que lo hace» el CO 2 en una botella de champán al remover el corcho», formando las burbujas de metano y que esta liberación estaría directamente involucrada en la formación de los géiseres.

La segunda nota reciente sobre el metano tiene que ver con la Tierra. Un instrumento de la Agencia Espacial Europea (ESA) que mide gases de invernadero en nuestro planeta, detectó desde 2003 un sitio que muestra una alta generación de metano, en el área llamada «4 esquinas» en la zona suroeste de Estados Unidos. Cada año, entre 2003 y 2009 se liberó a la atmósfera media tonelada cúbica de gas, pero en el otoño de 2014 se encontraron niveles más altos que en los años anteriores, por lo cual se reunieron investigadores del JLP (Jet Propulsion Laboratory), de la Universidad de Michigan, del Instituto de Investigación Ambiental de Colorado (CIRES) y del NOAA (National Oceanic and Atmospheric Administration). Además del encuentro, continuarán con los monitoreos para definir cuáles son las fuentes que ocasionan estas emisiones. Voces de algunos de ellos vinculan actividades petroleras y otras mineras. Erick Kort, de la Universidad de Michigan, dice que «se ha prestado mucha atención a la Fracturación Hidráulica de alto volumen», método de extracción que de forma indirecta se estaría aprobando en nuestro país en la llamada Ley de Aguas. Así que ¡aguas!, pues los legisladores de nuestro país podrían estar aprobando métodos que pudieran causar un alto daño ecológico. La presencia del metano causa sorpresa y altas expectativas en la búsqueda de vida en otros sitios del espacio, pero debe llevarnos a la precaución en la Tierra, y en este caso, todos tenemos acciones que hacer, los ciudadanos, pero también los políticos, después de todo, estamos en el mismo barco.


CAMBIO DE MICHOACÁN | C I E N C I A R I O | 14 DE ABRIL DE 2 0 15 | 5

FRONTERAS

ESPECIAL | TOMADA DE INTERNET

El tema para escribir notas sobre ciencia surge a veces al explorar las redes sociales. En su Facebook, Cony González compartió la hermosa imagen de la única estación de ferrocarril en Japón que aún tiene techo de paja, que está rodeada de los clásicos cerezos en flor (Sakura). La estación se ubica en la zona de Fukushima, conocida en todo el mundo por el accidente de la central nuclear ocurrido el 11 de marzo de 2011. En los comentarios sobre esa imagen, nuestro amigo Horacio (colaborador de este suplemento) pregunta: ¿Cuánto tiempo tardará en extinguirse la radiación? La pregunta es casi obligada, pues difícilmente puede haber dos conceptos más contrastantes que: accidente nuclear y cerezos en flor. En realidad la zona donde está la estación tuvo muy poca afectación, por dos motivos: en el accidente se liberó menos radiactividad de la que se comentó en los medios y además el sitio de la planta nuclear está a 100 kilómetros de la estación. En los días en que ocurrió el accidente de la planta llamada Fukushima Daichi, se comparó en los medios con el ocurrido en Chernobyl en Ucrania, el 26 de abril de 1986. En realidad son diferentes las causas de ambos accidentes y también su magnitud. El de Chernobyl ocurrió porque los técnicos de la planta hicieron la absurda prueba de parar la unidad con muchas de las protecciones bloqueadas, lo que hizo que perdieran el control, provocaran el derretimiento del núcleo del reactor y se emitiera a la atmósfera mucho material radiactivo. Como sabemos el accidente en Fukushima lo originó un terremoto y el horroroso tsunami que le sucedió. La ola rebasó los altos muros y destruyó los generadores eléctricos de emergencia. Para entender la magnitud de la contaminación ra-

El brontosaurio vuelve a ser un género único

ESPECIAL | TOMADA DE INTERNET

La hermosa imagen de la única estación de ferrocarril en Japón que aún tiene techo de paja, que está rodeada de los clásicos cerezos en flor

«En los días en que ocurrió el accidente de la planta llamada Fukushima Daichi, se comparó en los medios con el ocurrido en Chernobyl en Ucrania, el 26 de abril de 1986».

Fobia a la radiactividad Cuauhtémoc Sarabia diactiva, debemos tomar en cuenta su origen y luego utilizar un sistema de medición. Se denomina «radiación ionizante» a la que tiene suficiente energía para arrancar electrones a los átomos en condiciones ordinarias. Se incluyen las partículas de alta velocidad generadas por la desintegración de núcleos atómicos: partículas Alfa que son dos protones unidos a dos neutrones (núcleos de helio), y partículas Beta que son electrones muy veloces. También se incluye la radiación electromagnética de alta energía: Rayos X y Rayos Gamma, que son mucho más peligrosos que las partículas, por ser más penetrantes. La radiactividad se mide con un contador Geiger que emite un sonido con cada partícula que entra al equipo. Cada cuenta es un «Becquerel» (Bq).

Para evaluar el riesgo a la salud se debe definir la exposición, por ejemplo es más dañino exponerse al sol en la playa ocho horas que sólo unos minutos. Para la radiactividad se utiliza una unidad llamada «Sievert», que equivale a un Joule (unidad de energía) por cada kilogramo de masa corporal. Esta es una cantidad muy grande, por lo que se usa con más frecuencia el Micro-Sievert que es la millonésima parte. En Fukushima hubo sólo dos personas fallecidas, pero fueron a causa del terremoto, antes del tsunami, la máxima exposición radiactiva detectada fue de 73 Sieverts por hora en el núcleo de uno de los reactores y el área donde la exposición a la radiación excedió los límites permitidos (no peligrosos) se ubicó a 40 kilómetros de la planta. En Cher-

nobyl el número de fatalidades llegó a 64 a causa de la radiación, la exposición radiactiva fue de 300 Sieverts por hora y el área afectada se extendió a 500 kilómetros a la redonda. Desde el origen de la humanidad, hemos estado expuestos a la radiación. El potasio que es esencial para la vida (abunda en los plátanos), contiene una pequeña fracción del isótopo Potasio 40 que es radiactivo. Los tabiques de nuestras casas también emiten una pequeña radiación. Como todas las substancias y medios a los que estamos expuestos, la radiactividad es peligrosa a grandes dosis. Las zonas de «exclusión» alrededor de las plantas accidentadas deben ser vigiladas tal vez por cientos de años, hasta que decaigan los elementos radiactivos que las afectan. Creemos que por el hambre de energía que tiene la civilización, no se debe descartar de tajo la de origen nuclear, lo que se debe hacer es refinar los métodos de diseño y protección y desde luego no cometer más estupideces fatales.

Si en astronomía se destronó a Plutón como planeta, en paleontología también existe otro «príncipe» destronado. Se trata del emblemático brontosaurio, que desde 1903 se clasificaba dentro del grupo de los Apatosaurus , y al que un reciente estudio ha devuelto su categoría de género único. El brontosaurio o lagarto del trueno es uno de los dinosaurios más carismáticos de todos los tiempos. Ha inspirado a generaciones de niños gracias a su tamaño y a su atractivo nombre; sin embargo, desde 1903, denominarlo como brontosaurio es inapropiado, ya que debe ser referenciado como apatosaurio. Esto se debe a que hace más de un siglo se decidió que las diferencias entre Brontosaurus excelsus y Apatosaurus eran tan leves que lo mejor sería poner a ambos dentro del mismo género. Como el Apatosaurus se había definido antes, esta fue la denominación que se utilizó en virtud de las reglas de nomenclatura científica. Ahora, un estudio que publica la revista PeerJ asegura que ha estado mal clasificado durante todo ese tiempo. Paleontólogos de Portugal y el Reino Unido proporcionan en este trabajo pruebas concluyentes –en un total de 300 páginas– de que el brontosaurio es distinto del apatosaurio y, como tal, puede ser considerado un género único. «Nuestra investigación no hubiera sido posible con este nivel de detalle hace quince o más años», explica el científico suizo Emanuel PÁGINA 6


6 | 14 DE ABRIL DE 2 015 | C I E N C I A R I O | CAMBIO DE MICHOACÁN

FRONTERAS PÁGINA 5

Tschopp, quien dirigió el trabajo en la Universidad Nova de Lisboa, de Portugal, durante su doctorado. «De hecho –añade– , hasta hace muy poco la afirmación de que el brontosaurio era el mismo género que el Apatosaurus era completamente razonable, basado en el conocimiento que teníamos». Un estudio que derroca más de un siglo de investigación En los últimos años, gracias al descubrimiento de numerosos dinosaurios similares a Apatosaurus y Brontosaurus , se ha podido llevar a cabo esta nueva investigación que detallada lo diferentes que eran en realidad. Según Roger Benson, uno de los coautores de la investigación en la Universidad de Oxford, sus diferencias «eran al menos tan numerosos como las de otros géneros estrechamente relacionados, y mucho más de lo que normalmente se encuentra entre las especies». Los científicos aplicaron métodos estadísticos para calcular las diferencias entre otras especies y géneros de dinosaurios diplodócido, y se sorprendieron por el resultado. «Hemos tratado siempre de ser lo más objetivos posible al tomar una decisión para diferenciar entre especies y género», apunta Tschopp. «Es el clásico ejemplo de cómo funciona la ciencia», dice el profesor Octavio Mateus, colaborador en la investigación. «Sobre todo cuando las hipótesis se basan en fósiles fragmentarios, es posible que los nuevos hallazgos derriben años de investigación». | Agencia SINC

«...es posible que los nuevos hallazgos derriben años de investigación»

Botánica para principiantes. El café latinoamericano Alfredo Amadoir García | VII El café fue introducido al Continente Americano por los holandeses, en 1723. Durante el siglo XX alcanzó considerable importancia en el mercado mundial como cultivo de exportación. En el norte de Latinoamérica su producción se triplicó desde la Segunda Guerra Mundial y su área bajo cultivo se duplicó. Más del 32 por ciento del café del mundo viene de esta región y aunque es producido sólo en el 7.4 por ciento de la superficie total arable, las tierras aptas para este cultivo ocupan aproximadamente el 44 por ciento de la superficie de cultivos permanentes. En México supera las 700 mil hectáreas y en Colombia ¡el millón! Los sistemas de cultivo de café pueden ir de lo tradicional a lo moderno. El sistema moderno reduce la sombra del bosque, incrementa la productividad con variedades de alto rendimiento, emplea insumos químicos, realiza aclareos y controles a la densidad de plantas. La remoción de la sombra tiene como objetivo incrementar los rendimientos. Sin embargo, con la pérdida del dosel, las plantaciones modernas también conocidas como plantaciones de sol, hacen la tierra más proclive al escurrimiento y la erosión, amenazando a largo plazo la sustentabilidad del sistema. En Latinoamérica esta modernización se intensificó en los 70. En México, en la década de los 90 quince por ciento de la superficie cultivada se había transformado al sistema moderno, pero en Colombia, la cifra había ascendido al 60 por ciento. Originalmente dicha modernización fue un modo de combatir el hongo de la oxidación de la hoja (Hemileia vastatrix) pero sólo constituyó un pretexto para todo el paquete tecnológico de incrementar rendimientos de producción. El discurso fitopatológico fue

que el mantener con menos sombra conduciría a las plantas de café a estar más secas más tiempo, reduciendo por tanto el éxito del desarrollo del hongo. El hongo de la oxidación llegó a Brasil en 1970 y a Centroamérica en 1976. Sin embargo, en Latinoamérica la enfermedad no fue tan problemática como se predijo y sí en cambio las prácticas de modernización para incrementar la producción. Este es el aspecto más relevante en la estrategia económica que consideran algunos cafeticultores. Se han registrado producciones promedio superiores en las fincas modernas que en las semi-modernas y que en las tradicionales con mil 397, 317 y 953 kg/ha, respectivamente. Aunque también existen diferencias considerables en costos de producción (en dólares americanos) para una hectárea de café moderno, semi-moderno y tradicional, siendo respectivamente: 1,738.94, 1,092.00 y 269.47. El costo para producir un kilogramo de café oscila entre 1.24 para el café moderno, 1.14 para el café semimoderno y 0.85 para el café tradicional. Actualmente esos costos varían, por supuesto, con las fluctuaciones de los precios mundiales del café. Pero la tecnología tradicional, con un uso mucho menor de insumos, representa un sistema de producción pasivo en el cual las unidades de café reciben poca atención vía labor y/ o capital. Además, la producción tradicional dedica dos por ciento de sus gastos a insumos químicos mientras que la producción moderna y semi-moderna gasta respectivamente el 19 y el 25 por ciento de la inversión en insumos químicos. Y para colmo, las labores que no son de cosecha, constituyen el costo más elevado en los sistemas modernizados, debido a que arrastran un conjunto de prácti-

«El café fue introducido al Continente Americano por los holandeses, en 1723. Durante el siglo XX alcanzó considerable importancia en el mercado mundial como cultivo de exportación. En el norte de Latinoamérica su producción se triplicó desde la Segunda Guerra Mundial y su área bajo cultivo se duplicó». cas en los individuos de las plantaciones tales como las cortas estandarizadas, la fertilización, y las aplicaciones de insecticidas, fungicidas y nematicidas. Actualmente se reconoce que no necesariamente el café de sombra es tradicional y 100 por ciento «orgánico». Sin embargo las prácticas tradicionales son más proclives a desestimar el uso de insumos agroquímicos. También se han hecho comparaciones entre la producción del café orgánico y el modernizado, y se reporta que a pesar de tener un ingreso total más bajo, la producción de café orgánico tiene ganancias netas significa-

tivamente superiores de hasta 350 USD/ha, en parte debido a los costos de producción más bajos. Pero lo que es mejor en términos de las externalidades generadas por los costos ambientales asociados con la producción de café (i.e., pesticidas y/o erosión del suelo), las diferencias entre las ganancias netas se incrementan más entre la producción orgánica que en la no-orgánica moderna. Prepárense la segunda taza de café o vayan por una a la Cooperativa El Árbol (frente a Radio Nicolaita) que ya viene lo relacionado con la biodiversidad y el ambiente… ¡Aaaahhhhhh!


CAMBIO DE MICHOACÁN | C I E N C I A R I O | 14 DE ABRIL DE 2 0 15 | 7

«Por cada tipo de antígeno que entra al organismo se genera un anticuerpo especializado...»

FRONTERAS PÁGINA 6

Diseñan un nanomedicamento oral que evita la toxicidad en los riñones

Más vale lombrices en la panza ESPECIAL | TOMADA DE INTERNET

David Tafolla Venegas

Resulta ser científicamente cierto lo que por mucho tiempo escuché de las abuelas en el pueblo donde viví, un lugar llamado Río Grande de La Piedad, Michoacán, «deja que el niño juegue con tierra, así se le harán defensas» decían cada vez que un niño o niña era amonestado por su madre por jugar en el suelo. Ya luego escuché lo mismo en otros lugares del estado y del país, entonces es algo generalizado. El fundamento de dejar a los niños que jueguen con tierra para fortalecer el sistema inmunológico (células especializadas llamadas glóbulos blancos más un complejo de moléculas igualmente especializadas en defender nuestro organismo) es el siguiente. Cuando un humano y cualquier otro animal nace, a través de las interacciones con el ambiente adquiere un montón de «cosas» que van desde partículas de polvo, pólenes, ácaros, esporas de bacterias, virus, esporas de hongos y demás; todas estas «cosas» ajenas al organismo se les llaman antígenos. Entonces las crías, en sus primeros meses y años de

vida, están adquiriendo un montón de antígenos de todo tipo. Estos antígenos al entrar al organismo son detectados por células blancas y, en general, reaccionan de dos maneras: un tipo de células atrapa al antígeno y lo destruye desnaturalizándolo y otro tipo de célula lo atrapa, también lo destruye

pero «guarda» los trozos de ese antígeno destruido; con los elementos químicos de esos trozos, a manera de moldes, fabrica unas moléculas especializadas llamadas anticuerpos (bioquímicamente son proteínas), que ayudan con la destrucción de los agentes extraños. Así tenemos, de manera simplificada, que por cada tipo de antígeno que entra al organismo se genera un anticuerpo especializado. Estos moldes permanecen en el tejido que da origen a las células blancas, de tal forma que cuando adquiri-

A un primer grupo de roedores se le mantuvo en condiciones de laboratorio normales y a otro segundo grupo que se infectó, desde crías, con antígenos patógenos extraídos de ratas de alcantarilla, después de un tiempo fueron desparasitados y sometidos a condiciones iguales a los del primer grupo

mos por el medio que sea alguna cosa que ya hayamos tenido antes en nuestro organismo, no producirá enfermedad, pues las células blancas la reconocen de inmediato, producen el anticuerpo adecuado usando el molde ya existente y el antígeno es destruido sin que nosotros lo notemos, y esto es lo que se llama memoria inmunológica, y esto es, en realidad, a lo que las abuelas se refieren con «defensas». Con lo anterior, creo que ningún padre se opondrá a que de vez en cuando el infante se chupe los dedos llenos de tierra; pero ¿qué pasaría si dijera, así como son benéficos los granos de tierra, ácaros, pólenes, también lo son las lombrices y otros antígenos «un poco más» patógenos? ¿Estaría dispuesto a parasitar, intencionalmente, a su hijo para desarrollarle un sistema inmunológico más fuerte? Estos planteamientos no son descabellados; resulta que investigadores del centro médico de la Universidad de Duke, de los Estados Unidos, publicaron, hace unos días, los resultados obtenidos a partir

de experimentos donde, a un primer grupo de roedores se le mantuvo en condiciones de laboratorio normales y a otro segundo grupo que se infectó, desde crías, con antígenos patógenos extraídos de ratas de alcantarilla, después de un tiempo fueron desparasitados y sometidos a condiciones iguales a los del primer grupo. Luego, ambos grupos fueron retados con otro tipo de antígenos, sobre todo que produjeran cuadros alérgicos severos. Resultó que el mayor porcentaje de enfermos y decesos ocurrió en los roedores del primer grupo, mientras que el segundo obtuvo un porcentaje realmente muy bajo de enfermos y decesos. Con semejantes resultados, los investigadores concluyen en dos aspectos: uno, advierten del peligro que representa la sobreprotección infantil contra el medio natural y dos, con experimentos futuros, apuntan a desarrollar una terapia contra enfermedades, sobre todo alérgicas, a partir de parasitar deliberadamente al individuo; puesto que el sistema inmune fabrica una gran diversidad de anticuerpos contra las lombrices, y otros patógenos más complejos, que se pueden utilizar para otras afecciones. Por todo lo anterior nos damos cuenta que la ciencia es la herramienta más preciada de la humanidad, pues siempre nos muestra las bondades de la naturaleza.

«Experimentos futuros, apuntan a desarrollar una terapia contra enfermedades, sobre todo alérgicas, a partir de parasitar deliberadamente al individuo; puesto que el sistema inmune fabrica una gran diversidad de anticuerpos contra las lombrices, y otros patógenos más complejos...»

El principal problema de los fármacos ingeridos por vía oral es su dificultad para actuar en órganos determinados, al diseminarse por todo el organismo a través del torrente sanguíneo. Investigadores de la Universidad Complutense de Madrid (UCM), en colaboración con otras instituciones, han diseñado un nanomedicamento que, administrado de forma oral, actúa específicamente en el bazo, el hígado y el pulmón. “Lo ideal es hacer llegar la mayor cantidad posible de fármaco a los órganos ‘diana’ y reducir la cantidad en aquellos lugares donde produce toxicidad, como pueden ser los riñones”, explica Dolores R. Serrano, del departamento de Farmacia y Tecnología Farmacéutica de la UCM y una de las autoras del estudio. Los científicos han utilizado nanopartículas de tipo GCPQ (inferiores a 250 nanómetros) a las que han incorporado anfotericina B, un fármaco antifúngico utilizado para tratar candidiasis, aspergilosis y leishmaniasis por vía intravenosa. Su uso oral resulta tóxico en otros órganos. El estudio, publicado en la revista Molecular Pharmaceutics, revela cómo las nanopartículas suministradas de forma oral a ratones y perros con estas enfermedades conseguían acumularse en el bazo, el hígado y el pulmón, dejando en los riñones una toxicidad mínima. “Al reducir la acumulación a nivel renal, se disminuye también su toxicidad en este tejido, y así se puede administrar una mayor dosis para conseguir una mejor eficacia”, indica Juan José Torrado, investigador del mismo departamento y coautor del estudio. | SINC


8 | 14 DE ABRIL DE 2 015 | C I E N C I A R I O | CAMBIO DE MICHOACÁN

Concha Monje (Badajoz, 1977) es investigadora del Robotics Lab, de la Universidad Carlos III, de Madrid. Esta ingeniera industrial es una de las responsables del desarrollo de Teo, un robot humanoide de 60 kilogramos de peso que camina y manipula objetos. Autora de casi medio centenar de artículos científicos, ahora ha trasladado sus conocimientos al mundo del cine. En concreto, ha sido asesora científica en la película Autómata, protagonizada y producida por Antonio Banderas y dirigida por Gabe Ibáñez. Esta cinta de ciencia ficción explora un futuro donde los robots humanoides toman conciencia propia.

Un robot podría evolucionar por sí mismo

El transcurrir de la ciencia

–¿Cómo asesoró en la película? «El guión ya estaba terminado, se trataba de aportar nuevas ideas o versiones distintas a lo que ya había propuesto en aquellas partes donde a nivel científico se necesitara mayor solidez. A pesar de que se trata de ficción y que hay que dejar volar la imaginación, siempre se cuidó mucho que la parte referente al diseño del robot y a sus componentes tuviera rigor». –¿Con qué parte del equipo tuvo contacto? «Con Gabe Ibáñez, el director, y con otros dos guionistas que participaron, Javier Sánchez Donate e Igor Legarreta. La experiencia con ellos fue maravillosa, son personas sencillas, hiperinteligentes, con unas capacidades artísticas y de trabajo impresionantes. Fue totalmente enriquecedor. Tuve la ocasión de hablar sobre el proyecto con Antonio Banderas y me mostró totalmente su entusiasmo y su apoyo. Me contó que no dudó lo más mínimo en decir que sí cuando le propusieron el proyecto, tanto en su papel de actor como de productor de la cinta». –¿Cómo ha sido su experiencia en el mundo del cine? «No me ha decepcionado en absoluto, yo soy muy cinéfila y siempre me he imaginado este mundo como un sector muy atractivo. Haber tenido la ocasión de colaborar con grandes profesionales me ha reportado muchísimas satisfacciones, las expectativas que me pude hacer se superaron». –¿Disponemos hoy en día de una tecnología como la que muestra Autómata? «La película retrata una visión clásica de la robótica humanoide con un punto

ESPECIAL | TOMADA DE INTERNET

«Siempre habrá un punto en el que la inteligencia propia del robot, en esa evolución, escape a nuestro conocimiento».

muy futurista en el que los robots adquieren un grado de inteligencia que supera a la humana. Estamos muy lejos de que suceda en la realidad, estamos a años luz; lo más inmediato es tener un dispositivo robótico ayudándonos en tareas cotidianas, en empresas, en fábricas y en otros muchos sectores». –¿Podría ocurrir en un futuro? «Yo creo que tarde o temprano, a lo mejor no con las mismas consignas que aparecen en la película, la evolución robótica sucederá. Con base en las reglas de comportamiento programadas, al conocimiento de su entorno y a su interacción con el resto de la humanidad, el robot podría llegar a evolucionar por sí mismo. En cualquier caso, el futuro a este respecto es muy incierto». –¿Deberíamos temer a este futuro incierto? «Yo creo que no, esto depende de cómo programemos a estos robots, qué reglas infiramos en ellos para que a partir de ahí evolucio-

nen. Evidentemente, siempre habrá un punto en el que la inteligencia propia del robot, en esa evolución, escape a nuestro conocimiento. Ahí sí que tendremos esa incertidumbre, pero entiendo que implementando unas bases sólidas éticas y morales no debemos temer». «Implementando unas bases sólidas éticas y morales no debemos temer a los robots». –¿Son los robots capaces de sentir emociones como en la película? «Nosotros, de hecho, trabajamos en el grupo de investigación Robotics Lab con la implementación de emociones en un robot social, como es Maggie. Gracias a esta implementación y a la capacidad sensorial y de procesamiento del robot, se puede conseguir que aparentemente el robot sienta y muestre su emoción a través de sus actos y de su voz». –¿Qué otras líneas de investigación sobre robótica siguen en la UC3M? «En concreto en mi departamento, y más en específico, en mi grupo de investigación Robotics Lab, tenemos varios frentes abiertos. Yo concretamente me dedico a la robótica humanoide. Tenemos un robot humanoide llamado Teo, que tiene habilidades de locomoción y de manipulación. Son habilidades que hay que desarrollar e implementar en el robot. A eso nos dedicamos fundamentalmente. Tenemos otro subgrupo que se dedica a robótica social con Maggie, y otro que se encarga de robots asistenciales, para apoyar a personas con discapacidad. Además, hay otras muchas aplicaciones en las que dividimos la investigación. | Agencia SINC

ESPECIAL | TOMADAS DE INTERNET

Vestigios del tipo Neanderthal. Los primeros humanos estaban muy diversificados, según muestran un cráneo y una mandíbula encontrados en una caverna en Laos. El cráneo es el fósil humano más antiguo del sudoeste de Asia y data de las primeras migraciones hacia esa región hace 46 mil a 63 mil años. La mandíbula, que data de la misma época, tiene tanto características del hombre moderno (el mentón prominente), y al mismo tiempo caracteres antiguos, como fuertes huesos donde se insertan los dientes, tipo Neanderthal. Algunos investigadores han utilizado estas características, como evidencia de que los humanos modernos que migraron a nuevas regiones, se entremezclaron con las poblaciones nativas. Hay evidencias de combate y canibalismo entre tiranosaurios. Un nuevo estudio documenta las lesiones infringidas, tanto en vida como muerto, a un daspletosauro, un animal grande del género de los tiranosaurios que vivió en Canadá. El cráneo presenta numerosas mordeduras, algunas de ellas fueron hechas por otro daspletosauro durante su vida y también fue mordido cuando ya era carroña, por otro tiranosaurio. Entonces hubo un evidente combate entre los dos grandes carnívoros y también un banquete. El animal medía seis metros de longitud y aproximadamente 500 kilogramos de peso. La mayor extinción fue provocada por la acidificación marina. Un estudio coordinado por la Universidad de Edimburgo es el primero en mostrar que los cambios químicos en los océanos provocados por el vulcanismo, originó la gran extinción Permo-Triásica hace 252 millones de años. La acidificación, que duró unos diez mil años, se debió a la disolución del bióxido de carbono en el océano y provocó la extinción del 90 por ciento de las especies marinas y más de los dos tercios de las terrestres. La emisión del CO2 ocurrió probablemente al mismo ritmo en que se está liberando en nuestros días, debido a las actividades humanas. | Por el seguimiento y la redacción, Cuauhtémoc Sarabia.


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.