Saberes y Ciencias Número 78: Nanotecnología

Page 1

Sabere ienciaS

agosto 2018 · número 78 · año VII · Suplemento mensual

Nanotecnología


2

agosto · 2018

Contenido

Editorial

3LaLaEscuela entrevista de Física de la BUAP, la mejor del país

Renovación moral

· La imagen de nuestra portada corresponde a nanopartículas poliméricas sintetizadas mediante microfluídica en celda de vidrio.

y los magros resultados de sus estrategias y políticas se capitalizó hacia López Obrador y la propuesta electoral de Morena; los sufragantes del tabasqueño esperan una reorientación de las políticas públicas y un manejo honesto y eficiente del gasto público. Reestabecer la confianza en las instituciones, mejorar la seguridad pública, elevar la calidad de vida de la mayoría y garantizar honestidad en el manejo del erario son principios alentadores para emprender una transformación profunda de las instituciones y establecer las autonomías no sólo de los poderes Ejecutivo, Legislativo y Judicial, sino también de los organismos gremiales, sociales y políticos con el Poder Ejecutivo. La austeridad presupuestal aunada al manejo probo y eficiente del erario podrán liberar recursos públicos para inversión u otros gastos sociales equivalentes a un tercio de los ingresos presupuestarios del año en curso, lo que será un apreciado fondeo para iniciar la gestión presidencial sin aumentar la contratación de deuda pública ni la tributación fiscal. Pero es necesario que la productividad laboral y los flujos de inversión aumenten y disminuya la dependencia de las importaciones, y que el producto generado no sólo sea verde, sino demandante de fuerza de trabajo y en esa dirección esperamos que se diseñen y ejecuten las estrategias y políticas públicas de la próxima gestión presidencial.

info@saberesyciencias.com.mx

4 Liberación controlada de fármacos y principios activos usando redes metal orgánicas SANDRA LOERA-SERNA, HIRAM ISAAC BELTRÁN, RUBÉN RUIZ RAMOS, ANA CALDERÓN GARCIDUEÑAS, EFRAÍN GARRIDO GUERRERO, CLAUDIA MENDOZA-BARRERA, VÍCTOR ALTUZAR

5 El óxido de zinc en la nanotecnología MARÍA DEL ROSARIO HERRERA-RIVERA, ANA MARÍA PINEDA-REYES, ARTURO MALDONADO ÁLVAREZ, MARÍA DE LA LUZ OLVERA-AMADOR

6 Tecnologías para la síntesis controlada de nanomateriales JOSÉ GUADALUPE QUIÑONES GALVÁN, ISRAEL CEJA ANDRADE, ARTURO CHÁVEZ CHÁVEZ, GILBERTO GÓMEZ ROSAS, ARMANDO PÉREZ CENTENO, LAURA PATRICIA RIVERA RESÉNDIZ, MIGUEL ÁNGEL SANTANA ARANDA

7 Nanoacarreadores por microfluídica ALDO Y. TENORIO-BARAJAS, VICTOR ALTUZAR, ANA L. CALDERÓN-GARCIDUEÑAS, RUBÉN RUIZ-RAMOS, EFRAÍN GARRIDO-GUERRERO, CLAUDIA MENDOZA-BARRERA

8

Aspectos tóxicos de los nanomateriales CLAUDIA MENDOZA-BARRERA, EFRAÍN GARRIDO-GUERRERO, ANA L. CALDERÓN-GARCIDUEÑAS, VÍCTOR ALTUZAR, SANDRA LOERA SERNA, HIRAM BELTRÁN CONDE, RUBÉN RUIZ-RAMOS

El papel de la nanotecnología en el diagnóstico y tratamiento del cáncer VICTOR ALTUZAR, RUBÉN RUIZ-RAMOS, CLAUDIA MENDOZABARRERA, EFRAÍN GARRIDO-GUERRERO, SANDRA LOERA SERNA, HIRAM BELTRÁN CONDE, ANA L. CALDERÓN-GARCIDUEÑAS es un suplemento mensual auspiciado por La Jornada de Oriente DIRECTORA GENERAL Carmen Lira Saade DIRECTOR Aurelio Fernández Fuentes CONSEJO EDITORIAL Leopoldo Altamirano Robles Jaime Cid Monjaraz Alberto Cordero Sergio Cortés Sánchez José Espinosa Julio Glockner Raúl Mújica COORDINACIÓN EDITORIAL Sergio Cortés Sánchez REVISIÓN Aldo Bonanni EDICIÓN Denise S. Lucero Mosqueda DISEÑO ORIGINAL Y FORMACIÓN Elba Leticia Rojas Ruiz Dirección postal: Manuel Lobato 2109, Col. Bella Vista. Puebla, Puebla. CP 72530 Tels: (222) 243 48 21 237 85 49 F: 2 37 83 00 www.lajornadadeoriente.com.mx www.saberesyciencias.com.mx

Tus comentarios son importantes para nosotros, escríbenos a:

DENISE LUCERO MOSQUEDA

9

Directorio

Más de 30 millones de ciudadanos sufragaron por Andrés Manuel López Obrador, quien ya es presidente electo. En menos de un lustro, el partido fundado por ese dirigente es ya la primera fuerza electoral en el país y, junto con sus coaligados Partido del Trabajo y Partido Encuentro Social, son mayoría absoluta en el Congreso de la Unión. La ascendencia electoral del líder de Morena permeó tanto las elecciones federales como las locales y la coalición Juntos Haremos Historia ganó la mayor parte de gubernaturas disputadas así como las presidencias municipales y los Congresos locales. Muchos de los funcionarios y legisladores electos tienen una identidad política frágil con sus partidos y una inexistente lealtad con sus electores, puede cambiar de partido y de bancada fácilmente por un plato de lentejas o por expectativas de realización personal: la mayoría absoluta de Morena puede convertirse en mayoría calificada o en primera minoría. No es la primera vez que un candidato presidencial opuesto a los partidos Acción Nacional o Revolucionario Institucional gana una elección presidencial, pero sí es la primera que se le reconoce el triunfo. En 1988 estaban presentes los demoledores efectos socioeconómicos de una prolongada e intensa crisis económica, esa vez el voto de castigo se orientó hacia el ingeniero Cuauhtémoc Cárdenas Solórzano, candidato presidencial del Frente Democrático Nacional; los resultados conocidos el día de la elección le dieron una amplia ventaja a Cárdenas sobre el candidato presidencial del PRI, el sistema de cómputo enmudeció y cuando fue restaurado el registro de votación era distinto al observado en urnas. En 2006 el candidato presidencial con mayor número de sufragios fue López Obrador; una quirúrgica alteración de actas cambió el resultado. En el reciente proceso electoral fue obvia la preferencia hacia López Obrador, quien se ubicó siempre por encima de las intenciones sumadas de todos sus contrincantes, ante esta evidencia, los partidos gobernantes —que controlan los órganos electorales— se obcecaron en retener candidaturas locales a través del fraude electoral, como fue evidente en la elección de gobernador en Puebla. La corrupción y la impunidad fueron causales importantes de la confianza depositada en López Obrador. Él fue dirigente del PRD y posteriormente de Morena, Jefe de gobierno de la actual Ciudad de México, y en su desempeño en esos cargos fue congruente, probo, trabajador y leal con sus electores. El desprestigio de los partidos y gobiernos neoliberales

AÑO VII · No. 78 · agosto 2018

Las opiniones expresadas en las colaboraciones son responsabilidad del autor y de ninguna manera comprometen a las instituciones en que laboran.

10 Las razones que forjaron la voluntad de cambio JAIME ORNELAS DELGADO

11 Tekhne Iatriké La nanotecnología en medicina JOSÉ GABRIEL ÁVILA-RIVERA

12 Tras las huellas de la naturaleza Motivos para aderezar mi vida con ciencia TANIA SALDAÑA RIVERMAR Y CONSTANTINO VILLAR SALAZAR ILUSTRACIÓN: DIEGO TOMASINI “EL DIBRUJO”

13 Reseña (incompleta) de libros El escándalo de Volkswagen. Cómo, cuándo y por qué Volkswagen manipuló las emisiones de sus vehículos ALBERTO CORDERO

14 El objeto del Las mes Lágrimas de San Lorenzo RAÚL MÚJICA Calendario astronómico agosto 2018 JOSÉ RAMÓN VALDÉS

15 A ocho minutos Misterio resuelto: primera fuente extragaláctica de rayos cósmicos detectada SARA COUTIÑO DE LEÓN

16 Agenda Épsilon

JAIME CID MONJARAZ


3

agosto · 2018

La

Denise Lucero Mosqueda

La Escuela de Física de la BUAP, la mejor del país Con 68 años de experiencia, programas de investigación acreditados, cuerpos académicos consolidados y actividades de extensión y difusión de la cultura, el área de Física de la BUAP se coloca como la mejor del país en esta área, según el ranking Best Global Universities 2018, de la revista estadounidense U.S. News & World Report. Esta medición evaluó a 600 universidades del mundo en 22 áreas temáticas; en su evaluación consideró indicadores como publicaciones, citas totales, conferencias, libros, número de publicaciones que están en el 10 por ciento más citado, número de artículos que se encuentran entre el uno por ciento superior más citado en este campo, colaboraciones internacionales, así como reputación global y regional en investigación. Con un puntaje de 64.9 en la evaluación en Física, la BUAP superó a la Universidad Nacional Autónoma de México, la Universidad Autónoma de San Luis Potosí, el Instituto Politécnico Nacional y la Universidad Michoacana de San Nicolás de Hidalgo. La escuela de Física es la tercera más grande del país, después de la UNAM y la Escuela Superior de Física y Matemáticas, y supera la media nacional en la participación de mujeres en la matrícula, con la representación del 30 por ciento. Actualmente, la facultad tiene una matrícula de mil 500 alumnos, mil 364 estudiantes de licenciaturas y 247 de posgrado.

internacional— y Maestría en Educación Matemática —de reciente creación— son los cinco programas de posgrados de calidad que constituyen la oferta educativa de la facultad. Los profesores de tiempo completo participan en 14 cuerpos académicos, 10 de ellos consolidados: Análisis Matemático, Biofísica Mecánica, Física de Materiales, Física Médica, Óptica, Óptica cuántica, Opto-electrónica y Fotónica. Además de Ecuaciones Diferenciales y Modelación Matemática, Nueva Física en Aceleradores y el Cosmos, Partículas Campo y Relatividad General, Probabilidad y Estadística. PROYECTOS

DE INVESTIGACIÓN

Y PARTICIPACIÓN INTERNACIONAL

institución de alta movilidad nacional e internacional. En el último año, 154 alumnos participaron en congresos, encuentros, talleres y otras actividades académicas. LOS INVESTIGADORES LOS

PROGRAMAS CONSOLIDADOS

DE LA

FCFM,

SU FORTALEZA

Martha Alicia Palomino Ovando, doctora en Química Aplicada por la Universidad de Ginebra Suiza y directora de la facultad de Ciencias Físico Matemáticas para la gestión (2016-2020) considera que los excelentes resultados del área de Física son producto del ambiente académico, participativo e innovador que se desarrolla en la facultad. “La favorable puntuación obtenida en el ranking de la publicación estadunidense da cuenta la proyección de escuela que tiene la Facultad de Ciencias Físico Matemáticas (FCFM), que ofrece 10 programas estudio: cinco licenciaturas, Física, Física aplicada, Matemáticas, Matemáticas aplicadas y Actuaría, y cinco posgrados, Maestría en Ciencias Física Aplicada, Maestría en Ciencias Matemáticas, Maestría en Educación Matemática y Doctorado en Ciencias Física Aplicada, Doctorado en Ciencias Matemáticas”. En los últimos años, el interés por estas áreas del conocimiento ha crecido, se ha incrementado el número de solicitantes para el ingreso a algunas de las cinco licenciaturas que oferta la FCFM; en el proceso de admisión pasado algunos postulantes fueron rechazados; en Física es admitido uno de cada dos aspirantes, en Actuaría, uno de cada tres. LOS

ESTUDIANTES

La participación de los estudiantes en proyectos de investigación, estancias, congresos, talleres y olimpiadas de conocimiento también sobresalen en las actividades de la facultad. “El buen desempeño de los estudiantes los ha hecho acreedores a becas y premios que significan colaboración en proyectos de investigación, en publicaciones, estancias de verano de investigación en instituciones internacionales de como el Fermi National Accelerator Laboratory (FERMILAB), y en Laboratorios Experimentales en Física de Altas Energías”, precisó la directora de esta unidad académica. Alumnos de posgrado realizaron 118 estancias nacionales e internacionales en el último año, lo que significa que la mitad de la matrícula realizaron alguna estancia o participaron en algún evento académico, lo que posiciona a la facultad como

Profesora en los primeros semestres de licenciatura, directora de tesis licenciatura y posgrado, Martha Palomino desarrolla sus investigaciones en las propiedades ópticas de materiales y si bien su tarea de dirección no le permite dedicarse tiempo completo a la investigación, participa activamente en tareas de docencia, trabajo redes de colaboración y cuerpos académicos. “En la facultad, un amplio porcentaje de la planta docente es de tiempo completo, todos los profesores participan en la robusta agenda académica. Los académicos de la FCFM colaboran con la Organización Europea para la Investigación Nuclear (CERN), en Suiza, particularmente en el Gran Colisionador de Hadrones (LHC), en los experimentos CMS y ALICE”. 146 docentes atienden la matrícula de la facultad, 20 por ciento tienen el grado de maestría y 80 por ciento tienen grado de doctores. 88 pertenecen al Sistema Nacional de Investigadores, 79 participan en el Programa para el Desarrollo Profesional Docente (PRODEP) para el nivel superior y 84 pertenecen al Padrón de investigadores de la Universidad. En el último año, la planta académica de la facultad publicó más de 100 artículos en revistas de alto impacto, en al menos la mitad de dichas publicaciones hay participación de hasta dos investigadores. Cinco investigadores realizaron estancias en la Universidad de Kiev, Ucrania, la Academia de Ciencia de Rusia, The University ok Texas Rio Grande Valley, en la UNAM y UAM. “La participación en convocatorias de Conacyt ha permitido reforzar la planta académica con la participación, este año, de seis investigadores que realizan estancias posdoctorales además de las 11 cátedras Conacyt”, señaló la investigadora responsable de la FCFM. Las cátedras Conacyt, son profesores investigadores contratados por el Consejo que son asignados a instituciones que concursan por convocatoria con proyectos de investigación desarrollo tecnológico e innovación, “que tengan por objetivo atender problemas de importancia nacional”. LOS

POSGRADOS

Maestría en Ciencias Física Aplicada, Maestría en Ciencias Matemáticas, Doctorado en Ciencias Física Aplicada y Doctorado en Ciencias Matemáticas —todos de competencia

Además de los proyectos nacionales e internacionales en los que participan docentes y estudiantes de los distintos programas académicos, la facultad ejerció en el último año ocho proyectos financiados por Conacyt en sus distintas convocatorias, como ciencia básica, infraestructura y proyectos bilaterales, además de los de financiamiento institucional tanto grupales como individuales. Existe una importante participación en foros como las redes de Física Médica, de Fisicoquímica teórica, de Altas Energías, de Temática científica y tecnológica para ALICE HC, Colaboración Internacional ALICE LHC de European Organization for Nuclear Research (CERN) y colaboración Internacional Noclotron-based Ion Collider Facility (NICA). ACTIVIDAD

ACADÉMICA Y DIVULGACIÓN CIENTÍFICA

Desde 2011 Del Aula al Universo: un telescopio para cada escuela es uno de lo programas de divulgación científica más amplio y ambicioso del país, con un amplio reconocimiento entre la comunidad científica. El programa ha beneficiado con más de 900 telescopios construidos con la participación de más de 4 mil 500 estudiantes a escuelas secundarias y bachilleratos de Puebla, Aguascalientes, Puebla, Morelos, Oaxaca, Querétaro, Quintana Roo, San Luis Potosí, Sonora y Tlaxcala. Otro de los programas de divulgación, extensión y difusión es el de entrenamiento para concursos de olimpiadas de matemáticas en nivel básico y medio superior. Se ofrece el Diplomado en matemáticas dirigido a docentes de nivel básico medio y medio superior con el objetivo de mejorar sus prácticas docentes. Además, el Taller Internacional nuevas tendencias en la enseñanza de la Física con impacto en los profesores de enseñanza media superior del estado y la región y el Taller Internacional de Tendencias en la Educación Matemática basada en la investigación con impacto en docentes de los tres niveles educativos. También grupos de estudiantes participan en programas de divulgación científica de la Optical Society (OSA) e Internacional Society for Optics and Photonics (SPIE), realizando actividades de divulgación, llevando información científica a la sociedad. La FCFM es la sede de la Noche de las Estrellas organizada por la Universidad, en la edición de 2017, la facultad atendió a más de 15 mil visitantes, ofreció mas de 60 conferencias y decenas de talleres para niños, jóvenes y adultos, de manera coordinada con otras unidades académicas de la institución. deniselucero@gmail.com


4

agosto · 2018

Sandra Loera-Serna*, Hiram Isaac Beltrán, Rubén Ruiz Ramos, Ana Calderón Garcidueñas, Efrain Garrido Guerrero, Claudia Mendoza-Barrera, Víctor Altuzar

Liberación controlada de fármacos y principios activos usando redes metal orgánicas

E

n la Ciencia e Ingeniería de Materiales existe un particular interés en desarrollar nuevos materiales que a su vez cuenten con propiedades inocuas a los organismos, con tamaño de partícula modulable y que tengan propiedades multifuncionales. En este sentido, recientemente se ha desarrollado una nueva clase de materiales híbridos (orgánicos-inorgánicos) denominados redes metal orgánicas o MOF por sus siglas en inglés Metal Organic Frameworks. Estos materiales están constituidos por al menos un centro metálico, que actúa como un ácido de Lewis, y un ligante orgánico, que actúa como base de Lewis, dando lugar a coordinaciones o interacciones entre el ligante y el centro metálico. El estado de oxidación, el número de coordinación del metal y el tipo de ligando utilizados en la síntesis, determinan la geometría de la red, la cual puede ser i) unidimensional, en forma de nodos de coordinación lineales, ii) bidimensional, formando láminas, hojas o laderas, o iii) tridimensional, formando estructuras con cavidades generalmente ocupadas por moléculas de solvente u otras moléculas de interés, tal cual revisaremos más adelante. Las aplicaciones de las MOF están determinadas por sus propiedades fisicoquímicas; entre las aplicaciones más estudiadas se encuentran: el almacenamiento de combustibles (hidrógeno, metano, entre otros), captura de dióxido de carbono, catálisis heterogénea, intercambio iónico, luminiscencia, óptica no lineal, conductividad eléctrica, magnetismo, y más recientemente como sistemas de liberación controlada de fármacos. En particular, para que un material pueda ser utilizado como vehículo de fármacos, es necesario que cumpla con requisitos como: compatibilidad biológica, baja toxicidad, estabilidad en medios fisiológicos, tamaño de partícula adecuado y superficie modulable. En este sentido las MOF presentan ventajas comparadas con los materiales tradicionales (micelas, polímeros, sílice, entre otros), ya que pueden diseñarse (ver Figura): a) Con metales de baja toxicidad, además biocompatibles (por ejemplo Fe, Al, Mg, Ca, etcétera); b) de forma que sean estables o persistentes en el tiempo necesario o en las condiciones adecuadas para liberar la sustancia activa; c) utilizando ligandos orgánicos con actividad biológica, de tal forma que al ser liberados los componentes que conforman el material, éstos tengan acción directa en la cura o tratamiento de determinada enfermedad, o en el lugar de acción específico; d) con un tamaño de partícula controlado mediante la modificación de los parámetros o del tipo de síntesis; e) de manera que cuenten con sitios específicos de adsorción usando grupos funcionales particulares unidos a los ligandos orgánicos; f) con una estructura flexible, capaces de adsorber moléculas de mayor tamaño, comparadas con el tamaño de las cavidades. Teniendo en cuenta todas estas posibilidades, se han estudiado MOF de baja toxicidad, mayoritariamente empleando Fe, con ligantes como: ácido mucónico (MIL-89), ácido fumárico (MIL-88A), ácido trimésico (MIL-100), ácido amino tereftálico (MIL-101-NH2) y ácido tereftálico (MIL-53). Como fármacos que se cargan al material se han empleado en tratamientos preliminares contra el cáncer o como antivirales (cidofovir, busulfan, acidotimidina trifosfato y duxorubicina), obteniendo cargas o retenciones de hasta 42 %wt, con un 91 por ciento de eficiencia en el proceso de carga o encapsulado. Asimismo, la liberación fue completa y se llevó a cabo de forma progresiva/controlada (por ejemplo: hasta 14 días en el caso de la duxorubicina). A pesar de que se presentan a las MOF como sistemas prometedores para la liberación controlada de fármacos y otras aplicaciones biomédicas como agentes de contraste para la obtención de imágenes por resonancia magnética nuclear, la mayoría de los estudios se encuentran en etapa de desarrollo o de prueba. Existen varias revisiones que describen el uso de las MOF en bioaplicaciones, tal es el caso del trabajo desarrollado por Horcajada y Serre donde realizaron una revisión sobre MOF en biomedicina que cubre el progreso hasta 2012 relacionado con el uso de

MOF como agentes teranósticos y en la evaluación de seguridad biológica. En 2015, el grupo de Lin informó otra revisión que abarca los últimos 10 años, sobre las aplicaciones de MOF en la administración de fármacos, imágenes y detección. También se han presentado algunas revisiones sobre MOF con tamaño nanométrico para terapia fotodinámica y MOF sensibles a estímulos para el suministro de fármacos y la terapia del cáncer. Más recientemente (2018) el grupo de Xie elaboró una revisión sobre los métodos de carga de fármacos basados en MOF usando tres estrategias para adsorción y posterior liberación: 1) encapsulado, 2) ensamblaje directo y 3) adsorción post-síntesis. Entre los resultados más destacables de los trabajos y revisiones antes mencionados, se encuentra que el estudio de las interacciones entre la MOF y el portador es fundamental para la predicción de las propiedades y el diseño de nuevas estructuras que puedan tener mayor capacidad de carga y una liberación más gradual o modulable. Las estrategias planteadas son fundamentales en el control de la concentración del fármaco en el medio fisiológico. Los estudios incluyen resultados experimentales y cálculos teóricos que permiten plantear mejores estrategias en la implementación de MOF en las diversas aplicaciones biomédicas tanto mostradas como potenciales.

· Propuesta de generación de nuevos sistemas de liberación controlada de fármacos y principios activos empleando MOFs.

Existen desafíos que deben resolverse antes de poner en práctica un sistema de liberación basado en MOF de forma comercial, entre ellos se encuentran: el control del tamaño de partícula y la morfología, para garantizar la circulación sanguínea prolongada, la captación celular mejorada y la liberación de cargas de tipo controlable. Además, con respecto a las aplicaciones biomédicas, los compuestos que se liberen una vez que la MOF descarga totalmente al principio activo deben ser procesados o asimilados por el sistema metabólico del cuerpo sin generar ningún efecto adverso. El mecanismo “ADME” (“absorción-distribución-metabolismo-excreción”) de las MOF deberá ser comprendido totalmente para asegurar la baja toxicología y la minimización de efectos adversos en las pruebas in vivo. Para atender dichos desafíos es necesario realizar trabajos multidisciplinarios donde participen grupos de investigación en ciencia e ingeniería de materiales, expertos en toxicología forense, biólogos, bioquímicos, biofísicos, genetistas y médicos, además de expertos en aquellas áreas de investigación emergentes que aporten al entendimiento de estos sistemas tan prometedores. * sls@azc.uam.mx


5

agosto · 2018

María del Rosario Herrera-Rivera, Ana María Pineda-Reyes, Arturo Maldonado Álvarez, María de la Luz Olvera-Amador*

El óxido de zinc en la nanotecnología

E

l presente siglo podría conducirnos a una segunda revolución industrial debido a los importantes avances en la ciencia de los materiales. Una revolución tecnológica se inicia en la década de 1980, con el auge de las nanociencias y la nanotecnología, registrándose un impacto sorprendente en diferentes campos de la ciencia, ya que ésta presenta un carácter interdisciplinar, abarcando las áreas de la física, química, biología, medicina, electrónica, informática, y por supuesto las matemáticas. Pero, ¿qué debemos entender por nanotecnología? Una descripción sencilla la definiría como el estudio de sistemas de tamaño nanométrico, o de dimensiones nano (nano, es un prefijo que indica un tamaño -9 de 10 = 0.000 000 001 metros). Y el estudio de sistemas comprende el diseño, fabricación y aplicación de éstos. En la actualidad, cada día se publican miles de artículos científicos relacionados con la física y aplicaciones de diferentes nanosistemas, como son las nanopartículas, a pesar de carecer de un análisis formal sobre los beneficios y riesgos de su utilización en el medio ambiente y los seres vivos en general. Lo atractivo de la nanotecnología, además del tamaño mínimo de los sistemas, es el desempeño de los materiales (átomos o moléculas) a nano escala que los conforman, ya que éstos presentan propiedades o comportamientos diferentes a los de dimensiones mayores. Una de las áreas con mayor beneficio del estudio de los nanomateriales es la electrónica ya que gracias a estos se ha mejorado las aplicaciones como lo son los dispositivos de almacenamiento incrementando su capacidad, la velocidad de procesamiento o la telefonía en el diseño de aparatos con múltiples funciones. Como ejemplo de materiales que han sido ampliamente estudiados en los últimos años por sus potenciales aplicaciones en el campo de la nanotecnología, están los óxidos semiconductores, los cuales se pueden sintetizar por métodos químicos en un laboratorio que no requiere de un equipo sofisticado para su procesamiento. Entre los métodos utilizados para la síntesis de estos materiales se pueden mencionar: método de precipitación homogénea, sol-gel, rocío químico, baño químico, depósito en fase vapor, etcétera. La elección del método de obtención dependerá de las características requeridas para una aplicación en particular, así puede ser procesado en forma de polvo o película. En la Sección de Electrónica del Estado Sólido del Cinvestav, estamos interesados en estudiar materiales semiconductores de amplio ancho de banda prohibida, como son el óxido de zinc, ZnO, óxido de estaño, SnO2 y óxido de titanio, TiO2, para su aplicación como sensores de gases. Los métodos empleados para la síntesis de estos materiales son: precipitación homogénea y micro emulsiones para obtener polvos; y las técnicas de rocío

químico, sol-gel, evaporación térmica y pulverización catódica para películas delgadas y gruesas. De los estudios realizados hemos demostrado que el desempeño o eficiencia de nuestros materiales muestra una dependencia con el tamaño de las partículas, resultado asociado al incremento de la razón área/volumen a medida que se disminuye su tamaño. Uno de los materiales que más hemos estudiado es el óxido de zinc (ZnO), el cual es un óxido semiconductor que presenta características particulares, tales como ancho de banda grande, ~3.36 eV, conductividad eléctrica modulable, altamente transparente cuando se presenta en forma de película y cristaliza en una fase hexagonal tipo wurtzita, estas características hacen posible su empleo en la nanoelectrónica, entre sus principales aplicaciones se pueden mencionar: sensores de gases, fotocatalizadores, celdas solares, capas antirreflejantes, electrodos conductores transparentes, espejos térmicos, entre otras. Un trabajo de investigación desarrollado consistió en la fabricación de pastillas a base de polvos nanométricos de ZnO, estos polvos fueron obtenidos mediante la técnica de precipitación homogénea, la cual consiste en la síntesis del polvo a partir de una solución que contiene los iones del elemento químico de interés. La precipitación del compuesto se logra mediante la adición de un agente llamado precipitante, posteriormente se separan las fases sólido-líquido mediante centrifugación, y finalmente, la pasta obtenida es secada témicamente para obtener los polvos. La técnica de precipitación homogénea permite obtener nanopartículas del orden de aproximadamente 28 nm, con diferentes geometrías: nanoesponjas, nanobarras, nanoflores y nanoesferas, dependiendo de las condiciones del proceso y secado. El tamaño y geometría de las partículas del polvo se conocen mediante microscopía electrónica de barrido. A menor tamaño de partícula se presenta una relación área/volumen mayor; este resultado y el tipo de geometría son aprovechados en diferentes aplicaciones en el área de la nanotecnología, como son la detección de gases mejorando su sensibilidad a bajas concentraciones de gas además de trabajar a bajas temperaturas. Los sensores de gases a base óxidos semiconductores son dispositivos de fácil acceso y sencillo funcionamiento, permitiendo que estos sean utilizados tanto en la industria como en el hogar. Otra de las aplicaciones que hemos dado al ZnO es para la purificación de agua actuando como catalizadores bajo una radiación ultravioleta, lo cual conduce a la fotodegradación del color y los contaminantes. Una propiedad importante del ZnO es que un material no tóxico al contacto con la piel, lo que da lugar a su aplicación en la cosmetología para la fabricación de cremas antiedad y bloqueadores solares, así como en el campo de la medicina como antimicótico y cicatrizante. molvera@cinvestav.mx


6

agosto · 2018

José Guadalupe Quiñones Galván*, Israel Ceja Andrade, Arturo Chávez Chávez, Gilberto Gómez Rosas, Armando Pérez Centeno, Laura Patricia Rivera Reséndiz, Miguel Ángel Santana Aranda**

U

n nanomaterial es aquel en el cual alguna o sus tres dimensiones son reducidas por debajo de 100 nm (el diámetro del cabello humano mide alrededor de 50,000 nm; el de un glóbulo rojo ~ 6,000 nm; el del virus de inmunodeficiencia humana ~ 150 nm). Esta reducción de tamaño implica la aparición de nuevas o mejores propiedades que las existentes en el material en bulto. Las aplicaciones de los nanomateriales cubren básicamente todas las áreas tecnológicas que podamos imaginarnos, desde biomedicina hasta celdas solares. Este amplio conjunto de aplicaciones, así como la tecnología utilizada para diseñar, producir y manipular materiales de escala nanométrica, acuñan el término de nanotecnología. En décadas recientes se ha producido un boom a nivel global en esta área del desarrollo tecnológico, dado los fascinantes y en ocasiones inimaginables fenómenos observados cuando se analiza algún material con escalas nanométricas. Un ejemplo es el famoso grafeno, material que consiste en una capa de átomos de carbono dispuestos en una estructura hexagonal plana, en la cual los electrones pueden alcanzar velocidades relativistas (cercanas a la velocidad de la luz), fenómeno que no sería posible en un cristal de grafito. Otro ejemplo son los puntos cuánticos, materiales cero-dimensionales (con sus tres dimensiones reducidas a unos cuantos nanómetros); a partir de los que pueden obtenerse, por ejemplo, emisiones intensas de luz en colores específicos, utilizadas para procesar información en un sinfín de aplicaciones en áreas tan variadas como: telecomunicaciones, biomedicina, seguridad y optoelectrónica. Como estos ejemplos existen cientos y cientos más. El mayor reto que enfrentamos al trabajar con materiales de escala nanométrica es el de perfeccionar o desarrollar métodos que permitan fabricarlos de forma controlada. Una manera de clasificar las técnicas de fabricación de nanomateriales es entre las que usan procesos físicos y químicos, cada una con sus ventajas y desventajas. Los procesos químicos se basan en reacciones de diferentes precursores que arrojan como producto un nanomaterial. La principal desventaja en este tipo de métodos de síntesis es la casi inminente producción de residuos, que pueden contaminar el material deseado, e incluso pueden ser dañinos para el medio ambiente; sin embargo, tienen la gran ventaja de poder producir nanomateriales en grandes cantidades. Con respecto a los métodos físicos, que consisten en la síntesis de los materiales a través de procesos como evaporación, incremento en la presión, generación de plasmas, entre otros, involucrando directamente fenómenos físicos; se tiene la ventaja de un control más preciso en tamaños, formas y composición de los materiales, además de reducir los residuos peligrosos. No obstante, son más costosos, más complejos y por lo tanto es difícil escalar la producción a nivel industrial. Entre las técnicas físicas destacaremos el depósito de películas delgadas por láser pulsado (PLD) y la síntesis de nanopartículas por ablación láser de sólidos en líquidos (ALSL). Éstas utilizan un láser pulsado de alta potencia, que, enfocado sobre un material sólido (llamado “blanco”), produce un calentamiento local que lleva a la fusión y evaporación rápida de material irradiado (ablación), para después generar un plasma que se expandirá de manera perpendicular a la superficie del blanco. El proceso de PLD se lleva a cabo dentro de una cámara de vacío en la cual es necesario mantener una presión controlada, las especies contenidas en el plasma serán depositadas en un sustrato colocado frente al blanco. Por otro lado, si el blanco se confina en un líquido, el plasma formará una burbuja de cavitación, que al no poder expandirse por una larga distancia terminará por colapsar, dando

lugar a la generación de nanopartículas del material ablacionado (ALSL), la forma, estructura y composición de las nanopartículas dependerán de los parámetros del láser y del líquido confinante. Al ser técnicas de síntesis físicas, se generan menos subproductos o residuos dañinos al ambiente, y el control con el que se pueden sintetizar los materiales tiene una alta precisión que difícilmente se puede obtener por otros métodos. En lo que respecta a las técnicas químicas, describiremos la de adsorción y reacción sucesiva de capas iónicas (SILAR), el depósito en baño químico (CBD) y la Sol-Gel, que permiten el depósito de nanopartículas y/o películas nanométricas; así como la síntesis de nanomateriales por tratamiento hidrotermal. La técnica de SILAR consiste en la inmersión sucesiva de un sustrato en soluciones que contienen los diferentes iones del material a depositar. En cada inmersión se adhieren iones a la superficie del sustrato (adsorción), para reaccionar con el ion opuesto al ser sumergido en la solución subsecuente. Esta técnica permite depositar nanopartículas o nanocapas de compuestos con múltiples elementos químicos (binarios, ternarios, cuaternarios, etcétera). La calidad de los materiales puede ser controlada mediante el tipo de reacciones utilizadas para generar los iones, así como el tiempo y la velocidad de inmersión. Mientras que en el CBD, aunque similar, el sustrato se sumerge en una solución única que contiene los reactivos con todos los elementos involucrados. En esta técnica hay dos mecanismos principales de reacción, uno ocurre en la solución, llevando a la formación de nanopartículas que después se adhieren al sustrato, mientras que el otro consiste en la adsorción de iones en la superficie del sustrato a partir de los cuales se genera un proceso de coalescencia que da lugar al crecimiento de nanocompuestos en la superficie del sustrato. En cambio, en la técnica de Sol-Gel primero se genera una mezcla conocida como Sol, que consiste mayormente en una solución líquida; para después, a través de procesos de hidrólisis y condensación, formar un gel, que es un material predominantemente sólido que encierra un solvente líquido. Este gel puede secarse para la obtención de nanomateriales o bien depositarse como película delgada nanoestructurada; por goteo y centrifugado, o por inmersión. Finalmente, la técnica hidrotermal es una hibridación de procesos físicos y químicos, que consiste en realizar reacciones químicas en una solución (acuosa o noacuosa), encerrada herméticamente en un recipiente que al calentarse promueve el incremento de presión en su interior (como en una olla express); simulando el proceso de formación de cristales dentro de la tierra, pero de forma controlada y en tiempos más cortos. En este proceso se alcanzan fácilmente presiones de cientos de psi (la presión a 100 metros de profundidad en el agua equivale a 145 psi). Entre sus virtudes está la posibilidad de sintetizar materiales que por otros métodos químicos resulta complicado. La principal ventaja de estas técnicas es la relativa facilidad con que pueden ser escaladas a niveles industriales. En el Cuerpo Académico de Física de Materiales, del Centro Universitario de Ciencias Exactas e Ingenierías de la Universidad de Guadalajara, realizamos investigación encaminada al desarrollo de nuevos nanomateriales, empleando las tecnologías aquí descritas.

TECNOLOGÍAS

PARA LA SÍNTESIS CONTROLADA DE NANOMATERIALES

* jose.quinones@academicos.udg.mx, ** msantana.aranda@academicos.udg.mx


agosto · 2018

7

Aldo Y. Tenorio-Barajas, Victor Altuzar, Ana L. Calderón-Garcidueñas, Rubén Ruiz-Ramos, Efraín Garrido-Guerrero, Claudia Mendoza-Barrera*

L

Nanoacarreadores por microfluídica

a Unión Internacional de Química Pura y Aplicada (IUPAC por sus siglas en inglés), considera como nanopartículas todas aquellas partículas en el rango de 1 x 10-9 hasta 1 x 10-7 m, mientras que la agencia de protección al ambiente de Estados Unidos (EPA, por sus siglas en inglés) las dividió en cuatro grandes grupos dependiendo de su diámetro: ultrafinas (Ø ≤ 100 nm = 0.1µm), finas (0.1µm < Ø ≤ 2.5µm), gruesas (2.5µm < Ø ≤ 10µm) y extragruesas (Ø >10µm). La importancia de esta distinción radica en que las propiedades físicas y químicas de los materiales comienzan a cambiar por debajo de los 100 nm. Su área superficial, reactividad, propiedades de transporte, dispersión, propiedades ópticas, entre otras, así como la ruta de síntesis y materiales empleados en su fabricación, las hace deseables en áreas como energía, medicina, farmacéutica, nanobiotecnología, nanosistemas, ingeniería óptica, seguridad y defensa, bioingeniería, cosmética, electrónica, textiles, entre otras industrias. Existen muchas y muy variadas técnicas de síntesis de nanopartículas, las cuales se han dividido en dos grandes grupos: métodos “top down” y métodos “bottom up”. La diferencia radica en si las nanopartículas se obtienen de una fracción más grande del material (“top down”) o por el contrario mediante la síntesis de compuestos o moléculas que dan origen a partículas de mayor tamaño (“bottom up”). Para aplicaciones en biomedicina, la IUPAC hace una distinción entre las nanopartículas y los materiales liberadores de fármacos (nanoacarreadores), agrupándolos como nanopartículas, micelas y liposomas, pudiendo ser estos últimos de nanómetros o micrométros en diámetro. En este sentido, las nanopartículas son consideradas moléculas rígidas, orgánicas o no, mientras que las micelas y liposomas son moléculas orgánicas suaves. El empleo de nanoacarreadores para aplicaciones en seres vivos, incluyendo al humano, involucra tanto su biocompatibilidad, biodegradabilidad e inocuidad a diversos niveles, además de la determinación de la dosis a emplear, la ruta de administración, efectos secundarios, vida media del fármaco o biomolécula acarreada, farmacocinética, entre otros, tal que el sistema de liberación del fár· Canales microfluídicos en una celda de vidrio. Foto: Yair Tenorio maco o biomolécula sea más efectivo y seguro. En el grupo de Nanomateriales y sus efectos tóxicos, integrado por investigadores y estudiantes de la Facultad de Ciencias Físico-Matemáticas de la Beney generalmente con procesos de fabricación más ecomérita Universidad Autónoma de Puebla, Instituto nómicos que en vidrio o silicio. de Medicina Forense de la Universidad Veracruzana, Independientemente del método de fabricación, División de Ciencias Básicas e Ingeniería de la Univerla funcionalidad de los sistemas LOC está fuertemensidad Autónoma Metropolitana-Unidad Azcapotzalte determinada por el comportamiento de los fluidos -9 -18 co y Departamento de Genética y Biología Molecular en la microescala (10 a 10 litros). De allí que a la de CINVESTAV-IPN, hemos unido esfuerzos para ciencia y tecnología que manipulan a los fluidos en fabricar y caracterizar diversos tipos de nanoestruccanales de unos cuantos micrómetros se le conoce turas con aplicaciones biomédicas mediante diversas como microfluídica, la cual ha encontrado diversas técnicas de fabricación “bottom up”, entre ellas la aplicaciones tanto para el diagnóstico y monitoreo en microfluídica. tiempo real como para la fabricación de nanoacarreLos sistemas microfluídicos se basan en la tecnoadores de diversas biomoléculas, incluidos fármacos. logía desarrollada desde la década de 1950 para los George M. Whitesides fue quien inicialmente descircuitos integrados, y de su integración en sistemas arrolló la tecnología basada en microfluídica a través más complejos durante los años 80’s, capaces de readel empleo de canales, válvulas, mezcladores y bom· Partículas biopoliméricas observadas lizar una función específica. Dichos sistemas, entre 10 por microscopia electrónica de transmisión. Foto: Yair Tenorio bas de decenas o cientos de micrómetros, fabricados y 1000 micras de tamaño, recibieron el nombre de dentro de una celda e inyectados a través de bombas “Sistemas Micro-Electro-Mecánicos (MEMS, Micro de infusión. Las primeras aplicaciones de la microfluíElectromechanical Systems). Ya hacia finales de los dica se orientaron al análisis dado que ofrecen la posiaños 90’s fueron desarrollados los sistemas Laboratorio en un Chip (LOC, Lab on bilidad de emplear bajos volúmenes de reactivos durante las separaciones y deteca Chip), cuya base fue utilizar principios de análisis químico, biológico, médico, ción de diversas muestras, con gran resolución y sensibilidad a bajos costos y tiembioquímico y biotecnológico escalables, y donde el uso de reactivos es mínimo. De pos cortos de reacción. La microfluídica, como técnica de síntesis de nanoestructuesta forma se planteó realizar investigación de laboratorio en un dispositivo de ras, permite la generación de micro y nanopartículas con muy baja dispersión, unos cuantos milímetros a pocos centímetros de área, con la capacidad de reali- pudiendo ser funcionalizadas y bioconjugadas dentro o fuera del dispositivo zar múltiples funciones como la selección de proteínas en procesos diversos, inge- microfluídico. niería metabólica, estudio y desarrollo de fármacos, micro y nanoacarreadores, En los canales microfluídicos se explota el fenómeno del flujo laminar, donde entre otros. la fuerza de inercia es menor que la fuerza viscosa de los fluidos. Esto provoca que Dependiendo del uso final del dispositivo LOC, existen varios métodos de dos líquidos se mezclen solo debido a la difusión de las moléculas en la interfaz fabricación que pueden variar desde la producción industrial en serie, a prototi- entre los líquidos en contacto dentro del microcanal, haciendo necesario el desapos rápidos a nivel de laboratorio de investigación. Los principales métodos de rrollo de geometrías específicas para promover el mezclado de los líquidos. Debido fabricación incluyen la fotolitografía de silicio y vidrio, y moldeado y maquinado a esto, para la fabricación de celdas microfluídicas de propósito específico se tiene de polímeros. La fotolitografía se explota debido a su fidelidad en dimensiones que considerar la densidad y viscosidad de los fluidos, el diámetro hidráulico del micro y nanométricas, así como su estabilidad superficial y compatibilidad con microcanal y la velocidad de inyección de los fluidos. La inyección simultánea de diversos solventes. En el moldeado y maquinado generalmente se emplean polí- diversos fluidos es otra ventaja de la técnica, ya que se pueden generar y manipumeros, como poliestireno, policarbonato, policloruro de vinilo, copolímero de ole- lar burbujas y gotas mono dispersas dentro de una fase continua de flujo. fina cíclica (COC) y especialmente poli (metil metacrilato). Esta técnica de fabrica* cmendoza@fcfm.buap.mx ción permite la creación rápida de prototipos dado que son más baratos, robustos


8

agosto · 2018

Claudia Mendoza-Barrera, Efraín Garrido-Guerrero, Ana L. Calderón-Garcidueñas, Víctor Altuzar, Sandra Loera Serna, Hiram Beltrán Conde, Rubén Ruiz-Ramos*

· Nanopartículas de PVP. Foto: Claudia Mendoza Barrera / Yair Tenorio

Aspectos tóxicos de los nanomateriales · Nanofibras de PVP/nHAP. Foto: Claudia Mendoza Barrera

A

ctualmente parte de los esfuerzos de la Red de Investigación en Nanomateriales y sus Efectos Tóxicos, conformada por Grupos de Investigación de la Facultad de Ciencias Físico-Matemáticas de la Benemérita Universidad Autónoma de Puebla, la División de Ciencias Básicas e Ingeniería de la Universidad Autónoma Metropolitana-Unidad Azcapotzalco, del Departamento de Genética y Biología Molecular de CINVESTAV-IPN y del Instituto de Medicina Forense de la Universidad Veracruzana, se concentran en el diseño y la síntesis mediante estrategias micro y nanofluídicas (NF) y de nanomateriales (NM) estructurados (NME), en busca de potenciales aplicaciones biomédicas. Adicionalmente, consideramos la inocuidad y la bioseguridad de dichos NME como aspectos fundamentales para evitar efectos negativos paralelos o secundarios en su aplicación, tanto para los seres humanos, como para otros organismos, así como para el ambiente. Por esta razón, otra parte de los esfuerzos de la Red se enfocan en evaluar los posibles efectos tóxicos, negativos o incluso, deletéreos de dichos NM. En ese sentido, se genera conocimiento, no únicamente en el establecimiento de rangos de seguridad en sus aplicaciones, sino también aprovechando las características subyacentes de estos NM, para así proponer y validar su uso en diversas aplicaciones en el campo de la biomedicina molecular, como por ejemplo en el tratamiento de ciertos tipos de cáncer. El estudio de las características de los NM, relacionadas con sus efectos tóxicos es altamente relevante, dado que no existe suficiente información al respecto. Derivado de ello, no se comprende completamente el impacto que producen o pudiesen producir estos materiales debido a su tamaño (1 nanómetro = 1 x -9 10 metros, unas 10 mil veces más fino que el diámetro de un cabello humano), forma, composición química, estructura cristalina, propiedades de superficie (carga, área, química), solubilidad, porosidad o las interacciones dependientes de su agregación con sistemas biológicos. Los esfuerzos globales en este sentido aún son incipientes; si bien existen estudios que han mostrado algunos mecanismos de daño celular por exposición a nanoestructuras metálicas, así como su actividad tóxica sobre funciones fisiológicas específicas de organismos superiores aún es controversial, y no se han descrito de manera clara los efectos que la exposición a MNE, a diferentes concentraciones y tiempos, producen en seres humanos, animales, insectos y plantas, ni el tipo de respuestas biológicas que esta exposición genera. La capacidad de investigación de dichas características de riesgo para los seres vivos, se ve rebasada por el vertiginoso desarrollo de esta nueva oleada tecnológica. El Inventario de Productos de Consumo de Nanotecnología (CPI, por sus siglas en inglés Nanotechnology Consumer Product Inventory) registró en 2013 cerca de mil 628 productos electrónicos, textiles, deportivos, cosméticos, entre otros, que han sido introducidos en el mercado desde el año 2005. Por lo tanto y como resultado de lo anterior, el valor socioeconómico global de las nanotecnologías está aumentando de manera sostenida, tal que los NM tienen un impacto significativo en casi todas las industrias y áreas de la sociedad, lo cual repercute por supuesto también a nivel económico, social y ambiental.

Como estrategia de abordaje se ha sugerido agrupar los principales NM en categorías basadas en su composición, por ejemplo por su contenido de algún tipo de metal u óxido metálico. Un 58 por ciento de los productos que contienen estos NM tienen como principal vía de exposición la piel, mientras que 25 por ciento de ellos presentan NM que pueden ser inhalados durante su uso normal, y 16 por ciento contienen NM que pueden ser ingeridos. Esta exposición lleva a considerar el supuesto común de que debido a sus dimensiones, las nanoestructuras (NE) poseen la capacidad de ingresar fácilmente a diferentes tejidos, células, organelos y estructuras biomoleculares funcionales, tales como ribosomas o el mismo ADN. Atendiendo al hecho del tamaño físico real de una NE de diseño, que es similar o comparable al de algunas moléculas biológicas (por ejemplo, anticuerpos u otras proteínas) o entidades moleculares estructuralmente más complejas (por ejemplo los virus), la suposición anterior pareciera tener sustento. De esta forma, se debe considerar que el ingreso de las NE en sistemas biológicos podría causar alteraciones estructurales y funcionales importantes, con consecuencias negativas para la salud de cualquier organismo expuesto. Dentro de la Red actualmente realizamos investigación evaluando citotoxicidad de NE en células humanas epiteliales, dado que este tipo celular es considerado de primer contacto pues se encuentra recubriendo cavidad oral y nasal, vías principales de ingreso de materiales suspendidos en el ambiente o que son ingeridos con alimentos contaminados. Entre ellas destacan las Estructuras Metálicas Orgánicas (MOF por sus siglas en inglés Metal Organic Frameworks), nanopartículas biopoliméricas y biocerámicas, así como de nanofibras simples o multicapa poliméricas o compósitas, las cuales parecen ser prometedoras para diversas aplicaciones biomédicas, o por sus características fotoluminiscentes. Con los resultados de dichas investigaciones, se establece un esquema progresivo y sistemático de estudios que permitirán evaluar el impacto de las propiedades físico-químicas de los MNE, sobre los sistemas biológicos, que incluye tanto ensayos en cultivos celulares, como estudios en modelos animales. Esto último nos permitirá identificar los órganos con mayores efectos derivados de las interacciones tóxicas y, a su vez, determinar el mejor modelo celular para realizar estudios mecanísticos, que permitan comprender la manera en que esas células responden molecularmente a la presencia e interacción con dichas NE. Es decir, nos enfocamos en estudiar la relación entre las propiedades fisicoquímicas de las NE y las respuestas biológicas in vitro e in vivo. Todo lo anterior debe llevar a la caracterización completa de las propiedades físico-química de las NE para permitir una correcta interpretación de las consecuencias biológicas de las interacciones NME-células, niveles de toxicidad o inocuidad, mecanismos de liberación de fármacos, efectos terapéuticos, biotrazadores moleculares, entre otros. * ruruiz@uv.mx


9

agosto · 2018

Victor Altuzar, Rubén Ruiz-Ramos, Claudia Mendoza-Barrera, Efraín Garrido-Guerrero, Sandra Loera Serna, Hiram Beltrán Conde, Ana L. Calderón-Garcidueñas*

El papel de la nanotecnología en el diagnóstico y tratamiento del cáncer

L

a nanotecnología (NT) es la comprensión y el control de la materia a escala nanométrica (0.1 a 100 nm), para crear dispositivos con nuevas propiedades químicas, físicas y/o biológicas. Esta tecnología puede proporcionar el control técnico y las herramientas para el desarrollo de innovaciones en diversas industrias como electrónica, cosmética, textil, aeronáutica, biomédica, entre otras, que sigan el ritmo de la explosión de conocimiento actual. Por su parte, la nanomedicina es la aplicación de la nanotecnología en el campo médico, la cual se enfoca al desarrollo de soluciones precisas para la prevención, diagnóstico y tratamiento de diversas enfermedades de alta incidencia social, por ejemplo, cáncer. El cáncer es una de las enfermedades más devastadoras del mundo, con más de 10 millones de casos nuevos cada año. Se caracteriza por la división y el crecimiento celular no controlados que originan invasión regional, metástasis y finalmente termina con la vida del individuo. La nanomedicina tiene el potencial de cambiar radicalmente la manera en que diagnosticamos y tratamos el cáncer. Desde los años 1980, los científicos e ingenieros han desarrollado la capacidad de industrializar tecnologías a esta escala, logrando buenos avances en la implementación de terapias y diagnósticos de cáncer basados en NT. Hasta la fecha, al menos 12 conjugados de polímero y fármaco han ingresado en la Fase I y II de ensayos clínicos y son especialmente útiles para dirigirse a los vasos sanguíneos en los tumores. Cuando dichas estructuras son de tamaño nanométrico, se conocen como nanoacarreadores. Pueden ser orgánicos (por ejemplo liposomas, dendrímeros y nanoestructuras (NE) de carbono) e inorgánicos (NE metálicas bioconjugadas, nanocristales fluorescentes o nanopartículas NP de óxidos diversos). La superficie y el tamaño de los nanoacarreadores se pueden modificar de acuerdo a su aplicación. Hay dos estrategias generales para el desarrollo de NE. La primera consiste en ensamblar el material a partir de átomos y moléculas vía reacciones químicas (fotolitografía, láseres atómicos, evolución sistemática de ligandos por enriquecimiento exponencial, entre otros), los cuales se conocen como métodos Bottom-up. La segunda ruta, métodos Top Down, parten de macroestructuras que se fragmentan en partículas más pequeñas utilizando métodos mecánicos, químicos y de otros tipos. Para contribuir a la aplicación de esta tecnología en la práctica clínica en nuestro país, la Red de Investigación en Nanomateriales y sus efectos tóxicos diseña nanoacarreadores que cumplan con las siguientes características: 1) Su composición es de un material que sea biocompatible, bien caracterizado y fácilmente funcionalizable; 2) que exhiban una alta eficiencia de captación diferencial entre células cancerosas y células normales; 3) ser solubles o coloidales bajo condiciones acuosas para contar con una mayor efectividad y 4) tener una vida media circulante extendida, una tasa baja de agregación y una larga vida útil. ¿Qué aplicación tiene la NT en el terreno de las enfermedades cancerosas?. Podríamos dividirlas en 4 grupos: 1) Biosensores para diagnóstico in vivo o in vitro. Son NE que se emplean para detectar y diagnosticar el cáncer cuando se encuentra en sus etapas iniciales. A menudo permiten la posibilidad de contar con más opciones de tratamiento. En algunos casos de la enfermedad en etapa inicial surgen signos y síntomas que pueden ser notados, pero esto no siempre es así. En este sentido, se están usando nanobiosensores (por ejemplo, nanocristales fluorescentes o metales nanoestructurados) unidos a sondas de DNA o a anticuerpos para detectar proteínas específicas que son biomarcadores de cáncer. 2) Liberación de fármacos/terapia del cáncer. Las NE pueden mejorar la eficiencia terapéutica y disminuir los efectos secundarios de los medicamentos, ya que permiten dirigir el medicamento a su blanco de manera específica, empleando una menor dosis, dependiendo del tipo de enfermedad. Pueden utilizarse

como vectores por vía intravenosa en el tratamiento del cáncer (por ejemplo, liposomas). Se pueden utilizar para visualizar marcadores moleculares de enfermedades y dirigir la liberación de medicamentos con reducción de efectos secundarios. Actualmente ya existen en el mercado medicamentos encapsulados en liposomas, como la doxorubicina que se usa ya en el tratamiento del sarcoma de Kaposi y en

LAS NANOESTRUCTURAS PUEDEN MEJORAR LA EFICIENCIA TERAPÉUTICA Y DISMINUIR LOS EFECTOS SECUNDARIOS DE LOS MEDICAMENTOS, YA QUE PERMITEN DIRIGIR EL MEDICAMENTO A SU BLANCO DE MANERA ESPECÍFICA, EMPLEANDO UNA MENOR DOSIS, DEPENDIENDO DEL TIPO DE ENFERMEDAD · Adsorción de Anti-BSA sobre oro. Foto: Claudia Mendoza Barrera / Victor Altuzar

el tratamiento del cáncer de mama y de ovario. Particularmente, las NE pueden utilizarse en la tecnología de microRNA. Los RNA de interferencia pequeños (siRNA) son moléculas de 20-25 nucleótidos que se producen cuando se rompen moléculas de RNA. Estos siRNA bloquean la expresión de genes al romper el RNA mensajero por un complejo proteína/RNA conocido como complejo inducido de RNA. Algunos cánceres sobreexpresan receptores de folatos que no están presentes en células normales. De esta forma, se han unido receptores de folato a siRNA, evitado el crecimiento tumoral en modelos animales. 3) Imagenología. La nanotecnología puede mejorar mucho la visualización de los tumores. Por ejemplo, la ultrasonografía con medio de contraste con NP (de gadolinio u óxido de hierro) puede identificar la neovascularización constituida por vasos pequeños, que es común a todos los cánceres, en etapas tempranas de la enfermedad, con lo que se mejora notablemente el pronóstico. Así mismo, las NP de óxido de hierro se utilizan para obtener imágenes de resonancia magnética nuclear (RMN). De esta forma, esta tecnología favorece la detección no invasiva de células tumorales, cuando las NP se unen a Ac específicos para el tumor. 4) Imagenología óptica vital en tiempo real. Con la ayuda de microscopía vital se puede estudiar en forma tridimensional la microanatomía del tumor. El Instituto Nacional del Cáncer de Estados Unidos considera que la tecnología de NP tiene un gran potencial en el campo oncológico. El uso en imagenología y terapéutica es un hecho. La existencia de NP multifuncionales que pueden usarse para visualizar y llevar medicamentos en forma efectiva son una realidad. Por tanto, la nanotecnología como herramienta de trabajo en Medicina, contribuirá en un futuro cercano a la detección temprana de diversas neoplasias para proporcionar un tratamiento personalizado a los pacientes. *acalderon@uv.mx


10

agosto · 2018

Jaime Ornelas Delgado

Las razones que forjaron la voluntad de cambio

D

urante el proceso electoral de este año, los mexicanos expresaron, de distintas formas y de manera creciente, su decisión de transformar la realidad política, económica y social del país y encontraron en Andrés Manuel López Obrador (AMLO) el liderazgo que podría conducir el proceso. La voluntad de cambio se recogió masivamente en las redes sociales y en la mayor parte de las encuestas levantadas a lo largo de 2018. En cambio, la campaña de los otros dos aspirantes a la presidencia de la República, José Antonio Meade y Ricardo Anaya, cuya propuesta consistía en dar continuidad al proyecto neoliberal, no lograron penetrar en el ánimo de la población, cuya decisión de protagonizar del cambio que se veía venir crecía día a día. Por supuesto, la ciudadanía comprendió que no se trataba únicamente de un cambio económico, considerado inevitable, pues la realidad mostraba al neoliberalismo no sólo como una teoría económica, sino también un discurso hegemónico de una propuesta civilizatoria síntesis de la modernidad liberal burguesa, “en torno al ser humano, la riqueza, la naturaleza, la historia, el progreso, el conocimiento y la buena vida” (Edgardo Lander, La colonialidad del saber. Buenos Aires, 2011, Ciccus, p. 15). Se trataba, entonces, de ir más allá y reconstituir el tejido social severamente lesionado y democratizar, en todos sentidos, al país: era preciso cambiar la vida. Conviene advertir que el cambio propuesto por AMLO tiene limitaciones, primero, por la resistencia natural de la oposición y, luego, por las diferencias que podrían surgir al interior de las alianzas exigidas en la construcción del consenso y que pueden convertirse en obstáculos para realizar la transformación propuesta. ¿Cuáles son las razones económicas, políticas y sociales que contribuyeron a forjar la convicción generalizada de la necesidad e inevitabilidad del cambio? La era neoliberal, que se inicia con el gobierno de Miguel de la Madrid (1982-1988) y está por concluir si se cumplen las expectativas que impulsaron el triunfo popular-electoral, presenta grandes déficits en todos los ámbitos de la vida nacional. El neoliberalismo significó la imposición de una economía basada en el mercado autorregulado y de un sistema político que difuminó al Estado como regulador del proceso de acumulación, para convertirlo en un instrumento al servicio exclusivo de los intereses de los dueños del capital, sin embargo, y a pesar de las reformas impuestas, la economía ha mostrado un mediocre comportamiento. En efecto, su crecimiento a lo largo de las últimas tres décadas y media no supera el 2.5 por ciento en promedio anual. Este comportamiento ha sido acompañado, de manera permanente, por un creciente endeudamiento público y una creciente precariedad laboral. En el caso de la deuda externa, ésta representaba, en 2012, el 37.2 por ciento del Producto Interno Bruto (PIB) y pasó a ser el 48.7 por ciento del PIB en 2018. En el caso del salario, los gobiernos neoliberales impusieron una política de contención salarial y restricciones salariales reduciendo el gasto social. De esta manera, el mayor atractivo ofrecido a los inversionistas son los bajos salarios, ubicados por debajo del valor de la fuerza de trabajo. La información disponible señala que el ingreso de los trabajadores se ha reducido de manera permanente, al grado que el actual salario mínimo (88.36 pesos), es el más bajo de los 35 países de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) y uno de los peores en Latinoamérica. Al endeudamiento y los bajos salarios, recientemente se agregó la devaluación, que ha llevado el precio del dólar a ubicarse alrededor de los 20 pesos, lo que tiende a encarecer las compras al exterior; a su vez, la inflación en 2017 cerró en 6.7 por ciento, la más elevada de los últimos 17 años, lo cual apresura el deterioro del ingreso real de los trabajadores. Otros fenómenos acompañantes del errático comportamiento económico, han sido la violencia y el aumento del poder del crimen organizado: ambos han

puesto en vilo a la población del país; a su vez, la corrupción y la impunidad tienen un papel no menor en el desolado entorno económico y lo mismo ocurre con el deterioro de muchas instituciones que si bien, en algún momento, gozaron de la confianza y el aprecio de la población, los han perdido debido al inescrupuloso manejo de los recursos puestos a su disposición o, en el caso de instituciones privadas, debido a su conducta poco ética. Todo esto arrojó a cerca de 60 millones de mexicanos a vivir en situación de pobreza, es decir, a sobrevivir sin satisfacer sus necesidades básicas, todo resultado de un sistema incapaz de poner en el centro de sus preocupaciones a los pobres, a los trabajadores superexplotados de la ciudad y el campo y cuya característica de funcionamiento es la desigualdad social resultado de la inequitativa distribución del ingreso. El mercado sin regulación, la pérdida de la razón pública en la economía, conduce a una creciente desigualdad, en buena medida, resultado de la continua reducción de los ingresos reales del trabajo y la consecuente ampliación de las ganancias del capital. Con información del INEGI, David Márquez Ayala (“Reporte Económico”, La Jornada, 19/02/18: 22), luego de una exhaustiva revisión de los datos, concluye: México alcanzó su mejor momento distributivo en 1976, cuando los asalariados recibieron el 43.5 por ciento del ingreso nacional y el capital correspondió el 52.9 por ciento; una década después, ya en plena era neoliberal, los salarios obtuvieron 34.8 por ciento y las utilidades 60.7 por ciento, finalmente: “En 2016 (último año con cifras) el salario recibe 32.2 por ciento y el capital 59.5 por ciento”. Así, bajo el neoliberalismo la desigualdad social se convierte en peculiaridad, donde la pobreza se generaliza frente a una minoría que concentra la mayor parte de la riqueza producida por el trabajo. Esta condición es general en el capitalismo y se agudiza en el neoliberalismo. Noam Chomsky, refiriéndose a lo ocurrido en Estados Unidos bajo ese modelo, escribe: “Durante este periodo, el programa del gobierno se ha modificado completamente en contra de la voluntad de la mayoría para proporcionar ingentes beneficios a los superricos. Entre tanto, para gran parte de la población, para la mayoría, la renta real lleva treinta años prácticamente estancada” (Noam Chomsky, Réquiem por el sueño americano, México, 2017, Sexto Piso, p. 10). En México, la observación de Chomsky se expresa puntualmente. Según el Consejo Nacional para la Evaluación de la Política de Desarrollo Social (Coneval), en nuestro país, el ingreso de los hogares, durante los últimos 25 años, se ha mantenido prácticamente sin alteraciones, pues si en 1992 el ingreso mensual por persona eran 3 mil 508 pesos —en términos reales—, prácticamente el mismo monto registrado para 2016, cuando fueron 3 mil 628 pesos (La Jornada, 10/05/2018: 14). Por su parte, la CEPAL, en su informe del Panorama social de América Latina 2017, señala que en México el 20 por ciento de los hogares más ricos concentra el 48 por ciento del ingreso nacional, mientras el 20 por ciento de los más pobres apenas si obtiene el 6 por ciento, una diferencia entre ambas proporciones de ocho veces. De este rápido recorrido de algunos factores que forjaron la voluntad de cambio, no es difícil coincidir con el Premio Nobel de Economía (2001), Joseph Stiglitz (Caída libre, México, 2010, Taurus, p. 11), quien, luego de la crisis de 2008, concluía: “La teoría económica moderna, con su fe en el libre mercado y en la globalización, había prometido prosperidad para todos. Se suponía que la tan cacareada Nueva Economía iba a hacer posible una mejor gestión de los riesgos, y que traería consigo el final de los ciclos económicos […] La gran recesión (2008) —a todas luces la peor crisis económica desde la Gran Depresión de hace setenta y cinco años— ha hecho añicos esas ilusiones”. La pregunta es: ¿podrá el gobierno de AMLO, dentro de los límites del capitalismo, modificar esta situación?

SE TRATABA, ENTONCES,

DE IR MÁS ALLÁ Y RECONSTITUIR EL TEJIDO SOCIAL SEVERAMENTE LESIONADO Y DEMOCRATIZAR, EN TODOS SENTIDOS, AL PAÍS:

ERA PRECISO CAMBIAR LA VIDA

ornelasdelgadojaime@hotmail.com


11

agosto · 2018

Tékhne Iatriké José Gabriel Ávila-Rivera

La nanotecnología en medicina

I

maginar la manipulación de elementos a escala nanométrica es referirse a la posibilidad de manejar átomos y moléculas en una forma precisa. Nos referimos a escalas extraordinariamente tan pequeñas, que literalmente no se puede considerar que se operen objetos, pues las aplicaciones se llevan a cabo considerando lo más íntimo de la materia. Se podría pensar que las investigaciones a este nivel forman parte de la ciencia ficción y de un futuro a largo plazo; sin embargo, actualmente ya se cuenta con un número impresionante de avances en esta área de la investigación científica. El ingeniero Kim Eric Drexler, nacido en Oakland, California, Estados Unidos, en 1955, con su tesis doctoral elaborada en el Instituto Tecnológico de Massachusetts y publicada como “Nanosystems Molecular Machinery Manufacturing and Computation” (que se podría traducir más o menos como fabricación de maquinaria y cálculos en nanosistemas moleculares), marcó un verdadero hito o piedra angular en el desarrollo de esta maravilla de la tecnología. No es la manipulación de átomos y moléculas simplemente, sino las propiedades que dependerán del ordenamiento y la disposición de estos. Hablando en términos de la salud, puede llegar a ser altamente probable que se llegue a órganos o que se controlen medicamentos a nivel molecular. Actualmente se cuenta con el diagnóstico preciso de ciertas enfermedades que, en su estado inicial, no son detectadas. Por citar un ejemplo, existen compuestos moleculares que, al emitir cierta luz con una determinada longitud de onda, brindan una cantidad de información que de otra manera, sería imposible detectar. Su uso posibilita la localización de ciertos tumores, pues estas substancias se adhieren específicamente a células con características distintas a las células sanas o normales. Otro ejemplo de lo que se podría generar es la liberación programada de ciertos medicamentos, específicamente en determinadas células o tejidos, evitando el efecto en otras zonas donde no se desea que actúen. Así, el fármaco se administra asegurando el resultado deseado, sin que tenga que sufrir modificaciones metabólicas que lo hagan efectivo, reduciendo en una forma particularmente específica, los efectos indeseables que pueden llegar a ser terribles. También comienzan a ser muy prometedores los avances en Nano-Ingeniería de tejidos, que tienen como meta el diseño de elementos que sustituirán órganos que se dañan por accidentes o por enfermedades. Mediante estas técnicas podrán eliminarse todos los problemas derivados de trasplantes que desde la misma elección de donadores, convierten a esta alternativa de curación en algo exorbitantemente caro y difícil, pues las listas de espera siempre son largas y el rechazo de órganos obliga a la necesidad de abatir al sistema inmunológico, condicionando una serie de estados de vulnerabilidad, incluso a enfermedades comunes. Actualmente se usan estas técnicas para aplicarlas en la piel dañada, por ejemplo por quemaduras, ofreciendo películas que al adherirse a la parte que está afectada, estimulan no solamente el proceso de cicatrización, sino también el crecimiento celular de la piel en una forma perfecta. Uno de los más grandes problemas en los tratamientos orientados a combatir enfermedades por virus es que debido a que estos microbios tienen un tamaño tan pequeño, no existen muchas opciones de tratamientos con medicinas, que puedan combatirlos de la misma forma en la que los

antibióticos actúan sobre las bacterias. Pero con la tecnología nanométrica puede establecerse algún tipo de medicamento que no solamente pueda dirigirse específicamente a estos microbios sino que además, puedan actuar en sitios específicos, tanto del organismo como en los propios microorganismos. Una de las enfermedades más aterradoras es el Alzheimer, ya que los medicamentos que actualmente se encuentran disponibles para tratarla poseen la desventaja de ser muy poco solubles y por lo mismo, poseer muy baja biodisponibilidad. Por esta razón, no llegan fácilmente al tejido cerebral y no tienen una buena distribución en el órgano deseado. Existen nanopartículas lipídicas que a la larga podrían resolver esta situación, administrándose incluso por vía nasal, pues es a través de este órgano como se puede llegar con mayor facilidad al cerebro. Por último, todas y cada una de nuestras células tienen como elemento indispensable el material genético conocido como Ácido Desoxirribonucleico (ADN). En esta unidad se encuentra empaquetada toda la información que no solamente nos caracteriza como especie, sino como individuos. Nuestro código genético está allí, perteneciéndonos como a nadie, en todas las épocas de la humanidad. Las razones por las cuales existe un ordenamiento tan complejo en algo estructuralmente básico, es un misterio que gradualmente se va descifrando; sin embargo, de la misma forma en la que lo que somos hablando en términos de lo que podemos ver y lo escondido en lo más recóndito de nuestro ser, se encuentra allí, en efecto, cargamos una predisposición genética a padecer enfermedades de índole diversa. Muchas enfermedades tienen un trasfondo identificable en nuestro ADN. Es a través de la nanotecnología como puede aspirarse a modificar estructuras en el código genético y tratar un número inimaginable de enfermedades que actualmente son intratables. Hablamos de opciones terapéuticas que actúan a nivel intracelular y atómico que pueden tener un impacto en todos y cada uno de nuestros órganos. La diabetes, la hipertensión, el cáncer, las enfermedades inmunológicas, las infecciones de respuesta más recalcitrante a antibióticos, los infartos y un largo etcétera pasarán a formar parte de nuestra historia, como en la actualidad nos permitimos el lujo de ver, esbozando una sonrisa, las actividades tecnológicas rudimentarias de nuestros ancestros más antiguos quienes, con roca y palos, comenzaron a construir la rueda. Uno de los más graves problemas en la humanidad, desde cualquier punto de vista, es la contaminación y la forma en la que hemos ido destruyendo el medio ambiente con nuestros residuos y nuestra basura. La medicina ambiental debe irse posicionando como un área de estudio fundamental en la búsqueda de la salud. En este sentido, ya existen trabajos de investigación que se orientan hacia estos tremendos problemas humanos. Los retos son muchos y las opciones aparentemente reducidas; sin embargo, aunque la nanotecnología es relativamente reciente, nos permite vislumbrar un futuro con alternativas definitivamente distintas que hacen de la vida, algo no solamente interesante sino también, extraordinariamente sorprendente.

MUCHAS ENFERMEDADES

TIENEN UN TRASFONDO IDENTIFICABLE EN NUESTRO ADN.

ES A TRAVÉS DE LA NANOTECNOLOGÍA COMO PUEDE ASPIRARSE

A MODIFICAR ESTRUCTURAS EN EL CÓDIGO GENÉTICO

Y TRATAR UN NÚMERO INIMAGINABLE DE ENFERMEDADES

QUE ACTUALMENTE SON INTRATABLES

jgar.med@gmail.com


12

agosto · 2018

Tras las huellas de la naturaleza Tania Saldaña Rivermar y Constantino Villar Salazar · Ilustración: Diego Tomasini / Dibrujo

Motivos para aderezar mi vida con ciencia uerido y admirado lector que gusta de ricas dosis de ciencia para mantener una dieta equilibrada de conocimiento. Todos los que en algún momento hemos entablado ricas, aderezadas y hasta acaloradas conversaciones sobre algún tema de ciencia, hemos, seguramente, citado la nota de algún diario, suplemento o revista que nos brinda ese pequeño bocado de ciencia que nos hace enterarnos de alguna forma de los avances que se presentan en alguna región o país. De niños muchos pensamos y jugamos con ser científicos, esos de bata blanca que trabajan en un laboratorio y que de tanto experimentar una y otra vez, quedaron con los pelos de punta o que salieron ilesos de algún experimento fallido; pero por qué tenemos esta imagen de los científicos, bueno, indudablemente, la mercadotecnia ha logrado vender y vender muy bien esta imagen de la gente dedicada a generar el conocimiento; pocas veces se presenta a un científico con gustos musicales, gastronómicos, artísticos o deportivos. Esta imagen no vende. Será que no se puede colocar a la ciencia dentro de la sección de cultura. Será que la ciencia no es cultura. Si usted, generoso lector, ha llegado hasta aquí, lo invitamos a que nos acompañe en esta aventura. La ciencia es más que esos científicos ñoños con gafas que por lo general son más grandes que su cabeza; la ciencia está plagada de personas que aman el conocimiento, personas que aman a la humanidad (bueno, no todas), pero en su mayoría los científicos entienden perfectamente que la ciencia mantiene encendida esa llama que alumbra el rumbo de la humanidad y que desenmascaran a aquellos que solo buscan manipular a las personas, los científicos son aquellos que piensan en mejorar la salud de las personas, atendiendo problemas de salud que aquejan a la humanidad; muchos de los grandes científicos han dado respuesta en atención a las grandes preguntas de la humanidad, algunos ejemplos son: Alexander Oparin, con su teoría del Origen de la Vida; Carlos Darwin y Wallace, con la teoría del Origen de las Especies; Lynn Margulis, con la Teoría de la Endosimbiósis, entre muchos otros; mujeres y hombres que han demostrado que la ciencia también tiene cambios dentro de sus paradigmas. Se preguntará: ¿qué impulsa a hombres y mujeres a tener curiosidad por la ciencia?, nos gustaría que usted lo conociera de la mano de Ruy Pérez Tamayo, en su libro Diez Razones para ser Científico, editado por el Fondo de Cultura Económica, en él, Pérez Tamayo nos expone de manera divertida las razones que seguramente han tenido todos esos científicos que conocemos, claro, antes de llegar esos grandes investigadores que conocemos. A continuación, mencionamos esas 10 razones, que no son todas; las demás nos gustaría que usted las discuta en alguna reunión con amigos o familiares. Nos gusta imaginar la cara que habrá puesto Darwin, cuando su padre (médico), le habrá dicho que tenía que seguir sus pasos, seguramente Carlos habrá pensado: Me desagrada. Más de un hombre o mujer de ciencia estará de acuerdo en que ser científico es hacer los que nos gusta. Nos cuesta trabajo imaginar a un científico de “Godínez” de corbata y contando las horas para salir de esa habitación que le mantiene cautivo; por ello, ser su propio jefe, es la segunda razón. Y hablando del horario, y como la búsqueda del conocimiento no da cuenta del segundero, en esta profesión no existen horarios. Dudar, dudar de todo lo que vemos y nos dicen es elemental, por lo que Pérez Tamayo nos comparte que una de las razones por las que él y otras personas se han hecho científicos es por la sencilla y humana razón de “usar mejor el cerebro”, y sí, dudar de lo que nos es impuesto como verdad absoluta. Recordarán aquella nota en la que el gobierno mexicano adquirió equipo especializado para la detección de drogas,

la cual fue una verdadera tomada de pelo, una broma, broma que le costó mucho dinero al pueblo de México, a nadie nos gusta que nos den gato por liebre, así que saque usted sus propias conclusiones sobre la importancia de tener una cultura científica. A los mexicanos nos encantan las fiestas y si en ellas nos encontramos con un ser de estos extraños (científico), generalmente hay de dos sopas: o nos quedamos callados o entablamos una charla; hablar con científicos, estamos seguros, será ameno y divertido. Un país sin desarrollo científico es un país atrasado, por ello, la comunidad científica se pone como meta generar vocaciones científicas para que el país cuente con un mayor número de científicas y científicos, razón por la cual los científicos forman alianzas con los divulgadores de la ciencia. Para estar siempre bien contento es otra de las razones. Imagine usted al científico que logra el éxito en una de sus investigaciones; seguramente es la persona más feliz; hasta que una nueva pregunta asalta su pensamiento y vuelve al trabajo, trabajo sin fin. Por último, una persona que está siempre rodeada de jóvenes, que ama compartir sus conocimientos, que todos los días se despierta con la convicción de hacer de este mundo, un mundo mejor, nunca envejece, será ese personaje del que la historia hablará y los más cercanos a él dirán: ¡Ese profe sí que es a todo dar! Hasta aquí las 10 razones que Ruy Pérez Tamayo nos comparte y que esperamos le haga vivir grandes aventuras y detone su curiosidad por conocer lo que han hecho los científicos más cercanos a usted, y siempre, siempre refuerce esa capacidad de asombro que desde el nacimiento alimenta la flama de nuestro corazón, llamada curiosidad. @helaheloderma Tras las huellas traslashuellasdelanaturaleza@hotmail.com


13

agosto · 2018

Reseña (incompleta) de libros

El escándalo de Volkswagen. Cómo, cuándo y por qué Volkswagen manipuló las emisiones de sus vehículos* Alberto Cordero

Capítulo 1 Via j e

po r Ca r r e t e r a

R

esultaba muy curioso ver a los estudiantes de posgrado de la Universidad de Virginia Occidental deslizándose a toda velocidad por las autopistas de California aquella primavera de 2013. Del * Jack extremo de su coche, un Volkswagen Jetta, surgía una maraña de tubos Ewing, El y mangueras que se mantenían unidos con bridas y abrazaderas. Unos escándalo de tubos flexibles recogían el gas del tubo de escape y lo llevaban a una Volkswagen. misteriosa caja gris sobre un trozo de madera contrachapada en el Cómo, cuándo maletero. De la caja salían cables y alambres. Junto a la caja, atory por qué nillado al trozo de madera, había un generador portátil de la marca Volkswagen Honda que apestaba y hacía un estruendo infernal. Los estumanipuló las diantes, Hemanth Kappanna, indio, y Mare Besch, suizo, soporemisiones de taban el ruido y los gases. No les quedaba más remedio: necesus vehículos. sitaban el generador para alimentar el invento. Traducción de Paula El improvisado equipo se rompía con frecuencia. Los dos González. Ediciones generadores no estaban hechos para recibir tantos golpes y Culturales Paidós. 2017. había que cambiarlos, lo que fue mermando la modesta beca de 70 mil dólares que la Universidad de Virginia Occidental había recibido para financiar la investigación de Kappanna, Besch y otro estudiante, Arvind Thiruvengadam. Pero el trabajo que los estudiantes realizaban era importante, mucho más de lo que por entonces se podían imaginar. Estaban comprobando las emisiones del Jetta. En concreto, analizaban los óxidos de nitrógeno, una familia de gases con una gran variedad de temibles efectos para la salud humana y el medio ambiente. equipados con una tecnología que, se suponía, eliminaba los óxidos de Los óxidos de nitrógeno son los culpables del asma infantil y provocan crisis en nitrógeno de los gases de escape. El fabricante de automóviles alemán había aquellos que ya la padecen. Causan bronquitis crónica, cáncer y problemas invertido millones de dólares en intentar convencer a los estadounidenses de cardiovasculares. Se sabe que un exceso de óxidos de nitrógeno en zonas que los motores diésel eran una alternativa respetuosa con el medio ambienurbanas es la causa de repuntes en el número de personas que acuden a te frente a la tecnología híbrida de los Toyota. Sin embargo, no era eso lo que urgencias con infartos. Los miembros de la familia de los óxidos de nitró- los estudiantes de la Universidad de Virginia Occidental estaban viendo miengeno contribuyen a la lluvia ácida y son mucho más potentes que el dióxi- tras conducían por los Ángeles y San Francisco, llegando hasta Seatle. Un estudo de carbono como causa del calentamiento global. Asimismo reaccio- diante se ponía al volante mientras el otro, sentado en el asiento del copiloto con nan a la luz solar produciendo el esmog que asfixia las zonas urbanas, una (computadora) portátil, comprobaba los datos, que podrían haber vuelto loco especialmente en Los Ángeles, donde los estudiantes pasaban la mayor a cualquier experto. Disponemos de tecnología para medir las emisiones en carreparte del tiempo. Con la cultura del automóvil, abundante luz solar y tera desde la década de los 90, pero rara vez se ha utilizado en coches de pasajeros. una topografía en forma de cuenco, Los Ángeles es una caldera ideal Las autoridades reguladoras alemanas preferían probar los coches en laboratorios. El para el esmog. Gracias, en gran parte a los óxidos de nitrógeno, el trabajo que los estudiantes estaban realizando no era precisamente revolucionario, aire que se respira en LA es peor que en cualquier otra ciudad de pero sí algo inesperado. Estados Unidos. Las emisiones del Jetta y del Passat eran correctas cuando el grupo de Universitarios La razón por la que los estudiantes estaban probando el los probó sobre rodillos en un garaje especialmente equipado de la Junta de Recursos del Volkswagen Jetta es que era uno de los pocos vehículos dispo- aire de California, el organismo encargado de mantener la calidad del aire en el estado. Pero nibles en Estados Unidos con un motor diésel. También anali- cuando los estudiantes sacaron el Jetta a carretera y conectaron su equipo, el vehículo zaron un Volkswagen Passat diésel y un SUV BMW diésel comenzó a emitir óxidos de nitrógeno en cantidades que se salían de cualquier gráfica. De bajo la supervisión de Dan Carder, director del Centro de hecho, el Jetta estaba emitiendo muchos más óxidos de nitrógeno que un moderno camión Motores y Emisiones de Combustibles Alternativos de la diésel de largo recorrido. El Passat se comportaba mejor, pero siempre muy por encima de los Universidad de Virginia Occidental, famoso por su expe- límites legales. El BMW lo hizo bien, excepto durante alguna que otra subida dura. riencia en la medición y el análisis de las emisiones de los Kappanna no lo entendía. Seguía esperando que, con el tiempo, las emisiones de los tubos de escape. Los motores diésel utilizan el combus- Volkswagen volvieran a situarse en un nivel próximo a los límites legales. Pero eso no ocurría. tible diésel de manera más eficiente que los coches de Kappanna y los demás no sospecharon nada oculto por parte de Volkswagen. Como cualquiera que gasolina y producen menos dióxido de carbono. Pero estuviera dentro de la industria del automóvil, tenían un gran respeto por la ingeniería alemana. también emiten muchos más óxidos de nitrógeno; por Después de todo, fue un alemán, Carl Benz, quien en 1886 solicitó la patente de lo que se consideeso el diésel se inflama a una temperatura muy ra el primer vehículo automotor. Desde entonces, inventores alemanes, como Ferdinand Porsche, han superior que la gasolina. El calor convierte el inte- estado en la vanguardia de la tecnología automovilística. BMW, Mercedes-Benz y Audi (de Volkswagen) rior de un motor diésel en una verdadera fábrica de dominaban la gama alta del mercado de la automoción. Los consumidores estaban dispuestos a pagar óxidos de nitrógeno, al combinar nitrógeno y oxí- más por sus coches por el mero hecho de haber sido fabricados en Alemania. Prácticamente toda la ecogeno de la atmósfera creando moléculas cancerí- nomía alemana giraba en torno a la fabricación de automóviles. Probablemente, no había nadie que lo genas de óxido de nitrógeno. hiciera mejor. La idea de que “el diésel limpio” fuera una gran mentira y de que ésta fuera descubierta por Volkswagen afirmaba que el Jetta y el Passat un puñado de investigadores universitarios precarios nunca se les hubiera ocurrido. eran motores diésel más limpios. Estaban acordero@fcfm.buap.mx


14

agosto · 2018

El objeto del mes Raúl Mújica

Las Lágrimas de San Lorenzo

· Imagen tomada de https://www.photopills.com/es/articulos/guia-meteoros

Las famosas Lágrimas de San Lorenzo son una lluvia de estrellas, las “Perseidas”, con una actividad alta. Son famosas, ya que durante el evento pueden suceder aproximadamente 100 meteoros/hora. El radiante de la lluvia se localiza en la constelación de Perseo y tiene lugar cada año entre el 16 de julio y el 24 de agosto, el máximo de intensidad en 2018 sucederá durante las noches del 11 al 13 de agosto. Como ya hemos mencionado antes, las lluvias de estrellas no son ni lluvia ni estrellas, se trata de partículas de polvo “dejadas” por los cometas en la órbita de la Tierra y que al ingresar en la atmósfera se calientan y brillan. En el caso de las Perseidas el cometa “causante” es el Swift-Tuttle que, con un periodo de 133 años, pasó en 1992 y volverá a pasar hasta el año 2126. A diferencia de la mayoría de fenómenos astronómicos, para observar las lluvias de meteoros no son necesarios ni telescopio ni binoculares, es mejor a simple vista, pero en sitios oscuros y despejados, aunque en nuestro país es, desafortunadamente, temporada de lluvia. A las Perseidas se les asoció el nombre de “Lágrimas de San Lorenzo”, ya que el 10 de agosto se celebra a este santo, quien vertió lagrimas al ser quemado. rmujica@inaoep.mx

Efemérides José Ramón Valdés Agosto 02. Lluvia de meteoros α-Capricórnidas. Actividad entre el 15 julio y el 20 de agosto, con el máximo el 2 de agosto. La tasa máxima observable será de 5 meteoros por hora. El radiante se encuentra en la constelación de Capricornio, con coordenadas AR=20h30m, DEC=-10º. A la medianoche el radiante se encontrará 52 grados por encima del horizonte sureste. Agosto 04, 18:19. Luna en Cuarto Menguante. Distancia geocéntrica: 381,657 km. Tamaño angular de la Luna: 31.3 minutos de arco. Agosto 06. Lluvia de meteoros τ-Acuáridas. Actividad entre julio y agosto, con el máximo el 6 de agosto. La tasa máxima observable será de 8 meteoros por hora. El radiante se encuentra en la constelación de Acuario, con coordenadas AR=22h30m, DEC=-15º. A la medianoche el radiante se encontrará 31 grados por encima del horizonte sureste. Agosto 09, 02:00. Mercurio en conjunción inferior con el Sol. Distancia geocéntrica: 0.60 U.A. Agosto 10, 18:07. Luna en perigeo. Distancia geocéntrica: 358,071 km. Tamaño angular de la Luna: 33.3 minutos de arco. Agosto 11. El cometa C/2016 M1 (PANSTARRS) alcanzará su perihelio, a una distancia de 2.22 U.A. del Sol. Agosto 11, 06:40. Eclipse parcial de Sol. No visible desde la República Mexicana. Agosto 11, 09:59. Luna Nueva. Distancia geocéntrica: 358,493 km. Tamaño angular de la Luna: 33.3 minutos de arco.

Agosto 17, 13:14. Júpiter a 4.2 grados al sur de la Luna, en la constelación de la Libra. Configuración visible después de la puesta del Sol y hasta pasada la media noche hacia la parte suroeste de la esfera celeste. Agosto 18, 07:50. Luna en Cuarto Creciente. Distancia geocéntrica: 392,652 km. El tamaño angular de la Luna será de 30.4 minutos de arco.

Calendario astronómico agosto 2018

Agosto 21, 09:53. Saturno a 2.0 grados al sur de la Luna, en la constelación de Sagitario. Esta configuración será mejor visible desde las primeras horas de la noche, hacia la parte sureste de la esfera celeste.

Las horas están expresadas en Tiempo Universal (UT)

Agosto 23, 11:24. Luna en apogeo. Distancia geocéntrica: 405,767 km. Tamaño angular de la Luna: 29.4 minutos de arco.

Agosto 13. Lluvia de meteoros Perseidas. Actividad entre el 23 julio y el 20 de agosto, con el máximo el 13 de agosto. La tasa máxima observable será de 80 meteoros por hora. El radiante se encuentra en la constelación de Perseo, con coordenadas AR=03h00m, DEC=+58º. A la medianoche el radiante se encontrará 6 grados por encima del horizonte noreste.

Agosto 23, 17:13. Marte a 6.7 grados al sur de la Luna, en la constelación de Capricornio. Esta configuración será visible desde las primeras horas de la noche hacia la parte sureste de la esfera celeste. Agosto 26, 11:58. Luna Llena. Distancia geocéntrica: 402,415 km. El tamaño angular de la Luna será de 29.6 minutos de arco.

Agosto 14, 13:35. Venus a 6.2 grados al sur de la Luna en la constelación de la Virgen. Configuración visible después de la puesta del Sol, hacia el horizonte poniente de la esfera celeste.

Agosto 26, 21:48. Mercurio en su máxima elongación oeste (18º).

Agosto 15, 05:09. Venus en dicotomía (se observa sólo la mitad de su disco).

Agosto 28, 11:01. Mercurio en dicotomía (se observa sólo la mitad de su disco).

Agosto 17, 07:58. Venus en su máxima elongación este (45º).

jvaldes@inaoep.mx


15

agosto · 2018

A ocho minutos luz Sara Coutiño de León

Misterio resuelto: primera fuente extragaláctica de rayos cósmicos detectada

Observatorio de neutrinos IceCube ubicado en el Polo Sur. Representación artística de un blazar emitiendo radiación gamma y neutrinos en dirección a IceCube. Créditos: IceCube/NASA

principio del siglo XX se sabía que abundaba una radiación ionizante en el aire y se creía que se generaba por elementos radiactivos en la superficie terrestre. De ser cierto, la intensidad de esta radiación debía disminuir conforme nos alejáramos de la superficie. Fue hasta 1912 cuando el austriaco Victor Hess decidió emprender un viaje en globo con tres electroscopios para para medir la carga eléctrica. Su descubrimiento, por el cual recibió el premio Nobel en 1936, generaría un nuevo misterio en el campo de la Astrofísica: esta radiación ionizante aumentaba conforme se elevaban, por lo tanto, aquello que la causara debería provenir del espacio. Esta conclusión causó mucha controversia entre la comunidad científica y no fue aceptada hasta que varios científicos reprodujeron el experimento y obtuvieron los mismos resultados, entre ellos el científico Robert Millikan, que había determinado la carga eléctrica del electrón y quien denominó a esta misteriosa radiación “rayos cósmicos”. Conforme se fueron haciendo más experimentos se determinó que los rayos cósmicos son, en su mayoría, protones y por lo tanto no podía conocerse su origen cósmico, ya que su trayectoria, desde su origen hasta la Tierra, es desviada por los campos magnéticos que abundan en el universo. Sin embargo, más allá de su composición, la característica más notoria es la energía que tiene cada rayo cósmico. Por ejemplo, mientras que un foco genera luz con energía de un par de electronvoltios, los rayos cósmicos alcanzan miles de millones de electronvoltios. En la medida que la tecnología ha avanzado, se han desarrollado experimentos que nos permiten entender los procesos físicos que generan los rayos cósmicos. De hecho, se sabe que el Sol genera rayos cósmicos en erupciones solares, pero no son muy comunes y por lo tanto no son suficientes para explicar por qué los rayos cósmicos llegan de todas direcciones todo el tiempo. Lo que se sabe es que los rayos cósmicos son el resultado de procesos muy violentos en el universo, como lo son la aceleración de partículas cargadas por campos magnéticos muy intensos, procesos que también generan otro tipo de partículas, entre ellas, los neutrinos. Los neutrinos son partículas sub-atómicas que originalmente fueron predichas de manera teórica, por Wolfgang Pauli en 1930, para explicar la aparente pérdida de energía en un proceso físico conocido como desintegración beta. Conforme avanzaron los estudios teóricos y experimentales se determinó que los neutrinos poseen características muy peculiares, entre las que destacan su carencia de carga eléctrica, lo que permite conocer su origen cuando son detectadas; su muy improbable interacción con la materia, que dificulta mucho su detección, y su casi nula masa. En conjunto, estas cualidades le han dado al neutrino el sobrenombre de partícula fantasma. En la actualidad existe un observatorio llamado IceCube diseñado para detectar neutrinos. De manera regular, IceCube detecta neutrinos de baja energía que son el resultado de la interacción de los rayos cósmicos con las partículas en la atmósfera en donde se generan más partículas secundarias, entre ellas estos neutrinos. Sin embargo, el principal objetivo es detectar neutrinos de muy alta energía. IceCube está construido en un kilómetro cúbico bajo la superficie en el Polo Sur. Está conformado por más de 5 mil sensores de luz que se activan cuando un neutrino interactúa con un átomo y crea una partícula secundaria cargada que, a su vez, produce la luz detectada. Después de aplicar ciertos algoritmos se puede calcular la dirección de la cual provenía el neutrino. Uno de los descubrimientos más importantes en la historia de la física de partículas y de altas energías, logrado por parte del grupo de científicos que colaboran en IceCube, fue dado a conocer el pasado 12 de julio de 2018 en una rueda de prensa organizada por la Fundación

A

Nacional de Ciencia (NSF, por sus siglas en inglés), principal auspiciador de IceCube, ¿de qué se trata este descubrimiento? El 22 de septiembre de 2017, IceCube detectó un neutrino con una energía de 300 teraelectronvoltios. Inmediatamente se lanzó una alerta a telescopios y observatorios alrededor de la Tierra para que rastrearan un comportamiento inusual en la región donde provenía este neutrino. Fueron el telescopio espacial Fermi y el arreglo de telescopios Cherenkov MAGIC, ubicado en las Islas Canarias, quienes reportaron un incremento en el flujo de rayos gamma, provenientes de esa región, asociado a un blazar conocido con el nombre de TXS 0506+056. Los blazares son galaxias elípticas que en su centro tienen un agujero negro supermasivo del cual emana un jet, que apunta en dirección a la Tierra, en el que salen disparados chorros de luz y partículas. Por si fuera poco, el equipo de científicos de IceCube revisó sus archivos y encontró que a finales de 2014 y principios de 2015 habían detectado 12 neutrinos provenientes de la misma fuente, lo que confirma que TXS 0506+056 es la primera fuente extragaláctica de neutrinos muy energéticos y rayos cósmicos, ¡sí, rayos cósmicos! Esto debido a que ambos tipos de partículas son generadas por los mismos procesos de aceleración, y se predice que la emisión de neutrinos también viene acompañada de la emisión de rayos gamma. Sin embargo, este es un tema de investigación aún abierto y latente en la física de altas energías. Entre los telescopios y observatorios que confirmaron el inusual comportamiento en TXS 0506+056 en rayos gamma, están los satélites espaciales AGILE e INTEGRAL, y en tierra HAWC en México, H.E.S.S. en Namibia, y VERITAS en Estados Unidos. En rayos X, óptico y radio participaron las misiones espaciales MAXI, NuSTAR y Swift, y en la superficie terrestre los observatorios ASASSN en Chile y Estados Unidos, el GTC en España, Kanata en Japón, Kapteyn en España y Estados Unidos, Kiso en Japón, Liverpool en España, OVRO en Estados Unidos, SALT en Sudáfrica, Subaru en Japón y el VLA en Estados Unidos. Además del observatorio de neutrinos ANTARES, en Francia. Esta cooperación internacional remarca la nueva era en la Astrofísica, la llamada “multi-mensajero”, en donde un mismo fenómeno en el universo puede observarse detectando luz, así como como partículas, en este caso neutrinos. Anteriormente ya había sucedido con otro fenómeno, con la detección de ondas gravitacionales. A todo esto, ¿por qué es importante el estudio de los neutrinos? Resulta que con lo único que interaccionan es la llamada fuerza débil y la gravedad (aunque muy poco porque la masa de los neutrinos es muy pequeña). La fuerza débil es la encargada de transformar los protones en neutrones, propiciar la fusión nuclear en el Sol y las demás estrellas, y crear los elementos que forman los planetas y la vida misma en la Tierra. Si la masa de los neutrinos fuera mayor, el universo luciría muy diferente, y probablemente no estaríamos aquí para verlo. Por lo tanto, estudiar y comprender la física de los neutrinos puede ayudarnos a conocer la estructura y evolución del universo, y con ello, nuestra propia historia. Así que, el misterio de más de 100 años sobre el origen de los rayos cósmicos ha dado un paso gigante gracias al estudio de los neutrinos. Esperamos que en los próximos años descubramos nuevos progenitores, entendamos mejor la física detrás de estos procesos energéticos, de tal manera que se vaya cerrando, poco a poco, el misterio del origen de los rayos cósmicos. sara.cdl989@gmail.com


Sabere ienciaS II Seminario de Reflexión Metodológica Instituto de Ciencias Informes:229-55-00 etx. 7057 / jose.alcantara@correo.buap.mx 1er tema: Cambio Climático y Conocimiento / septiembre 6 2o tema: Escenarios de cambio climático de Puebla/ octubre 4 3er tema: Mecanismos de adaptación al cambio climático en Puebla / noviembre 8

Seminario de Investigación y Cultura “Óscar Sánchez Daza” con la temática: La equidad de género en el mundo moderno Del 21 de agosto al 23 de octubre de 2018 Informes: 229 55 00 ext. 7064 Taller de poesía “Variaciones de un mismo tema” Facultad de Filosofía y Letras / Del 30 de agosto al 8 de noviembre Informes: 2295500 ext. 5437 y 3534 Correo: econtinua.ffyl@correo.buap.mx Tercer Congreso Nacional de Didáctica Facultad de Filosofía y Letras / 19, 20 y 21 de septiembre Informes: 2295500 ext. 5400 / 2295591 Correo: congresodidactica.ffyl@correo.buap.mx

V Congreso Nacional de Embriología Facultad de Medicina / Auditorio Julio Glockner / octubre 10 - 12 Informes: 2295500 ext. 6066 Correo: kristopher.suarezb@alumno.buap.mx http://www.medicina.buap.mx 8o Congreso de la Asociación Latinoamericana de Población Población y Desarrollo Sostenible: Políticas públicas y avances en la medición sociodemográfica Del 23 al 26 octubre 2018 / http://www.alapop.org/alap II Congreso Nacional de Estudiantes de Educación Superior Facultad de Ciencias de la Comunicación 22, 23 y 24 de noviembre de 2018 Complejo Cultural Universitario / http://www.fccom-buap.mx

III Encuentro sobre Sexualidad, Cuerpo y Género Colegio de Antropología Social / Del 1 al 3 de octubre 2018 Informes: mauricio.list@correo.buap.mx LXI Congreso Nacional de Física Sociedad Mexicana de Física / Del 7 al 12 de octubre de 2018 Complejo Cultural Universitario Informes:56224848 / 56224840 / 56224946 Correo: smf@ciencias.unam.mx / http://www.smf.mx/cnf Introducción al análisis de secuencias genéticas Instituto de Ciencias / 15 y 16 de octubre de 2018 Informes: dolores.castaneda@correo.buap.mx 4° Coloquio Nacional Palafoxiano de estudiantes de Lingüística y Literatura Facultad de Filosofía y Letras / 16 al 19 de octubre de 2018 Informes: coloquiopalafoxiano.ffyl@correo.buap.mx

13 al 17 de agosto / 8 - 14 horas Curso de verano “Veraneando 2018” Talleres, observaciones y más / Para niños de 6 a 12 años. Instituto Nacional de Astrofísica, Óptica y Electrónica, Calle Luis Enrique Erro # 1, Santa María Tonantzintla, San Andrés Cholula, Puebla. 18 de agosto / 11 - 13 horas Baños de Ciencia en el Museo de Córdoba “Números y figuras”, Carlos Ventura, BUAP / CAyC Calle 3 No. 305-A, entre Av. 3 y 5, col. Centro, Córdoba, Veracruz. Taller para niños de 6 a 12 años / Entrada libre

23 de agosto / 19 horas Noches de ciencia en el bar Conferencia de astronomía, Ricardo Chávez (INAOE) Foro Karuzo. 11 Oriente 218. Centro Histórico. Puebla. Conferencia para todo público / Entrada libre 24 de agosto / 19 horas “Café científico Tlaxcala” Conferencia: Nanotecnología Dr. Alfredo González Fernández, INAOE Evento para todo público / Entrada libre Café Colibrí, Plaza de la Constitución # 19 Local 1, Colonia Centro, Tlaxcala. 25 de agosto / 11 - 13 horas Baños de Ciencia en la Biblioteca Alma “Ciencia y Tecnología del espacio” Raúl Vega y Raziel Campos, INAOE Biblioteca Alma, 14 Norte 1802, Barrio de El Alto, Puebla, Pue. Taller para niños de 6 a 12 años / Entrada libre.

Los grandes no mueren. Luis Rivera Terrazas continuará enseñando en la aulas del añoso Colegio Carolino e investigando en los institutos científicos de Ciudad Universitaria, y sobre todo probará y probará día a día, ante los ojos de todos, que el hombre moral no es una utopía. Horacio Labastida Muñoz (1918 – 2004) Historiador

Épsilon

Jaime Cid

Informes Edificio CEDES ECO4 Tel: 01 (222) 229-55-00, ext. 7845 y 7820 email: cedes@correo.buap.mx PARTICIPANTES DE: MÉXICO (UNAM, BUAP, UAT, ITESM-Aguascalientes, UDLAP, ColTlax, Ibero-Puebla, UAM-Xochimilco, UAChapingo) ARGENTINA BRASIL CHILE URUGUAY


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.